Opinión

Europa avanza en una ley para "domar" la inteligencia artificial: los objetivos y los límites que enfrenta

En esta noticia

En medio de una gran preocupación a nivel internacional, la Unión Europea (UE) a través de su Parlamento se encuentran actualmente en la recta final para aprobar una nueva regulación orientada a ordenar determinados aspectos relacionados con el uso de Inteligencia Artificial (IA). Se trata de la norma "Ley de Inteligencia Artificial" o como muchas personas ya han bautizado: la "AI Act. que lleva ya 2 años de largo e intenso debate.

Mientras esto sucede en Europa, por el contrario, los legisladores de Estados Unidos y China, no parecieran mostrar interés en regular restricciones sobre estas tecnologías.

El proyecto de ley se fundamenta en que el mundo está al borde de la cuarta revolución industrial; que, en comparación con las tres oleadas anteriores, iniciadas por la introducción del vapor, la electricidad y luego los ordenadores, la cuarta oleada extrae su energía de la abundancia de datos combinada con potentes algoritmos y capacidad informática. Que la revolución digital actual se caracteriza por su escala global, su veloz convergencia y el enorme impacto de los nuevos avances tecnológicos en los países, las economías, las sociedades, las relaciones internacionales y el medio ambiente.

Fundamentalmente el Parlamento reconoce que un cambio radical de esa magnitud repercute inexorablemente y de manera tan diversa como compleja en las distintas partes de la sociedad, en función de sus objetivos, ubicación geográfica o contexto socioeconómico. Pone énfasis en que esta transformación tecnológica debe darse dentro de un marco de cabal respeto de los derechos fundamentales y de tal manera que las tecnologías digitales sirvan a la humanidad (en lugar de dañarla).

Advertiremos entonces que la intención del regulador con este cuerpo normativo armonizado en materia de Inteligencia Artificial (Ley de Inteligencia Artificial), es comenzar a "domar" esta problemática hiper compleja, incluso para los más expertos a nivel mundial en derecho vinculado a la tecnología. Sin duda se trata de un "blanco móvil" difícil de clarificar.

Desde ya que la regulación en una materia tan dificultosa como lo es la IA representa un desafío tan inmenso como la IA misma, pero hay una realidad: la sociedad está preocupada, las cosas están ocurriendo, y no se puede mirar hacia otro lado.

Mientras tanto otros expertos sostienen que es pronto para lanzar una regulación que determine los límites éticos y comerciales del desarrollo y operación vinculada a este tipo de tecnologías.

Tal vez la respuesta la encontremos más en la ciencia ficción que en el derecho. Arthur Charles Clarke, más conocido como Arthur Clarke, escritor y científico británico, autor de "2001: Una odisea del espacio" expresó que "cualquier tecnología suficientemente avanzada es indistinguible de la magia". Y esa frase vieja, pero nunca más vigente que hoy, viene a marcarnos el rumbo. Sepamos que, la IA para la inmensa mayoría de las personas se trata de resultados tangibles, pero procesos ininteligibles para arribar a esos resultados. Así entonces como en la magia, bastaría con que nos expliquen el truco para entenderlo, no ocurrirá lo propio con la IA.

Dada esta situación el Parlamento Europeo no está viendo otra alternativa que aprobar en el muy corto plazo determinadas directrices que ayuden a regular las situaciones que potencialmente puedan afectar más los derechos de las personas.

¿Una ley basada en riesgos?

La novedad más grande de esta ley próxima a emerger es que, al igual que otros estándares (por ejemplo, los de compliance anticorrupción), emplea un enfoque basado en el riesgo.

Al adoptar este método impone mayores requisitos, y, en su caso, prohibiciones, a los modelos de IA que puedan tener un mayor impacto en determinados valores que acoge la sociedad: la integridad de las personas; el resguardo de los bienes; provocar casos de discriminación, violar la privacidad, entre otras situaciones indeseables.

El uso de la IA no solo es amplio y sorprendente, sino que se sigue ampliando día a día a nuevos campos de aplicación y casos de uso. Así como en un momento las diferentes industrias miraban a la financiera asombrados por la irrupción de las "Fintech", hoy no queda prácticamente sector de la economía que no haya sabido desarrollar su "tech" (legaltech; Insurtech; propertech; son solo algunos ejemplos).

Y de igual manera recorre este acelerado camino la IA, penetrando en todas las industrias, pero más aún, en procesos y subprocesos jaqueando la forma de trabajar de manera tan dramática como disruptiva.

Si nos remitimos a las tres leyes de la robótica enunciadas por Isaac Asimov en uno de sus relatos de ciencia ficción llamado Círculo vicioso (1942), advertiremos que este visionario escritor y científico ya mostraba preocupación afirmando que:

"Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño"; "Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª ley"; y "Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley"

En realidad, Asimov, dicho por él mismo, buscaba dar solución al "síndrome de Frankenstein", inquietud que la escritora londinense Mary Shelly, ya expresó a inicios del 1800 al mostrar en su obra Frankenstein (considerada para muchos la primera novela de ciencia ficción moderna) como la creación que se volvía contra su creador. Veremos que la primera de las tres leyes de la robótica de Asimov apuntaba a esta posibilidad, y, en cierta forma, está más vigente que nunca.

Tipos de IA y el impacto en la nueva regulación europea

Los modelos de IA que se ven más afectados por la AI Act, por el mencionado enfoque basado en el riesgo, exigirá que determinadas organizaciones y/o sectores de la industria presten especial atención. De esta forma, a determinados modelos de IA la ley le impone requisitos severos.

Se describen cuatro niveles de peligro que justifican la regulación de los riesgos que plantean los modelos de IA., que merecen diferente tratamiento. Las categorías son: "riesgo inaceptable", "riesgo alto", "riesgo limitado" y " riesgo mínimo".

Estos modelos son:

1. IA usada relacionada con la producción y el funcionamiento de elementos sensibles.

La producción, provisión y funcionamiento de elementos tales como la energía; los dispositivos médicos; los vehículos de motor; entre otros son considerados de "alto riesgo" por la AI Act. El racional es que la operación defectuosa o mal funcionamiento de estos modelos, afecta significativamente la integridad de las personas o bienes. Desde ya que el título es menos que un resumen y la lista de bienes producidos y administrados es amplia.

2. IA utilizada para la identificación biométrica:

Temas tales como la seguridad o el análisis del comportamiento de las personas pueden beneficiarse significativamente con la biometría basada en estas tecnologías. Por otro lado, se deben considerar los riesgos para la privacidad de las personas, sobre todo en casos de identificación biométrica remota o a distancia (Ej.: realizar seguimientos de la actividad de una persona identificada) y casos de discriminación (sesgos en la interpretación que realice la IA). Existen casos especiales cuando autoridades policiales (o similares) y en casos puntuales específicamente contemplados podrían hacer uso de este tipo de dispositivos (Ej. localización de víctimas de crímenes). El fundamento será siempre la no restricción de la libertad. El debate que se ha dado y se dará aquí es bien amplio.

3. IA utilizada en la educación:

Imaginemos procesos de aceptación o admisión de personas a puestos de trabajo, o bien, a programas educativos para evaluar el conocimiento de las personas. También en evaluaciones basadas en tecnologías que determina el conocimiento necesario de las personas a fin de impartirlo. Es en este tipo de circunstancias, para citar solo algunos ejemplos, donde la legislación basada en el riesgo procura asegurar un adecuado nivel de educación y evaluación desprovisto de sesgos que puedan violar el derecho a la educación como así también el derecho a no ser discriminados.

4. IA utilizada en Recursos Humanos:

El uso de IA en los procesos de selección, evaluación y promoción de colaboradores, así como en despidos conlleva un cúmulo de riesgos que deben ser gestionados. Modelos de IA con problemas de diseñados y/o de entrenamiento podrían utilizar patrones discriminatorios por medio de algoritmos que tomen decisiones automatizadas respecto de temas de género, orientación sexual, grupos etarios, razas entre otros aspectos. Nuevas tecnologías de control de tiempos, performance y comportamiento de los trabajadores también podrían afectar sus derechos a la protección de datos y a la privacidad.

5. Determinados análisis financieros y crediticios

A la hora de utilizar la IA para evaluar indicadores tales como la solvencia financiera y crediticia de las personas, y toda vez que esta tecnología haga las veces de filtro para acceder a servicios esenciales (Ej. electricidad, gas, telecomunicaciones, financiación, etc.), merecerán también la atención de la AI Act. Se desea evitar sesgos que den lugar a la discriminación de personas o grupos de estas.

6. Selección de riesgos y determinación de la tarifa en determinados seguros:

La AI Act pone la lupa en los seguros de vida y los de salud, ya que estos presentan la particularidad de que podrían excluir y discriminar a ciertas personas, y afectar las condiciones de salud.

7. Chatbots y sistemas de IA que interactúen con humanos:

Uno de los usos más difundidos de la IA con los motores conversacionales automatizados. A medida que los "bots" van mejorando el uso del lenguaje natural, los humanos se vuelven un blanco más fácil para el engaño ya que la IA tiene una elevada y creciente capacidad para interpretar nuestro comportamiento. La AI Act intenta que estos sistemas que interactúan con humanos revelen su naturaleza, o sea, bots utilizando IA.

¿IA Certificada?

Así como ha sucedido en otras disciplinas menos complejas que la IA, ya están surgiendo proyectos para auditar sistemas de gestión de desarrollo, mantenimiento y puesta a disposición de modelos de IA, y de esta forma obtener una certificación de "IA CONFIABLE". Esto podría ser muy necesario porque difícilmente el regulador contará con los elementos necesarios para discernir a ciencia cierta y en períodos de tiempo breves el nivel de peligrosidad de cada modelo de AI.

En el mismo sentido podrían requerirse peritos informáticos expertos en esta gestión de riesgos tan particular.

Recomendaciones finales

Dicho todo esto, recomendamos, antes de invertir importantes sumas de dinero en aplicaciones basadas en IA, ya sea para su creación o mejor, consultar con profundidad la AI Act, y, en su caso, a expertos que puedan interpretarla cabalmente, a fin de no inutilizar esas inversiones en aplicaciones que, eventualmente, no puedan ser utilizadas o que presenten requisitos no contemplados en el desarrollo y de compleja adaptación.

Las organizaciones deberán fortalecer sus áreas de Compliance con profesionales capaces de asesorar sobre riesgos emergentes que hoy apenas podemos imaginar a la luz de los casos de uso que se han inventado. No obstante, la IA ha abierto una ventana a un mundo hasta ahora poco explorado.

Mientras tanto, Elon Musk y cientos de expertos mundiales acaban de firmar un llamado a hacer una pausa de seis meses en la investigación sobre Inteligencia Artificial (IA) más potentes que ChatGPT 4, el modelo de OpenAI lanzado este mes, al advertir de "grandes riesgos para la humanidad". ¿Responsabilidad? ¿Negocios? ... ¿Quién sabe?

Temas relacionados
Más noticias de inteligencia artificial
Noticias de tu interés

Compartí tus comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.