Desde la irrupción de la inteligencia artificial (IA) en nuestra vida cotidiana, muchas voces expertas han dudado de los beneficios de este tipo de sistemas. Si bien existe un temor porque estos sistemas se utilicen para reemplazar trabajo humano, hay quienes creen que hay quienes pueden usarlos con fines delictivos.
Son muchas las voces que advierten acerca de este y otro tipo de peligros. Entre las más prominentes se encuentran Elon Musk, Steve Wozniak (co-fundador de Apple) y Geoffrey Hinton, considerado como "el padrino de la inteligencia artificial". También hay países que han tomado medidas al respecto; recientemente, Italia prohibió el uso de la plataforma ChatGPT hasta asegurar que no viola la privacidad de sus usuarios.
Es por estos motivos que la Unión Europea ha expresado su preocupación por el avance de la IA. Es por eso que, en el día de hoy, su cuerpo parlamentario ha dado un primer paso en crear la primera ley que busca regular su uso.
La UE busca regular la inteligencia artificial
Este miércoles 14 de junio, el Parlamento Europeo adoptó su posición sobre la "Ley de Inteligencia Artificial". Con 499 votos a favor, 28 en contra y 93 abstenciones, los legisladores de los estados miembro buscan que los sistemas que se desarrollen dentro del bloque se ajusten a valores como la supervisión humana, la seguridad, la privacidad, la transparencia, la no discriminación y el bienestar social y medioambiental.
Uno de los impulsores de la medida, Brando Benifei (Partito Democratico - Italia), afirmó: "Mientras las grandes empresas tecnológicas hacen sonar la alarma sobre sus propias creaciones, Europa se ha adelantado y ha propuesto una respuesta concreta a los riesgos que la IA está empezando a plantear".
"Queremos que se aproveche el potencial positivo de la IA para la creatividad y la productividad, pero también lucharemos para proteger nuestra posición y contrarrestar los peligros para nuestras democracias y libertades durante las negociaciones con el Consejo", concluyó su ponencia.
Por otro lado, Drago Tudorache (REPER - Rumanía) aseguró que la ley "marcará la pauta a nivel mundial en el desarrollo y la gobernanza de la inteligencia artificial, garantizando que esta tecnología, llamada a transformar radicalmente nuestras sociedades por los enormes beneficios que puede ofrecer, evolucione y se utilice de acuerdo con los valores europeos de democracia, derechos fundamentales y Estado de Derecho".
Cuál es el objetivo de esta ley
Para establecer su marco regulatorio, el texto hace hincapié en ciertas prácticas y establece una serie de obligaciones para las empresas proveedoras.
Prácticas prohibidas
Quedarán prohibidos aquellos sistemas que puedan suponer un peligro inaceptable para la seguridad de las personas, como los utilizados para el scoring social (clasificación de personas en función de su comportamiento social o características personales).
Durante la asamblea legislativa, los eurodiputados ampliaron la lista para incluir prohibiciones de usos intrusivos y discriminatorios de la IA.
- Sistemas de identificación biométrica a distancia "en tiempo real" y "a posteriori" en espacios de acceso público
- Sistemas de categorización biométrica que utilicen características sensibles (por ejemplo, sexo, raza, etnia, estatus de ciudadanía, religión u orientación política)
- Sistemas policiales predictivos (basados en perfiles, localización o comportamientos delictivos anteriores)
- Sistemas de reconocimiento de emociones en servicios policiales, la gestión de fronteras, el lugar de trabajo y las instituciones educativas
- Extracción no selectiva de imágenes faciales de Internet o de grabaciones de CCTV para crear bases de datos de reconocimiento facial (violación de los derechos humanos y del derecho a la intimidad)
IA de alto riesgo
Los eurodiputados aseguraron que la clasificación de aplicaciones de "alto riesgo" incluirá sistemas de IA que supongan un daño significativo para la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas. También se añadieron aquellos que sean utilizados para influir en los votantes y en el resultado de las elecciones y en los sistemas de recomendación utilizados por las plataformas de medios sociales (con más de 45 millones de usuarios).
Obligaciones para los desarrolladores
Los proveedores de modelos fundacionales (entre los que se incluyen lenguajes como GPT, de OpenAI, y BERT, de Google) tendrían que evaluar y mitigar los posibles riesgos que menciona la UE. Para ello, deberán registrar sus modelos en una base de datos del bloque continental previo a su comercialización.
Sistemas de IA generativa basados en esos modelos, como ChatGPT, deberán cumplir estos requisitos de transparencia y garantizar salvaguardias contra la generación de contenidos ilegales. También deberán brindar y hacer público resúmenes detallados de los datos protegidos por derechos de autor utilizados para su formación.
Apoyar la innovación y proteger los derechos de los ciudadanos
Para impulsar la innovación en IA y apoyar a las PYME, los eurodiputados han añadido exenciones para las actividades de investigación y los componentes de IA proporcionados bajo licencias de código abierto. La nueva ley promueve los llamados "sandboxes" regulatorios, o entornos reales, establecidos por las autoridades públicas para probar la IA antes de su despliegue.
Los legisladores europeos quieren impulsar el derecho de los ciuadanos a presentar quejas y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten significativamente a sus derechos fundamentales.