Marco regulatorio

¿El fin de ChatGPT? Nueva ley complica (y mucho) a la estrella del momento

El Parlamento Europeo está preparando una nueva ley para regular el uso de los sistemas de inteligencia artificial dentro de su territorio. Qué dice el texto y cómo puede afectar ChatGPT o a Google Bard.

En esta noticia

Desde la irrupción de la inteligencia artificial (IA) en nuestra vida cotidiana, muchas voces expertas han dudado de los beneficios de este tipo de sistemas. Si bien existe un temor porque estos sistemas se utilicen para reemplazar trabajo humano, hay quienes creen que hay quienes pueden usarlos con fines delictivos.

Son muchas las voces que advierten acerca de este y otro tipo de peligros. Entre las más prominentes se encuentran Elon Musk, Steve Wozniak (co-fundador de Apple) y Geoffrey Hinton, considerado como "el padrino de la inteligencia artificial". También hay países que han tomado medidas al respecto; recientemente, Italia prohibió el uso de la plataforma ChatGPT hasta asegurar que no viola la privacidad de sus usuarios.

Es por estos motivos que la Unión Europea ha expresado su preocupación por el avance de la IA. Es por eso que, en el día de hoy, su cuerpo parlamentario ha dado un primer paso en crear la primera ley que busca regular su uso.

Adiós ChatGPT: este es el primer país en prohibir la inteligencia artificial, ¿de qué acusan a Open IA?

Los creadores de ChatGPT advierten sobre el mayor riesgo de la Inteligencia Artificial: a qué le temen

La UE busca regular la inteligencia artificial

Este miércoles 14 de junio, el Parlamento Europeo adoptó su posición sobre la "Ley de Inteligencia Artificial". Con 499 votos a favor, 28 en contra y 93 abstenciones, los legisladores de los estados miembro buscan que los sistemas que se desarrollen dentro del bloque se ajusten a valores como la supervisión humana, la seguridad, la privacidad, la transparencia, la no discriminación y el bienestar social y medioambiental.

Uno de los impulsores de la medida, Brando Benifei (Partito Democratico - Italia), afirmó: "Mientras las grandes empresas tecnológicas hacen sonar la alarma sobre sus propias creaciones, Europa se ha adelantado y ha propuesto una respuesta concreta a los riesgos que la IA está empezando a plantear".

El Parlamento Europeo busca regular el uso de la Inteligencia Artificial en el territorio (Fuente: Shutterstock)

"Queremos que se aproveche el potencial positivo de la IA para la creatividad y la productividad, pero también lucharemos para proteger nuestra posición y contrarrestar los peligros para nuestras democracias y libertades durante las negociaciones con el Consejo", concluyó su ponencia.

Por otro lado, Drago Tudorache (REPER - Rumanía) aseguró que la ley "marcará la pauta a nivel mundial en el desarrollo y la gobernanza de la inteligencia artificial, garantizando que esta tecnología, llamada a transformar radicalmente nuestras sociedades por los enormes beneficios que puede ofrecer, evolucione y se utilice de acuerdo con los valores europeos de democracia, derechos fundamentales y Estado de Derecho".

Cuál es el objetivo de esta ley

Para establecer su marco regulatorio, el texto hace hincapié en ciertas prácticas y establece una serie de obligaciones para las empresas proveedoras.

Prácticas prohibidas

Quedarán prohibidos aquellos sistemas que puedan suponer un peligro inaceptable para la seguridad de las personas, como los utilizados para el scoring social (clasificación de personas en función de su comportamiento social o características personales).

Durante la asamblea legislativa, los eurodiputados ampliaron la lista para incluir prohibiciones de usos intrusivos y discriminatorios de la IA.

  • Sistemas de identificación biométrica a distancia "en tiempo real" y "a posteriori" en espacios de acceso público
  • Sistemas de categorización biométrica que utilicen características sensibles (por ejemplo, sexo, raza, etnia, estatus de ciudadanía, religión u orientación política)
  • Sistemas policiales predictivos (basados en perfiles, localización o comportamientos delictivos anteriores)
  • Sistemas de reconocimiento de emociones en servicios policiales, la gestión de fronteras, el lugar de trabajo y las instituciones educativas
  • Extracción no selectiva de imágenes faciales de Internet o de grabaciones de CCTV para crear bases de datos de reconocimiento facial (violación de los derechos humanos y del derecho a la intimidad)

IA de alto riesgo

Los eurodiputados aseguraron que la clasificación de aplicaciones de "alto riesgo" incluirá sistemas de IA que supongan un daño significativo para la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas. También se añadieron aquellos que sean utilizados para influir en los votantes y en el resultado de las elecciones y en los sistemas de recomendación utilizados por las plataformas de medios sociales (con más de 45 millones de usuarios).

¿Adiós iPhone? La sanción a Apple que pone en peligro a los smartphones más valiosos del mundo

¿Adiós ChatGPT? España se suma a los países de Europa que desconfían de la inteligencia artificial

Obligaciones para los desarrolladores

Los proveedores de modelos fundacionales (entre los que se incluyen lenguajes como GPT, de OpenAI, y BERT, de Google) tendrían que evaluar y mitigar los posibles riesgos que menciona la UE. Para ello, deberán registrar sus modelos en una base de datos del bloque continental previo a su comercialización

Sistemas de IA generativa basados en esos modelos, como ChatGPT, deberán cumplir estos requisitos de transparencia y garantizar salvaguardias contra la generación de contenidos ilegales. También deberán brindar y hacer público resúmenes detallados de los datos protegidos por derechos de autor utilizados para su formación.

Apoyar la innovación y proteger los derechos de los ciudadanos

Para impulsar la innovación en IA y apoyar a las PYME, los eurodiputados han añadido exenciones para las actividades de investigación y los componentes de IA proporcionados bajo licencias de código abierto. La nueva ley promueve los llamados "sandboxes" regulatorios, o entornos reales, establecidos por las autoridades públicas para probar la IA antes de su despliegue.

Los legisladores europeos quieren impulsar el derecho de los ciuadanos a presentar quejas y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten significativamente a sus derechos fundamentales.

Temas relacionados
Más noticias de inteligencia artificial