ChatGPT en peligro: otro país prohibirá el uso de la inteligencia artificial por robo de datos
Un país europeo tomó medidas contra el servicio de chatbot de OpenAI por filtrar información privada de los usuarios.
El gobierno de Italia puso en jaque al ChatGPT de OpenAI por filtrar información privada de los usuarios y desde el organismo de regulación de datos italiano (Garante per la Protezione dei dati personali) pidieron detener el uso del chatbot en el país.
El hecho lo confirmó una empresa líder de soluciones de ciberseguridad mundial conocida como Check Point Software Technologies (NASDAQ: CHKP). El proveedor señaló que el pasado 20 de marzo se filtraron conversaciones de los usuarios con GPT y se expusieron datos privados como las facturas y tarjetas de crédito de los suscriptores.
Igualmente, ya se iniciaron acciones legales y se llevará a cabo una investigación para asegurar el cumplimiento del Reglamento General de Protección de Datos europeo (GDPR).
El nuevo empleo de la Inteligencia Artificial que paga hasta 300.000 euros al año: ¿cómo postularse?
Según detalla el comunicado oficial del garante italiano, actualmente ChatGPT "no proporciona ninguna información a los usuarios, ni a los interesados cuyos datos han sido recopilados por OpenAI", agregó "la ausencia de una base jurídica adecuada en relación con la recopilación de datos personales y su tratamiento" y el incumplimiento de los artículos 5, 6, 8, 13 y 25 del GDPR.
¿Es peligrosa la inteligencia artificial?
El dilema de lo positivo y lo negativo de la IA predomina fuerte desde su llegada. Ya se realizó una colecta de mil firmas para detener su desarrollo, impulsada por Elon Musk, pero también existen opositores a este freno como Bill Gates, quien defiende a la tecnología revolucionaria.
Paal Aaserudseter, ingeniero de seguridad de Check Point Software, declaró que "El potencial del uso indebido de datos es, con mucho, una de mis mayores preocupaciones con respecto a ChatGPT".
"El problema en cuestión es que la mayoría de los usuarios no son conscientes del riesgo que implica cargar este tipo de información sensible. Con suerte, el efecto positivo en Italia de la prohibición de ChatGPT es que la Ley de IA de la UE entrará en vigor mucho más rápido", expusó el ingeniero.
Igualmente, no hay que apoyarse en que la inteligencia artificial puede reemplazar nuestras tareas cotidianas, ya que ha mostrado deficiencias en su uso, propagando la información falsa.
¿Qué medidas se evalúan tomar frente al ChatGPT?
Establecer pautas éticas: debe haber pautas éticas claras para el desarrollo y uso de la IA que estén alineadas con los valores y principios sociales, como la transparencia, la responsabilidad, la privacidad y la equidad.
Fomentar la transparencia: las empresas y desarrolladores deben ser transparentes acerca de sus sistemas de IA, incluida la forma en que están diseñados, capacitados y probados.
Asegurar la privacidad: las empresas deben priorizar la protección de la privacidad de los usuarios, especialmente cuando se trata de datos confidenciales, implementando protocolos sólidos de protección de datos y proporcionar explicaciones claras sobre cómo se recopilan, almacenan y utilizan los datos de los usuarios.
Priorizar la seguridad: la seguridad debe ser una prioridad máxima en el desarrollo de la IA, y se deben implementar mecanismos para prevenir los daños causados por los sistemas de IA. Esto incluye el desarrollo de protocolos de prueba sólidos y la implementación de mecanismos a prueba de fallos y vulnerabilidades.
Fomento de la innovación: los gobiernos deben proporcionar fondos y recursos para apoyar la investigación y el desarrollo en IA, al mismo tiempo que garantizan que la innovación se equilibre con una gobernanza responsable.
Fomentar la participación pública y la accesibilidad: debe haber oportunidades para la participación pública y la participación en el desarrollo y la regulación de la IA, para garantizar que se consideren las necesidades y preocupaciones del público. Las empresas deben diseñar sus sistemas de IA para que sean accesibles para todos los usuarios, independientemente de sus capacidades físicas o experiencia técnica, proporcionando instrucciones claras e interfaces de usuario que sean fáciles de entender y usar.
Qué dicen sobre la seguridad en OpenAI
Desde OpenAI en relación a la seguridad dijeron que "creemos que los potentes sistemas de IA deben estar sujetos a rigurosas evaluaciones de seguridad. Se necesita regulación para garantizar que se adopten tales prácticas, y nos involucramos activamente con los gobiernos en la mejor forma que podría tomar dicha regulación".
También, aseguraron que no pueden predecir "todas las formas beneficiosas en que las personas usarán nuestra tecnología , ni todas las formas en que las personas abusarán de ella. Es por eso que creemos que aprender del uso en el mundo real es un componente crítico para crear y lanzar sistemas de IA cada vez más seguros con el tiempo".
Por el momento, la primer medida contra la inteligencia artificial la tomó Italia, pero es probable que más países y la propia Unión Europea tomen medidas similares estas semanas.
Compartí tus comentarios