Preocupación

Un joven muere tras tener varias conversaciones con una inteligencia artificial

Un joven belga murió recientemente por suicidio después de hablar con un chatbot llamado ELIZA durante varias semanas. Todos los detalles del caso.

Un joven belga murió recientemente por suicidio después de hablar con un chatbot llamado ELIZA durante varias semanas, lo que ha provocado llamamientos para una mayor protección de los ciudadanos y la necesidad de generar conciencia sobre el tema.

"Sin estas conversaciones con el chatbot, mi esposo todavía estaría aquí", dijo la viuda del hombre, según el portal La Libre. Ella y su difunto esposo tenían treinta años, llevaban una vida cómoda y tenían dos hijos pequeños.

Sin embargo, hace unos dos años comenzaron a aparecer los primeros signos de problemas. El hombre se volvió muy ansioso por el medio ambiente y encontró refugio en ELIZA, el nombre dado a un chatbot que utiliza GPT-J, un modelo de lenguaje de inteligencia artificial de código abierto desarrollado por EleutherAI. Después de seis semanas de intensos intercambios, se quitó la vida, reporta The Brussels Time.

La semana pasada, la familia habló con Mathieu Michel, secretario de Estado de Digitalización de Bélgica, encargado de la Simplificación Administrativa, la Privacidad y la Regulación de Edificios. "Estoy particularmente conmovido por la tragedia de esta familia. Lo que ha sucedido es un precedente grave que debe tomarse muy en serio", dijo. Subrayó luego que este caso destaca que es "esencial definir claramente las responsabilidades".

"Con la popularización de ChatGPT, el público en general ha descubierto el potencial de la inteligencia artificial en nuestras vidas como nunca antes. Si bien las posibilidades son infinitas, el peligro de usarla también es una realidad que debe considerarse", agregó.

ChatGPT: el Gobierno buscará regular la IA en las escuelas para controlar el aprendizaje

Peligro ChatGPT: la policía europea advierte sobre el riesgo de usarlo con fines maliciosos

OpenAI, por ejemplo, ha admitido que ChatGPT puede producir respuestas dañinas y sesgadas. (Imagen: Archivo)

Lo que hay que hacer para evitar tragedias en el futuro

Para evitar tal tragedia en el futuro inmediato, argumentó que es esencial identificar la naturaleza de las responsabilidades que conducen a este tipo de evento.

"Por supuesto, todavía tenemos que aprender a vivir con algoritmos, pero bajo ninguna circunstancia el uso de cualquier tecnología debería llevar a los editores de contenido a eludir sus propias responsabilidades", señaló Michel.

OpenAI, por ejemplo, ha admitido que ChatGPT puede producir respuestas dañinas y sesgadas, y agregó que espera mitigar el problema mediante la recopilación de comentarios de los usuarios.

A largo plazo, Michel señaló que es esencial concienciar sobre el impacto de los algoritmos en la vida de las personas "permitiendo que todos comprendan la naturaleza del contenido con el que se enfrentan en línea".

Aquí, se refirió a nuevas tecnologías como chatbots, pero también a deep fakes, un tipo de inteligencia artificial que puede crear imágenes, audios y videos falsos convincentes, que pueden poner a prueba y distorsionar la percepción de la realidad de las personas.

¿Cuáles son los museos que hay que visitar en Madrid y en qué día se puede entrar gratis?

Escapadas: este castillo medieval está en Europa y se esconde entre cuevas 

Michel añadió que también hay que proteger adecuadamente a los ciudadanos de ciertas aplicaciones de la inteligencia artificial que "plantean un riesgo significativo". 

La Unión Europea pretende regular el uso de la inteligencia artificial con una Ley sobre IA, en la que lleva trabajando dos años. Michel ha creado un grupo de trabajo para analizar el texto que prepara actualmente la UE y proponer los ajustes necesarios. 

Temas relacionados
Más noticias de inteligencia artificial