Ultradefensiva

ChatGPT: OpenAI salió a contestar las críticas por robo de datos personales

La empresa que tiene a Sam Altman y Elon Musk como pilares, informó qué medidas tomará con respecto a la seguridad y privacidad de los usuarios.

Con la aparición de la inteligencia artificial y los chatbots, como ChatGPT, se comenzaron a desarrollar múltiples debates éticos y morales: el que mayor relevancia tuvo fue acerca de la seguridad del producto lanzado por OpenAI y sus peligros como IA.

Luego de la iniciativa por parte de órganos gubernamentales y también de instituciones educativas que buscan regular y hasta prohibir el ChatGPT por malas prácticas y hasta "robo de información privada de los usuarios", la compañía lanzó un comunicado sobre su "enfoque en la seguridad de la IA".

"Reconocemos que, como cualquier tecnología, estas herramientas conllevan riesgos reales, por lo que trabajamos para garantizar que la seguridad esté integrada en nuestro sistema en todos los niveles", dice el documento de OpenAI.

ChatGPT viene por tu trabajo: la inteligencia artificial está cambiando los puestos laborales

Bill Gates cometió un grave error y lo confesó: cuál fue su peor inversión

En el mismo, cuentan cómo se lleva a cabo la construcción del sistema de inteligencia artificial. La organización llevó a cabo pruebas rigurosas y trabajó con expertos externos antes de lanzar cualquier nuevo sistema de IA.

Qué dicen sobre la seguridad en OpenAI

Desde OpenAI en relación a la seguridad dijeron que "creemos que los potentes sistemas de IA deben estar sujetos a rigurosas evaluaciones de seguridad. Se necesita regulación para garantizar que se adopten tales prácticas, y nos involucramos activamente con los gobiernos en la mejor forma que podría tomar dicha regulación".

También, aseguraron que no pueden predecir "todas las formas beneficiosas en que las personas usarán nuestra tecnología , ni todas las formas en que las personas abusarán de ella. Es por eso que creemos que aprender del uso en el mundo real es un componente crítico para crear y lanzar sistemas de IA cada vez más seguros con el tiempo".

En relación a la sociedad, la aparición de la inteligencia artificial se asentó en las conversaciones cotidianas y ya en algunas empresas para ejercer tareas.

"Creemos que la sociedad debe tener tiempo para actualizarse y adaptarse a una IA cada vez más capaz, y que todos los que se ven afectados por esta tecnología deben tener una voz importante en cómo se desarrolla la IA", reconocen en OpenAI.

La compañía habló de la protección a los menores y estableció que requieren que "las personas que tengan 13 años o más con la aprobación de los padres" para usar las herramientas de IA.

En cuanto a la privacidad, OpenAI se defendió de las denuncias por faltarle el respeto a la privacidad de las personas: "No usamos datos para vender nuestros servicios, publicidad o crear perfiles de personas; usamos datos para hacer que nuestros modelos sean más útiles para las personas. ChatGPT, por ejemplo, mejora con una mayor capacitación sobre las conversaciones que las personas tienen con él".

OpenAI concluyó: "Por lo tanto, trabajamos para eliminar información personal del conjunto de datos de capacitación cuando sea factible, ajustamos modelos para rechazar solicitudes de información personal de personas privadas"-

La compañía que busca innovar con la tecnología, ya se encontró con las primeras barreras, la seguridad, la información privada de los usuarios y próximamente, la posibilidad de enfrentamientos gubernamentales.

Temas relacionados
Más noticias de ChatGPT

Compartí tus comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.