

La Inteligencia Artificial (IA) forma parte de la vida cotidiana. Cada vez son más las personas que acuden a herramientas como ChatGPT, las cuales se volvieron populares por su capacidad para generar contenido, responder dudas, escribir código y más. Sin embargo, es fundamental tener presente que, aunque resulta útil, sigue siendo una tecnología con limitaciones y ciertos riesgos.
En detalle, los expertos en tecnología advierten el máximo peligro en Internet. Hay usuarios que optan por usar ChatGPT como psicólogo o tarotista, una opción disponible en caso de compartirle información personal y privada.

A continuación, los detalles de la información que nunca debes compartirle a ChatGPT, incluso en estos casos. La clave está en no revelar información personal con ningún sistema de IA.
¿Qué información no debes darle a chatgpt?
Si querés cuidar tu privacidad en Internet, ten en cuenta la información personal que nunca hay que compartirle a esta herramienta de IA.
Información personal sensible
Evitá revelar el nombre completo, dirección, número de teléfono, correo electrónico privado, contraseñas o números de identificación oficial. Aunque las plataformas están diseñadas para proteger los datos, siempre existe algún nivel de riesgo.
Datos bancarios o financieros
No compartas detalles de tarjetas de crédito, cuentas bancarias o información financiera. ChatGPT no necesita esos datos para ayudarte y podrían ponerte en una situación vulnerable.
Contenido ilegal o que promueva el odio
Evitá solicitar o compartir información que infrinja la ley o que fomente la violencia, la discriminación o el odio. Además de estar prohibido, esto puede tener consecuencias legales.
Proyectos confidenciales o ideas sin protección legal
Si estás desarrollando una idea innovadora o trabajando en un proyecto sensible, no lo compartas sin tomar las precauciones legales necesarias. Aunque no almacena conversaciones anteriores, es mejor ser cauteloso.
Consultas médicas o legales complejas
La plataforma puede ofrecer información general, pero no reemplaza el consejo profesional de un médico o un abogado. En estos casos, lo mejor es acudir a un especialista calificado.
¿Es seguro subir documentos a ChatGPT?
Desde su aparición en 2020, OpenAI enfrentó críticas y controversias por cuestiones de privacidad. En respuesta, la empresa implementó herramientas y configuraciones que permiten a los usuarios controlar el uso de sus datos. La empresa aseguró que su principal compromiso es proteger la privacidad de las personas.
En el caso de ChatGPT, la compañía reconoce que muchos usuarios prefieren que su información no se utilice para mejorar los modelos de inteligencia artificial. Por ello, ofrece opciones para gestionar este aspecto. Los usuarios de lasversiones Free y Plus pueden activar o desactivar, desde la configuración, su participación en el entrenamiento de modelos.
"Ofrecemos a los usuarios controles de privacidad sencillos, como la posibilidad de excluirse del entrenamiento y un modo de chat temporal que borra las conversaciones automáticamente", señaló Taya Christianson, vocera de la empresa.
¿Cómo funciona ChatGPT?
La empresa afirma que no busca datos personales para entrenar sus sistemas, ni utiliza información pública para crear perfiles de usuarios, realizar publicidad personalizada o vender datos. Asimismo, no entrena sus modelos con audios de conversaciones a menos que el usuario lo autorice específicamente para mejorar la experiencia con voz.
Rob Cobley, experto legal en protección de datos de Harper James, reconoce que OpenAI incrementó la transparencia sobre cómo recopila y usa la información. "Los usuarios tienen acceso a sus datos personales, pueden modificarlos o eliminarlos, lo que les da mayor control sobre su privacidad", señala.














