Advertencia

¿ChatGPT inventa palabras? Descubren la clave para saber si un texto es escrito por esta IA

Si bien la utilización de sistemas de inteligencia artificial es cada día más común, se advierte que la mala utilización puede traer problemas. Cómo detectar si un texto fue generado por ChatGPT o similares.

En esta noticia

En el último año, numerosas aplicaciones que utilizan sistemas de inteligencia artificial (IA) han irrumpido tanto en el mercado como en la vida laboral de las personas. Muchas de ellas pueden ser utilizadas como herramientas para facilitar el trabajo del día a día, organizar la agenda, e incluso mejorar el currículum en búsqueda de un nuevo trabajo.

También existe la preocupación por quienes pueden utilizarlas con otros motivos. Algunos países están cuestionando prohibir el uso de ChatGPT, el chatbox basado en texto, ya que consideran que incumple con la protección de datos del usuario. Por otro lado, maestros y profesores creen que los alumnos pueden llegar a utilizar la misma aplicación para redactar informes o trabajos.

Sin embargo, existen maneras de detectar cuando un texto ha sido generado por una IA. No se necesita de una app o un sistema complejo, sino un poco de ojo y revisar atentamente la aparición de palabras inventadas.

El nuevo empleo de la Inteligencia Artificial que paga hasta 300.000 euros al año: ¿cómo postularse?

ChatGPT miente: por qué no hay que creer en todas las respuestas creadas por la IA

¿Qué es "beneficubrimiento"?

A través de su blog personal, un usuario conocido como Zarfideli detectó en algunos textos una serie de palabras que no existen ni tienen uso común. Sin embargo, aparecen indexadas en diferentes motores de búsqueda gracias a el posicionamiento SEO. "El beneficubrimiento no existe. Es una palabra inventada por ChatGPT. De esta forma puedes detectar contenido creado por Inteligencias Artificiales sin tener que usar herramientas complejas", comienza el artículo en su blog.

"Esta palabra está siendo indexada en diferentes motores de búsqueda gracias a los generadores de contenido que solo buscan posicionar contenido porque sí para ganar algunos centavos de dólar por publicidad".

Para el autor, la aparición de este tipo de términos inventados por la aplicación creada por OpenAI no sólo ayuda a detectar cuando un texto es redactado por una IA, también "termina diseminando desinformación que luego consumirá personas".

A pesar de su gran utilizad, ChatGPT suele inventar palabras o brindar contenido erróneo. (Fuente: Archivo)

La lista de palabras inventadas por ChatGPT

Zarfideli recopoló para su entrada de blog una serie de palabras que suelen aparecer en estos textos generados por el sistema de inteligencia artificial. Las pudo diferenciar por "no son reconocidas o aceptadas como parte del lenguaje español y pueden no ser coherentes o gramaticalmente correctas".

Estas son:

  • Beneficubrimiento
  • Influenciativa
  • Emocionabilidad
  • Intelligentización
  • Conversacionalidad
  • Interaccionabilidad

Estados Unidos vs. la inteligencia artificial: Joe Biden habló de "riesgos potenciales" de estos sistemas

Alerta IA: expertos piden demorar el desarrollo de estos sistemas más allá de GPT-4

Por qué es peligroso no revisar un texto redactado por una IA

Según indica el autor del texto, existen numerosos peligros al no revisar el contenido generado por una inteligencia artificial:

Inexactitud

Si bien los modelos de inteligencia artificial son capaces de generar texto coherente y estructurado adecuadamente, frecuentemente incluyen datos falsos o imprecisos. Esta situación puede resultar peligrosa si se emplea en contextos críticos como la toma de decisiones médicas o financieras.

Prejuicios y discriminación

Los modelos de inteligencia artificial se entrenan utilizando enormes volúmenes de información que pueden contener sesgos y discriminación. Si no se examinan detenidamente, estos prejuicios pueden perpetuarse en el contenido generado por la IA.

Desorientación o engaño

El texto generado por la IA puede resultar confuso o engañoso si no se verifica de manera adecuada. Un modelo de inteligencia artificial, por ejemplo, podría generar noticias falsas o información incorrecta, lo que podría ser perjudicial para la sociedad.

Temas relacionados
Más noticias de inteligencia artificial