Avance tecnológico

Los creadores de ChatGPT advierten sobre el mayor riesgo de la Inteligencia Artificial: a qué le temen

Ingenieros de Open IA anunciaron que están trabajando "arduamente" para corregir errores frecuentes en la plataforma. ¿Qué son las alucinaciones?

En esta noticia

Durante los últimos días, ChatGPT reportó errores que alertaron a los usuarios sobre la fiabilidad de la Inteligencia Artificial (IA). De hecho, cientos de internautas denunciaron "alucinaciones", es decir, respuestas convincentes pero completamente inventadas. 

En esta línea, ingenieros de Open IA anunciaron que están trabajando "arduamente" en solucionar estos problemas. Además, aclararon que "hasta los modelos más avanzados" son propensos a sufrir fallas. 

"Estas alucinaciones son particularmente problemáticas en dominios que requieren un razonamiento en varios pasos, ya que un solo error lógico es suficiente para descarrilar una solución mucho más grande", detallaron. 

Nueva predicción sobre la Argentina: habla de un "hombre gris que podría..."

Caso Madeleine McCann: una macabra confesión del principal sospechoso reabre la investigación

¿Cuál es el mayor riesgo de ChatGPT?

Analistas de Open AI revelaron que el mayor riesgo que presenta ChatGPT son las "alucinaciones". Con el objetivo de solucionar este problema, los expertos diseñaron un sistema que se recompensa a sí mismo por generar datos concretos cuando formula una respuesta. 

Este prototipo fue probado en un conjunto de datos formado por más de 800.00 humanos. Según trascendió, los resultados fueron superiores a los obtenidos en modelos más básicos. 

La predicción de Bill Gates que se está por cumplir: cambiará el rumbo de la historia

Bill Gates lanzó un pronóstico aterrador y estamos muy cerca de cumplirlo: afecta a todos

El truco para minimizar el margen de error en ChatGPT

Para formular respuestas concretas, ChatGPT necesita que las personas sean claras y concisas. De lo contrario, los resultados serán genéricos y poco precisos. Además, se recomienda brindar información para obtener contestaciones más detalladas. 

Las tres etapas de la Inteligencia Artificial: ¿cuál es la más peligrosa?

Primera etapa

La primera etapa se conoce como Artificial Narrow Intelligence (ANI). En este estadio los sistemas están diseñados para realizar trabajos repetitivos dentro de un rango prestablecido por sus creadores. Es decir, su función está limitada a una tarea específica. 

Segunda etapa

 La Artificial General Intelligence (AGI) refiere al estadio en que una tecnología adquiere capacidades cognitivas comparables a las del ser humano.

La creencia de que estamos próximos a alcanzar esta etapa llevó a cientos de empresas tecnológicas a solicitar que se frenen los entrenamientos de programas de IA.

Un claro ejemplo es una carta abierta avalada por Elon Musk, que sugiere que, si las compañías no toman medidas de seguridad, la tecnología podría causar daños irremediables en nuestra civilización. 

Tercera etapa 

Muchos científicos establecen que, una vez superar la AGI, se llegará rápidamente a un último nivel de desarrollo, llamado Superinteligencia Artificial (ASI), donde la inteligencia sintética superará a la humana.

Nick Bostrom, filósofo de la Universidad de Oxford y experto en IA, define esta etapa como "una inteligencia que superará ampliamente a los mejores cerebros humanos en prácticamente todos los campos, incluyendo la creatividad científica, la sabiduría general y las habilidades sociales".

Temas relacionados
Más noticias de Chat GPT

Compartí tus comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.