Los creadores de ChatGPT advierten sobre el mayor riesgo de la Inteligencia Artificial: a qué le temen
Ingenieros de Open IA anunciaron que están trabajando "arduamente" para corregir errores frecuentes en la plataforma. ¿Qué son las alucinaciones?
Durante los últimos días, ChatGPT reportó errores que alertaron a los usuarios sobre la fiabilidad de la Inteligencia Artificial (IA). De hecho, cientos de internautas denunciaron "alucinaciones", es decir, respuestas convincentes pero completamente inventadas.
En esta línea, ingenieros de Open IA anunciaron que están trabajando "arduamente" en solucionar estos problemas. Además, aclararon que "hasta los modelos más avanzados" son propensos a sufrir fallas.
"Estas alucinaciones son particularmente problemáticas en dominios que requieren un razonamiento en varios pasos, ya que un solo error lógico es suficiente para descarrilar una solución mucho más grande", detallaron.
Nueva predicción sobre la Argentina: habla de un "hombre gris que podría..."
Caso Madeleine McCann: una macabra confesión del principal sospechoso reabre la investigación
¿Cuál es el mayor riesgo de ChatGPT?
Analistas de Open AI revelaron que el mayor riesgo que presenta ChatGPT son las "alucinaciones". Con el objetivo de solucionar este problema, los expertos diseñaron un sistema que se recompensa a sí mismo por generar datos concretos cuando formula una respuesta.
Este prototipo fue probado en un conjunto de datos formado por más de 800.00 humanos. Según trascendió, los resultados fueron superiores a los obtenidos en modelos más básicos.
La predicción de Bill Gates que se está por cumplir: cambiará el rumbo de la historia
Bill Gates lanzó un pronóstico aterrador y estamos muy cerca de cumplirlo: afecta a todos
El truco para minimizar el margen de error en ChatGPT
Para formular respuestas concretas, ChatGPT necesita que las personas sean claras y concisas. De lo contrario, los resultados serán genéricos y poco precisos. Además, se recomienda brindar información para obtener contestaciones más detalladas.
Las tres etapas de la Inteligencia Artificial: ¿cuál es la más peligrosa?
Primera etapa
La primera etapa se conoce como Artificial Narrow Intelligence (ANI). En este estadio los sistemas están diseñados para realizar trabajos repetitivos dentro de un rango prestablecido por sus creadores. Es decir, su función está limitada a una tarea específica.
Segunda etapa
La Artificial General Intelligence (AGI) refiere al estadio en que una tecnología adquiere capacidades cognitivas comparables a las del ser humano.
La creencia de que estamos próximos a alcanzar esta etapa llevó a cientos de empresas tecnológicas a solicitar que se frenen los entrenamientos de programas de IA.
Un claro ejemplo es una carta abierta avalada por Elon Musk, que sugiere que, si las compañías no toman medidas de seguridad, la tecnología podría causar daños irremediables en nuestra civilización.
Tercera etapa
Muchos científicos establecen que, una vez superar la AGI, se llegará rápidamente a un último nivel de desarrollo, llamado Superinteligencia Artificial (ASI), donde la inteligencia sintética superará a la humana.
Nick Bostrom, filósofo de la Universidad de Oxford y experto en IA, define esta etapa como "una inteligencia que superará ampliamente a los mejores cerebros humanos en prácticamente todos los campos, incluyendo la creatividad científica, la sabiduría general y las habilidades sociales".
Compartí tus comentarios