Durante los últimos meses, una fecha concreta ha circulado por redes sociales y plataformas de video: el 27 de abril de 2027. Según algunos sistemas de inteligencia artificial, ese día se produciría un apagón eléctrico global que dejaría sin suministro a todos los países del mundo.
La idea, que parece salida de una distopía de ciencia ficción, ha generado pánico en ciertos sectores de la población. Pero según advierten los especialistas, no hay evidencia alguna que respalde esta afirmación.
El informe publicado por la plataforma de incidentes de la OECD.AI aclara que estas predicciones, realizadas por modelos de IA sin verificación científica, no representan un riesgo real. El organismo cataloga el caso como un "peligro de desinformación", debido al potencial que tienen estos anuncios virales para crear angustia y caos colectivo.
La OECD.AI es una iniciativa de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) que promueve el desarrollo y uso de una inteligencia artificial confiable y centrada en la persona. Su objetivo es abordar los riesgos y beneficios de la IA a través de análisis, políticas y herramientas prácticas, incluyendo un monitoreo global de incidentes e hipócrisis vinculadas a estas tecnologías.
¿Qué dice la predicción sobre el apagón de 2027?
La alarma surgió tras la viralización de contenidos generados por inteligencia artificial que aseguran que el próximo 27 de abril de 2027 se producirá un corte total del suministro eléctrico a escala global.
Algunos videos incluso muestran mapas mundiales que se oscurecen simultáneamente y proponen medidas para "prepararse" para el apagón, como almacenar alimentos, comprar generadores y desconectarse de internet.
Según explicó la plataforma de la OCDE sobre incidentes de IA, esta predicción carece de fundamentos técnicos: "La afirmación no está respaldada por ninguna evidencia científica ni técnica que la justifique. El escenario es puramente especulativo y no responde a datos energéticos ni a análisis de infraestructura".
Sin embargo, su viralización fue lo suficientemente intensa como para que el caso fuera monitoreado como un incidente de desinformación relacionado con tecnologías emergentes.
Expertos y autoridades piden no caer en el alarmismo
La comunidad científica y los organismos energéticos han sido enfáticos en señalar que no existe ninguna razón técnica para creer en un apagón de estas características. De hecho, Red Eléctrica Española -el último lugar donde impactó un gran apagón- negó que existan indicios de vulnerabilidades sistémicas a corto plazo y explicó que los sistemas eléctricos de los países están diseñados para resistir fallos en cascada.
Además, expertos en IA recuerdan que muchos de estos modelos generan respuestas basadas en patrones estadísticos, no en capacidad predictiva. Investigadores del Oxford Internet Institute, como Sandra Wachter, han advertido que los modelos de lenguaje grande (LLM) pueden generar "alucinaciones", es decir, afirmaciones falsas expresadas con aparente certeza, lo que representa un riesgo en contextos donde la precisión es crítica.
Por qué la desinformación con IA es un riesgo creciente
Aunque la predicción del apagón global puede parecer un caso anecdótico, el informe de la OCDE lo toma como ejemplo de un problema más amplio: el impacto psicológico y social de las afirmaciones generadas por IA sin verificación. El caso fue etiquetado como un "hazard" (peligro) por sus potenciales consecuencias sobre el bienestar emocional, la confianza en los entornos digitales y la autonomía ciudadana.
Este tipo de predicciones, que mezclan lenguaje técnico con visuales impactantes, puede activar mecanismos de pánico colectivo. Por eso, desde la OCDE y otras entidades internacionales, se insiste en la necesidad de regular la transparencia y explicabilidad de los modelos de IA, especialmente cuando son utilizados para emitir afirmaciones que pueden influir en el comportamiento de millones de personas.