En esta noticia

Shane Jones, un destacado ingeniero de inteligencia artificial (IA) en Microsoft, expresó públicamente su alarma por el funcionamiento que tiene la inteligencia artificial para generación de imágenesDall-Ede OpenAI, que también se integra con Copilot de Microsoft.

Jones advirtió que la tecnología puede "causar daños reales a nuestras comunidades, a los niños y a la democracia". Alarmado por esta situación envió comunicaciones al consejo de Microsoft, a los desarrolladores de Dall-E, a la Comisión Federal de Comercio (FTC) de EE.UU., y a varios senadores. En esas cartas alertó sobre una vulnerabilidad recientemente descubierta que puede permitir la creación de "imágenes perturbadoras y violentas", que eluden los filtros de contenido existentes.

Los peligros de la inteligencia artificial que crea imágenes

Si bien Jones reportó los problemas tanto a Microsoft como a OpenAI, lamenta que, según él, todavía no se hayan tomado medidas correctivas. En su investigación, Jones identificó un riesgo público significativo: la inteligencia artificial Dall-E podría afectar negativamente la salud mental de grupos vulnerables, incluyendo niños y personas impactadas por la violencia, como tiroteos masivos, violencia doméstica y crímenes de odio.

Según el ingeniero de Microsoft, "Dall-E 3 es capaz de crear imágenes censurables que reflejan lo peor de la humanidad y presentan un serio peligro para la seguridad pública".

Jones publicó todas las cartas en su perfil de LinkedIn. En la misiva dirigida al Comité de Política Pública, Social y Medioambiental del Consejo de Microsoft, argumenta que no se debería esperar a la intervención regulatoria para ser transparentes con los consumidores sobre los riesgos asociados con la IA. Subraya que, alineados con los valores corporativos de Microsoft, se debería informar proactivamente sobre los riesgos conocidos, especialmente cuando los productos de IA se promocionan activamente a menores.

"La inteligencia artificial creaba contenido perjudicial en diversas categorías, que incluyen: sesgo político, consumo de alcohol y drogas por menores, uso indebido de marcas comerciales y derechos de autor, teorías de conspiración y religión", detalló el ingeniero.

La IA para generación de imágenes Dall-E fue creada por OpenAI y Microsoft la utiliza en Copilot.
La IA para generación de imágenes Dall-E fue creada por OpenAI y Microsoft la utiliza en Copilot.

Jones identificó sesgos preocupantes en la IA, como la generación de "imágenes de mujeres sexualmente objetivadas en contextos no relacionados". Por ejemplo, menciona que al solicitar imágenes de un "accidente de coche", la IA produjo imágenes inapropiadas con mujeres en ropa interior. Además, señala una tendencia de la IA a representar negativamente la salud reproductiva femenina y el derecho de las mujeres a tomar decisiones médicas personales.

Aunque la herramienta Copilot Designer es eficaz en la detección de imágenes que incluyen violencia generalizada con armas y sangre, Jones advierte que no impide la creación de imágenes perturbadoras de jóvenes armados. Describe cómo la IA puede generar imágenes de "adolescentes jugando a ser asesinos con rifles de asalto", lo que resulta en una multitud de representaciones fotorrealistas preocupantes. No obstante, actualmente, si se hace una solicitud similar a Dall-E, la IA indica que no puede cumplir con la petición, lo que puede indicar que se están produciendo cambios.

IA si control y reclamo a las autoridades

Sin embargo, Jones expresa su frustración por no haber logrado que Microsoft tome las medidas necesarias y comunicó su preocupación a Lina M. Khan, presidenta de la FTC, con la esperanza de que su divulgación ayude a poner en alerta a padres y educadores.

En una respuesta a la cadena CNBC, Microsoft afirmó que estaba "comprometida con abordar todas las inquietudes que los empleados tienen" y agregó: "Estamos agradecidos por los esfuerzos de los empleados para estudiar y probar nuestras últimas tecnologías para mejorar su seguridad".