En esta noticia

Diputados de Juntos por el Cambio presentaron un proyecto de ley para regular el funcionamiento ético de los sistemas de Inteligencia Artificial (IA), a cargo del Gabinete Científico-Tecnológico dependiente del Ministerio de Ciencia Tecnología e Innovación.

En medio de las advertencias sobre los posibles efectos del avance de la IA, los radicales Jimena Latorre(Mendoza) y Facundo Manes (Buenos Aires) presentaron un proyecto para que haya un marco regulatorio para el funcionamiento ético de la Inteligencia Artificial.

El primero se basa en la diversidad e inclusión. ¿De qué manera? Busca garantizar la participación de todas las personas o grupos, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen étnico o social, condición económica o cualquier otra forma o condición que pudiera alterar el respeto a la diversidad e inclusión social.

En segundo lugar, en la paz y justicia. En este sentido, la iniciativa establece que la IA deberá asegurar la paz y la justicia entre naciones y "no podrá menoscabar la libertad de los seres humanos, ni reducir su autonomía de decisión".

Tampoco podrá poner en riesgo la seguridad individual o colectiva, ni dividir o enfrentar a las personas y los grupos, o amenazar la coexistencia entre los seres humanos, los demás seres vivos y el medio.

Asimismo, se propone incorporar un nuevo artículo a la ley de Ciencia, Tecnología e Innovación. El objetivo es que se establezca que los sistemas de IA, en cualquier etapa de su ciclo de vida, deberán ser registrados de acuerdo a los procedimientos previstos por el Gabinete Científico-Tecnológico (GACTEC), donde la autoridad de aplicación ordenará detener los avances de la investigación, desarrollo o aplicación cuando "considere que se vulneran los principios y valores éticos dispuestos en este proyecto".

En este sentido, el texto incorpora otro artículo, que garantiza que toda persona física o jurídica que se considere "amenazada o perjudicada por un sistema de IA podrá realizar la denuncia ante la Secretaría de Ciencia, Tecnología, e Innovación Productiva (SETCIP)".

En la fundamentación del proyecto, Latorre y Manes explican que "los sistemas de IA se utilizan en una amplia variedad de aplicaciones, desde asistentes virtuales y robots autónomos hasta diagnósticos médicos y análisis financieros, siendo un campo en constante evolución y expansión".

Por ello, "consideramos que esta evolución debe realizarse siguiendo como lineamiento básico la búsqueda de beneficios para la humanidad y resulta necesaria una legislación que encuadre el ciclo de vida completo de las IA sobre los más altos estándares éticos".

Al presentar el proyecto, los radicales recordaron que la Organización de Naciones Unidas (ONU) y Unesco desarrollaron para sus países miembros, entre ellos Argentina, una Recomendación Universal sobre la Ética de las Inteligencias Artificiales, donde aconsejan que los países apliquen de manera voluntaria, medidas legislativas de regulación para estos nuevos sistemas, en conformidad con las normas universales de derecho internacional y respeto de los derechos humanos.

"Una pronta reglamentación de este tipo de sistemas e inteligencias, asegurará al país posicionarse como el primer país latinoamericano en promover el desarrollo de las inteligencias artificiales y establecer parámetros éticos de utilización", subrayó Latorre al explicar la propuesta y agregó que "se procura que el avance de la tecnología se impulse por una gobernanza ética, en concordancia con los objetivos mundiales de sostenibilidad social, política, económica, ambiental, educativa y científica generando antecedentes locales, regionales y mundiales".

Manes señaló que "la Inteligencia Artificial nunca va a reemplazar a los humanos, vamos hacia un mundo híbrido donde le vamos a perder el miedo a la deshumanización pero valorar las cosas que nos hacen humanos".


La advertencia de los expertos

Más de 1100 personas en el sector tecnológico, incluyendo a Elon Musk y Steve Wozniak, firmaron días atrás una petición que insta a los desarrolladores a pausar la creación de modelos de inteligencia artificial (IA) más avanzados.

En una carta abierta publicada en el sitio web del Future of Life Institute, se señala que los laboratorios de IA compiten por crear mentes digitales cada vez más poderosas que nadie puede comprender, prever o controlar de manera fiable.

Estos expertos sostienen que solo se deben desarrollar sistemas de IA más potentes cuando haya garantías de que sus efectos serán positivos y los riesgos manejables.

Principalmente, instan a frenar el entrenamiento de sistemas de inteligencia artificial más potentes que el último modelo de ChatGPT de OpenAI durante al menos seis meses. De esta manera, se permitiría el desarrollo de protocolos de seguridad comunes.