

La Provincia de Buenos Aires estableció por primera vez reglas obligatorias para el uso de sistemas de inteligencia artificial (IA) y lo hizo a través de una resolución que se publica pocos días después de que el municipio de Zárate nombrara a una IA con rango de directora.
La nueva normativa fue publicada en el Boletín Oficial y se aplica de manera transversal a la gestión estatal.
Se regula explícitamente “el desarrollo, elaboración, investigación, innovación, contratación, adquisición, uso y/o despliegue” de IA en todos los organismos provinciales, con el fin de proteger “los derechos y garantías fundamentales de la ciudadanía”.
Según la resolución de la Subsecretaría de Gobierno Digital, cualquier entidad pública que diseñe, compre o implemente IA deberá cumplir con estándares de seguridad, transparencia, equidad, sustentabilidad y control humano. No se trata solo de una guía ética: su cumplimiento será obligatorio y auditable.
La novedad llega días después de que el municipio de Zárate designara a “ZARA”, un chatbot, como directora general de Atención al Vecino, con facultades administrativas, firma de documentos y gestión de reclamos.
El caso generó críticas sobre el alcance de su autoridad. Zara sería una aplicación de IA en el ámbito municipal, pero podría haber un gris legal que obligue a evaluar su nivel de riesgo y someterse a auditorías periódicas.
Clasificación de riesgo: qué se puede hacer y qué no
Uno de los ejes centrales de la regulación es el modelo de clasificación por riesgo, inspirado explícitamente en el marco de la Unión Europea. La resolución reconoce como antecedente al Reglamento (UE) 2024/1689, conocido como AI Act, que en Europa entró en vigor este año. Sobre esa base, Buenos Aires adopta cuatro categorías: riesgo inaceptable, alto, limitado y nulo.
Los sistemas de riesgo inaceptable quedan directamente prohibidos. Allí se incluyen los que puedan afectar gravemente la seguridad, la salud, los derechos fundamentales o el “orden constitucional-democrático”.
El texto también veta el desarrollo de sistemas que apliquen técnicas subliminales o que realicen “clasificación y/o scoring social”, es decir, evaluaciones automatizadas del comportamiento de las personas con fines de control o discriminación.
Esa práctica permitiría condicionar beneficios públicos o reputación ciudadana en función de datos de comportamiento, algo incompatible con el principio de igualdad ante la ley.

En la categoría de alto riesgo se ubican herramientas que podrían impactar derechos individuales de manera directa. Entre ellas se destacan los sistemas de identificación biométrica, los que gestionan infraestructura crítica, los usados en educación, justicia, empleo, democracia y administración pública. Para estos casos, la provincia exige una evaluación de impacto algorítmica previa, destinada a anticipar “los riesgos legales, éticos, sociales y técnicos” que pueda generar su uso.
Los sistemas de riesgo limitado, como los chatbots informativos, están permitidos bajo condiciones de transparencia: la ciudadanía debe saber si interactúa con una máquina.
Por último, los de riesgo nulo —como filtros de spam o automatizaciones internas sin impacto en personas— solo requieren buenas prácticas técnicas.
Obligaciones del Estado y registro obligatorio
La provincia impondrá controles a lo largo de todo el ciclo de vida de cada sistema. Quienes usen o desarrollen IA en el Estado deberán:
- realizar una evaluación preliminar de riesgos, antes de implementarla;
- implementar estrategias de gestión de riesgos periódicas;
- evitar y documentar prácticas que generen sesgos o discriminación, particularmente sobre “sectores vulnerados”;
- garantizar el almacenamiento de datos el “tiempo suficiente” para permitir su auditabilidad;
- contar con consentimiento libre, expreso, previo, inequívoco, específico e informado cuando se traten datos personales.
Cuando haya interacción con el público, el Estado deberá informar de manera explícita y anticipada que la respuesta proviene de un sistema automatizado, para no inducir al ciudadano a error o confusión.
Además, los organismos tendrán que registrar obligatoriamente todos los sistemas de IA en un padrón provincial cuya implementación dependerá de la Subsecretaría de Gobierno Digital.
Un aspecto novedoso: el impacto ambiental
Entre los puntos más innovadores de la normativa está la inclusión del criterio ambiental. La resolución exige que los sistemas de IA sean “sostenibles y sustentables”, y que se adopten medidas técnicas y administrativas para prevenir daños ecológicos.
Con esto, Buenos Aires se anticipa a uno de los debates más recientes a nivel global: el alto consumo energético de los modelos de IA y la necesidad de medir su huella de carbono y su uso de recursos.
La norma también obliga al Estado a capacitarse de manera permanente: los organismos deberán “sensibilizarse y capacitarse en función de la evolución del estado del arte”, lo cual implica que el propio gobierno deberá actualizarse al ritmo de la tecnología que pretende regular.













