La inteligencia artificial dejó de ser una promesa futurista para convertirse en una herramienta cotidiana. La usamos para escribir textos, ordenar información, analizar datos y automatizar procesos que antes requerían tiempo y esfuerzo humano. En muchos ámbitos, sus beneficios son evidentes. El problema comienza cuando confundimos eficiencia con infalibilidad.
Se instaló la idea de que todo lo que puede automatizarse debería hacerlo, y que la intervención humana es lenta, costosa o prescindible. Es una percepción comprensible: muchas automatizaciones mejoraron la experiencia diaria y simplificaron tareas. Pero esta premisa, tan seductora como peligrosa, merece ser revisada.
La inteligencia artificial no es neutral. Funciona a partir de datos, reglas y modelos entrenados por humanos. Puede reproducir errores, amplificar sesgos y validar como “correcto” aquello que solo parece coherente desde el punto de vista estadístico, pero no desde el jurídico, el ético o el fáctico. Incluso puede generar respuestas plausibles pero falsas —las llamadas alucinaciones— que resultan convincentes aun para usuarios expertos. El mayor riesgo no es que la tecnología se equivoque, sino que confiemos ciegamente en que no lo hará.
Este fenómeno se conoce como sesgo de autoridad tecnológica: tendemos a creer que una respuesta generada por una máquina es más precisa solo porque proviene de un sistema automatizado. Los algoritmos no dudan ni expresan incertidumbre. Ofrecen respuestas limpias, rápidas y verosímiles. Y justamente por eso pueden ocultar errores profundos detrás de una apariencia de certeza.
En los procesos que producen efectos jurídicos —aquellos que crean, modifican o extinguen derechos— esta ilusión puede ser especialmente dañina. Automatizar sin control no es modernizar: es trasladar el riesgo desde el error humano aislado hacia el error sistémico. Además, en el derecho el daño no siempre es reversible. Una decisión errónea puede generar consecuencias inmediatas y difíciles de reparar, aun cuando el error se detecte después.
El riesgo también cambió de naturaleza. Durante décadas, el fraude tenía un componente físico: firmas falsificadas, documentos adulterados, identidades apócrifas. Hoy, la digitalización y la IA habilitan un nuevo escenario: documentos sintéticos, identidades digitales y deepfakes documentales capaces de engañar a sistemas automáticos que validan coincidencias formales sin comprender su significado jurídico.
En este contexto, la intervención humana deja de ser un obstáculo y se convierte en una garantía. El juicio humano no se limita a verificar datos: interpreta normas, detecta inconsistencias, evalúa contextos y asume responsabilidad. Hay decisiones que no pueden delegarse a un algoritmo sin comprometer la seguridad jurídica.
Esto no implica frenar la innovación. La inteligencia artificial puede —y debe— utilizarse para agilizar tareas, mejorar la trazabilidad y asistir a los operadores. Pero bajo estándares claros: identidad robusta, trazabilidad documental y, sobre todo, supervisión humana significativa. Supervisar no es “apretar aceptar”: exige capacidad real de revisar, comprender y corregir.
El verdadero desafío no es preguntarnos si la inteligencia artificial va a formar parte de los procesos institucionales. Eso ya ocurrió. La pregunta es cómo garantizar que la tecnología fortalezca la confianza pública en lugar de erosionarla.
La responsabilidad por las decisiones con efectos jurídicos no puede recaer en un algoritmo. Recae, y seguirá recayendo, en las personas y en el Estado. La inteligencia artificial puede ayudarnos a ver más y a procesar mejor, pero la decisión final —la que distingue lo válido de lo inválido— sigue siendo, y debe seguir siendo, humana.