

¿Necesitás Inteligencia Artificial (IA) para cumplir tu objetivo? Esta fue la pregunta que escuché de Virginia Dignum en mi primer día en MILA, el centro de investigación de IA en Canadá. Virginia, una de las voces líderes en IA Responsable, llama a esto la “pregunta cero”. No es el primer paso de un proyecto: es el paso anterior, un filtro necesario en un mundo que intenta imponer la tecnología como un mandato inevitable en cada aspecto de nuestra existencia.
Lo que me fascina de esta pregunta son dos cosas. Por un lado, que aceptar que “no necesito IA” rompe con la inercia de la carrera armamentística tecnológica. Nos recuerda que la IA no es un fenómeno natural, sino una construcción social, y que existe un enorme espacio para actuar en planos donde los algoritmos no tienen nada valioso que proponernos. Por otra parte, si la respuesta es afirmativa, surge una nueva pregunta: ¿cuál es el beneficio real de usar IA?

Hoy, el mercado y el sistema educativo parecen estancados en un ciclo de “hacer con IA por hacer con IA”. Estamos atrapados en una burocracia sintética donde se genera contenido con IA para que otros profesionales lo evalúen con la misma herramienta, simulando una expansión que no genera valor real y que solo oculta un profundo vacío. Al dar por sentada la respuesta a la pregunta “cero”, las organizaciones están navegando a ciegas en una humareda que solo se despeja con evidencia.
Cualquier decisión estratégica requiere abandonar las intuiciones e implementar rigor científico. Esto implica diseñar intervenciones controladas, separar grupos de control y experimentales, y aplicar inferencia estadística para medir la magnitud real del impacto de uso de la IA, evaluando el tamaño del efecto más allá de un simple porcentaje de éxito. A su vez, necesitamos analizar las dinámicas de interacción humano-IA para separar los usos que nos potencian de la simple inercia algorítmica.
Este es un momento histórico que no admite atajos, y recuperar la base de la medición y los datos reales son el camino para un futuro donde la construcción siga siendo profundamente humana.
Por eso no alcanza con aplaudir la velocidad de entrega o la estética de un trabajo. Nos debemos exigir métricas más profundas: qué aportó la IA y, fundamentalmente, qué retiene la persona cuando se le apaga la pantalla y se le retira la asistencia tecnológica.

Desde nuestra práctica, estamos dando pasos fundacionales para avanzar con sentido humano. Modelamos intervenciones que nos permiten medir múltiples factores ocultos en la interacción humano-IA, y así diagnosticar la verdadera madurez de una organización. Al identificar con datos los espacios de impacto positivo, las organizaciones pueden dejar de improvisar y escalar sus casos de éxito, transferir ese aprendizaje a otras áreas y construir una gestión interna de la IA que sea sólida. Es el salto definitivo de ser consumidores pasivos de algoritmos, a ser diseñadores de su propia transformación.
Las organizaciones que sigan implementando IA sin un modelo de medición de impacto están navegando en las tinieblas. En esta era algorítmica, la verdadera revolución es expandir nuestras capacidades humanas, no sumar tecnología. Y para eso necesitamos medir y obtener evidencia.
El futuro será humano, o no será.














