

La Corte Suprema de Justicia de Colombia fijó un precedente sobre el uso de herramientas de inteligencia artificial dentro del ámbito profesional y judicial. A través del auto AC739-2026, la Sala de Casación Civil sancionó a un abogado que presentó documentación con información jurídica inexistente generada mediante IA sin realizar controles de verificación.
Aunque el caso está vinculado al ejercicio del derecho, la decisión abrió el debate sobre el uso responsable de plataformas como ChatGPT y otros asistentes automatizados en tareas laborales donde se exige precisión documental.
Qué resolvió la Corte Suprema en el caso del abogado sancionado
El expediente analizó un recurso extraordinario de revisión presentado contra una sentencia del Tribunal Superior de Villavicencio. Durante la revisión del escrito, la Corte detectó irregularidades graves.
Entre ellas se encontraron:
- Sentencias inexistentes citadas como precedentes judiciales.
- Artículos del Código General del Proceso con contenido alterado.
- Argumentos jurídicos respaldados por fuentes que no figuraban en repositorios oficiales.
Tras ser requerido para explicar estas inconsistencias, el abogado reconoció que utilizó una herramienta de inteligencia artificial para agilizar la elaboración del documento y que no verificó la información antes de presentarla.

La multa económica impuesta por la Corte
La Sala Civil concluyó que el profesional incurrió en temeridad procesal, al incorporar información falsa dentro de una actuación judicial.
Como consecuencia, resolvió imponer una sanción equivalente a 15 salarios mínimos legales mensuales vigentes. Además, ordenó compulsar copias a la Comisión Seccional de Disciplina Judicial de Bogotá para evaluar posibles faltas disciplinarias adicionales.
La decisión se sustentó en los artículos 79 a 81 del Código General del Proceso, que establecen deberes de buena fe y responsabilidad procesal para quienes intervienen en litigios.
Qué dijo la Corte sobre ChatGPT y otras inteligencias artificiales
En el auto, la Corte aclaró que las herramientas de inteligencia artificial pueden resultar útiles para asistir tareas profesionales, pero advirtió que presentan una tendencia a producir errores conocidos como “alucinaciones”, es decir, contenido que aparenta ser correcto, pero carece de sustento real.
Según el tribunal, el deber de revisión y verificación sigue siendo responsabilidad exclusiva de quien firma y presenta el escrito.
La decisión no prohíbe el uso de ChatGPT u otras plataformas en el trabajo, pero sí establece que no eximen de responsabilidad profesional cuando se usan sin control.
El precedente que deja este fallo en Colombia
La resolución AC739-2026 es considerada el primer antecedente en Colombia donde se sanciona expresamente a un profesional por uso irresponsable de inteligencia artificial dentro de un proceso judicial.
Con este pronunciamiento, la Corte fijó un estándar más estricto sobre el uso de tecnologías generativas en actividades que requieren respaldo documental, precisión normativa y control humano permanente.











