El uso de IA generativa en la Administración de Justicia: a propósito de la Sentencia STC17832-2025 de la Corte Suprema de Justicia de Colombia
Susana Aranzález de la Hoz1
La sentencia STC17832-2025 de la Corte Suprema de Colombia reavivó el debate sobre el cumplimiento de deberes de los funcionarios judiciales en el uso de tecnologías de la información para la adopción de sus decisiones. En esta providencia, la Corporación estudió una acción de tutela instaurada contra la Sala Civil-Familia-Laboral del Tribunal Superior de Sincelejo, por haber sustentado la decisión que dio por terminado un proceso ejecutivo exclusivamente en jurisprudencia inexistente. Frente a ello, la demandante en dicho proceso, una vez agotados los mecanismos ordinarios, recurrió a la acción de tutela ante la Alta Corporación para solicitar el amparo constitucional de su derecho fundamental al debido proceso.
En el trámite constitucional, la accionante cuestionó el auto mediante el cual el Tribunal revocó la decisión de primera instancia que había negado la solicitud de la demandada en el proceso ejecutivo de darlo por terminado por desistimiento tácito. Según el Tribunal, la terminación se justificaba por cuanto se habría cumplido el término previsto en la ley para dar por terminado el proceso anticipadamente sin impulso procesal por parte de la demandante y, en consecuencia, la actuación procesal realizada por ella fenecido aquel término resultaba insuficiente para interrumpirlo (Corte Suprema de Justicia, 20252). Sin embargo, el problema central radicó en que, para sustentar su decisión, el Tribunal citó como única referencia dos sentencias de la Corte Suprema de Justicia que, aunque existen, no comprenden las citas textuales que la Sala afirmó haber extraído directamente de ellas.
Al interior de sus consideraciones de fondo, la Corte se refirió, por un lado, al defecto constitutivo de vía de hecho en el que incurrió el Tribunal y, por otro, a los deberes de los funcionarios judiciales en materia de citación precisa de jurisprudencia.
En cuanto al primer aspecto, la Corte explicó que, el error del Tribunal consistió en que sus conclusiones para resolver el problema jurídico sometido a su consideración se fundamentaron únicamente en dos citas jurisprudenciales atribuidas a sentencias de la propia Corte, cuyo contenido no coincide con los apartados textuales incluidos en el auto del Tribunal y presentados como extraídos de tales providencias. En ese sentido, la Corporación señaló que la equivocación se tradujo en una argumentación insuficiente y carente de sustento veraz utilizada para soportar el auto proferido –desfavorable a la demandante–, lo que vulneró el derecho al debido proceso de la accionante.
Respecto a lo segundo, la Corte destacó el papel fundamental de los funcionarios judiciales en la construcción de confianza legítima de los particulares en el Estado y su capacidad para resolver los conflictos de manera pacífica, definitiva, oportuna y justa a través de la justicia estatal. Ello, bajo el entendido de que la protección de los derechos y libertades propios del Estado Social y Democrático de Derecho exige una adecuada Administración de Justicia, para cuyos fines es indispensable esa confianza, que naturalmente demanda fallos ajustados al ordenamiento jurídico y coherentes con la realidad social.
En ese sentido, según la Corporación, la construcción y el mantenimiento de tal confianza dependen del cumplimiento de una serie de deberes a cargo de los funcionarios judiciales, orientados a hacer de la Administración de Justicia aquello que los particulares esperan legítimamente de ella. Entre tales deberes, uno de los más importantes es el deber de motivar las decisiones judiciales, que exige, entre otras cuestiones, una serie de actuaciones dirigidas a garantizar la idoneidad, veracidad y autenticidad de las fuentes y de la información de la que se sirven los funcionarios para motivar sus decisiones.
Sobre este último aspecto, la Corporación citó la Sentencia T-323 de 2024 de la Corte Constitucional que, aunque centra sus consideraciones en la cuestión del uso de Inteligencia Artificial (IA) en la Administración de Justicia, a juicio de la jueza de tutela aborda cuestiones aplicables a otros contextos judiciales. En dicha providencia, la Corte Constitucional enfatizó la alta diligencia exigible a los jueces al momento de verificar la veracidad y la fiabilidad de la información que consultan –especialmente a través de herramientas tecnológicas– para proyectar sus decisiones (Corte Constitucional de Colombia, 20243).
Bajo esas consideraciones, en el trámite de tutela se concluyó que el error del Tribunal fue especialmente trascendente, pues constituyó el fundamento exclusivo con base en el cual se revocó la decisión de primera instancia. En consecuencia, se concedió la protección constitucional y se dejó sin efectos el auto inicialmente proferido, con el fin de que el Tribunal resolviera nuevamente el recurso de apelación mediante un nuevo auto debidamente sustentado.
Ahora bien, este fallo de la Corte Suprema no señaló expresamente que el error cometido por el Tribunal hubiese sido consecuencia de la falta de verificación de la información obtenida mediante Inteligencia Artificial generativa, sin embargo, ha propiciado una reflexión sobre las implicaciones del uso indebido de ese tipo de tecnologías en la elaboración de decisiones judiciales, que pudo ser la causa del error atribuido al Tribunal. En particular, según Dahl et al. (2024)4, por la causación del fenómeno denominado “alucinaciones”, asociado a la producción de resultados incorrectos o engañosos por parte de modelos de IA, lo que los hace una fuente falible de información, especialmente en el ámbito legal y judicial.
En Colombia, aunque existen algunos lineamientos generales de política pública –como el CONPES 3975 de 2019 o el CONPES 4144 de 2025–, se ha creado el Comité de Expertos de Alto Nivel sobre Inteligencia Artificial (CANIA) y se han radicado múltiples proyectos de ley en la materia, actualmente no existe una norma de carácter vinculante que regule el uso de la IA. Al interior de la Rama Judicial –y en cumplimiento de la orden impartida en la Sentencia T-323 de 2024–, el Consejo Superior de la Judicatura ha divulgado una serie de lineamientos para el uso respetuoso, responsable, seguro y ético de IA en la Administración de Justicia (Acuerdo PCSJA24-122435), no obstante, lo cual son múltiples las decisiones judiciales que recientemente han suscitado amplias preocupaciones sobre el manejo dado a esta herramienta.
Por primera vez, en 2023, el Juzgado Primero Laboral del Circuito de Cartagena reconoció abiertamente haber utilizado ChatGPT para la proyección del fallo en un proceso de tutela, en el que se solicitaba la protección de los derechos fundamentales a la salud y a la vida de un menor de edad diagnosticado con trastorno del espectro autista (TEA). En esa oportunidad, el juez sostuvo que su actuación encontraba respaldo jurídico en la Ley 2213 de 2022, cuyo objeto es la implementación de las tecnologías de la información y las comunicaciones en las actuaciones judiciales, y afirmó de forma expresa que se había servido del modelo únicamente como herramienta auxiliar, sin que ello implicara sustituir su propio criterio.
No obstante, en términos generales, la información extraída del modelo e incorporada en la sentencia no hacía referencia a fuentes normativas concretas que sirvieran al juez para sustentar su decisión por esa vía. Asimismo, resultó evidente que, en contraste con lo afirmado por el propio juez, la verificación de la información suministrada por el aplicativo no fue lo suficientemente rigurosa, pues se incluyó en la providencia, sin cuestionamiento alguno, una respuesta fundamentada en una ley cuyo contenido no guardaba relación alguna con lo que ChatGPT había utilizado para justificar su conclusión sobre las exenciones en el pago de cuotas moderadoras para menores con TEA: el Plan Nacional de Desarrollo del expresidente Juan Manuel Santos (Ley 1753 de 2015).
Precisamente, este fallo de tutela constituyó el antecedente de la Sentencia T-323 de 2024 de la Corte Constitucional que, en sede de revisión, concluyó que, si bien el juez no vulneró el derecho fundamental al debido proceso al utilizar inteligencia artificial en la elaboración del fallo –la usó como complemento del análisis previamente realizado por él mismo–, no logró satisfacer los exigencias de transparencia y responsabilidad que recaen sobre los funcionarios judiciales cuando emplean tales herramientas (Corte Constitucional de Colombia, 2024).
En Colombia, otro de los casos más insólitos sobre uso de inteligencia artificial en decisiones judiciales se presentó con la sentencia del 3 de abril de 2024 proferida por la Sala Penal del Tribunal Superior de Pereira. En ella, se revocó una sentencia absolutoria y, en su lugar, se condenó a una persona por el delito de homicidio culposo con fundamento, entre otros aspectos, en un análisis de ChatGPT sobre la injerencia de la cantidad de alcohol consumido por la víctima en los hechos ocurridos. El análisis se originó en la siguiente pregunta formulada por el Tribunal al aplicativo: “¿la presencia en sangre de 20 miligramos sobre 100 mililitros de etanol a cuántas copas de vino, de aguardiente, de ron o de cerveza equivalen?” (Tribunal Superior del Distrito Judicial de Pereira, 2024, p. 226.).
Con esta pregunta, se pretendía determinar si se configuraba un supuesto de autopuesta en peligro que impidiera la imputación de responsabilidad al procesado, bajo la premisa de que, si se acreditaba, se afectaría el nexo causal entre su conducta y el resultado producido. No obstante, en el proceso ya existían otras pruebas que cumplían los estándares legales y habían sido el fundamento para la decisión apelada. De allí que, la sentencia de segunda instancia haya suscitado múltiples críticas desde la perspectiva del debido proceso. Principalmente, porque el juez sustentó un elemento central de la decisión en un conocimiento incorporado al proceso de manera irregular, en un momento en el que no pudo ser controvertido por el procesado, y cuyo sustento técnico y científico, además, resultaba indiscutiblemente cuestionable, al no existir una prueba pericial que lo respaldara.
Tiempo después, el 4 de octubre del mismo año, la propia Corte Suprema fue cuestionada por uso de inteligencia artificial sin cumplimiento de las exigencias referidas por la Sentencia T-323 de 2024, al menos en términos del principio de transparencia, que obliga a los funcionarios judiciales a explicar claramente el alcance del uso de IA para proyectar su decisión (Corte Constitucional de Colombia, 2024). Esto, porque se identificó un apartado al interior de un fallo suyo en el trámite de una acción de tutela que señaló lo siguiente: “Se han corregido aspectos de redacción y estructura para mejorar la coherencia y claridad del texto, siguiendo el estilo formal y respetuoso que has solicitado. Si tienes alguna observación o cambio adicional, por favor házmelo saber” (Corte Suprema de Justicia de Colombia, 2024, p. 197).
Otro de los hitos recientes se dio en la actuación penal cuestionada en la Sentencia STP21973-2025 de la Corte Suprema, en la que se protegieron los derechos fundamentales al debido proceso y a un juicio imparcial de un procesado por los delitos de actos sexuales con menor de catorce años y acceso carnal abusivo con menor de catorce años. En este caso, se constató que en el expediente obraba un borrador de sentencia condenatoria elaborado parcialmente por IA generativa antes de finalizar el juicio oral –pese a no haberse celebrado las audiencias de alegatos finales y anuncio del sentido del fallo–. El documento contenía una valoración probatoria, una condena por una pena de 18 años de prisión y la firma de la jueza. En particular, la Corte advirtió que incluía un análisis del testimonio de la víctima presuntamente generado por IA y “expresamente orientado a la emisión de una sentencia condenatoria, lo cual desborda por completo los usos permitidos de estas tecnologías en el ámbito judicial” (Corte Suprema de Justicia de Colombia, 2025, p. 228). Esto último, vale recalcar, se encuentra prohibido por los artículos 3.6. y 8.3. del Acuerdo PCSJA24-12243 antes citado.
En este contexto, pese a los lineamientos administrativos y al pronunciamiento de la Corte Constitucional en el 2024, resulta palpable que persisten varias de las preocupaciones comunes advertidas en las decisiones expuestas. En lo fundamental, la falta de transparencia y de responsabilidad en el uso de la IA por parte de los jueces, la inadvertencia en el tratamiento del fenómeno de las alucinaciones y, sobre todo, la posible vulneración de derechos fundamentales y la consiguiente pérdida de confianza ciudadana en la Administración de Justicia.
Este último aspecto ha sido central en los pronunciamientos más recientes de la Corte Suprema de Justicia, pues la Corporación ha entendido que el uso indebido de IA, en el fondo, encarna una preocupación más profunda: la existencia de un sistema judicial conforme a la democracia requiere de una legitimidad que solo es posible cuando los ciudadanos confían en él. Sin embargo, esa confianza, tal como lo refirió la Sentencia STC17832-2025, depende, a su vez, de una serie de garantías para quienes acuden a la justicia estatal en búsqueda de soluciones a sus conflictos, que son las que dotan de legitimidad a todo el engranaje del ordenamiento jurídico –y las que más se resienten por el uso indebido de las tecnologías de la información en el ámbito judicial– (Flórez, 2025)9.
Por lo anterior, si bien la incorporación de estas tecnologías en el sistema judicial constituye una oportunidad prometedora, los casos mencionados muestran la necesidad de profundizar el debate sobre los retos éticos y legales que plantean (Socol de la Osa & Remolina, 202410). Frente a las crecientes demandas de mayor eficiencia y mejores condiciones de acceso a la Administración de Justicia, resultaría insostenible sacrificar los principios y valores más importante de la Constitución y la ley en aras de una agilidad que termine vaciando de contenido a las decisiones judiciales. En consecuencia, estos antecedentes deben orientar el diseño de una regulación clara y suficiente, así como de escenarios de capacitación adecuada, que permitan armonizar el desarrollo tecnológico con las garantías propias de la Administración de Justicia.
- Estudiante de Cuarto Año de Derecho de la Universidad Externado de Colombia. Monitora del Centro de Estudios sobre Genética y Derecho. ↩︎
- Corte Suprema de Justicia de Colombia, Sala de Casación Civil, Agraria y Rural. (5 de noviembre de 2025). Sentencia STC17832-2025 [M.P: López, A.]. ↩︎
- Corte Constitucional de Colombia, Sala Segunda de Revisión. (2 de agosto de 2024).
Sentencia T-323 de 2024 [M.S: Cortés, J.]. ↩︎ - Dahl, M., Magesh, V., Suzgun, M. & Ho, D. (2024). Large Legal Fictions: Profiling Legal Hallucinations in Large Language Models. Journal of Legal Analysis, 16(1), 64-93. https://doi.org/10.1093/jla/laae003 ↩︎
- Consejo Superior de la Judicatura. (16 de diciembre de 2024). Acuerdo PCSJA24-12243. Por el cual se adoptan lineamientos para el uso y aprovechamiento respetuoso, responsable, seguro y ético de la inteligencia artificial en la Rama Judicial. https://actosadministrativos.ramajudicial.gov.co/Home/GetFile?nombreArchivo=PCSJA24-12243.pdf ↩︎
- Tribunal Superior del Distrito Judicial de Pereira, Sala Penal. (3 de abril de 2024). Sentencia de segunda instancia, Radicado No. 76001600019320138073401 [M.P: Yarzagaray, M.]. ↩︎
- Corte Suprema de Justicia de Colombia, Sala de Casación Penal. (4 de octubre de 2024). Sentencia STP13121-2024 [M.P: Barbosa, G.]. ↩︎
- Corte Suprema de Justicia de Colombia, Sala de Casación Penal. (2 de diciembre de 2025). Sentencia STP21973-2025 [M.P: Urbano, J.]. ↩︎
- Flórez, M. (2025). Algocracia en el Poder Judicial: un desafío a la confianza en el sistema. Revista De Estudios Sociales, 93, 107-128. https://doi.org/10.7440/res93.2025.06 ↩︎
- Socol de la Osa, D., & Remolina, N. (2024). Artificial intelligence at the bench: Legal and ethical challenges of informing –or misinforming– judicial decision-making through generative AI. Data & Policy, 6, e59. doi:10.1017/dap.2024.53 ↩︎