Por: Diego Fernando Tarapués Sandino
Si los computadores y el internet generaron una revolución científica y social que ha cambiado al mundo, seguramente la aprehensión y masificación de la inteligencia artificial (IA) generará una metamorfosis estructural en la humanidad mucho mayor. En efecto, la IA llegó para cambiarlo todo y el Derecho no es la excepción. No en vano cada vez son más frecuentes las publicaciones científicas, los congresos académicos y hasta los pronunciamientos judiciales que se centran en las bondades, cuestionamientos y, en general, vicisitudes de la IA en el mundo jurídico.
Recientemente, se difundió con rapidez y mucho interés una sentencia de tutela de la Sala de Casación Penal en la que se amparó el derecho fundamental al debido proceso y a un juicio imparcial, luego de que se estimara que se encontraba comprometida la presunción de inocencia del procesado por parte de la autoridad judicial (un Juzgado Penal del Circuito), ya que la defensa halló en el expediente un documento que revelaba uso de IA para plantear un aparente fallo condenatorio. No se trató de una simple consulta, de la búsqueda de un tema poco claro, de un resumen de un documento o de la mejora estilística en la redacción, sino que, al parecer, con nombres reales, pruebas recaudadas e incluso transliteración de declaraciones, se experimentó un intento de sentencia judicial, evidentemente comandada a que fuera condenatoria, en la que la IA realizó valoraciones probatorias y conclusiones sobre la determinación de la responsabilidad penal.
Luego de que se resolviera infundada la recusación dirigida a declarar que el funcionario judicial había “manifestado su opinión respecto del asunto sometido a su conocimiento”, y tras la negativa de amparo en primera instancia, la Sala de Decisión de Tutelas de la Corte estimó que “la actuación cuestionada no solo quebranta la apariencia de justicia imparcial, sino que también refuerza el trato prematuro de culpabilidad, generando una afectación conjunta, estructural y no meramente formal de los principios de imparcialidad judicial y de presunción de inocencia” (sentencia STP21973-2025). Por lo anterior, revocó la decisión del a quo, ordenó que el asunto lo conociera el juzgado siguiente en turno y exhortó al despacho accionado para que, en lo sucesivo, cuando emplee herramientas de IA en actuaciones judiciales, se sujete estrictamente a los lineamientos, prohibiciones y principios previstos por la judicatura en la materia.
Esta providencia llama la atención por ser, lamentablemente, uno más de esos casos en los que se corrobora un uso indebido o al menos reprochable de la IA. En efecto, no es un caso aislado, pues, semanas atrás, la Sala de Casación Civil de la misma Corte ya había concedido una tutela en la que se constató la existencia de defectos en la motivación de una sentencia proferida por una Sala de Decisión de un Tribunal Superior de Distrito Judicial, que citaba de manera desacertada precedentes que la IA generativa se inventó.
Si bien sucesos como estos se llevan a cabo de manera errada con o sin ayuda de este tipo de tecnologías, es decir, hay funcionarios judiciales que manifiestan opiniones sobre el asunto a fallar con o sin IA, asimismo, pueden ser inducidos erradamente por un tercero, sea un ser humano o una herramienta tecnológica generativa, o se atiende a fuentes inexistentes para motivar decisiones que salen de imprecisiones humanas o informáticas; lo cierto es que resulta cada vez más evidente que los seres humanos hemos encontrado en estas herramientas a un “alguien”, o más bien un “algo”, que (aparentemente) nos facilita la vida sin sonrojarnos, sin mucho esfuerzo y con poco costo, en una relación costo/beneficio que cualquier agente racional se ve tentado a acudir (visto desde la rational choice theory). Por eso es más fácil, y menos vergonzoso, preguntarle –desde lo más trivial hasta lo más complejo– a un aparato que a un colega o a un experto. Es más sencillo y rápido confiar en un chat de estos que consultar en libros, manuales, jurisprudencia o normas directamente. Esa es una tentación real y constante que solo puede ser sorteada con un uso esencialmente ético y responsable, mas no con vetos o prohibiciones.
No hay que estigmatizar a la IA, pero sí repudiar las erradas prácticas en las que no se hace un uso responsable y ético de la misma. Tenemos que aprender a convivir con esta nueva herramienta, y ojalá a sacarle su mayor provecho, pero en el camino no tenemos que enajenar nuestras mentes y nuestra capacidad de análisis y reflexión. Desde hace unas décadas asistimos a un escenario en el que cada vez son menos los que pueden hacer cálculos matemáticos en la mente, o con hoja y papel, y tienen una dependencia total al uso de la calculadora, les cuesta forzar la mente para llevar a cabo una simple operación matemática, incluso suele ocasionar estrés o impaciencia. En los últimos años, la tecnología también ha incidido en que algunas personas no quieran asumir el aprendizaje profundo de un segundo o tercer idioma, porque resulta algo muy exigente en tiempos en los que los dispositivos traducen, inclusive de manera sincrónica. Con esta tendencia, preocupa que, con el desarrollo tecnológico de la IA y su uso excesivo, algunas personas prescindan de labores mínimas de investigar y consultar por cuenta propia para hacerse a un criterio personal y les empiece a generar fatiga (o pereza) el mero hecho de tener que pensar por sí mismos.
No podemos llegar a una fase en la que normalicemos el hecho de delegar a esta tecnología nuestra capacidad y potencial de pensar (por cansancio, por desidia o por cualquier razón). Ante la IA no podemos ser “el hombre inferior” ni “el hombre mediocre” que acertadamente describía José Ingenieros, hace un poco más de un siglo, en su célebre obra que se titula con este último calificativo. De ser así, estaríamos ante un escenario apocalíptico y preocupante para la humanidad: entre más inteligentes son los aparatos con que interactuamos, más embrutecemos como seres humanos. Eso no sería un desarrollo progresivo para la civilización, todo lo contrario, algo regresivo que debería inquietar hasta al más escéptico de las películas de ciencia ficción que ambientan una rebelión de las maquinas.
En el ámbito judicial, con la sentencia T-323 de 2024, la Corte Constitucional ha fijado una serie de interesantes reflexiones y reglas sobre el empleo adecuado de la IA en la labor judicial, lo cual implica un uso transparente, responsable, racional, serio, con control humano y regulación ética, que debe redundar en buenas prácticas y en estándares colectivos. Además, siguiendo las directrices del órgano de cierre de la Jurisdicción Constitucional, el Consejo Superior de la Judicatura emitió el Acuerdo PCSJA24-12243 de 2024 que regula “el uso y aprovechamiento respetuoso, responsable, seguro y ético de la inteligencia artificial en la Rama Judicial”, el cual no solo debería ser consultado y aplicado por la magistratura del país, sino por todo profesional y estudiante de Derecho.
Efectivamente, las malas prácticas del uso de la IA en el Derecho no resultan exclusivas de magistrados, jueces o empleados judiciales como creería alguien que mire con sesgo los casos citados. Prácticas erradas en este sentido, se advierten –cada vez con mayor frecuencia– en diferentes oficios, memoriales, demandas, recursos, actos administrativos y en un gran abanico de escritos jurídicos formulados por abogados y servidores públicos en actuaciones tanto judiciales como administrativas. La comunidad académica no está exenta de estos riesgos y vicisitudes. Desde discentes hasta docentes suelen acudir constantemente a la IA, lo cual es plausible en la medida que lo hagan con la misma transparencia, seriedad, rigurosidad y responsabilidad que fijan los lineamientos de la judicatura, los cuales deberían cumplirse a cabalidad. La aspiración debe ser a que la IA nos facilite ciertas labores académicas y judiciales, puesto que tiene mucho potencial. Las reflexiones y críticas constructivas no se dirigen a esta tecnología per se, sino a las erradas prácticas de algunos cuando la usan. Como muchas herramientas e invenciones que ha desarrollado el ser humano, la IA debe usarse para brindar calidad y eficiencia, para hacer lo que hacemos de una mejor manera y esto solo se logra con un uso ético y responsable en el desempeño de nuestro ejercicio profesional y académico.