16 noviembre, 2025

Primicias de la política, empresariales y de la farandula

El expediente falso: La IA en el banquillo

Haga Click

Image Map

Por Jorge Mario Gómez Restrepo 

Una decisión de tutela de la Corte Suprema de Justicia acaba de generar un alboroto en los círculos judiciales de nuestro país, en ella se anula una decisión de la Sala Civil Familia Laboral del Tribunal Superior de Sincelejo por citas jurisprudenciales “inexistentes” utilizando la Inteligencia Artificial (IA) sin una “verificación rigurosa de las fuentes jurídicas”. Sí, la Corte lo anuló, pero la grieta ya se abrió. El punto es que un expediente falso existió y escaló varias instancias.

Si bien el problema evidencia una alarmante mala práctica profesional y una falla inexcusable en la verificación humana, con enormes costos en justicia material al debilitar la confianza del sistema judicial, también deja abierto el debate sobre la herramienta. El primer filtro que falló no fue el algoritmo, sino el operador judicial. Pero esto no exime a la IA de su parte, y exige un debate social que deben abordar con urgencia los Estados. 

Ya no es solo el uso de la IA como herramienta de trabajo, investigación, estudio y consulta en la cotidianidad o para diferentes oficios o profesiones, nos estamos enfrentando a nuevos problemas, entre ellos la forma como se alimenta de información, los posibles sesgos en la forma de procesamiento, situaciones que generan preguntas frente a sus límites éticos.

Esto genera la pregunta de si es necesario la construcción de reglas nuevas de responsabilidad para quien crea las IAs o para quien las programa cuando se desbordan los límites y se afectan los derechos individuales.»

Por ejemplo, en EE.UU. un Tribunal del Estado Georgia bajo el caso Walters vs. OpenAI conoció de una demanda por difamación, en la cual la IA creó información falsa sobre un locutor al asignar información falsa que lo acusa de algunas conductas criminales.

Un caso aún más dramático se presentó en California, donde los padres de Adam Raine de 16 años señalan a esta misma empresa por negligencia, tras el suicidio de su hijo, donde los demandantes alegan que las conversaciones con la IA fueron un factor determinante, y en un caso similar otro menor estadounidense Sewell Setzer tomó la misma ruta trágica al dialogar durante meses con un chatbot que simulaba conversaciones humanas de propiedad de la empresa Character.AI, impulsando a su familia a demandar ante el Tribunal de la Florida.

Otros como Google enfrentan similares problemas por la publicación en su motor de búsqueda operado por IA al introducir información engañosa que afectaba la empresa Wolf River Electric. Empresas del mismo sector tecnológico, vienen afrontando demandas por vulneración de los derechos de autor, siendo cada vez más frecuente que deban lidiar con solicitudes y reclamos en estrados judiciales ante la ausencia de reglas o deficiencia legal en este sector.

Hemos superado la barrera de las alucinaciones y sesgos cuando le requerimos una consulta a las inteligencias artificiales, vamos transitando hacia una nueva era donde debe existir al menos cuestionamientos sobre los compromisos de responsabilidad en la construcción de estas herramientas.

Un error procesal (Sincelejo), un daño civil (difamación) y una tragedia humana (suicidio), demuestran que la IA viene a transformar la interacción humana, y con ella puede afectar derechos individuales, actividades económicas, incluso la propia vida.

Ya no solo sus creadores pueden valerse de argumentos de libertad de expresión, o decisiones autónomas en la forma de procesamiento de su lenguaje, su vanguardista creación también debe dar cabida a la responsabilidad de sus fabricantes, programadores, operadores y usuarios, lo que significa que todos como sociedad debemos asumir los riesgos de entrar a la nueva era de la modernidad, y todo ello implica afrontar y participar en la construcción de reglas, límites y sanciones.

No podemos quedar en una alarma sin un plan de evacuación.

Más allá del uso apropiado que le podamos dar como herramienta a los sistemas de inteligencia artificial generativa, su transformación en la medicina, educación, administración de justicia, economía, entre otras,  es innegable.

Pero esto también debe alertar a la sociedad y al gobierno sobre qué tipos de controles éticos y jurídicos se deben implementar al respecto, en especial quien debe responder por las acciones u omisiones de la IA, pues cada vez nos enfrentamos a problemas mucho más graves.

No podemos darle la espalda a esta discusión, ni temerle a los grandes capitales y empresas que están detrás de las IA, debemos cuestionar su responsabilidad, y quién debe reparar los daños cuando afectan los derechos fundamentales, colectivos. Aún como humanos somos dueños de la razón, el conocimiento y la intuición.   

El debate no puede ser si usamos o no la IA; es sobre quién responde. Si el juez de Sincelejo hubiese sido sancionado por su mala praxis, ¿exonera eso a la empresa que diseñó una herramienta que ‘alucina’ por defecto? Estamos, como en la guerra algorítmica, ante una ‘brecha de responsabilidad’. ¿Debe responder el programador por el código, la empresa por el entrenamiento, o el usuario por no verificar? Si no definimos esto ahora, la justicia se llenará de expedientes falsos y las víctimas, de daños irreparables.