La Fiscalía usa IA para un escrito judicial y es rechazado por el juez

«`html

La Fiscalía usa IA para un escrito judicial y es rechazado por el juez

Un hecho sin precedentes está sacudiendo los cimientos de la justicia y la tecnología. Por primera vez, y de manera pública, un juez ha rechazado un escrito presentado por una Fiscalía por estar redactado con Inteligencia Artificial. Este caso, ocurrido en Colombia, marca un punto de inflexión crucial y abre un intenso debate sobre los límites éticos y prácticos de la IA en el sistema judicial.

El caso concreto: ¿Qué sucedió?

La Fiscalía General de la Nación de Colombia presentó un escrito de tutela relacionado con un caso de violencia intrafamiliar. Sin embargo, el juez de control de garantías, al revisar el documento, detectó inconsistencias que levantaron sus sospechas. Tras una investigación, se confirmó que el texto había sido generado por un modelo de lenguaje de IA, específicamente ChatGPT.

El magistrado no dudó en rechazar de plano el escrito, argumentando que su uso violaba principios procesales fundamentales. La Fiscalía, por su parte, admitió el hecho, señalando que un funcionario había utilizado la herramienta para «agilizar» su trabajo, pero sin la debida supervisión y validación.

Las razones del rechazo: Más allá de la tecnología

El juez no rechazó el escrito por el mero uso de la tecnología, sino por las graves consecuencias que su aplicación sin control conlleva. Estas fueron sus principales objeciones:

  • Falta de responsabilidad y autoría: Un escrito judicial debe ser el producto del análisis y la convicción de un abogado que asume la responsabilidad legal de su contenido. La IA, como «tercero» no humano, diluye esta responsabilidad directa.
  • Riesgo de «alucinaciones» y datos falsos: Modelos como ChatGPT pueden generar información inventada o imprecisa (un fenómeno conocido como «alucinaciones»). En un proceso judicial, donde los hechos deben ser exactos, esto es inaceptable.
  • Violación del principio de buena fe procesal: El juez consideró que presentar un texto generado automáticamente sin declararlo previamente vulnera la confianza y la transparencia que deben regir en un proceso legal.
  • Falta de criterio humano y contexto: La IA carece de la capacidad de juzgar, de entender el contexto emocional y las nuances legales específicas de un caso, elementos cruciales para la justicia.

Un precedente con ramificaciones globales

Si bien este caso ocurrió en Colombia, su eco es mundial. No es la primera vez que un abogado usa IA con resultados desastrosos (como el famoso caso de abogados en EE. UU. que citaron precedentes falsos inventados por ChatGPT), pero sí es una de las primeras veces que un juez actúa de oficio para rechazar un documento fiscal por este motivo. Sienta un precedente formal sobre lo que NO se debe hacer.

Lecciones aprendidas y el futuro de la IA en los tribunales

Este incidente no significa que la IA deba ser desterrada de los juzgados. Por el contrario, enseña cómo debe integrarse de manera responsable. Estas son las lecciones clave:

  • La IA es un asistente, no un reemplazo: Puede ser útil para tareas auxiliares como redactar borradores, resumir expedientes o buscar jurisprudencia, pero siempre bajo supervisión humana.
  • La verificación humana es indispensable: Cualquier dato, cita o argumento generado por una IA debe ser verificado minuciosamente por un profesional.
  • Se necesita transparencia: En un futuro, podría ser necesario declarar el uso de estas herramientas en documentos legales.
  • Urge la formación y regulación: Los despachos y instituciones judiciales deben formar a sus profesionales en el uso ético de la IA y establecer protocolos claros para su uso.

Conclusión: Un llamado a la cordura tecnológica

El rechazo del escrito de la Fiscalía por el uso de IA no es una victoria de los «antitecnología», sino un triunfo del sentido común. Es un recordatorio contundente de que la justicia es una actividad profundamente humana que requiere criterio, responsabilidad y empatía, cualidades que, por ahora, ninguna máquina puede replicar. Este caso es la advertencia necesaria para que la innovación y la ley avancen de la mano, sin que una suplante a la otra.


«`

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *