En Esquel

Chubut: usar ChatGPT en casos judiciales sin validar implicará sanciones

La rápida adopción de la Inteligencia Artificial Generativa (IAGen) en tareas cotidianas ha chocado con la necesidad de rigor del sistema de justicia. Ante la tentación de utilizar herramientas como ChatGPT para la redacción de documentos o el resumen de expedientes, la Procuración General ha emitido una alerta clara: el uso irresponsable de esta tecnología en el ámbito fiscal será motivo de sanción.

A través de la Resolución 238/24, se ha aprobado un «Protocolo de Buenas Prácticas» que delimita estrictamente el rol de la IA, reconociéndola como una herramienta de apoyo, pero nunca de sustitución del criterio humano.

El peligro oculto: La «alucinación» de la IA

El punto más crítico de la normativa es la advertencia sobre la capacidad de la IAGen para «alucinar», un término que describe la generación de respuestas que, si bien son coherentes y convincentes, pueden ser totalmente incorrectas o falsas.

En el sistema judicial, donde la veracidad de los hechos es fundamental, este riesgo es inaceptable. El protocolo impone la «validación obligatoria del contenido generado con IAGen», exigiendo que fiscales y funcionarios contrasten cada dato y afirmación con fuentes de información confiables. Además, el documento desmitifica el uso de la IA, aclarando que no funciona como un «buscador de internet superpotente», sino como un generador de texto probabilístico. Por esta razón, su uso para buscar información concreta está explícitamente desaconsejado.

Responsabilidad ineludible y confidencialidad

La resolución subraya la responsabilidad individual. El protocolo deja en claro que la IA no diluye en lo más mínimo la responsabilidad ética y funcional del personal judicial. La Resolución N° 238/24 PG establece que la violación de estas directrices será considerada una «falta e infracción a los fines del Reglamento Disciplinario», acarreando consecuencias administrativas y profesionales para el infractor. En resumen: la culpa por un error generado por la IA recae 100% en el operador.

Finalmente, la normativa incluye una regla de oro para la protección de la información: la prohibición de ingresar datos sensibles, personales o confidenciales de un caso en los prompts de la IA. Para permitir el uso seguro de la tecnología, se exige la implementación de técnicas de anonimización de los documentos judiciales.

Related posts

Grave accidente en Ruta 3 dejó un herido atrapado en su vehículo

Belén Díaz

Luque recorrió el club Talleres Juniors: «hoy se ve el gran servicio de contención que están cumpliendo»

Raquel Baldero

Trelew: registran en video un puma suelto en Bethesda y crece la preocupación

Lidia Mendes