El peligro de la abogacía "automatizada" en la PatagoniaEl peligro de la abogacía "automatizada" en la Patagonia

El reciente apercibimiento de la Justicia de Río Negro a un grupo de abogados de Viedma no es solo una anécdota de pasillo en los tribunales de la capital provincial; es el síntoma de una crisis de identidad en las profesiones liberales frente al avance de la Inteligencia Artificial (IA).

El hecho, que salió a la luz tras detectarse escritos judiciales con jurisprudencia inventada, marca un precedente incómodo en el desarrollo institucional de la región.

La erosión del rigor profesional

En un contexto donde el desarrollo económico regional exige una seguridad jurídica inquebrantable para atraer inversiones, que los auxiliares de la justicia presenten «alucinaciones» de software como argumentos legales es, cuanto menos, alarmante. El problema no radica en la herramienta, sino en la delegación del criterio. En Viedma, la comodidad del prompt rápido venció a la consulta del Digesto.

Lo que estos profesionales parecen haber olvidado es que modelos de lenguaje como ChatGPT funcionan por probabilidad estadística, no por veracidad jurídica. Cuando un abogado firma un escrito generado por una máquina sin verificar cada cita, está incurriendo en una falta ética que roza la temeridad. No solo pone en riesgo el patrimonio de su cliente, sino que satura el sistema judicial, obligando a los juzgados a actuar como correctores de estilo y verificadores de datos de ficciones digitales.

Un desafío para la modernización del Estado

Río Negro ha intentado posicionarse como un polo de modernización administrativa, pero la tecnología sin capacitación es un arma de doble filo. Si la digitalización de la justicia buscaba celeridad, la automatización irresponsable produce el efecto contrario: morosidad por control de fraudes.

La región se encuentra en una encrucijada. ¿Cómo integrar la eficiencia de la IA sin perder la esencia del razonamiento humano? La respuesta que llega desde los estrados de Viedma es clara: la justicia no admite atajos. La «mala praxis tecnológica» podría empezar a figurar pronto en los códigos de ética de los Colegios de Abogados, con sanciones que van más allá de un simple reto judicial.

Hacia una regulación de la «LegalTech» en Argentina

Este incidente debería ser el puntapié inicial para una regulación seria sobre el uso de algoritmos en el derecho argentino. Países de la Unión Europea ya debaten la obligatoriedad de declarar el uso de IA en documentos públicos. En la Patagonia, donde el acceso a la justicia suele enfrentar desafíos geográficos y burocráticos, la tecnología debe servir para cerrar brechas, no para crear espejismos legales.

La conclusión es una sola: el derecho es, ante todo, una ciencia humana. Ninguna red neuronal, por más avanzada que sea, puede sustituir la responsabilidad civil de quien pone su firma en un expediente. El «reto» judicial en Viedma es, en realidad, un recordatorio de que la tecnología es un excelente asistente, pero un pésimo jefe.


Por LPRN

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *