• LUNES 20
  • de abril de 2026

Derecho

FOTOGRAFIA
Gestión de las firmas de abogados

Industria legal: uso ético de la IA y la autorregulación de los estudios

Experto Maximiliano Amor sostiene que en el Perú y la mayoría de los países de América Latina la utilización de la tecnología avanza más rápido que el marco normativo.


Editor
Percy Buendia Quijandría

Periodista

pbuendia@editoraperu.com.pe


En declaraciones al Diario Oficial El Peruano, sostuvo que “siempre la tecnología avanza más rápido que el marco normativo y diría que el Perú, como la gran mayoría de los países de Latinoamérica, está pasando esta situación. A medida que se desarrolla la tecnología, se empiezan a desplegar conversaciones de cómo regularla, qué uso se le puede dar y cuál no, etcétera”, aseveró.

Tradicional

Amor recordó que la industria legal en Perú, al igual que en otros países, es muy tradicional. “Hay mucha resistencia a la tecnología y diría que una de las barreras es principalmente esa, que se han destapado no solo en el Perú, sino también en distintos países, casos de mal uso de la IA que, de alguna manera, generan aún más resistencia. Pero es precisamente por eso, porque es un mal uso”, precisó.

“Soy bien reiterativo, y decimos que uno tiene que abrazar la inteligencia artificial, pero siempre entendiendo que es un fenómeno que se está transformando y debe estar con la validación humana de manera constante”, afirmó el director ejecutivo de LemonTech, dedicada al software legal.

Sobre la necesidad de una legislación especial, el experto manifestó que es un tema que se debate en varios países. “De hecho, en Chile también se está discutiendo una ley sobre el uso de inteligencia artificial”, refirió.

“Creo que es tan transformacional que es superimportante que figure en estas discusiones. Creo también que, si bien podría ayudar a que haya una normativa, la industria legal es tan reputacional que, de alguna manera, siento, además, que se empezará a regular sola”, expresó.

Amor rememoró que los estudios y abogados viven de su reputación y la confianza que generan; y cuando hay casos de esta envergadura, que está mal empleada la IA, puede dañar mucho el prestigio de un bufete o letrado, que es el principal sustento para atraer a clientes.

“Sin duda es un tema que se debe discutir a nivel de Congreso y estar revisando. Pero, al mismo tiempo, es una situación que se va a autorregular porque debe usar en un marco ético, porque la ética es la base de la industria legal”, subrayó.

El director ejecutivo señaló que los grandes bufetes están generando políticas internas asociadas a las certificaciones de seguridad y a revisiones con validaciones humanas en varios pasos.

“Nosotros, como proveedores de tecnología, también vamos en esa línea. Invitamos a los estudios de abogados, a las gerencias legales, a que también se alíen con partners tecnológicos que muestren ese cumplimiento, porque no es solo del uso ético, sino también de privacidad de datos, de certificaciones de seguridad y que esa data no se fugue o no le den un mal uso”, remarcó.

En este caso, afirmó, “al menos desde nuestra visión, preferimos avanzar quizá un poco más lento, pero en un marco superseguro con las certificaciones de seguridad respectivas, que generar soluciones de IA de una forma desbordada, sin un control absoluto”.

Amor resaltó que están saliendo certificaciones cada vez más recurrentes basadas en el tema de la inteligencia artificial sobre la privacidad de datos. “De nuestro lado, le ponemos mucho foco a ese tema”, explicó.

Otro tema bien relevante, dijo, es que no exista ningún tipo de interés de las empresas que brindan servicios tecnológicos a las firmas de abogados y que sus inversionistas estén vinculados con el mundo legal.

“Hemos visto que se ha dado un fenómeno en el que existen soluciones de tecnología en las que sus inversionistas son estudios de abogados u otras entidades que sí pueden tener de alguna manera algún tipo de interés cruzado”, advirtió.

Aristas

El director ejecutivo mencionó que la IA, particularmente en la industria legal, es un fenómeno que presenta varias aristas. “Por un lado, se está usando para el desarrollo de contratos, revisión de causas, etcétera, en temas que son particularmente delicados y para los cuales la IA todavía no está 100% pulida. Por lo tanto, tiene ciertos ‘delirios’ [respuestas incorrectas o engañosas] según algunos motores que se puedan usar, etcétera”, agregó.

“Es una herramienta de doble filo. Ayuda bastante en la eficiencia, pero no hay que olvidar que todavía debe tener la revisión y supervisión humana, y esa discusión se llevó a un área de ética. Existen abogados, efectivamente, que tienen, por un lado, resistencia por la parte ética de que puede haber motores que generen cierto ‘delirio’ y eso hace que la gestión sea irresponsable”, sostuvo.

“Estamos de acuerdo con esta preocupación y por esto impulsamos que se use la inteligencia artificial, pero con la responsabilidad y dentro de un marco ético en el que se entienda que el humano siempre debe ser el que ponga la validación final”, recalcó.

Por otro lado, subrayó, la industria legal también es muy tradicional y, particularmente, en los estudios más grandes, que vienen de hace muchos años, los socios no son necesariamente nativos digitales, por lo que es natural que muestren cierta resistencia a transformaciones de magnitud vinculada con las tecnologías, porque no crecieron con ellas.

“Entonces, se está dando un fenómeno en el que los bufetes más grandes dependen mucho de la visión de los socios, que generalmente son personas con edad más avanzada, en ver si abrazan nuestras tecnologías”, indicó.

Al mismo tiempo, reafirmó, es una industria que está cada vez más competitiva, salen muchos egresados todos los años que sí son nativos digitales y de alguna manera la tecnología y la inteligencia artificial emparejan un poco la cancha en el sentido de los accesos y de poder llegar a más clientes.

“Es un desafío para los abogados de estudios grandes, para los que están emergiendo, que si abordan de una manera positiva el uso de la tecnología, puede ser una tremenda herramienta”, puntualizó.

Supervisión humana

El Reglamento de la Ley Nº 31814, Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país, que se aprobó mediante el Decreto Supremo N.° 115-2025-PCM, señala que los sistemas basados en IA deben estar sujetos a una supervisión humana.

De esta manera, señala, asegurarán que sus decisiones sean éticas, justas y respetuosas de los derechos fundamentales, así como garantizarán la validación de la calidad de los datos utilizados para confirmar su precisión, integridad y representatividad.

La intervención humana será necesaria para corregir, modificar o detener el funcionamiento de estos sistemas, con el fin de prevenir abusos, fortalecer la transparencia y rendición de cuentas y salvaguardar el bienestar colectivo, en cumplimiento de los principios jurídicos, éticos y morales vigentes, remarca la norma que se publicó el 9 de setiembre del 2025.