México presenta primeros lineamientos en América Latina para el uso responsable de la IA en la abogacía

presenta primeros lineamientos en América Latina para el uso responsable de la IA en la abogacía
El 2 de diciembre de 2025, en México, el presidente de la Comisión de Análisis, Seguimiento y Evaluación sobre la Aplicación y Desarrollo de la Inteligencia Artificial, Rodrigo Rolando Zapata Bello, encabezó la presentación de los Lineamientos de la Barra Mexicana, Colegio de Abogados, A. C. para el uso responsable de la IA en la abogacía, con el objetivo de establecer un marco ético y de autorregulación que permita aprovechar esta tecnología sin comprometer la confidencialidad, la seguridad ni la dignidad de las personas.

Tiempo de lectura aprox: 7 minutos, 33 segundos

El 2 de diciembre de 2025, en México, el presidente de la Comisión de Análisis, Seguimiento y Evaluación sobre la Aplicación y Desarrollo de la Inteligencia Artificial en México, Rodrigo Rolando Zapata Bello, encabezó la presentación de los Lineamientos de la Barra Mexicana, Colegio de Abogados, A. C. (BMA) para el uso responsable de la IA en la abogacía, considerados por legisladores y especialistas como un ejercicio ejemplar de autorregulación para garantizar que esta tecnología se utilice con límites claros, responsabilidades definidas y valores profesionales.

Zapata Bello destacó que los lineamientos llegan “en el mejor momento”, al señalar que la discusión ya no es si se utilizará o no la Inteligencia Artificial, “porque ya está sucediendo, sino cómo la usamos, con qué límites, con qué responsabilidades y con qué valores”. Desde la Comisión legislativa que encabeza, calificó el documento como “un ejercicio ejemplar de autorregulación responsable” que, en sus palabras, “no demoniza la tecnología, pero tampoco la idealiza”.

El senador subrayó que los lineamientos abordan la IA desde principios como la ética profesional, la confidencialidad, la transparencia, la supervisión humana, la no discriminación y la seguridad, incluida la ciberseguridad, lo que, según afirmó, constituye un liderazgo histórico de la Barra Mexicana de Abogados, adaptado a “los retos y desafíos del siglo XXI”. Además, resaltó que los beneficios de la tecnología se reconocen de forma explícita, al señalar que la IA puede aportar “eficiencia, calidad del servicio y acceso a la justicia”, siempre y cuando se utilice bajo controles éticos robustos.

Beneficios y riesgos: el equilibrio entre innovación y responsabilidad

Durante la presentación, Zapata Bello advirtió que la IA no está exenta de peligros. Entre los riesgos identificados, mencionó las “alucinaciones de la IA generativa”, los sesgos algorítmicos, la pérdida del juicio profesional, la opacidad de sistemas no auditables y la posible vulneración del secreto profesional. Afirmó que “en ese equilibrio entre innovación y responsabilidad está su mayor valor”, en referencia a los lineamientos de la BMA.

Por su parte, la presidenta de la Barra Mexicana, Ana María Kudisch Castelló, destacó que las herramientas basadas en IA abren “nuevas posibilidades para mejorar la eficiencia y la práctica jurídica, así como facilitar el acceso a la justicia”. No obstante, enfatizó que su incorporación implica “importantes retos éticos que deben atenderse con cuidado y reglas claras”.

Kudisch explicó que, “atendiendo la urgencia de establecer un marco general que oriente a nuestra membresía y a los profesionales del derecho en el uso responsable de la Inteligencia Artificial”, la BMA aprovechó el talento de sus asociados para elaborar estos lineamientos, que fijan directrices éticas para el uso de la herramienta tecnológica en el ejercicio profesional del derecho.

Sustento técnico y proceso de elaboración

En su intervención, Zapata Bello informó que la Comisión que preside reunió en este año a 72 especialistas de los sectores público, privado, académico y social, en seis conversatorios temáticos, donde se analizaron los cruces entre la Inteligencia Artificial y campos como la ética, el derecho, la creatividad, la salud, la educación, el empleo, la propiedad intelectual y la ciberseguridad, entre otros.

De este proceso, indicó, surgieron tres documentos técnicos que hoy funcionan como base para la tarea legislativa sobre IA en México. Aunque la nota no detalla el contenido de dichos documentos, se establece que su objetivo es aportar diagnósticos y propuestas en los diversos ámbitos impactados por la tecnología.

Desde la BMA, Kudisch puntualizó que el documento de lineamientos se apoya en un “análisis detallado de la legislación hasta hoy existente en la materia” y en “experiencias compartidas de colegios hermanos de otras latitudes del orbe”. Estos elementos buscaban asegurar que las directrices mexicanas estuvieran alineadas tanto con la normativa vigente como con buenas prácticas internacionales en materia de ética e IA en la abogacía.

Primeros lineamientos de su tipo en América Latina

La consejera de la BMA, Carmen Quijano, resaltó el carácter pionero del documento, al afirmar que los lineamientos son “los primeros en América Latina” y constituyen una muestra de “lo que se requiere en esta era para poder combatir los retos de esta tecnología”.

Quijano explicó que el trabajo se centró en una “reglamentación mínima requerida”, combinada con una investigación sobre herramientas que permitan fortalecer las competencias necesarias en este nuevo entorno digital. El enfoque, según lo expuesto, no se limitó a imponer restricciones, sino también a impulsar la formación y capacitación de los profesionales del derecho frente a la IA.

Este carácter pionero otorga a la BMA una posición de referencia regional en la discusión sobre la autorregulación de la IA aplicada al derecho, abriendo la posibilidad de que otros colegios profesionales y países en América Latina adopten o adapten estos estándares.

Compromiso legislativo y defensa de la dignidad y la privacidad

La senadora Lucía Trasviña Waldenrath subrayó la responsabilidad profesional de los abogados frente a la IA. Sostuvo que es crucial que los juristas “verifiquen rigurosamente la información generada por esa tecnología y mantengan la responsabilidad sobre su uso”.
Advirtió que “la regulación de la IA demanda algo más que buenas intenciones, exige rigor técnico, transparencia, pruebas de impacto y un modelo claro de rendición de cuentas”. La senadora refrendó su compromiso de contribuir a la construcción de una arquitectura legal en México que permita aprovechar el potencial de la IA “sin poner en riesgo la dignidad, la privacidad, ni la seguridad de nadie”.

Trasviña enfatizó que “la tecnología debe estar al servicio del pueblo, nunca por encima de él”, frase que resume la preocupación política y social por evitar que la innovación tecnológica resulte en abuso de poder, discriminación o vulneración de derechos fundamentales.

Lineamientos

En su intervención Gustavo Rodríguez menciona que los lineamientos de la Barra se organizan en siete pilares esenciales:. Usando únicamente la información que aparece en su intervención, los 7 lineamientos son:

  1. Actualización y obligación de competencia. Los abogados deben mantenerse actualizados en IA y desarrollar habilidades técnicas y críticas necesarias para usar estas herramientas correctamente.
  1. Confidencialidad y protección de datos. Cuidar la información del cliente; evitar subir datos sensibles a sistemas no seguros y adoptar medidas que protejan la privacidad.
  1. Transparencia y uso de herramientas supervisables. Preferir sistemas que permitan auditoría y explicar cómo se empleó la IA; evitar “cajas negras” que no se pueden revisar.
  2. Responsabilidad y juicio profesional (supervisión humana). Todo producto generado por IA debe ser supervisado por un abogado; la responsabilidad final es del profesional, que debe ejercer juicio crítico.
  3. Equidad, no discriminación y justicia. Identificar y mitigar sesgos algorítmicos; asegurar que la IA no genere resultados discriminatorios ni profundice desigualdades.
  1. Verificación frente a alucinaciones y control de calidad. Comprobar que la IA no invente leyes, precedentes o datos; validar la información frente a fuentes primarias antes de usarla.
  2. Derechos humanos, dignidad y preocupaciones emergentes (impactos sociales y ambientales). Proteger la dignidad y derechos humanos; considerar efectos colaterales como consumo energético, data centers y aumento de desigualdad; anticipar nuevos riesgos (p. ej. neuroderecho).

Otros puntos

En el evento se mencionaron algunos otros conceptos a destacar para el uso responsable de la IA en la abogacia:

Responsabilidad profesional exclusiva

El abogado sigue siendo responsable de su trabajo aunque use IA. Si un documento tiene errores, la responsabilidad es del abogado.

Confidencialidad y protección de datos

No subir ni compartir información sensible de clientes en servicios de IA sin permisos y medidas de seguridad. Si es secreto del cliente, no poner en buscadores o en un chat público; se deben usa sistemas seguros y pide consentimiento si hace falta.

Transparencia con clientes y tribunales

Informar a los clientes (y cuando corresponda a tribunales) que se usó IA y explicar cómo se verificaron los resultados.

Supervisión humana y juicio profesional

Todo resultado de IA debe ser revisado por una persona con criterio profesional antes de usarse. En sencillo, la IA hace borradores; el abogado valida, corrige y decides si se usa o no.

Competencia y formación continua

Los abogados deben aprender cómo funcionan las herramientas de IA y mantenerse actualizados.

Evitar sesgos y discriminación

No usar sistemas que discriminen o produzcan resultados injustos; evaluar modelos por sesgos. Se debe verifica que la IA no trate diferente a personas por género, origen, edad, etcetera.

Seguridad y ciberseguridad

Implementar medidas técnicas y contractuales para proteger datos y evitar accesos indebidos. Se deben usa contraseñas fuertes, servicios seguros y contratos que obliguen al proveedor a cuidar la información.

Transparencia técnica y auditabilidad

Preferir herramientas explicables y que permitan revisar cómo llegan a sus resultados (evitar “cajas negras”). Usar sistemas cuyos procesos puedas auditar o, al menos, entender lo suficiente para explicar decisiones.

Verificación frente a “alucinaciones”

Comprobar que lo que produce la IA corresponde a la realidad y a fuentes confiables; no dar por bueno lo inventado. Si la IA cita una ley o un precedente, busca el texto original para comprobarlo.

Diferenciación por nivel de riesgo

Aplicar reglas más estrictas cuando el uso de IA afecta derechos fundamentales o tiene alto impacto. Para casos críticos (libertad, identidad, datos sensibles) la revisión y controles deben ser más rigurosos.

Autorregulación y actualización periódica

La Barra y los despachos deben tener normas internas, revisarlas y mejorarlas con el tiempo. Se deben hacer reglas internas sobre IA y actualizar esas reglas cada año según cambie la tecnología.

Publicidad, honorarios y acceso a la justicia

Ser claros en la publicidad sobre uso de IA, evaluar cómo afectará costos y aprovechar la IA para ampliar acceso legal. Al ofrecer “servicios con IA”, explicar qué incluye; ajusta honorarios y usa la IA para ayudar más gente.

Protección de la dignidad y derechos humanos

Evitar usos de IA que vulneren la dignidad o derechos de las personas. No usar tecnologías que invadan la privacidad o dañen a personas por buscar eficiencia.

Evaluación de impacto y pruebas previas

Antes de usar una herramienta en casos reales, hacer pruebas para ver riesgos y consecuencias. Cuena con evidencias que demuestran el uso de la IA en casos de ejemplo y comprueba efectos antes de usarla con clientes reales.

Sostenibilidad y desigualdad, como  una preocupación emergente

Considerar impactos ambientales (centros de datos) y evitar que la IA aumente la brecha entre quienes tienen acceso y quienes no. Prefiere proveedores responsables y buscar formas para que la IA beneficie a más personas, no solo a quienes pueden pagarla.

En conclusión

La presentación de los Lineamientos para el uso responsable de la IA en la abogacía por parte de la Barra Mexicana, Colegio de Abogados, con el respaldo y participación activa de la Comisión legislativa sobre IA y de representantes del Senado, se configura como un paso clave hacia la regulación integral de la Inteligencia Artificial en México.

El documento aspira a servir como guía ética para los profesionales del derecho, combinando principios como la ética profesional, la confidencialidad y la no discriminación con la necesidad de preservar la supervisión humana y la seguridad, incluida la ciberseguridad. Al mismo tiempo, reconoce el potencial de la IA para mejorar la eficiencia de la práctica jurídica y ampliar el acceso a la justicia, siempre que se gestionen de forma adecuada los riesgos identificados.

Pero tambión nos deja con preguntas:

  • ¿Qué estándar mínimo técnico y contractual exigiremos a cualquier proveedor de IA que procese datos de clientes (por ejemplo cifrado en tránsito y en almacenamiento, eliminación de datos, auditoría independiente, certificaciones), y cómo verificaremos el cumplimiento antes de permitir su uso en casos reales?
  • ¿Cuál será el temario mínimo obligatorio y el mecanismo de certificación (horas, evaluación, periodicidad y registro público) para acreditar la competencia en IA de un abogado, y qué medidas concretas implementaremos para asegurar acceso equitativo a esa capacitación en despachos pequeños y regiones remotas?
  • ¿Qué procedimiento documental y de trazabilidad exigiremos para demostrar una supervisión humana diligente sobre entregables generados por IA (metadatos, checklist de verificación, firma del revisor), diferenciando requisitos según el nivel de riesgo del asunto?
  • ¿Qué métricas básicas y frecuencia de pruebas estableceremos para detectar y mitigar sesgos algorítmicos y “alucinaciones” en los modelos que utilicemos, y cuál será el mecanismo de remediación y responsabilidad en caso de decisiones o asesorías erróneas que afecten derechos fundamentales?

Referencias

Glosario

  • Alucinaciones de la IA generativa: Situaciones en las que un sistema de IA produce información falsa, inventada o no verificada como si fuera verdadera o precisa.
  • Arquitectura legal: Conjunto estructurado de leyes, reglamentos y normas que organizan y regulan un ámbito específico de la vida social o económica.
  • Autorregulación: Proceso mediante el cual un sector o profesión establece sus propias reglas y estándares de conducta sin esperar a que sean impuestas exclusivamente por la ley.
  • Ciberseguridad: Conjunto de prácticas y medidas diseñadas para proteger sistemas informáticos, redes y datos frente a accesos no autorizados, ataques o daños.
  • Rendición de cuentas: Principio según el cual personas e instituciones deben explicar, justificar y asumir responsabilidades por sus decisiones y acciones.
  • Sesgos algorítmicos: Distorsiones o desigualdades en los resultados de un sistema de IA causadas por datos, diseños o criterios que favorecen injustamente a ciertos grupos o decisiones.
  • Secreto profesional: Obligación legal y ética de ciertos profesionales, como los abogados, de no revelar información confidencial que les confían sus clientes.