Cuando supervisar no es suficiente: uso de la IA y obligaciones profesionales

Escrito por

Resumen:

Este artículo analiza el impacto de la inteligencia artificial generativa en el ejercicio de la abogacía, más allá de la responsabilidad del abogado por la información que presente ante el cliente o ante los tribunales. A través de un breve análisis del marco normativo, se ponen sobre la mesa ciertos riesgos que la utilización de estas herramientas puede entrañar en el cumplimiento de algunas obligaciones deontológicas del profesional de la abogacía. En concreto, los deberes de independencia, del secreto profesional y de información. Se concluye que el deber de independencia puede vulnerarse si el abogado depende excesivamente de la herramienta y no conserva la libertad de criterio para la dirección del asunto, igual que el deber de confidencialidad si la herramienta no garantiza una protección adecuada, y que no existe de momento obligación de informar al cliente sobre el uso de la IA aunque podría consolidarse como una buena práctica.

Texto:

La IA generativa ha venido para quedarse. Un estudio indica que el 76% de los departamentos jurídicos de las empresas y el 68% de los bufetes afirman haberla utilizado al menos una vez por semana[1].

Pese a que el Reglamento (UE) 2024/1689, que regula el uso de ciertas IA de riesgo en la Unión Europea, no identifica las herramientas de IA empleadas en la abogacía como de alto riesgo a diferencia de las empleadas por autoridades judiciales[2], ello no implica que su uso por el profesional esté exento de grandes riesgos si no se hace de una manera responsable, como ya anunciaba la Guía sobre uso de las herramientas de Inteligencia Artificial del Consejo de la Abogacía Europea del año 2022[3].

Uno de ellos, son las llamadas “alucinaciones de la inteligencia artificial” [4], por las que ya se han abierto expedientes sancionadores a abogados en diferentes países. En septiembre de 2024 nuestro Tribunal Constitucional apercibió a un abogado que había utilizado citas inexactas de sentencias previas y señaló que los fallos en los escritos redactados con herramientas IA serán castigados como una falta de respeto al órgano de garantías y a sus miembros.[5]

No obstante, más allá de la veracidad de la información, ha surgido un riesgo más difícil de detectar: cuando la IA generativa deja de ser una herramienta de apoyo y empieza a influir en la toma de decisiones jurídicas, comprometiendo la calidad de dirección estratégica del abogado y el cumplimiento de sus obligaciones deontológicas.

En este artículo me centraré en su posible impacto en los deberes de independencia, de información y de confidencialidad y protección de los datos personales del cliente.

Impacto en el deber de independencia del profesional de la abogacía

El derecho y deber de intervención libre e independiente del profesional de la Abogacía se constituye como garantía de efectividad del derecho fundamental de defensa. Ésta se recoge en el artículo 47 del Estatuto General de la Abogacía Española (EGAE)  y en el artículo 2 del Código Deontológico de la Abogacía Española (CDAE), en el que se indica que el abogado debe preservar la independencia “frente a toda clase de injerencias”, lo que implica rechazar las instrucciones que, en contra de los propios criterios profesionales pretenda imponer “cualquier otra persona, entidad o corriente de opinión”, previendo la posibilidad de que entes sin personalidad jurídica o incluso conceptos abstractos puedan influir en el criterio del abogado y todo ello con independencia de las actividades necesarias para la defensa en relación con las exigencias técnicas del asunto.[6]

La opacidad sobre el funcionamiento interno de las herramientas de IA generativa, que se intensifica en el caso de modelos de aprendizaje automático, puede llevar al desconocimiento del alcance de los ya conocidos sesgos de la IA (culturales, de confirmación, de popularidad, algorítmicos etc.)[7] pudiendo condicionar el resultado del encargo si no son conocidos ni debidamente abordados por los profesionales de la abogacía.

Pese a que las herramientas de IA generativa pueden ayudar significativamente a los profesionales de la abogacía en servir a sus clientes, no pueden reemplazar el criterio propio y la experiencia necesaria para un buen servicio profesional, no siendo suficiente para cumplimentar el deber de independencia que el profesional verifique que las normas o jurisprudencia aplicables a una estrategia jurídica son correctas y aceptables si no ha valorado otras bases jurídicas o incluso alternativas que pudieran ser igualmente correctas, pero más beneficiosas a los intereses del cliente.

De la misma forma que un abogado puede solicitar asistencia de otro con más experiencia o especialización en la materia durante la dirección de un encargo, su independencia no se verá afectada si mantiene la libertad de criterio.[8]

Impacto en el deber de confidencialidad y la protección de datos personales

El deber de confidencialidad y de guardar el secreto profesional incluye según el artículo 22 del EGAE y 5 del CD “todos los hechos y documentos de que haya tenido noticia o haya remitido o recibido por razón de cualquiera de las modalidades de su actuación profesional”, extendiéndose a todos los miembros de un despacho colectivo.

Muchas herramientas de IA generativa son adaptativas, es decir, se reentrenan y mejoran a partir de nuevas interacciones y datos generados por los usuarios, que pasan a formar parte de la base de datos de la herramienta si cumplen ciertos criterios de calidad, a veces bajo supervisión humana, y, en consecuencia, estando potencialmente sujetos a ser revelados a otros usuarios.

Bajo estas circunstancias, el empleo poco responsable de IA generativa podría comprometer el cumplimiento del deber de confidencialidad en cuanto que se compartan con ella hechos y documentos del encargo y la plataforma no ofrezca las garantías adecuadas de protección de la confidencialidad.

Asimismo, puede menoscabar el derecho a la protección de datos personales de los clientes en la medida en que estos datos se empleen por el despacho, empresa o tercero para modalidades distintas que no son intrínsecas al encargo profesional, como el entrenamiento del modelo de IA, o escapen de la base legal de tratamiento, y puedan ser transferidos a servidores situados en terceros países, complicando el cumplimiento del principio de minimización y el derecho de supresión del tratamiento[9]. El cumplimiento de esta normativa por los profesionales de la abogacía es imprescindible, dada la naturaleza sensible de los datos de los clientes que manejan continuamente los abogados y del tratamiento especial por la ley de ciertos datos como los de condenas e infracciones penales.

Pese a que la anonimización de los datos podría parecer una solución efectiva para desactivar los principales peligros sobre los datos personales de los clientes, debemos considerar, primero, que la persona física sea identificada ni identificable no impide que ciertos eventos únicos descritos hagan posible la identificación en última instancia o al menos reduzcan el número de personas probables al mínimo[10] y, segundo, que el deber de protección de datos es complementario al deber de confidencialidad del abogado, de forma que aquello que no vulnera la normativa de protección de datos puede vulnerar aun así ser deontológicamente cuestionable por comprometer el secreto profesional al tener este último un ámbito más amplio y no tolerar la anonimización ni el consentimiento del cliente.

Ambas obligaciones son responsabilidad de cada profesional, que debe tomar las medidas adecuadas en relación con el contexto y a un análisis de riesgos y para decidir qué herramientas IA decide utilizar -por ejemplo, contratar una IA generativa que funcione como SaaS (software de pago) y que ofrezca seguridad en el cumplimiento normativo y del Reglamento General de Protección de Datos (RGPD), empleando técnicas de computación confidencial, de forma que no se cedan a terceros ni se empleen para reentrenar el modelo. Aun así, la solución más evidente y eficaz es no introducir datos sujetos al deber de secreto profesional en la herramienta.

¿El abogado debe informar sobre el uso de la IA?

En Alemania, la Cámara Federal de Abogados de Alemania emitió una guía en diciembre de 2024 en la que señalaba que el hecho de que un abogado esté obligado a proporcionar a sus clientes información sobre todos los aspectos materiales de la relación con el cliente no implica que deba informarle sobre el uso de la IA bajo la ley alemana [11].

En Estados Unidos, el Comité Permanente de Ética y Responsabilidad Profesional de la American Bar Association interpreta los Model Rules of Professional Conduct en el ámbito del uso de la IA generativa en su Formal Opinion 512[12], señalando que la necesidad de informar sobre su uso dependerá de las circunstancias, aunque señala algunas situaciones en la que habrá obligación de comunicar: si el cliente le pregunta sobre los medios con los que ha desarrollado su trabajo o si empleó IA o cuando el resultado de la IA generativa tenga un impacto significativo en las decisiones de la representación y en el criterio del abogado.

En nuestro país, aún no se ha dado respuesta oficial a esta pregunta. El artículo 6.2 f) de la nueva Ley Orgánica 5/2024, del Derecho de Defensa, señala que los titulares del derecho de defensa tienen derecho a ser informados por el profesional de la abogacía sobre los aspectos “que se deriven del encargo profesional, de las leyes, así como de cualesquiera otras obligaciones accesorias o inherentes al ejercicio de la abogacía”.

Por su parte, el artículo 12 j. del CDAE indica que el profesional deberá comunicar a su cliente “Todo dato o hecho que le conste en relación con el asunto, siempre que no conlleve vulneración del secreto profesional y que pueda incidir en el resultado”. Nada dice al respecto el artículo 21 del CDAE, en el que se desarrolla el uso de las tecnologías de la información en la abogacía.

Adoptando un criterio restrictivo similar al de las entidades representativas de la abogacía alemana, estadounidense y francesa[13], parece que a fecha de hoy en España el profesional de la abogacía no estaría obligado a comunicar el empleo de IA al cliente, siempre y cuando no pueda incidir en el resultado, es decir, cuando se utilice como una herramienta de trabajo y garantice la suficiente independencia de su trabajo de esta, de conformidad con el artículo 12 j. CDAE.

No obstante, sí que podrían en ciertos casos derivarse obligaciones de información de fuentes distintas a los deberes deontológicos, como el derecho contractual, la ley de competencia desleal o la normativa de protección de datos. En este último caso para el cumplimiento de las obligaciones de transparencia del RGPD, sobre las finalidades de tratamiento y el uso de los datos (en línea con lo desarrollado en el apartado anterior) o por la posible existencia de decisiones automatizadas y la elaboración de perfiles, que deben observar los profesionales de la abogacía bajo el artículo 15 de la LO 5/2025, del Derecho de Defensa[14].

En cualquier caso, explicarle al cliente cómo se hace uso de la tecnología en el día a día del despacho o en el estudio de un caso puede ayudar a mejorar la transparencia y la comunicación efectiva con el cliente. La Federación de Colegios de Europa en su guía[15] y las entidades representativas de la abogacía alemana, estadounidense y francesa lo recomiendan como buena práctica.

De todo lo anterior podemos concluir que, pese a que la IA generativa es una herramienta muy poderosa y útil para el ejercicio de la abogacía, como dice aquel viejo aforismo cuya autoría se ha perdido en el tiempo: un gran poder conlleva una gran responsabilidad. Por ello, como profesionales y a falta de regulación específica, debemos extremar diligencia para cumplir con nuestras obligaciones de manera que podamos garantizar el derecho de defensa de su cliente y la dignidad de la profesión.


REFERENCIAS

    1. [1] Wolters Kluwer, Informe de la Encuesta Future Ready Lawyer 2024: ¿Avanzar hacia el futuro o quedarse atrás?, disponible en: (https://www.wolterskluwer.com/es-es/know/future-ready-lawyer-2024)
    2. [2] Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de marzo de 2024, arts. 50 a 52, DOUE-L-2024-81079, disponible en: (https://www.boe.es/buscar/doc.php?id=DOUE-L-2024-81079)
    3. [3] Council of Bars and Law Societies of Europe, Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU, 2022, disponible en: (https://www.ccbe.eu/fileadmin/speciality_distribution/public/documents/IT_LAW/ITL_Reports_studies/EN_ITL_20220331_Guide-AI4L.pdf)
    4. [4] Entendidas como aquellos datos que las inteligencias artificiales generativas inventan debido a su modelo predictivo del lenguaje por entenderse como más probables o plausibles en ausencia de datos suficientes.
    5. [5] Tribunal Constitucional, Gabinete del Presidente, Oficina de Prensa, Nota informativa. Nº 90/2024. Madrid, 2024.
    6. [6] Estatuto General de la Abogacía Española, art. 47.3. “El profesional de la Abogacía realizará, con plena libertad e independencia y bajo su responsabilidad, las actividades profesionales que le imponga la defensa del asunto que le haya sido encomendado, ateniéndose a las exigencias técnicas y deontológicas adecuadas a la tutela jurídica del asunto.”
    7. [7] Chen, Y. et al., A manager and an AI walk into a bar: Does ChatGPT make biased decisions like we do?, 31 de enero de 2025, disponible en: (https://pubsonline.informs.org/doi/full/10.1287/msom.2023.0279)
    8. [8] A la misma conclusión llega la American Bar Association en su Formal opinion 512, Standing Committee on Ethics and Professional Responsibility, 29 de julio de 2024, p.5, disponible en: (https://www.lawnext.com/wp-content/uploads/2024/07/aba-formal-opinion-512.pdf) ;
    9. [9] Agencia Española de Protección de Datos, Nota de prensa: Abordando conceptos erróneos de la inteligencia artificial, 11 de marzo de 2025, disponible en: (https://www.aepd.es/prensa-y-comunicacion/blog/abordando-conceptos-erroneos-de-la-inteligencia-artificial)
    10. [10] Csányi, G. M. et al., “Challenges and open problems of legal document anonymization”, Symmetry, vol. 13, n.º 9, 2021, p. 1490.
    11. [11] Bundesrechtsanwaltskammer, Hinweise zum Einsatz von künstlicher Intelligenz (KI), diciembre de 2024, p. 4, disponible en: (https://www.brak.de/newsroom/newsletter/nachrichten-aus-berlin/2025/ausgabe-1-2025-v-812025/kuenstliche-intelligenz-in-anwaltskanzleien-brak-veroeffentlicht-leitfaden
    12. [12] American Bar Association, op. cit., p. 9.
    13. [13] Conseil National des Barreaux, L’intelligence artificielle générative pour les avocats: guide pratique, enero de 2025, p. 35, disponible en: (https://www.francenum.gouv.fr/guides-et-conseils/pilotage-de-lentreprise/gestion-traitement-et-analyse-des-donnees-1)
    14. [14] Se remite la AEPD al criterio de la autoridad de protección de datos británica en: op. cit. Nota de prensa: Abordando conceptos erróneos de la inteligencia artificial.
    15. [15] FBE – Fed. de Colegios de Europa, European Lawyer in the era of ChatGPT. Guidelines 2.0 on how lawyers should take advantage of the opportunities offered by large language models and generative AI, septiembre de 2024, Guideline 7, disponible en: (https://www.fbe.org/wp-content/uploads/2024/10/European-lawyers-in-the-era-of-ChatGPT-Guidelines-2.0-on-how-lawyers-should-take-advantage-of-the-opportunities-offered-by-large-language-models-and-generative-AI.pdf)
  • Jesús Parra León

    Abogado apasionado por la litigación, las disputas mercantiles, el surgimiento de las nuevas tecnologías, pero sobre todo los casos jurídicos complejos. He tenido la oportunidad de trabajar en entornos internacionales y en el departamento de derecho procesal de Rödl & Partner España.

    Ver perfil

Artículos relacionados

¿Quieres publicar en Futuro Legal?
Envíanos tu artículo y forma parte de la próxima edición en papel