_
_
_
_

Sentencias falsas, leyes extranjeras y filtrado de datos: los riesgos de usar ChatGPT se cuelan en los despachos de abogados

El uso incorrecto de la inteligencia artificial ha provocado ya sanciones de los tribunales, que advierten de la necesidad de contrastar la información que ofrece la herramienta

Ilustración de los logotipos de ChatGPT y OpenAI
Ilustración de los logotipos de ChatGPT y OpenAIDado Ruvic (REUTERS)
Nuria Morcillo

La inteligencia artificial (IA) está revolucionando numerosos sectores. Poco a poco, comienza a ser habitual el uso de esta herramienta en el día a día de los trabajadores. El sector legal no se queda atrás. La automatización de tareas rutinarias, el análisis de grandes volúmenes de información e incluso la redacción de documentos están siendo un gran atractivo para muchos despachos de abogados que ven con buenos ojos apoyarse en ella. La denominada IA generativa (capaz de generar contenido) está al alcance de todos, si bien su uso incorrecto puede tener graves consecuencias, que pueden ir desde la afectación de derechos fundamentales, como la vulneración de la protección de datos, hasta faltar a la ética profesional y perjudicar la asistencia legal a los ciudadanos.

En 2023 dio la vuelta al mundo el caso de dos abogados estadounidenses que fueron condenados a pagar una multa de 5.000 dólares por presentar un escrito judicial utilizando ChatGPT, que incluyó decisiones judiciales inexistentes. Ambos letrados trabajaban en una demanda contra la aerolínea Avianca, en defensa de un pasajero que sufrió una lesión por el golpe del carrito de servicio durante un vuelo. El abogado que encabezó el procedimiento admitió haber usado la inteligencia artificial para preparar el escrito y que la única verificación que había llevado a cabo era preguntar a la aplicación si los casos que citaban eran reales. Finalmente, el juez solo se le impuso una sanción como castigo por actuar de mala fe.

En España también se han dado casos. El más reciente conocido es el de un abogado que presentó en un juzgado de Navarra una querella escrita por la aplicación propiedad de OpenAI que contenía una referencia al Código Penal de Colombia. Cuando se detectó el error, el letrado pidió disculpas y reconoció su uso deficiente del sistema. El Tribunal Superior de Justicia de Navarra, que analizó pormenorizadamente lo sucedido, dejó pasar el asunto y no impuso ninguna sanción. No obstante, advirtió de los riesgos éticos y legales que tiene la utilización de tecnologías emergentes en el ámbito legal y destacó la importancia de un uso responsable.

Bufetes de abogados y asesorías jurídicas de empresas están experimentando e incorporando este tipo de herramientas informáticas para agilizar tareas que requieren mucho tiempo, pero para las que no es necesaria tanta especialización jurídica, como la gestión de documentos o la revisión de contratos. “La inteligencia artificial puede ayudar a los profesionales, de cualquier rama, a mejorar la eficiencia y la precisión de su trabajo. También, puede reducir el tiempo y los costos asociados con las tareas legales rutinarias. Por ello, no es de extrañar que una de las áreas donde la IA está teniendo mayor penetración es en la elaboración de contratos y documentos legales”, afirmó el decano del Ilustre Colegio de la Abogacía de Madrid, Eugenio Ribón, en junio de 2023 durante el Foro Justicia que celebra la institución.

Para Isabel Rodríguez, responsable del área de servicios profesionales en Accenture en España, la inteligencia artificial tiene “un gran potencial” en los servicios jurídicos, pero explica que la utilización de este sistema debe “ser responsable y rigurosa para evitar sesgos o discriminación”. “El uso de la IA en fuentes abiertas plantea riesgos en aspectos como la fiabilidad de la información, la falta de contexto jurídico local y la vulnerabilidad en la privacidad y confidencialidad. Las plataformas de IA en el ámbito legal manejan grandes volúmenes de información confidencial, incluyendo detalles de contratos y datos sensibles de las partes involucradas. Para mitigar estos riesgos, es fundamental garantizar la calidad de la información, utilizar modelos especializados y crear entornos seguros para el acceso a los datos”, indica.

Miguel Aznar, abogado y socio de Balder IP Lawyers, alerta de que en consultas de asuntos legales, estos sistemas informáticos “obtienen información de fuentes no fiables, suple la falta de conocimientos inventándoselos, suministra información legal desactualizada o que no cumple con los requisitos legales aplicables al caso, lo cual puede tener consecuencias muy negativas en la defensa de los clientes y en la propia reputación del despacho”. “Una excesiva dependencia de la IA puede hacer que los profesionales se relajen y deleguen ese esfuerzo en estas herramientas que, al menos de momento, no les va a ofrecer soluciones o estrategias que requieren un profundo análisis legal”, apostilla.

Entonces, ¿cuáles son las consecuencias que tiene la inclusión de datos erróneos, la posible vulneración de derechos o un asesoramiento incorrecto? El Tribunal Constitucional reprochó la “falta del debido respeto al tribunal” a un abogado que presentó un recurso que citaba literalmente pasajes de 19 supuestas sentencias del tribunal de garantías que no eran reales. En este caso, el letrado alegó que el error procedía de la desconfiguración de una base de datos con jurisprudencia. Sin embargo, el tribunal de garantías tachó la actuación de “desprecio jurisdiccional” y recriminó que no se comprobara la veracidad o la procedencia de las referencias. “Fuera cual fuese la causa de la inclusión de citas irreales (uso de la inteligencia artificial, entrecomillado de argumentos propios, etcétera), el letrado es siempre responsable de revisar exhaustivamente todo el contenido de este y de cualquier escrito”, indicó en un acuerdo firmado en septiembre de 2024. A este abogado solo le cayó la sanción mínima de apercibimiento y su caso se mandó al Colegio de Abogados de Barcelona para que valore el castigo disciplinario correspondiente.

Sin normas específicas en la Abogacía

La Ley de Enjuiciamiento Civil española exige el respeto a las reglas de la buena fe procesal con sanciones que van desde el apercibimiento hasta multas que oscilan entre 180 y 6.000 euros. Aun así, más allá de las normas internacionales sobre IA, no existe una regulación específica su uso ni en el ámbito legal ni judicial, pero sí unas recomendaciones o guías para su uso correcto. El Comité Técnico Estatal de la Administración Judicial Electrónica (CTEAJE), compuesto por el Ministerio de Justicia, el Consejo General del Poder Judicial (CGPJ), la Fiscalía General del Estado y las comunidades autónomas con competencias transferidas, publicó en junio de 2024 una política de criterios mínimos, con un desglose de usos aceptados y prohibidos en el ámbito de la Administración de Justicia. Asimismo, el propio CGPJ constituyó el pasado septiembre un grupo de trabajo especial para el estudio y análisis de las implicaciones de esta herramienta en el ejercicio de la función jurisdiccional.

En el ámbito de los abogados, Manuel Mata, decano del Colegio de Castellón y presidente de la Comisión de Deontología del Consejo General de la Abogacía de España (CGAE), asegura que los estatutos generales de la profesión como el código deontológico cuentan con “suficientes elementos para atajar o contrarrestar los riesgos que supone” el uso de inteligencia artificial generativa, al tiempo que apunta que el avance de esta tecnología es “tan rápida”, que hace imposible adaptar la regulación de manera de forma simultánea. No obstante, precisa que ello no impide el análisis de la incidencia que puede tener la IA en la profesión para advertir de posibles peligros y de las necesarias cautelas a adoptar por parte de los letrados.

La Asociación Internacional de Abogados (IBA, por sus siglas en inglés), una entidad con más de 80.000 miembros, entre ellos despachos líderes de todo el mundo y 200 colegios de abogados, se sumó el pasado octubre —siendo la primera asociación de juristas en unirse— al Convenio Marco del Consejo de Europa sobre la Inteligencia artificial, con el fin de dar seguridad a la abogacía en el proceso de adopción e implementación de la inteligencia artificial.

En este sentido, Mata apunta que, a la hora de utilizar herramientas de inteligencia artificial, los abogados deben tener en cuenta aspectos como la obligación de secreto profesional y la protección de datos y confidencialidad. Es decir, “evitar que la información que se facilite se esté compartiendo con terceros”. Una de las prevenciones a tomar en este caso es anonimizar los documentos, señala el responsable de Deontología de la Abogacía. Para el socio de Balder IP Miguel Aznar, este punto es uno a los que más atención se debe poner. “Las fisuras en la confidencialidad de la información de contenido legal podrían aumentar significativamente los riesgos de violaciones de datos, ciberataques y accesos no autorizados a información confidencial”.

Otro de los puntos que no se pueden quedar al margen es el deber de diligencia, que ya está contemplado en las normas de los abogados, recuerda el decano del Colegio de Castellón. Por último, Mata señala que la inteligencia artificial también puede afectar al inicio de las relaciones entre cliente y abogado, debido a la posibilidad de inclusión en páginas web de los despachos de chatbot (programa informático que simula una conversación) para que los usuarios puedan resolver dudas. Incluso puede generar “conflicto de interés”, añade como ejemplo, ya que dos partes de un mismo conflicto con intereses contrapuestos pueden comenzar a buscar asesoramiento legal a través del asistente virtual del mismo bufete.

Con todo este escenario, Isabel Rodríguez, de Accenture, subraya que la IA “está en constante aprendizaje y ganando autonomía”, por lo que sería conveniente que los letrados “sepan utilizar la inteligencia artificial de manera efectiva” y que las “decisiones críticas” sigan en “manos de las personas”.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Nuria Morcillo
Periodista de Tribunales con más de 10 años de experiencia. Tras dar los primeros pasos en El Mundo y ABC, llegó a la agencia de noticias Europa Press, donde comenzó a profundizar en el mundo jurídico. Después pasó por La Información, donde siguió especializándose en ese área. En CincoDías desde diciembre de 2022.
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_