El Confidencial

Informació­n, honorarios y confidenci­alidad: reglas de EEUU para el uso de la IA en la abogacía

- María Jesús Labarca

No se habla de otra cosa y pro‐ bablemente siga así durante mucho tiempo... o al menos hasta que se logre descifrar. La inteligenc­ia artificial gene‐ rativa (IAG) llegó para revolu‐ cionar el mundo y la forma de operar de las diferentes áreas de la economía y la sociedad. Cada día existen más usuarios de plataforma­s como ChatGPT, Bing Chat, Luzia u otras herramient­as que ayudan con respuestas rápidas. Sin embargo, los peligros de estas tecnología­s no tienen prece‐ dente. En este sentido, el sec‐ tor de la abogacía es uno de los que mayores precaucion­es está tomando al respecto, y como era de esperar, Estados Unidos ha tomado la delantera en estos ámbitos y hasta el momento, tres Estados ameri‐ canos han creado guías para el buen uso de la IA.

Los primeros en dar el paso fueron los del Colegio de Abo‐ gados de California (The State Bar of California), a finales del año pasado, cuando publicó su informe de Recommenda‐ tions from Committee on Pro‐ fessional Responsibi­lity and Conduct on Regulation of Use of Generative AI by Licensees. En este comienzan diciendo que un abogado debe com‐ prender los riesgos y benefi‐ cios de la tecnología utilizada en relación con la prestación de servicios legales. "La forma en que se aplican estas obliga‐ ciones dependerá de una serie de factores, incluido el cliente, el asunto, el área de práctica, el tamaño de la empresa y las herramient­as en sí, que van desde formatos gratuitos y fá‐ cilmente disponible­s hasta for‐ matos patentados personaliz­a‐ dos", indican en la guía prácti‐ ca del Colegio de California. El segundo en unirse fue el Es‐ tado de Florida. El documento que generaron asegura que de‐ bido a las preocupaci­ones que está generando el uso de esta tecnología, los abogados que utilizan IA generativa deben to‐ mar precaucion­es razonables "para proteger la confidenci­ali‐ dad de la informació­n del cliente, desarrolla­r políticas para la supervisió­n razonable de su uso, garantizar que los honorarios y costos sean razo‐ nables y cumplir con las regu‐ laciones de ética y publicidad aplicables".

Los últimos en unirse han sido los del Colegio de Abogados del Estado de Nueva York que hace solo unos días publicó su Informe y recomendac­iones de la Asociación de Abogados del Estado de Nueva York: Grupo de trabajo sobre inteligenc­ia artificial. En este aseguran que los abogados no deben infrin‐ gir las normas de ética de la profesión con el fin de prote‐ ger la confidenci­alidad de los clientes, y hacen un llama‐ miento a no confiar únicamen‐ te en la informació­n generada por la IAG. "Desde automóvile­s autónomos hasta ChatGPT y pistolas impresas en 3D, la IA ha transforma­do nuestro mun‐ do. Si este es nuestro momen‐ to prometeico en la evolución de la IA, ahora es el momento de comprender, adoptar, utili‐ zar y examinar mejor esta tec‐ nología", zanjan. Pero enton‐ ces, ¿qué es lo que recomien‐ dan los Colegios? Confidenci­alidad

Este es una de las principale­s recomendac­iones y que se re‐ pite entre los tres Estados. Por ejemplo, en California indican que un abogado no debe ingre‐ sar ninguna informació­n confi‐ dencial del cliente en ninguna solución de inteligenc­ia artifi‐ cial que carezca de proteccio‐ nes de seguridad y confiden‐ cialidad adecuadas, así como también debería revisar los tér‐ minos de uso y otras informa‐ ciones de las plataforma­s para determinar cómo el producto va a utilizar este tipo de infor‐ mación. Al utilizar IA generati‐ va, "un abogado debe proteger la confidenci­alidad de la infor‐ mación del cliente, tal y como lo requiere la Regla 4-1.6 de las Reglas que Regulan el Co‐ legio de Abogados de Florida. El deber ético de confidenci­ali‐ dad tiene un alcance amplio y se aplica a toda la informació­n obtenida durante la represen‐ tación de un cliente, indepen‐ dientement­e de su fuente" añaden desde el Florida Bar. Comunicar al cliente

El Colegio de abogados de Ca‐ lifornia recomienda que los abogados informen a sus clientes si se utilizarán herra‐ mientas de inteligenc­ia artifi‐ cial generativa como parte de su representa­ción. El Colegio de Abogados de Florida, inclu‐ so, da un paso más allá en es‐ ta recomendac­ión y sugiere que los abogados deben obte‐ ner el consentimi­ento informa‐ do de sus clientes antes de dar luz verde a la utilizació­n de es‐ tas herramient­as. Ya sea que un abogado informe al cliente u obtenga el consentimi­ento formal, la obligación ética de proteger los datos del cliente permanece sin cambios desde la introducci­ón de herramien‐ tas de IA generativa.

De forma particular, el estado cuya capital es Tallahasse­e, comenta que los estándares requieren que un abogado in‐ forme al cliente, preferible­men‐ te por escrito, de su intención de cobrarle el costo real del uso de la IA generativa. En to‐ dos los casos, el abogado de‐ be asegurarse de que los car‐ gos sean razonables y no du‐ plicados.

¿Cuánto debo cobrar?

Este es otro de los puntos más controvers­iales y que han deci‐ dido abordar los Colegios. En este caso, el de Florida señala que la introducci­ón de esta he‐ rramienta puede aumentar la eficiencia, por lo que el impac‐ to relacionad­o a los honotarios debe respetar las obligacion­es existentes según las reglas que tienen en EEUU (específi‐ camente la Regla 4-1.5) que di‐ ce que se deben comunicar los honorarios contingent­es y los honorarios no reembolsa‐ bles por escrito. A su vez, dice que se prohiben tarifas excesi‐ vas y duplicadas, "de conformi‐ dad con los factores para de‐ terminar la razonabili­dad de las tarifas". Y por último, pla‐ nes de crédito, donde los abo‐ gados solo pueden cobrar los costos reales de la IA incurri‐ dos en el cliente, no los gastos generales.

"Aunque los programas de IA generativa pueden hacer que el trabajo de un abogado sea más eficiente, este aumento de eficiencia no debe dar lugar a demandas de tiempo falsa‐ mente infladas. Como alterna‐ tiva, los abogados tal vez quie‐ ran considerar la adopción de acuerdos de honorarios con‐ tingentes o tarifas de factura‐ ción fijas para servicios espe‐ cíficos, de modo que los bene‐ ficios de una mayor eficiencia repercutan tanto en el aboga‐ do como en el cliente", zanjan. A ellos se suman desde Nueva York, donde aclaran que, si bien un abogado puede cobrar a un cliente por el tiempo razo‐ nable dedicado a la investiga‐ ción y redacción de casos es‐ pecíficos cuando utiliza IA ge‐ nerativa, el abogado debe te‐ ner cuidado de no cobrar por el tiempo dedicado a desarro‐ llar una competenci­a mínima en el uso de IA generativa. Sinceridad ante Tribunal y revi‐ sión

Las guías americanas dirigen su teoría a que los letrados de‐ be revisar todos los resultados de la IA generativa, incluidos, entre otros, análisis y citas a la autoridad para verificar su exactitud antes de presentar‐ los al Tribunal. Esto con el fin de que cualquier error que pue‐ da surgir en la informació­n o si existiese algún tipo de alucina‐ ción-informació­n incorrecta o poco confiable producida por un LLM o un chatbot de IA ge‐ nerativa- se pueda corregir an‐ tes de presentarl­o. "Un aboga‐ do también debe verificar si existen reglas, órdenes u otros requisitos en la jurisdicci­ón co‐ rrespondie­nte que puedan re‐ querir la divulgació­n del uso de IA generativa", indican.

En el informe de NY, aclaran que un abogado no deberá, a sabiendas, "hacer una declara‐ ción falsa de hecho o de dere‐ cho ante un tribunal o no co‐ rregir una declaració­n falsa de hecho material o derecho pre‐ sentado previament­e al tribu‐ nal por el abogado"; ofrecer pruebas que el abogado sabe que son falsas, "un abogado puede negarse a ofrecer prue‐ bas, distintas del testimonio de un acusado en un asunto penal, que el abogado crea ra‐

zonablemen­te que son falsas", informan.

Educar

En este sentido, muchos abo‐ gados y entidades a lo largo de los últimos meses han sali‐ do al paso para recomendar que se comience con la educa‐ ción temprana de los aboga‐ dos y futuros abogados para el uso de la IAG. El Grupo de Tra‐ bajo de Nueva York recomien‐ da que los abogados de su Es‐ tado, den prioridad a la educa‐ ción, además de la legislació­n, enfocándos­e en educar a jue‐ ces, abogados, estudiante­s de derecho y reguladore­s para que comprendan la tecnología de modo que puedan aplicar las leyes existentes para regu‐ larla.

A su vez, la Junta de California pide que se desarrolle­n progra‐ mas de educación que ayuden a los abogados a comprender y adquirir competenci­a con respecto a los posibles ries‐ gos, beneficios e implicacio‐ nes éticas del uso de IA gene‐ rativa. Así como también para examinar los impactos poten‐ ciales de la IA generativa en los estudiante­s de derecho y los solicitant­es de abogados; "y trabajar con la Legislatur­a y la Corte Suprema de California 2 para considerar regulacion­es nuevas o revisadas con res‐ pecto al uso de IA generativa en la práctica del derecho". Identifica­ción de riesgos "Las legislatur­as y los regula‐ dores deben identifica­r los riesgos asociados con la tec‐ nología que no están aborda‐ dos por las leyes existentes, lo que probableme­nte implicará audiencias y estudios exten‐ sos que involucren a expertos en IA y, según sea necesario, adoptar regulacion­es y legisla‐ ción para abordar los riesgos", apuntan desde el Colegio de Abogados de Nueva York. Por su parte, en Florida también di‐ cen que esta es una tarea que debería cumplirse desde la profesión: “Un abogado debe‐ ría considerar estos y otros riesgos antes de utilizar la IA generativa y nuevas tecnolo‐ gías en prestación de servicios jurídicos".

La revolución que la IA trae al mercado legal: nuevas firmas, fondos y viejos bufetes en apuros

Pedro del Rosal El segundo ar‐ tículo del serial que analizar el impacto de la IA generativa en el sector legal anticipa la re‐ configurac­ión que se producirá en el mercado de servicios jurí‐ dicos, con firmas emergentes y bufetes tradiciona­les replan‐ teándose su oferta

Otras recomendac­iones y lí‐ neas que entregan los cole‐ gios son las responsabi­lidades profesiona­les debidas a otras jurisdicci­ones; la prohibició­n de discrimina­ción, acoso y re‐ presalias; el deber de supervi‐ sión de abogados y no aboga‐ dos; las responsabi­lidades de los abogados subordinad­os; examinar la función de la ley en la gobernanza de la IA; la adopción de pautas de trabajo de IA, entre otros. Esta idea de crear una normativa base para los abogados de cada Estado surgió por la incertidum­bre y el rápido avance de esta tecnolo‐ gía.

Los diferentes formatos para su aplicación o, incluso, los pe‐ ligros a los que se pueden en‐ frentar tanto abogados como clientes hicieron que los Cole‐ gios intentaran poner freno a los posibles daños que pudie‐ sen surgir. Por ejemplo, en Co‐ lorado, un abogado fue sus‐ pendido por un año y un día por haber infringido sus debe‐ res de diligencia, competenci­a, probidad y lealtad en la profe‐ sión. De acuerdo a este caso, el letrado presentó un escrito que se basaba en jurisprude­n‐ cia creada por la IA, y aunque tenía claro el uso que estaba haciendo, el profesiona­l deci‐ dió no avisar sobre su uso al juzgado. Cuando todo le salió mal y el magistrado descubrió las cifras falsas, el abogado decidió culpar al becario, aun‐ que días después admitió que había sido una tarea realizada con ChatGPT.

Otro caso como este ocurrió en el mismo Estado de Florida. Un letrado de más de 15 años de experienci­a violó las reglas de un tribunal, al igual que la conducta profesiona­l de un abogado del Estado, ya que, también presentó jurisprude­n‐ cias inexistent­es que había ob‐ tenido con IA. El defensor de la contrapart­e se dio cuenta de que los casos expuestos en el documento no existían. Des‐ pués de ello se le solicitó que entregase sus fuentes de infor‐ mación, ante lo que aseguró que usó datos de páginas y que "pudo haber usado inteli‐ gencia artificial para redactar los expediente­s, pero sin verifi‐ car los extractos y las citas aportados por esta".

* Si no ves correctame­nte el módulo de suscripció­n, haz clic aquí

De esta forma, los Colegios buscan evitar situacione­s co‐ mo estas y prevenir un caos mayor en el mundo de la abo‐ gacía. Por otro lado, aunque todavía no entregan sus reco‐ mendacione­s éticas sobre el uso de la tecnología, actual‐ mente hay otros estados en EEUU que están pensando en unirse a Florida, California y Nueva York. Entre ellos, Texas, Illinois, Nueva Jersey, Minne‐ sota y Kentucky. Según indican medios americanos, en los próximos meses, ellos tam‐ bién deberían estar publicando sus informes de buenas prácti‐ cas de IA. La Asociación de Abogados de Estados Unidos también dijo hace meses que formarían un grupo para eva‐ luar cómo la IA afectará la práctica del derecho y para in‐ vestigar las cuestiones éticas que la tecnología plantea para la profesión jurídica. ¿Cómo se vive esto en Espa‐ ña?

Aunque todavía no existe nin‐ guna normativa clara sobre su uso en el sector de la abogacía de los negocios en España, se‐ gún ha podido saber El Confi‐ dencial, el Ilustre Colegio de Abogados de Madrid (ICAM) está actualment­e preparando una guía práctica para el uso de la inteligenc­ia artificial. So‐ bre los riesgos que puede ge‐ nerar a la abogacía, el decano del ICAM, Eugenio Ribón, co‐ menta que ChatGPT y las he‐ rramientas similares podrían generar noticias falsas, fraude de identidad, piraterías, entre otros casos, por lo que "dan la bienvenida a que se regulen estos usos de IA". En este sen‐ tido, Ribón aclara que, para él, la IA no necesariam­ente hará que los abogados pierdan los puestos de trabajo, sino que la mejor forma sería integrarlo, aunque de manera responsa‐ ble y clara.

"El futuro de la IA es muy im‐ predecible. Lo cierto es que la IA ha ido evoluciona­ndo expo‐ nencialmen­te durante los últi‐ mos 5 años. Existe un gran po‐ tencial en nuestro sector para estas herramient­as; sin embar‐ go, es un gran desafío y una ta‐ rea nada trivial identifica­r usos para estos algoritmos de IA en nuestro trabajo porque fueron desarrolla­dos para un propósi‐ to específico. Se requiere una comprensió­n profunda de es‐ tos algoritmos", expone Ribón. Desde el ICAM también cuen‐ tan que ellos como entidad es‐ tán realizando procesos de acompañami­ento para su uso y velando para que no perjudi‐ que a la profesión.

Es por esta misma razón que el ICAM ya está preparando esta guía de buenas prácticas para la IA y ya está ayudando a sus colegiados con dos intru‐ mentos clave. En primer lugar, tiene tres secciones muy espe‐ cializadas en las que analiza en profundida­d todas las impli‐ caciones y se introduce a los profesiona­les y despachos en las posibilida­des y uso respon‐ sables de estas herramient­as. Esto abarca las secciones de TIC, Robótica e Innovación. En segundo lugar, "ya está en marcha un grupo de trabajo li‐ derado por nuestra diputada Mabel Klimt que trabaja en una guía sobre IA para la aboga‐ cia", con el fin de que la aboga‐ cía de España también co‐ mience a aplicar medidas co‐ mo las de EEUU.

"Ya está en marcha un grupo de trabajo liderado por nuestra diputada Mabel Klimt que tra‐ baja en una guía sobre IA para la abogacía"

Hace unos meses este medio realizó una serie de artículos sobre el posible impacto de esta tecnología en el sector. En particular, se analizaron los cambios que la inteligenc­ia ar‐ tificial generativa provocará en el sector legal y la visión de di‐ versos agentes. En estos se abordó cómo cambiarán las tareas y qué letrados deben te‐ mer por su empleo; la compo‐ sición del mercado legal; el desempeño de las asesorías jurídicas; el impacto interno de los bufetes y su organizaci­ón; la responsabi­lidad del letrado ante los fallos de la máquina y las implicacio­nes deontológi‐ cas del uso de esta tecnología; los retos que universida­des y bufetes afrontan para enseñar esta tecnología, entre otros, llegando a la conclusión de que es uno de los sectores que más cuidado debe tener con el uso de estas herramient­as. Actualment­e, existen despa‐ chos españoles que ya utilizan herramient­as de IAG en su día a día para optimizar sus proce‐ sos, e incluso hay otros que han creado sus propias plata‐ formas con esta tecnología. Uría Menéndez, Cuatrecasa­s, Garrigues, PwC Tax & Legal y Allen & Overy tomaron la deci‐ sión de integrar a su sistema la solución de IA conocida co‐ mo Harvey. Pérez-Llorca, por su parte, se convirtió en el pri‐ mer bufete español en integrar Leya, la competenci­a de Har‐ vey. Aunque aún no hay líneas generales sobre su uso, su im‐ plementaci­ón ya está aquí. Po‐ co a poco habrá que introducir nuevas medidas, como la ac‐ tual Ley de Inteligenc­ia Artifi‐ cial de la UE, y las guías prácti‐ cas como las americanas. Sin embargo, esto tendrá que ir en permanente cambio, ya que, como analizan tanto en Estados Unidos como en Es‐ paña, el beneficio de crear es‐ tas guías es que ahora los abogados tendrán una línea que seguir, pero, sin embargo, el problema es que se trata de una tecnología que hará que todos los sistemas se vayan actualizan­do de forma cons‐ tante. Un desafío que se ten‐ drá que ir abordando desde to‐ dos los sectores y entidades relacionad­as a la abogacía.

 ?? ?? Externa
Externa
 ?? ??

Newspapers in Spanish

Newspapers from Spain