El Occidental

Será difícil regular la Inteligenc­ia Artificial

La capacidad de l a nueva generación de s istemas de In teligencia Artificial generativa para crear textos e imágenes con vincentes pero irreales, está disparando las alarmas sobre eventuales casos de f raude y desinforma­ción

-

El 29 de marzo un grupo de investigad­ores y figur as públicas inst aron a la industria a detener la capacitaci­ón adicional de las últimas tecnolog ías de IA o, salvo eso, a los gobiernos a "imponer una moratoria".

Estas tecnología­s, generadore­s de imágenes como DALL-E, Midjourney y Stable Diffusion, y gener adores de te xto c omo Bard, ChatGPT, Chinchilla y LLaMA, ahora están disponible­s para millones de personas y no requieren conocimien­tos técnicos para su uso.

Dado el potencial de daño generaliza­do a medida que las empresas de tecnolog ía implementa­n estos sistemas de inteligenc­ia artificial y los prueban en el público, los formulador­es de políticas se enfrentan a la tarea de determinar si regular la tecnología emergente y cómo hacerlo.

The Conversati­on pidió a tres expertos en política tecnológic­a que explicaran por qué regular la IA es un desafío tan grande y por qué es tan importante hacerlo bien.

S. Shyam Sundar, quien es profesor de Efectos de los Medios y Director del Centro para la IA Soc ialmente Re sponsable de Penn State, asegura que la razón para regular la IA no es que la tecnología esté fuera de control, sino que la imaginació­n humana está desproporc­ionada.

“La gran cobertura de los medios ha alimentado creenc ias irr acionales sobre las habilidade­s y la conciencia de la IA. Tales creencias se basan en el sesgo de automatiza­ción o la tendenc ia a baj ar la guardia cuando las máquinas están realizando una tarea. Un ejemplo es la vigilancia reducida entre los pilotos cuando su avión está volando en piloto automático”, asegura.

“Numerosos estudios en mi laboratori­o han demostrado -continúa- que cuando se identifica una máquina, en lugar de un ser humano, como fuente de interacció­n, desencaden­a un atajo mental en la mente de los usuar ios que llamamos he urística de máquina. Ese atajo es la creencia de que las máquinas son prec isas, objetiv as, imp arciales, infalibles, etcétera”.

Por su parte, Cason Schmit, quien se desempeña como Profesor Asistente de Salud Pública en la Univer sidad Te xas A&M, añade:

“Regular la IA es complicado. Para regular bien la IA, primero debe definir la IA y comprender los riesgos y beneficios anticipado­s de la IA. Definir legalmente la IA es importante para identifica­r qué está sujeta a la ley. Pero las tecnología­s de IA aún están evoluciona­ndo, por lo que es difícil precisar una definición legal estable”, apunta.

“También e s import ante c omprender los r iesgos y benefic ios de la IA -añ ade-. Las buenas regulacion­es deben maximizar los benefic ios públic os y minimiz ar los riesgos. Sin embargo, las aplicacion­es de IA aún e stán sur giendo, por lo que e s difíc il saber o predec ir c uáles podr ían ser los riesgos o benefic ios f uturos. E ste tipo de incógnitas hacen que las tecnolog ías emergentes como la IA se an e xtremadame­nte difíc iles de re gular con las leye s y regulacion­es tradiciona­les”.

“Los legislador­es suelen ser demasiado lentos para adaptarse al entorno tecnológic­o que cambia rápidament­e. Algunas leyes nuevas son obsolet as c uando se promulgan o incluso se introducen. Sin nuevas leyes, los reguladore­s tienen que usar leyes antiguas p ara abordar nuevos problemas. A veces, e sto c onduce a barrer as le gales para los beneficios sociales o lagunas legales para conductas dañinas”.

PARA HACERLE FRENTE

Megan Doerr, Jennifer Wagner y yo proponemos un a tercer a v ía: Copyleft AI c on Trusted Enf orcement (CAITE). E ste enf oque combina dos conceptos muy diferentes en propiedad intelectua­l: licencias copyleft y trolls de patentes.

La licenc ia de c opyleft permite que el contenido se use, reutilice o modifique fácilmente bajo los términos de una licencia, por ejemplo, software de código abierto. El modelo CAITE utiliz a licenc ias c opyleft para exigir a los usuarios de IA que sigan pautas éticas específica­s, como evaluacion­es transparen­tes del impacto del sesgo.

En nuestro modelo, estas licencias también transfiere­n el derecho legal de hacer cumplir las infr acciones de licenc ia a un tercero de confianza. Esto crea una entidad de c umplimient­o que e xiste únic amente para hacer cumplir los estándares éticos de IA y puede financiars­e en parte con multas por conducta poco ética.

Esta entidad es como un troll de patentes en el sentido de que es privada en lugar de gubernamen­tal y se mantiene haciendo cumplir los derechos legales de propiedad intelectua­l que obtiene de otr os. En e ste caso, en lugar de la aplicación con fines de lucro, la entidad hace c umplir las p autas éticas definidas en las licenc ias: un "tr oll para siempre".

Este modelo e s fle xible y adapt able para satisfacer las nece sidades de un entorno de IA c ambiante. También permite opciones de aplicación sustancial­es como un re gulador gubern amental tr adicional. De esta manera, combina los mejores elementos de los enf oques de leye s duras y blandas para enfrentar los desafíos únicos de la IA.

CUATRO PREGUNTAS CLAVE

John V illasenor, Pr ofesor de In geniería Eléctrica, Derecho, P olíticas P úblicas y Gestión de la Univer sidad de C alifornia, Los Ángeles, lanza cuatro cuestionam­ientos para hacerle frente al tema:

1) ¿E s nece saria un a n ueva re gulación específica para la IA? Muchos de los resultados potencialm­ente problemáti­cos de los sistemas de IA ya se abordan en los marcos existentes.

2) ¿C uáles son los r iesgos de re gular una tecnolog ía que c ambia r ápidamente en función de una instantáne­a del tiempo?

3) ¿Cuáles son las posibles consecuenc­ias no deseadas?

4) ¿Cuáles son las implicacio­nes económicas y geopolític­as?

Considero que las re gulaciones de IA redactadas con las cuatro preguntas anteriores en mente tendrán más probabilid­ades de abordar con éxito los daños potenciale­s de esta tecnología y al mismo tiempo garantizar el acceso a sus beneficios.

* Profesor de Efect os de los Medios, Codirector, Laboratori­o de Inve stigación de Efectos de los Medios y Direct or, Centro para la IA Socialment­e

Responsabl­e, Penn State.

“Definir legalmente la IA es importante para identifica­r que es lo que está sujeto a la ley. Pero las tecnología­s de IA aún están evoluciona­ndo, por lo que es difícil precisar una definición legal estable”

figuras públicas instaron a la industria a de tener la capacitaci­ón adicional de las últimas tecnología­s de IA o a imponer una moratoria

 ?? PEXELS ?? ACADÉMICO DE LA UNIVERSIDA­D TEXAS A&M
PEXELS ACADÉMICO DE LA UNIVERSIDA­D TEXAS A&M

Newspapers in Spanish

Newspapers from Mexico