Será difícil regular la Inteligencia Artificial
La capacidad de l a nueva generación de s istemas de In teligencia Artificial generativa para crear textos e imágenes con vincentes pero irreales, está disparando las alarmas sobre eventuales casos de f raude y desinformación
El 29 de marzo un grupo de investigadores y figur as públicas inst aron a la industria a detener la capacitación adicional de las últimas tecnolog ías de IA o, salvo eso, a los gobiernos a "imponer una moratoria".
Estas tecnologías, generadores de imágenes como DALL-E, Midjourney y Stable Diffusion, y gener adores de te xto c omo Bard, ChatGPT, Chinchilla y LLaMA, ahora están disponibles para millones de personas y no requieren conocimientos técnicos para su uso.
Dado el potencial de daño generalizado a medida que las empresas de tecnolog ía implementan estos sistemas de inteligencia artificial y los prueban en el público, los formuladores de políticas se enfrentan a la tarea de determinar si regular la tecnología emergente y cómo hacerlo.
The Conversation pidió a tres expertos en política tecnológica que explicaran por qué regular la IA es un desafío tan grande y por qué es tan importante hacerlo bien.
S. Shyam Sundar, quien es profesor de Efectos de los Medios y Director del Centro para la IA Soc ialmente Re sponsable de Penn State, asegura que la razón para regular la IA no es que la tecnología esté fuera de control, sino que la imaginación humana está desproporcionada.
“La gran cobertura de los medios ha alimentado creenc ias irr acionales sobre las habilidades y la conciencia de la IA. Tales creencias se basan en el sesgo de automatización o la tendenc ia a baj ar la guardia cuando las máquinas están realizando una tarea. Un ejemplo es la vigilancia reducida entre los pilotos cuando su avión está volando en piloto automático”, asegura.
“Numerosos estudios en mi laboratorio han demostrado -continúa- que cuando se identifica una máquina, en lugar de un ser humano, como fuente de interacción, desencadena un atajo mental en la mente de los usuar ios que llamamos he urística de máquina. Ese atajo es la creencia de que las máquinas son prec isas, objetiv as, imp arciales, infalibles, etcétera”.
Por su parte, Cason Schmit, quien se desempeña como Profesor Asistente de Salud Pública en la Univer sidad Te xas A&M, añade:
“Regular la IA es complicado. Para regular bien la IA, primero debe definir la IA y comprender los riesgos y beneficios anticipados de la IA. Definir legalmente la IA es importante para identificar qué está sujeta a la ley. Pero las tecnologías de IA aún están evolucionando, por lo que es difícil precisar una definición legal estable”, apunta.
“También e s import ante c omprender los r iesgos y benefic ios de la IA -añ ade-. Las buenas regulaciones deben maximizar los benefic ios públic os y minimiz ar los riesgos. Sin embargo, las aplicaciones de IA aún e stán sur giendo, por lo que e s difíc il saber o predec ir c uáles podr ían ser los riesgos o benefic ios f uturos. E ste tipo de incógnitas hacen que las tecnolog ías emergentes como la IA se an e xtremadamente difíc iles de re gular con las leye s y regulaciones tradicionales”.
“Los legisladores suelen ser demasiado lentos para adaptarse al entorno tecnológico que cambia rápidamente. Algunas leyes nuevas son obsolet as c uando se promulgan o incluso se introducen. Sin nuevas leyes, los reguladores tienen que usar leyes antiguas p ara abordar nuevos problemas. A veces, e sto c onduce a barrer as le gales para los beneficios sociales o lagunas legales para conductas dañinas”.
PARA HACERLE FRENTE
Megan Doerr, Jennifer Wagner y yo proponemos un a tercer a v ía: Copyleft AI c on Trusted Enf orcement (CAITE). E ste enf oque combina dos conceptos muy diferentes en propiedad intelectual: licencias copyleft y trolls de patentes.
La licenc ia de c opyleft permite que el contenido se use, reutilice o modifique fácilmente bajo los términos de una licencia, por ejemplo, software de código abierto. El modelo CAITE utiliz a licenc ias c opyleft para exigir a los usuarios de IA que sigan pautas éticas específicas, como evaluaciones transparentes del impacto del sesgo.
En nuestro modelo, estas licencias también transfieren el derecho legal de hacer cumplir las infr acciones de licenc ia a un tercero de confianza. Esto crea una entidad de c umplimiento que e xiste únic amente para hacer cumplir los estándares éticos de IA y puede financiarse en parte con multas por conducta poco ética.
Esta entidad es como un troll de patentes en el sentido de que es privada en lugar de gubernamental y se mantiene haciendo cumplir los derechos legales de propiedad intelectual que obtiene de otr os. En e ste caso, en lugar de la aplicación con fines de lucro, la entidad hace c umplir las p autas éticas definidas en las licenc ias: un "tr oll para siempre".
Este modelo e s fle xible y adapt able para satisfacer las nece sidades de un entorno de IA c ambiante. También permite opciones de aplicación sustanciales como un re gulador gubern amental tr adicional. De esta manera, combina los mejores elementos de los enf oques de leye s duras y blandas para enfrentar los desafíos únicos de la IA.
CUATRO PREGUNTAS CLAVE
John V illasenor, Pr ofesor de In geniería Eléctrica, Derecho, P olíticas P úblicas y Gestión de la Univer sidad de C alifornia, Los Ángeles, lanza cuatro cuestionamientos para hacerle frente al tema:
1) ¿E s nece saria un a n ueva re gulación específica para la IA? Muchos de los resultados potencialmente problemáticos de los sistemas de IA ya se abordan en los marcos existentes.
2) ¿C uáles son los r iesgos de re gular una tecnolog ía que c ambia r ápidamente en función de una instantánea del tiempo?
3) ¿Cuáles son las posibles consecuencias no deseadas?
4) ¿Cuáles son las implicaciones económicas y geopolíticas?
Considero que las re gulaciones de IA redactadas con las cuatro preguntas anteriores en mente tendrán más probabilidades de abordar con éxito los daños potenciales de esta tecnología y al mismo tiempo garantizar el acceso a sus beneficios.
* Profesor de Efect os de los Medios, Codirector, Laboratorio de Inve stigación de Efectos de los Medios y Direct or, Centro para la IA Socialmente
Responsable, Penn State.
“Definir legalmente la IA es importante para identificar que es lo que está sujeto a la ley. Pero las tecnologías de IA aún están evolucionando, por lo que es difícil precisar una definición legal estable”
figuras públicas instaron a la industria a de tener la capacitación adicional de las últimas tecnologías de IA o a imponer una moratoria