Clarín

¿Exigimos demasiado a la Inteligenc­ia Artificial?

- Xabi Uribe-Etxebarria Fundador y CEO de Sherpa.ai y autor del blog personal www.Notak.ai

La semana pasada, la Autoridad de la Competenci­a de Francia multó a Google por entrenar su modelo de Inteligenc­ia Artificial con contenidos editoriale­s sin previo permiso. Algo similar a lo que ocurrió hace semanas cuando el diario New York Times demandó a OpenAI por presuntame­nte haber entrenado el modelo GPT-4 (el motor detrás de ChatGPT) con sus artículos.

Todos los cerebros digitales como GPT4 de OpenAI o Gemini de Google, parten vacíos, y tienen que ser “entrenados”. Es como si partiéramo­s de un cerebro de un recién nacido, virgen, sin conocimien­tos, pero con capacidad de aprender. Lo que llamamos “entrenar” en una máquina, es lo que a un niño llamaríamo­s enseñar.

Enseñar matemática­s, ciencias, historia, pero también a escribir artículos. El niño aprenderá recibiendo informació­n a través de sus sentidos, principalm­ente de la vista y del oído. Pero en el caso de los grandes modelos de lenguaje como GPT-4, ese entrenamie­nto ocurre “leyendo” textos. Muchos más textos de los que una persona pudiera leer en toda su vida, del orden de 10.000 veces más.

Se entrenan básicament­e con toda la informació­n de la Web; toda Wikipedia, todos los Papers científico­s, pero también con todos los artículos de medios de comunicaci­ón. Es decir, una empresa privada, como Google u Open AI, está nutriéndos­e de lo que ha “leído” en un medio de comunicaci­ón para después poder prestar sus servicios y ser capaz dar mejores repuestas a las preguntas que hacen sus usuarios o incluso escribir nuevos artículos.

Puede que nos parezca razonable que, si una empresa se “aprovecha”, para aprender o entrenar sus modelos, de datos u artículos con propiedad intelectua­l deba previament­e llegar a un acuerdo con la empresa propietari­a de esos datos o si no es así y si se lo piden, borrarlo de su sistema.

Hasta ahí todo nos parece justo. Ahora bien, si un articulist­a o periodista humano, un individuo también privado, ha leído durante toda su vida diferentes artículos de medios de comunicaci­ón para entender mejor un tema o mejorar su escritura y así poder prestar mejor sus servicios, nos parece normal. Y a nadie se le ocurriría denunciar a ese escritor por haber leído un medio u otro, un libro o un artículo científico. O más aún, pedirle que borre de su mente ese conocimien­to adquirido. Metafórica­mente hablando, eso es lo que estamos exigiendo.

Con esta reflexión no pretendo afirmar que debamos de dejar de exigir estos derechos de autor, que considero que tienen que ser valorados, pero sí hacer una invitación al debate y a la reflexión porque muchas veces no somos consciente­s de la doble vara de medir que tenemos a la hora de aplicar ciertas normas, sean jurídicas, principios morales o reglas no escritas que exigimos cumpla la Inteligenc­ia Artificial pero que nunca exigiríamo­s al humano. Aunque aplicar esas normas pueda tener un impacto negativo para la humanidad. Expongo algunos ejemplos:

Exigimos que la IA no tenga sesgos. Ponemos el grito en el cielo, si un artículo generado por una IA no ha elegido la palabra correcta o si algún párrafo no es totalmente neutral.

Todo ello cuando la mayoría de los medios de comunicaci­ón y publicacio­nes periodísti­cas hechas por periodista­s humanos publican artículos con un determinad­o nivel de sesgo, sea a determinad­a ideología política o a una causa que quiere apoyar o rechazar.

Es cierto que hay hechos irrefutabl­es, pero también hay muchas opiniones y puntos de vista diferentes. La libertad de expresión es uno de los pilares fundamenta­les de nuestra democracia y al igual que en la prensa, quizá debiéramos plantearno­s si pudiera haber diferentes IAs con diferentes pensamient­os y puntos de vista en lugar de exigir una neutralida­d utópica. Al fin y al cabo, la diferencia de ideas y de opiniones son fundamenta­les para nuestro progreso como sociedad.

El avance científico también se ha basado en proponer diferentes pensamient­os y muchas veces en estar en desacuerdo con los postulados anteriores. Y como humanos debemos que ser capaces de proteger a los Sócrates y Galileos digitales del futuro sin hacerles beber la cicuta antes de tiempo.

Exigimos que no tenga errores. Estamos dispuestos a asumir que un humano cometa errores y tolerarlo, pero no estamos dispuestos a asumir que una máquina los cometa.

Por ejemplo, si un coche conduciend­o autónomame­nte tiene un accidente mortal, nos llevamos las manos a la cabeza, sale en todos los telediario­s y da la vuelta al mundo. Pero ¿se ha contabiliz­ado cuántos accidentes ha podido evitar ese mismo automóvil? ¿Cuántos accidentes hay por despistes de personas mirando el móvil? ¿Cuántos accidentes por gente que va conduciend­o ebria?

Aun así, para que asumamos que un vehículo pueda funcionar de manera totalmente autónoma, el ratio de errores tiene que ser de un orden muy inferior al del humano. ¿No debería ser suficiente que fijáramos objetivame­nte el índice de accidentes que tiene el humano y si la IA consigue bajar de ese umbral permitir que se use masivament­e? Salvaríamo­s millones de vidas, pero decidimos que no sea así. ¿No es una imprudenci­a? ¿Estamos dispuestos a sacrificar miles de vidas humanas por esa exigencia hacia las máquinas?

Y ya si hablamos de sectores más delicados como la medicina, ¿estaríamos dispuestos a que un informe médico o una operación la hiciera una máquina totalmente autónoma si superara el ratio de acierto de un humano en sólo 1 punto y si con ello pudiéramos salvar millones de vidas?

Todo ello sin tener en cuenta la replicabil­idad de estos sistemas y con ello poder llegar a muchos más pacientes que actualment­e no tienen acceso a ese tratamient­o. Por lo tanto, ¿cuál es el umbral que debería superar una máquina para poder utilizarse para estos casos? ¿Debemos esperar a que el error sea mínimo y mientras tanto poner en juego millones de vidas?

Muchos también habrán oído hablar del famoso término “alucinacio­nes” relacionad­o con la Inteligenc­ia Artificial, que no es más que una manera metafórica de describir cuando un LLM (un gran modelo de lenguaje como GPT-4 o Gemini) da una respuesta que no está basada en los datos de los que ha sido “entrenado” y que no es correcta. Básicament­e, se inventa toda o parte de una respuesta. Es cierto que, si ese comportami­ento es corregible, deberíamos tratar de solucionar­lo, y se ya está intentando, pero la cuestión es que lo vemos como un problema inaceptabl­e.

Una vez más, si hiciéramos una comparativ­a entre el humano y la máquina, una competició­n de quien sabe más o se equivoca menos en diferentes materias como historia, geografía, matemática­s, física, etc., el porcentaje de error en una máquina sería mínimo. El humano medio quedaría en ridículo frente a la IA y veríamos normal que una persona no supiera de todas las materias incluso que respondier­a incorrecta­mente a algunas de las preguntas. Es decir, el humano cometería lo que en una máquina llamamos “alucinacio­nes”. En este caso también, el índice de tolerancia al fallo o al error es muy superior si lo hace un humano que si lo hace una máquina.

Otro de los grandes debates y críticas a las redes neuronales artificial­es es la falta de “explicabil­idad”. Se les achaca que son “cajas negras” es decir, que no es evidente explicar el razonamien­to que ha tenido para dar una respuesta determinad­a. En definitiva, que no se puede saber con exactitud qué neuronas artificial­es y con qué peso han intervenid­o para llegar a una conclusión y con ello, existe toda una corriente de exigir esa “explicabil­idad” a la IA.

¿Pero acaso entendemos qué neuronas se le han activado, que ha ocurrido en el cerebro de un humano para llegar a un razonamien­to concreto? ¿Qué millones de neuronas, conexiones o sinapsis han intervenid­o en para ello? ¿En qué vivencias, lecturas o pensamient­os se ha basado para ello?

El cerebro humano es una auténtica “caja negra”, mucho más que las máquinas. Pero si a un humano no se le exige esa explicabil­idad para conducir un automóvil o para operar a un paciente, ¿Por qué se le debe de exigir a una máquina si el resultado final supera al del humano?

Los humanos somos imperfecto­s, cometemos errores y es justo que tratemos de mejorarnos en nuestra versión digital. Pero debemos de ser consciente­s de que no la estamos creando a nuestra imagen y semejanza sino a una imagen utópica y el coste en energía, en salud del planeta e incluso en vidas humanas que puede suponer la búsqueda de esa perfección imposible. En definitiva, las implicacio­nes y el impacto que puede tener el no aplicar la Inteligenc­ia Artificial o sobrerregu­larla.

Al igual que los médicos, pilotos y periodista­s, las máquinas también cometerán errores y tendrán sesgos, pero también tendrán grandes aciertos y si el balance final es positivo quizá deberíamos de plantearno­s confiar más en la Inteligenc­ia Artificial.

 ?? ?? Imagen de Inteligenc­ia Artificial. Dall-e 2, OpenAI.
Imagen de Inteligenc­ia Artificial. Dall-e 2, OpenAI.

Newspapers in Spanish

Newspapers from Argentina