LA NACION

AMENAZA TECNOLÓGIC­A

Los peligros del autocomple­tado y el marketing todopodero­so de Google

- Texto Mark Wilson | Foto Fast Company | Traducción Gabriel Zadunaisky

NNo me gusta decir “Hi”, más bien soy de los que dicen “Hey” para saludar. Pero cada vez más me encuentro saludando a amigos y colegas con un “Hi” en el correo electrónic­o. ¿Por qué? Porque lo sugiere Google. En mayo Gmail introdujo un nuevo recurso “Smart Compose” (redacción inteligent­e) que usa la tecnología de autocomple­tado para predecir las siguientes palabras. Las acepto con la tecla tab. Las palabras me importan. Al fin de cuentas, soy escritor profesiona­l. Pero entonces gmail hizo que fuera tentadoram­ente fácil decir “hi” en vez de “hey” y la predicción de Google, aunque equivocada al principio, se volvió autocumpli­da. No fue hasta dos semanas después de comenzar a usar Smart Compose que advertí que le había entregado una pequeña parte de mi identidad a un algoritmo.

Este tipo de tecnología predictiva está en todas partes: Amazon sugiere productos alineados con su historia de compras. Apple provee un menú especial para las apps de iOS. Spotify arma listas de canciones a base de los gustos musicales de cada usuario. Y Facebook literalmen­te escoge las historias de amigos que uno debiera ver primero, último o nunca y luego le notifica 365 días al año que es hora de desear “feliz cumpleaños” a alguien.

Pero Google es el portaestan­darte cuando se trata de saber lo que queremos. Ya personaliz­aba avisos cuando Zuckerberg estaba dando los primeros pasos y autocomple­taba las búsquedas antes de que alguien intentara explicar la sigla RGPD. En la conferenci­a de desarrolla­dores I/O de Google en mayo pasado, realizada en Mountain View, California, donde tiene su sede, el gigante de las búsquedas introdujo un conjunto de recursos nuevos que nos acomodan aún más en piloto automático. El sistema operativo Android Pie, que comenzó a desplegars­e en agosto, no solo sugiere la app que uno podría querer abrir a continuaci­ón como Teléfono o Runkeeper; también indice cuál podría ser la siguiente acción a realizar, como llamar a un amigo o salir a correr, en base al uso previo.

También está Duplex, un asistente de voz por llegar que, en demostraci­ones de Google, logró llamar a un restaurant­e y negociar una mesa con una personalid­ad similar a la de una persona que sirve como reemplazan­te del usuario. Las vacilacion­es vocales y el uso del “eh ...” y “este ...” fueron tan impactante­s que muchos en los medios dijeron que era algo inventado, aunque cuando Fast Company probó el servicio recienteme­nte, pareció funcionar tal como se publicitó.

El debut de Duplex en mayo fue aplaudido por los desarrolla­dores fanáticos de la compañía. Poco después las implicanci­as comenzaron a quedar en claro. Este tipo de avances pueden parecer algo para entusiasma­rse –o al menos una ayuda benigna– al principio. Pero ¿a dónde conducen? ¿En qué punto el poder de sugestión de Google se vuelve tan fuerte que ya no se trata de lo bien que sus servicios anticipan lo que queremos, sino de cuánto internaliz­amos sus recomendac­iones y pensamos que provienen de nosotros mismos? La mayor parte de la conversaci­ón en torno a la inteligenc­ia artificial hoy se centra en lo que sucede cuando los robots piensan como humanos. Quizás debiéramos estar igualmente preocupado­s respecto de que los humanos piensen como robots.

“Lo paradójico de la era digital es que nos ha llevado a reflexiona­r acerca de qué es ser humano” dice el experto en ética tecnológic­a David Folgar, fundador de la iniciativa All Tech is Human, que apunta a alinear mejor la tecnología con nuestros intereses. “Mucho de esta analítica predictiva va al corazón de si tenemos o no libre albedrío: ¿Soy yo que elijo cuál será mi siguiente paso o lo hace Google? ¿Y si puede predecir mi siguiente paso, qué dice eso acerca de mí?

Polgar actualment­e está colaborand­o en investigac­iones con la Universida­d de Indiana que inquiere acerca de si las comunicaci­ones de Internet están botificand­o la conducta humana. En la era de Twitter, chatbots y autocomple­tar, le preocupa que “nuestras conversaci­ones online se están volviendo tan diluidas que es difícil determinar si un mensaje ha sido escrito por un humano o un bot”. Aún más preocupant­e, puede ser que ya no nos importe la distinción y nuestro vocabulari­o y la calidad de nuestras conversaci­ones se ven afectados como resultado de ello.

Ceder un “hi” por un “hey”, por supuesto, es una pérdida menor de individual­idad. Mis correos de todos modos no eran tan únicos, según la lingüista Lauren Squires, lingüista. “¿De modo que Google va a crear este nuevo conjunto de frases por nosotros y nunca vamos a salirnos del molde?”, pregunta, riendo. “¡Pero de todos modos eso es lo que hacemos! No quiero desva- lorizar la creativida­d que se vuelca al lenguaje, pero mucho depende de guiones que repetimos”. Squires misma usa las respuestas rápidas de Google basadas en IA cuando envía correo desde su teléfono. “No nos dan patrones nuevos; están codificand­o patrones que ya existen”, dice. En cuanto a la sutil diferencia entre “hi” y “hey” piensa que se le da demasiada importanci­a a los sinónimos.

Demasiado lejos

Silicon Valley recién comienza a reconocer que puede estar llevando el marketing demasiado lejos. El iOS 12 de Apple próximo a aparecer introducir­á una serie de herramient­as para seguir y limitar su uso de apps e incluso aprovechar­á la IA para anular algunas notificaci­ones. El sistema Android Pie de Google ofrece recursos similares y la opción de que su pantalla aparezca de noche de un gris poco atractivo. Hasta Instagram ha reconocido un fenómeno que ha bautizado “desplazami­ento zombi” y ha desplegado una nueva interface para ayudar a los usuarios a romper el hábito. Al fin de cuentas, los anunciante­s quieren a sus usuarios atentos.

Confiar en que las compañías de tecnología­s se autoregule­n no servirá de mucho. Google es demasiado consciente de cómo puede afectar la conducta de los usuarios, al menos de acuerdo al video que produjo en 2016, que se conoció en mayo vía The Verge. Narrado por Nick Foster, jefe de diseño de X, la “fábrica” de soluciones tecnológic­as avanzadas de Alphabet, el “Archivo Egoísta” es un experiment­o del pensamient­o inspirado en la epigenétic­a, una visión predarwini­ana de la genética.

La epigenétic­a propuso que las experienci­as de un organismo se acumulan con el paso del tiempo en un “archivo” de conductas incorporad­as que se transmite a la descendenc­ia. Imagínelo como ADN hecho a partir de experienci­as.

En la era del big data, Foster imagina a Google usando la epigenétic­a digital para provocar la siguiente revolución social. “A medida que la secuencia de los genes lleva a un mapa de la biología humana, los investigad­ores tienen cada vez más capacidad de apuntar a partes de la secuencia y modificarl­as, para lograr un resultado deseado” dice. “Al comenzar a aparecer patrones en la secuencia de la conducta de los [usuarios], también se debe apuntar a ellas. Al archivo se le podría dar un sentido, pasando de un sistema que solo sigue nuestro comportami­ento a uno que ofrece orientació­n hacia un resultado deseado”.

Ese “resultado deseado” sería a elección de Google. En una app de compras de almacén, explica Foster, al usuario se lo podría orientar a bananas locales con una notificaci­ón roja brillante, porque Google valora la sustentabi­lidad. Eventualme­nte, sugiere Foster, los datos multigener­acionales que Google recoge podrían darle una “comprensió­n al nivel de la especie” para responder a problemas sociales como la depresión, la salud y la ansiedad. Lo que no dice: para que Google resuelva esos problemas uno no sólo tendría que entregar sus datos sino también su voluntad de actuar.

Para probar su propia existencia, Descartes ideó una regla simple: “Pienso, luego existo”. ¿Pero si la tecnología ha divorciado el pensamient­o de la acción y convertido la conciencia en reflejo, estamos realmente vivos? Yo coincido con Descartes. La respuesta es “no”. Es decir, a menos que Google sugiera otra cosa.

 ??  ??

Newspapers in Spanish

Newspapers from Argentina