« Passaparola in competizione con le macchine »
Docente dell’Università Bocconi
« L’apparente facilità e velocità con cui vengono generati i contenuti rende l’interazione con l’intelligenza artificiale generativa simile alla fruizione di uno show di magia. Con il lancio di ChatGPT di
OpenAI questi sistemi sono stati resi disponibili per la prima volta a tutti. Da un giorno all’altro tutti noi ci siamo potuti cimentare ad essere prompt engineer e content creator, sperimentando cosa voglia dire interrogare un large language model e vedere con i nostri occhi che cosa queste tecnologie siano in grado di produrre » . Questo mondo nuovo disseminato da tool di ogni sorta è al centro delle analisi di Chiara Longoni, professoressa associata di marketing in Università Bocconi e con un passato formativo alla Stern School of Business della New York University come psicologa sociale. Negli anni trascorsi poi alla Boston University, insieme ad altri colleghi, Longoni ha portato avanti una ricerca su 3mila persone, coniando il termine world of machine, che si contrappone a quello più noto world of mouth, ossia il passaparola tra utenti. Così in alcuni ambiti i consumatori connessi potrebbero preferire i consigli generati dall’Ia rispetto a quelli di altre persone. La ricerca è sorprendente. È stata pubblicata sul Journal of Marketing e ripresa anche dall’Harvard Business Review. « Abbiamo cercato di capire in quali situazioni i consumatori si fidano di raccomandazioni generate dall’Ia e in quali se ne tengono alla larga. È innegabile che sempre più aziende ricorrano oggi all’intelligenza artificiale per dare suggerimenti di potenziale interesse alla loro clientela. I sistemi di raccomandazione basati sull’Ai sono più persuasivi degli esseri umani se i consumatori stanno facendo scelte utilitaristiche o basate su considerazioni pratiche. Al contrario, diffidano da questi consigli in caso di scelte di piacere. Ecco perché è importante tenere in considerazione il settore, il prodotto o il servizio offerto. La sfida per i manager è quella di sfruttare al meglio queste tecnologie innovative. Però un approccio totalizzante può essere inefficace o persino controproducente » , precisa Longoni, che insieme ad un gruppo di ricercatori della University of Southern California e della George Washington University sta approfondendo proprio questo fenomeno. « Stiamo studiando come queste tecnologie siano percepite dalle persone, specialmente da quei profili con un basso livello di conoscenza » , dice Longoni.
Nella sfida tra umani e umanoidi chi avrà la meglio?
Diciamo che le persone vedono gli algoritmi come sistemi logici e razionali, competenti a carpire valore da un punto di vista utilitaristico o pratico, ma non sufficientemente flessibili o calibrati per carpire il valore edonico, il piacere e le emozioni umane.
Come è cambiata negli anni la percezione dell’intelligenza artificiale?
A cambiare non è stata solo come l’Ia viene percepita, ma anche cosa viene considerato come tale. Oggi non c’è consenso sulla definizione e quindi si ricorre spesso a definizioni che vedono come intelligenza artificiale un controfattuale all’intelligenza naturale, cioè quella umana.
L’alfabetizzazione tecnologica è anagraficamente trasversale?
Queste tecnologie rischiano di incrementare il digital divide, marginalizzando ulteriormente strati della popolazione già tipicamente svantaggiati. È quello che gli economisti chiamano Matthew effect. In uno studio sul campo è stata comparata la performance di manager che hanno utilizzato ChatGPT. Chi ne ha beneficiato sono stati quei profili la cui competenza di base era già alta. Essenzialmente piove sul bagnato.
Come è cambiata la relazione tra consumatori e brand con l’AI generativa?
Bisogna prestare attenzione alle ripercussioni che queste tecnologie hanno sulla salute mentale e sul senso di connessione. Con Replika i consumatori possono chattare fino a sviluppare relazioni che imitano quelle tra esseri umani, ma il rischio è di appiattire la nostra vita a una dimensione eminentemente digitale, potenzialmente portandoci a trascorrere preferenzialmente più tempo con l’Ia. Da artificial intelligence a artificial intimacy il passo può essere breve e pericoloso.
‘ IL MONITO Un approccio totalizzante all’utilizzo dell’intelligenza artificiale può essere inefficace o dannoso