Indovina chi prenota la cena?
Il super assistente di Google fissa appuntamenti, risponde a più domande e mostra stati d’animo I test per avere maggiordomi artificiali più umani
Siete in salotto, MOUNTAIN VIEW sul divano. State chiacchierando con degli amici: volete andare a cena, ma non sapete se è il giorno di chiusura settimanale del ristorante che avete scelto. Ammesso che sia aperto, essendo in sei forse è meglio prenotare, convenite all’unisono. Chi si alza o allunga la mano per prendere lo smartphone e fare una telefonata? Nessuno. Immaginate di delegare il compito al dispositivo stesso. Si può fare? Non ancora, ma Google ci è vicina. Il campo è quello dei maggiordomi intelligenti, in cui giocano anche Siri di Apple,
Alexa di Amazon o Cortana di Microsoft. Tutti stanno lavorando a interazioni il più possibile simili a quelle umane. Google, ad esempio, sembra essere riuscita a ridurre la schiavitù dalla frase «Ok Google», per attivare il suo Assistente tra una domanda e l’altra, e promette risposte a quesiti multipli. Ad esempio: «Chi era al governo quando il Milan ha vinto l’ultimo scudetto e quale squadra è arrivata seconda?». Dovrebbe capire che sono tutte domande diverse e rispondere: «Il governo era il Berlusconi IV, nel 2011, e al secondo posto si è classificata l’inter».
Come punto d’arrivo, in questi casi, si cita sempre il film Lei del 2013, in cui la robotica Samantha è addirittura in grado di suscitare sentimenti. La (lunga) strada per arrivarci è lastricata di dialoghi strampalati, risate casuali e bot incapaci di capire il contesto. Con la tecnologia Duplex basata su una rete neurale (neuroni artificiali che riproducono l’attività di quelli dell’uomo), il colosso di Sergey Brin e Larry Page sta provando a mettere il suo maggiordomo — che entro fine anno coprirà 30 lingue e 80 Paesi — in condizione di parlare al telefono per raccogliere informazioni o compiere azioni che non sono disponibili su Internet. Alla conferenza degli sviluppatori di Mountain View è stato mostrato un dialogo telefonico con un parrucchiere. L’assistente chiedeva, rispondeva, capiva i quesiti intermedi e si intratteneva con espressioni di assenso e attesa: «Mm-hmm». Alla fine ha preso un appuntamento.
È presto per gridare al miracolo: è un test, non si sa quando sarà disponibile per tutti ed è limitato a tre contesti specifici: prenotazioni di ristoranti e parrucchieri e controllo degli orari di chiusura dei negozi. «Come strategia è sensata: anche Apple aveva dato accesso agli sviluppatori solo a determinate aree di Siri, per non rendere l’esperienza confusionaria», spiega al Corriere Carolina Milanesi, analista di Creative Strategies.
È il momento giusto, invece,
per iniziare a porsi domande «sull’impatto dell’intelligenza artificiale sulle nostre vite», come ha detto il numero uno di Google Sundar Pichai nel discorso di apertura della tre giorni. Ad esempio: se Duplex è in grado di passare il test di Turing, convincendo gli umani di essere una di loro, è giusto che possa chiacchierare indisturbata senza rivelare la sua identità? E poi: come ci proteggeremo dall’eventuale riproduzione delle voci da parte delle macchine per compiere truffe o illeciti? Anche perché Google ha già mostrato di essere in grado, grazie ai progressi di Wavenet di Deepmind, di ricreare la nostra parlata senza aver bisogno di ore di registrazione. L’assistente ci guadagna il tono suadente di John Legend. Noi staremo a vedere.