Corriere della Sera - La Lettura
Educare all’imprevedibilità: abitiamo una nuova natura
Sociologo e filosofo, riflette sul tema della complessità e sull’Intelligenza artificiale. Qui anticipa i temi della conferenza a Intercultura
Il sociologo e filosofo Piero Dominici (sopra), professore associato all’Università di Perugia, da anni si occupa di complessità, teoria dei sistemi e organizzazioni complesse; è autore di saggi come Oltre i cigni neri. L’urgenza di aprirsi all’indeterminato (FrancoAngeli, 2023). Tra gli incarichi internazionali, è delegato ufficiale all’Unesco L’appuntamento Venerdì 5 aprile alle ore 9, Dominici interverrà su Oltre i cigni neri. Il valore dell’errore e dell’imprevedibilità nella civiltà dell’automazione , al convegno Abitare le diversità, organizzato dal 4 al 6 aprile da Fondazione Intercultura a Firenze, Centro congressi Grand Hotel Michelangelo
Il mondo è sempre più complesso, per la globalizzazione e per gli effetti della diffusione dell’IA, l’Intelligenza artificiale. Ma che cosa significa «complessità», e come la si affronta? Sul tema, la Fondazione Intercultura riunisce a Firenze, da giovedì 4 a sabato 6 aprile, molti esperti internazionali, nel convegno Abitare le diversità: culture e complessità nuove. Tra loro, il sociologo Piero Dominici, autore di saggi come Oltre i cigni neri. L’urgenza di aprirsi all’indeterminato (FrancoAngeli). I «cigni neri», cioè i fattori imprevedibili della realtà, sono tra le evidenze della complessità.
Ma che cos’è la «complessità»?
«Al di là di come viene spesso rappresentata, è (e porta con sé) uno sguardo, un’epistemologia, un sistema di pensiero. Allo stesso tempo, è caratteristica strutturale, costitutiva, degli “aggregati organici”, di tutte le forme e gli enti vitali. Richiamare la natura “complessa” di soggetti, fenomeni, processi, significa sottolinearne la dimensione sistemica e relazionale, con la profonda consapevolezza che tali “oggetti” di studio sono, in realtà, “sistemi” con dinamiche evolutive nonlineari, capaci di auto-organizzarsi, e caratterizzati, nel loro essere complessi, da “proprietà emergenti” osservabili solo mentre i sistemi evolvono. Richiamando un mio vecchio mantra: l’opposto della complessità non è la semplificazione, bensì il riduzionismo».
La grande illusione del controllo. «L’essere umano ritiene da sempre di poter controllare tutto, mantenendo ordine ed equilibrio. Una tensione continua dovuta anche alla sua incompletezza e fragilità, alla sua condizione di “razionalità limitata”, per citare l’economista Herbert Simon; e al contempo, un’aspirazione legata al fraintendimento tra “sistemi complicati” (meccanismi: gestibili) e “sistemi complessi” (organismi: non gestibili). Ma la complessità non è il paradigma del problem solving enonè design thinking cui viene, spesso, erroneamente associata. E le soluzioni, nel loro essere provvisorie e mai “prototipabili”, richiedono una visione sistemica dei problemi, per individuarne connessioni e interdipendenze, evitando le scorciatoie della scomposizione in parti».
Le parti, cioè i «dati» elementari che otteniamo dal reale, non bastano?
«I dati sono fondamentali. Ma non parlano mai da soli, non sono auto-evidenti: sono i ricercatori e gli esperti, a doverli far parlare. Come? Cercando di individuarne connessioni e correlazioni. Così, le sfide di questa civiltà ipertecnologica sono in primo luogo epistemologiche ed educative. Le straordinarie scoperte scientifiche e innovazioni tecnologiche stanno cambiando, in modo irreversibile, il nostro modo di conoscere».
Che cosa accade con la diffusione dell’IA?
«Fin dalla metà degli anni Novanta, parlo di “nuova frattura epistemologica”. L’Intelligenza artificiale è una straordinaria opportunità che rischia di rimanere “esclusiva” di élite più o meno illuminate, e di continuare a essere governata da potenti soggetti privati. A ciò si lega anche la questione della trasparenza degli algoritmi. Per ciò che concerne ad esempio l’educazione: il rischio è continuare a far coincidere l’esigenza di ripensarla radicalmente con un adeguamento al cambiamento tecnologico, delegando tutto alle tecnologie e portando gli esseri umani a “pensare come macchine” (incapaci di pensare l’indeterminato e di raggiungere significativi livelli di astrazione). Occorre andare oltre le “false dicotomie”, come quella per cui la tecnologia è “esterna”, neutrale rispetto alla cultura: continuiamo a contrapporre formazione umanistica e scientifica, conoscenze e competenze. Invece, tecnologia è cultura. Abitiamo ambienti artificiali, una “nuova natura”, e serve a poco affrontare i problemi marginalizzando l’umano. Però non ci sarà alcuna sostituzione, anzi il fattore umano sarà ancora più decisivo».
Nei suoi saggi parla di «società-meccanismo»...
«La civiltà dell’automazione si fonda, oltre che su tecnocrazia e tecnoscienza, su “grandi illusioni”, alimentate dalle scoperte scientifiche e dalle tecnologie della connessione. E, nella certezza illusoria di poter eliminare l’errore in tutte le sue forme (devianza, conflitto, imprevedibilità, disordine...), continua a essere progettata come un enorme “meccanismo” costituito da parti/ingranaggi sostituibili. Si tratta di logiche di sistema, tradotte in procedure, regolamenti, culture educative, culture della valutazione e della ricerca, che alimentano anche la convinzione di poter ridurre la qualità a quantità, misurando tutto. Si pensi alle culture egemoni della valutazione, imposte nelle università e nelle scuole».
Come si crea una cultura dell’errore e dell’imprevedibilità?
«La questione, ripeto, è epistemologica ed educativa. Fin dai primi anni di vita, e nella vita scolastica, l’errore è puntualmente stigmatizzato, un po’ come le emozioni e la creatività. L’illusione di poter eliminare l’errore nega il presupposto fondamentale di qualsiasi apprendimento e della ricerca scientifica. Talvolta, gli stessi ricercatori sono formati ad andare alla ricerca di ciò che confermi le loro ipotesi e teorie, più che tentare di confutarle. Si tratta di contrastare, sul piano educativo, un grande equivoco: che, per la civiltà dell’automazione, siano utili solo i “saperi tecnici”, produttori di esattezza e calcolabilità (le scienze Stem) e gli (iper)specialismi. Pur nell’emergente incertezza, continuiamo a educare al controllo e alla razionalità, con ricadute anche in termini di disagio psichico e sociale. Educare all’imprevedibilità implica destabilizzare le conoscenze dogmatiche e le pratiche consolidate, ribaltando il modo in cui osserviamo la realtà (ed educhiamo a pensarla). La nostra osservazione non è mai esterna né neutrale, ciò che osserviamo è la “natura” esposta ai nostri metodi di indagine, per citare Werner Heisenberg. Cioè prepararsi alla coesistenza con l’imprevedibile e il non-osservabile, invece che sulla conoscenza di ciò che è già accaduto e dei modelli/pratiche che hanno sempre funzionato ma precludono innovazione e cambiamento».