Corriere della Sera - La Lettura
La matematica esiste fuori di noi
Distinguere ciò che è reale da ciò che non lo è. A spiegarlo in modo convincente sono soprattutto le ricerche in ambito computazionale
Nel corso di un recente incontro conviviale sentii dire di sfuggita, da parte di uno stimato fisico e scrittore, che la matematica non è una scienza. Trovai appena il tempo di commentare che la sua osservazione la diceva lunga sul rapporto tra fisici e matematici, e il discorso fu presto sviato su altri argomenti. Tuttavia ebbi poi modo di riflettere su certe convinzioni diffuse sulla natura della matematica, spesso paragonata a quella della filosofia. Eugene P. Wigner, premio Nobel per la Fisica nel 1963, avendo sentito dire una volta che «la filosofia è l’uso scorretto di una terminologia inventata apposta a tale scopo», affermava che «la matematica è la scienza delle operazioni ingegnose con regole e concetti inventati apposta a tale scopo». Parole che non possono evitare di rimettere in discussione un principio esplorato da secoli, a cominciare dalle celebri dichiarazioni di Galileo, secondo cui era palese che l’universo è scritto nei caratteri della lingua matematica: numeri, triangoli, cerchi e altre figure.
Proprio il pensiero legato al mondo dei numeri, il più lontano in apparenza dal mondo concreto, ci aiuta a
La tesi, alquanto azzardata, che la matematica non è una scienza potrebbe nascere dall’idea che le sue formule sono diventate astratte e fini a sé stesse al punto da rendere inverosimile ogni loro applicazione al mondo reale. Tuttavia, solo per cominciare, un’indagine appena credibile sul rapporto tra realtà e astrazione matematica impone di estendere l’ambito dell’esistente oltre i confini del senso comune, perché c’è il caso che l’universo di cui parlava Galileo sia più esteso di quello che siamo propensi a credere.
Accanto alla realtà fisica, scriveva il celebre matematico Godfrey H. Hardy nella sua Apologia di un matematico (1940), c’è una realtà matematica, sulle cui caratteristiche non tutti, peraltro, sono d’accordo. Alcuni sostengono che è solo mentale e che siamo noi a costruirla, altri che è esterna e indipendente da noi. Hardy propendeva per la seconda ipotesi: la realtà matematica sta fuori di noi, e il nostro compito è di scoprirla e di osservarla, non tanto diversamente da come facciamo con il mondo fisico. Nulla di stravagante o di paradossale, d’altronde, se solo pensiamo a tradizioni diverse dalla nostra. La realtà matematica non è meno reale delle cose tangibili che ci circondano allo stesso modo, si direbbe, che il vedico asat (l’invisibile, il non manifestato)
non è meno reale di sat (il visibile, il manifestato). Importante è trovare il legame (bandhu) tra i due. Un legame di cui la stessa matematica offre strumenti essenziali di decifrazione.
In fondo proprio il pensiero matematico, il più lontano, in apparenza, dal mondo concreto, ci aiuta a distinguere ciò che è reale da ciò che non lo è; e sono soprattutto le ricerche in ambito strettamente computazionale, a iniziare dagli ultimi anni Quaranta, a spiegarcelo nel modo più convincente. In virtù della loro stessa costituzione le scienze computazionali si trovano a trattare elementi di diverso statuto ontologico in stretto legame tra loro, perché le sue costruzioni più astratte e lontane dal mondo fisico sono il tramite necessario, e spesso imprevedibile, per ricondurre i modelli matematici della natura alla materialità pulviscolare del calcolo digitale. John von Neumann, uno dei massimi artefici di questo calcolo, avvertiva che nella modellizzazione matematica dei più disparati fenomeni naturali e artificiali intervengono teoremi e costruzioni teoriche essenzialmente indipendenti dal fenomeno osservato. La realtà matematica di cui parlava Hardy è già realissima in un mondo di pura idealità, ma è anche l’unico tramite possibile per tradurre le equazioni che descrivono il mondo fisico in un processo di pura computazione che si svolge in un tempo e in uno spazio reali. Insomma la matematica pura è reale anche perché può trovarsi riflessa nella concretezza di un calcolo eseguito da una macchina e reso possibile dai suoi teoremi. La realtà di un ente matematico non dipende solo dalla coerenza e dalla possibile applicazione a fenomeni naturali o artificiali delle specie più varie, ma dal carattere intrinsecamente ibrido di un calcolo la cui natura è matematica e fisica al tempo stesso. Le macchine, scrive Hilary Putnam, «ci hanno costretto a distinguere tra una struttura astratta e la sua realizzazione concreta». Ma sono le strutture astratte, matematiche, il primo strumento per giudicare l’attendibilità di ciò che è elaborato dalla macchina.
Diversi criteri, con le debite varianti e sfumature, si sono succeduti nel tempo, fino a oggi, per cogliere il significato della realtà degli enti matematici. Per semplicità ne menzioniamo solamente tre: il primo, la coerenza, è da sempre un presupposto irrinunciabile. Gli altri due, l’effettività e l’efficienza dei processi di calcolo sono un’acquisizione molto più recente. Alla fine del XIX secolo si riteneva che un ente matematico può rivendicare un’esistenza effettiva quando è definito in modo non contraddittorio. Gottlob Frege, tra gli altri, sosteneva che è sbagliato considerare come effettivi soltanto i numeri naturali finiti, e che qualunque nome o segno introdotto in modo logicamente inoppugnabile esiste nello stesso senso del termine: un numero infinito ha lo stesso statuto ontologico dei numeri 1 o 2, ed è quindi altrettanto giustificato. Oggi questa tesi è meno sostenibile. La soluzione di un’equazione ha per lo più un’esistenza diversa dai numeri razionali, effettivamente calcolati, che la approssimano nello spazio e nel tempo di esecuzione di una procedura.
La scienza del calcolo ha definito oggi con una certa precisione che cosa debba intendersi per realtà effettiva, mostrando pure come l’arte del conoscere dipenda dal riunire in uno solo i fuochi alimentati da parti diverse. Oggi le ricerche sul concetto di calcolo effettivo provengono da discipline differenti come la logica, la teoria dell’ottimizzazione, il calcolo numerico, l’Intelligenza artificiale, l’informatica teorica, la complessità computazionale, la teoria delle sequenze casuali; e proprio dalla convergenza di questi diversi settori ebbe origine, nel Novecento, una svolta rivoluzionaria che trovò il suo centro nel concetto di algoritmo, cioè di un processo in grado di elaborare effettivamente un risultato, in un tempo finito, da un insieme di dati iniziali.
Il finito è di solito una prerogativa di ciò che è effettivo, ma che cosa accade quando il finito assume proporzioni smisurate come nel calcolo digitale su grande scala? Siamo ancora in grado di chiamare reale ed effettivo
un sistema di numeri calcolabile con una procedura che richiede miliardi di operazioni approssimate o un tempo di calcolo di milioni di anni?
Esistono casi clamorosi di procedure effettive del tutto inefficienti, a causa della presenza di un numero eccessivo di operazioni o di una crescita incontrollata dell’errore sui dati o sulle operazioni di macchina. James H. Wilkinson — il celebre matematico britannico cresciuto nella tradizione di Hardy e a cui si devono fondamentali contributi sulla natura della propagazione degli errori nel calcolo automatico — racconta come trascorse alla fine della guerra un periodo di ricerca al National Physical Laboratory, collaborando tra gli altri con Alan Turing. Gli anni tra il 1946 e il 1948 erano quelli del primo sviluppo dei calcolatori digitali e dello studio di procedure veloci e affidabili con milioni o miliardi di operazioni approssimate eseguite in un tempo e in uno spazio reali. E non è certo insignificante il fatto che tali ricerche trovassero una motivazione e un sostegno da richieste
di ordine militare. Già da allora si profilava una loro collusione con l’organizzazione sociale e industriale, con le comunicazioni e con le tecnologie necessarie alle guerre moderne. Lo stesso Wilkinson definiva «affascinanti» i problemi di balistica, di termodinamica degli esplosivi e di frammentazione di bombe e granate. Tra i compiti specifici che dovette affrontare c’era la risoluzione di un sistema di sole dodici equazioni lineari con altrettante incognite, un problema di cui egli presumeva di conoscere tutto ciò che c’era da sapere. Ma i manuali dell’epoca consigliavano un classico processo di calcolo effettivo (basato sul metodo di Cramer) del tutto inefficiente. Per risolvere con quel metodo un sistema lineare di appena cinquanta equazioni in altrettante incognite un calcolatore che eseguisse una moltiplicazione in un solo milionesimo di secondo impiegherebbe un numero di anni paragonabile a quello che ci separa dal Big Bang. Di qui l’importanza che doveva assumere lo studio matematico delle procedure di calcolo. Migliorare la loro efficienza poteva essere ben più decisivo che costruire calcolatori più potenti.
Le ricerche teoriche sull’effettività, ipoteticamente incarnata nella Macchina di Turing o in altri modelli di calcolo equivalenti, concernevano la possibile esistenza di metodi computazionali, ma non le questioni riguardanti la complessità computazionale e la propagazione dell’errore. Perciò era fatale che all’effettività dovesse affiancarsi un concetto di efficienza, riguardante la complessità e l’errore, più elusivo e difficile da definire per tutta la varietà dei problemi, dei modelli di calcolo e dei relativi algoritmi. Da allora la questione pratica di che cosa può o non può essere realmente automatizzato, e con ciò lo studio delle proprietà di efficienza di una procedura, guadagnò un’importanza centrale. Lo stesso statuto ontologico degli enti matematici doveva tener conto dell’efficienza oltre che dell’effettività. La soluzione numerica di un problema esiste, sotto questo profilo, solo se può essere approssimata con un algoritmo che sia anche efficiente; perché la soluzione reale, di per sé inconoscibile, deve essere definita dalla stessa procedura, necessariamente efficiente, che la calcola per successive approssimazioni.
L’efficienza algoritmica emergeva così in primo piano con un inquietante doppio profilo: il primo, di natura fondazionale, riguardava la comprensione teorica dei limiti di potenza del calcolo e della realtà degli stessi enti matematici. Il secondo era teso alla conquista prometeica, compromessa con esigenze politiche, sociali, finanziarie e militari, di sistemi di simulazione, di informazione e di comunicazione di ogni sorta, dai satelliti alle reti neurali, dagli esplosivi alle previsioni metereologiche, dal volo di aerei ai motori di ricerca su Rete.
È tuttora chiarificatrice una vicenda narrata dal valente matematico italiano Gian-Carlo Rota nei primi anni Ottanta. Un certo professor Smith si era interessato al difficile problema su come dividere un rettangolo in rettangoli più piccoli. Importanti riviste internazionali rifiutavano sistematicamente di pubblicare i suoi risultati, ma i tecnici dell’Ibm compresero poi che le maschere che producono chips richiedono appunto una procedura efficiente per tagliare rettangoli in altri rettangoli più piccoli, con un conseguente giro di affari di milioni di dollari. È raro, commentava Rota, che la matematica nasca da un’esigenza pratica, e accade piuttosto che sia la tecnologia ad andare a caccia di teorie elaborate a fini puramente teorici. Un altro esempio è l’attuale tecnica di valutazione dell’importanza di una pagina web, affidata a complessi calcoli matriciali, frutto di ricerche teoriche risalenti al primo decennio del XX secolo. Martin Heidegger, per cui la scienza era assimilabile, nel suo insieme, a una teoria della realtà effettiva (Wirklichkeit), ebbe già buoni motivi per notare che la figura dello studioso doveva essere ormai assimilata a quella del tecnico, «capace di efficacia e quindi effettivamente reale, efficiente, nel senso della sua epoca».
Alle indagini teoriche sui concetti matematici di effettività e di efficienza si è affiancato, come prevedibile conseguenza, il sogno demonico e inarrestabile del progresso e dell’efficacia, e il carattere numerico e algoritmico, sempre più invadente e oppressivo, della nostra rappresentazione del vivere individuale e collettivo. A questo si aggiungono le fatali distorsioni implicite nell’uso dell’Intelligenza artificiale e nell’amministrazione di moli gigantesche di dati; dati elaborati da algoritmi che interpretano solo imperfettamente le nostre intenzioni e le nostre aspettative, e decidono autonomamente come proseguire, di volta in volta, in base ai risultati provvisori di una occulta inner computation, una simulazione numerica nascosta di seducente realtà e oggettività, ma essenzialmente inaccessibile nel dettaglio, e dei cui risultati la sola matematica può offrire una qualche spiegazione. Una sfida che porta all’estremo il tentativo di imbrigliare l’universo in un logos di natura computazionale, e che mostra pure il profondo legame tra l’elaborazione matematica, teorica e fondazionale, del concetto di realtà effettiva e un apparato di tecniche che condizionano ogni atto della nostra esistenza reale. In questo modo si prospetta oggi il disegno di una sapienza millenaria assimilata alla scienza del numero e ora quasi costretta da una necessità imperscrutabile a obbedire a una ratio calcolante pronta a condividere pericolosamente con la tecnica un progetto di dimensioni smisurate.