Corriere della Sera - La Lettura
Conto, dunque non so I dubbi della matematica
Succede quando abbiamo chiari sotto gli occhi tutti i dati che ci servono e le linee esatte di un ragionamento, proprio allora ci accorgiamo di non capire; sospetti e ambiguità non risparmiano le teorie più cristalline, a cominciare da Euclide; andiamo a
Il dubbio e l’oscurità sono spesso una conseguenza della certezza. Proprio nel momento in cui abbiamo chiari sotto gli occhi tutti i dati che ci servono e le linee esatte di un ragionamento, alla fine ci accorgiamo di non capire. Il non capire come ultimo nucleo della verità e del rigore: sembra un assurdo, ma è quello che accade realmente nella matematica, quella «sfinge incompresa» — come la chiamava Baudelaire — dove sembra che le dimostrazioni non lascino dubbi e che la certezza, finalmente sottratta al nostro arbitrio e alla nostra imperfetta valutazione, sia una conseguenza evidente e oggettiva dei meccanismi del calcolo.
I dubbi affiorano dalle operazioni più semplici, ma c’è una diffusa propensione a celarli dietro l’apparenza di un calcolo trasparente e categorico. Fin dall’insegnamento della matematica a scuola si dà per scontato il significato di simboli e computazioni che ubbidiscono a regole prestabilite, e al tempo stesso se ne trascura il senso riposto, a tratti impenetrabile. Può essere allora legittimo azzardare una domanda: da chi e per quale ragione il calcolo è stato inventato? C’è qualcosa che il calcolo intende mostrarci, e insieme tenere celato, oltre alla sua indubitabile capacità di risolvere singoli problemi?
L’oscurità dipende da diversi motivi. C’è innanzitutto un motivo intrinseco e nasce dall’abitudine, che è tipica per i matematici, di rappresentare concetti o fe n o meni medi a n te fo r mul e e d equazioni. La matematica elabora modelli astratti di concetti relativamente enigmatici, come le nozioni di infinito, di caso, di algoritmo, di struttura e di continuo. Ma il modello è una simula- zione, la riproduzione semplificata di un’entità sconosciuta e, per quanto esatto e pertinente, non può evitare un ripetuto rimando all’ente inconoscibile che vuole rappresentare.
Sospetti e ambiguità non risparmiano le teorie più cristalline. Nel 1810 Bernard Bolzano, tra i fondatori dell’analisi moderna, trovava nei teoremi di Euclide una certa eterogeneità e una mancanza di ordine. Proprio l’estrema cura e attenzione che traspare dalle pagine degli E l e ment i g l i s u g g e r i va «l’idea che quel disordine deve avere una ragione più profonda e che tutto il metodo dimostrativo di cui si serve Euclide potrebbe non essere corretto». Bolzano aveva in mente, a questo riguardo, la costruzione euclidea di triangoli i cui vertici sono intersezioni di cerchi. Ma che cosa si intende precisamente per intersezione di due curve? Quando due curve si intersecano esiste sempre un punto comune ad entrambe? Euclide non ci dice nulla a questo proposito, ma simili domande celano alcuni degli enigmi più profondi della matematica, che Bolzano fu tra i primi a tentare di chiarire.
Hermann Weyl dichiarava che la matematica è la scienza dell’infinito e che il suo fine è la comprensione dell’infinito con strumenti umani, e dunque finiti. Ma che l’infinito sia un’entità davvero comprensibile è assai dubbio. I greci lo sapevano, al punto da evitare di nominare l’infinito in qualsiasi dimostrazione, e i matematici moderni, pur facendo intervenire l’infinito nei calcoli, ne hanno sperimentato di nuovo il carattere sfuggente ed elusivo.
Anche il concetto di numero non è privo di oscurità. I numeri computabili, le cui cifre decimali sono calcolabili con una macchina, si distinguono da quelli non computabili. E nel 1937 Turing dimostrava che questi ultimi for- mano un insieme non numerabile, un mare sconfinato inaccessibile alla nostra comprensione, dove i numeri computabili, gli unici che conosciamo, nuotano come minuscoli batteri. Gli stessi numeri computabili sfuggono, per lo più, a una completa trasparenza: li avvolge una nuvola di indeterminatezza dovuta agli errori e al costo delle procedure che li approssimano.
C’è opacità anche per ciò che riguarda le origini della matematica. «Le vere motivazioni originarie delle teorie sono sempre oscure», notava ancora Hermann Weyl nel suo trattato sulle teorie relativistiche del 1918 Spazio, tempo, materia. «Quando il matematico si trova a operare con i suoi concetti, lungo linee strettamente formali, dovrebbe ricordarsi di tanto in tanto che le origini delle cose giacciono in strati più profondi di quelli a cui i suoi metodi gli permettono di discendere».
I matematici greci erano già consapevoli delle difficoltà che nascevano dal misurare le grandezze con i numeri. Non potremmo allora recuperare nelle loro teorie l’origine del nostro non-sapere? Le vere rivoluzioni scientifiche, come quelle della matematica e della fisica del primo Novecento, di cui anche Weyl era stato artefice, hanno una naturale tendenza a commisurarsi con il canone, consolidato da secoli, che intendono rimuovere o rinnovare. In questo caso il confronto con l’antico diventa inevitabile. Non dobbiamo però pensare a una semplice reminiscenza, bensì a una ripresa che, come diceva Kierkegaard, ci fa ricordare procedendo in avanti. Si moltiplicano così gli ambiti di ricerca e le questioni irrisolte. Del resto Georg Cantor, consapevole che il concetto matematico di in- sieme si stava rivelando come un vero e autentico abisso e una fonte inesauribile di nuovi problemi, non evitava di riconoscere che l’arte di porre questioni è più importante di quella di risolverle.
Gli antichi non conoscevano l’algebra e l’analisi nel modo in cui queste si sono configurate, tra il XVI e il XVII secolo, come una ripresa dell’analisi greca. In compenso avevano dimestichezza con l’aritmetica, la geometria e i primi algoritmi. Forse che nell’aritmetica potremmo allora trovare una motivazione originaria che l’algebra, di per sé, non riesce a svelarci?
La grande novità dell’algebra, rispetto all’aritmetica, consiste nell’operare con le lettere e nell’esprimere una q u a nt i t à i nco g ni t a i n f u nz i o ne di quantità note. Le principali operazioni dell’algebra sono mutuate da quelle sui numeri, ma consentono pure la creazione autonoma di problemi insoliti e imprevisti, di strutture che impegnano il nostro ragionamento in ambiti sempre più generali. L’algebra ci obbliga a esplorare mondi sconosciuti. Si apre allora un esclusivo confronto tra noi e la formula, tra l’algoritmo e la nostra mente, e siamo obbligati a riconoscere che non siamo padroni incontrastati dei nostri calcoli, perché sono spesso loro, i calcoli, a insegnarci come è meglio procedere.
Un altro valente matematico, Henri Lebesgue, notava che grazie all’algebra un maestro può educare i suoi allievi alla comprensione di un meccanismo, ma è poi con l’aritmetica che li fa ragionare. In virtù dei suoi automatismi l’algebra può dunque pensare al posto di chi la impiega. Ma questo non significa soltanto che l’algebra ci solleva, come voleva Cartesio, da sforzi mnemonici e da lunghi conteggi. Gli algoritmi pensano per noi anche perché ci spingono
a riconoscere concetti lontani dal nostro arbitrio e dalla nostra stessa immaginazione. Con l’algebra si procede in modo fortuito e senza pensare, notava Simone Weil, perché la nostra scienza ha un carattere collettivo, costringe alla specializzazione e all’impiego delle tecniche più disparate, lasciandoci nell’ignoranza dei presupposti che le hanno rese possibili e credibili. Ci affidiamo così, anche nelle situazioni più delicate, a procedure che non rispettano né le nostre aspettative né i più semplici criteri di buon senso. La nostra ignoranza diventa allora un’abdicazione, una delega a meccanismi che ci relegano in un ruolo subordinato e ancillare.
Con la fine del XVI secolo il calcolo analitico cominciò a subentrare ai numeri e alle figure dello spazio euclideo, con una conseguente, insanabile frattura tra il visibile e l’invisibile. Edmund Husserl lo aveva capito benissimo. Nella Crisi delle scienze europee (19351937) notava che già prima di Galileo, con i metodi di François Viète per risolvere un’equazione, si era profilata un’algebra estrema, preludio alla ma
thesis universalis di Leibniz e a una definizione puramente analitica dei princìpi del calcolo. Era un passaggio che comportava uno svuotamento di senso, riconducendo l’epistéme a pura legalità matematica. Il pensiero algebrico e analitico seguì poi il suo statuto. Profilandosi come una scienza puramente analitica, la matematica — fa notare Derek T. Whiteside — aveva cominciato già nel XVII secolo a perdere memoria delle proprie origini, tanto da rendere irrilevante, con poche eccezioni, qualsiasi discussione estesa a un suo retroscena filosofico, esistente o presunto.
Ma questa rimozione non riguarda soltanto la matematica moderna. Concentrata com’era sul rigore delle dimostrazioni, anche la geometria di Euclide aveva finito per occultare le ascendenze ultime delle sue teorie. Le poss i a mo o g g i r e c u p e r a r e p e r v i a d i testimonianze frammentarie, solo in parte integrabili con fonti provenienti da altre tradizioni, dalla Mesopotamia all’Egitto, dall’India vedica alla Cina.
Eppure proprio la ricerca del rigore poteva essere il segno residuo di una religiosità perduta, di un’attenzione estrema per ombre ed enigmi in cui si potessero ravvisare le tracce di una luce divina. La vita degli dèi antichi si commisurava alla nostra anche per mezzo della matematica. Essi erano completamente veridici e intimamente affini ai numeri e alle figure della geometria, dove non potevano albergare, secondo i pitagorici, la falsità e la menzogna.
Se oggi gli dèi sono condannati all’esilio, una matematica tanto astratta quanto materialmente efficace, autopoietica e inesauribile nelle sue proposte, ne ha tuttavia ereditato il carattere veridico e forse perfino il credito e la reputazione, con una sempre maggiore conformità al criterio dell’utile, l’apertura a sempre nuove conquiste e l’apparenza di una libera e pubblica accessibilità. Ma lo sguardo sul futuro non cancella il passato. Da Platone apprendiamo il paradosso, ripreso più di due millenni dopo da Ernst Mach, che si scopre ciò che si conosce già e che, per ridurre al minimo l’ignoto, conviene rapportare ciò che si cerca a conoscenze già acquisite, con un’attenta amministrazione del ricordo e dell’oblio.