Crisi della Ragione classica e nuove forme di razionalità

Nell’ambito della Filosofia come Comparazione vogliamo proporre in queste pagine un eventuale modulo didattico per l’ultimo anno di scuola secondaria di secondo grado di natura interdisciplinare o trasversale che possa impegnare un team di docenti e studenti al fine di riflettere sul tema della Ragione in una prospettiva multidimensionale. Siamo convinti, del resto, che “allargare gli orizzonti della razionalità”, come sosteneva il compianto Prof. Mario Signore, sia un incombente compito di rilevanza europea e che il “dialogo tra le culture” non assume solo il significato del confronto tra popolazioni incardinate in un comune quadro storico-sociale, ma si estende anche al confronto con complessi disciplinari differenti e apparentemente lontani, come potrebbero sembrare attualmente la fisica, la matematica e la geometria rispetto alle discipline umanistiche[1].

In tal senso ci sembra assolutamente pertinente proporre un modulo sul rapporto tra Ragione classica e Ragione moderna nell’ambito di un insegnamento di Studi interculturali.

Sostenere la Ragione multidimensionale in questo senso significa, dunque, uscire dalla dicotomia e dalla contrapposizione tra la Ragione classica, forte e assiomatica, e la Ragione che, a partire dalle incrinature aperte dalla modernità e manifestatesi apertamente nella postmodernità, è stata giudicata perlopiù debole e di scarso rilievo per l’argomentazione filosofica. Dal nostro punto di vista, sottolineare la multidimensionalità della ragione significa anche essere pronti a compiere un viaggio all’interno delle altre discipline e lasciarsi ibridare e contaminare non solo dai risultati delle altre indagini, ad esempio in ambito fisico, matematico, e geometrico, ma accostarsi ai temi anche con un approccio diverso, rinnovato nella sostanza del procedimento e nel lessico.

Lo slittamento teorico che tra fine Ottocento e primi del Novecento ha condotto a percepire una contrapposizione netta tra una Ragione classica ed una Ragione moderna ha oggi la sua pregnanza solo se viene contestualizzato e superato in vista di una Ragione multidimensionale, nella consapevolezza che il guadagno in termini filosofici di tale processo va individuato nel valore euristico della ricerca e nel confronto prospettico tra punti di vista.

Il nodo fondamentale intorno al quale si consumava il passaggio dalla Ragione classica a quella moderna ruotava intorno alla pretesa, da parte della Ragione o di qualche forma di razionalità, di «fondare» la conoscenza. Il conflitto maturava, storicamente, a causa dell’evoluzione delle scienze, dal loro autonomizzarsi rispetto alla riflessione teorica, esclusivamente speculativa, per impegnarsi sul piano empirico con tutt’altre metodologie e procedure di tipo strumentale messe a disposizione dall’evoluzione della tecnica.

La conseguenza più immediata di questo passaggio è stata la messa in questione di concetti come «Verità», «Certezza» e «Fondamento», nonché quel processo circolare ammantato di razionalità filosofica che tentava di giustificare il Fondamento che garantisce la Certezza della Verità. Si trattava di una questione che nell’ambito della Ragione classica veniva facilmente risolto in maniera assiomatica facendo ricorso ad un’auctoritas in grado di interrompere il regresso all’infinito e stabilire ad un certo punto la possibilità di creare o generare incontrovertibilmente la Verità.

Il funzionamento prototipico della Verità nella Ragione classica viene messo in rilievo da Heidegger in Dell’essenza della verità: «La veritas come adaequatio rei (creandae) ad intellectum (divinum) garantisce la veritas come adaequatio intellectus (humani) ad rem (creatam). Veritas significa nella sua essenza e in generale la convenientia, il concordare (Übereinkommen) degli enti tra loro in quanto enti creati con il Creatore, una sorta di «accordo» (Stimmen) determinato dall’ordine della creazione».[2]

Ciò che Heidegger evidenzia, in tutta la sua problematicità, è uno dei tre corni del «trilemma di Münchhahusen»[3] secondo il quale la questione del fondamento della conoscenza può essere risolta solo se si stabilisce un punto iniziale, un assioma, un postulato, una verità indimostrabile dalla quale far scaturire a cascata e in maniera apodittica tutto il sistema (1). Si tratta di una delle alternative al regresso all’infinito (2), circostanza che non porterebbe ad alcuna nuova acquisizione per la conoscenza né, tantomeno, riuscirebbe a fondarla, ma anche alla petizione di principio o ragionamento circolare (3), metodo para-logico che consisterebbe nell’utilizzare all’interno delle dimostrazioni delle affermazioni che andrebbero esse stesse dimostrate.

Il contributo della riflessione epistemologica su questo versante è estremamente importante dal punto di vista didattico, giacché storicamente essa riesce ad elaborare sul piano speculativo, e con una concettualità prettamente filosofica, gli sviluppi e l’impatto che le scienze esatte registravano sul piano dei loro statuti in relazione alla questione del loro fondamento.

La crisi riguarda i fondamenti del conoscere e le procedure argomentative razionali invalse nella filosofia a partire da Aristotele. Già in età moderna con Hume si apre una faglia nelle procedure logiche di tipo deduttivo, ma con Kant viene salvata la forma a priori del tempo e dello spazio, ultimi due baluardi dell’oggettività, messi in questione da Einstein. E la filosofia, che a partire dal ‘600 aveva perseguito il mito dell’oggettività, richiamandosi perlopiù al procedimento delle scienze esatte come la matematica, la geometria e la fisica, quando quest’ultime sono state costrette a rivedere la propria esattezza, sgretolata sotto i colpi delle geometrie non euclidee, dei principi di indeterminazione e incompletezza e della Teoria della relatività, essa si trova, ai primi del ‘900, orfana delle procedure stesse di giustificazione dei propri fondamenti e cade essa stessa in una profonda crisi d’identità inerente i propri contenuti e i propri metodi: «La filosofia, nelle sue espressioni tradizionali, fu respinta come dannosa o accolta come puro strumento d’analisi del discorso scientifico. Si assiste, infatti, al suo rifiuto perché inutile e deviante (E. Mach), al suo ridimensionamento ad attività chiarificatrice del linguaggio scientifico (Wittgenstein e il Circolo di Vienna), al recupero delle sue vestigia disseminate nella storia (Popper e la scuola popperiana) o alla sua condanna nella veste categoriale e oggettivante tradizionale (Jaspers e Heidegger) o alla riduzione a metodologia dei fatti storici (B. Croce). Per quanto concerne il suo contenuto e i suoi problemi, Carnap mette sullo stesso piano negativo mito, magia, metafisica e religione; e Croce sottolinea che i «massimi problemi» sono sogni di infermi».[4]

Per non parlare poi delle conseguenze, molto più significative per i nostri tempi, generate dagli approcci della seconda metà del ‘900, che fanno riferimento, a vario titolo, alla decostruzione di Derrida, alla postmodernità di Lyotard, al pensiero debole di Vattimo e al pensiero post-filosofico di Rorty. Si tratta di indirizzi filosofici estremamente importanti per la lettura dei fenomeni sociali e culturali contemporanei che, tuttavia, non vengono messi a disposizione dei nostri alunni, i quali rimangono all’interno di un meccanismo schizofrenico che vede la scuola stessa, nel suo complesso, scollata dalla realtà nella quale essi sono calati.

Il valore epistemologico della crisi della ragione classica avvenuta a cavallo tra ‘800 e ‘900 è, dunque, a nostro avviso, fondamentale dal punto di vista didattico perché segna non tanto il passaggio da un modello di razionalità ad un altro, ma incrina la pretesa della stessa Ragione di essere funzionale alla ricerca di qualcosa che sia definita come Verità e sulla quale l’Occidente aveva eretto i suoi strumenti di dominio culturale e coloniale. Si tratta, piuttosto, di un passaggio da un concetto di Ragione Universale e unidirezionale ad un concetto di Ragione multidimensionale, che ha applicazione ed estrinsecazioni a seconda del contesto, della situazione, degli osservatori, in breve a seconda del tempo e dello spazio.

Più di ogni altra cosa, il passaggio dall’epoca premoderna all’età moderna, almeno per ciò che riguarda la speculazione, è stato segnato da un inesorabile crollo di quelle certezze che l’orizzonte conoscitivo dava per scontate, come ad esempio l’autonoma disponibilità della coscienza presente a se stessa, la presenza di un’entità trascendente garante di volta in volta dell’ordine naturale, morale e sociale, la manifestazione razionale della storia nel mondo, nonché la certezza nelle scienze dure come la matematica, la fisica e la geometria, di cui il positivismo aveva celebrato i fasti.

Il più immediato fondamento metanarrativo che la speculazione filosofica aveva individuato durante tutto l’arco della tradizione tardoantica e medievale era riposto in un ordine logico necessario che rifletteva l’ordine divino, in cui all’uomo spettava solo il compito di trovarne le corrispondenze attraverso percorsi che prevedevano talvolta vere e proprie illuminazioni ed epifanie. La garanzia della certezza apodittica della conoscenza, infatti, era garantita da un lato dalla indiscutibile disposizione del creato da parte di Dio, dall’altra dalla possibilità d’intellezione umana assicurata dalla logica di Aristotele, il «maestro di quelli che sanno», a detta del poeta Dante Alighieri.

La Cristianitas europea continentale si è crogiolata per secoli all’interno di un sistema compiuto e inattaccabile che ha conciliato logica e metafisica grazie alla insuperabile elaborazione teoretica che, a vario titolo, operarono il filosofo persiano musulmano Abū Alī al-Ḥusayn ibn ʿAbd Allāh ibn Sīnā (Avicenna, 980-1037) e lo scienziato e filosofo arabo spagnolo musulmano Abū l-Walīd Muhammad ibn Ahmad Muhammad ibn Rushd (Averroè 1126-1198). Si tratta di un momento interessante dal punto di vista interculturale, giacché da questo momento in poi il sistema logico-metafisico cristiano e quello islamico viaggiarono di pari passo, col lo stesso linguaggio e con lo stesso bagaglio concettuale.

La prima grande rivoluzione culturale che si ebbe senza soluzione di continuità tra ‘300 e ‘600 sul territorio europeo, e che grossomodo indichiamo con la categoria storiografica di Rinascimento, condusse ad una progressiva e blanda emancipazione da quelle che erano considerate le auctoritates del passato, ma soprattutto da quelle fonti ufficiali del sapere imposte da un sistema culturale monopolistico controllato quasi esclusivamente dal potere ecclesiastico.

Tale emancipazione, che in questo preciso momento non implicò assolutamente la perdita del senso religioso e del riferimento a Dio, comportò la scoperta e la ripresa di antiche fonti greche del sapere democriteo, pitagorico, platonico e dell’Aristotele naturalista, le quali diedero una notevole sterzata all’orientamento e alla fondazione del sistema della conoscenza.

La conseguenza più immediata di questa circostanza fu l’assunzione di un nuovo sistema epistemologico, di un rinnovato complesso metanarrativo apodittico, il quale si andava a sostituire alla logica in riferimento alla possibilità umana di comprendere la modalità con cui Dio aveva reso manifesto il Creato.

Il nuovo complesso scientifico era la geometria euclidea, una forma di matematizzazione della natura che aveva sortito effetti incredibilmente interessanti dal punto di vista sperimentale e che aveva il vantaggio della semplicità e della evidenza empirica. Una volta assunta nella comunità scientifica come paradigma epistemologico valido, la geometria venne utilizzata anche in sede filosofica per dimostrare la necessità, di volta in volta, dell’etica, della politica e della gnoseologia. A partire da Descartes, ad esempio, il legame logica-metafisica venne sostituito con il raccordo geometria-metafisica, poiché la garanzia dell’esistenza, della bontà e della veridicità della res extensa, cioè delle sostanze che occupano un posto sul piano euclideo e localizzabili attraverso un sistema di matematizzazione di tale spazio, in cui ritroviamo anche il corpo umano, è data dall’evidenza conferita dal dubbio e dal funzionamento della res cogitans. Tale sostanza pensante, per la sua immaterialità, non può che essere della stessa sostanza del buon Creatore, il quale, a sua volta, continua, nonostante tutto, a persistere nella tradizione filosofica come garante e “fondamento ultimo” di tutta la realtà.

Di portata analoga sono i tentativi di fondare sulla geometria la razionalità politica con il Leviathan di Hobbes del 1651, la razionalità etica con l’Ethica more geometrico demonstrata di Spinoza, pubblicata postuma nel 1677, ma anche la razionalità gnoseologica con La critica della ragion pura speculativa di Kant del 1781, il quale utilizza un lessico dichiaratamente euclideo fatto di postulati, assiomi, definizioni, scolii, affinché anche la conoscenza possa assumere il rigore del giudizio sintetico a priori, adoperato in sede scientifica dalla matematica e dalla geometria.

Alla fine del ‘700, dunque, pare che la questione della fondazione delle scienze, della filosofia e di tutte le conoscenze sia stata risolta in via definitiva, ma l’Ottocento si abbatte con una portata rivoluzionaria nel campo dell’epistemologia. Già nella seconda metà dell’Ottocento l’operazione di fondazione della certezza sensibile e fenomenica, rispettivamente nella coscienza soggettiva e nelle strutture universali a priori del soggetto operata da Descartes e Kant, crollano lentamente sotto i colpi dei «maestri del sospetto» – per dirla con Paul Ricoeur – cioè Marx, Nietzsche e Freud, i quali a vario titolo rendono conto di un soggetto per lo più alienato da se stesso, a causa di motivazioni contingenti che possono affondare nel contesto socio-economico, in quello dell’educazione morale e religiosa, in quello dei postulati metafisici o, infine, nella coscienza tripartita di cui affiora soltanto una minima parte, in quanto il resto è indisponibile per motivi legati ai turbamenti sessuali del soggetto.

In questo rinnovato quadro concettuale, in cui anche Dio e la religione sono risultati inservibili, perché ritenuti illusioni e inganni tesi all’uomo comune per giustificare un ordine reale che riflette quello sociale in maniera ideologica per motivi legati essenzialmente alla volontà di dominio e di potenza di alcuni a scapito di altri, un ulteriore colpo viene inferto a livello biologico e naturalistico dall’ipotesi, giudicata aberrante per quel periodo, secondo la quale l’uomo derivava addirittura da un essere invertebrato. Ciò che, però, risultava sconvolgente per la mentalità comune dell’Ottocento nell’affermazione di Jean-Baptiste de Lamark, di fatto priva di fondamenti empirici, divenne via via sempre più una realtà concreta con le osservazioni di Darwin e della sua scuola, con il risultato che tutto questo sommovimento epistemologico prima, e ideologico dopo, contribuì ulteriormente ad accrescere il senso di smarrimento per il semplice fatto che un’altra spiegazione della Creazione era sperimentalmente e scientificamente possibile.

Tuttavia, agli albori del Novecento non furono solo l’economia, l’etica, la gnoseologia, la biologia e la genetica a correre ai ripari e a rivedere i propri presupposti epistemologici, ritenuti certi fino a quel momento, ma anche la teoria musicale classica fu stravolta dall’invenzione della dodecafonia e persino le arti figurative conobbero nuove tecniche e concettualità alternative come l’espressionismo, l’astrattismo, il movimento dada.

Ad ogni modo, furono soprattutto le cosiddette scienze dure, come la geometria, la matematica e la fisica, verso la metà dell’Ottocento, ad essere inesorabilmente sconvolte da nuove acquisizioni che minarono le basi del sapere tradizionale. La loro certezza presunta e l’unicità apodittica delle loro metodologie, che si erano palesate come vera e propria fede durante il positivismo, adesso vengono messe a dura prova.

Una delle manifestazioni più eclatanti del funzionamento della Ragione multidimensionale si verifica nel campo della geometria fisica, quella preposta alla determinazione empirica dello spazio. L’unico paradigma accettato e condiviso da tutti gli scienziati fino all’Ottocento era quello riconducibile al piano individuato dal matematico greco Euclide di Alessandria, attivo intorno al 300 a. C.. Il sistema di Euclide, esposto in 15 libri, di cui gli ultimi due spuri, esponeva in via eminentemente teoretica, una serie di acquisizioni organizzate intorno ad un numero limitato di definizioni relative agli enti geometrici primitivi, a cinque postulati, a otto nozioni comuni e a una serie di 465 teoremi,i quali discendevano deduttivamente dalle definizioni, postulati e nozioni comuni precedentemente assunti per veri.

In realtà, il sistema euclideo, così composto, aveva un carattere esclusivamente assiomatico, non fisico, cioè non teso alla determinazione empirica dello spazio, ma di carattere puramente speculativo. Esso riprendeva concezioni già precedentemente formulate da Eudosso e Teeteto sulla geometria, intesa come quella parte della matematica che studia le proprietà delle figure e le relazioni tra punti, rette, piani e spazi a tre o più dimensioni.

La prima parte dell’opera di Euclide risulta composta da 23 definizioni, indicate con la parola greca óroi, cioè termini, che delimitano il campo di ciò che il matematico intende trattare, tra cui:

  • Definizione I: “Punto è ciò che non ha parti”;
  • Definizione V: “Superficie è ciò che ha soltanto lunghezza e larghezza”.

Seguono così i postulati (aitémata), cioè proposizioni non dimostrabili, ma assunte per vere a causa della loro apparente cogenza o, semplicemente, per motivi aprioristici, da cui deve essere ricavata logicamente la verità di altre asserzioni. I postulati sono esigenze ammesse surrettiziamente dal pensiero per giungere ad alcune conclusioni specifiche e vanno generalmente distinti dagli assiomi, anche se spesso si tende ad usarli indifferentemente, quantomeno per il fatto che questi ultimi, pur non essendo analogamente dimostrabili, possiedono un grado superiore di necessità dettato dall’autoevidenza e dall’immediatezza:

  • Postulato I: “Che si possa condurre una retta da un qualsiasi punto ad ogni altro punto”;
  • Postulato II: “E che una retta terminata si possa prolungare continuamente in linea retta”;
  • Postulato III: “E che si possa descrivere un cerchio con qualsiasi centro ed ogni distanza”;
  • Postulato IV: “E che tutti gli angoli retti siano uguali tra loro”;
  • Postulato V: “E che, se una retta, venendo a cadere su due rette, forma angoli interni e dalla stessa parte la cui somma è minore della somma di due retti, allora le due rette prolungate illimitatamente verranno ad incontrarsi da quella parte in cui sono gli angoli minori di due retti”.

Infine, Euclide introduce le nozioni comuni, con cui intende assumere degli enunciati primitivi che abbiano validità universale non solo nell’ambito della matematica, ma anche nelle altre forme di conoscenza e che siano immediati e autoevidenti, di fatto, assimilabili a ciò che possiamo definire assiomi, tra cui:

  • 1)      le cose uguali ad una stessa cosa sono uguali tra loro;
  • 2)      se a cose uguali si aggiungono cose uguali, le somme ottenute sono uguali;
  • 3)      se da cose uguali si tolgono cose uguali, le parti rimanenti sono uguali;
  • 4)      se cose uguali sono aggiunte a cose disuguali, le somme ottenute sono disuguali;
  • 5)      i doppi di una stessa cosa sono uguali tra loro;
  • 6)      le metà di una stessa cosa sono uguali tra loro;
  • 7)      cose che coincidono tra loro sono uguali;
  • 8)      il tutto è maggiore della parte.

Come si può notare, il carattere indimostrabile e, al tempo stesso, apodittico del «postulato» permetteva di adoperarlo in sede matematica e in sede filosofica come fondamento di tutte le argomentazioni dimostrabili, ma, di fatto, esso non era altro che il frutto di una semplice posizione. Un ulteriore passo avanti nella configurazione della Ragione classica venne fatto quando il postulato divenne tale per mezzo di una rivelazione con la quale l’Essere si concedeva all’uomo nelle forme fisiche e naturali entificabili, ma senza una reale evidenza empirica. Da questo punto di vista, la sacralità che la matematica e la geometria assumevano nel contesto greco e soprattutto pitagorico, che ne faceva un sapere esoterico, misteriosofico ed iniziatico, viene trasposta nella scienza secentesca galileiana, la quale non fa mistero di trattare la natura come una serie di enti che rappresentano il linguaggio in cui la divinità si è espressa, linguaggio che ha la stessa dignità di quello delle Sacre Scritture.

All’alba del 1733 è proprio la concezione sacra del «postulato» che impedisce al gesuita padre Giovanni Girolamo Saccheri di proseguire oltre le intuizioni che egli stesso aveva avuto intorno al V postulato di Euclide. Nel 1733, infatti, Saccheri, poco prima di morire, scrive un testo fondamentale per la storia della geometria, dal titolo Euclide ab omni naevo vindicatus (Euclide emendato da ogni neo) con cui tenta di rendere ragione del V postulato che, pur ritenendolo vero, secondo lo studioso, in realtà, si presenta come una proposizione che Euclide avrebbe dovuto dimostrare, cioè, una petizione di principio.

Molti matematici arabi e rinascimentali avevano provato invano a comprendere meglio il V postulato, ma Saccheri imbocca un tentativo di dimostrazione per assurdo di due delle tre ipotesi che si possono ricavare da quel postulato e procedendo con l’assunzione delle prime due ipotesi come vere, egli si accorge che in qualche parte si ricavano delle contraddizioni con le proposizioni precedenti, pertanto non resta che ammettere la verità della terza ipotesi, come voleva Euclide.

A ben vedere, se del V postulato si assume la formulazione comunemente accettata, cioè quella del matematico e reverendo scozzese John Playfair nel ‘700, cioè: «Data una qualsiasi retta r ed un punto P non appartenente ad essa, è possibile tracciare per P una ed una sola retta parallela alla retta r data», le intuizioni di Saccheri si trasformano rispettivamente nelle seguenti ipotesi:

  • 1. per P passano infinite parallele alla retta data;
  • 2. per P passa nessuna parallela alla retta data;
  • 3. per P passa una ed una sola retta parallela a quella data.

Una volta caduto l’impedimento che non consente a Saccheri di andare oltre il suo concetto errato di infinito e superato il timore reverenziale per un autore considerato l’emblema del rigore dimostrativo, nella prima metà dell’800 il fisico tedesco Karl Friedrich Gauss con un approccio sperimentale, registra che nella triangolazione di Hannover, ottenuta ponendo tre osservatori sulla cima di altrettante montagne, si aveva un’aberrazione nella somma degli angoli interni al triangolo così ottenuto. Si trattava di 2” di grado in meno rispetto a 180°, ma Gauss non era disposto a lasciare che le sue intenzioni circa la possibilità di costruire geometrie non euclidee fossero demolite a causa dell’imputazione dello scarto angolare a semplici errori strumentali, perciò non pubblicò i risultati delle sue indagini.

Sempre nell’ambito della geometria fisica, il matematico russo Nikolaj Ivanovic Lobacevskij nello stesso periodo, nel tentativo di misurare lo spazio tra la Terra, il Sole e la stella Sirio, trovò anch’egli un’aberrazione di pochissimi millesimi di secondo rispetto a 180° e, pur pensando ad un’imperfezione strumentale, ciò bastò per formulare, indipendentemente dal matematico ungherese Janos Bolyai, i presupposti di una geometria non euclidea.

Lobacevskij e Bolyai sono ritenuti unanimemente i fondatori di quella particolare geometria definita «iperbolica», caratterizzata dal fatto di ammettere che la somma degli angoli interni di un triangolo è inferiore rispetto a 180° e, quindi, data una retta r ed un punto P esterno alla retta, per questo punto passano almeno due rette parallele a quella data, anche se in verità tali parallele risulterebbero infinite.

Nel 1867 viene, inoltre, pubblicato postumo un testo del matematico tedesco Bernhard Riemann dal titolo Intorno alle ipotesi che sono alla base della geometria in cui vengono esposti tutti i possibili modelli di geometria fisica conosciuti fino a quel momento. A livello intuitivo, se la prima ipotesi formulata da Saccheri aveva trovato una linea interpretativa per la fondazione della geometria iperbolica, anche la seconda avrebbe potuto sortire effetti analoghi ed è proprio in questo senso che Riemann riesce ad elaborare un sistema geometrico non euclideo definito «geometria ellittica». L’assunto di base di tale sistema era che la somma degli angoli interni di un triangolo risultava superiore a 180° e, in generale, affermava che dato un punto P esterno ad una retta r, per quel punto non passa nemmeno una retta parallela a quella data.

Come conseguenza di questo sistema geometrico alternativo, Riemann giunse anche alla ridefinizione del concetto di infinito e alla definizione della curvatura dello spazio. Un’interessante ed esplicativa dimostrazione di tale modello geometrico è stata formulata dal matematico tedesco Felix Klein, il quale spiega che, se si considera il V postulato all’interno di un piano delimitato da una circonferenza, è autoevidente che per un punto P esterno ad una retta data r passano infinite rette che non incontrano la retta data.

La formulazione delle geometrie ellittiche ed iperboliche ebbe l’indubbio effetto di minare alla base l’edificio solido della Ragione classica e del pensiero unico che, una volta demoliti, diedero la stura alla sperimentazione di una miriade di modelli geometrici, segnando il passaggio non tanto semplicemente dalla Ragione classica a quella moderna, come fosse da un paradigma ad un altro, ma propriamente l’apertura ad un tipo di Ragione multidimensionale, in cui tutti gli approcci erano legittimi ed equivalenti.

Nel quadro delle geometrie non euclidee, infatti, si fece strada anche la «geometria del taxi» o «distanza di Manhattan» del matematico Hermann Minkovski. Egli partì dal presupposto della verità del V postulato, ma mise in discussione il primo criterio di congruenza dei triangoli e così giunse alla conclusione che, concretamente, un taxi all’interno di un piano caratterizzato da isolati quadrati non può muoversi in maniera obliqua, ma deve percorrere tutti i lati degli isolati e quindi individuare la distanza più breve tra due punti nel piano.

Un altro modello di geometria non euclidea, reso possibile grazie allo scardinamento epistemologico operato nell’Ottocento, fa riferimento alla «geometria dei frattali» del matematico polacco naturalizzato francese Benoît Mandelbrot. Negli anni ’70 del Novecento, in un sistema epistemologico dominato dal concetto di complessità, Mandelbrot affermò che la geometria euclidea non rispecchia molti fenomeni naturali, i quali si manifestano perlopiù sotto forma di schemi complessi e ripetitivi. Con il neologismo frattale, dunque, Mandelbrot intese delle forme o degli schemi che nella natura si ripetono con le stesse proporzioni, ma con grandezze diverse come ad esempio il disegno geometrico di una foglia, dei rami, dei fiori, o lo schema dei bordi delle nuvole e della neve. Lo stesso Mandelbrot illustrò, a titolo esemplificativo, che nel cavolfiore, se si stacca un pezzo, quest’ultimo riprende in tutto la configurazione di un cavolfiore di piccole dimensioni[5].

A partire dalla scoperta delle geometrie non euclidee, dunque, si comprese che la certezza della geometria tradizionale, modello del rigore fondativo, non era basata su presupposti veri, ma su postulati assunti arbitrariamente, anche se intorno ad essi era stato costruito un edificio logicamente coerente. Tutto ciò metteva in movimento il bisogno, a livello epistemologico, di ridefinire il rapporto generale tra la coerenza logica di un sistema e la corrispondenza con la realtà, vale a dire chiarire il problema dell’evidenza empirica di un costrutto e, non da ultimo l’esigenza di fondazione.

Se l’edificio della geometria euclidea si era lentamente sgretolato sotto i colpi delle geometrie non euclidee, la matematica, in quanto scienza che studia le proprietà di enti astratti quali numeri e figure, di cui la geometria ne è una branca fondamentale, non resta indifferente alla revisione epistemologica. Occorreva, in questo momento, qualcosa di diverso, un punto archimedeo necessario per dare una fondazione trascendentale, cioè inerente le condizioni di possibilità, su cui radicare tutte le strutture matematiche.

Un primo tentativo di fondazione fu percorso da matematici come Richard Julius Dedekind e Georg Cantor nella seconda metà dell’Ottocento all’interno di un indirizzo definito «riduzionismo». Entrambi operarono, infatti, una riduzione della matematica all’aritmetica, ritenendo il numero quale fondamento ultimo di tutta la scienza. In particolare, Dedekind cercò di costruire un sistema matematico basato non sull’intuizione, ma esclusivamente sui procedimenti logico-matematici, assumendo il numero all’interno di una continuità definita per mezzo di insiemi. Ma è con Cantor che la teoria degli insiemi viene generalmente ammessa per dare un rigore logico alle argomentazioni matematiche, aprendo la strada alle riflessioni di Gottlob Frege e Bertrand Russel.

A questi due autori si fa risalire comunemente il «logicismo», un indirizzo di studi teso alla riduzione della matematica alla logica. Frege, analogamente a Dedekind e Cantor, intese innanzitutto sgominare il campo da qualsiasi fondazione intuitiva o psicologica della matematica e pertanto dimostrò che la verità delle nozioni matematiche può essere perseguita solo se si ammette che i numeri e gli enti matematici esistono indipendentemente dal soggetto che li pensa. Come si può immaginare, tale impostazione metteva capo ad una concezione platonica e realistica degli enti matematici, i quali si connettevano tra di loro all’interno di un sistema di logica formale predisposto ad hoc. Infine, per conseguire una fondazione logica del numero su basi non empiriche, Frege definì lo 0 come quel concetto puramente logico, privo di estensione e contenuto empirico, e il numero 1 come quel concetto che segue lo 0 e così via, introducendo alcuni principi interessanti circa la successione e l’estensione delle classi di elementi.

Bertrand Russel, tuttavia, pur avendo accolto le conseguenze di Frege e condiviso l’indirizzo logicista, notò ad un certo punto alcune antinomie all’interno della trattazione fregeana. Russel non fa altro che rivangare il vecchio paradosso di Eubulide su Epimenide il cretese, il quale affermava che tutti i cretesi erano mentitori, e applicarlo alla teoria di Frege con il famoso paradosso del barbiere: «In un villaggio vi è un solo barbiere, un uomo ben sbarbato, che rade tutti e soli gli uomini del villaggio che non si radono da soli. Il barbiere rade se stesso?»

Il paradosso consiste nel fatto che alcune classi di oggetti o concetti contengono se stesse, mentre altre no. Russel definisce “normali” le classi che non contengono se stesse, come ad esempio la classe delle tazze da tè, la quale contiene solo tazze da tè e non l’insieme stesso delle tazze, mentre definisce “non normali” le classi che contengono se stesse, come ad esempio la classe di concetti astratti, la quale comprende anche se stessa perché contiene il concetto di “classe dei concetti astratti” che è ovviamente un concetto astratto. Se si prende in considerazione la classe di tutte le classi normali, cioè di quelle che non contengono se stesse per definizione, ci si accorge che questa contiene anche se stessa, quindi è non normale, il che è una palese contraddizione[6]. Pur evidenziando tali antinomie, Russel rimase sempre all’interno dal paradigma logicista, cercando di risolvere la questione per mezzo della cosiddetta “teoria dei tipi”.

L’insistenza sull’aspetto logico, che condusse Frege verso una forma di realismo e platonismo, venne in qualche modo approfondita dal matematico tedesco David Hilbert, il quale con l’indirizzo del «formalismo» cercò di dimostrare che la matematica non era altro che un sistema logico formale con cui si potevano manipolare segni privi di significato. Hilbert passò così alla predisposizione di una “teoria della dimostrazione”, chiamata “metamatematica”, con cui era possibile rendere ragione della coerenza del sistema per mezzo di regole ben definite attraverso un linguaggio formalizzato, evitando qualsiasi tentativo di cadere in contraddizione.

Un indirizzo di matrice essenzialmente antilogicista fu quello del «predicativismo» del matematico francese Jules-Henri Poincaré, il quale fondò il numero sull’induzione, cioè sulla capacità di risalire a operazioni già fatte un numero finito di volte, infatti un ente matematico non può essere costruito in relazione ad un sistema non compiuto. Poincaré ritenne che la teoria degli insiemi fosse un «meraviglioso caso patologico», estraneo alla matematica e argomentò circa la convenzionalità della rappresentazione dei rapporti tra enti matematici di per sé inaccessibili.

Sulla medesima linea teorica si colloca il matematico olandese Jan Luitzen Egbertus Brouwer, cui si fa risalire l’indirizzo dell’«intuizionismo». Ciò che si registra con Brouwer è un sostanziale ritorno a Kant, per cui la matematica trova la sua fondazione nell’intuizione pura di spazio all’interno della mente del soggetto. Il linguaggio, caro al formalismo, per mezzo del quale si esplicano i concetti matematici, ritenuto un mezzo meramente comunicativo, e la logica, adoperata dal logicismo come fondamento, sono costruzioni successive rispetto all’intuizione e alla “matematica interiore”, la quale dà ordine al reale matematizzabile soggettivamente.

Come si può ben comprendere, l’esistenza di più paradigmi interpretativi e fondativi, nonché il manifestarsi in sede matematica e logica di una serie di antinomie, paradossi e aporie, come quelle di Russel sugli insiemi, ma anche quelle relative all’impossibilità della quadratura del cerchio, appurata in via definitiva dal matematico Ferdinand von Lindemann nel 1882 con l’affermazione della trascendenza del π, contribuirono ulteriormente a gettare nello smarrimento gli intellettuali di fine ‘800 e inizio ‘900 e a testimoniare un passaggio epocale, anche attraverso la matematica, verso una Ragione non più univoca, ma multidimensionale.

Era necessario fare ordine tra tutti i modelli matematici proposti e così, in primo luogo, l’opzione intuizionista venne subito ritenuta impraticabile perché non specificamente matematica e tendente ad introdurre surrettiziamente nelle scienze dure una tendenza psicologista rifiutata dalla maggior parte degli addetti ai lavori, salvo poi riemergere in seguito sotto le vesti della fenomenologia[7].

I paradigmi più accreditati, dunque, rimanevano quello logicista e quello formalista, almeno fino al 1931. Questa data segna un momento fondamentale nella storia della matematica perché vide la pubblicazione di un articolo dal titolo Su proposizioni formalmente indecidibili dei Principia mathematica e sistemi affini del logico austriaco Kurt Gödel, all’epoca appena venticinquenne, in cui venivano presentati alla comunità scientifica i due famosi «teoremi di incompletezza». Il primo teorema era diretto essenzialmente contro il logicismo e affermava che tutti i sistemi matematici sono sintatticamente incompleti perché non riescono a mostrare logicamente alcune proposizioni la cui verità va ricercata solo in termini informali, vale a dire che «non tutte le verità matematiche sono verità logiche». Con il secondo teorema d’incompletezza Gödel intese demolire l’edificio del formalismo, il quale perseguiva la coerenza interna, affermando che non è possibile dimostrare la coerenza di un sistema dall’interno del sistema stesso e pertanto la non contraddittorietà è indecidibile. Come conseguenza, i due teoremi non lasciavano dubbi in relazione al fatto che i tentativi congiunti di perseguire la coerenza e la fondazione della matematica erano pressoché impossibili: se si perseguiva la fondazione per mezzo della logica, sfuggiva la coerenza, se si perseguiva la coerenza per mezzo del linguaggio formale, sfuggiva la fondazione.

Il principio d’incompletezza prestava bene il fianco ad un’altra interessante scoperta avvenuta in sede di fisica teorica, cioè il «principio d’indeterminazione» di Heisenberg. Inoltre, l’incompletezza del formalismo e del logicismo riabilitava di fatto una certa riflessione orientata al ruolo dell’intuizione nel processo logico che, con il matematico tedesco Edmund Husserl, padre della fenomenologia, venne radicata nel postulato della coscienza intenzionale, la quale tende verso un oggetto specifico per la sua conoscenza.

Nella sua prima opera, infatti, intitolata Filosofia dell’aritmetica[8], Husserl aveva insistito sulla caratteristica degli enti matematici di sottrarsi a ogni definizione logico-formale, fondando così una psicologia descrittiva, poi chiamata fenomenologia, con cui si rende ragione del processo di conoscenza per mezzo di un’intuizione empirica, tesa a cogliere l’oggetto, cui fa seguito un’intuizione categoriale che giunge alla configurazione di una forma universale in sé. Gli sviluppi e le eresie della fenomenologia husserliana nel ‘900 dominano tutta la scena culturale e filosofica, prendendo le mosse dal fatto che alle scienze dure sfugge l’importanza della soggettività e dal fatto che il senso delle cose è dato a livello soggettivo per mezzo di un linguaggio ordinario (precategoriale), il quale funge da mediatore per il linguaggio simbolico.

Infine, la dimostrazione di Gödel dell’impossibilità della fondazione non vuol dire, tout court, che non è possibile una giustificazione della teoria: se non si può andare indietro genealogicamente per comprendere ciò che è alla base della teoria matematica, è però possibile giustificarne l’uso e la tenuta ricorrendo a teorie “più potenti”, accettate e condivise per motivi pratici, politici e sociali, legati al contesto storico in cui si sono prodotte. Da questo punto riparte il dibattito novecentesco intorno alla giustificazione epistemologica che ha per protagonisti Karl Popper, Thomas Kuhn, Imre Lakatos per finire con Paul Feyerabend, testimone principale dell’affermazione della Ragione multidimensionale con il principio dell’«anarchismo metodologico».

Tutta la fisica sperimentale di stampo newtoniano, in auge a partire dalla fine del ‘600, poggiava su tre branche principali, la cui certezza apodittica era stata appurata progressivamente da numerosi studiosi. Si trattava della meccanica, che si occupava dello studio del moto dei corpi, dell’elettromagnetismo, interessato ai fenomeni elettrici e magnetici, e della termodinamica, legata all’analisi dei fenomeni connessi con l’energia, il lavoro e il calore che si ottiene dall’agitazione delle molecole delle sostanze. In quanto sistemi indipendenti, meccanica, elettromagnetismo e termodinamica, vantavano sicuramente un alto grado di coerenza interna, ma l’articolazione tra di loro risultava alquanto problematica, dacché proprio la terza branca, lanciando lo sguardo sulle prime due per mezzo del secondo principio della termodinamica, cominciava a mettere in dubbio la reversibilità dei processi fisici e, in particolare, la riconducibilità di tutte le forme di energia a quella meccanica, così come invalso nel paradigma meccanicista newtoniano. Il secondo principio della termodinamica afferma, infatti, che l’energia termica va incontro ad una progressiva dissipazione nell’universo e, di conseguenza, essa non è riconducibile all’energia meccanica.

Questa idiosincrasia a livello di compatibilità sistemica rivelò una più netta esigenza di rivedere il rapporto tra osservazione empirica ed elaborazione speculativa delle teorie. Ciò che veniva messo in questione da Albert Einstein, ad esempio, era la validità epistemica dell’induttivismo newtoniano, il quale pretendeva di indurre le teorie dalla generalizzazione dei fenomeni empirici osservati. A ben vedere, la scienza, secondo Einstein, procede diversamente, nel senso che parte da un’ipotesi speculativa e poi la verifica sul campo, adottando uno schema chiaramente deduttivo.

Una teoria fisica risulta così composta in primo luogo da un apparato speculativo e congetturale, solo in secondo luogo da osservazioni e misurazioni che hanno lo scopo di confermare o confutare quella stessa teoria, o come dirà Karl Raimund Popper in Congetture e confutazioni[9], corroborarla o falsificarla.

Ciò che concretamente determinò una crisi senza precedenti nell’ambito delle scienze fisiche furono due nuove acquisizioni: la «teoria della relatività» ristretta e allargata di Einstein e la «meccanica quantistica», formulata a partire da Max Planck. Le conseguenze di queste due rivoluzionarie teorie fisiche portarono alla formulazione dei principi di «complementarietà», di «indeterminazione» e del «probabilismo».

Il significato strettamente filosofico della teoria della relatività era riposto essenzialmente sulla confutazione dei concetti di spazio o tempo invalsi nella fisica newtoniana e, di riflesso, anche nella filosofia kantiana. In sostanza, la fisica newtoniana si poggiava su una concezione assoluta dello spazio e del tempo, che in Kant vengono assunti come forme a priori della conoscenza, strutture trascendentali che determinano le condizioni di possibilità della conoscenza.

La teoria della relatività ristretta o speciale, applicabile soltanto ai sistemi inerziali, cioè a quelli che si muovono di moto rettilineo uniforme fu diffusa nel 1905 ed ebbe un significato profondo nel tentativo di unificare la meccanica e l’elettromagnetismo. In particolare, i risultati delle ricerche di Einstein conducevano alla statuizione che spazio e tempo non sono concetti assoluti, ma dipendenti dal sistema di riferimento scelto, e per di più, spazio e tempo non sono indipendenti, bensì intrecciati in un’unica unità concettuale e strutturale chiamata «spazio-tempo»[10].

Dopo aver ricavato la formula di conversione della massa in energia, cioè E = mc2 , Einstein nel 1916 diffonde la cosiddetta teoria della relatività generale, il cui significato filosofico ed epistemologico più interessante è riposto nel fatto che la forza di gravità viene completamente ripensata. La gravità, infatti, viene inserita in un quadro geometrico non euclideo con il risultato che lo spazio-tempo viene pensato come curvo e non più piatto, ipotesi verificata quando si scoprì che anche i raggi luminosi di alcune stelle, rilevati nei pressi del Sole, subivano delle curvature.

D’altro canto, il nucleo centrale della meccanica quantistica, interessata esclusivamente ai fenomeni microscopici e subatomici, era riposto nella tesi secondo la quale l’energia non viene emessa in quantità casuali e continue, ma è distribuita per mezzo di pacchetti discreti, detti fotoni o quanti, cioè particelle di grandezza costante, come fossero mattoncini, secondo l’immagine adottata anche da Robert Gilmore nel suo Alice nel paese dei quanti[11]. La conseguenza più immediata di questa nuova acquisizione era che la luce poteva essere studiata non solo con un paradigma ondulatorio, ma anche con un programma scientifico di carattere corpuscolare.

Si trattava di una rivoluzione concettuale e procedurale di proporzioni enormi che giunse nel 1927 con Niels Bohr all’affermazione del «principio di complementarietà», secondo il quale tutti gli enti materiali possono essere indagati in quanto onde o in quanto corpuscoli, ma a patto che lo si faccia in maniera discriminata e mai simultaneamente. Questo dualismo onda-corpuscolo dal punto di vista meramente filosofico testimonia l’impossibilità della certezza sperimentale dell’indagine fisica, la quale, per essere intrapresa, ha già bisogno di un quadro di riferimento ben definito, che nella fattispecie può essere articolato intorno alla costruzione teorica dell’onda oppure intorno alla costruzione altrettanto speculativa del corpuscolo, all’interno delle quali si fanno quadrare i dati empirici.

Come se non bastasse nel 1958 il fisico tedesco Werner Heisenberg pubblicò un testo dal titolo Fisica e filosofia[12], in cui contestò l’assoluta certezza e il determinismo assoluto della concezione meccanicistica della fisica. Quest’ultimo punto di riferimento, infatti, aveva l’ardire di sbandierare la possibilità di prevedere ogni fenomeno naturale, ciò che lo distingueva dalle presunte profezie religiose e politiche del cristianesimo e del marxismo. Con il «principio di indeterminazione» il dubbio penetrava nell’essenza della fisica, dominata sin dalle sue origini greche dal determinismo atomico, perché veniva sentenziata l’impossibilità, a livello subatomico, di determinare con esattezza lo stato di alcuni sistemi.

Heisenberg intendeva affermare, in sostanza, un principio già condiviso dall’ermeneutica e nella metodologia storiografica, secondo il quale lo studioso, l’osservatore, con il suo comportamento modifica l’oggetto osservato e quindi, di conseguenza, tutto il campo. A livello microscopico, dunque, risulta che la conoscenza delle condizioni iniziali di un sistema non determina necessariamente la previsione sulla sua evoluzione. In particolare, Heisenberg affermava che nel contesto subatomico è possibile determinare la velocità di una particella solo rinunciando alla determinazione della sua posizione, la quale può essere conosciuta in termini meramente probabilistici.

L’abbandono del paradigma epistemologico del determinismo meccanicista in fisica conduceva verso gli anni ’60-’70 anche all’abbandono del valore ontologico dello stesso determinismo in tutti i settori, il quale venne lentamente sostituito da una lettura probabilistica dei fenomeni, sia naturali sia spirituali, introducendo il germe dell’incertezza, della fine delle illusioni di chiaroveggenza.

Il concetto di probabilismo era già noto in fisica, ma era limitato al basso grado di certezza che una prima misurazione poteva sortire a causa dei limiti degli strumenti adottati, della struttura sensoriale dello scienziato coinvolto e, infine, ai limiti derivanti dall’interazione tra scienziato e strumento. Ciononostante, era comunque ritenuto possibile ridurre il margine di probabilità per mezzo di osservazioni sistematiche e ripetute, fino a stabilire delle tabelle che prevedessero statisticamente il grado d’incertezza del calcolo.

Con le acquisizioni della meccanica quantistica il probabilismo penetrò nell’essenza stessa del fenomeno, giacché era la natura della particella in questione ad essere ontologicamente indeterminabile all’analisi descrittiva completa. La consapevolezza di questi limiti condusse, dunque, i più grandi teorici della fisica a riavvicinarsi alle argomentazioni della filosofia, dal momento che la loro separazione epistemologica e l’adozione di una metodologia presuntuosamente apodittica da parte della fisica aveva condotto le scienze umane dapprima all’emulazione di quella stessa metodologia, alla ricerca di una fondazione ontologica in virtù delle certezze scientifiche, ma poi, già ai primi del ‘900, in filosofia l’impianto ontoteologico cominciò a vacillare sotto i colpi dell’esistenzialismo e della fenomenologia.

Il significato filosofico di questa rivoluzione occorsa congiuntamente nella geometria, nella matematica e nella fisica è riposto, dunque, nel fatto che la percezione dei fenomeni e, più in generale del mondo, ai primi del ‘900 non è più concepita come semplice e lineare, per cui basta avere accesso alle strutture fondative e mettere in campo le condizioni di possibilità della Ragione universale affinché qualsiasi soggetto possa averne una rappresentazione deterministica. Si fa strada l’idea che i fenomeni fisici, così come quelli inerenti la sfera della persona e della società, siano dominati dalla «complessità» e che quindi quel modello di razionalità oggettivistica tipica dell’Ottocento non sia più utile e funzionale alla lettura della realtà. Cadono così tutte le pretese di fondazione del sapere, tutti i sistemi chiusi e onnicomprensivi dal passato, ma ciò non significa che, come tali, le filosofie e le metodologie di indagine dei fenomeni già formulate debbano essere accantonate definitivamente, ma solo che il soggetto si assume la completa responsabilità etica, per gli effetti che essa può generare, del percorso da intraprendere, del metodo e degli strumenti da utilizzare e degli obiettivi che s’intende raggiungere.

Tutto questo discorso sulla Ragione multidimensionale in atto nelle scienze dure ha il precipuo scopo di mostrare allo studente che si approccia alle discipline scientifiche e tecniche il grado di responsabilità di cui è investito anche lo scienziato.

In ultima analisi occorre evitare che le implicazioni morali, che ineriscono tutte le professioni, non diventino solo elucubrazioni intellettualistiche di alcuni filosofi, ma risultino legate alle scelte che di volta in volta qualsiasi professionista intraprende in relazione agli obiettivi da raggiungere e ai mezzi, e quindi alle tecniche, da adoperare in vista di quegli obiettivi. Solo così la filosofia può tornare ad avere un ruolo degno d’interesse all’intero della scuola ed evitare di essere un sapere autoreferenziale e scollegato dalla realtà nella quale i nostri studenti sono inseriti.

  • H. Albert, Difesa del razionalismo critico, Armando, Roma 1975.
  • A. Einstein, L. Infeld, L’evoluzione della fisica. Sviluppo delle idee dai concetti iniziali alla relatività e ai quanti, Bollati Boringhieri, Torino 2000.
  • M. Heidegger, Dell’essenza della verità, in Segnavia, Adelphi, Milano 1987.
  • W. Heisenberg, Fisica e filosofia, Il Saggiatore, Milano 2013.
  • E. Husserl, Filosofia dell’aritmetica, Bompiani, Milano 2001.
  • E. H. Hutten, Le origini storiche e psicologiche della scienza, Armando, Roma 1972.
  • B. Mandelbrot, La bellezza dei frattali, Bollati Boringhieri, Torino 1988.
  • P. Odifreddi, C’era una volta un paradosso, Einaudi, Torino 2006.
  • K. R. Popper, Congetture e confutazioni. Lo sviluppo della conoscenza scientifica, Il Mulino, Bologna 2009.
  • M. Signore (a cura di), Allargare gli orizzonti della razionalità, Pensa Multimedia, Lecce 2011.
  • O. Todisco, La crisi dei fondamenti. Introduzione alla svolta epistemologica del XX secolo, Borla, Roma 1984.

[1] Cfr. M. Signore (a cura di), Allargare gli orizzonti della razionalità, Pensa Multimedia, Lecce 2011.

[2] M. Heidegger, Dell’essenza della verità, in Segnavia, Adelphi, Milano 1987, p. 137.

[3] Cfr. H. Albert, Difesa del razionalismo critico, Armando, Roma 1975; Id., Sapere, fede e certezza. Saggi su razionalismo critico e religione, Barbieri Selvaggi, Manduria 2008.

[4] O. Todisco, La crisi dei fondamenti. Introduzione alla svolta epistemologica del XX secolo, Borla, Roma 1984, p. 14.

[5] Cfr. B. Mandelbrot, La bellezza dei frattali, Bollati Boringhieri, Torino 1988.

[6] Cfr. P. Odifreddi, C’era una volta un paradosso, Einaudi, Torino 2006.

[7] Cfr. E. H. Hutten, Le origini storiche e psicologiche della scienza, Armando, Roma 1972.

[8] E. Husserl, Filosofia dell’aritmetica, Bompiani, Milano 2001.

[9] K. R. Popper, Congetture e confutazioni. Lo sviluppo della conoscenza scientifica, Il Mulino, Bologna 2009.

[10] Cfr. A. Einstein, L. Infeld, L’evoluzione della fisica. Sviluppo delle idee dai concetti iniziali alla relatività e ai quanti, Bollati Boringhieri, Torino 2000.

[11] R. Gilmore, Alice nel paese dei quanti. Le avventure della fisica, Cortina Raffaello, Milano 1996.

[12] W. Heisenberg, Fisica e filosofia, Il Saggiatore, Milano 2013.

In AA.VV., Verso una nuova ragione. Modelli di razionalità a confronto, Aracne, Roma 2015.

ML (2015) per Agorasofia

Lascia un commento