“Atti del Convegno – Il Tempo nel tempo del 30 aprile 1994” da Synthesis gennaio – aprile 1994, pag. 27

L’origine quantistica dell’asimmetria temporale

Ignazio Licata

La freccia del tempo
«... E ora egli mi ha preceduto soltanto di poco nel dire addio a questo strano mondo. Ciò non significa niente per noi fisici, convinti che la distinzione tra passato, presente e futuro sia soltanto un'illusione, anche se ostinata». Così scriveva Einstein il 21 marzo 1955, a pochi mesi dalla sua morte, ai familiari di Michelangelo Besso, con il quale aveva vissuto una lunghissima amicizia basata sulle comuni passioni per la musica e per i problemi epistemologici. Negli ultimi mesi avevano dibattuto sulla questione del tempo, trovandosi su posizioni radicalmente opposte. Il passo citato può essere visto come un'ultima replica di Einstein all'amico e, insieme, come l'espressione di una concezione del tempo largamente diffusa tra i fisici e in evidente contrasto con il senso comune. Ciascuno di noi ha un'idea intuitiva della nozione di tempo, come qualcosa che “scorre” dal passato verso il futuro. Questa concezione nasce essenzialmente dal fatto che osserviamo dei fenomeni naturali che consistono nella continua creazione, modificazione ed evoluzione di strutture. Noi stessi siamo un processo di questo tipo. Ciò suggerisce non soltanto l'idea di una serialità continua necessaria per la descrizione dei fenomeni, ma anche che questa serialità abbia una direzione, cosa che si esprime parlando di una freccia del tempo.
Quello che ci proponiamo in questa sede è di esaminare se una tale nozione è davvero un'ostinata illusione o se effettivamente trova riscontro in qualche caratteristica strutturale del mondo fisico. Prima di iniziare è necessaria un'avvertenza preliminare: per quanto visto dall'esterno l'edificio della fisica teorica appaia estremamente solido, le sue fondamenta sono ingannevolmente paludose, e questo è vero in particolar modo per i concetti di spazio e di tempo. Nessuna legge fisica può essere enunciata senza essere collocata in un opportuno contesto spazio-temporale, ma soltanto in questo secolo, con lo sviluppo della relatività e della teoria quantistica, ci si è resi lentamente conto di come le teorie fisiche dipendano drasticamente dal tipo di opzione epistemologica che si fa sulla natura dello spazio e del tempo.
La nostra riflessione muove dalla consapevolezza, comune ad un ristretto ma crescente numero di fisici, che la “sintassi” attuale della fisica sia in via di esaurimento, cosa che si manifesta attraverso due “sintomi” diversi e complementari: da una parte è impossibile porre, all'interno delle attuali impostazioni, molte questioni relative alla struttura delle particelle ed ai problemi unitario e cosmologico, che vengono così “rimosse” tramite soluzioni che si mostrano sempre più insoddisfacenti a un esame critico; viceversa, si assiste ad una proliferazione incontrollata di un gran numero di teorie formalmente impeccabili ma concettualmente confuse e sostanzialmente infeconde. L'esperienza ci insegna che il rinnovamento di una disciplina passa attraverso il ripensamento critico dei suoi fondamenti. Siamo dunque convinti che la riflessione sulla nozione di tempo può rivelarsi estremamente fruttuosa se condotta non soltanto sulla disamina critica delle attuali concezioni, ma sopratutto sulle suggestioni che provengono dalle nuove interpretazioni della meccanica quantistica e della cosmologia.
Dal punto di vista geometrico la fisica descrive il tempo come uno spazio uni-dimensionale continuo tramite una variabile reale. La proprietà fisica più importante è l'omogeneità: si assume che le leggi fisiche siano invarianti per traslazioni temporali. Questo vuol dire che ci aspettiamo che una qualsiasi legge fisica, nel suo range di definizione, sia valida indipendentemente dall'istante considerato. Naturalmente è possibile che alcune grandezze varino in funzione del tempo, però l'omogeneità richiede che la forma della legge resti immutata. Una proprietà analoga è postulata per lo spazio ordinario della nostra esperienza fisica, descritto attraverso una metrica tri-dimensionale: si tratta dell'isotropia, ossia della richiesta che le leggi fisiche rimangano invariate nella forma indipendentemente dal particolare punto dello spazio considerato. In generale, l'isotropia e l'omogeneità dello spazio-tempo rispetto alle leggi fisiche può a buon diritto considerarsi l'assioma fondamentale della fisica. È evidente, infatti, che se le leggi fisiche cambiassero arbitrariamente da una zona all'altra del “tessuto” spazio-temporale nessuna fisica sarebbe pensabile. Questa uniformità dello spazio-tempo è il requisito essenziale per selezionare la classe degli osservatori inerziali, ossia degli osservatori privilegiati per costruire una fisica universalmente valida. Ogni livello dello sviluppo della fisica ha formulato diversamente, in base al suo contenuto, il principio di isotropia ed omogeneità dello spazio-tempo: nella fisica classica questa simmetria viene espressa dal gruppo di Galilei, mentre nella fisica relativistica si usa il gruppo di Lorentz, del quale il precedente è un caso particolare. Tali gruppi servono dunque per correlare le osservazioni di due diversi sistemi inerziali.
La controversa questione della freccia del tempo può porsi in questi termini: andare avanti o indietro sull'asse temporale è come andare avanti o indietro in una direzione spaziale? La risposta non è così ovvia come può sembrare a prima vista. È chiaro che si può sempre tornare al punto di partenza ma non si può “tornare” a due giorni fa. Per comprendere bene cosa intendesse Einstein affermando che la distinzione tra passato e futuro è illusoria, bisogna introdurre una distinzione tra i fenomeni fisici e le leggi che li descrivono. Le leggi di Newton, le equazioni di Lagrange e di Hamilton per la meccanica classica, le equazioni di Maxwell per la teoria elettromagnetica, quelle della relatività generale di Einstein per il campo gravitazionale, le equazioni di Schroedinger, di Klein-Gordon e di Dirac in fisica quantistica: tutte rimangono inalterate se invertiamo la direzione del tempo, se sostituiamo la coordinata t con (-t). È semplicemente questo che si intende quando si afferma che le leggi della fisica sono reversibili nel tempo e pongono su un piano di perfetta parità il passato ed il futuro. Ma ciò altro non è che una verifica matematica del ben noto principio di omogeneità del tempo che abbiamo già brevemente esaminato. Questa caratteristica delle leggi fisiche, di poter essere usate indifferentemente in ogni punto dell'asse del tempo, non deve assolutamente sorprenderci, visto che sono state costruite proprio su questa richiesta fondamentale. Le leggi fisiche mirano ad estrarre, per così dire, l'essenza strutturale di un fenomeno, tralasciandone gli aspetti particolari e contingenti.
Il fatto è che nei processi reali del mondo fisico c'è molto di più di quanto non ci sia in quelle loro immagini stilizzate che sono le leggi. Innanzitutto proprio quegli aspetti “particolari e contingenti” giocano un ruolo chiave nell'uso delle leggi per la descrizione e la previsione dei fenomeni. Come è noto, le condizioni iniziali ed al contorno costituiscono proprio l'informazione relativa alle caratteristiche peculiari di un processo fisico che è necessario “immettere” nell'espressione della legge per ricavarne la storia dinamica. Data una completa descrizione del campo gravitazionale e note le masse in gioco, è impossibile descrivere la traiettoria di un asteroide senza assegnare posizione e velocità di questo ad un istante dato relativamente ad un osservatore. Un pendolo può essere messo in oscillazione dando un colpo da destra verso sinistra o viceversa, ad un preciso istante.
Le leggi fisiche descrivono classi di fenomeni e non processi particolari. Per questo è necessario disporre di una maggiore quantità di informazione costituita proprio dalle condizioni iniziali e queste ultime non sono simmetriche nel tempo: si presentano in quel preciso modo ed in quel preciso istante. Sostituire t con (- t) in un'equazione fondamentale della fisica equivale a qualcosa di analogo al proiettare un film al contrario, ma questo non autorizza minimamente ad affermare che la distinzione tra prima e poi è una mera illusione! Sempre restando nel campo della meccanica classica è possibile spingere più avanti la nostra linea di ragionamento e mostrare che anche le misure di un fenomeno, ossia la registrazione di un evento particolare all'interno di un processo, non sono simmetriche nel tempo come le leggi che lo descrivono. Disponendo della legge di gravitazione universale di Newton (e possibilmente di un personal computer) è possibile non soltanto prevedere tutte le eclissi totali di Sole da qui all'anno 3000 d.C., ma anche retrodire tutte quelle già verificatesi fino al 3000 a.C. (cosa che effettivamente viene spesso fatta per migliorare la datazione di alcuni antichi documenti nei quali si fa accenno a questo tipo di fenomeni astronomici). Però non è possibile avere oggi una fotografia dell'eclisse del remoto passato o del lontano futuro. Per di più, questa stupefacente possibilità di dedurre l'intera storia dinamica di un fenomeno a partire dalla legge e da un set di condizioni iniziali è soggetta a fortissime limitazioni pratiche e di principio.
Soltanto nel quadro determinista della fisica classica si suppone che possano essere assegnate le condizioni iniziali con precisione virtualmente illimitata. Ma nella meccanica quantistica, per via del principio d'indeterminazione di Heisenberg, e nella recente fisica del caos, per via del cosiddetto “effetto farfalla”, cioè dell'amplificazione non-lineare degli errori nelle misure, si introduce una decisiva incertezza nelle condizioni iniziali, per cui non possiamo mai realmente fare previsioni deterministiche, ma soltanto stocastico-probabilistiche. Le previsioni deterministiche sono possibili soltanto nelle situazioni semplificate della fisica classica lineare, come il pendolo senza attrito o il problema dei due corpi in presenza di forze centrali. In definitiva quando ci confrontiamo con la reale complessità dei fenomeni naturali, la capacità di guardare indifferentemente nel passato e nel futuro grazie alle nostre descrizioni teoriche è fortemente limitata.
Riprendendo il caso del sistema solare, che è un problema di molti corpi in un campo centrale, possiamo in effetti fare, come abbiamo detto, le previsioni delle eclissi fino all'anno 3000, ma se consideriamo l'intero sistema nella sua enorme complessità (e non soltanto il sistema terra-luna, come si fa in questo genere di previsioni) non possiamo assolutamente essere certi della sua stabilità; in altre parole, può benissimo darsi che si “sfaldi” e si “logori” e che nel 3000, o prima, il sistema planetario a cui apparteniamo non ci sarà più!
Possiamo dunque affermare che non soltanto i fenomeni naturali sembrano essere intrinsecamente irreversibili nel tempo, permettendoci così di sostenere la concezione di una intrinseca freccia del tempo anche per i processi più semplici, ma anche una ineliminabile imprevedibilità nel futuro dei sistemi complessi e quantistici.

Entropia e informazione
Far “girare” un film al contrario può riservarci delle sorprese.
Consideriamo il caso del pendolo senza attrito. Se tagliamo lo spezzone in cui si vede il sistema mettersi in moto, cioè se eliminiamo le condizioni iniziali che sono asimmetriche nel tempo, la moviola ci mostrerà uno spettacolo piuttosto monotono e non saremo in grado di distinguere un senso dall'altro.
Se invece riprendiamo un sistema già un po' più realistico, come un pendolo con attrito, vedremo che via via le oscillazioni si smorzeranno, finché si fermerà sulla verticale. C'è stata dissipazione di energia a causa dell'attrito e una conseguente produzione di calore che si disperde nell'ambiente circostante. In questo secondo caso la proiezione alla rovescia ci mostra qualcosa di assolutamente inusitato: un pendolo, immobile sulla verticale, comincia a muoversi con oscillazioni sempre più ampie, sospinto dalla mano invisibile di miliardi di molecole d'aria calde che cedono la loro energia al sistema in modo miracolosamente coordinato!
Queste strane cose possiamo vederle solo al cinema, mai in natura. In verità non possiamo filmare neppure i pendoli senza attrito, visto che non esistono. Nel mondo fisico si può a volte tornare al punto di partenza, ma sempre un po' “più stanchi” di prima. Questa è l'essenza del secondo principio della termodinamica, la branca della fisica che si occupa delle trasformazioni dell'energia. In ogni processo fisico reale una parte dell'energia iniziale si converte in calore, una forma di energia “disordinata”, che tende a disperdersi e che non si ritrova più nella configurazione finale.
Ogni trasformazione implica dunque una “spesa” di energia che non può più essere utilizzata. Da qui l'irreversibilità dei fenomeni fisici e l'aspetto inverosimile dei film al contrario. Tutto questo può essere espresso rigorosamente utilizzando la nozione di entropia e dicendo che in ogni fenomeno fisico questa tende ad aumentare. In altre parole, l'entropia è una misura del disordine che aumenta in una trasformazione fisica a causa del distribuirsi dell'energia disponibile su più gradi di libertà. Una spiegazione del perché in natura l'ordine tende ad essere sostituito dal disordine fu tentata dal geniale teorico austriaco L. Boltzmann, utilizzando un ragionamento probabilistico. L'idea essenziale è che più grande è il numero di particelle che costituiscono un sistema, maggiore è il numero di stati disordinati possibili rispetto a quello degli stati ordinati. È quindi più probabile che un sistema passi da uno stato ordinato ad uno disordinato che viceversa, venendo a mancare i vincoli che ne assicurano la struttura ordinata. Un esempio classico è quello del cubetto di ghiaccio immerso in un bicchiere d'acqua: il reticolo cristallino del ghiaccio viene distrutto dal “bombardamento” delle molecole d'acqua e si arriva così ad uno stato indifferenziato ed uniforme di equilibrio termico. Naturalmente, l'energia complessiva si conserva sempre e se potessimo osservare in dettaglio il moto di ogni singola molecola dentro il bicchiere non vedremmo niente di strano, soltanto una miriade di collisioni durante le quali l'energia del sistema viene continuamente ridistribuita tra un gran numero di stati microscopici. Se filmassimo il moto di una singola particella questo ci apparirebbe in accordo con le leggi della meccanica proiettandolo sia in un senso che nell'altro, in conformità con l'omogeneità delle leggi fisiche rispetto al tempo.
Troveremmo invece sorprendente il verificarsi del cosiddetto miracolo di Poincarè, cioè la separazione progressiva sempre più netta con gli urti tra molecole calde e molecole fredde, fino al ricostituirsi “spontaneo” della configurazione originale cubetto+acqua. Secondo l'analisi di Boltzmann, condotta entro il contesto della fisica classica, eventi di questo tipo — come il rimettersi in moto del pendolo — non sono impossibili bensì fortemente improbabili, e l'improbabilità aumenta con il numero di particelle in gioco e delle configurazioni microscopiche disponibili. Questo ha portato molti fisici a parlare di una freccia termodinamica del tempo, legata all'aumento dell'entropia. Basata sul passaggio dagli stati di minore a quelli di maggiore probabilità, questo tipo di asimmetria temporale verrebbe dunque ad essere ricondotta ad un'illusione numerica dovuta all'altissimo numero di particelle che costituiscono un sistema fisico.
Abbiamo già osservato come la differenza tra passato e futuro esiste in ogni processo e non è affatto appannaggio dei soli sistemi complessi, ma dipende drasticamente dalle condizioni iniziali. Lo status particolare del principio dell'aumento dell'entropia, semmai, consiste proprio nel fatto che contiene molto di più di quanto non ci sia in una legge fisica che si limita a correlare i valori di alcune grandezze nei vari punti dello spazio-tempo; il secondo principio della termodinamica tiene implicitamente conto delle condizioni iniziali di un sistema, come ha mostrato l'analisi probabilistica di Boltzmann e, sulla base di queste condizioni esprime un'affermazione sugli stati asintotici del sistema, cioè sul suo futuro. Ci dice che è molto probabile, per un sistema isolato, passare da uno stato a bassa entropia ad uno con entropia maggiore e che è invece estremamente improbabile una fluttuazione che, vedendo invertirsi tutti i moti delle particelle, porti l'intero sistema ad uno stato di entropia minore. È importante sottolineare che il secondo principio vale per sistemi isolati. L'energia che si dissipa nel pendolo con attrito la ritroviamo sotto forma di calore nell'ambiente, ma se forniamo nuova energia — ad esempio con una molla — compensiamo l'energia dispersa e permettiamo al sistema di continuare le sue oscillazioni con frequenza immutata. Nessun sistema è realmente isolato in natura ed in effetti assistiamo di continuo a processi di morfogenesi che portano molti sistemi a mantenere o persino accrescere il loro grado di ordine e di struttura, attraverso scambi continui di materia ed energia con l'ambiente circostante. Gli animali, ad esempio, mantengono l'organizzazione interna eliminando con i rifiuti materiale ad alta entropia ed assumendo dall'ambiente, tramite cibo ed ossigeno, energia a bassa entropia. L'altro “percorso” dell'energia, quello che conduce a stati più strutturati, si caratterizza con un'altra grandezza, la neghentropia o informazione. Sorvolando anche in questo caso alcune sottili questioni fisico-matematiche, ci limiteremo a dire che per descrivere uno stato altamente ordinato è necessaria una quantità di informazione molto grande, mentre ne richiede pochissima uno stato indifferenziato ad alta entropia. In tal modo, entropia ed informazione vengono ad essere le due facce della medaglia dell'energia e, come ci si può aspettare in virtù del principio di conservazione di quest'ultima, sono due grandezze strettamente correlate. Infatti, sono connesse da una semplice legge che stabilisce che la somma dell'entropia e dell'informazione è costante per un sistema isolato. Anche per un sistema aperto ci si aspetta una relazione di questo genere, ma ci sono attualmente molti problemi per definire univocamente in un contesto dinamico l'entropia e l'informazione.
Utilizzando questa coppia di concetti complementari, riprendiamo il fenomeno dello sciogliersi del cubetto di ghiaccio nell'acqua. All'inizio abbiamo una situazione altamente strutturata e perciò ricca d'informazione macroscopica; dopo un certo tempo arriveremo ad una situazione di equilibrio termico, con la massima entropia possibile: l'informazione iniziale si è completamente convertita in informazione microscopica, che è l'informazione necessaria per specificare lo stato dinamico di ogni singola molecola. L'aumento dell'entropia può essere visto come un processo di conversione di informazione macroscopica in informazione microscopica. Adottando questo punto di vista possiamo dire che niente si perde ma tutto si confonde. Abbiamo già notato come l'originale analisi di Boltzmann si sia sviluppata nel quadro della fisica classica, pensando a punti materiali soggetti alle leggi della meccanica newtoniana determinista. In questo contesto la reversibilità del fenomeno è altamente improbabile ma non impossibile: a partire dalla conoscenza completa dell'informazione microscopica e disponendo di una sufficiente quantità di energia è possibile, in linea di principio, invertire i moti delle particelle e ritornare allo stato iniziale. L'alto numero di particelle è soltanto un “intoppo” pratico per la realizzazione di un tale programma. Ben diversa è la situazione in fisica quantistica.

Quanti ed irreversibilità
Se eliminiamo idealmente tutte le forme note di materia e di energia, ciò che resta è lo stato di vuoto. L'aspetto caratteristico essenziale della teoria quantistica consiste nell'averci rivelato che tale stato, lungi dall'essere un'assenza di fisica, ne costituisce piuttosto la totalità in potenza. Il vuoto quantistico è un'entità dinamica dotata di incessanti fluttuazioni energetiche (le cosiddette “particelle virtuali”), una sorta di background del mondo fisico da cui “emergono” le particelle “reali”, direttamente rivelabili, che conosciamo: elettroni, quark, mesoni, neutrini, fotoni, gravitoni e così via. Per quanto la nostra descrizione della struttura di questi oggetti sia ancora molto insoddisfacente, possiamo sicuramente dire che sono profondamente diversi dal punto materiale della meccanica classica. Le particelle quantistiche mostrano un peculiare comportamento ondulatorio, cosa che ha richiesto per lo studio del loro moto la creazione di una meccanica diversa da quella newtoniana, e le particelle stesse sono descritte come oscillazioni di campo, in continua interazione con le fluttuazioni invisibili del vuoto quantistico. Utilizzando l'efficace rappresentazione dell'interpretazione “realistica” del formalismo quantistico (dovuta principalmente a L. De Broglie, J. P. Vigier e D. Bohm), possiamo pensare gli oggetti quantistici come una sorta di “globuli” d'energia trasportati dalle onde e dalle increspature del vuoto quantistico. Gli effetti dinamici dell'attività del “tessuto” di fondo, onde e fluttuazioni, non si avvertono al livello classico, quello dei corpi macroscopici, ma si fanno sentire sull'ordine di grandezza della costante di Planck h (circa 6,6 ·10-34 Joule per secondo), che fissa dunque la “grana fine” della dimensione quantistica e ci indica i limiti di validità della fisica classica. Da qui deriva il principio d'indeterminazione di Heisenberg, che stabilisce un'incertezza minima ineliminabile nella misura di una grandezza fisica, indeterminazione proporzionale al valore della costante di Planck. Si tratta perciò di un limite inerente alla natura delle cose, legato ad una delle costanti fondamentali della fisica e non semplicemente di un problema “pratico”; le nostre conoscenze potranno anche fare in futuro un grosso salto di qualità nella conoscenza del medium sub-quantico, ma già oggi abbiamo fondati elementi per ritenere che la fisica non ritornerà più determinista e che il probabilismo gioca un ruolo fondamentale nella struttura del mondo fisico.
Tutto questo conduce ad un'asimmetria temporale dei fenomeni assai più radicale di quanto non accada nella fisica di Newton e di Boltzmann. A livello quantistico è impossibile recuperare l'informazione microscopica “dispersa” nello stato di ogni singola particella del sistema, proprio per via del principio di Heisenberg. Questa incertezza è fonte di imprevedibilità sia nel futuro che nel passato: partendo da un set di misure adesso non è possibile ricostruire lo stato iniziale di un sistema; l'indeterminazione aumenta nella direzione del “prima” e del “dopo”. Mentre nella fisica classica si assume di poter eseguire una misura con precisione virtualmente illimitata, cioè di poter acquisire idealmente tutta l'informazione microscopica su un sistema, in meccanica quantistica un procedimento di misura perturba in modo incontrollabile ed irreversibile un processo fisico, a causa del dualismo onda-corpuscolo delle particelle e delle fluttuazioni del vuoto. La parte della fisica quantistica con cui si indicano i procedimenti di misura è denominata generalmente R (da “Reduction of Wave Packet” o “riduzione del pacchetto d'onde”) ed è asimmetrica nel tempo. La cosiddetta parte E è costituita invece dalle diverse leggi di evoluzione di un sistema microfisico, come l'equazione di Schroedinger o di Dirac, e soddisfa all'omogeneità del tempo, dato che queste equazioni non cambiano sostituendo (t) con (-t). Ma anche qui troviamo una fortissima limitazione alla simmetria temporale. Infatti, questa parte della teoria fornisce, per una data situazione fisica, la probabilità che un evento ha di verificarsi, ma poi sarà sempre la natura a “decidere” cosa in effetti accadrà, per via dell'attività “random” su scala h!.
Per meglio renderci conto di quest'aspetto, consideriamo un'elettrone immerso nel vuoto, lontano dall'influenza di qualsiasi campo. Il nostro elettrone sarà soggetto ad un frenetico “tremolio” (Zitterbewegung) provocato proprio dalle “increspature” del vuoto quantistico. È evidente la differenza con un oggetto classico, posto in un vuoto “classico”: lontano da ogni campo, avremmo qui una situazione perfettamente inerziale, uno stato di quiete o di moto uniforme. La condizione dell'elettrone somiglia piuttosto a quella ben nota del moto browniano: un granulo di polline posto in sospensione in una soluzione rivela al microscopio un caratteristico moto a “zig-zag”, provocato dagli urti invisibili con le molecole della soluzione. Le fluttuazioni del vuoto quantistico svolgono un ruolo analogo a quello degli urti molecolari nel moto browniano ed in effetti sono rilevanti le analogie matematiche tra i due processi. A questo punto è chiaro che, se a livello della parte E della teoria abbiamo una reversibilità, questa riguarda soltanto il “dispiegamento” delle probabilità calcolabili e non l'effettiva sequenza di eventi microfisici che viene a realizzarsi. In altre parole, a livello quantistico, uno “zig” non è mai uguale ad uno “zag” e, se anche invertissimo tutte le forze in gioco, non otterremmo mai una piena reversibilità, perché il livello di attività del vuoto quantistico è inaccessibile e da questo si origina un'irreversibilità anche nel moto di una singola particella, dunque un'asimmetria temporale legata al “tessuto” stesso dei fenomeni quantistici. Questo ha indotto De Broglie ad ipotizzare una termodinamica per una singola particella, disciplina ancora in gran parte da sviluppare, e che studia la distribuzione dell'energia nei moltissimi gradi di libertà del sistema particella+vuoto quantistico. Parafrasando Eraclito, possiamo dire che non è possibile immergere due volte lo stesso elettrone nello stesso vuoto, la cui attività è localmente sempre diversa e perciò irreversibile nel tempo. Questo ci riporta all'analogia fluido-dinamica e ci richiama i modelli vecchi e nuovi dell'etere, di cui il vuoto quantistico è un erede concettuale. Lo sviluppo di una termodinamica del vuoto richiederà probabilmente l'introduzione di nuove drastiche ipotesi sulla sua struttura. Sarà necessario individuare dei quanti fondamentali, degli “elementi discreti” dello spazio-tempo “vuoto” ed avere un'idea dei loro gradi di libertà, ma tutto questo è ancora lontano dalle possibilità anche della più recente ricerca teorica.
Un risultato notevole è stato conseguito nel 1976 da W. G. Unruh, il quale ha dimostrato che un rivelatore di particelle uniformemente accelerato nel vuoto indicherebbe una caratteristica temperatura, dovuta alla sua interazione con le fluttuazioni sulla scala di Planck. Manca però una teoria quantistica dello spazio-tempo entro la quale collocare questo primo “tassello” di una futura termodinamica quantistica.

Paradossi relativistici
È opinione diffusa tra fisici che la relatività abbia da insegnarci qualcosa di particolarmente significativo e profondo sulla natura del tempo ed è convinzione comune — anche tra fisici — che questa esoterica lezione passi attraverso sconcertanti “paradossi”. Entrambe queste posizioni sono largamente ingiustificate e nascono sia da una serie di problemi interpretativi del formalismo che da una pessima letteratura divulgativa. Partiamo dalla relatività ristretta (RR). Innanzitutto non è una teoria ma più propriamente un requisito di coerenza che si richiede ad ogni teoria fisica che descrive un'interazione in termini di campo. Questo requisito consiste sostanzialmente in due postulati: a) Isotropia ed omogeneità dello spazio-tempo rispetto a tutte le leggi fisiche; b) Esistenza di una velocità universale limite per la propagazione di ogni segnale nell'universo, limite che viene individuato nella velocità della luce c (circa 300.000 km/sec). Da questi due postulati si ricavano le note trasformazioni di Lorentz, che stabiliscono le relazioni tra le misure di spazio e di tempo tra due osservatori inerziali, osservatori cioè d'accordo con i due postulati (a) e (b). Vediamo adesso di capire dove nascono le cose “strane”. Il “vecchio” gruppo di Galilei esprimeva l'uniformità dello spazio-tempo (postulato a), ammettendo però implicitamente la possibilità di una propagazione istantanea delle interazioni e quindi un tempo assoluto, valido per tutti gli osservatori inerziali.
Nella fisica classica, dunque, un segnale può raggiungere tutti gli osservatori simultaneamente. Questo non è più vero nella fisica relativistica e la stessa nozione di simultaneità di due eventi viene ad avere un senso preciso soltanto all'interno di uno specifico sistema. Dal gruppo di Lorentz si deduce che le misure spaziali e temporali di due osservatori inerziali sono relative al loro stato di moto. In particolare, in un sistema di riferimento si avranno degli “effetti relativistici” tanto più marcati quanto più la velocità di questo sarà vicina alla velocità limite della luce: si tratta della contrazione di Lorentz-Fitzgerald, per cui gli oggetti si contraggono nella direzione del moto, e della cosiddetta dilatazione del tempo, che prevede un “rallentamento” dei processi fisici. Questa previsione è stata verificata sperimentalmente oltre ogni ragionevole dubbio, ad esempio portando alle alte velocità delle particelle sub-atomiche instabili e misurando un effettivo allungamento della loro vita media. In modo ancor più clamoroso, Hafele e Keating nel 1971 eseguirono una verifica con orologi macroscopici nell'esperimento “clocks around the world experiment”: furono sincronizzati a terra due orologi atomici di altissima precisione e poi uno fu portato a spasso per il mondo su un aereo di linea. Al ritorno l'orologio che aveva viaggiato era “più giovane” dell'altro nella misura prevista dalla formula del “rallentamento degli orologi”. Una semplice verifica del famoso “paradosso dei gemelli”!
In realtà in tutto questo non c'è niente di paradossale. Gli aspetti controintuitivi nascono all'interno della vecchia concezione “relazionale”, secondo la quale gli effetti relativistici sono puramente cinematici ed apparenti, dovuti al moto relativo di due osservatori inerziali, una specie di effetto “deformante” dovuto al movimento. Secondo la più recente interpretazione “neo-lorentziana”, invece, abbiamo a che fare con effetti fisici reali. In questo caso ogni aspetto paradossale scompare e si ha un pieno accordo con le verifiche sperimentali. Restano aperti però alcuni problemi legati al concetto di simultaneità. Consideriamo due osservatori inerziali in moto relativo uniforme, U e V, testimoni di due eventi A e B. Per la relatività della simultaneità può accadere che mentre per U l'evento A preceda B, per V sia il contrario. A questo punto si presentano due possibilità: (1) U e V rivendicano ognuno un'esclusiva sulla “versione corretta” della sequenza, oppure (2) riconoscono la legittimità di tutte e due le descrizioni. La prima opzione , che potremmo definire “dittatoriale”, è insostenibile, poiché entrambi gli osservatori sono su un piano di assoluta equivalenza rispetto alle leggi fisiche. La seconda scelta, quella “democratica”, è sicuramente più sensata, ma non elimina alcune ambiguità di fondo.
Soffermiamoci un po' sul caso particolare in cui un certo evento, poniamo A, sia considerato passato da U, mentre per V è da collocarsi nel futuro, poiché non ne ha ancora ricevuto alcun segnale. In questa situazione l'opzione “democratica” conduce all'idea che, in generale, il futuro sia fissato e che l'intero spazio-tempo debba essere “già lì”, relegando l'asimmetria temporale, il continuo “svolgersi” dell'universo attraverso i processi fisici, ad una sorta di non meglio specificata “sensazione della coscienza”.
In effetti, una tale concezione “statica” dello spazio-tempo pare che sia stata adottata dallo stesso Einstein e teorizzata da alcuni grandi matematici come H. Weyl e L. Fantappié. A ben guardare però, una simile concezione è non soltanto improponibile dal punto di vista di una scienza sperimentale (cosa vuol dire che “il futuro è già esistente” e come possiamo verificarlo?), ma è assolutamente non richiesta dal formalismo relativistico. Innanzitutto notiamo che l'osservatore per cui un certo evento è ancora nel futuro è semplicemente un osservatore che non ha ancora ricevuto alcuna informazione su quell'evento, per via della velocità finita di propagazione delle interazioni, e questo è ben diverso dall'affermare che il futuro di questo o di ogni altro osservatore è già scritto! In altre parole, la complessa rete di segnali tra tutti gli osservatori dell'universo non può essere certo più grande dell'universo stesso e, comunque vengano registrate le informazioni sugli eventi dai vari osservatori, questo non ci autorizza a dire che il futuro dell'universo nella sua totalità esiste già nello stesso modo in cui esiste una località verso la quale viaggiamo e non siamo ancora arrivati. Bisogna pensare allora se non sia il caso di considerare la cosa da un punto di vista globale, chiedendosi dove collocare gli eventi A e B e gli osservatori U e V. Esiste una super-struttura nel mondo fisico alla quale tutti gli osservatori possono fare riferimento? Esiste nello spazio-tempo un posto “privilegiato” dove “attaccare l'orologio”? Queste sono domande antichissime nella storia fisica, Come è noto, I. Newton, il fondatore della fisica teorica, rispondeva affermativamente, ipotizzando l'esistenza di una sostanza fondamentale in riferimento alla quale definire uno spazio ed un tempo assoluti, mentre il suo contemporaneo Leibniz sosteneva l'idea di uno spazio ed un tempo relativi, utili soltanto come “relazioni tra cose materiali”, idea che prefigurava in qualche modo certe interpretazioni della relatività di cui abbiamo già detto. Per cercare una nostra risposta dovremo riferirci ancora una volta alla teoria quantistica ed ai più recenti scenari cosmologici.

Non-località e cosmologia quantistica
L'esistenza di un limite di velocità per le interazioni aveva condotto la fisica relativistica ad enunciare un principio di località: un evento non può influire causalmente su un altro evento se non dopo un certo tempo finito necessario alla propagazione del segnale. Perciò lo spazio-tempo può essere idealmente decomposto in tante zone del tipo “qui ed ora”. Uno degli aspetti della fisica quantistica più radicalmente innovativi per la nostra visione del mondo fisico consiste nell'averci svelato una radicale non-località dell'universo. Benché la teoria quantistica abbia ricevuto il suo assetto fisico-matematico sin dal 1927, è soltanto in questi ultimi anni che la non-località viene studiata con maggiore attenzione, sia a livello teorico che sperimentale ed è anzi uno dei temi “cardine” su cui si sta sviluppando un nuovo modo di guardare la meccanica quantistica.
Nei limiti in cui è lecito e possibile essere sintetici, diremo che le passate interpretazioni della teoria erano cadute in una gravissima “impasse” che frenava ogni tentativo di ripensamento dell'intera questione. Da una parte la versione probabilista “ortodossa” della meccanica quantistica asserisce che lo studio dei fenomeni su scala quantica ci ha rivelato un'intrinseca casualità della natura ed i fenomeni di correlazione istantanea tra particelle lontane, previste dal formalismo, sono soltanto “magie statistiche” operate dal caso. Sul versante opposto, i sostenitori dell'interpretazione realistica sostenevano che il probabilismo quantistico è la manifestazione di una causalità invisibile, e vedevano nei fenomeni di non-località un'incompatibilità con una posizione oggettiva e realista, “sintomo” di incongruenze al cuore della teoria e della sua interpretazione standard. Entrambe le due scuole, legate al tradizionale principio della causalità locale, consideravano i fenomeni di correlazione non-locale come una sorta di “parenti terribili” per una coerente concezione del mondo fisico, pur avendo idee diametralmente opposte su come dovesse essere una “teoria corretta”.
L'argomento nacque infatti nell'ambito di un “paradosso” proposto nel 1935 da A. Einstein e dai suoi collaboratori P. Podolsky e N. Rosen per contestare la “completezza” della versione ortodossa sostenuta da N. Bohr. Fu in seguito ripreso, negli anni '50, dai “realisti” L. De Broglie, J. P. Vigier e sopratutto da D. Bohm, che per primo analizzò le possibilità di un test sperimentale. Nel 1966 J. Bell ne chiarì tutte le implicazioni teoriche e finalmente una brillante serie di esperimenti eseguiti dal '72 fino ad oggi, tra cui ricordiamo quelli di A. Aspect e di R. Chiao, hanno permesso al cosiddetto problema EPR-Bell (EPR, dalle iniziali di Einstein, Podolsky, Rosen) di maturare fino a diventare un argomento centrale per una più profonda comprensione della fisica quantistica. E proprio richiamando la struttura essenziale degli esperimenti possiamo esprimere in modo semplice e diretto l'essenza della non-località: due particelle che si siano trovate in contatto, e descritte perciò dalla stessa funzione d'onda, ed allontanatesi poi l'una dall'altra fino al punto da essere lontanissime quanto si vuole nell'universo, cambiano istantaneamente in modo strettamente correlato quando accade un cambiamento in una di esse!
Si fa lentamente strada l'idea che il substrato quantistico dell'universo possa trasportare informazioni super-luminali, mentre il limite della velocità della luce “vale” soltanto per le forme ordinarie di materia e di energia. Tutto ciò non è in contrasto con una visione realistica del mondo fisico, ma ci suggerisce piuttosto di abbandonare l'idea della separabilità come aspetto fondamentale: non è possibile decomporre l'universo in tanti “qui ed ora”. L'intero mondo fisico deve essere pensato come un tutto unico indiviso, dove anche una singola particella è correlata al resto in un modo che potremmo quasi definire organico da un “tessuto connettivo” di natura quantistica. Viene così a cadere uno dei presupposti del tradizionale meccanicismo, l'idea che l'universo possa essere considerato come un ingranaggio di parti indipendenti assemblate insieme. Il mondo fisico è, oltre un certo limite, essenzialmente non-separabile. La storia evolutiva di questo tutto indivisibile ci è narrata dalla cosmologia quantistica, che in questi ultimi anni si è sviluppata enormemente, apportando delle drastiche modifiche allo scenario del “big-bang” sulla base delle idee più recenti sulla struttura del vuoto quantistico e sulla teoria dei campi unificati.
A grandi linee, i punti salienti possono essere così delineati: la condizione di Hartle-Hawking ed il metodo dell'estensione gruppale di Fantappié pongono delle condizioni ben precise sulla struttura geometrica globale del vuoto quantistico, che deve avere la massima simmetria possibile. A queste condizioni sembra soddisfare in modo naturale il modello dell'universo di De Sitter, perfettamente iper-sferico e chiuso. Il gruppo di simmetria associato a questo modello è il gruppo di Fantappié, che estende su scala cosmica la richiesta di isotropia ed omogeneità dello spazio-tempo. Nel modello di De Sitter la geometria spaziotemporale impone l'adozione di un tempo curvo e ciclico, il che vuol dire che, scelto un qualsiasi osservatore, gli eventi gli appariranno tanto più rallentati quanto più sono distanti. Questo non deve sorprenderci. Sappiamo già dalla relatività ristretta che il tempo di un processo fisico può dipendere dallo stato di moto di un sistema fisico nella misura in cui si ha a che fare con velocità paragonabili a quelle della luce.
La teoria della relatività generale (RG) estende questi risultati anche ai moti accelerati e serve per descrivere il campo gravitazionale. Ne consegue che anche nella RG si hanno degli effetti di dilatazione del tempo di un processo fisico legati all'intensità del campo gravitazionale nel quale il fenomeno è “immerso”. A livello cosmologico la curvatura del tempo provoca un nuovo tipo di “deformazione” del tempo dei fenomeni, dovuta stavolta alla forma geometrica dei “confini” dello spazio-tempo. Un tempo ciclico, naturalmente, è perfettamente simmetrico e non ci dà alcun contributo per una migliore comprensione dell'asimmetria temporale. Quest'ultima, infatti, interviene non nella struttura topologica dello spazio-tempo, ma nella dinamica del suo “contenuto”, il vuoto quantistico. Prima della “genesi”, lo stato di vuoto era descritto da una funzione d'onda universale ad altissima simmetria. Il vuoto era perfettamente uniforme ed in uno stato eccitato, cioè carico di energia. Una fluttuazione critica, la fluttuazione di Planck, ruppe questa simmetria ed innescò una transizione di fase durante la quale si ebbe una liberazione esponenziale dell'energia del vuoto. In seguito questa energia si “condensò” nei vari tipi di quanti che costituiscono la materia ed i campi conosciuti. L'originaria funzione d'onda, inizialmente in uno stato uniforme, cominciò a biforcarsi, dispiegarsi e dipanarsi, man mano che dall'energia primordiale prendevano forma gli oggetti e le strutture di cui è costituito l'universo, restando però una sorta di “sostanza” fondamentale non-separabile. Adesso disponiamo di tutti gli elementi per indagare le connessioni tra la freccia termodinamica del tempo e quella cosmologica. Notiamo che entrambe mostrano un'asimmetria nello stesso senso: l'entropia cresce mentre l'universo si evolve. È ragionevole attendersi un collegamento tra le due cose. A proposito della termodinamica abbiamo accennato alla differenza tra sistemi isolati ed aperti, ma c'è almeno un sistema per il quale la distinzione diventa piuttosto ambigua: l'universo nella sua totalità. Dobbiamo chiederci allora se lo stato originario dell'universo era uno stato di alta o di bassa entropia. Apparentemente sembrerebbe che uno stato uniforme debba essere caratterizzato da un'alta entropia. In questo caso l'ordine che osserviamo sarebbe un vero miracolo di Poincaré, conclusione estremamente insoddisfacente. La via d'uscita si trova applicando al vuoto quantistico la distinzione tra ordine geometrico ed ordine entalpico introdotta nel 1945 da E. Schroedinger. All'origine dell'universo c'era effettivamente un grande disordine geometrico, una completa assenza di strutture, visto che particelle e galassie non erano ancora state “create”; però all'interno di questa primordiale uniformità era contenuto un grande ordine entalpico: i potenziali che “sfogandosi” avrebbero poi modellato l'universo costituivano una specie di ordine nascosto nello stato eccitato del vuoto quantistico. L'energia iniziale era “immagazzinata” in una configurazione molto complessa, denominata “campo a stati di vuoto multipli” o campo di Higgs, una sorta di molla compressa pronta a scattare e liberare la sua energia potenziale. In quell'ordine entalpico nascosto era contenuta tutta l'informazione macroscopica che sarebbe poi andata a specificare la struttura del mondo fisico. L'inizio dell'universo fu quindi un inizio a bassa entropia ed altissima informazione. Dopo la rottura di simmetria, questa informazione macroscopica nascosta cominciò a convertirsi nell'informazione microscopica locale delle particelle e delle galassie, dando il via, insieme all'evoluzione dell'universo, alla freccia termodinamica del tempo, che vengono così ad avere la stessa origine dentro il quadro della cosmologia quantistica.
È arrivato il momento di tirare le conclusioni. Ci chiedevamo se l'asimmetria temporale fosse un'illusione oppure un aspetto fondamentale per la comprensione della Natura e se esistesse nell'universo un “posto privilegiato” da dove osservare lo scorrere del tempo. La cosmologia quantistica ci fornisce una risposta unica per entrambe le domande: l'universo stesso, nella sua totalità, costituisce un processo intrinsecamente irreversibile, un fenomeno unico non-separabile. Sopra ed oltre il tempo privato di qualsiasi osservatore particolare è possibile definire un tempo universale dell'evoluzione cosmologica, legato alla funzione d'onda che costituisce il “materiale” quantistico non-locale dell'orologio cosmico.