
L’Universo non si sta organizzando, non si sta raffreddando, non si sta stabilizzando. Si sta dissolvendo.
A regolarne il destino non è una forza nascosta, ma una legge chiara, fredda, inesorabile: la seconda legge della termodinamica. Il suo effetto visibile, il suo marcatore interno, si chiama entropia. E la sua storia comincia molto prima della fine.
Quando si parla di entropia si entra in una delle idee più affascinanti e profonde mai concepite dalla fisica. Non è soltanto una grandezza termodinamica, ma un criterio che distingue ciò che può accadere da ciò che non potrà mai avvenire. A differenza di altre quantità, l’entropia non resta invariata: cresce, e lo fa inesorabilmente in ogni processo spontaneo, orientando l’evoluzione dell’energia, della materia, della vita stessa.
Basta osservare ciò che accade quando si uniscono acqua calda e acqua fredda: le molecole si mescolano fino a raggiungere una temperatura comune, e quel passaggio è irreversibile. Il calore non tornerà indietro, non rifluirà spontaneamente verso il corpo più caldo. Lo stesso avviene col ghiaccio che si scioglie: energia concentrata che si libera, ordini locali che si dissolvono in configurazioni più disordinate, più caotiche.
Nel XIX secolo i fisici compresero che questa irreversibilità non era un caso. Lavorando sulle macchine termiche, si resero conto che il calore fluisce solo da corpi caldi a corpi freddi, e che da questa semplice osservazione nascevano limiti fisici profondi. Da qui il secondo principio della termodinamica: nessun processo spontaneo può ridurre l’entropia complessiva.
Una misura del disordine, ma anche delle probabilità
Con Ludwig Boltzmann arriva la svolta concettuale. L’entropia non è solo una questione energetica, ma statistica. Ogni sistema fisico può assumere un numero elevato di configurazioni microscopiche (microstati), e tra queste, quelle più probabili sono quelle disordinate. Se spruzzi del profumo in una stanza, la sua diffusione non è magica: è semplicemente più probabile rispetto a una riconcentrazione spontanea in un angolo.
Il modello a sei particelle dimostra questa intuizione. Le configurazioni in cui le particelle sono tutte da un lato sono una su molte, mentre quelle distribuite in modo simmetrico sono numerose. L’entropia, formalmente definita come K log W (dove W è il numero delle configurazioni possibili), cresce con la probabilità della configurazione. Più possibilità di combinazione, maggiore è l’entropia.
Il destino dell’universo è scritto nei numeri
L’entropia misura anche il numero di informazioni necessarie per descrivere un sistema. Un sistema ordinato, con energia concentrata in pochi stati, richiede poche informazioni. Ma un sistema in cui le particelle sono ovunque, con velocità e posizioni diverse, ha bisogno di molti più dati per essere descritto. Ecco perché si dice che l’entropia misura il disordine: non è caos, ma complessità descrittiva. Ed è qui che il concetto si allarga fino a diventare cosmico.
Ogni stella che si spegne, ogni corpo che si raffredda, ogni sistema che evolve contribuisce ad aumentare l’entropia complessiva dell’universo. Finché non ci sarà più flusso di energia, finché ogni differenza di temperatura sarà annullata, finché non ci sarà più nulla da scambiare o trasformare. Quel giorno, l’entropia sarà massima. E sarà la fine di tutto. Ma proprio perché tutto scorre in quella direzione, vivere è attraversare il flusso dell’entropia, partecipare a questo viaggio, sapere che ogni cambiamento, ogni trasformazione, ogni scelta, fa parte dello stesso disegno.
