L’entropia, in parole povere

Qualunque persona che abbia mai sentito parlare di entropia non può fare a meno di associare questo concetto al disordine di un sistema.

Fonte: http://miguelhadzich.com/

Come avrete potuto sperimentare anche voi appena finita di leggere la frase precedente, una tale spiegazione dell’entropia non sembra affatto chiara. Innanzitutto perché non spiega cosa è l’entropia e poi perché non spiega a cosa serve. A scuola o all’università il concetto di entropia è sempre introdotto usando qualche strana macchina termica o anche un frigorifero. E si parla di processi reversibili o irreversibili. Insomma ci sono tanti modi per introdurre questo concetto, alcuni standard altri meno.
Ma per favore non parliamo di disordine (e a fine post capirete perché). Il miglior modo per cominciare a parlare di entropia è enunciare la seconda legge della termodinamica, una legge universale che sembra valere in ogni situazione:

“La variazione di entropia in un sistema fisico è sempre maggiore di o uguale a zero”.

Che accipicchia vuol dire? Vuol dire che se abbiamo un sistema fisico in cui accadono tante belle cose e calcoliamo l’entropia in due istanti successivi di tempo otteniamo che l’entropia finale è sempre più grande dell’entropia iniziale o, al massimo, i due valori sono uguali. Quando i due valori sono uguali? Quando il sistema ha raggiunto il suo equilibrio termodinamico, che in prima approssimazione vuol dire che tutte le forze interne al sistema sono bilanciate tra loro e anche che tutte le parti del sistema hanno la stessa temperatura.
Bene, ora però dobbiamo dire cos’è l’entropia, o perlomeno spiegare a cosa serve. Detto in parole povere (come da motto di questo blog!) e molto banalmente, l’entropia misura il numero di possibili stati diversi in cui possiamo trovare un sistema fisico (in realtà l’entropia è il logaritmo del numero di tali stati).   Per “stato” si intende l’insieme di tutte le configurazioni possibili in termini di posizioni e velocità di tutte le particelle che compongono il sistema fisico in esame.

Ora di seguito proverò a spiegare il significato misterioso del concetto di entropia; in particolare, per capirci qualcosa, dobbiamo fare un passo indietro e parlare del concetto di temperatura.

Quando si dice che un qualcosa è ad una certa temperatura in realtà si sta parlando della velocità media delle particelle che compongono quel qualcosa. Quindi se per esempio il nostro oggetto è allo zero assoluto (-273.15 °C), la temperatura più bassa possibile, vuol dire che tutte le particelle che compongono l’oggetto sono ferme (si tratta di un esempio ideale ovviamente). Quindi se ci pensate questo vuol dire che tutte le particelle, anche il più minuscolo nucleo atomico,  sono bloccate; dunque abbiamo che il sistema ha una sola configurazione possibile per le particelle e quindi un solo possibile stato e siccome il logaritmo di uno fa zero, allora l’entropia vale zero. Cerchiamo di capire meglio alzando la temperatura.
Se il nostro oggetto ha una certa temperatura allora vuol dire che, in una certa misura, gli atomi si muoveranno più o meno liberi a seconda che si tratti di un gas o di un solido. Perciò ogni particella avrà una certa posizione ed anche una certa velocità media (diversamente dalla situazione dello zero assoluto in cui la velocità era nulla).
Facciamo l’esempio di un solido. Essendo una struttura abbastanza rigida ma comunque dotato di una certa elasticità allora i propri atomi potranno, come dire, oscillare attorno ad una certa posizione ma senza allontanarsi troppo.
Nel caso di un gas invece gli atomi sono liberi di vagare con la velocità dettata dalla temperatura del gas. Dunque risulta evidente che gli atomi del gas sono più liberi. La libertà in questo caso vuol dire che  gli atomi del gas possono occupare un insieme di valori di posizione e velocità più ampio di quelli a disposizione per gli atomi del solido. Ogni configurazione in cui ogni atomo ha una certa posizione e una certa velocità si chiama stato del sistema.

Ma forse così non è ancora abbastanza chiaro così facciamo un esempio. Avete fatto tardi e dovete andare al cinema. Quando arrivate nella sala ormai sono rimasti pochi posti a disposizione e probabilmente i migliori posti saranno stati già accaparrati da altri. E inoltre sicuramente gli altri non si alzeranno per voi!
Una situazione intermedia si ha quando per esempio voi arrivate al cinema con un gruppo di amici e in sala c’è ad aspettarvi un altro gruppetto di amici. In questo caso quando il vostro gruppo arriva ci sarà un po’ di fermento, ognuno si vorrà sedere vicino all’amico/a preferito/a e quindi si chiederà di scalare di posto etc etc.
Un’altra situazione si ha quando tutte le persone che vogliono vedere il film entrano insieme nella sala; in questo caso la scelta del posto è imbarazzante, anche se vi sono alcuni che sono migliori di altri.
Il punto di questi tre esempi è che nel primo caso se si fanno due fotografie successive nel tempo alle persone sedute si noterà soltanto il fatto che siete arrivati voi, quindi un cambiamento minimo visto che vi era poca scelta; invece nell’ultimo caso magari le persone si siedono poi cambiano posto perché, non saprei, magari trovano qualcuno che conoscono e quindi se si scattano anche in questo caso le foto si potrebbero ottenere anche due foto completamente differenti.
Dunque, se l’entropia è legata al numero di possibili configurazioni allora possiamo intendere che la terza situazione è quella con la più alta variazione di entropia di tutte tra due istanti successivi.
Comunque ad un certo punto il film inizierà e quindi, alla fine, ognuno avrà deciso il suo posto e due foto scattate in rapida successione mostrerebbero la situazione pressoché inalterata. Cioè una variazione di entropia nulla. Si è raggiunto l’equilibrio del sistema!
Quindi l’entropia continua a crescere finché il sistema non raggiunge l’equilibrio; a quel punto si è arrivati al massimo valore dell’entropia per quel sistema e la variazione di entropia diventa nulla.
Raccontata così uno potrebbe ancora pensare che l’entropia sia qualcosa legata al disordine ma adesso proverò a spiegarvi che non è proprio così.
Per capirlo dovremo ricorrere ad un esempio classico (solo che noi non lo useremo per capire cos’è l’entropia, visto che l’abbiamo già spiegato; piuttosto lo useremo per introdurre un nuovo concetto).
Si tratta di un contenitore con due gas differenti separati da una parete; non appena la parete viene rimossa i due gas sono liberi di occupare l’intero volume del contenitore.

Fonte: http://www.ch.ntu.edu.tw/

Come potete immaginare, la situazione finale è quella con più alta entropia perché le particelle occupano un volume maggiore e quindi hanno la possibilità di occupare più posizioni e inoltre se i due gas avevano temperature diverse, allora all’equilibrio avranno la stessa temperatura quindi cambieranno anche le velocità medie.
Perché quest’esempio? Perché potete apprezzare il fatto che se abbiamo un gas allora le particelle tendono ad occupare il massimo volume disponibile. Questo è uno dei motivi per cui la gente pensa al disordine quando si parla di entropia. Ma non è il solo.
Infatti vi è anche il classico esempio dell’uovo che si frantuma al suolo. L’uovo è integro in bilico sul tavolo ma poi quando cade e si spappola. E tutti pensano al disordine.
Ora vi farò vedere che invece quella è la situazione più ordinata che potete immaginare!
Guardate la prossima figura:

http://www.preposterousuniverse.com/blog

Abbiamo un insieme di particelle soggette alla forza di gravità. Siccome si attraggono l’una verso l’altra ad un certo punto potremmo osservare la situazione finale come quella di un ammasso di particelle.

L’entropia è diminuita? Ma assolutamente no. Abbiamo detto che la seconda legge della termodinamica afferma che l’entropia finale è sempre maggiore di o uguale a quella dello stato iniziale. Il punto è che, come abbiamo detto, l’entropia non cresce per sempre ma raggiunge il suo massimo quando si ha l’equilibrio. Ora se abbiamo particelle su cui agisce la forza gravitazionale esse troveranno pace solo quando si ammasseranno perché la forza di gravità è una forza esclusivamente attrattiva. E siccome l’ammasso è il momento dell’equilibrio per quelle particelle che erano tirate avanti e indietro dalla gravità, allora vuol dire che quando le particelle si ammassano l’entropia sarà massima!
Se ci pensate, sembra strano solo perché non è il classico esempio delle palline di gas che si mischiano. Ma la logica è la stessa: il raggiungimento dell’equilibrio.
Ed è quello che fa anche l’uovo. Essendo attratto dalla forza di gravità esercitata dalla Terra esso è inevitabilmente tirato giù dal tavolo se si trova in bilico. Poi, certo, l’uovo è un tipo assai delicato e va in frantumi…ma quella è la posizione d’equilibrio, per terra.
Ora, vi sentireste di dire che l’ammasso di particelle rappresenta una situazione di disordine rispetto alla situazione iniziale in cui tutte le particelle sono sparse nel contenitore? Anzi, a vedere bene sembra che l’aumento dell’entropia coincida con lo stato del sistema più naturale possibile, appunto l’equilibrio.
Perciò ricordate che l’entropia non misura il disordine. In realtà l’entropia è molto più di quello che abbiamo visto in questo post. Ci sarebbe da parlare anche di meccanica quantistica (un argomento che spero di affrontare presto in questo blog) ma per il momento fermiamoci qui. Dunque ricordatevi che l’entropia misura, in un certo senso, le possibili configurazioni di posizioni e velocità delle particelle del sistema fisico che state studiando. Può darsi che alcune configurazioni siano più probabili di altre; questo perché, alla fine, tutte le strade portano all’equilibrio.

  • la tua spiegazione è stata eccellente ma penso che il concetto di equilibrio termodinamico sia un pò,diciamo contestualizzato ad un puro sistema fisico!Solo per citare la teoria dei sistemi di Pricogine il sistema è sempre lontano dall'equilibrio termodinamico

  • Ciao! Grazie innanzitutto per aver letto e commentato questo post. Quello che dici è assolutamente giusto tuttavia lo scopo del post era di parlare di entropia solo da un punto di vista fisico, come d'altronde cerco di fare riguardo qualsiasi argomento in questo blog. Non si tratta di una voglia di escludere qualcosa ma semplicemente l'idea è di introdurre un qualsiasi argomento nella maniera più generale e semplice possibile (almeno a mio parere). Quindi ben vengano commenti come il tuo che allargano gli orizzonti del post a sistemi più complessi e ad una discussione più profonda. Grazie ancora!

  • Per me rimane sempre valida la discussione della scelta del nome da parte di Shannon e Von Neumann.

    "Nessuno sa cosa sia con certezza l'entropia, così in una discussione sarai sempre in vantaggio"

    Mi pare il sunto migliore che si possa fare 😀

  • Come darti torto! 😉

%d blogger hanno fatto clic su Mi Piace per questo: