Aula di Scienze

Aula di Scienze

Persone, storie e dati per capire il mondo

Speciali di Scienze
Materie
Biologia
Chimica
Fisica
Matematica
Scienze della Terra
Tecnologia
I blog
Sezioni
Come te lo spiego
Science News
Podcast
Interviste
Video
Animazioni
L'esperto di matematica
L'esperto di fisica
L'esperto di chimica
Chi siamo
Cerca
L'esperto di fisica

L'entropia, questa sconosciuta...

leggi

Federica ha un problema:

Salve prof sono Federica mi potrebbe definire il concetto di entropia legato al secondo principio della termodinamica in semplici parole come solo lei è capace... perché l'ho inserita nella tesina che prende il titolo di imperfezione e non mi ero resa conto di quanto fosse complicato... Grazie.

Ecco la mia risposta:

Direi che sei stata un po' imprudente...

Vediamo. Il secondo principio della termodinamica può essere espresso in questo modo: per ogni sistema termodinamico, a certe condizioni che sono quelle nelle quali  è valida in generale la termodinamica classica, è possibile definire una funzione di stato (una grandezza che ha un valore ben definito in ogni stato del sistema, quali sono ad esempio anche la temperatura o l'energia interna) detta entropia, che ha la seguente proprietà: qualsiasi trasformazione subisca un sistema isolato, la variazione ΔS dell'entropia può essere soltanto uguale a zero (nelle trasformazioni reversibili) o maggiore di zero (in quelle irreversibili). In altri termini: l'entropia di un sistema isolato non può mai diminuire.

Il calcolo di ΔS è una faccenda complicata. Il caso più semplice è quello dello scambio di una quantità di calore Q fra due corpi abbastanza grandi da mantenere in questo caso costanti le rispettive temperature T1 e T2, con T1 < T2. In questo caso le due variazioni di entropia sono ΔS1=Q/T1 e ΔS2=–Q/T2. La variazione di entropia del sistema isolato composto dai due corpi è la somma ΔS1S2=Q/T1Q/T2>0.

L'interpretazione della termodinamica in termini statistici permette di collegare l'entropia alla probabilità. Più è probabile che un sistema si trovi in uno stato piuttosto che in un altro, maggiore è l'entropia del sistema nello stato più probabile. Immagina di agitare una scatola contenente delle monete. È molto più probabile che le monete si dispongano nella scatola in maniera disordinata piuttosto che in maniera disordinata. In base a osservazioni come questa è possibile giustificare un'interpretazione dell'entropia come misura del grado di disordine del sistema.

Devi completare il CAPTCHA per poter pubblicare il tuo commento