Innanzitutto rispondo al quesito piu’ semplice che poni,
e cioe’ se il termine entropia fosse gia’ in uso prima della formulazione
del secondo principio, la risposta e’ no, semplicemente perche’ il termine
entropia individua una funzione di stato (cioe’ una grandezza che assume
in valore dipendente solo dallo stato del sistema e non da come il sistema
ha raggiunto tale stato) che e’ stata definita in modo da dare una formulazione
quantitativa al secondo principio, per curiosita’ ti dico che il termine
entropia viene dal greco e vuole dire “rivolgimento interno” ad indicare
il legame tra l’evoluzione di questa grandezza e le trasformazioni interne
del sistema.
Sostanzialmente l’entropia e il principio di massimo collegato
non sono un’altro che una matematizzazione delle frasi che avrai sentito
tante volte descrivere il secondo principio “Non e’ possibile realizzare
una trasformazione il cui unico risultato sia il passaggio di calore da
un corpo piu’ freddo ad uno piu’ caldo” oppure “Non e’ possibile realizzare
una trsformazione il cui unico risultato sia la trasformazione integrale
del calore prelevato da una sorgente in lavoro”, concettualmente non e’
niente di diverso che scrivere dE=dQ-dL quando si rende in modo matematico
il concetto di conservazione dell’energia (primo principio della termodinamica)
solo che il legame appare meno intuitivo a causa del concetto piu’ complesso
(la tendenza all’invecchiamento) che deve esprimere.
In sostanza quando Lord Kelvin e Clausius hanno formulato
i loro principi il termine entropia non esisteva, anzi non esistette per
un certo tempo dopo le prime osservazioni empiriche che portarono alla
formulazione della termodinamica, l’entropia ha fatto il suo ingresso
in fisica dopo il lavoro di Carnot sul rendimento delle macchine termiche
che ha permesso di dimostrare che una certa grandezza (l’integrale di
Clausius) era una funzione di stato se calcolata su trasformazioni reversibili.
Passiamo adesso all’altro punto e cioe’ il legame tra
termodinamica e le carte o piu’ in generale con sistemi che tradizionalmente
non sono considerati sistemi sottoposti ad indagine della fisica, in realta’
la termodinamica in senso stretto c’entra poco o nulla con questi sistemi,
ma grazie alla meccanica statistica formulata da Boltzmann e ad altri
lavori successivi (come la teoria dell’informazione di Shannon) si e’
visto che l’entropia dei sistemi fisici e’ strettamente legata al concetto
di probabilita’ applicata ai componenti di base del sistema (Boltzmann)
e che su un qualunque sistema che presenta una serie di componenti “di
base” collegati con una qualche distribuzione di probabilita’ e’ possibile
definire una grandezza che appare comportarsi come l’entropia (Shannon)
ed infatti viene chiamata entropia di informazione, questo ha permesso
di unificare in una sola descrizione concettuale tutti questi fenomeni
che vedono una degenerazione di qualche tipo (dell’energia disponibile
per i sistemi termodinamici tradizionali, oppure l’ordine di un mazzo
di carte) che hanno in comune il fatto di avere tantissimi possibili microstati
del sistema di cui solo una piccola parte corrispondono ad un altro valore
di ordine.