Co to jest?
Entropia
Drugą zasadę termodynamiki kojarzymy z nieodwracalnością procesów fizycznych, "strzałką czasu", entropią i jej nieuchronnym wzrostem.

Intrygującym zagadnieniem jest powiązanie nieodwracalnych procesów, którym podlegają makroskopowe układy (i o których mówi druga zasada), z równaniami ewolucji czasowej (na przykład równaniami Newtona), które nie wyróżniają kierunku czasu. W badaniu tego problemu i zrozumieniu związanych z nim "paradoksów" kluczową rolę odgrywa statystyczny charakter drugiej zasady. Czy można więc "na palcach" pokazać nieuchronny wzrost entropii i nieodwracalność? (O strzałce czasu pisał Piotr Szymczak w Delta 01/2019.) Rozpatrzmy izolowany układ wielu cząstek o ustalonej całkowitej energii
(oraz innych parametrach, takich jak objętość). Na poziomie mikroskopowym taki stan realizowany może być na wiele
sposobów (na przykład poszczególnym cząstkom mogą być przypisane różne wartości energii, z jedynym warunkiem, aby ich suma wynosiła
). Zakładamy tu, że
jest jednoznaczną funkcją
Przyjmijmy za "daną" definicję entropii
Taka definicja gwarantuje, że całkowita entropia niezależnych układów jest równa sumie tychże entropii. To dlatego, że
Oczywiście, logarytm jest funkcją rosnącą, zatem duża ilość dostępnych stanów mikroskopowych oznacza dużą entropię. Rozpatrzmy teraz dwa takie układy, scharakteryzowane odpowiednio przez
oraz
Doprowadzając je do kontaktu, pozwalamy na wymianę energii przy warunku zachowania jej całkowitej wartości:
Całkowita liczba dostępnych stanów mikroskopowych wyniesie teraz
![]() |
(1) |
Wynika stąd, że (ponieważ
jest jednym ze składników sumy), a więc entropia wzrosła. W sytuacji, gdy liczba cząstek w układzie jest odpowiednio duża, wyrażenie po prawej stronie jest zdominowane przez największy z wyrazów go tworzących (odpowiadający maksimum wyrażenia w wykładniku). Dostajemy wówczas
![]() |
(2) |
gdzie odpowiada maksimum wyrażenia po prawej stronie powyższego równania. Ukazuje to drugą zasadę jako zasadę ekstremum: gdy dwa układy doprowadzimy do kontaktu, pozwalając na ich oddziaływanie, nowy stan równowagi będzie taki, by entropia osiągała maksymalną możliwą wartość. Wybierając (losowo) jeden spośród
stanów, mamy oczywiście pewną szansę, że trafimy na przypadek, gdzie
istotnie różni się od
ale dla dużej liczby cząstek
prawdopodobieństwo takiego trafu jest znikomo małe. Dzieje się tak dlatego, że przybliżenie, którego użyliśmy, pisząc wzór (2) i wybierając tylko wiodący wyraz w równaniu (1), jest tym lepsze, im większa wartość wykładnika, który z kolei jest rzędu
Dla typowo spotykanych wartości
przybliżenie zastosowane w wyrażeniu (2) jest z praktycznego punktu widzenia niezwykle dokładne. Zauważyć można, że powyższe spojrzenie w ogóle nie rozpatruje ewolucji układu. Przyjmuje jedynie, że przy pomiarze stanu układu dostajemy z równymi (albo zbliżonymi) prawdopodobieństwami różne wyniki. W ujęciu, w którym śledzimy ewolucję układu, stwierdzilibyśmy, że układ niezależnie od stanu początkowego spędza przytłaczającą większość czasu w stanach odpowiadających maksimum entropii (czyli takich, że
).