Przeskocz do treści

Delta mi!

Co to jest?

Entropia

Paweł Jakubczyk

o artykule ...

  • Publikacja w Delcie: kwiecień 2019
  • Publikacja elektroniczna: 31 marca 2019
  • Wersja do druku [application/pdf]: (5321 KB)

Drugą zasadę termodynamiki kojarzymy z nieodwracalnością procesów fizycznych, "strzałką czasu", entropią i jej nieuchronnym wzrostem.

obrazek

Intrygującym zagadnieniem jest powiązanie nieodwracalnych procesów, którym podlegają makroskopowe układy (i o których mówi druga zasada), z równaniami ewolucji czasowej (na przykład równaniami Newtona), które nie wyróżniają kierunku czasu. W badaniu tego problemu i zrozumieniu związanych z nim "paradoksów" kluczową rolę odgrywa statystyczny charakter drugiej zasady. Czy można więc "na palcach" pokazać nieuchronny wzrost entropii i nieodwracalność? (O strzałce czasu pisał Piotr Szymczak w Delta 01/2019.) Rozpatrzmy izolowany układ wielu |(N cząstek o ustalonej całkowitej energii E 1 (oraz innych parametrach, takich jak objętość). Na poziomie mikroskopowym taki stan realizowany może być na wiele 1) (X sposobów (na przykład poszczególnym cząstkom mogą być przypisane różne wartości energii, z jedynym warunkiem, aby ich suma wynosiła E 1 ). Zakładamy tu, że 1X jest jednoznaczną funkcją E1. Przyjmijmy za "daną" definicję entropii 1).S1(E1) = log(X Taka definicja gwarantuje, że całkowita entropia niezależnych układów jest równa sumie tychże entropii. To dlatego, że X)=log(X)+log(X)log(X . 1212 Oczywiście, logarytm jest funkcją rosnącą, zatem duża ilość dostępnych stanów mikroskopowych oznacza dużą entropię. Rozpatrzmy teraz dwa takie układy, scharakteryzowane odpowiednio przez 1) (E1,X oraz 2). (E2,X Doprowadzając je do kontaktu, pozwalamy na wymianę energii przy warunku zachowania jej całkowitej wartości: |E = E1 + E2. Całkowita liczba dostępnych stanów mikroskopowych wyniesie teraz

(E)=QX(E′)X(E−E′)=QeS1E1+S2E−E1. X E1121E 11 (1)

Wynika stąd, że (E)>X1(E1)X2(E2) |X (ponieważ 1(E1)X2(E2) X jest jednym ze składników sumy), a więc entropia wzrosła. W sytuacji, gdy liczba cząstek w układzie jest odpowiednio duża, wyrażenie po prawej stronie jest zdominowane przez największy z wyrazów go tworzących (odpowiadający maksimum wyrażenia w wykładniku). Dostajemy wówczas

 ∗ ∗ S(E) ≈ S1(E1 ) +S2(E − E1 ), (2)

gdzie E∗1 odpowiada maksimum wyrażenia po prawej stronie powyższego równania. Ukazuje to drugą zasadę jako zasadę ekstremum: gdy dwa układy doprowadzimy do kontaktu, pozwalając na ich oddziaływanie, nowy stan równowagi będzie taki, by entropia osiągała maksymalną możliwą wartość. Wybierając (losowo) jeden spośród (E) X stanów, mamy oczywiście pewną szansę, że trafimy na przypadek, gdzie |E1 istotnie różni się od E∗1 , ale dla dużej liczby cząstek (N prawdopodobieństwo takiego trafu jest znikomo małe. Dzieje się tak dlatego, że przybliżenie, którego użyliśmy, pisząc wzór (2) i wybierając tylko wiodący wyraz w równaniu (1), jest tym lepsze, im większa wartość wykładnika, który z kolei jest rzędu N. Dla typowo spotykanych wartości N(N przybliżenie zastosowane w wyrażeniu (2) jest z praktycznego punktu widzenia niezwykle dokładne. Zauważyć można, że powyższe spojrzenie w ogóle nie rozpatruje ewolucji układu. Przyjmuje jedynie, że przy pomiarze stanu układu dostajemy z równymi (albo zbliżonymi) prawdopodobieństwami różne wyniki. W ujęciu, w którym śledzimy ewolucję układu, stwierdzilibyśmy, że układ niezależnie od stanu początkowego spędza przytłaczającą większość czasu w stanach odpowiadających maksimum entropii (czyli takich, że |E = E∗ 1 1 ).