Entropia

entropia

Entropia S jest to termodynamiczna funkcja stanu (nie zależy od drogi przejścia od jednego do drugiego stanu), która określa kierunek przebiegu procesów samorzutnych w izolowanym układzie termodynamicznym.

Często entropię definiuje się jako miarę stopnia nieuporządkowania układu i rozproszenia energii.

Entropia jest wielkością fizyczną ekstensywną (addytywną), a więc zależną od rozmiarów układu. To oznacza że entropia całego układu jest równa sumie entropii jego części składowych.

Istnienie entropii postuluje II zasada termodynamiki.

Wzór na entropię

W izotermicznym procesie odwracalnym zmiana entropii ΔS jest równa stosunkowi ilości ciepła Q dostarczonego układowi do temperatury bezwzględnej układu T.

ΔS=Q/T

Poziom zaawansowany

W procesie kwazistatycznym, czyli takim, w którym jest zachodzi ciąg stanów nieskończenie bliskich stanowi równowagi i między którymi zachodzi nieskończenie mała zmiana parametrów układu:

Jednostką entropii jest J/K (dżul na kelwin).

Ujęcie fizyki statystycznej i probabilistyczne

Termodynamika związana jest z pojęciem układu wielu cząstek. W takim układzie ogromną rolę odgrywa fizyka statystyczna. W tym ujęciu entropia może być wiązana z pojęciem prawdopodobieństwa termodynamicznego W makrostanu układu:

S=klnW

gdzie:

k - stała Boltzmanna,

W - prawdopodobieństwo termodynamiczne makrostanu (waga statystyczna stanu), czyli bardzo dużej liczby mikrostanów, tworzących dany stan układu w ujęciu makroskopowym. Pojęcie mikrostanu związane jest z opisem elementów składowych układu za pomocą wybranych wielkości fizycznych (pęd, energia, prędkość itp.)

Entropia jest więc miarą stopnia chaotycznego ruchu cząstek badanego układu termodynamicznego.

Stan równowagi termodynamicznej jest stanem największego chaosu - stanem najbardziej prawdopodobnym.

Ujęcie probabilistyczne bardzo dobrze ilustruje poniższy film (możesz włączyć polskie napisy).

 

Ciekawostki

Entropia jest także bardzo ważnym pojęciem w teorii informacji.

Pojęcie entropii wprowadził Rudolf Emanuel Clausius w 1865 roku.

Pytania

Pytania

Jaka siła powoduje wzrost entropii, czyli stan nieuporządkowania?

Nie ma takiej siły. Wzrost entropii następuje samorzutnie jako kolejny, najbardziej prawdopodobny rozkład stanu w czasie. wynika to z czystej statystyki

Symulacja

Przeprowadźmy doświadczenie z pewnym układem, który świetnie oddaje zagadnienie wzrostu entropii.

Przygotowanie

Mamy 2 klasyczne kostki do gry. Prawdopodobieństwo wyrzucenia w oczek (1,1) wynosi 1/36, ale prawdopodobieństwo wyrzucenia sumy 3 oczek jest już dwa razy większe (1/18), bo mamy dwa zdarzenia losowe, które odpowiadają naszemu wynikowi (1,2) i (2,1).

Obliczmy prawdopodobieństwa wyrzucenia sum od 2 do 12:

Widać że największe prawdopodobieństwo wyrzucenia dotyczy 7 oczek, nieco mniejsze 6 i oczek i tak dalej.

Eksperyment

Gdy uporządkujemy kostki, ustawiając na nich po jednym oczku i będziemy nimi delikatnie potrząsać, to od czasu do czasu na każdej z nich pojawi się inna liczba oczek. Licząc ich sumę możemy z czasem badać, jak zmienia się ta suma.

1, 1 suma 2
Lupa Uruchom symulację

Powyższy eksperyment uruchomiono 100 razy.

W rzeczywistości nie bada się entropii dwóch obiektów. Jest ich zwykle bardzo dużo. Zobacz jak wyniki zmieniają się dla 6 kostek. Bardzo ciekawy jest wykres zmian sumy w kolejnych rzutach. Zwykle wynik najbardziej prawdopodobny pojawia się z biegiem czasu coraz częściej. (Sporządź samodzielnie wykres).

1 1 1 1 1 1 1 suma 6
Lupa Uruchom symulację

Zauważ, że sumy są na początku małe, z czasem oscylują już wokół najbardziej prawdopodobnego wyniku. Uporządkowanie kostek na początku już się nie pojawia (jest bardzo mało prawdopodobne). Dla milionów kostek powtórzenie uporządkowania początkowego jest praktycznie niemożliwe. Powyższy proces dość dobrze obrazuje entropię u układzie termodynamicznym.





© medianauka.pl, 2021-04-15, A-4023



©® Media Nauka 2008-2023 r.