statistische mechanik - numerik.mathematik.uni-mainz.de file1. mechanik 2. statistische mechanik 3....
TRANSCRIPT
STATISTISCHE MECHANIK
13.12.2018David Kiy
1. Mechanik2. Statistische Mechanik3. Entropie und Gleichgewicht4. Ising-Modell5. Markov-Chain-Monte-Carlo-Verfahren6. Renormierung
Inhalt
Mechanik
Mechanikβ’ System aus ππ Partikeln mit Ortskoordinaten ππ β βππ
β’ Genaue Lokalisierung benΓΆtigt ππ = ππππ Zahlenβ’ Um Bewegungsgleichungen aufzustellen benutzt man eine
Lagrange-Funktion πΏπΏ = πΏπΏ(ππ, οΏ½ΜοΏ½π, π‘π‘)β’ Partikel gehorchen dem Hamiltonschen Prinzip:
Die Bewegung von q0 = ππ π‘π‘0 nach q1 = ππ π‘π‘1erfolgt so, dass die Aktion
π΄π΄ ππ = β«π‘π‘0π‘π‘1 πΏπΏ ππ, οΏ½ΜοΏ½π, π‘π‘ πππ‘π‘
minimiert wirdβ’ Sei ππ ein solches Extremum mit fixierten Endpunkten ππ0,ππ1β’ Betrachte eine kleine StΓΆrung ππ π‘π‘ + πΏπΏππ(π‘π‘), mit πΏπΏππ π‘π‘0 = πΏπΏππ π‘π‘1 = 0
Mechanik
β’ πΏπΏπ΄π΄ β π΄π΄ ππ + πΏπΏππ β π΄π΄ ππ
= β«π‘π‘0π‘π‘1 πΏπΏ ππ + πΏπΏππ, οΏ½ΜοΏ½π + πΏπΏοΏ½ΜοΏ½π, π‘π‘ β πΏπΏ ππ, οΏ½ΜοΏ½π, π‘π‘ πππ‘π‘
β’ Es muss πΏπΏπ΄π΄ = πͺπͺ πΏπΏππ2,πΏπΏοΏ½ΜοΏ½π2 gelten, da ππ Extremum ist
πΏπΏ ππ + πΏπΏππ, οΏ½ΜοΏ½π + πΏπΏοΏ½ΜοΏ½π, π‘π‘ = πΏπΏ ππ, οΏ½ΜοΏ½π, π‘π‘ + βππ πΏπΏππππππππππππππ
+ βππ πΏπΏοΏ½ΜοΏ½ππππππππποΏ½ΜοΏ½πππ
+ πͺπͺ πΏπΏππ2,πΏπΏοΏ½ΜοΏ½π2
β’ Partielle Integration liefert
πΏπΏπ΄π΄ = β«π‘π‘0π‘π‘1 βππ πΏπΏππππ
ππππππππππ
+ βππ πΏπΏοΏ½ΜοΏ½ππππππππποΏ½ΜοΏ½πππ
+ πͺπͺ πΏπΏππ2,πΏπΏοΏ½ΜοΏ½π2 πππ‘π‘
= β«π‘π‘0π‘π‘1 βππ πΏπΏππππ
ππππππππππ
β πππππ‘π‘
πππππποΏ½ΜοΏ½πππ
+ πͺπͺ πΏπΏππ2,πΏπΏοΏ½ΜοΏ½π2 πππ‘π‘
Mechanik
β’ Dies fΓΌhrt auf die Lagrange-Gleichungππππππππππ
β πππππ‘π‘
πππππποΏ½ΜοΏ½πππ
= 0, ππ = 1,2, β¦ ,ππ
Mechanik
Beispiel (1D):β’ Auf einen Partikel der Masse ππ im Punkt π₯π₯ wirke eine Kraft
πΉπΉ = βππππππππ ππ, mit ππ = ππ π₯π₯ Potentialβ’ Setze als Lagrange-Funktion
πΏπΏ = 12πποΏ½ΜοΏ½π₯2 β ππ π₯π₯
β’ Die Bewegungsgleichung lautetππππππππ
= πππππ‘π‘
πππππποΏ½ΜοΏ½π
also
βππππππππ
= πππππ‘π‘
πποΏ½ΜοΏ½π₯
β’ Entspricht dem 2. Newtonschen Gesetz entspricht πΉπΉ = πποΏ½ΜοΏ½π₯
Mechanik
β’ Eine alternative Beschreibung der Bewegungsgleichungen liefert die Hamilton-Funktion
β’ Impuls ππππ = πππππποΏ½ΜοΏ½πππ
β’ Die Hamilton-Funktion ist definiert alsπ»π» ππ,ππ, π‘π‘ = βππ πππποΏ½ΜοΏ½πππ β πΏπΏ(ππππ , οΏ½ΜοΏ½πππ , π‘π‘)
und ist keine Funktion der οΏ½ΜοΏ½πππβ’ Die Bewegungsgleichungen lassen sich schreiben als
οΏ½ΜοΏ½πππ = ππππππππππ
, οΏ½ΜοΏ½πππ = β ππππππππππ
,
was Γ€quivalent zur Lagrange-Gleichung ist
Statistische Mechanik
Statistische Mechanik
β’ Hamilton-System π»π»(ππ,ππ), was nicht mehr explizit von π‘π‘abhΓ€ngt, mit ππ Freiheitsgraden ππ1,ππ1 , β¦ , (ππππ,ππππ)
β’ Ein Mikrozustand des Systems ist eine Menge von Werten der Variablen ππ1, β¦ , ππππ,ππ1, β¦ ,ππππ
β’ Der 2ππ-dimensionale Raum in dem sich das System entwickelt heiΓt Phasenraum Ξ und die Punkte die es in seiner Entwicklung besucht nennt man Trajektorie
β’ Im Allgemeinen ist eine exakte Beschreibung der Entwicklung nicht mΓΆglich (Avogadro Konstante ~ 6x1023 Teilchen/mol)
β’ Einen Ausweg bietet der folgende Ansatz:
Statistische Mechanik
β’ Annahme: ππ0,ππ0 werden aus einer Wahrscheinlichkeitsdichte ππ gezogen
β’ Anstatt einzelne Trajektorien zu verfolgen, betrachte die Trajektorien des Systems (Ensemble) als Ganzes, die anfΓ€nglich abhΓ€ngig von W verteilt sind
β’ Sei ππ π‘π‘ die Dichte der MikrozustΓ€nde zur Zeit π‘π‘β’ ππ π‘π‘ beschreibt das Ensemble zur Zeit π‘π‘ und ist der
Makrozustand des Ensembles
Mikrozustand β Vektor in ΞMakrozustand β Wahrscheinlichkeitsdichte in Ξ
Statistische Mechanik
Bewegungsgleichung fΓΌr πΎπΎ(ππ,ππ, ππ)β’ Sei π’π’ = (οΏ½ΜοΏ½π1, . . , οΏ½ΜοΏ½πππ)β’ Unter Verwendung der Hamiltonschen Bewegungsgleichungen
gilt ππππππ π’π’ = βππππππππππ
οΏ½ΜοΏ½πππ + βππππππππππ
(οΏ½ΜοΏ½πππ)
= βππππππππππ
ππππππππππ
+ βππππππππππ
(β ππππππππππ
)
= 0β’ Ein solches Vektorfeld nennt man inkompressibel
Statistische Mechanik
β’ Sei ππ ein Volumen im Phasenraum Ξβ’ Falls MikrozustΓ€nde weder auftauchen noch verschwinden, so
ist eine Γnderung ihrer Anzahl in ππ
β«ππ ππ ππππππππnur durch ihren Fluss in oder aus ππππ mΓΆglich
β’ Es ergibt sichπππππ‘π‘ β«ππ ππ ππππππππ = ββ«πππππππ’π’ οΏ½ ππ ππππ = ββ«ππ ππππππ πππ’π’ ππππ
Statistische Mechanik
β’ FΓΌr glattes ππ gilt damitπππππππ‘π‘
+ ππππππ πππ’π’ = 0
β’ Und da π’π’ inkompressibel ist erhΓ€lt man die Liouville-Gleichung πππππππ‘π‘
+ u οΏ½ ππππππππ ππ = 0
β’ Eine WDF ππ ist zeitinvariant falls sie eine stationΓ€re LΓΆsung von
πππππππ‘π‘
+ ππππππ πππ’π’ = 0
ist
Statistische Mechanik
β’ FΓΌr gegebenes ππ(π‘π‘) kΓΆnnen physikalische Observablen definiert werden, etwa die Energie
πΈπΈ π‘π‘ = πΈπΈ π»π» π‘π‘ = β«Ξ π»π» ππ,ππ ππ ππ,ππ, π‘π‘ ππππ,sowie fΓΌr eine Eigenschaft ππ(ππ,ππ) eines Mikrozustandes
οΏ½ππ = πΈπΈ ππ = β«Ξ ππ ππ,ππ ππ ππ,ππ, π‘π‘ ππππ
Statistische Mechanikβ’ System eingeschlossen innerhalb einer Region ππβ’ Zu Beginn sei ππ konstant in ππ und auΓerhalb gelte ππ = 0
ππ ist invariantβ’ FΓΌhrt auf Konstruktion der mikrokanonische Dichte:β’ Gegeben seien zwei OberflΓ€chen π»π» = πΈπΈ0 und π»π» = πΈπΈ0 + βπΈπΈ0β’ Das zwischen diesen OberflΓ€chen eingeschlossene Volumen heiΓt
Energieschaleβ’ Betrachte die Dichte
ππ = οΏ½ππππππβ1 πππππππππππ , (ππ,ππ) β πππππππππππ
0, π π πππππ π π‘π‘β’ Die mikrokanonische Dichte erhΓ€lt man fΓΌr βπΈπΈ0 β 0β’ Die daraus resultierende OberflΓ€chendichte auf π»π» = πΈπΈ0 ist nicht
konstant
Statistische Mechanik
β’ Betrachte ππ π»π» mit
β«Ξ ππ(π»π») ππππππππ = 1, Ο(π»π») β₯ 0β’ FΓΌr ππ ππ,ππ = ππ π»π» gilt
π’π’ οΏ½ ππππππππ ππ = 0, und damit πππππππ‘π‘
= 0
β’ W ist also zeitinvariant
β’ Kanonische Dichte (zeitinvariant):ππ ππ,ππ = ππβ1 exp βπ½π½π»π» ππ,ππ , π½π½ > 0 konstant und
ππ = β«Ξ exp βπ½π½π»π» ππ,ππ ππππππππ
Entropie und Gleichgewicht
Entropie und Gleichgewichtβ’ Sei Ξ© ein Wahrscheinlichkeitsraum bestehend aus einer
endlichen Anzahl von Punkten ππ1, β¦ ,ππππ und Wahrscheinlichkeiten ππ1, β¦ ,ππππ
β’ Entropie ππ = ππ(ππ1, β¦ ,ππππ) MaΓ fΓΌr die Unsicherheit innerhalb der Wahrscheinlichkeitsdichte
β’ ππ soll die folgenden Axiome erfΓΌllen1. βππ ist ππ eine stetige Funktion der ππππ2. Gilt ππππ = ππππ βππ, ππ so ist ππππ = ππ 1
ππ, β¦ , 1
ππeine monoton
wachsende Funktion in AbhΓ€ngigkeit von ππ3. Sei 1 β€ ππ1 < ππ2 < β― < ππππ = ππ mit ππππ β β eine Unterteilung
von 1,ππ und sei ππππ = ππππππβ1+1 + β―+ ππππππ , so gilt
ππ ππ1, β¦ ,ππππ = ππ ππ1, β¦ ,ππππ + βππ=1ππ ππππππππππππβ1+1
ππππ, β¦ ,
ππππππππππ
Entropie und Gleichgewicht
β’ Dadurch wird ππ bis auf eine multiplikative Konstante eindeutig bestimmt durch
ππ = ββππ ππππ logππππEntropie hinsichtlich des Wahrscheinlichkeitsraums
β’ Analog gilt fΓΌr die Entropie einer WDF ππππ = ββ«ππ π₯π₯ log ππ π₯π₯ πππ₯π₯
Entropie und Gleichgewicht
β’ Eine WDF ππ heiΓt zulΓ€ssig, wenn sie
ππππ = β«ππππ ππ,ππ ππ ππ,ππ ππππ
fΓΌr gegebene Erwartungswerte ππ1, β¦ ,ππππ hinsichtlich einer WDF οΏ½ππ und mikroskopischer GrΓΆΓen ππ1, β¦ ,ππππ erfΓΌllt
Satz: Existiert ein Vektor π½π½ = (π½π½1, β¦ ,π½π½ππ) und eine Zahl ππ > 0, so dass πππ½π½ = ππβ1 exp ββππ π½π½ππππππ ππ,ππ eine zulΓ€ssige WDF ist, so ist πππ½π½die zulΓ€ssige Dichte mit maximaler Entropie
Entropie und Gleichgewicht
β’ Beweis:β’ Es gilt π₯π₯ log π₯π₯ β π₯π₯ + 1 β₯ 0, fΓΌr π₯π₯ β₯ 0
β’ Setze π₯π₯ = πππππ½π½
fΓΌr eine beliebige zulΓ€ssige WDF ππ, dann gilt
nach Integration ΓΌber Ξ:
ββ«Ξ ππ logππππππ β€ ββ«Ξ ππ logπππ½π½ ππππβ’ Mit der Definition von πππ½π½ folgt
ββ«Ξ ππ logπππ½π½ ππππ = logππ + βππ π½π½ππ οΏ½ππππ = ββ«Ξ πππ½π½ logπππ½π½ ππππund damit ππ ππ β€ ππ πππ½π½ , Gleichheit nur fΓΌr ππ = πππ½π½
Entropie und Gleichgewicht
β’ Beispiel:β’ Es liege nur die Messung der Energie des Ensembles πΈπΈ =πΈπΈ π»π» vor
β’ Man erhΓ€lt
πππ½π½ = ππβ1 ππβπ½π½ππ , ππ = β«Ξ ππβπ½π½ππππππund die IdentitΓ€t
πΈπΈ = πΈπΈ π»π» = β«Ξ ππβ1π»π»ππβπ½π½ππππππ = β πππππ½π½
logππ
β’ Die Entropie ist gegeben durch ππ = π½π½πΈπΈ + logππ
Entropie und Gleichgewicht
β’ Physik: In einem abgeschlossenen System kann die Entropie im Laufe der Zeit nur zunehmenJede Dichte entwickelt sich im Laufe der Zeit zu einer Dichte, die die Entropie maximiert
β’ Die kanonische Dichte ist zeitinvariant und eignet sich damit gut als asymptotische invariante Dichte, βthermisches Gleichgewichtβ
β’ Ein System ist im thermischen Gleichgewicht wenn es durch wenige ZustandsgrΓΆΓen beschreibbar ist: Temperatur, Druck, Teilchenzahl,β¦
Entropie und Gleichgewicht
β’ Temperatur eines Systems ππβ1 β ππππππππ
β’ FΓΌr die kanonische Dichte gilt also ππ = 1π½π½
und man erhΓ€lt die
Darstellung ππ = ππβ1ππβπ»π»ππ
β’ VerΓ€ndert sich ππ, so im Speziellen auch die Normierung ππ, die als Zustandssumme bezeichnet wird
Entropie und Gleichgewichtβ’ Γquivalenz der Ensemble
β’ Periodisches System von ππ nicht miteinander interagierender Partikel innerhalb eines WΓΌrfels der KantenlΓ€nge πΏπΏ
β’ Hamilton Funktion gegeben durch π»π» = 12ππ
βππ=13ππ ππππ2
β’ FΓΌr Z erhΓ€lt man
ππ = β«β¦β« ππβπ½π½πππππ₯π₯1 β¦πππ₯π₯3ππππππ1 β¦ππππ3ππ = ππππ 2πππππ½π½
3ππ2
β’ FΓΌr πΈπΈ gilt
πΈπΈ = β πππππ½π½
log ππ = 3ππ2ππ
β’ Die WDF ππππ von π»π» ist gegeben durch
ππππ = πΆπΆ ππ,π½π½ ππβπ½π½π»π»ππ3ππ2 β1ππππ
ππ, πΆπΆ ππ,π½π½ Konstante
Entropie und Gleichgewicht
β’ Γquivalenz der Ensembleβ’ Die Graphen von ππππ/πΈπΈ[π»π»] als Funktion von π»π» fΓΌr verschiedene
Werte von ππ sind zunehmend um π»π» = πΈπΈ konzentriertβ’ FΓΌr sehr groΓe ππ sind damit die mikrokanonische und die
kanonische Dichte nicht mehr zu unterscheiden
Iising-Modell
Ising-Modellβ’ ππxππ Gitter mit Gitterweite 1β’ Auf jeden Gitterpunkt (ππ, ππ) setze eine Variable π π ππ,ππ = Β±1 (Spin)β’ Periodisches Gitter: π π ππ+ππ,ππ = π π ππ,ππ und π π ππ,ππ+ππ = π π ππ,ππβ’ Zuordnung einer Hamilton Funktion (zeitunabhΓ€ngig und
impulsfrei)
π»π» = β12βππ,ππ π π ππ,ππ(π π ππ+1,ππ + π π ππβ1,ππ + π π ππ,ππ+1 + π π ππ,ππβ1)
β’ MikrozustΓ€nde des Systems entsprechen den 2ππ2MΓΆglichkeiten die up und down Spins anzuordnen
β’ Ordne jedem Mikrozustand die Wahrscheinlichkeit ππβ1ππβπ»π»ππ zu,
mitT der Temperatur Z als Normalisierungsfaktor
Ising-Modell
β’ Die Magnetisierung ist definiert als
ππ = 1ππ2βππ,ππ π π ππ,ππ
β’ Sind alle Spins ausgerichtet, so gilt offensichtlich ππ = Β±1β’ Mit obigen Voraussetzungen gilt πΈπΈ ππ = 0, da fΓΌr einen
gegebenen Mikrozustand ππππ der gespiegelte Mikrozustand Μ ππππgleich wahrscheinlich ist
β’ Die Kovarianzfunktion ist
πΆπΆ ππβ², ππβ² = πΈπΈ (π π ππ,ππβπΈπΈ ππ π π ππ+ππβ²,ππ+ππβ² β πΈπΈ ππ ]
β’ Die KorrelationslΓ€nge ist eine Zahl ππ β₯ 0, so dass fΓΌr ππβ²2 + ππβ²2 > ΞΆ2
die Kovarianz nicht signifikant ist
Ising-Modell
https://www.youtube.com/watch?v=kjwKgpQ-l1s
MCMC-Verfahren
MCMC-Verfahren
β’ Ziel:Berechnung des Erwartungswerts einer skalaren Funktion ππ(ππ,ππ) hinsichtlich der kanonischen Dichte:
πΈπΈ ππ = β«Ξ ππ(ππ,ππ) ππβπ»π» ππ,ππ
ππ
ππππππππππ
β’ Probleme:GroΓe Variablenanzahlππβπ½π½ππ(ππ,ππ) ist ΓΌblicherweise sehr klein ausgenommen auf einem geringen Teil von Ξ, was durch Zufallsziehen kaum getroffen wird
Diese Problematik wird schon im 1d Ising Modell gut deutlich:
MCMC-Verfahrenβ’ Spins in 1d Gitter und die Hamilton-Funktion wird zu
π»π» = ββππ=1ππ π π πππ π ππ+1β’ FΓΌr ππ = 4 gibt es 24 = 16 mΓΆgliche MikrozustΓ€nde:
2 mit π»π» = β4, 12 mit π»π» = 0, 2 mit π»π» = 4β’ Die zugeordnete Wahrscheinlichkeiten fΓΌr einen Mikrozustand ππππ
ist
ππππ = ππ ππππ =ππβπ»π»ππ/ππ
ππ, mit
ππ = βππ=1ππ ππβππππ/ππ
β’ π»π» = β4 ππ = 0,45 zusammen ππ = 0,9β’ π»π» = 0 ππ = 0,008 zusammen ππ = 0,096β’ π»π» = 4 ππ = 0,00015 zusammen ππ = 0,0003
MCMC-Verfahren
β’ Im Allgemeinen liegt eine groΓe Anzahl von MikrozustΓ€nden vor die verschwindende Wahrscheinlichkeit haben
Konstruiere eine Kette, die die Orte abhΓ€ngig von den Wahrscheinlichkeiten ππππ β
1ππππβππππ/ππ besucht
β’ Das im Folgenden vorgestellte MCMC-Verfahren beruht auf dieser Idee
MCMC-Verfahren
DefinitionSei Ξ ein Raum der die MikrozustΓ€nde ππ1, β¦ , ππππ enthΓ€lt. Eine Zufallskette auf Ξ ist ein zeitdiskreter stochastischer Prozess, so dass zu jedem Zeitpunkt π‘π‘,πππ‘π‘ = ππππ fΓΌr 1 β€ ππ β€ ππ gilt.
DefinitionDie Wahrscheinlichkeit ππ(πππ‘π‘ = ππππ|πππ‘π‘β1 = ππππ1 ,πππ‘π‘β2 = ππππ2, β¦ )
heiΓt Γbergangswahrscheinlichkeit der Kette. Die Kette ist eine Markov-Kette falls ππ πππ‘π‘ = ππππ πππ‘π‘β1 = ππππ1 ,πππ‘π‘β2 = ππππ2, β¦ = ππ πππ‘π‘ = ππππ πππ‘π‘β1 = ππππ
gilt.
MCMC-Verfahren
β’ Im Falle einer Markov-Kette schreiben wirππ πππ‘π‘ = ππππ πππ‘π‘β1 = ππππ = ππππππ = ππ ππππ β ππππ , βππ ππππππ = 1 und ππππππ β₯ 0
β’ Die Matrix ππ mit EintrΓ€gen ππππππ heiΓt Γbergangsmatrixβ’ Ist ππ ππππ β ππππ = ππππππ bekannt, so folgt
ππ πππ‘π‘ = ππππ πππ‘π‘β2 = ππππ = βππ ππ ππππ β ππππ ππ ππππ β ππππ= βππ ππππππππππππ
β’ Dies entspricht den EintrΓ€gen von ππ2 = ππ(2); Matrix mit Wahrscheinlichkeiten in 2 Schritten von ππππ nach ππππ zu gelangen
MCMC-Verfahren
DefinitionEine Markov-Kette heiΓt ergodisch in Ξ falls fΓΌr zwei beliebige MikrozustΓ€nde ππππ und ππππ die Wahrscheinlichkeit in ππ Schrittenvon ππππ nach zu ππππ gelangen ungleich Null ist fΓΌr ein beliebiges ππ
SatzFΓΌr eine ergodische Markov-Kette existieren die Grenzwerte
limππββ
ππππππ(ππ) =:ππππ und sind unabhΓ€ngig vom Anfangszustand.
Weiterhin sind die ππππ eindeutig bestimmt durchππππ > 0, βππ ππππ = 1, ππππ = βππ ππππππππππ
MCMC-Verfahren
β’ Zu Beginn gelte ππ ππ0 = ππππ = ππππ fΓΌr alle ππβ’ FΓΌr einen weiteren Schritt gilt
ππ ππ1 = ππππ = βππ=1β ππ ππ1 = ππππ ππ0 = ππππ ππ(ππ0 = ππππ)= βππ=1β ππππππππππ = ππππ
β’ Rekursiv folgt ππ ππππ = ππππ = ππππ
Nun lΓ€sst sich auch eine Beziehung fΓΌr πΈπΈ[ππ] herleiten:
MCMC-Verfahrenβ’ Definiere
ππππ(ππ) β 1
ππβππ=1ππ ππ ππππ=ππππ
als den Bruchteil der Zeit den die ergodische Markov-Kette im Zustand ππππ in der Zeit ππ verbracht hat
β’ FΓΌr den Erwartungswert gilt
πΈπΈ ππππππ = 1
ππβππ=1ππ πΈπΈ ππ ππππ=ππππ = 1
ππβππ=1ππ ππ(ππππ = ππππ)
β’ Im Grenzwert gilt damit
limππββ
πΈπΈ ππππππ = ππππ
β’ FΓΌr eine ergodische Markov-Kette gilt diese Aussage auch ohne Erwartungswert:
limππββ
ππππ(ππ) = ππππ , f.s.
MCMC-Verfahren
β’ Betrachte nun die zu Beginn des Kapitels erwΓ€hnte Funktion ππ1ππβππ=1ππ ππ ππππ = 1
ππβππ=1ππ βππ=1β ππ ππππ ππ ππππ=ππππ
= βππ=1β ππ ππππ1ππβππ=1ππ ππ ππππ=ππππ
= βππ=1β ππ ππππ ππππ(ππ)
β’ Als Grenzwert ergibt sich damit1ππβππ=1ππ ππ(ππππ)
ππββπΈπΈ ππ ππ = βππ=1β ππ ππππ ππππ
MCMC-Verfahren
β’ Es verbleibt nun nur noch die Γbergangswahrscheinlichkeiten zu bestimmen, so dass die ππππ mit den Pi ΓΌbereinstimmen
β’ Schritt 1β’ Starte mit einem beliebigen Zustand ππππβ’ Konstruiere eine beliebige symmetrische ergodische Markov-
Kette
MCMC-Verfahrenβ’ Schritt 2
β’ In jedem Zeitschritt wΓ€hle einen zufΓ€lligen Spin π π ππ aus und drehe ihn: π π ππ β βπ π ππ
β’ Dies geschehe mit den modifizierten Wahrscheinlichkeiten ππππππβ
falls ππ β ππ:
ππππππβ β οΏ½ππππππ
ππππππππ
, ππππππππ
< 1
ππππππ , ππππππππβ₯ 1
falls ππ = ππ:ππππππβ β ππππππ + βππππππ(1 β ππππ
ππππ), wobei die Summe ΓΌber
alle ππ mit ππππππππ
< 1 lΓ€uft
β’ Im Durchschnitt besucht der Prozess den Zustand ππππ in 100ππππProzent der Zeit
MCMC-Verfahren
β’ Zu beachten ist, dass bei der Berechnung vonππππππππ
= exp βππ ππππππ
+ ππ ππππππ
= exp(βΞππππ
)
der Wert von ππ nie bestimmt werden muss
Renormierung
Renormierung
DefinitionSei {ππ1, β¦ , ππππ} eine Menge von Zufallsvariablen mit WDFππ(π₯π₯1, β¦ , π₯π₯ππ). FΓΌr eine Teilmenge οΏ½ΜοΏ½π = {ππ1, β¦ , ππππ} mit ππ < ππist die WDF β«ππ πππ₯π₯ππ+1 β¦πππ₯π₯ππDie WDF einer Teilmenge nennt man Randdichte von f. Im Falle diskreter Variablen wird das Integral zu einer Summe
β’ Im Folgenden sollen Randdichten fΓΌr das 1d Ising-Modell berechnet werden
Renormierung
β’ Die Anzahl der Spins sei ππ = 2ππ und es liegen periodische Randbedingungen vor: π π ππ+ππ = π π ππ
β’ Sei οΏ½ΜοΏ½π die Teilmenge mit ungeraden Indizes οΏ½ΜοΏ½π = {π π 1, π π 3, β¦ , π π ππβ1}und οΏ½ΜοΏ½π die mit geraden Indizes
β’ Die Berechnung der Randdichte fΓΌr οΏ½ΜοΏ½π benΓΆtigt im Allgemeinen eine extrem groΓe Summation
β’ Abhilfe schafft folgende Konstruktion
Renormierung
β’ Definiere ππ β βπ½π½π»π»β’ Das Addieren einer Konstanten zu ππ Γ€ndert nichts an der
Wahrscheinlichkeit ππ(ππππ), da auch ππ diese Konstante erhΓ€ltβ’ Addiere also die Konstante πππ΄π΄0 zu ππ und definiere πΎπΎ0: = π½π½
ππ = ππ(0) = πππ΄π΄0 + πΎπΎ0 βππ π π πππ π ππ+1β’ Die Randdichte von οΏ½ΜοΏ½π schreibe als ππππ 1
β’ Man nennt ππ(1) eine Renormierung von ππ(0)
Renormierung
β’ Annahme:Auch ππ(1) besteht aus Summen nΓ€chster Nachbarn (im Originalsystem zwei Spins entfernt), so dass man als Wahrscheinlichkeit
exp ππ2π΄π΄1+πΎπΎ1 βππ ππππππ π π πππ π ππ+2
ππ1erhΓ€lt
β’ Die Annahme ist korrekt, falls fΓΌr die neuen Konstanten π΄π΄1,πΎπΎ1folgende Gleichung gilt: (ππ1= ππ muss aus physikalischer Sicht gelten)
exp ππ2π΄π΄1 + πΎπΎ1 βππ ππππππ π π πππ π ππ+2 = βοΏ½ΜοΏ½π exp πππ΄π΄0 + πΎπΎ0 βππ π π πππ π ππ+1
Renormierungβ’ Durch Umformung erhΓ€lt man fΓΌr die linke Seite
exp(ππ2π΄π΄1 + πΎπΎ1 βππ ππππππ π π πππ π ππ+2) = βππ ππππππ exp(π΄π΄1 + πΎπΎ1π π πππ π ππ+2)
β’ Und fΓΌr die rechte Seite
βοΏ½ΜοΏ½π exp πππ΄π΄0 + πΎπΎ0 βππ π π πππ π ππ+1 = βππ ππππππ οΏ½exp 2π΄π΄0 + πΎπΎ0 π π ππ + π π ππ+2+ οΏ½exp 2π΄π΄0 β πΎπΎ0 π π ππ + π π ππ+2
β’ Annahme ist bestΓ€tigt, wenn fΓΌr alle ππ und alle Werte von π π ππ , π π ππ+2gilt
πππ΄π΄1+πΎπΎ1π π πππ π ππ+2 = ππ2π΄π΄0(πππΎπΎ0 π π ππ+π π ππ+2 + ππβπΎπΎ0(π π ππ+π π ππ+2))β’ Eine Fallunterscheidung liefert
πΎπΎ1 = 12
log cosh 2πΎπΎ0 , π΄π΄1 = 2π΄π΄0 + log 2 + πΎπΎ1
Renormierung
β’ Zu beachten ist, dass die zu Anfang mit 0 gewΓ€hlte Konstante sich verΓ€ndert, jedoch nur harmlose Werte annimmt
β’ Die Parameter π΄π΄ππ,πΎπΎππ des Prozesses sind nur von π΄π΄ππβ1,πΎπΎππβ1abhΓ€ngig
β’ Es entsteht eine Sequenz immer kleiner werdender Untersysteme, deren Konfigurationswahrscheinlichkeiten stets gleich ihrer Randdichten im Originalsystem sind
β’ πΎπΎππ wird in jedem Schritt kleiner da log cosh π₯π₯ < π₯π₯, fΓΌr π₯π₯ > 0, was dazu fΓΌhrt, dass die Variablen in den Untersystemen unabhΓ€ngiger werden
Renormierung
β’ Die KorrelationslΓ€nge ππ wird im 1d Modell zum Abstandππ β ππ > ππ
bei dem die Kovarianz vernachlΓ€ssigbar istβ’ In jedem Renormierungsschritt nimmt die KorrelationslΓ€nge um
den Faktor 2 abIn jedem Schritt lassen sich die Orte der Spins umsortierenπ π 3 β π π 2π π 5 β π π 3 β¦
β’ FΓΌr ππ β 0 erhΓ€lt man ein System unabhΓ€ngiger Spins
Renormierungβ’ Diese Konstruktion ermΓΆglicht es Markov-Ketten zu umgehen:
β’ Reduziere das System wie beschrieben auf zwei Spins pro Periode
β’ Das Ergebnis sind vier ZustΓ€nde mit Wahrscheinlichkeiten ππ1,ππ2,ππ3,ππ4
β’ Erstelle ein Stichprobensystem, das jedes dieser Systeme mit einer Frequenz gleich ihrer Wahrscheinlichkeit zieht
β’ Gehe ΓΌber in das System mit vier Spins:Zwei unbekannte Spins mit bekannten Nachbarn und nur zwei mΓΆglichen ZustΓ€nden
β’ Ziehe auch hier eine Stichprobe gleich der Frequenz ihrer Wahrscheinlichkeiten
β’ ...