0% found this document useful (0 votes)
31 views258 pages

MecEst

Uploaded by

haluh987654321
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
0% found this document useful (0 votes)
31 views258 pages

MecEst

Uploaded by

haluh987654321
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 258

Universidade Federal do Rio de Janeiro

Instituto de Fı́sica

Statistical Mechanics
Lecture Notes – Graduate Course

[Image credit: https://inspirehep.net/record/838172/plots ]

Raimundo Rocha dos Santos

Friday 27th November, 2020 – 11:11


2
Preface

These Lecture Notes (LN) result from teaching this course several times since 1984, in
PUC/Rio, UFF, and UFRJ. Over the years I have benefitted enormously from discussions
with Sergio LA de Queiroz on choice of topics and depth of presentations.
The students are strongly advised not to use these LN as a replacement for studying
through books, since these provide deeper analyses and are far more complete.

Recommended literature:

• B = Radu Balescu, Equilibrium and Non-Equilibrium Statistical Mechanics, (Wi-


ley, 1975).

• H = Kerson Huang, Statistical Mechanics, (Wiley, 2nd Edition, 2002) – ISBN:


978-0471815181

• Kp = Mehran Kardar, Statistical Physics of Particles, (Cambridge, 2007) – ISBN:


978-0521873420

• Kf = Mehran Kardar, Statistical Physics of Fields, (Cambridge, 2007) – ISBN:


978-0521873413

• Ko = SE Koonin, Computational Physics, (Perseus, 1996) – ISBN: 978-9780201388

• K = Ryogo Kubo, H Ichimura, T Usui, and N Hashitsume, Statistical Mechanics,


(North Holland, 2nd Edition, 1990) – ISBN: 978-0444871039

• L = LD Landau and EM Lifshitz, Statistical Physics, (Elsevier, 3rd Edition, 1980)


– ISBN: 978-0750633727

• P = RK Pathria, Statistical Mechanics, (Pergamon, 1972) – ISBN: 978-1483186887

• PB3 = RK Pathria and PD Beale, Statistical Mechanics, (Academic, 3rd edition,


2011) – ISBN: 978-0123821898

• PB = Michael Plischke and Birger Bergersen, Equilibrium Statistical Physics,


(World Scientific, 2nd Edition, 2006) – ISBN: 978-9812560483

3
4

• R = Linda E Reichl, A Modern Course in Statistical Physics, (Wiley, 4th Edition,


2016) – ISBN: 978-3527690480

• Rf = F Reif, Fundamentals of Statistical and Thermal Physics, (Waveland, 2009)


– ISBN: 978-1478610052

• Sa = Silvio RA Salinas, Introdução à Fı́sica Estatı́stica, (EdUSP, 1997) – ISBN:


978-8531403866

• S = H Eugene Stanley, Introduction to phase transitions and critical phenomena,


(Oxford, 1971)
Contents

1 Elements of Ensemble Theory 9


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Macrostates and microstates . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Classical Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Quantum Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 The Approach to Equilibrium . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6 Equilibrium Solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.7 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2 The Microcanonical Ensemble 21


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Connection with Thermodynamics . . . . . . . . . . . . . . . . . . . . . . 23
2.3 Definition of Ideal Systems . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4 The Ideal Gas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.5 The Gibbs Paradox . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.6 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3 The Canonical Ensemble 35


3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Thermodynamics in the Canonical Ensemble . . . . . . . . . . . . . . . . 39
3.3 Thermodynamic Potentials . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4 Response Functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5 Stability of the Equilibrium State . . . . . . . . . . . . . . . . . . . . . . . 49
3.5.1 Conditions for Local Equilibrium in a PVT System . . . . . . . . . 50
3.5.2 Conditions for Local Stability . . . . . . . . . . . . . . . . . . . . . 51
3.5.3 Consequences of Stability . . . . . . . . . . . . . . . . . . . . . . . 52
3.6 Equipartition of Energy . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.7 Ideal Systems in Maxwell-Boltzmann Statistics . . . . . . . . . . . . . . . 55
3.8 The Ideal Gas in the Canonical Ensemble . . . . . . . . . . . . . . . . . . 57
3.9 Molecular Gas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.9.1 Rotation of Diatomic Molecules . . . . . . . . . . . . . . . . . . . . 65
3.9.2 Molecular Vibration . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.10 Paramagnetism of localised spins. . . . . . . . . . . . . . . . . . . . . . . . 68

5
6 CONTENTS

3.11 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

4 The Grand-Canonical Ensemble 79


4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.2 Equivalence between Equilibrium Ensembles . . . . . . . . . . . . . . . . . 83
4.3 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

5 Quantum Effects: Bose and Fermi Statistics 89


5.1 Indistinguishability . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2 Ideal Systems of Bosons or Fermions . . . . . . . . . . . . . . . . . . . . . 92
5.3 Bose-Einstein and Fermi-Dirac distributions . . . . . . . . . . . . . . . . . 97
5.4 Degenerate Fermi gas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.5 Degenerate Bose gas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.6 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

6 Applications of Ideal Quantum Systems 115


6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.2 Density of States . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.3 Fermionic Systems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.4 Magnetic Behaviour of an Ideal Fermi Gas . . . . . . . . . . . . . . . . . . 119
6.4.1 Pauli Paramagnetism . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.4.2 Landau Diamagnetism . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.4.3 The Quantum Hall Effect . . . . . . . . . . . . . . . . . . . . . . . 127
6.5 Thermodynamics of Blackbody Radiation . . . . . . . . . . . . . . . . . . 132
6.6 Phonons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.7 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

7 Approximation Methods 143


7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
7.2 The Virial Expansion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
7.2.1 Deviation of gases from the ideal state . . . . . . . . . . . . . . . . 143
7.2.2 The virial expansion . . . . . . . . . . . . . . . . . . . . . . . . . . 147
7.2.3 The Van der Waals Equation . . . . . . . . . . . . . . . . . . . . . 149
7.3 Dense Fluids: Perturbation Theory . . . . . . . . . . . . . . . . . . . . . . 151
7.4 Monte Carlo Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
7.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
7.4.2 Exchange interaction . . . . . . . . . . . . . . . . . . . . . . . . . . 153
7.4.3 The Basic Strategy . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
7.4.4 The Metropolis Algorithm . . . . . . . . . . . . . . . . . . . . . . . 155
7.4.5 Thermalization and Averaging . . . . . . . . . . . . . . . . . . . . 157
7.4.6 An Example: The 2D Ising Model . . . . . . . . . . . . . . . . . . 158
7.5 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
CONTENTS 7

8 Phase Transitions 163


8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
8.2 Thermodynamics of Phase Transitions . . . . . . . . . . . . . . . . . . . . 164
8.2.1 Phase Coexistence: Gibbs Phase Rule . . . . . . . . . . . . . . . . 164
8.2.2 Classification of Phase Transitions . . . . . . . . . . . . . . . . . . 165
8.2.3 Pure Fluid Systems . . . . . . . . . . . . . . . . . . . . . . . . . . 167
8.2.4 Magnetic Systems . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
8.2.5 Percolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
8.3 Mean-Field Theories . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
8.3.1 The van der Waals equation . . . . . . . . . . . . . . . . . . . . . . 173
8.3.2 Weiss Theory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
8.3.3 Landau Theory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
8.3.4 The Bethe Lattice . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
8.4 Exact Solution for the One-dimensional Ising Model . . . . . . . . . . . . 186
8.5 Critique of Mean-Field Theories . . . . . . . . . . . . . . . . . . . . . . . . 190
8.6 Universality and Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
8.7 The Position-Space Renormalization Group . . . . . . . . . . . . . . . . . 198
8.8 Examples of PSRG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
8.9 The Momentum-Space Renormalization Group . . . . . . . . . . . . . . . 207
8.9.1 The Gaussian Model . . . . . . . . . . . . . . . . . . . . . . . . . . 209
8.9.2 The S 4 Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
8.10 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218

9 Nonequilibrium Statistical Mechanics 227


9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
9.2 Time-dependent Probability Distributions . . . . . . . . . . . . . . . . . . 227
9.3 The Master Equation and the Fokker-Planck Equation . . . . . . . . . . . 230
9.4 Random Walk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
9.5 Movimento Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
9.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
9.5.2 Teoria de Langevin para o Movimento Browniano . . . . . . . . . . 234
9.5.3 Influence of the rapidly fluctuating force . . . . . . . . . . . . . . . 236
9.6 Spectral analysis of fluctuations . . . . . . . . . . . . . . . . . . . . . . . . 240
9.7 Boltzmann Equation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
9.7.1 Derivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
9.7.2 The Relaxation Time Approximation . . . . . . . . . . . . . . . . . 252
9.7.3 Boltzmann’s H Theorem . . . . . . . . . . . . . . . . . . . . . . . . 254
9.8 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
8 CONTENTS
Chapter 1

Elements of Ensemble Theory


Refs.: Balescu [1], Huang [2], Pathria [3, 4], Reichl [5, 6]

1.1 Introduction
When the study of a piece of material is focused on its macroscopic properties, such as the
dependence of the resistivity with temperature, one is faced with the task of processing
information from a microscopic realm into an output describing its collective behaviour.
Since the microscopic description encompasses the basic (classical or quantum) laws of
motion governing a system consisting of the order of NA (the Avogadro number, ∼ 1023 )
particles, this task requires a framework with an outstanding power of synthesis. Indeed,
even if we were able to solve the said equations of motion for the NA particles, the
gathered data by themselves would still be unable to provide information beyond the
microscopic realm. It is through the framework of Statistical Mechanics that we are able
to establish a bridge between the microscopic and macroscopic worlds.
Despite having its origin as a kinetic theory of gases, Statistical Mechanics is applica-
ble to matter in any state. In effect, through this framework many features of matter in
solid, liquid or gaseous phases (as well as mixtures of phases and constituents) have been
elucidated, even at extreme conditions of density and temperatures, as well as matter
in equilibrium with radiation, such as in stars. Further, the framework can be used to
study both equilibrium and non-equlibrium phenomena, thus shedding light on how a
system approaches equilibrium.

1.2 Macrostates and microstates


The first step to understand the Statistical Mechanics framework is to fully appreciate
the difference between macrostates and microstates of a system. Note that the system
in question may be part of a larger one, but we always have in mind a system with a
large number, NA ∼ 1023 , of constituents; the latter is to be understood as particles,
normal modes of vibration, excitations, or quanta. A macroscopic state (macrostate) is
specified by a set of macroscopic variables, the most common examples of which being
the total energy, temperature, number of particles, and several others, depending on
the nature of the system. For a fluid, for instance, one may additionally specify the

9
10 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

pressure, while keeping fixed the volume of the container; for a magnet, one may specify
the magnetisation, while keeping fixed an applied magnetic field. The set specifying the
macrostate can be comprised of a single variable or by several ones.
The microscopic state (microstate) is specified in the usual way in the realm of
classical or quantum mechanics. A classical system of N particles in a three-dimensional
space is specified, at a given time, by 3N generalised coordinates q ≡ q1 , q2 , . . . , q3N ,
and by the 3N generalised conjugate momenta p ≡ p1 , p2 , . . . , p3N ; the number, 3N , of
pairs (qi , pi ) is the number of degrees of freedom of the system. For a system described
by a Hamiltonian, H(q, p), its time evolution can in principle be obtained by solving
Hamilton’s equations of motion,
∂H ∂H
q̇i = , ṗi = − , (1.2.1)
∂pi ∂qi
for a given set of initial conditions. One can therefore represent the microstate of this
system, at a given instant of time, by a point

(q, p) ≡ (q1 , q2 , q3 , . . . , q3N , p1 , p2 , . . . , p3N ), (1.2.2)

in a 6N -dimensional space, called the phase space. As time evolves, (q, p) follows a
trajectory in phase space. For instance, the state of a single particle undergoing one-
dimensional harmonic motion with a fixed total energy is represented by a point describ-
ing an ellipse in the two-dimensional phase space, (x, p).
The microstate of a quantum mechanical system of N particles is specified by a
complex wave function, Ψ(x, t) ≡ Ψ(x1 , x2 , . . . , x3N , t), where the xi are the particle
coordinates; when internal degrees of freedom (such as spin states) are relevant, the
wave function depends on additional quantum numbers specifying these variables, e.g.
Ψ{σ} (x, t). We recall that the wave function provides the maximum information available
about the system. One may equivalently think in terms of an abstract state, |Ψ(t)i,
whose projection in the so-called coordinate representation, |x1 x2 . . . x3N i, yields the
wave function, Ψ(x, t). The time evolution of the microstate |Ψ(t)i is governed by the
Schrödinger equation,

i~ |Ψ(t)i = H|Ψ(t)i, (1.2.3)
∂t
whose solution can be expressed in terms of the time evolution operator,

U (t) ≡ e−iHt/~ , if H 6= H(t), (1.2.4)

which is unitary, U † = U −1 , as

|Ψ(t)i = U (t)|Ψ(0)i, (1.2.5)

where |Ψ(0)i represents the initial condition on the state, assigned at t = 0. Therefore,
the microstate evolves in time in a Hilbert space, instead of in a phase space.
Usually many initial microstates (classical or quantum) correspond to the same
macrostate specifications. For instance, there are many ways in which one can mi-
croscopically prepare an isolated system of non-interacting particles with a specified
1.3. CLASSICAL ENSEMBLES 11

PN
macroscopic (total) energy E = i εi , where εi is the energy of the i-th particle.
Therefore, measurements of most (classical or quantum) dynamical quantities at a given
time would be strongly dependent on the microstate under consideration, thus ultimately
being dependent on the initially prepared state. This is totally unsatisfactory, since such
measurements are not reproducible: if one repeats the experiment at a later time, most
certainly the initial microstate would be different, hence leading to a different outcome
of the measurement. By contrast, if we measure, say the resistivity of a pre-heated
metallic wire as a function of time, we see that the outcome is reproducible, provided
the initial conditions (i.e., the temperature distribution) are the same every time the
experiment is performed, even though the initial microstate is most likely different. We
must therefore abandon the notion of ‘absolutely precise’ measurements of quantities
related to individual particles, in favour of a statistical framework which incorporates,
at a fundamental level, the multiplicity of acceptable microstates.1 That is, through this
framework we expect to predict an average outcome of a great number of experiments,
carried out under identical conditions, to measure collective properties of a system. The
need for a statistical framework is therefore much more deeply rooted than the common
misconception of attributing this need to our inability to solve the equations of motion
for 1023 particles.
This statistical framework may be introduced by simultaneously considering all pos-
sible initial microstates compatible with the specified macrostate; we call this set our
ensemble of microstates. Our first task is then to mathematically characterise the dis-
tribution of microstates. Since the classical and quantum approaches differ in the way
each microstate is defined, one should now split the discussion into classical and quantum
ensembles.

1.3 Classical Ensembles


For a classical system, we may discretise the phase space by dividing it into cells of
‘volume’ dq dp, where we use the notation dq ≡ d3N q and dp ≡ d3N p, for a three-
dimensional system. We then imagine counting the number, dN (q, p; t), of microstates
in which, at a given instant of time, the particle coordinates and momenta lie within
the volume dq dp centred at (q, p). However, dN (q, p; t) depends on the volume itself,
which is an arbitrary choice. This arbitrariness is removed by working with a density
of representative points (per volume in phase space), denoted by ρ(q, p; t); that is, the
number of points within the said volume is given by

dN (q, p; t) = ρ(q, p; t) dq dp. (1.3.1)


1
Given an arbitrary quantum-mechanical pure state, the maximum amount of information one can
extract about the measurements of an observable in this state are the possible outcomes (the eigenvalues
of the observable) and their relative probabilities, from which we determine an expectation value. If
this pure state happens to be one of the eigenstates of that observable, then the outcome is certainly
the corresponding eigenvalue. However, the multiplicity to which we refer here is relative to the many
different pure states in which the system can be found; more on this below.
12 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

At a given instant, a local maximum of ρ [and, of course, of dN ] at (q̃, p̃) means that
one is more likely to find microstates with the particles distributed over (q̃, p̃) than over
nearby values of q and p. Hence, we also refer to ρ(q, p; t) as the probability distribution
function.
Let us now derive an equation of motion for ρ(q, p; t). The differential of ρ(q, p; t) is
3N  
∂ρ X ∂ρ ∂ρ
dρ = dt + dqi + dpi , (1.3.2)
∂t ∂qi ∂pi
i=1

so that with dqi = q̇i dt and dpi = ṗi dt, we arrive at Liouville’s equation,
3N  
dρ ∂ρ X ∂ρ ∂ρ
= + q̇i + ṗi . (1.3.3)
dt ∂t ∂qi ∂pi
i=1

Now,

∂ρ ∂(ρq̇i ) ∂ q̇i
q̇i = −ρ
∂qi ∂qi ∂qi
∂(ρq̇i ) ∂2H
= −ρ , (1.3.4)
∂qi ∂qi ∂pi

where we have used (1.2.1). Similarly,

∂ρ ∂(ρṗi ) ∂ ṗi
ṗi = −ρ
∂pi ∂pi ∂pi
∂(ρṗi ) ∂2H
= +ρ . (1.3.5)
∂pi ∂pi ∂qi

Taking (1.3.4) and (1.3.5) into (1.3.3) leads to


3N  
dρ ∂ρ X ∂ ∂
= + (ρq̇i ) + (ρṗi ) , (1.3.6)
dt ∂t ∂qi ∂pi
i=1

so that defining the velocity vector of the representative points as

v ≡ (q̇1 , q̇2 , . . . , q̇3N , ṗ1 , ṗ1 , . . . , ṗ3N ), (1.3.7)

and introducing the 6N -dimensional analogue of the del operator,


 
∂ ∂ ∂ ∂ ∂ ∂
∇≡ , ,..., , , ,..., , (1.3.8)
∂q1 ∂q2 ∂q3N ∂p1 ∂p2 ∂p3N

we may write Liouville’s equation as


dρ ∂ρ
= + ∇ · ρ v. (1.3.9)
dt ∂t
1.3. CLASSICAL ENSEMBLES 13

Let us now use the fact that the number of members in the ensemble is conserved: if
we consider a volume Γ in phase space, the rate of probability change in Γ results from
a flux of probability current, j ≡ ρv, through the closed surface SΓ bounding Γ. That
is,

Z Z
dq dp ρ(q, p; t) = − j · n dS
∂t Γ SΓ
Z
= − dq dp ∇ · j, (1.3.10)
Γ

where, in the first equality, dS is a surface element of SΓ , and n is the outward unit
vector normal to SΓ at each point; in the second equality we made use of the divergence
theorem. Rearranging terms leads to
 
∂ρ
Z
dq dp + ∇ · ρv = 0. (1.3.11)
Γ ∂t
Since this must hold for any Γ, the integrand must vanish identically, thus establishing
a continuity equation for the probability distribution, in analogy with fluid dynamics.
We have therefore proved Liouville’s theorem:
dρ ∂ρ
= + ∇ · ρv = 0. (1.3.12)
dt ∂t
The continuity equation allows us to view the theorem as a statement that the distribu-
tion of representative points moves in phase space as if it were an incompressible fluid.
Moreover, recall that ∂ρ(q, p; t)/∂t captures changes in ρ at a fixed point in phase space,
while ∇ · ρv picks up contributions due to changes in ρ along the trajectory in phase
space; the dρ/dt = 0 part in Liouville’s theorem therefore implies that the distribution
function remains constant in the neighbourhood of a point moving with this fluid.
At this point it is instructive to seek a formal solution to the continuity equation.
Taking (1.2.1) into (1.3.3) yields
3N  
∂ρ X ∂ρ ∂H ∂ρ ∂H
=− − , (1.3.13)
∂t ∂qi ∂pi ∂pi ∂qi
i=1

where the RHS is recognised as the Poisson bracket between ρ and H, denoted by [ρ, H]P ;
we may use an even more compact notation,
[H]ρ ≡ [ρ, H]P , [H]2 ρ ≡ [[ρ, H]P , H]P , . . . . (1.3.14)
Assuming ρ(q, p; t) can be expanded in a power series in time leads to [we omit here
the arguments (q, p)]
∂ρ 1 ∂2ρ
ρ(t) = ρ(0) + t+ t2 + . . .
∂t t=0 2 ∂t2 t=0
 
1
= 1 − [H] t + [H]2 t2 + . . . ρ(0), (1.3.15)
2
14 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

or, schematically,
ρ(q, p; t) = e−t[H] ρ(q, p; 0), (1.3.16)
which is the formal solution we were seeking.
If we now define the Liouvillian operator, L, as

3N  
X ∂H ∂ ∂H ∂
L ≡ −i − , (1.3.17)
∂pj ∂qj ∂qj ∂pj
j=1

then Eq. (1.3.13) may be written as

∂ρ
i = Lρ(q, p; t). (1.3.18)
∂t
In many texts L is defined without the i, but here we adopt this definition in order to
render L Hermitian, and directly exploring the analogy with the Schrödinger equation.
We see that while H determines the evolution of a single point in phase space, L de-
termines the evolution of the distribution function (hence of the ensemble) in the same
space.
Once ρ(q, p; t) is determined, we can normalise it,
Z
dq dp ρ(q, p; t) = 1. (1.3.19)

Since ρ(q, p; t) is a probability density, it can also be used to calculate averages of any
microscopic quantity B(q, p ; x), where x is a point in space (e.g. the height where the
pressure of a gas is being determined), as
Z
hB(x, t)i = dq dp ρ(q, p; t)B(q, p ; x), (1.3.20)

with ρ(q, p; t) evolving in time according to Eq. (1.3.16). We adopt Eqs. (1.3.19) and
(1.3.20) as the basic postulate of classical Statistical Mechanics.

1.4 Quantum Ensembles


Let us first consider a quantum system in a pure state, |Ψ(t)i. Observables, such as
energy, momentum, and so forth, are described by Hermitian operators,2 b̂† = b̂, whose
time evolution is given by the Heisenberg equation of motion [7],
 
d d
i~ b̂H (t) = [b̂, H]H + i~ b̂S (t) , (1.4.1)
dt dt H

2
Here we use a “hat” (e.g., b̂) to distinguish a quantum operator from a number, but later we will
drop this notation, if no confusion is likely to arise.
1.4. QUANTUM ENSEMBLES 15

where [A, B] ≡ AB − BA is the commutator between operators A and B, and the


subscript H stands for an operator in the Heisenberg picture; for instance,

AH (t) = U † (t − t0 )AS (t0 )U (t − t0 ), (1.4.2)

with U (t − t0 ) being the time evolution operator (between instants t0 and t), as given
by Eq. (1.2.4). The subscript S stands for Schrödinger picture [7]. If the observable b̂
does not depend explicitly on time, the equation of motion becomes
d
i~ b̂H = [b̂, Ĥ]H . (1.4.3)
dt
As mentioned before, the outcome of an experiment measuring the observable b̂ in a
pure state |Ψ(t)i is necessarily one of the eigenvalues of b̂. Therefore, the most we can
predict is the expectation value,

b̄(t) = hΨ(t)| b̂ |Ψ(t) i = hΨ| b̂H |Ψ i, (1.4.4)

where |Ψi ≡ |Ψ(t = 0)i.


If we now expand |Ψi in terms of an orthonormal basis, |mi,
X
|Ψi = cm |mi, (1.4.5)
m

we have X
b̄ = c∗m cn bmn , (1.4.6)
m,n

where Z
bmn ≡ hm|b̂|n i = dx ϕ∗m (x) B(x) ϕn (x), (1.4.7)

where, as before, x ≡ x1 , x2 , . . . , x3N , ϕm (x) ≡ hx|mi, and B(x) ≡ hx|b̂|x i.


We now consider an ensemble of quantum systems, prepared according to the same
specified macrostate; let |Ψ(i) i denote the initial pure state of the i-th member of the
ensemble. We assume the maximum information one has about this ensemble is that
the probability of finding the system in each state |Ψ(i) i is γi , subject to the conditions,
X
γi ≥ 0 and γi = 1. (1.4.8)
i

The system is then said to be described by a statistical mixture ofPstates. As such, this
cannot be represented by a linear superposition of states, |χi = i α(i) |Ψ(i) i. Indeed,
when one takes hχ|χi in the latter case, interference terms appear which are absent in
the former [7].
In order to obtain an expression for the ensemble average of an observable b̂, it
is convenient to first expand each of the states in the mixture in terms of the same
orthonormal basis, |ri, as X
|Ψ(i) i = c(i)
r |ri. (1.4.9)
r
16 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

The expectation value of b̂ in the state |Ψ(i) i is then


X
b̄ (i) = cr(i)∗ c(i)
s brs , (1.4.10)
r,s

where brs is given by Eq. (1.4.7).


We now perform a second average, this time over the ensemble:
X X X
hbi = γi b̄ (i) = γi cr(i)∗ c(i)
s brs . (1.4.11)
i i r,s

These are the results which should be compared with experiments.


We can perform the sum over the members of the ensemble first, thus defining a
matrix ρ, whose elements in the {|ri} basis are
X
ρsr ≡ γi c(i) (i)∗
s cr , (1.4.12)
i

where the order of the indices should be noted. It should also be noted that ρsr is only
concerned with the ensemble (and the chosen basis), not with the observable b̂. In order
to eliminate the reference to the basis, we define the density operator (or density matrix )
as the one whose elements in the {|ri} basis are given by
ρsr = hs|ρ̂|r i. (1.4.13)
The ensemble average (1.4.11) can then be written as
X X X
hbi = brs ρsr = hs|ρ̂|r ihr|b̂|s i = hr|ρ̂ b̂|r i. (1.4.14)
r,s r,s r

The last sum above is the trace of the operator ρ̂ b̂, which, in turn, is actually independent
of the basis used. Hence,
B = hbi = Tr ρ̂ b̂ = Tr b̂ ρ̂, (1.4.15)
where in the last equality we used the property that the trace is invariant under cyclic
permutations of the operators.
(i)
Note that as time evolves the coefficients acquire a time dependence, cr (t), which
in turn leads to a time dependent ρ̂(t), and to
B(t) = hbi(t) = Tr b̂ ρ̂(t). (1.4.16)
In particular, if b̂ = 1 we check if ρ̂ is normalised,
X X
Tr ρ̂ = γi c(i) (i)∗
r cr = γi = 1, (1.4.17)
i,r i

whereas if it is not, the average values are then defined as


Tr ρ̂ b̂
hbi = . (1.4.18)
Trρ̂
Equations (1.4.16) and (1.4.17) are the respective analogues of (1.3.20) and (1.3.19),
so that the quantum version of the basic postulate becomes
1.5. THE APPROACH TO EQUILIBRIUM 17

• The state of a quantum system in Statistical Mechanics is completely specified in a


given instant of time by the density operator ρ̂, satisfying Eq. (1.4.17). The average
value of a dynamical variable b̂ is given by (1.4.15).

In order to interpret ρ̂, it is convenient to separate the diagonal and non-diagonal


contributions: X X
hbi = brr ρrr + brs ρrs . (1.4.19)
r r6=s

The diagonal elements of ρ̂ can be associated with probabilities, since


X
ρrr = γi |c(i) 2
r | , (1.4.20)
i

has the properties


X
ρrr ≥ 0 e ρrr = 1, (1.4.21)
r

obtained with the aid of Eqs. (1.4.8) e (1.4.17).


Therefore, ρrr may be interpreted as the probability of finding the system in the basis
state ϕr (x) = hx|ri; ρrr then measures the population of |ri. If ρ̂ is diagonal in the chosen
basis, {ϕr }, we would have ρrs = 0 para r 6= s, and the definition of the average value
B would be analogous to the classical case. Certainly this situation would be special,
since it is strongly dependent on the basis chosen, not being an intrinsic property of the
density operator. The off-diagonal terms do not have well-defined signs, so that they
cannot be associated with any probabilistic interpretation; they are, instead, associated
with interference effects without classical analogues, and are called coherences.
As with any quantum-mechanical operator, the time-dependence of ρ̂ is governed by
the Heisenberg equation of motion, Eq. (1.4.1). The probability is a constant of motion,
so that the left-hand side of Eq. (1.4.1) vanishes, and we are left with


i~ ρ̂(t) = [Ĥ, ρ̂(t)], (1.4.22)
∂t
which is known as the von Neumann equation, and plays the role analogous to the
Liouville equation for the classical case.
We may then say that, at least formally, the starting point of Statistical Mechanics
consists in the study of solutions to the Liouville or von Neumann equations.

1.5 The Approach to Equilibrium


Assuming that the equations of motion for the probability distributions (or, in the quan-
tum case, for the density matrix) have been solved, one wonders whether the solutions
display the tendency towards equilibrium.
18 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

Figure 1.1: Schematic constant energy surface in phase space for an ergodic system.

Two features show that this is not the case. First, the fact that the eigenvalues
of L are real3 indicates that the solutions to the Liouville equation oscillate in time,
thus not leading to a stationary solution as t → ∞. Second, the Liouville equation is
invariant under time reversal, which is incompatible with irreversible phenomena such
as the decay towards equilibrium.
The description of irreversibility and decay to equilibrium is part of an area of Sta-
tistical Mechanics called Ergodic Theory, whose aim is to understand the origin of irre-
versibility from the flow of distribution functions in phase space. In this course we will
not discuss these issues in detail, but we will provide a very brief introduction to non-
equilibrium systems in the final part. For our purposes here it suffices to mention (see,
e.g. Ref. [5], Chapter 6, for details) that two kinds of flow are important to understand
the decay to equilibrium: ergodic flow and mixing flow. In order to understand ergodic
flow, imagine an isolated system with energy E. To this system therefore corresponds
a (6N − 1)-dimensional surface in phase space, and, as time evolves each representative
point moves in that surface. One says that the flow of these points is ergodic if almost
all of them will pass through an arbitrary neighbourhood within this surface. Figure 1.1
schematically illustrates this surface and some trajectories.
The Ergodic Theorem provides a criterion to determine whether a system is ergodic.
Consider a function f (q, p), integrable in phase space. A system is ergodic if for all
functions f the time average,

t0 +T
1
Z
hf iT = lim dt f (q(t), p(t)), (1.5.1)
T →∞ T t0

3
This is a consequence of the fact that L is Hermitian; for a detailed discussion of the properties of
L, see, e.g. Ref. [8].
1.6. EQUILIBRIUM SOLUTIONS 19

exists for almost all (q, p), and when it does, it is equal to the ensemble average,
1 1
Z Z
hf iS = P f (q, p) dSE = P dqdp δ[H(q, p) − E] f (q, p), (1.5.2)
(E) SE (E)
where dSE is an P element of SE , the energy E surface, invariant during the evolution of
the system, and (E) is the area of this surface. Therefore, ergodic flow corresponds to
the set of representative points visiting almost all of the surface SE , after a sufficiently
long time, spending equal time in equal areas.
Systems with ergodic flow do not reach equilibrium, unless they already depart from
an equilibrium state. In order to reach equilibrium, the flow must also have the property
of mixing. In this kind of flow, the probability distribution spreads through the phase
space as time evolves. One should note that systems with mixing flow are ergodic, but
the converse is not necessarily true.
In the next chapter we will study equilibrium ensembles without referring to the
mechanisms responsible for taking the systems to this state.

1.6 Equilibrium Solutions


We now discuss some equilibrium – that is, time-independent – solutions to both Liou-
ville’s and von Neumann’s equations.
In the classical case, Liouville’s equation becomes
[H, ρ]P = 0. (1.6.1)

R H, e.g. ρ = ρ H(q, p) , then [H, ρ]P = 0,
If the (q, p)-dependence of ρ is given through
and ρ is an acceptable solution, provided dq dp ρ = 1 and ρ ≥ 0. Similarly, in the
quantum case if ρ̂ = ρ̂(Ĥ), with Tr ρ̂ = 1 and ρrr ≥ 0, then
[Ĥ, ρ̂] = 0, (1.6.2)
thus representing an equilibrium solution.
Moreover, any constant of motion is a solution of the corresponding equation (Liou-
ville or von Neumann), but here we will be concerned with ρ as a function of H only.
Further details about the incorporation of other constants of motion, and the ensu-
ing study of trajectories of dynamical systems may be found in the context of Ergodic
Theory.
One may determine several solutions ρ (and ρ̂) satisfying Eqs. (1.6.1) and (1.6.2), but
the simplest one attributes equal weight to all microstates compatible with the given
macrostate, and zero weight to the incompatible ones. This is known as the Postulate
of equal a priori probabilities.
In Chapters 2, 3, and 4 we respectively discuss the microcanonical, the canonical,
and the grand-canonical ensembles. While the overall presentation may be applicable to
different systems, in order to fix ideas it is illustrative to think initially of fluid systems,
such as a gas. In this case, two of the main characteristic variables are the pressure and
the volume, but in Sec. 3.3 we will introduce others, relevant to, say magnetic systems.
20 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

1.7 Exercises
1. Consider a one-dimensional classical harmonic oscillator.

(a) Sketch the trajectory in the phase space for the representative point for this
oscillator.
(b) Consider now an ensemble of these oscillators in which the initial phase is random,
but uniformly distributed in the interval [0, 2π]. Show that the system is ergodic.
[Hint: explore the condition for time averages being equal to averages over the
ensemble.]

2. Consider a box of volume VT with NT particles. Assume that each of the NT particles
has equal probability of being in any point of the box. Now focusing on a volume V
within the box,

(a) Obtain, for any n ≤ NT , the probability distribution function, f (n, V, NT , VT ) [≡


f (n)], of finding n particles in the volume V .
(b) Calculate the mean values n and (n − n)2 .
(c) Show that, for n, NT  1, f (n) is approximately Gaussian.
(d) Show that in the limit V /VT → 0, with NT , VT → ∞ with NT /VT = constant,
f (n) approaches a Poisson distribution,
nn
f (n) = e−n . (1.7.1)
n!
(e) Calculate the standard deviation (relative fluctuation)
 1/2
(n − n)2
δ= ; (1.7.2)
n
(i) Take NT = 1023 , and V /VT = 1/2 and 10−6 . Comment.
(ii) Take NT = 10, and V /VT = 1/2 and 10−6 . Comment.

3. A book with 1 400 pages has 700 typos. Under assumptions that one should find
reasonable, determine the probability that a page has 2 typos.

4. A beam of Ag atoms, each with spin-1/2, is prepared in a way that 60% of the atoms
are in the Sz = +~/2 eigenstate of Sbz , and 40% are in the eigenstate Sx = −~/2 of
Sbx .

(a) Obtain the density matrix at t = 0, in the basis of eigenstates of Sbz .


(b) Admit that the atoms are subjected to a magnetic field B = B0 ŷ, so that the
Hamiltonian reads, Hb = µ S · B (µ is the magnetic moment of an atom). Obtain
the density matrix at time t, in the basis of eigenstates of Sbz .
(c) Calculate hSz i at times t = 0 and t.
Chapter 2

The Microcanonical Ensemble


Refs.: Balescu [1], Huang [2], Pathria [3, 4], Reichl [5, 6], Stanley [9]

2.1 Introduction
Our first aim is to set up a distribution function representing an equilibrium state.
We start with the quantum description, which is more clear and fundamental in many
aspects, as it will become evident when discussing quantum gases.
The simplest case we can consider is that of an isolated system: without interacting
with the external world, it is characterised by having constant energy. This is clearly
an idealisation, since it is impossible to switch off the interaction with the external
world. In addition, the number of states per energy interval is very large (∼ aN , where
a is a typical linear size of the system and N is the number of particles), so that a
small – though macroscopic – uncertainty in the total energy amounts to incorporate
or exclude from the discussion a great number of compatible states. Therefore we will
extend the definition of an isolated system to one with energy between E and E + ∆E,
with ∆E  E. Further, we will assume the system is contained in a volume V much
larger than typical volumes in the molecular scale (i.e., V  10−30 m3 ), with N (∼ 1023 )
particles.
In order to obtain the density operator for this isolated system, we choose the rep-
resentation of Hamiltonian eigenstates, which renders ρ̂ diagonal due to its dependence
with Ĥ,
1
ρmn = am δmn , (2.1.1)

where m represents a set of quantum numbers which completely specify the Hamiltonian
eigenstates, and am and Ω will be defined below. Each pm ≡ am /Ω must be positive
since it represents the probability of finding the system in the state m (and not with the
energy Em ).
In line with the discussion of § 1.2, we introduce the postulate of equal a priori
probabilities,
(
1 if E ≤ Em ≤ E + ∆E
am = (2.1.2)
0 otherwise,

21
22 CHAPTER 2. THE MICROCANONICAL ENSEMBLE

while Ω is determined through the normalisation of ρ̂,


1X 1 X0
Tr ρ̂ = am = 1 = 1, (2.1.3)
Ω m Ω m
P0
where restricts the sum solely to states compatible with total energy between E and
E + ∆E. Therefore, X
0
Ω= 1 (2.1.4)
m
is the number of accessible states with total energy between E and E + ∆E.
One should note that Ω is a function of the energy E, of the interval ∆E, and
parametrically depends (i.e., via Em ) on the volume V and on the number of particles
N,
Ω ≡ Ω(E; ∆E; N, V ). (2.1.5)
The analysis of the classical case follows along lines close in spirit to the quantum
case, though with suitable modifications. The postulate of equal a priori probabilities is
imposed to the classical distribution function for microstates with energy E0 as
(
1/Ω if E ≤ E0 ≤ E + ∆E
ρ(q, p) = (2.1.6)
0 otherwise.

Similarly to the quantum case, the normalisation of ρ allows us to interpret Ω as the


number of accessible points in phase space, given by
Z 0 Z 0
Ω = Ω0 dq dp, (2.1.7)

where the lines in the integrals restrict the volume in phase space to that corresponding
to the energy in the interval between E and E + ∆E. The constant Ω0 is introduced to
render Ω dimensionless: for each product dqi dpi in the integral, we divide by a constant,
h0 , with dimensions of angular momentum; h0 → h in the quantum limit. Thus, for N
particles in a d-dimensional space we have
1
Ω0 = . (2.1.8)
h0dN

Instead of calculating the number of states within an interval ∆E, it is often more
convenient to calculate the number of states with energy smaller than E,
Z
Σ(E) = Ω0 dq dp, (2.1.9)
H<E

where one should note that the phase space integral incorporates the factor Ω0 given by
(2.1.8). Using Σ(E), we may write

Ω(E) = Σ(E + ∆E) − Σ(E) ≈ D(E) ∆E, (2.1.10)


2.2. CONNECTION WITH THERMODYNAMICS 23

D
( )
( )

E
Figure 2.1: Schematic density of states for N free particles in a cubic box of volume V as a function of the total
energy.

since ∆E  E, and
∂Σ
D(E) = (2.1.11)
∂E
is the density of accessible states with energy E. A similar discussion applies to the
quantum case.
In § 2.4 we will see that for N non-interacting particles in a box, the dependence
with energy is
ΣN (E) ∝ E 3N/2 . (2.1.12)
Since N  1, the density of states grows very rapidly with E. Figure 2.1 schematically
illustrates the dependence of D with E, and we also identify Σ(E) and Ω(E) = D(E)dE.

2.2 Connection with Thermodynamics in the Microcanon-


ical ensemble
Classical Thermodynamics is built upon some experimental observations, giving rise
essentially to three basic laws which may be stated as follows:

First Law (Conservation of Energy): The variation of the internal energy of a


system in an arbitrary infinitesimal process is given by

dE = d−Q − d−W, (2.2.1)

where d−Q is the amount of heat absorbed by the system, and d−W is the work done by the
system. These latter quantities depend on the path followed in the process, while the
internal energy is a state function, depending only on the inital and final states, but not
on the path; for further discussions and applications of the First Law, see, e.g. Reif [10],
Reichl [6], and Huang [2].
24 CHAPTER 2. THE MICROCANONICAL ENSEMBLE

Second Law (Entropy increase): In a closed system away from equilibrium, the pro-
cesses occur in such way that a state function, called entropy, S, increases continuously
until reaching a maximum value, corresponding to the equilibrium state. The entropy
is thermodynamically defined through its variation,

d−Q
dS ≥ (2.2.2)
T
where T is the absolute temperature of the system. The equality holds in an infinites-
imal quasi-static process, i.e. one in which the system slowly evolves, in a succession of
equilibrium states; the process is therefore reversible.
As a consequence of these two laws, we have

T dS ≥ dE + d−W (2.2.3)

where, again, the equaity holds in a reversible process.

Third Law (Limiting value of the entropy): The entropy of a system is such that

lim S = S0 , (2.2.4)
T →0+

where S0 is a constant independent of all system parameters.


Not withstanding the importance of these laws, here we will not discuss their specific
applications, since they are expected to have been extensively explored at the undergrad-
uate levels of both basic physics and that of Reif’s book [10]. Nonetheless, from these
laws it is possible to derive constraints to be imposed on several quantities characterising
thermal and mechanical behaviour of matter, as we will do throughout this course. In
addition, these laws also play an important role in validating results obtained in many
physical situations.
Despite its far reaching success, Thermodynamics has its intrinsic limitations. More
specifically, we recall that relationships between several response functions (see Sec. 3.4)
may be derived from purely thermodynamic arguments [see, e.g. Eqs. (3.4.6)]. However,
Thermodynamics alone does not provide the means to calculate each of the quantities
involved; that is, Thermodynamics is not a microscopic theory.
The link between the microscopic and macroscopic worlds is established by the frame-
work of Statistical Mechanics. To see how this comes about, we start by considering a
non-interacting gas in an isolated box of fixed volume, and let the macrostate be spec-
ified by, say the number of molecules in the left half of the box.1 One immediately
convinces oneself that the maximum number of macrostates corresponds to having half
of the molecules on the left-hand side. Cleary, this is the equilibrium situation: had one
started with all molecules in one side, they would soon be evenly distributed throughout
the box, apart from small fluctuations. We conclude from this simple example that the
equilibrium macrostate is connected with the maximum number of microstates. In view
1
For a detailed description of this situation, see Reif’s book, Statistical Physics: Berkeley Physics
Course, Vol. 5 [11].
2.2. CONNECTION WITH THERMODYNAMICS 25

of the Second Law, the entropy must therefore be related with the number of accessible
microstates. In order to set up such relation, we must take into account two constraints
the entropy must satisfy. The first is its additivity, which is not satisfied by Ω, but by
ln Ω, since if a non-interacting system is made up of two parts, the total number of states
is the product of the number of states of each part. The second is the fact that T d−S
has units of energy, so that S must have units of the Boltzmann constant, kB . In view
of all this, one may write
S ≡ kB ln Ω(E, V, N ). (2.2.5)
We note that the dependence of Ω with ∆E was omitted. Indeed, in the majority of
cases of interest, the number of states with energy between E and E + ∆E grows so fast
that the contribution to Ω from the immediate neighbourhood of E is much larger than
the contribution relative to all energies up to E. Therefore, the leading contribution to
the entropy in Eq. (2.2.5) is the same whether one uses Ω(E), Σ(E), or even D(E)∆E,
since the differences are on the order of ln N or smaller; see § 2.4.
In summary, the entropy is a measure of the degree of the system’s amount of dis-
order, in the sense that the larger the number of accessible states, the larger is the
randomness associated with the macrostate. Thus, the Second Law tells us that the
macrostate of equilibrium is the most random or, equivalently, the most likely. At this
point it is worth appreciating another aspect of Eq. (2.2.5): on the left-hand side lies a
thermodynamic quantity, while the right-hand side carries information about the sys-
tem’s spectral properties.
The extensivity of the entropy allows us to write a scaling form as

S = N s(E/N, V /N ), (2.2.6)

where s is the entropy per particle, which, in turn, can only be a function of the intensive
variables, E/N and V /N . This illustrates a general feature: an additive thermodynamic
quantity must be a homogeneous function of degree 1 in its additive variables, such that
if E → λE, N → λN , and V → λV , one has s → s, but S → λS.
We now consider the system, S, as made up of two parts, S1 and S2 (Fig. 2.2),
whose macrostates are characterised by the parameters (E1 , V1 , N1 ) and (E2 , V2 , N2 ),
respectively; to these parameters correspond Ω1 and Ω2 states. Let us initially assume
S1 and S2 are in thermal contact through a fixed and impermeable partition wall, i.e. it
only allows exchange of energy between them.
In view of this, V1 , V2 , N1 , and N2 are kept separately fixed, but the energies are
subject to the condition
E = E1 + E2 = constant (2.2.7)
The number of states accessible to S is, therefore,

Ω(E1 , E2 ) = Ω1 (E1 ) Ω2 (E2 ) = Ω1 (E1 ) Ω2 (E − E1 ) = Ω(E, E1 ). (2.2.8)

As discussed above, the equilibrium state corresponds to the maximum of Ω. Denot-


ing by Ē1 and Ē2 the energies of S1 and S2 in the equilibrium situation, the condition
26 CHAPTER 2. THE MICROCANONICAL ENSEMBLE

S1 S2

( E 1, V1 , N1) ( E 2, V2 , N2)

Figure 2.2: Two subsystems, S1 and S2 separated by a partition.

of maximum of Ω becomes
  
∂Ω ∂Ω1 ∂Ω2 ∂E2
= Ω2 (Ē2 ) + Ω1 (Ē1 ) =0 (2.2.9)
∂E1 E1 =Ē1 ∂E1 E1 =Ē1 ∂E2 E2 =Ē2 ∂E1

In view of (2.2.7), ∂E2 /∂E1 = −1, so that the condition for thermal equilibrium becomes
   
∂ ln Ω1 (E1 ) ∂ ln Ω2 (E2 )
= . (2.2.10)
∂E1 E1 =Ē1 ∂E2 E2 =Ē2

If we now define  
∂ ln Ωi (Ei )
βi = , (2.2.11)
∂Ei Ei =Ē
we have
β1 = β2 , (2.2.12)
or, identifying βi = 1/kB Ti , i = 1, 2, with Ti being the absolute temperature of each
sub-system,
T1 = T2 , (2.2.13)
which is the expected condition for thermal equilibrium: the two subsystems must be at
the same temperature.
Let us now assume that in addition of being thermally conducting, the partition in
Fig. 2.2 is movable and permeable, so that the number of states is Ω(E, V, N, E1 , V1 , N1 ),
since now each of the sums V1 + V2 = V and N1 + N2 = N ia a constant. Imposing
dΩ = 0, for independent changes in E1 , V1 , and N1 , leads to ∂Ω/∂V1 = ∂Ω/∂N1 = 0,
from which one extracts the conditions on mechanic equilibrium,

P1 = P2 , (2.2.14)

where the pressure, Pi , i = 1, 2, for each sub-system is defined as


 
1 ∂ ln Ωi
Pi = , (2.2.15)
βi ∂Vi Ei ,Ni
2.2. CONNECTION WITH THERMODYNAMICS 27

and of chemical equilibrium,


µ1 = µ2 , (2.2.16)
where the chemical potential, µi , i = 1, 2, for each sub-system is defined as
 
1 ∂ ln Ωi
µi = − , (2.2.17)
βi ∂Ni Ei ,Vi

whose physical meaning will be discussed later.


If we now invert Eq. (2.2.5) to obtain E(S, V, N ), we make explicit the fact that E
depends on the degree of randomness (through S), being thus associated with the energy
required to prepare the macrostate. In view of this, E is also referred to as the internal
energy. The extensivity of E, S, and V allows one to anticipate that E(S, V, N ) may be
written as
E = N e(S/N, V /N ), (2.2.18)
where e is the internal energy per particle, which, as an intensive quantity, can only be
a function of the intensive variables S/N and V /N .
With E(S, V, N ) we also note that the internal energy is a thermodynamic poten-
tial,2 , in the sense that all thermodynamic quantities may be obtained from it through
simple algebraic manipulations or by differentiations; in the latter case, the notion of
thermodynamically conjugate variables emerges naturally, as we now illustrate.
Consider a quasi-static process [i.e., one in which the equality in Eq. (2.2.3) applies],
in which additionally the number of particles may vary (hence with a variation in the
internal energy). With E = E(S, V, N ), the conservation of energy [First Law of Termo-
dynamics, with d−W = P dV ] may then be written as

dE = T dS − P dV + µ dN. (2.2.19)

On the other hand, since the differential of E is given by


     
∂E ∂E ∂E
dE = dS + dV + dN, (2.2.20)
∂S V,N ∂V S,N ∂N S,V

we may obtain the following quantities:


 
∂E
Temperature T = (T conjugate to S) (2.2.21)
∂S V,N
 
∂E
Pressure P = − (−P conjugate to V ) (2.2.22)
∂V S,N
 
∂E
Chemical potential µ = (µ conjugate to N ) (2.2.23)
∂N S,V

In summary, in the microcanonical ensemble, the independent variables are (E, V, N )


or (S, V, N ), from which we may obtain (T, P, µ). However, the choice of independent
2
A more detailed discussion on thermodynamic potentials will be presented in Sec. 3.3.
28 CHAPTER 2. THE MICROCANONICAL ENSEMBLE

variables is dictated by the experimental conditions at hand. In principle, if one knew the
three functions (2.2.21)-(2.2.23), one could express any set of three variables in terms of
the remaining ones. Clearly this situation is unusual in practice, but it can be remedied
using other ensembles, or, equivalently, by performing Legendre transformations on the
different thermodynamic potentials; see Sec. 3.3.

2.3 Definition of Ideal Systems


In order to grasp the ideas we are developing, it is useful to first apply them to the sim-
plest systems possible, namely those of non-interacting constituents; we will generically
refer to these systems as ideal. Their Hamiltonians can be cast in the form

N
X
H= Hj , (2.3.1)
j=1

where, for a gas, Hj is a function solely of the coordinates and momenta of a finite
(usually small) number of degrees of freedom; this set is designated by j. Quantum
mechanically, Hj is an operator acting solely on a finite set of coordinates in the config-
uration space. A typical example is the case in which j involves the three translational
degrees of freedom of the molecule’s centre of mass; for polyatomic molecules, the de-
grees of freedom describing their rotation and vibration must also be included. Further,
Hj0 may also involve the spin quantum number referring to the projection onto a given
direction, such that of an external magnetic field. Accordingly, in order to simplify
the notation we will think of j as a ‘particle’, but always keeping in mind that j may
include both translational and internal (includng spin) degrees of freedom. It is also
worth stressing that Hamiltonians such as (2.3.1) may also describe systems which are
not composed of material particles, such as harmonic oscillators, phonons, magnons,
excitons, and so forth.
A very important property of the Hamiltonian (2.3.1) is additivity: it describes a
set of independent particles. At first, we will consider ideal ‘classical’ systems, in the
sense that quantum effects such as indistinguishability are irrelevant: the motion of one
particle is not influenced by any other, so that the N -body problem reduces to N in-
dependent one-body problems; these ‘classical’ particles are described by the so-called
Maxwell-Boltzmann statistics3 As we will see in Chapter 5, indistinguishability imposes
stringent constraints on the wave functions, leading to surprising quantum behaviours.
These quantum gases are described by either Bose-Einstein or Fermi-Dirac statistics, re-
spectively for particles with integer- or half-integer spins, but in such way that their high
temperature or low-density limits must reproduce the results from Maxwell-Boltzmann
statistics.
3
References to Maxwell-Boltzmann statistics usually imply the description, in the canonical ensemble,
of particles without symmetrisation constraints in the wave function; here we will understand this as
extended to any ensemble.
2.4. THE IDEAL GAS 29

One of the most significant aspects in the study of ideal systems is their simplicity, for
these are the Statistical Mechanical models which can be treated more thoroughly, and
even exactly in some cases. However, one must always keep in mind that ideal systems do
not exist in Nature. Attempts to insist in this concept may lead to severe inconsistencies:
it can be shown (see, e.g. Ref. [1], Chapter 13) that, if starting from an arbitrary state,
a system described by Eq. (2.3.1) will never reach thermodynamic equilibrium. This is
due to the fact that it is the interaction between the constituents which provides the
crucial mechanism to drive the system towards equilibrium. If the interactions are small,
in some sense, the equilibrium properties of the system are described by a distribution
(or density operator) corresponding to that of an ideal system with corrections.

2.4 The Ideal Gas in the Microcanonical Ensemble


In the microcanonical ensemble, the central microscopic quantity is the number of ac-
cessible states. We start by determining this quantity for a single classical particle in
a three-dimensional cubic box of volume V = L3 . This is achieved, say by counting,
in phase space, the number of available states with energy smaller than some value, E,
according to Eq. (2.1.9),
1
Z Z
3
Σ1 (E) = 3 d r d3 p . (2.4.1)
h0 V =L3 p2 ≤2mE
The first integral yields the volume accessible to the√particle, V , and the second yields
the volume of a 3-dimensional sphere of radius R = 2mE,

Z
d3 p = (2mE)3/2 , (2.4.2)
2
p ≤2mE 3
so that
L 3
 
Σ1 (E) = (2mE)3/2 . (2.4.3)
h0
For N classical particles in a cubic box, the number of states with energy smaller
than E is obtained from
1
Z Z
ΣN (E) = 3N dq 1 dq 2 . . . dq 3N P dp 1 dp 2 . . . dp 3N . (2.4.4)
h0 V =L3 3N 2
i=1 pi ≤2mE

Similarly, the first integral yields L3N ,√while the second yields the volume of a 3N -
dimensional hypersphere of radius R = 2mE, given by (see, e.g. App. C of Refs. [3, 4])
π 3N/2
V3N (R) = R3N , (2.4.5)
(3N/2)!
so that
3N
(2mπE)3N/2

L
ΣN (E) =
h0 (3N/2)!
 3N 
4eπmE 3N/2

L
≈ , (2.4.6)
h0 3N
30 CHAPTER 2. THE MICROCANONICAL ENSEMBLE

where in the last line we used Stirling’s formula,

N ! ≈ (N/e)N , for N  1. (2.4.7)

The quantum mechanical evaluation of the number of accessible states for a single
free particle starts with the choice of boundary conditions for one-dimensional motion
(see, e.g. Ref. [7]). If the particle is within two infinite potential barriers, located at x = 0
and x = L, it is described by stationary waves such that an integer number, n, of half-
wavelengths can be accommodated in the length L; thus the momentum quantisation
yields p = nh/2L, with n = 0, 1, 2, . . . , ∞. Alternatively, one may impose periodic
boundary conditions (PBC), ψ(x + L) = ψ(x), which amounts to eikL = 1, leading to
p = nh/L, with n = 0, ±1, ±2, . . . , ±∞.4 The presence of positive and negative values
of p reflects the possibility of propagating modes, closer in spirit to the classical motion
considered above, so in what follows we will adopt this point of view.
The single-particle energy levels are then given by

p2
εn = = ε1 n 2 n = 0, ±1, ±2, . . . , ∞, (2.4.8)
2m
where ε1 ≡ h2 /(2mL2 ). The separation between two successive energy levels is

h2
∆εn = εn+1 − εn = (2n + 1)
2mL2
→ 0, as L → ∞, (2.4.9)

thus showing that the spectrum may be regarded as continuous for large L. For a cubic
box, these results are easily generalised to

p2
εnx ,ny ,nz = = ε1 (n2x + n2y + n2z ), nν = 0, ±1, ±2, . . . , ∞, ν = x, y, z, (2.4.10)
2m
again forming an almost continuum for macroscopic boxes.
For N such particles, the energy levels are

En = ε1 n2N , (2.4.11)

with
nN ≡ (n1x , n1y , n1z , n2x , n2y , n2z . . . , nN x , nN y , nN z ), (2.4.12)
where niν = 0, ±1, ±2, . . . , ∞, i = 1, 2, . . . N, and ν = x, y, z.
The number of states with total energy smaller or equal to E is the number of points
in this n-space satisfying the equation
X
ε1 n2 ≤ E. (2.4.13)
n
4
We allow for zero-energy states since they are needed for consistency with the possibility of zero-
particle states.
2.4. THE IDEAL GAS 31

For macroscopic boxes, we may therefore assume a continuum of levels, so that the sum
becomes an integral
p over the (dimensionless) volume of a 3N -dimensional hypersphere
of radius R ≡ E/ε1 . With Eq. (2.4.5), we get
3N/2  3N 
π 3N/2 2mL2 E 4eπmE 3N/2
 
(Q) L
ΣN (E) = ≈ (2.4.14)
(3N/2)! h2 h 3N
= ΣN , (2.4.15)
where to establish the last equality we assumed h0 = h.
The entropy (for classical and quantum particles) is therefore
"   #
V 4πmeE 3/2
S(E, V, N ) ≈ N kB ln 3 , (2.4.16)
h 3N

which, with the aid of Eqs. (2.2.11) and (2.2.15), leads to



1 ∂S 3 N kB 3
= = ⇒ E = N kB T (2.4.17)
T ∂E V,N 2 E 2

P ∂S N kB
= = ⇒ P V = N kB T. (2.4.18)
T ∂V E,N V

By eliminating the temperature in these equations we obtain the equation of state,5


2E
P =. (2.4.19)
3V
At this point, some comments are in order. First, had we used PBC in the evaluation
of quantum states with energy less or equal to E, there would be a factor 1/23N multiply-
ing ΣN on the RHS of Eq. (2.4.15), since only positive values of niν should be considered.
This would lead to an additional contribution of −3N ln 2 to the entropy, which is O(N ),
much smaller than the dominant contribution, which is O(N ln N ). Second, if instead
of ΣN (E) we use
∂ΣN 3N
Ω(E) = ∆E = ΣN (E)∆E, ∆E  E, (2.4.20)
∂E 2E
then  
3N ∆E
ln Ω(E) = ln ΣN (E) + ln , (2.4.21)
2E
so that the correction to the entropy is much smaller (by virtue of the factor ∆E/E)
than the first term; this illustrates the fact that one can use either Ω or Σ to calculate
the entropy, since the errors are not macroscopic. Third, we note that as far as the
dependence with the energy and the volume is concerned, we may take ΣN ∼ ΣN 1 in
order to extract the temperature and the pressure, hence also the equation of state. And,
finally, the dependence of S with N , expressed in Eq. (2.4.16), still needs attention, as
we now discuss.
5
One often refers to Eq. (2.4.18) as the equation of state for the ideal Maxwell-Boltzmann gas,
although an equation of state actually relates the pressure with the energy density, as in Eq. (2.4.19).
32 CHAPTER 2. THE MICROCANONICAL ENSEMBLE

2.5 The Gibbs Paradox


The extensiveness of the entropy, as reflected in its scaling property, Eq. (2.2.6), is not
satisfied by Eq. (2.4.16). Indeed, when we change the scale of the extensive variables by
a constant number, λ, i.e. E → λE, V → λV, and N → λN , we get
"  #
λV 4πmeλE 3/2

S(λE, λV, λN ) = λN kB ln
h3 3λN
6= λS(E, V, N ) (2.5.1)

This inconsistency was detected in the analysis of the entropy of mixing (see Exer-
cise 1), and is known as the Gibbs paradox. The fundamental reason for this lies in the
fact that it is assumed the particles are distinguishable. For indistinguishable particles
(in the classical sense), all N ! permutations of particles correspond to the same state,
so we are overcounting states in ΣN ; we should therefore divide the RHS of Eq. (2.4.6)
by this factor,
 3N  3N/2
e N (E) = 1
Σ
L 4eπmE
,
N! h0 3N
!3N/2
4e2 πmEV 2/3
≈ , (2.5.2)
3h20 N 5/3

With this, there is no λ left within the brackets when E, V and N are scaled, thus
guaranteeing that its logarithm is extensive.
From now on, classical indistinguishability should be incorporated into the definition
of Σ, even when the counting is quantum.

2.6 Exercises
1. Consider two ideal gases initially occupying each side of a container, separated by an
insulating, fixed, and impenetrable partition; see Fig. 2.2. On the left-hand side there
are N1 distinguishable molecules of mass m1 occupying a volume V1 at a temperature
T ; on the right-hand side there are N2 distinguishable molecules of mass m2 occupying
a volume V2 at the same temperature T of the left hand side.

(a) Write down an expression for the entropy of each gas, in terms of Ni , Vi , mi ,
i = 1, 2, and T , before the partition is removed.
(b) The partition is removed. Write down an expression for the total entropy, ST , in
terms of Ni , V ≡ V1 + V2 , mi , i = 1, 2, and T , after equilibrium is reached.
(c) Define the entropy of mixing as

∆S ≡ ST − (S1 + S2 ), (2.6.1)
2.6. EXERCISES 33

and show that if the gases have the same densities, one has
 
N1 + N2 N1 + N2
∆S = kB N1 ln + N2 ln , (2.6.2)
N1 N2

which is positive, as expected (Why?).


(d) Now assume the molecules are identical. Show that even in this case one has
∆S > 0.
(e) The result in (1d) is obviously wrong, and is known as The Gibbs Paradox: one
should have ∆S = 0, since this particular mixing is a reversible process. Indeed,
by repositioning the partition in the same position, one recovers the initial state,
before mixing. In order to correct this, first show that (2.6.2) can be written as

∆S ≈ kB [ln(N1 + N2 )! − ln N1 ! − ln N2 !] . (2.6.3)

This suggests that the number of states is overestimated by a factor N !, due


to the indistinguishability of the particles. Hence, in going from one-particle
states to N -particles states, one must divide the outcome by N !. Show that by
incorporating this factor in the number of states leads to: (i) an extensive entropy,
and (ii) zero entropy of mixing for identical molecules.

2. Obtain the density of quantum states for a single particle of mass m, in a d-dimen-
sional box of linear size L. The energy-momentum relation (dispersion relation) for
each particle is given by ε = aps .

3. Consider N practically uncoupled harmonic oscillators in the microcanonical ensem-


ble. The total energy of the system is

1
E = N hν + M hν (2.6.4)
2
where ν is the common frequency of all oscillators, and M is an integer.

(a) Show that the number of states with energy E is given by

(M + N − 1)! E 1
Ω(M, N ) = , with M = − N. (2.6.5)
M !(N − 1)! hν 2

(b) Assuming N, M  1, show that the energy is expressed in terms of the temper-
ature as  
1 1
E = N hν + . (2.6.6)
2 ehν/kB T − 1
Sketch E/N hν as a function of kB T /hν, and discuss the limits of high and low
temperatures.
34 CHAPTER 2. THE MICROCANONICAL ENSEMBLE

(c) Show that the chemical potential is given by

µ = kB T ln [2 sinh(hν/2kB T )] . (2.6.7)

Sketch µ/kB T as a function of kB T /hν, and discuss the limits of high and low
temperatures.

4. A system of N independent particles is such that each one of them can be in either
of two energy levels, ±ε0 .

(a) Determine the number of states with energy E = M 0 , M = −N, −N + 1, . . . , N


(b) Obtain the system temperature as a function of E.
(c) Make a sketch of S(E) and of T (E); consider both regions E > 0 and E < 0.
(d) Obtain the heat capacity, C ≡ dE/dT , and make a sketch of C(T ).
Chapter 3

The Canonical Ensemble

3.1 Definition
In the previous Chapter we focused on isolated systems. This hypothesis, in addition to
being unrealistic, is too restrictive since it does not allow the study of systems interacting
with its surroundings through the exchange of energy in different ways. In order to study
these cases, let us first consider a very large isolated system – let us call it the Universe,
U –, with energy EU ; it is described by a microcanonical ensemble. The system S, object
of our study, is a subsystem of U. It has NS particles in a volume VS , and interacts with
the complement of S, the external world, W, with NW particles in a volume VW ; see
Fig. 3.1.
Let us adopt the following hypotheses: (1) 1  NS  NW , such that Statistical
Mechanics is applicable to S; (2) U is in equilibrium, so that particle densities and
other local properties are uniform, apart from fluctuations; (3) S does not correspond to
regions with large fluctuations, so that densities in S and in W are approximately the
same, or
NS NW
≈ . (3.1.1)
VS VW
That is, S and W are assumed to be in equilibrium with each other.
The results we are about to derive are valid in the so-called thermodynamic limit,
NS , NW → ∞
NW
→∞
NS
VS , VW → ∞,
but such that the densities are approximately the same,
NS NW
≈ = n. (3.1.2)
VS VW
The energy of the Universe may be written as
0
EU = ES + EW + HSW , (3.1.3)

35
36 CHAPTER 3. THE CANONICAL ENSEMBLE

R0 S

RS W

Figure 3.1: Schematic representation: The system S has typical dimensions RS , and is a subsystem of the
microcanonical Universe, U. The external world, W, is much larger than its complement S. R0 is the length scale
of the interactions between the particles.

where ES is the energy of S, which, being extensive (i.e., additive), is on the order of VS ;
EW is the energy of W which, similarly, is on the order of VW ; HSW 0 is the interaction
energy between S and W, which is on the order of VC , the volume of the region where
the interaction between S and W takes place. That is, VC ∼ RS2 R0 , where RS is a typical
linear size of S, and R0 is the range of the interaction potential between the particles;
see Fig. 3.1. Therefore, in comparison with the smaller energy scale (amongst S and W)
one has
0 |
|HSW R2 R0
VC −1/3
∼ ∼ S 3 ∝ VS . (3.1.4)
|ES | VS RS

Thus, by taking S as a very large system we may neglect HSW 0 in comparison with
0
ES . Nonetheless, one must always keep in mind that HSW is physically important for
providing the mechanism through which S and W exchange energy, though it contributes
with a numerically small to the total energy. In this way, S and W may be considered
as practically uncoupled, or

EU ≈ ES + EW , with ES  EW . (3.1.5)

At this point we pose the fundamental question in the canonical ensemble: Given
that the Universe is microcanonical, what is the probability, pm , of finding S in a given
quantum state, characterised by a set, m, of quantum numbers, and having an energy
Em ?
The quest for an answer may start by noticing that since U has energy between EU
and EU + ∆E, then W has energy between EU − Em and (EU − Em ) + ∆E, when S
has energy Em ; see Fig. 3.2. The number of states in W satisfying this condition is
ΩW (EU − Em ; ∆E), which is also the number of configurations in the Universe, Ω e U , in
which S is in the specific state m, with energy Em , and, jointly, W has energy in this
interval; that is,
e U (EU ; ∆E) = ΩW (EU − Em ; ∆E) · 1.
Ω (3.1.6)
3.1. DEFINITION 37

EW EW + EU EU +

Em
Figure 3.2: S is in a state of energy Em , the energy of U lies in the range EU and EU + ∆, and the energy of W
lies in the range EW and EW + ∆.

Due to the postulate of equal a priori probabilities, all Ω


e U (EU ; ∆E) configurations
are equally likely, so that the sought probability is


e U (EU ; ∆E) ΩW (EU − Em ; ∆E)
pm = = . (3.1.7)
ΩU (EU ; ∆E) ΩU (EU ; ∆E)

Since Em  EU , it is legitimate to expand ln ΩW in the neighbourhood of EU ,


 
∂ ln ΩW
ln ΩW (EU − Em ) ' ln ΩW (EU ) − Em . (3.1.8)
∂E E=EU

Defining β ≡ (∂ ln ΩW /∂E)E=EU , and taking (3.1.8) into (3.1.7) yields

1 −βEm
pm = e , (3.1.9)
Z
where, as suggested by (2.2.11), the parameter β will be interpreted (apart from a multi-
plicative constant; see Sec. 3.2) as the inverse temperature of the Universe; further, due
to our assumptions of U, W and S being in equilibrium, T ≡ 1/βkB is also the temper-
ature of S, and it appears as a parameter, independent of E Pm . The other parameter, Z,
is also independent of Em and, through the normalisation m pm = 1 (the sum extends
to all states m), may be determined solely in terms of quantities related to S. We then
have,
X
Z= e−βEm , (3.1.10)
m

known as the system’s partition function. It is one of the most important quantities in
equilibrium Statistical Mechanics, since many important thermodynamic quantities may
be obtained from it. Note that for a fluid Z depends explicitly on the temperature, and
parametrically (through Em ) on the volume, V , and on the number of particles, N .
In order to set up the density matrix in the canonical ensemble, we recall that it
must be a function solely of the Hamiltonian operator, Ĥ. This ensemble will therefore
be a solution to the von Neumann equation.
In the basis of eigenstates of Ĥ we may write

ρmn = pm δmn , (3.1.11)


38 CHAPTER 3. THE CANONICAL ENSEMBLE

since the diagonal elements of ρ̂ represent the probabilities of finding a member of the
ensemble in state m. Using Eq. (3.1.9), we have
1 −βEm
ρmn = e δmn . (3.1.12)
Z
It is convenient to express ρ̂ in terms of operators, hence becoming basis independent.
To this end, we first note that
1 X
ρ̂ = |ni e−βEn hn|, (3.1.13)
Z n

where the sum runs over all eigenstates of ρ̂, satisfies Eq. (3.1.12). Further, since
e−βEn |ni = e−β Ĥ |ni, if Ĥ|n = En |n , we have, finally
1 −β Ĥ
ρ̂ = e , (3.1.14)
Z
with
Z = Tr e−β Ĥ . (3.1.15)
Since the trace is basis-independent, Eq. (3.1.15) allows one to calculate Z in any basis.
This property is often helpful in the development of systematic approximations to obtain
Z.
Having obtained ρ̂, the basic postulate of Statistical Mechanics (Sec. 1.4) determines
that the average values of observables are given by

hAi = Tr ρ̂ Â. (3.1.16)

For classical systems, we may use the analogy with the quantum case just discussed.
From Eq. (3.1.13), the distribution function in the classical canonical system is defined
as
1 −βH(q,p)
ρ(q, p) = e , (3.1.17)
Z
where the partition function is
1
Z
Z = fN dq dp e−βH(q,p) , (3.1.18)
h0 N !
where f is the number of degrees of freedom per particle. Note that following the same
indistinguishability arguments of Sec. 2.5 (see also Problem 3.1 and, e.g. Pathria [3, 4]),
the above expression for Z incorporates the factor 1/N ! introduced to avoid the Gibbs
paradox.
By the same token, the thermodynamical averages of dynamic quantities b(q, p) are
given by
1
Z
hbi = f N dq dp ρ(q, p) b(q, p). (3.1.19)
h0 N !
3.2. THERMODYNAMICS IN THE CANONICAL ENSEMBLE 39

S2
S1
W

Figure 3.3: The system S of Fig. 3.1 is made up of two subsystems S1 and S2 .

3.2 Connection with Thermodynamics in the Canonical


Ensemble
Thermodynamic quantities may be divided into essentially three groups:

(1) External parameters – are those fixed in a precise way by external conditions, with-
out reference to the internal state of the system. Examples: Volume, number of
particles, external fields, etc.

(2) Mechanical quantities – are defined as ensemble averages of microscopic quantities.


Examples: Internal energy, pressure, etc.

(3) Thermal quantities – are associated with collective properties, hence cannot be de-
fined as averages of microscopic quantities. Examples: Temperature, Entropy, Free
energy, etc.

The external parameters are specified in a precise way, so they don’t require a sta-
tistical treatment. The mechanical quantities, since they are defined as averages of
dynamical variables, may be directly determined [c.f. Eqs. (3.1.16) or (3.1.19)].
In order to define thermal quantities, we imagine two weakly interacting Universe
sub-systems, S1 and S2 , exchanging energy, as schematically illustrated in Fig. 3.3. The
same reasoning used to neglect the interaction between S and W in §3.1 may be used
here to neglect the interaction between S1 and S2 . Therefore, the joint probability of
finding S1 in state n (with energy E1n ) and S2 in state m (with energy E2m ) is given by
  
1 −β1 E1n 1 −β2 E2m
pnm = e e , (3.2.1)
Z1 Z2

with X
Zi = e−βi Eir , i = 1, 2. (3.2.2)
r
40 CHAPTER 3. THE CANONICAL ENSEMBLE

Now we impose that S1 and S2 are in mutual equilibrium, so that the situation is
equivalent to that of a system S with energy Enm = E1n +E2m , immersed in the external
world W. In this case, the probability distribution in the canonical ensemble is given by
1 −β(E1n +E2m )
pnm = e , (3.2.3)
Z
with X
Z= e−β(E1n +E2m ) . (3.2.4)
m,n

The condition for thermal equilibrium allows us to equate (3.2.1) and (3.2.3), thus
leading to the expected result,
β1 = β2 = β, (3.2.5)
that is, same temperature, βi = 1/kB Ti , and

Z = Z1 Z2 ⇒ ln Z = ln Z1 + ln Z2 , (3.2.6)

since S1 and S2 practically do not interact with each other.


The fact that ln Z is an additive quantity suggests that we may define a quantity

A(T, V, N ) = −kB T ln Z(T, V, N ), (3.2.7)

such that using the prescription to calculate ensemble averages, Eqs. (3.1.16) or (3.1.19),
the average energy may be written as
 
∂(βA)
hHi = (3.2.8)
∂β N,V
 
∂A
=A−T . (3.2.9)
∂T N,V

Comparison with the well established relation from Thermodynamics (see, e.g.
Reif [10] or Huang [2]),
E = A + T S, (3.2.10)
where E is the internal energy, and A is the Helmholtz free energy, suggests that
E = hHi, and that A(T, V, N ) as given by (3.2.7) is indeed the Helmholtz free en-
ergy, and, as such, a thermodynamic potential. Again, we note that, similarly to
Eq. (2.2.5), Eq. (3.2.7) provides the bridge between the microscopic world (through Z)
and the macrscopic world (through A). Further, the extensive quantity A is a function
of one intensive variable, T , and two extensive variables, V and N ; its scaling with N
must therefore be expressed as

A(T, V, N ) = N a(T, V /N ), (3.2.11)

where a (the Helmholtz free energy per particle) is a function solely of two intensive
variables.
3.2. THERMODYNAMICS IN THE CANONICAL ENSEMBLE 41

We rewrite (3.2.10) as
A(T, V, N ) = E − T S, (3.2.12)
whose differential is
dA = dE − d(T S). (3.2.13)
Using (2.2.19), and the fact that d(T S) = S dT + T dS, we get

dA = −SdT − P dV + µdN. (3.2.14)

from which we arrive at the identifications,


(i) Entropy:  
∂A ∂
S=− = kB (T ln Z); (3.2.15)
∂T N,V ∂T
this relation justifies the introduction of the entropy when comparing Eqs. (3.2.9)
with (3.2.10).

(ii) Pressure:  
∂A ∂
P =− = kB T ln Z; (3.2.16)
∂V T,N ∂V

(iii) Chemical potential  


∂A ∂
µ= = −kB T ln Z. (3.2.17)
∂N T,V ∂N

Similarly to what we had in the microcanonical ensemble, one role of A(T, V, N ) as


a thermodynamic potential is evident: by differentiating with respect to its variables we
obtain their thermodynamically conjugate quantities, −S, −P and µ, respectively.
The importance of the Helmholtz free energy is appreciated by first considering an
infinitesimal process in which, for simplicity, the number of particles is fixed. Then, from
(3.2.12) we have

dA = dE − d(T S)
= d−Q − d−W − T dS − SdT, (3.2.18)

where we used the First Law, Eq. (2.2.1). The work done by the system is then

d−W = (d−Q − T dS) − SdT − dA. (3.2.19)

In an irreversible isothermal process, the term in parentheses is negative [Second Law,


Eq. (2.2.2)], so that
(d−W )irrev ≤ −dA , (3.2.20)
thus showing that −dA is the maximum work that the system can perform at constant
temperature. Further, for a fixed volume d−W = 0, which means that a spontaneous
process only occurs if accompanied by a decrease in the Helmholtz free energy. In other
words,
42 CHAPTER 3. THE CANONICAL ENSEMBLE

The equilibrium state of a system with fixed T , V and N corresponds to a minimum


of the Helmholtz free energy.

It is important to note that the minimisation of the Helmholtz free energy,


Eq. (3.2.12), amounts to minimising the internal energy while maximising the entropy
(at a given temperature). Later on [see the discussion in the paragraph containing
Eq. (8.5.5)] we will see an extreme example of this delicate balance: in a given system
with N particles, the free energy difference between two configurations is dominated by
an entropy difference which is ∼ ln N , while the difference in internal energy is ∼ 1.

3.3 Thermodynamic Potentials


In conservative mechanical systems, such as a mass fixed to a spring or suspended in a
gravitational field, work can be stored as potential energy and later restored. In some
circumstances, the same holds for thermodynamical systems: we can store energy by
performing work in a reversible process and may eventually recover this energy, say
in the form of work. As briefly discussed in the previous section, the energy stored
and recoverable in the form of work is called free energy. There are as many forms
of free energy in a thermodynamical system as the number of different combinations
of constraints. Due to the analogy with potential energy in mechanical systems, these
quantities are also called thermodynamic potentials.
In the previous section we introduced the Helmholtz free energy, A(T, V, N ), which
is useful to describe a system which is closed (constant N ), mechanically isolated (con-
stant V ), and thermally coupled to the external world, the latter acting as a thermal
reservoir at a temperature T . While in this case the control variables are T , V and
N , in some instances one may control, say the pressure, P , instead of V , or the chem-
ical potential, instead of N , and so forth. To each of these instances one associates a
thermodynamic potential, and, as we will see, different thermodynamic potentials are
related through Legendre transformations. Further, for non-fluid systems the variables
are different, such as in ferromagnets, in which case we may control the temperature,
the external magnetic field, H, and the number of particles.
It is therefore interesting to search for a unified description of the many physical
properties at hand. With this in mind, we first note that the thermodynamic state of a
system is completely specified by parameters called state variables. These, in turn, can
be cast essentially into two classes: control variables and response functions. We have
already been inroduced to some control variables (e.g. temperature, entropy, volume,
pressure, number of particles, chemical potential, magnetic field, magnetisation, etc.),
and despite the variety of these at our disposal, only a few (in general, two or three)
are independent; these are chosen as the ones more readily amenable to experimental
control. Another aspect worth keeping in mind is that state variables can be extensive
(which scale with the ‘size’ of the system) or intensive (which do not scale). Further,
extensive and intensive control variables often appear in pairs, corresponding to gener-
3.3. THERMODYNAMIC POTENTIALS 43

Table 3.1: Examples of pairs of thermodynamically conjugate control variables. The extensive variables, X,
correspond to generalised displacements, and the intensive variables, Y , to generalised forces. Despite not being
associated with actual work, the temperature, T , and the entropy, S, appear on the table with the sole purpose of
highlighting their role of mutually conjugate variables; the same holds for the chemical potential. µ, and number
of particles, N .

X volume magneti- length area (A) electric particle entropy


(V ) sation (L) polar- number (S)
(M) ization (N )
(P)
Y pressure magnetic tension surface electric chemical tempera-
(−P ) field (B) (−J) tension field (E) potential ture (T )
(−σ) (µ)

alised forces, Y , and generalised displacements, X, inspired by the relations expressing


thermodynamic work. Examples of these pairs are shown in Table 3.1.
The second class of state variables, the response functions, measure how the system
responds to a change in the control variables. Some examples are the heat capacity,
C, the compressibility, K, the magnetic susceptibility, χ, etc. In § 3.4 we will see the
definitions of the most common ones, as well as present some important relations they
satisfy.
We may now discuss other thermodynamic potentials in terms of generalised forces
and displacements. For the sake of completeness, we start with the internal energy, even
though we have already introduced it in the context of the microcanonical ensemble
(§2.2).

(1) Internal Energy: E(S, X, N )


This potential is useful when we have control over the entropy (e.g. in an adiabatic
process), the generalised displacement, and the number of particles.
The transformation between A(T, X, N ) and E(S, X, N ) is carried out through a
Legendre transformation starting from Eq. (3.2.14),

dA = −SdT + Y dX + µdN = −d(T S) + T dS + Y dX + µdN. (3.3.1)

where we replaced
S dT = d(T S) − T dS. (3.3.2)
Regrouping terms yields

dE = d(A + T S) = T dS + Y dX + µdN, (3.3.3)

where we used Eq. (3.2.12), and one should have in mind that T , Y and µ are to be
considered functions of S, X, and N .
The right-hand side of Eq. (3.3.3) allows us to obtain T , Y and µ as derivatives of
E with respect to their respective conjugate variables, S, X and N . Therefore,
     
∂E ∂E ∂E
T = , Y = , e µ= . (3.3.4)
∂S X,N ∂X S,N ∂N X,S
44 CHAPTER 3. THE CANONICAL ENSEMBLE

One should also have in mind that the internal energy can be obtained directly as
the thermodynamic average of Ĥ, i.e. E = hĤi, as in Eq. (3.2.8).
(2) Gibbs Free Energy: G(T, Y, N )
In processes in which one controls the temperature, the generalised force, and the
number of particles, the Gibbs free energy is the most adequate thermodynamic
potential, since one assumes the system is thermally and mechanically coupled to
the external world.
Performing a Legendre transformation analogous to the one used to obtain E, we
have
G(T, Y, N ) = A − XY = N g(T, Y ), (3.3.5)
where g(T, Y ) the Gibbs free energy per particle, and
dG = −SdT − XdY + µdN, (3.3.6)
which allows us to obtain S(T, Y, N ), X(T, Y, N ) and µ(T, Y, N ) as
     
∂G ∂G ∂G
S=− , X=− , and µ = = g(T, Y ). (3.3.7)
∂T Y,N ∂Y T,N ∂N T,Y
It is interesting to notice that the Gibbs free energy per particle is distinct from
the other thermodynamic potentials in the sense that it only depends on intensive
variables, e.g. g(T, P ) in the case of fluids.
Still in the context of fluids, and similarly to the Helmholtz free energy, G is related
to a partition function, Ξ(T, P, N ). To show this, we consider a situation similar to
that of Fig. 3.3, but now with S having a specified pressure, P , while the volume
V is undetermined; the quantum state now depends on the volume V through, say
the boundary conditions. The energies are still additive, following Eq. (3.1.5), and
so are the volumes,
VU = V + VW = constant. (3.3.8)
Let ΩW (EU − EmV , VU − V ; ∆E) be the number of states in which W has energy
between EU − EmV and EU − EmV + ∆E, and volume VU − V . Expanding ln ΩW
to first order around (EU , VU ) leads to
ln ΩW (EU − EmV , VU − V ) ' ln ΩW (EU , VU ) − β(EmV + P V ), (3.3.9)
where we made use of (2.2.11) and (2.2.15). The probability of finding S with volume
V and in the state with energy EmV , is then
1
pmV = e−β(EmV +P V ) , (3.3.10)
Ξ(T, P, N )
where Ξ(T, P, N ) is the partition function, determined by the normalisation of pmV
over all volumes and states:
Z ∞ X
dV pmV = 1. (3.3.11)
0 m
3.3. THERMODYNAMIC POTENTIALS 45

Therefore,
!
Z ∞ X Z
−βEmV −βP V
Ξ= dV e e = dV Z(T, V, N ) e−βP V , (3.3.12)
0 m

so that Ξ(T, P, N ) can be seen as an average of Z(T, V, N ) over all possible volumes,
weighted by exp(−βP V ); the volume V is therefore integrated out.
At this point it is worth making a few remarks. We recall that when the control
variables are (T, V, N ), Eq. (3.2.16) allows us to regard the pressure as an average
value, * +

X ∂Em ∂Em
P = hP i = − pm =− , (3.3.13)
m
∂V T,N ∂V
whose fluctuations are small, i.e.
p
hP 2 i − hP i2
 1. (3.3.14)
hP i
Therefore, the equilibrium state is unique and does not depend on the choice of
control parameters; that is, the equation of state relating P and V at a given tem-
perature is the same whether we control V or P .
In the present case of Ξ(T, P, N ), the average volume is given by
dV V e−βP V Z(T, V, N )
R
∂  
hV i ≡ R −βP V
= −kB T ln Ξ(P, T, N ) , (3.3.15)
dV e Z(T, V, N ) ∂P
which should be close to the most probable value, V ∗ , the one maximizing the dis-
tribution of V , irrespective of the quantum state,
!
X 1
pV ≡ pmV e−βP V = Z(T, V, N ) e−βP V ; (3.3.16)
m
Ξ(T, P, N )

we therefore expect the distribution of volumes to be strongly peaked at V ∗ . Since


Ξ 6= Ξ(V ), the maximum of pV is determined by maximizing
f (V ) ≡ Z(V ) e−βP V , (3.3.17)
where, to simplify the notation, only the V -dependence appears explicitly.
The extremum condition on f (V ) yields

Z0
f 0 (V ) = e−βP V Z 0 − βP Z

= 0 ⇒ βP = , (3.3.18)
V∗ V∗ Z ∗
V

while the second derivative of f (V ) may be written as


"  0 2 #
f 00 Z 00 Z ∂ 2 ln Z ∂2A
= − = = −β < 0, (3.3.19)
f ∗ Z Z ∗
∂V 2 ∗
∂V 2
V V V V∗
46 CHAPTER 3. THE CANONICAL ENSEMBLE

where the last inequality reflects the condition that A must be a minimum in equi-
librium.
We can now plug these into an expansion of f (V ) near V ∗ . Collecting terms, we
have
Z ∞ ( )
∗ 1 f 00 ∗ 2
 ∗ 3

Ξ= dV f (V ) 1 + (V − V ) + O (V − V ) . (3.3.20)
0 2 f ∗
V

Recalling the final inequality in (3.3.19), the term in curly brackets in (3.3.20) may
be approximated by a Gaussian,

1 ∂2A
Z  
−βP V ∗ ∗ ∗ 2
Ξ' dV e Z(T, V , N ) exp − β (V − V ) , (3.3.21)
0 2 ∂V 2 V∗

thus emphasising that the dominant contributions to the integral come from the
immediate neighbourhood of V ∗ . Taking ln Ξ and multiplying by −kB T yields

− kB T ln Ξ = A(T, V ∗ , N ) + P V ∗ , (3.3.22)

where we used Eq. (3.2.7) and the fact that the contribution from the Gaussian
term is of order ln N (Why?), hence being negligible in comparison with A and V ∗ .
Equation (3.3.22) therefore yields

∂ 
−kB T ln Ξ(P, T, N ) = V ∗ .

(3.3.23)
∂P
thus confirming our earlier expectation that the most probable value of V is, to a
very good approximation the actual average value in the canonical distributuion at
a given pressure.
In view of Eqs. (3.3.5)-(3.3.7), and of (3.3.23), we may identify

G(T, P, N ) = −kB T ln Ξ(T, P, N ) (3.3.24)

as the Gibbs free energy, and Eq. (3.3.22) reduces to Eq. (3.3.5). Note that the
maximum of the integrand in (3.3.12) represents the minimum of G for fixed T ,
P , and N . Therefore, similarly to what we have established for the Helmholtz free
energy,

The equilibrium state of a system with fixed T , P (or Y , in general) and N


corresponds to a minimum of the Gibbs free energy.
3.4. RESPONSE FUNCTIONS 47

(3) Enthalpy: H(S, Y, N )


It is useful in the study of systems in which one can control the entropy, the gen-
eralised force, and the number of particles. Following along lines similar to the
previous thermodynamic potentials, we have

H(S, Y, N ) = A + T S − Y X = E − Y X
= N fH (S/N, Y ), (3.3.25)

where fH is some function of two intensive variables. The differential of H,

dH = T dS − XdY + µdN, (3.3.26)

provides
     
∂H ∂H ∂H
T = , X=− , and µ = . (3.3.27)
∂S Y,N ∂Y S,N ∂N S,Y

There is yet another thermodynamic potential. very important to describe open


systems (those with unspecified number of particles), for which one controls the chemical
potential: it is called the grand-potential, and will be introduced when discussing the
grand-canonical ensemble, in §4.1.

3.4 Response Functions


Response functions are the thermodynamic quantities most readily accessible experi-
mentally. By probing how a state variable changes when other independent variables
are changed under controlled conditions the response functions provide important in-
formation about the system. They can be divided essentially into two groups: thermal
functions (such as heat capacities) and mechanical functions (such as comressibility and
susceptibility), as we now discuss.

(1) Heat Capacity


The heat capacity, C, measures the amount of heat, d−Q, necessary to induce a given
change in the temperature, dT , of a system. In general, one defines C = d−Q/dT , so
that given a certain amount of heat, the increase in temperature is larger the smaller
is the heat capacity. When measuring C, one tries to fix all other independent control
variables except the temperature. Therefore there are as many heat capacities as
the combinations of independent variables; each one of these heat capacities contain
different information about the system.
The two most commonly used are those obtained at constant volume (or, generically,
X),    2 
∂S ∂ A
CX = T = −T , (3.4.1)
∂T X ∂T 2 X
48 CHAPTER 3. THE CANONICAL ENSEMBLE

where we used d−Q = T dS), and, analogously, at constant pressure (or Y ),


   2 
∂S ∂ G
CY = T = −T . (3.4.2)
∂T Y ∂T 2 Y

Later we will see that CY > CX ≥ 0. It should also be noted that the heat capacity
is an extensive quantity, since so is the entropy; hence one often uses the specific
heat, c, defined as the ratio between C and some extensive variable such as the
number of moles or particles, or the volume.

(2) Mechanical response functions for PVT systems


When dealing with fluid (or PVT) systems, one often wants to know how the volume
changes with pressure. If this change takes place at constant number of particles and
temperature, the appropriate response function is the isothermal compressibility,

1 ∂2G
   
1 ∂V
KT = − =− , (3.4.3)
V ∂P T,N V ∂P 2 T,N

while for processes at constant entropy, we define the adiabatic compressibility,

1 ∂2H
   
1 ∂V
KS = − =− . (3.4.4)
V ∂P S,N V ∂P 2 S,N

We see that for a given increase in pressure the relative decrease in volume is larger
the larger is the compressibility.
A measure of the change in volume with temperature is given by the thermal ex-
pansion coefficient, defined as
 
1 ∂V
αP = . (3.4.5)
V ∂T P,N

Note that both the compressibility and the thermal expansion coefficient are inten-
sive quantities.
It can be shown (see Problem 2) that the thermal and mechanical response functions
are related through

KT (CP − CV ) = T V αP2 (3.4.6a)


CP (KT − KS ) = T V αP2 (3.4.6b)
CP KT
= . (3.4.6c)
CV KS
3.5. STABILITY OF THE EQUILIBRIUM STATE 49

(3) Mechanical response functions for magnetic systems


The change in magnetisation with the applied field, h, at constant temperature, is
given by the isothermal susceptibility,

∂2G
   
∂M
χT = =− , (3.4.7)
∂h T,N ∂h2

while for adiabatic processes we define

∂2H
   
∂M
χS = =− . (3.4.8)
∂h S,N ∂h2 S,N

One should note that, unlike the compressibility, the susceptibility is defined as an
extensive quantity.
In an analogous way,
 
∂M
αh = , (3.4.9)
∂T h,N

thus providing the identities,

χT (Ch − CM ) = T αh2 (3.4.10)


Ch (χT − χS ) = T αh2 (3.4.11)
Ch χT
= . (3.4.12)
CM χS

3.5 Stability of the Equilibrium State


The second law of Thermodynamics may be formulated as follows: The change in entropy
of a system and its surroundings is positive, and goes to zero in a process approaching re-
versibility; in other words, the equilibrium state of a system is the one which maximizes
the entropy, therefore being stable with respect to spontaneous changes. The connec-
tion between microscopic and thermodynamic descriptions, which we established in the
previous sections, is an example of the far reaching consequences of the second law of
Thermodynamics.
The conditions determining the stability of the equilibrium state are yet another
consequence of the second law: recall that in Sec. 2.2, we maximised (the logarithm
of) the number of states of a system composed of two parts, 1 and 2, from which we
derived that these sub-systems should have the same temperature, pressure, and chemical
potential.
In Sec. 3.5.1 we will briefly revisit the derivation of equilibrium conditions, and in
Sec. 3.5.2 we discuss the local stability of the equilibrium state and its consequences for
the response functions.
50 CHAPTER 3. THE CANONICAL ENSEMBLE

3.5.1 Conditions for Local Equilibrium in a PVT System


Let us consider a mixture of ` kinds of particles in an isolated box of volume VT divided
into two parts, A and B, by a porous (thus allowing for particle exchange) and conducting
wall which can also move freely.1 We assume there are no chemical reactions, so that
the total number of each kind of particles is constant.
Under these conditions we may write for the total internal energy,

ET = EA + EB , (3.5.1)

for the total volume,


VT = VA + VB , (3.5.2)
and for the total number of particles of kind j,

NT j = NAj + NBj . (3.5.3)

Further, the entropy is additive, that is,

ST = SA + SB . (3.5.4)

Let us assume that spontaneous changes may occur in the energy, in the volume, and
in the number of particles on each side of the partition, but subject to the constraints,

∆ET = ∆VT = ∆NTj = 0, (3.5.5)

since the system is isolated and there are no chemical reactions. The change in total
entropy for these processes may be written as
 
X  ∂Sα    `  
∂Sα X ∂Sα
∆ST =  ∆Eα + ∆Vα + ∆Nαj  ,
∂Eα Vα ,{Nαj } ∂Vα Eα ,{Nαj } ∂Nαj Eα Vα
α=A,B j=1
(3.5.6)
up to terms in first order.
Since
     
1 ∂S P ∂S µj ∂S
= , = , and − = , (3.5.7)
T ∂E V,{Nj } T ∂V E,{Nj } T ∂Nj E,V,{Ni6=j }

Eq. (3.5.6) becomes


    `  
1 1 PA PB X µBj µAj
∆ST = − ∆EA + − ∆VA + − ∆NAj . (3.5.8)
TA TB TA TB TB TA
j=1

1
This discussion can be easily generalised to the case in which A is the system of interest, and B the
external world, as in §3.1.
3.5. STABILITY OF THE EQUILIBRIUM STATE 51

For a system in equilibrium, the entropy is maximum, so that any spontaneous


change must cause a decrease in entropy. Since ∆EA , ∆VA and ∆NAj may be positive
or negative, in order to satisfy ∆ST ≥ 0 we must necessarily have

TA = TB , PA = PB and µAj = µBj , j = 1, . . . `, (3.5.9)

which are the conditions for local equilibrium in a system without chemical reactions.
Note that if the partition is not porous, then ∆NA = ∆NB = 0 and we may have
µAj 6= µBj even in equilibrium. If, in addition, the partition is fixed in position, we may
also have PA 6= PB , and still be in an equilibrium state.

3.5.2 Conditions for Local Stability


The stability of the equilibrium state imposes constraints on the signs of the response
functions. To see how this occurs, we consider the same system as above, but with only
one kind of particles, for simplicity.
Since the number of particles in the box is finite (though very large), the thermody-
namic variables on each partition will spontaneously fluctuate around their respective
average values. These fluctuations must be such that VT , ET , and NT remain fixed, but,
according to the Second Law, they cause a decrease in the total entropy, ST . (If ST
didn’t decrease, the equilibrium state would be unstable and spontaneous fluctuations
would drive the system to a more stable state of equilibrium with larger entropy.)
The conditions for local stability may be derived formally by carrying the expansion
in Eq. (3.5.6) up to second order in changes in the state variables; see, e.g. Reichl [6].
However, here we adopt a more intuitive reasoning, based on Le Châtelier’s Principle, to
heuristically derive the consequences of stability to the signs of the response functions.
Le Châtelier’s Principle may be stated as follows: If a system is in a state of stable
equilibrium, then any spontaneous change in its parameters triggers processes which
tend to restore the equilibrium state. Let us then see how this rflects in thermal and
mechanical stabilities.

Thermal stability:
Suppose the temperature spontaneously rises in a region R of the system, as shown
in Fig. 3.4. According to Le Châtelier’s Principle, this causes the region R to give away
heat to its external environment, d−Q < 0, in order to lower R’s temperature, dT < 0,
thus restoring equilibrium. Therefore,

d−Q
C≡ > 0. (3.5.10)
dT

Mechanical stability:
Suppose that the volume occupied by a quantity of fluid increases, as a result of
fluctuations (see Fig. 3.5). This, in turn, causes a decrease in the pressure of that region.
According to Le Châtelier’s Principle, with a larger pressure outside R, the region is
52 CHAPTER 3. THE CANONICAL ENSEMBLE

T T’ > T dQ T
T T

inicial final

Figure 3.4: In a system in equilibrium at a temperature T (leftmost panel), fluctuations cause a temperature rise
to T 0 > T in a given region (second panel). The system restores equilibrium by this region giving away heat
(third panel), d−Q < 0, thus reducing the temperature again, dT < 0 (rightmost panel).

P’
V V
V+ V P>P’
inicial final

Figure 3.5: A region of volume V , part of a system in mechanical equilibrium (leftmost panel), increases its volume
to V 0 > V , as a result of spontaneous fluctuations (second panel), which, in turn, causes a pressure drop in the
region (third panel). The system restores equilibrium by decreasing the volume again, dV < 0, and increasing its
pressure dP > 0 (rightmost panel).

forced to decrease its volume, dV < 0, until restoring the original volume; in this latter
stage, dP > 0. Therefore,
1 dV
K=− > 0. (3.5.11)
V dP

3.5.3 Consequences of Stability


We first note that when the conditions (3.5.10) and (3.5.11) are taken into Eqs. (3.4.6a)
and (3.4.6b), respectively imply in

CP ≥ CV > 0, (3.5.12)

and
KT ≥ KS > 0. (3.5.13)
In the magnetic case, the corresponding conditions are

Ch > CM and χT > χS . (3.5.14)

In addition, in a process with constant volume and number of particles we have


dE = T dS [c.f. Eq. (3.3.3)], and the stability condition becomes
 
∂E
CV = > 0, (3.5.15)
∂T V
3.5. STABILITY OF THE EQUILIBRIUM STATE 53

A A S P
(a) (b) (d)

(c)
T V T V

Figure 3.6: The Helmholtz free energy is (a) a concave function of T , and (b) a convex function of V , whose
monotonicity follows from the positivity of the entropy (c) and pressure (d); see Eqs. (3.2.15) and (3.2.16).

G (a) G (b) V (c) S (d)

P T P T

Figure 3.7: The Gibbs free energy is a concave function both of (a) P , and (b) T , whose monotonicity follows
from the positivity of the volume (c) and entropy (d); see Eqs. (3.3.7).

which means that the internal energy grows monotonically with the temperature, at
constant volume. In an analogous way,
 
∂H
CP = > 0, (3.5.16)
∂T P

indicating that the enthalpy also grows monotonically with the temperature, at constant
pressure.
We can also determine some constraints governing the behaviour of the Helmholtz
and Gibbs free energies. Equations (3.4.1), (3.2.16), and (3.4.3) lead to
 2 
∂ A CV
=− <0 (3.5.17)
∂T 2 V,N T
 2   
∂ A ∂P 1
2
=− = > 0. (3.5.18)
∂V T,N ∂V T,N V KT

That is, the Helmholtz free energy, A(T, V, N ), is a concave function of the temperature
and a convex function of the volume. Given that the entropy, S = −∂A/∂T, and the
pressure, P = −∂A/∂V, are positive quantities, the decreasing monotonicity of A with
respect to T and V follows suit. These interrelations are illustrated in Fig. 3.6.
By the same token, Eqs. (3.4.2), (3.3.7), (3.5.12) and (3.5.13) lead to
 2 
∂ G CP,N
2
=− < 0, (3.5.19)
∂T P,N T
54 CHAPTER 3. THE CANONICAL ENSEMBLE

and
∂2G
 
= −V KT < 0. (3.5.20)
∂P 2 T,N
Therefore, the Gibbs free energy, G(T, P, N ), is a concave function of the temperature
and of the pressure. Further, the monotonicity of G with P and with T are set by the
positiveness of V = ∂G/∂P and of S = −∂G/∂T ; see Fig. 3.7.
For magnetic systems, one cannot claim on general grounds that the above results
remain universally valid. A counterexample is provided by diamagnetic systems, for
which χ < 0. Nonetheless, it can be shown [12] that for systems in which the coupling
between the magnetisation M and the magnetic field, H, enters the Hamiltonian through
H = H0 − HM, (3.5.21)
where H0 contains the interaction terms between the spins, the following statements
hold:
• The Helmholtz free energy is a concave function of the temperature and a convex
function of the magnetisation.
• The Gibbs free energy is a concave function of both temperature and magnetic
field.
The reader should check these statements vis-à-vis Figs. 3.6 and 3.7, taking into account
the correspondences V → M and −P → H.

3.6 Equipartition of Energy


Before presenting some examples and applications of the framework developed so far
in this Chapter, we will now prove a very important theorem of classical Statistical
Mechanics. Consider a classical system with f degrees of freedom, whose Hamiltonian
is H(q1 , q2 , . . . , qf , p1 , p2 , . . . , pf ), e.g. f = 3N for N particles in three dimensions. We
are interested in calculating canonical ensemble averages such as
 
∂H 1 ∂H −βH
Z
qi =R dqdp qi e
∂qj dqdp e−βH ∂qj
qi −βH qjmax 1
 
1 ∂qj −βH
Z Z
(j)
=R dq dp − e + dqj e , (3.6.1)
dqdp e−βH β qjmin β ∂qi
where in the second equality an integration by parts on the variable qj has been carried
out, hence dq (j) ≡ dq1 . . . dqj−1 dqj+1 . . . dqf . Now, the limits qjmin and qjmax correspond
to the boundaries of the container, e.g. qjmax ∼ qjmin ∼ L, where the potential energy
must be large (hence so is H) to prevent particles from escaping; thus, the first term
vanishes. Further, since the coordinates are independent, we have ∂qj /∂qi = δij . We
finally end up with the simple result,
 
∂H
qi = kB T δij . (3.6.2)
∂qj
3.7. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS 55

By carefully retracing the derivation, the reader should be able to generalise this to
 
∂H
pi = kB T δij , (3.6.3)
∂pj
and to establish that    
∂H ∂H
qi = pi = 0. (3.6.4)
∂pj ∂qj
Equations (3.6.2)-(3.6.4) express The Equipartition Theorem of Classical Statistical Me-
chanics.
As a simple example, we note that for
p2ν
H= , ν = x, y, z (3.6.5)
2m
Eq. (3.6.3) yields
p2ν
 
1
= kB T, (3.6.6)
2m 2
that is, the average energy associated with this quadratic term is (1/2)kB T . In three
dimensions we have
 2 * 2 +
p px + p2y + p2z
hHi = =
2m 2m
1
= 3 × kB T (3.6.7)
2
where Eq. (3.6.6) was used for each term.
Similarly, the average potential energy for a classical one-dimensional harmonic os-
cillator is  
1 2 2 1
mω q = kB T, (3.6.8)
2 2
that is, the average energy associated with this quadratic degree of freedom is also
(1/2)kB T , and generalises to three dimensions as
 
1 2 2 1
mω r = 3 × kB T, (3.6.9)
2 2

3.7 Ideal Systems in Maxwell-Boltzmann Statistics


The generic discussion of § 2.3 about ideal systems evidently applies to the canonical
ensemble, which allows us to draw some specific conclusions. First, let us see how the
Gibbs prescription arises quite naturally in the case of a dilute system. To this end,
let us consider N identical and independent particles, and write the Hamiltonian as in
Eq. (2.3.1), X
H= Hj (3.7.1)
j
56 CHAPTER 3. THE CANONICAL ENSEMBLE

where each Hj only involves the degrees of freedom of constituent j, which, from now
on we will refer to as particle j. More specifically, Hj is typically a function of operators
describing position and momentum for the centre of mass motion of each molecule,
rotational and vibrational degrees of freedom, spin degrees of freedom, etc. The energy
of a given configuration may be written as
N
X
E= ε(j) , (3.7.2)
j=1

where ε(j) is the energy level occupied by particle j.


As a first attempt, we may write the partition function as
P
Z 0 = Tr {1} Tr {2} · · · Tr {N } e−β j Hj
, (3.7.3)

where each trace is carried out over all single-particle states, and it may be written as
(j)
X
Tr {j} e−βHj = gε(j) e−βε , (3.7.4)
ε(j)

with gε(j) being the degeneracy of level ε(j) , and we note that the label j is only kept to
remind us that we are taking the sum over the possible states of particle j.
This expression overestimates the number of accessible states: a given distribution
of particles amongst the various single-particle states, characterised by the occupation
numbers {nk }, may be obtained in N !/n1 !n2 ! . . . distinct ways. Given that all these ways
correspond to the same configuration, each term of the partition function sum must be
divided by this factor,
n1 !n2 ! . . . −β Pj Hj
Z = Tr {1} Tr {2} · · · Tr {N } e . (3.7.5)
N!
At low temperatures, the dominant terms in (3.7.5) come from the lowest energy levels;
that is, quantum effects must be important. At high temperatures, a large number of
energy levels contribute to Z: all energy levels are equally likely to be occupied by the
N particles, so that the corresponding occupation numbers are mostly nk = 0 or 1,
hence nk ! = 1 for the majority of configurations. Similarly, for gases at low densities,
N/V  1, we may also take nk ! ' 1. Therefore, under either of these conditions we may
write
1 P
Z= Tr e−β j Hj , (3.7.6)
N!
where we used the short-hand notation,

Tr ≡ Tr {1} Tr {2} · · · Tr {N } . (3.7.7)

Equation (3.7.6) is the quantum analogue of Eq. (3.1.18): particles are considered as
nearly distinguishable, with the ‘nearly’ being due to the factor 1/N !. For particles
bound to lattice sites, the 1/N ! factor should not be considered, since the particles are,
3.8. THE IDEAL GAS IN THE CANONICAL ENSEMBLE 57

in fact, distinguishable for they occupy the given sites. These situations will be discussed
in the remainder of this Chapter.
Equation (3.7.6) may be written in a form which reveals a very important simplifying
property of ideal systems in Maxwell-Boltzmann statistics, namely that the partition
function is factorised,
1 N
ZN = Z , (3.7.8)
N! 1
where we included the subscript N to stress that it refers to the N -particle partition
function, while
Z1 = Tr {j} e−βHj , (3.7.9)
is the single-particle partition function, written in terms of the degrees of freedom of the
generic j-th particle.
Another consequence of the non-interacting form of the Hamiltonian concerns average
values such as hAi Bj i, where operators Ai and Bj only involve particles i and j, j 6= i,
respectively. We have,
  
1 1 1
hAi Bj i = Tr Ai Bj e−βH = Tr {i} Ai e−βHi Tr {j} Bj e−βHj
Z Z1 Z1
= hAi ihBj i, (3.7.10)

so that one says there is no correlation between Ai and Bj . In particular, if B = A we


have (
hAi ihAj i if i 6= j
hAi Aj i = (3.7.11)
hA2i i if i = j.
In what follows, we first discuss the ideal Maxwell-Boltzmann gas when the con-
stituents do not have internal degrees of freedom; examples of their contribution will be
analysed in Section 3.9.

3.8 The Ideal Gas in the Canonical Ensemble


Let us consider a gas of classical, non-interacting point particles, each of them with
kinetic energy,
p2
εp = , (3.8.1)
2m
contained in a cubic box of volume V , and we have renamed h0 → h, since we are
adopting Planck’s constant as the unit of phase space cell from now on.
The single-particle partition function is given by
Z ∞ Z ∞ Z ∞
V 2 2 2
Z1 = 3 dpx dpy dpz e−β(px +py +pz )/2m
h 0 0 0
Z ∞
V 2 −βp2 /2m
= 3 4πp dp e , (3.8.2)
h 0
58 CHAPTER 3. THE CANONICAL ENSEMBLE

where spherical coordinates were introduced in the second line. The integral can be
easily calculated by taking the λ-derivative of the Gaussian integral,
Z ∞ r
(2) −λx2 1 π
I0 (λ) ≡ dx e = , (3.8.3)
0 2 λ
thus yielding
 3
L
Z1 (T, V, N ) = , (3.8.4)
Λ
where 1/2
h2

Λ≡ , (3.8.5)
2πmkB T
is essentially the thermal wavelength.2
Let us now evaluate the single-particle partition function quantum mechanically,
though without imposing symmetrisation constraints on the wave function.PAssuming
the basis states are plane waves with PBC [see Eq. (2.4.10)], we have Tr ≡ p , and
2 2 2
X
Z1 = e−β(px +py +pz ) . (3.8.6)
px ,py ,pz

For a macroscopic box, the energy levels form a continuum, so that each sum can be
replaced by an integral,
L ∞
X Z
−→ dpν . (3.8.7)
p
h −∞
ν

Thus, we see that the calculation of the single-particle ‘quantum’ partition function
reduces to that for the classical case, (3.8.2), with the result also given by (3.8.4).
It is important to note that Z1 is expressed in Eq. (3.8.4) as the ratio of the two
relevant length scales: the linear size of the system and the thermal wavelength of
the particles. On physical grounds, we may expect quantum indistinguishability to be
irrelevant when the wave packets associated with the particles do not interfere with each
other. This occurs when their thermal wavelength is much smaller than the scale of the
system size, L, which, in turn, is satisfied when the gas is sufficiently dilute or at very
high temperatures, since Λ ∝ T −1/2 . Conversely, quantum effects of indistinguishability
dominate at low temperatures, or for very dense gases.
For N particles the partition function becomes
1 N
ZN (T, V ) = Z , (3.8.8)
N! 1
with Z1 given by (3.8.4). The Helmholtz free energy is then

A(T, V, N ) = −kB T ln ZN , (3.8.9)


2
Strictly speaking this is not the de Broglie thermal wavelength, λT , associated with a particle of
mass m and kinetic energy 3kB T /2, leading to λT ≈ 1.45 Λ. Nonetheless, for our purposes here, we
consider this a negligible difference.
3.8. THE IDEAL GAS IN THE CANONICAL ENSEMBLE 59

Figure 3.8: The entropy for a Maxwell-Boltzmann Figure 3.9: The chemical potential for a Maxwell-
ideal gas. Boltzmann ideal gas.

which, with the aid of Stirling’s formula, (2.4.7), becomes

A(T, V, N ) = N kB T ln N Λ3 /eV .
 
(3.8.10)

From Eq. (3.8.10) we obtain the well known result for the pressure of the ideal gas,

∂A N
P =− = kB T. (3.8.11)
∂V T,N V

The entropy also follows from Eq. (3.8.10) as


" #
e5/2 V

∂A
S(T, V, N ) = − = N kB ln (3.8.12)
∂T V,N N Λ3
= N kB ln (T /T0 )3/2 , (3.8.13)

where T0 = (h2 /e5/3 2πmkB )(N/V )2/3 , which has ‘dimension’ of temperature. The sim-
ple logarithmic dependence with the temperature highlights the limiting behaviors of
the entropy,

S(T, V, N ) −−−−→ ∞ (3.8.14)


T →∞
S(T, V, N ) −−−→ −∞. (3.8.15)
T →0

It is important to notice that the entropy, sketched in Fig. 3.8, behaves unsatisfactorily
for T < T0 : it is both negative and violates the 3rd Law of Thermodynamics by not
approaching a constant value as T → 0.
Using Eq. (3.8.10), we can write Eq. (3.8.12) as
A 3
S=− + N kB , (3.8.16)
T 2
so that the internal energy is calculated either as
3
E = A + T S = N kB T, (3.8.17)
2
60 CHAPTER 3. THE CANONICAL ENSEMBLE

or from Eq. (3.2.8). As expected, given the additive form of the Hamiltonian, Eq. (2.3.1),
and the Equipartition Theorem, Eq. (3.6.7) corresponds to the contribution of each of
the N particles.
Let us now discuss the chemical potential,

∂A
µ= = kB T ln(N Λ3 /V ). (3.8.18)
∂N T,V
In order to plot µ(T ), we first examine some limiting cases, starting with high temper-
atures,
lim kB T ln(N Λ3 /V ) → −∞. (3.8.19)
T →∞
At low temperatures, since µ = kB T ln(nΛ3 ) → 0 × ∞ one needs to evaluate
ln nΛ3 −(3/2)T −5/2 /T −3/2 3
lim µ = lim → = kB T
T →0 T →0 1/kB T −1/kB T 2 2
+
→0 , (3.8.20)
but with an infinite slope,
∂µ 3Λ2 Λ0
= kB ln nΛ3 + kB T 3
∂T T →0 | {zΛ }
=−(9/2)kB

→ ∞. (3.8.21)
Figure 3.9 shows the resulting plot for µ(T ).
It is illustrative to calculate the heat capacity at constant pressure by first calculating
the Gibbs free energy,
P Λ3
 
G(T, P, N ) = A(T, P, N ) + P V (T, P, N ) = N kB T ln (3.8.22)
kB T
 −5/2
T
= N kB T ln , (3.8.23)
T00
where T00 does not depend on T , and has ‘dimension’ of temperature. We then have

∂G 5
= N kB ln(T /T00 )−5/2 − N kB , (3.8.24)
∂T P,N 2
so that, finally,
∂2G

5
CP = −T = N kB . (3.8.25)
∂T 2 P,N 2
For the heat capacity at constant volume it is simpler to calculate from the internal
energy,

∂E
CV =
∂T V,N
3
= N kB . (3.8.26)
2
3.9. MOLECULAR GAS 61

As expected, the heat capacities satisfy the thermodynamic relation for ideal gases,

C P − C V = N kB . (3.8.27)

The isothermal compressibility is


 
1 ∂V
KT = −
V ∂V T,N
V
= , (3.8.28)
N kB T
while the coefficient of thermal expansion is
 
1 ∂V
αP = −
V ∂T V,N
1
= . (3.8.29)
T
The reader should check that Eq. (3.4.6a) is easily satisfied. In addition, we can use
Eq. (3.4.6b) to write
3
KS = KT . (3.8.30)
5
As we will see in § 3.10, the 1/T behaviour of the compressibiity is the same as that for
the paramagnetic susceptibility.

3.9 Molecular Gas


Let us now include the internal structure of the molecules. We assume that for each
molecule the translational and internal motions are independent ( i.e. the corresponding
Hamiltonians commute), so that the single-particle energy levels may be written as

εm = εtr + εi , (3.9.1)

where εtr is the energy associated with the translational motion of the centre of mass
of each molecule (e.g. εtr = εp = p2 /2m), and εi corresponds to the internal degrees of
freedom (rotations, vibrations, electronic excitations, etc.), as we will see shortly. For
reasons which will become apparent soon, it is necessary to treat the internal motion
quantum-mechanically, so with the purpose of unifying the discussion, we think of the
quantum numbers m as including both translational, p, and internal degrees of freedom.
The singe-particle partition function is then written as
X
Z1 = e−βεm , (3.9.2)
m

with the sum extending over all single-particle states.


62 CHAPTER 3. THE CANONICAL ENSEMBLE

In view of Eq. (3.9.1), Z1 again factorises,

Z1 = Z1tr Zi , (3.9.3)

where Z1tr is given by (3.8.4), and Zi is the partition function for the internal degrees
of freedom of a single molecule.
The Helmholtz free energy can be written as
 
1 N he i
A(T, V, N ) = −kB T ln Z1 ' −N kB T ln Z1 (T, V ) (3.9.4)
N! N
 
eV
= −N kB T ln Zi , (3.9.5)
N Λ3

where in the second equality we used Stirling’s approximation, and we may take, gener-
ically, X
Zi = gi e−εi /kB T , (3.9.6)
εi

where gi is the degeneracy of level εi .


Before attempting to model the internal structure, we may advance a bit further by
laying out some features common to most cases. We first note that the internal partition
function cannot depend on the volume of the system, since its relevant length scale is
atomic; thus Zi must be a function solely of the temperature. We may then write,

A(T, V, N ) = Atr (T, V, N ) + N ai (T ), (3.9.7)

with 
eV
Atr (T, V, N ) = −N kB T ln , (3.9.8)
N Λ3
and
ai (T ) = −kB T ln Zi (T ). (3.9.9)
From (3.9.7) we see that the internal degrees of freedom do not contribute to the
pressure,  
∂A N kB T
P =− = , (3.9.10)
∂V T,N V
which is the well known result for the ideal Maxwell-Boltzmann gas.
The chemical potential is given by
 
∂A
µ= = µ0 + µi , (3.9.11)
∂N T,V

where
N Λ3
 
µ0 = kB T ln (3.9.12)
V
3.9. MOLECULAR GAS 63

is the chemical potential due to the translational motion, and

µi ≡ ai (T ) (3.9.13)

expresses the fact that the chemical potential associated with the internal degrees of
freedom is simply their contribution to the Helmholtz free energy per particle.
The entropy of the system is also additive, being written as
 
∂A
S=− = Str + N si (T ), (3.9.14)
∂T V,N

where !
e5/2 V
Str = N kB ln (3.9.15)
N Λ3
and si = −dai /dT is the entropy associated with the internal degrees of freedom of a
single molecule. The internal energy is

E = A + T S = Etr + N ei (T ), (3.9.16)

with
3
Etr = N kB T (3.9.17)
2
and
ei = ai (T ) − T a0i (T ). (3.9.18)
Equation (3.9.17) reflects the principle of equipartition of energy. Further, Eqs. (3.9.16)-
(3.9.18) also recover the well known result that the internal energy per particle of an
ideal gas depends only on the temperature.
The heat capacity is
   
∂E 3 T 00
CV = = N kB − a (T ) . (3.9.19)
∂T N,V 2 kB i

Note that for an ideal Maxwell-Boltzmann gas of structureless particles CV is constant:


any temperature dependence can only emerge from the internal degrees of freedom.
Let us now discuss some general aspects of the internal structure of the particles.
Each molecule is composed of atoms forming a structure which can undergo different
kinds of motion; for instance, the molecules can undergo vibrations and rotations around
the centre of mass. Another example of internal degrees of freedom is provided by the
molecular electronic states, which may also lead to contributions to several thermody-
namic quantities, as seen above. Even nuclear degrees of freedom may be important in
some instances, but they will not be considered here. With each of the above mentioned
internal degrees of freedom one associates a characteristic energy scale, such as ~2 /I for a
molecule with moment of inertia I, ~ω for a vibrational mode of frequency ω, or ~∆ε for
an energy gap ∆ε between the ground and first excited state. Figure 3.10 schematically
shows the different energy scales involved with these internal degrees of freedom.
64 CHAPTER 3. THE CANONICAL ENSEMBLE

CV
NkB
f
2

congelado classico

i T

Figure 3.11: Generic behaviour of the specific


Figure 3.10: Schematic illustration heat as a function of temperature, for a sys-
of electronic, vibrational, and ro- tem with f quadratic degrees of freedom in
tational energy scales. Source: the Hamiltonian. These degrees of freedom
https://openstax.org/books/university- crossover from frozen to ‘classic’ at the char-
physics-volume-3/pages/9-2-molecular- acteristic temperature Θi ; see text.
spectra

Θrot (K) Θvib (K)


H2 85.5 6140
CO 2.77 3120
O2 2.09 2260
Cl2 0.347 810
Br2 0.117 470
Na2 0.224 230
K2 0.081 140

Table 3.2: Characteristic temperatures for some diatoic gases.


3.9. MOLECULAR GAS 65

Assuming each molecule to be in the electronic ground state,3 the partition function
Zi only involves rotational and vibrational motions. In a first approximation, these
degrees of freedom may be considered decoupled, which allows us to write

Zi = Zrot Zvib , (3.9.20)

and
ai = arot + avib . (3.9.21)

As illustrated in Fig. 3.10, the different dynamical processes are associated with dif-
ferent energy scales, which may be conveniently expressed in terms of characteristic
temperatures, Θi ; these are such that kB Θi provides a measure of level spacing. Then,
for temperatures such that T  Θi , the system cannot thermally access the excited
states for this motion. The associated free energy, ai , does not depend on the temper-
ature, hence there is no contribution to the heat capacity. One therefore says that in
this temperature range the degrees of freedom are frozen. In the opposite limit, T  Θ,
the energy levels associated with the motion can be regarded as forming a continuum,
thus classical behaviour is expected. This discussion is summarised in Fig. 3.11, which
schematically shows the behaviour of a generic motion with f degrees of freedom. Table
3.2 shows examples of Θi for rotational and vibrational motions of diatomic molecules:
we see that these motions are well separated in energy so that their independence is
justified. In what follows, we separately discuss rotation and vibration in detail.

3.9.1 Rotation of Diatomic Molecules


Each molecule may be thought of as a rigid rotor, whose energy levels are given by

L2 ~2
εrot = = j(j + 1) , j = 0, 1, 2 . . . (3.9.22)
2I 2I
where I is the molecule’s moment of inertia. Each rotational level has a degeneracy
g = 2j + 1, and the characteristic temperature is defined as

~2
Θrot = . (3.9.23)
2IkB

The partition function for a heteronuclear molecule is given by



X
Zrot = (2j + 1) e−j(j+1)Θrot /T , (3.9.24)
j=0

which, in general, cannot be calculated analytically. However, as indicated in Table 3.2,


Θrot is small (less than ∼ 10 meV ' 102 K; 1eV ' 1.2 × 104 K), so that for T  Θrot , the
3
We neglect here the fine structure of the molecules; see Problem 3.9.
66 CHAPTER 3. THE CANONICAL ENSEMBLE

energy levels form a quasi-continuum. We may therefore adopt a classical approximation,


in which the sum is replaced by an integral,
Z ∞
T
Zrot ≈ dj (2j + 1) e−j(j+1)Θrot /T = . (3.9.25)
0 Θrot
For homonuclear molecules, two orientations differing by π are identical, hence indis-
tinguishable. We may thus introduce a symmetry number, σ (σ = 1 for heteronuclear,
and σ = 2 for homonunclear molecules), and write
T
Zrot ' , T  Θrot , (3.9.26)
σΘrot
which leads to the following contributions (per particle):

arot = −kB T ln (T /σΘrot ) (3.9.27)


srot = kB [1 + ln(T /σΘrot )] (3.9.28)
erot = kB T (2 d.o.f. per molecule, p2θ and p2ϕ ) (3.9.29)
cV, rot = kB . (3.9.30)

An improved approximation can be obtained with the use of the Euler-Maclaurin


formula (see, e.g. Ref. [13]),
∞ ∞
1 1 0 1 000
X Z
f (n) = f (x) dx + f (0) − f (0) + f (0) − · · · , (3.9.31)
0 2 12 720
n=0

leading to
 2
T 1 1 Θrot 4 Θrot
Zrot (T ) = + + + + ··· , (3.9.32)
Θrot 3 15 T 315 T
so that the heat capacity becomes
( )
1 Θrot 2 16 Θrot 3
   
CV, rot = N kB 1 + + + ··· , (3.9.33)
45 T 945 T

from which we see that the corrections to the classical result are positive; see Fig. 3.12.
For T  Θrot , only the first terms in the sum of (3.9.24) need to be kept,

Zrot ' 1 + 3e−2 Θrot /T + 5e−6 Θrot /T + O(e−10 Θrot /T ), (3.9.34)

so that the heat capacity becomes,


 2
Θrot
CV,rot ' 12N kB e−2Θrot /T . (3.9.35)
T
As discussed in Sec. 3.10, the exponential behaviour of the heat capacity at low temper-
atures signals the presence of a gap in the energy spectrum.
3.9. MOLECULAR GAS 67

CV,rot C V,k
NkB NkB
1 1

0.5 1.0 T / rot 0.5 1.0 T/ k

Figure 3.12: Temperature dependence of the spe- Figure 3.13: Temperature dependence of the spe-
cific heat associated with molecular rotations; see cific heat associated with molecular vibrations; see
text. text.

3.9.2 Molecular Vibration


The vibrational motion of polyatomic molecules for small amplitudes may be described
as a superposition of f independent harmonic oscillators, the so-called normal modes
of vibration, each with a characteristic frequency, νk . For molecules with n atoms,
the number of normal modes is f = 3n − 5 for linear molecules, f = 3n − 6 in other
cases; note that diatomic molecules only have one normal mode. Table 3.2 displays the
temperature range of Θvib in which vibrations are important. Accordingly, for T ∼ 104 K
all normal modes are excited (the classical region), while for T . 102 K the corresponding
vibrational modes are frozen. One should have in mind that the temperatures should
not be too high, T  104 K.
Since the normal modes are independent, a generic configuration corresponds to v1
quanta with frequency ω1 , v2 quanta with frequency ω2 , and so forth, so that the total
energy is given by
f  
X 1
εvib = vk + ~ωk , vk = 0, 1, 2, . . . , (3.9.36)
2
k=1

and the partition function by


f
Y
Zvib = Zk . (3.9.37)
k=1
The factorisation of the partition function as a product over normal modes allows us to
analyse each contribution separately, as we now pursue.
Defining Θk = hνk /kB , we may write

X e−Θk /2T
Zk = e−(v+1/2)Θk /T = , (3.9.38)
v=0
1 − e−Θk /T
68 CHAPTER 3. THE CANONICAL ENSEMBLE

c [cal/(mol K)]
7R/2

5R/2

3R/2

10 50 500 1000 5000


T [K]
Figure 3.14: Temperature dependence of the specific heat for a gas of diatomic molecules, over a range of tem-
peratures wide enough to follow a succession of frozen to classic crossovers; see text.

from which we obtain


1
ak = kB Θk + kB T ln(1 − e−Θk /T ), (3.9.39)
2    
−Θk /T Θk Θk /T −1
sk = kB − ln(1 − e )+ (e − 1) , (3.9.40)
T
 
1
ek = kB Θk + (eΘk /T − 1)−1 , (3.9.41)
2
 2
eΘk /T
 
Θk Θk
cV,k = kB Θ /T 2
≡ kB E . (3.9.42)
T [e k − 1] T

Equation (3.9.42) defines the Einstein function, E(x).


At low temperatures, T  Θk , one has cV,k ∼ e−Θk /T , again reflecting the presence
of a gap in the spectrum. At high temperatures, on the other hand, cV,k ≈ kB , since the
classical equipartition theorem is in effect – each normal mode contributes with p2 and
q 2 to the classical Hamiltonian. The typical heat capacity for each vibrational mode has
the form shown in Fig. 3.13.
Figure 3.14 summarises the specific heat on a larger temperature scale, encompassing
the rotational and vibrational contributions for a single diatomic molecule.

3.10 Paramagnetism of localised spins.


The magnetic moment of an atom is given by
 e 
µ= g Jop , (3.10.1)
2mc
where the total angular momentum operator is Jop = Lop + Sop , with Lop and Sop being
the orbital and spin angular momentum operators, respectively. This sum of operators
3.10. PARAMAGNETISM OF LOCALISED SPINS. 69

is carried out according to the usual rules of addition of angular momentum (see, e.g.
2 ,
Ref. [7]) leading to the possible eigenvalues of Jop

1 3 5
J(J + 1) ~2 with J = , , . . . or J = 0, 1, 2 . . . , (3.10.2)
2 2 2

since |L − S| ≤ J ≤ L + S, where the eigenvalues of L2op and S2op are L(L + 1)~2 and
S(S + 1)~2 , respectively. Further, the proportionality constant in (3.10.1), ge/2mc, is
the dipole’s gyromagnetic ratio, with g being the Landé factor, given by

3 1 S(S + 1) − L(L + 1)
g= + . (3.10.3)
2 2 J(J + 1)

Now consider a system with N of these magnetic dipoles, each of which with a
moment µi located on the site i of a lattice. In a first approximation, we neglect the
interaction between the dipoles,4 and assume they are in the presence of an external
magnetic field, H, in the direction of which they tend to align.
The system is therefore described by the Hamiltonian,

N
X
H=− µi · H. (3.10.4)
i=1

Taking H in the z-direction, Eq. (3.10.4) becomes


X X
H = −H µzi = −gµB H mi , (3.10.5)
i i

where in the second equality we introduced the Bohr magneton, µB = e~/2mc, and the
z /~: m = −J, −J + 1, . . . , J.
mi ’s are the eigenvalues of Jop i
The partition function for the N independent dipoles is therefore factorised,

ZN = (Z1 )N , (3.10.6)

where
J
X 1 − e(2J+1)x
Z1 = emx = e−xJ , (3.10.7)
1 − ex
m=−J

with x ≡ gµB H/kB T , or


sinh J + 12 x
  
Z1 (H, T ) = . (3.10.8)
sinh 12 x
 

4
Similarly to what happens in gases, the interaction between dipoles provides the mechanism by
which equilibrium is achieved when the external conditions are changed. Further, the interaction must
also be taken into account if one wants to describe the phase transition between demagnetised and
magnetised states.
70 CHAPTER 3. THE CANONICAL ENSEMBLE

The average magnetic moment is the magnetisation per spin, and may be obtained
as

!
1 X −βH z 1 X −βH X
M= hµzi i = e µi = e µzi , (3.10.9)
Z NZ
{m} {m} i

where a uniform magnetisation, i.e. µi = µ, ∀i, was assumed. Hence,

1 ∂ 1 ∂
M= ln Z = − G(T, H), (3.10.10)
N β ∂H N ∂H

where we have now identified G = −kB T ln Z, since the independent variables are T and
H, following the discussion of §3.3 about the free energy of a fluid at constant pressure.

Explicitly, we have

1 ∂
M= ln Z1 = µ BJ (x), (3.10.11)
β ∂H

where µ ≡ gµB J, and the Brillouin function of ordem J is


3.10. PARAMAGNETISM OF LOCALISED SPINS. 71

1.0

BJ (x)

0.5

J=1/2
J=1
J=2
J=20

0.0
0.0 1.0 2.0 3.0 4.0
x
Figure 3.15: The Brillouin function [Eq. (3.10.12)] plotted as a function of x ≡ gµB H/kB T , for different values of
J.

      
1 1 1 1
BJ (x) = 1+ coth 1 + x − coth x , (3.10.12)
2J 2J 2J 2J
and is shown in Fig. 3.15.
It is instructive to examine some limiting cases. For strong fields and/or low tem-
peratures, x  1, one has BJ (x) ≈ 1, for all J; this corresponds to magnetic saturation,
when all moments are aligned with the field. On the other hand, for weak fields and/or
high temperatures, x  1, the behaviour of BJ is linear with x,
1
BJ (x) ' (1 + 1/J) x, (3.10.13)
3
but with a slope dependent on J: maximum when J = 1/2 and minimum in the classical
limit, J → ∞; see Fig. 3.15.
The intensive isothermal magnetic susceptibility,

1 ∂2G
   
∂M
χT = =− , (3.10.14)
∂H T N ∂H 2 T
is then given by
∂M ∂x g 2 µ2B J(J + 1) C
χT = = ≡ , (3.10.15)
∂x ∂H 3kB T T
which is known as Curie’s law: χ ∼ 1/T .
The limit of classical dipoles is recovered if one takes J → ∞ with g → 0, such that
µ ≡ gµB J → constant.
72 CHAPTER 3. THE CANONICAL ENSEMBLE

Let us now specialise to J = 1/2, which simplifies the calculations considerably


while keeping the results very illustrative. Each dipole now has only two orientations,
corresponding to the energies ±ε, ε = µH, with µ = 2µB . With x ≡ 2µB /kB T , the
partition function becomes
ZN (T, H) = [2 cosh x]N , (3.10.16)
from which the free energy is obtained as

G = −N kB T ln(2 cosh x). (3.10.17)

From the free energy we get,


 
∂G
S=− = N kB [ln(2 cosh x) − x tanh x] , (3.10.18)
∂T H
 

E≡− ln Z = −N ε tanh x, (3.10.19)
∂β
 
1 ∂G
M=− = µ tanh x, (3.10.20)
N ∂H T
 
∂E
CH = = N kB x2 sech2 x. (3.10.21)
∂T H
Before attempting to plot these results, we note that the above equations illustrate
the importance of using the ratio, x, of the two relevant energy scales of the problem,
namely magnetic, ε, and thermal, kB T . Accordingly, the temperature dependence is
highlighted by plotting all the above quantities as functions of kB T /ε = 1/x, as in
Fig. 3.16.
From the figure we first note that S → 0 when kB T  ε, in agreement with the
Third Law of Thermodynamics. Indeed, when T → 0 the ground state is unique, Ω = 1,
corresponding to all spins aligned with the field; hence S = kB ln Ω = 0. On the other
hand, at high temperatures, kB T  ε, the spins are practically independent so that
the 2N possible configurations give rise to a macroscopic entropy, S/N kB = ln 2. The
fastest growth of the entropy occurs when kB T ∼ ε, signalling that many states become
accessible in this range of temperatures.
Figure 3.16 also shows the temperature dependence of the internal energy. As ex-
pected, E/N ε is minimal when T → 0, corresponding to the ground state energy of N
aligned spins, each contributing with the energy −ε; hence E/N ε → −1. As T increases,
so does the internal energy, though reaching a saturation value E = 0, when x  1.
Indeed, in this limit each single particle state becomes equally likely, contributing with
zero energy to the average. We also note that the existence of a saturation value of
the internal energy at high temperatures is a peculiarity of the finite number of single-
particle states, which will be exploited below; this should be contrasted with ‘normal’
systems, such as an ideal gas, for which the internal energy grows indefinitely with the
temperature.
The magnetisation also displays two distinct regimes, according to x; see Fig. 3.16.
When kB T  ε, the magnetisation saturates due to the low occurrence of misaligned
3.10. PARAMAGNETISM OF LOCALISED SPINS. 73

1.0

ln 2

0.0
S/NkB
E/N
M/µ
CH/NkB

−1.0
0.0 1.0 2.0 3.0 4.0
kBT/

Figure 3.16: Plots of Eqs. (3.10.18)-(3.10.21) as functions of temperature (in units of ε/kB ). The vertical axes are
scaled in order to render the quantities intensive and dimensionless.

spins, while in the opposite limit of high temperature, x  1, each spin is likely to point
up or down, thus contributing with zero magnetisation.
With respect to the heat capacity, first we must note that for x  1 we have
 2
CH ∆
∼ e−∆/kB T , (3.10.22)
N kB kB T

where ∆ = 2ε is the energy gap between the ground state, E0 = −N ε, and the first
excited state, E1 = −(N − 2)ε. Therefore, in the presence of a gap in the spectrum,
the low-temperature heat capacity vanishes exponentially. Given that the heat capac-
ity is a readily measurable quantity, it is an important asset in the study of spectral
properties. For instance, the existence of a gap in the superconducting state (but not in
the normal state) has shed light into the mechanism responsible for the appearance of
a zero-resistance state in conventional superconductors. Another important feature of
the heat capacity is the maximum around x ∼ 1 – maxima of this sort in C are called
Schottky anomalies –, which reflects the inflection point in E(T ), due to the saturation
of the internal energy at high temperaures. And, finally, when kB T  ε, CH → 0, also
a manifestation of the saturation of E at high temperatures.

Negative Temperatures
A closer look at Eqs. (3.10.18) and (3.10.19) – or, equivalently, if we treat this problem
in the microcanonical ensemble as in Problem 2.4 – allows us to plot the entropy and
the temperature as functions of the internal energy, as shown in Fig. 3.17. The negative
74 CHAPTER 3. THE CANONICAL ENSEMBLE

1.0
(a)

S/NkB
0.5

0.0
10
(b)
kBT/

−10
−1.0 −0.5 0.0 0.5 1.0
E/N

Figure 3.17: (a) Entropy (per particle, in units of kB ) and (b) temperature (in units of ε/kB ) as functions of
energy (per particle, in units of ε).

total energy portion of Fig. 3.17(b) is ‘normal’, in the sense that the entropy increases
with E, until E = 0.
By contrast, the positive energy portion shows a decreasing entropy with increasing
energy, and from Eq. (3.10.19) we see that the energy itself can only be positive if one
had negative absolute temperatures. Indeed, from S(E, N ) in Fig. 3.17(a), we obtain
 
1 ∂S
= . (3.10.23)
T ∂E N

[see Fig. 3.17(b)], showing that, indeed, T < 0 for E > 0. In this ‘abnormal’ region,
the occupation of the highest single-particle level becomes progressively dominant as
E increases. This corresponds to the magnetisation being opposite to the applied field
[c.f. Eq. (3.10.20)].
Despite these surprising predictions, this situation can indeed be realised experimen-
tally in a system of nuclear spins on a LiF lattice, in which the spin-spin relaxation time
is T2 ≈ 10−5 s, while the spin-lattice relaxation time is T1 ≈ 5 min at room tempera-
tures; see [14], and references therein. With this, assume that at time t = 0 the applied
magnetic field acting on the crystal is suddenly reversed. Then at times T2 . t  T1 the
spins haven’t had time to follow the field, so they are still pointing antiparallel to the
field, with total energy E > 0. Since they are in equilibrium with each other, they are
at a negative temperature, T < 0. At times T2  T1 . t, equilibrium with the lattice
sets in through the spins finally aligning with the field, thus restoring T > 0. Note that
this latter equilibrium situation results from the spins giving away energy to the lattice:
3.11. EXERCISES 75

therefore, a system at a negative temperature T < 0 is actually ‘hotter’ than at T > 0


[14].
In closing, we should have in mind that negative temperatures only occur in systems
in which the energy, E, is bounded from above, such as this one; this causes the entropy
to decrease as E increases. In most systems this does not occur, since the kinetic energy
is not bounded from above.

3.11 Exercises
1. (a) For a generic thermodynamical system, discuss the behaviour of E, S, CP , CV ,
αP , (∂P/∂T )V , and KT as T → 0.
(b) Does the ideal Maxwell-Boltzmann gas, discussed in §3.8, behaves as expected in
this limit? Comment.

2. Derive the following relations:

KT (CP − CV ) = T V αP2 and CP (KT − KS ) = T V αP2 ,

where KX and CY are the compressibility (at constant X) and the heat capacity (at
constant Y ), respectively; αP is the coefficient of thermal expansion,
 
1 ∂V
αP = .
V ∂T P

3. (a) Derive the following Maxwell relation for a fluid system:


   
∂µ ∂V
= = v,
∂P T,N ∂N T,P

where v ≡ V /N = 1/n.
(b) Show that for an ideal gas at a given temperature T , the chemical potential
difference between an arbitrary pressure, P , and a reference pressure, P0 , is given
by
µ(P ) − µ(P0 ) = kB T ln (P/P0 ) .
(c) For the case of an incompressible liquid, the volume per particle, v ≡ V /N , is
independent of the pressure; show that in this case, one has

µ(P ) − µ(P0 ) = v (P − P0 ).

(d) Discuss the features common to the results obtained in (b) and (c).

4. A system with N (  1) uncoupled oscillators and total energy E is in thermal equi-


librium. Using the result of Prob. 2.3(a), obtain the probability that one oscillator is
in state n, with energy εn = (n + 1/2)hν.
76 CHAPTER 3. THE CANONICAL ENSEMBLE

5. Consider N uncoupled harmonic oscillators with frequency ω in the canonical ensem-


ble.

(a) Assuming the oscillators are classical, show that the partition function is given
by
 N
1
Z(T, N ) = , u ≡ ~ω/kB T,
u
and calculate the following quantities: µ, P , S, E, CP , and CV . Make sketches
of their dependence with the temperature.
(b) For quantum oscillators, show that the partition function is given by

Z(T, N ) = [2 sinh(u/2)]−N ,

and calculate the same quantities as in (a). Comment graphically on their main
differences relative to (a).

6. Obtain the partition function Ξ(T, P, N ) for an ideal gas in the T -P canonical en-
semble, and derive the equation of state.

7. Consider a classical ideal gas in a d-dimensional box, such that the dispersion relation
for each of the N particles is
ε = aps , (3.11.1)
where a is a constant and p ≡ |p|. The particles are enclosed in a volume V ≡ Ld ,
where L is the linear size. Use the equipartition theorem to show that the internal
energy is given by
d
E = N kB T. (3.11.2)
s
8. Consider an ideal Maxwell-Boltzmann gas with N ( 1) particles, whose energy
spectrum is εp = aps , with s > 0 and a constants. The particles are confined to
a hypecubic box of volume V ≡ Ld , where L is its linear size, and d is the spatial
dimensionality of the box. The gas is at equilibrium at an absolute temperature T .

(a) Determine the dependence of the canonical partition function with (T, V, N ).
[Hint: there is no need to follow in detail all constants which appear, just the
most relevant ones.]
(b) Determine the dependence of the entropy with (T, V, N ). Sketch S(T )/N kB , and
comment on the limiting cases T → 0 and T → ∞.
(c) Determine the dependence of the internal energy with (N, T, V ). Sketch E(T )/N kB ,
and comment on the limiting cases T → 0 and T → ∞.
(d) Determine the dependence of the heat capacity with (N, T, V ). Sketch CV (T )/N kB ,
and comment on the limiting cases T → 0 and T → ∞.
(e) Obtain the chemical potential µ(N, T, V ). Sketch µ(T ), and comment on the
limiting cases T → 0 and T → ∞.
3.11. EXERCISES 77

(f) Obtain an expression for the pressure of this gas, and relate it with the internal
energy. Comment on your results.

9. An ideal monatomic gas occupies a box of volume V . For each of the N atoms of
mass m, the fine structure in the ground state gives rise to a doublet of states with
degeneracies g0 and g1 , separated in energy by ∆ ≡ ε1 − ε0 . Determine the specific
heat of this gas as a function of temperature; make a sketch of CV /N kB ×T indicating
the relevant quantities. Comment on the limitations of the results you obtained.

10. A classical magnetic moment of magnitude µ can point along any spatial direction.
Suppose that N identical moments like this are fixed in position on the sites of a
regular lattice, but the interaction between them can be neglected. This system is
in the presence of an external magnetic field H = Hẑ, and is at equilibrium at a
temperature T .

(a) Show that the ensemble average of the z component of the magnetic moment per
site is given by Langevin’s expression,
   
µH kB T
hµz i = µ coth − . (3.11.3)
kB T µH

(b) Now assume the system consists of spin-1/2 particles with the same magnitude,
µ, of the dipole moment, subject to the same temperature T and field H. Under
what conditions is the behaviour of hµz i similar to that for the classical particles
of (a)? Explain this physically, and show that the two expressions are the same,
apart from a numerical factor.

11. A system consists of N identical particles, fixed in position. Each one can be in
either of two energy levels: one, non-degenerate, with energy 0, and the other, g-fold
degenerate, with energy ε > 0. Let E be the total energy of the system.

(a) Obtain an expression for the entropy of the system, S, as a function of E.


(b) Obtain the occupation numbers n0 and nε at a temperature T .
(c) From now on, assume g = 2, and sketch S(E). Comment on the differences
relative to the case g = 1.
(d) Make the following assumptions: (i) the system energy is E = (3/4)N ε, to which
corresponds a temperature Tsys ; (ii) the system is in contact with a heat reservoir
at a temperature Tres ; (iii) a certain quantity of energy, ∆E, is exchanged with
the reservoir (state clearly whether you consider ∆E as the energy the system
gives away to the reservoir, or vice-versa). Now determine an expression for the
entropy change, ∆S ≡ ∆Sres + ∆Ssys , in terms of Tsys , Tres , and ∆E. Discuss the
sign of ∆E, and interpret.
78 CHAPTER 3. THE CANONICAL ENSEMBLE

12. On every one of the N ( 1) sites of a linear chain there is a spin-1/2. The interaction
energy of any pair of nearest neighbour spins (located at sites i and i + 1) may be
written as
εi,i+1 = −Jσi σi+1 , (3.11.4)
where J is a constant with dimension of energy, and σj = ±1 is a measure of the
orientation of the magnetic moment. Therefore, pairs of parallel (antiparallel) spins
contribute with −J (+J) to the total energy. Admit that the system is initially in
the ground state (T = 0), so that all spins are parallel (either all ‘up’ or all ‘down’)

(a) Which are the energy (E0 ), the entropy (S0 ), and the Helmholtz free energy
associated with this configuration?
(b) Consider now a possible lowest energy excited state, such that all spins to the
right of any site have been flipped (see Fig. 3.18). What are the energy (E 0 ), and
the entropy (S 0 ) associated with this new situation? [Hint: E 0 and S 0 can be
obtained as if the system were at T = 0.]

Figure 3.18: Problem 12

(c) We admit that this new configuration appeared as a result of thermally induced
fluctuations. At low temperatures, the Helmholtz free energy associated with this
new configuration may be given by

A0 = E 0 − T S 0 . (3.11.5)

What is the change in free energy, ∆A = A0 − A?


(d) What can one conclude about the influence of temperature on the stability of the
configuration with parallel spins?
Chapter 4

The Grand-Canonical Ensemble

4.1 Definition
When we discussed the Canonical Ensemble in $ 3.1, we considered a system, S, with
fixed number of particles in thermal contact with the external world, W. In the present
Section we admit that S is also allowed to exchange particles with W.
We may therefore extend the development of $ 3.1 by posing the following question:
given that the Universe has energy EU and NU particles, what is the probability of
finding S with N particles in a given state m, whose energy is EmN . A reasoning similar
to that leading to Eqs. (2.2.6) and (3.3.10) yields
ΩW (EU − EmN , NU − N ; ∆E)
pmN = . (4.1.1)
ΩU (EU , NU ; ∆E)
If S is small, i.e. EmN  EU and N  NU , we may expand
 
∂ ln ΩW
ln ΩW (EU − EmN , NU − N ) ≈ ln ΩW (EU , NU ) − EmN
∂E E=EU ,N =NU
 
∂ ln ΩW
− N, (4.1.2)
∂N E=EU ,N =NU

and identify  
1 ∂ ln ΩW
β= = , (4.1.3)
kB T ∂E EU ,NU
and  
1 ∂ ln ΩW
µ=− . (4.1.4)
β ∂N EU ,NU
Recall that the chemical potential, µ, is an intensive quantity with dimension of energy,
which controls the number of particles in the system.
Similarly to the canonical ensemble, we get
1 −β(EmN −µN )
pmN = e , (4.1.5)
Z

79
80 CHAPTER 4. THE GRAND-CANONICAL ENSEMBLE

where Z is the grand partition function, determined by the normalisation of pmN ,


∞ X
X
pmN = 1. (4.1.6)
N =0 m

Note that now we need to sum over all numbers of particles in S, and over the possible
states, which, in turn, depend on N . We then have,
∞ X
X
Z(T, V, µ) = e−β[EmN −µN ] . (4.1.7)
N =0 m

The grand partition function depends on the parameters β, µ, and, implicitly, on V ;


it plays the same role in the grand-canonical ensemble as does the partition function in
the canonical ensemble.
Let us introduce a number operator, N̂ , which satisfies an eigenvalue equation
N̂ |N i = N |N i, with the eigenvalues N being non-negative integers. If the Hamilto-
nian, Ĥ, preserves the number of particles, one may find a representation in which these
two operators are diagonal. Therefore, we can regard Eq. (4.1.5) as an expression for the
diagonal elements of the density operator,

1 −β(Ĥ−µN̂ )
ρ̂ = e , (4.1.8)
Z
with the partition function being given as

Z = Tr e−β[Ĥ−µN̂ ] , (4.1.9)

where the operation Tr represents a sum over the eigenvalues of N̂ , as well as the usual
Tr in the subspace of fixed number of particles.
The classical case is also obtained by following the lines described in §3.3. The
classical distribution function is given by

1 1 −β[HN (q,p)−µN ]
ρN (q, p) = e , (4.1.10)
hsN
0 N! Z

where HN (q, p) is the Hamiltonian for a system with N particles, and the grand partition
function is

1
X Z
Z= sN N !
eβµN
dq dp e−βHN (q,p) . (4.1.11)
h
N =0 0

In order to establish the connection of the grand-canonical ensemble with the ther-
modynamics, we first recall that the canonical thermodynamic potentials A, E, G, and
H represent the description of the system in termos the variables (T, V, hN i), (S, V, hN i),
(T, P, hN i), and (S, P, hN i), respectively, where hN i is to be regarded as the observed
4.1. DEFINITION 81

number of particles, which is different from the microscopic variable N̂ . In the grand-
canonical ensemble we want to replace hN i by the chemical potential, µ. To this end,
we must introduce a new potential, J(T, V, µ), through a Legendre transformation:

dA = −SdT − P dV + µdhN i
= −SdT − P dV + µdhN i − hN idµ + hN idµ, (4.1.12)

or
dJ = SdT + P dV + hN idµ, (4.1.13)
with
J(T, V, µ) = −A + µhN i. (4.1.14)
Therefore, once J is determined, we obtain the quantities,
     
∂J ∂J ∂J
S= , P = , and hN i = , (4.1.15)
∂T V,µ ∂V T,µ ∂µ T,V

where it is important to notice that hN i is now a function of T, V and µ.


Let us now use the fact that J is an extensive variable depending on two intensive
variables, T and µ, and one extensive variable, V . Therefore, if the volume is scaled by
a factor λ, V → λV , one must necessarily have J → λJ,

J(T, λV, µ) = λ J(T, V, µ). (4.1.16)

Thus, J must be of the form

J(T, V, µ) = V f (T, µ), (4.1.17)

where f is a function of T and µ only. Using the fact that P = (∂J/∂V )T, µ , we may
identify
J(T, V, µ) ≡ V P (T, µ). (4.1.18)
Similarly to the Helmholtz and Gibbs free energies, one can show that for reversible
processes with fixed T, V, and µ, the equilibrium state corresponds to a maximum of
J(T, V, µ).1
The other thermodynamic potentials are defined as

(i) Internal energy: E(S, V, µ)

E = A + T S = µhN i − J + T S; (4.1.19)

(ii) Gibbs free energy: G(T, P, µ)

G = A + P V = J + A = µhN i; (4.1.20)
1
Note that some texts define the grand potential as Ω = −J, so that the equilibrium state corresponds
to a minimum of Ω(T, V, µ).
82 CHAPTER 4. THE GRAND-CANONICAL ENSEMBLE

(iii) Enthalpy: H(S, P, µ)


H = µhN i + T S. (4.1.21)

The averages in the grand-canonical ensemble are then given by

hOi = Tr ρ̂ Ô. (4.1.22)

For instance, the internal energy is



1 XX
E(T, V, µ) ≡ hĤi = Tr ρ̂ Ĥ = EmN e−β(EmN −µN ) , (4.1.23)
Z mN =0

while the nuber of particles is



1 XX
hN i = Tr ρ̂ N̂ = N e−β(EmN −µN ) . (4.1.24)
Z m N =0

The thermal quantities are defined following lines similar to what we did in §3.2:
the equilibrium conditions between subsystems S1 and S2 again leads us to β1 = β2 and
µ1 = µ2 ; see also the discussion in §2.2. It can also be seen that ln Z is an extensive
quantity. Hence, by taking

∂ 1 XX
N e−β(EmN −µN ) = hN i,

kB T ln Z = (4.1.25)
∂µ Z m N

or, using the third of Eqs. (4.1.15) we can make yet another identification,

J(T, V, µ) ≡ kB T ln Z. (4.1.26)

This shows that once obtained the grand partition function, one automatically gains
access to the thermodynamc grandpotential, and to the product P V .
Finally, we mention that sometimes it is convenient to use a variable

z ≡ eβµ , (4.1.27)

called fugacity. We may then write



X
Z(T, V, z) = z N Z(T, V, N ), (4.1.28)
N =0

that is, the grand partition function is the generating function for the canonical partition
function; that is, N !Z(T, V, N ) is the coefficient of z N in the expansion of Z in a Taylor
series expansion in z.
4.2. EQUIVALENCE BETWEEN EQUILIBRIUM ENSEMBLES 83

4.2 Equivalence between Equilibrium Ensembles: Fluctu-


ations
In the preceding sections we set up three distinct ensembles to describe systems in
equilibrium, in which different state variables were controlled. While we may expect on
general grounds that the choice of ensembles does not give rise to different results, it is
illustrative to show formally that the ensembles are indeed equivalent, so that the choice
is more a matter of convenience than of conceptual nature. In what follows we will show
the equivalences microcanonical-canonical and grand-canonical–canonical.
The microcanonical ensemble describes a system whose energy, E, is fixed or, classi-
cally, specified within arbitrarily small limits. In the canonical ensemble the energy may
have any value, but the average energy, hHi, is fixed. The equivalence between them
must therefore correspond to having E ≈ hHi, apart from vanishingly small fluctuations.
To show this, we calculate
 
∂ ∂ 1 −β Ĥ 1 1  ∂Z
hĤi = Tr e Ĥ = − Tr e−β Ĥ Ĥ2 − 2 Tr e−β Ĥ Ĥ , (4.2.1)
∂β ∂β Z Z Z ∂β

where
∂Z ∂ h i
= Tr e−β Ĥ = −Tr e−β Ĥ Ĥ = −ZhĤi. (4.2.2)
∂β ∂β
Therefore,

hĤi = −hĤ2 i + hĤi2 . (4.2.3)
∂β
On the other hand, recalling that the derivatives are taken at constant volume, we have

∂hĤi ∂hĤi ∂T
= = −kB T 2 CV , (4.2.4)
∂β ∂T ∂β
which leads us to
hĤ2 i − hĤi2 ≡ h[Ĥ − hĤi]2 i = kB T 2 CV . (4.2.5)
This result is extremely important, since it relates the fluctuations in a microscopic
quantity with something readily measurable, such as the heat capacity. Moreover, since
CV is an extensive quantity (hence ∝ N ) and T is an intensive quantity, we have,

hĤ2 i − hĤi2 ∼ N, (4.2.6)

so that the relative importance of fluctuations in the energy may be estimated as

h[Ĥ − hĤi]2 i1/2 N 1/2 1


∼ =√ −→ 0. (4.2.7)
hĤi N N N →∞

This result expresses the fact that the fluctuations around the average energy in the
canonical ensemble may be large in absolute value, but they are negligible in compar-
ison with the much larger values of the average energy itself. This means that the
84 CHAPTER 4. THE GRAND-CANONICAL ENSEMBLE

probability of finding a member of the ensemble with an energy E very different from
hĤi vanishes in the thermodynamic limit, thus establishing the correspondence between
the microcanonical and canonical ensembles.
Now we consider the grand canonical ensemble, and let us examine the fluctuations
in the number of particles. We start by evaluating
 
∂ ∂ 1 −β[Ĥ−µN̂ ]
hN i = Tr e N̂ =
∂µ ∂µ Z
1   1   ∂Z
= β Tr e−β[Ĥ−µN̂ ] N̂ 2 − 2 Tr e−β[Ĥ−µN̂ ] N̂ (4.2.8)
Z Z ∂µ

with
∂Z ∂ h i
= Tr e−β[Ĥ−µN̂ ] = β Tr e−β[Ĥ−µN̂ ] N̂ = βZhN i. (4.2.9)
∂µ ∂µ
Therefore,
∂ h i
hN i = β hN 2 i − hN i2 (4.2.10)
∂µ
In order to relate ∂hN i/∂µ with more familiar quantities, we note that

∂hN i ∂hN i ∂hN i ∂hN i


         
∂P
= = , (4.2.11)
∂µ V,T ∂P V,T ∂µ V,T ∂P V,T ∂V µ,T

where in the last equality we used a Maxwell relation,

∂hN i
   
∂P
= . (4.2.12)
∂µ V,T ∂V µ,T

(The reader should derive this relation!)


Similarly to what we did for the grand potential J, it is a simple matter to verify
that the extensive quantity hN i, as a function of V , T and µ must satisfy

hN i = V Q(T, µ), (4.2.13)

where Q is a function of the intensive variables T and µ. Thus,

∂hN i hN i
 
= , (4.2.14)
∂V T, µ V

leading to
∂hN i hN i ∂hN i
   
= . (4.2.15)
∂µ V,T V ∂P V,T

Now we must regard hN i a function of P , V , and T , in which case we similarly have,

hN i = V g(T, P ), (4.2.16)
4.3. EXERCISES 85

which means that hN i/V does not depend on hN i and V . On the other hand,

∂hN i
     
∂P ∂V
= −1, (4.2.17)
∂P V,T ∂V hN i,T ∂hN i P,T

so that using Eqs. (3.4.3) and (4.2.16), we end up with

∂hN i
 
= hN iKT . (4.2.18)
∂P V,T

We then have, finally,


∂hN i hN i2
 
= KT . (4.2.19)
∂µ V,T V
This important result shows that an incompressible system, KT → 0, can be seen either
as one in which the volume is not altered by applied pressure, or as one to which it is
extremely hard to add particles by increasing the chemical potential.
Taking (4.2.19) into (4.2.10), we obtain a relation analogous to (4.2.7),
1/2
h[N̂ − hN̂ i]2 i1/2

kB T
= nKT , (4.2.20)
hN i hN i

where n ≡ hN i/V is the average density of particles. Since KT is an intensive quantity,


we have, in general, √ KT ∼ 1, so that relative fluctuations in the number of particles
around hN i are ∼ 1/ N . thus vanishingly small in the thermodynamic limit. However,
an important exception takes place near a phase transition, when one may have KT ∼ N ;
for instance, at the transition point between liquid and vapour critical fluctuations take
place in large regions giving rise to the phenomenon of critical opalescence shown in
Fig. 8.6.
We may then conclude that the grand-canonical ensemble is equivalent to the canon-
ical ensemble, apart from the neighbourhood of the critical point. When studying fluc-
tuations in fluids near this region, one must therefore use the grand-canonical ensemble.

4.3 Exercises
1. Consider a classical ideal gas of monatomic molecules.

(a) Show that the grand partition function is given by

Z = ezZ1 ,

where z is the fugacity, and Z1 = V /Λ3 is the partition function for a single
 1/2
molecule, with Λ = h2 /2πmkB T .
86 CHAPTER 4. THE GRAND-CANONICAL ENSEMBLE

(b) Show that the average number of molecules is

hN i = zZ1

(c) Obtain the equation of state in terms of hN i.

2. A container consists of two tubes, each with volume V , verrtically separated by a


distance y, and connected by a tube of negligible volume; see Figure 4.1.
CHAPTER 7. THE CHEMICAL POTENTIAL AND PHASE EQUILIBRIA 359

Nu

N0

Figure 7.1: A container at height y connected by a tube of negligible volume to a container at


height zero. Figure 4.1: Problem 2

In the present example chemical equilibrium is reached by a transfer of particles. From Table 7.1
Suppose that a gas made up of weakly interacting particles of mass m fills up both
we see that if the two subsystems are initially not in equilibrium, for example, NA = 3, then
tubes, and
µA /TAare in(more
is less equilibrium at µan
negative) than B /Tabsolute temperature
B . Because the T . to maximize the total
system will change
entropy, we see that subsystem A will gain particles from subsystem B. Thus, particles will be
transfered from a subsystem with the larger (less negative) ratio µ/T to the subsystem with the
(a) Obtain
smalleravalue
relation
of µ/T .between the number of atoms in the top compartment, Nu , and
in the bottom one, N0 .
Problem 7.2. Numerical calculation of the chemical potential of the Einstein solid
(b) Discuss your result.
(a) Use Program EinsteinSolidChemicalPotential to consider an isolated Einstein solid con-
sisting of two subsystems. The program counts the number of states using the relation (4.3).
3. A fluid can Thecoexist in program
inputs to the the liquid are EAand
, EB , gas
and N(vapour)
= NA + NBphases.
. Imagine thatIn the
order to describe this
two subsystems
are initially separated by an insulating and impermeable
coexistence, we adopt a very simple model, in which we treat the liquid partition, with N A = 8, NBas=a 4, “gas” of
EA = 15, and EB = 30. What is the initial entropy of the system? The partition is then
independent molecules
replaced by one that such that
allows (i) the
particles but notinteraction
energy to be of each molecule
transferred between thewith the others
two sub-
is represented by a constant potential, −φ; (ii) each one of the N molecules of the
systems. Construct a table similar to Table 7.1 and show that the ratio µ/T is approximately
equal for the most probable macrostate (defined by specific values of NA and NB ). Is the
liquid moves entropyfreely
of thisin a totalhigher
macrostate volumethan theV`initial
= Nentropy?
` v0 , where
Then try v0other
is the (constant)
combinations of N , volume
per molecule in the
EA , and liquid
EB . In a morephase. The vapour
realistic problem particles of this
could not liquid (None
move from g molecules
system to in a volume
another
without transferring energy as well.
Vg ) is treated as an usual ideal gas.
(b) Why is µ expected to be negative for the Einstein solid?
(a) Treat
(c) Ifeach subsystem
the amount of energy(liquid and
is the same vapour)
in each in the
subsystem canonical
of a composite ensemble,
Einstein and show
solid, what
would be the equilibrium number of particles in each subsystem?
that the vapour pressure is given by
We next consider a model consisting of two ideal gases that are in containers at different
kB T −βφ
heights (see Fig. 7.1).1 Because we wish to characterize the containers only by their height, we
assume that each container has a very largeP cross-sectional
= e area and a very small thickness such (4.3.1)
v0
that the volume of each container is finite. For simplicity, we also assume that both gases are at
1 This model is discussed in Ralph Baierlein, Thermal Physics, Cambridge University Press (1999).
(b) Treat each subsystem (liquid and vapour) in the grand-canonical ensemble, and
recover the above result.
(c) Discuss physically the behaviour of P at low and high temperatures.
4.3. EXERCISES 87

4. A monatomic gas coexists in equilibrium with the solid phase. Assume the energy
per atom necessary to transform solid in gas is ϕ, and adopt the Einstein model for
solids, namely each atom vibrates around its equilibrium position with frequency ω,
being therefore represented by a three-dimensional harmonic oscillator. Determine
the vapour pressure, P , as a function of temperature, T , for this system, and sketch
P (T ). Discuss physically the low- and high-temperature limits.

5. An ideal gas consists of molecules of type A, of type B, and of type AB, in constant
process of dissociation: A + B AB. Derive the law of mass action,
3/2 0
(mA + mB )h2

nAB ZAB W0 /kB T
= 0 Z0 e , (4.3.2)
nA nB 2πmA mB kB T ZA B

where nX , X = A,B,AB, is the concentration (number per volume) of molecules


of type X, and ZX 0 is the partition function for the internal degrees of freedom for

each molecule (for which the origin of energies is taken as the ground state energy,
excluding zero-point vibrations). Thus, W0 ≡ ε0A + ε0B − ε0AB is the difference between
these zeroes of energy.

6. Consider a monatomic crystal, made up of N atoms. The atoms may be located in


two kinds of positions: normal (filled circles in Fig. 4.2) or interstitial (empty circles).
Assume there are an equal number, N , of both kinds of positions, but the energy of
an atom on an interstitial position excedes by ε that of an atom on a normal position.

Figure 4.2: Problem 6 – Lattice


sites are represented by full circles,
while intersticial sites are repre- Figure 4.3: Problem 7 – Gas molecules are
sented by empty circles. adsorbed on a surface.

(a) Show that the partition function for this system can be written as
X X
Z= Ω(n) e−βnε ≡ ζ(n), (4.3.3)
n n

where n (1  n  N ) is the number of occupied interstitial positions, and Ω(n)


is the number of ways these positions can be occupied.
88 CHAPTER 4. THE GRAND-CANONICAL ENSEMBLE

(b) Show that the leading contribution to Ω(n) is


 2n
N
Ω(n) ∼ . (4.3.4)
n

(c) Since Ω(n) increases rapidly with n, while exp(−βnε) decreases rapidly with n,
one expects a sharp maximum of ζ(n) at some n∗ . Show that

n∗
≈ e−βε/2 , (4.3.5)
N
and that the Helmholtz free energy becomes

A ≈ −kB T ln ζ(n∗ ). (4.3.6)

(d) Alternatively, we can calculate the Helmholtz free energy by first calculating the
entropy, S, associated with displacing n atoms to interstitial positions, and using
A = E − T S. Show that imposing A to be a minimum yields the same n∗ as in
(c).

7. A surface with M sites can adsorb atoms of an ideal gas (single atoms with mass m)
at a temperature T and pressure P ; see Fig. 4.3. An adsorbed atom has energy −ε0 ,
relative to the free case.

(a) Obtain an expression for the surface coverage, θ, (i.e., the ratio of the number of
adsorbed atoms by M , the number of adsorbing sites) as a function of P , T , and
ε0 .
(b) Discuss physically the behaviour of θ in the limits P → 0 and P → ∞.
Chapter 5

Quantum Effects: Bose and Fermi


Statistics
Refs.: Balescu [1], Huang[2], Pathria[3, 4]

5.1 Indistinguishability
We will now address the consequences of the fact that the particles are actually quantum-
mechanically indistinguishable. Let us then consider, for simplicity, a system with N
non-interacting indistinguishable particles. The Hamiltonian for this system is then

N
X
H= Hi0 , (5.1.1)
i =1

where Hi0 is a function solely of the operators acting on particle i. All Hi0 are there-
fore formally identical, each of which defining the so-called ‘single-particle problem’,
summarised by the time-independent Schrödinger equation,

H0 φm (r) = εm φm (r). (5.1.2)

The index i was omitted for being generic in this case, and we will assume the eigen-
functions of (5.1.2) span an N -dimensional state space; hence, N is also the number of
distinct choices of m.1
The N -particle time-independent Schrödinger equation in the coordinate represen-
tation may be written as

H ΨE (r1 , r2 , . . . rN ) = E ΨE (r1 , r2 , . . . rN ), (5.1.3)


1
Note that in general m represents a set of quantum numbers characterising the single-particle
states. For instance, the quantum numbers for a free particle in a box can be {k, σ}, namely the linear
momentum and the spin projection, in which case N is the number of distinct sets of m. Therefore, for
an N -particle system we must specify a set of N elements, {m} ≡ {m1 , m2 , . . . , mN }; each element of
the latter set has N elements.

89
90 CHAPTER 5. QUANTUM EFFECTS: BOSE AND FERMI STATISTICS

where E is the eigenvalue of H corresponding to the total energy of the system. Since
H is separable, one possible solution of (5.1.3) may be written as
N
Y
Ψ0E (r1 , r2 , . . . , rN ) = φmi (ri ), (5.1.4)
i=1

with
N
X
E= εm i . (5.1.5)
i=1

Clearly Ψ0E does not reflect the fact that the particles are indistinguishable: when
any two particles are exchanged, one obtains a different function. In order to comply
with indistinguishability, we must take a linear combination of the Ψ0E ,
XX X
ΨE (r1 , . . . rN ) = ··· C(m1 , m2 . . . mN ) φm1 (r1 ) φm2 (r2 ) · · · φmN (rN ), (5.1.6)
m1 m2 mN

with the coefficients, C, being subject to certain restrictions. Firstly, the C’s must vanish
whenever the set {m} ≡ {m1 , m2 , . . . , mN } does not coincide with what is prescribed
by Eqs. (5.1.3)-(5.1.5). Secondly, the C’s must reflect the indistinguishability: as any
two particles are exchanged, the physical properties of ΨE must be preserved. Hence it
follows that

|ΨE (r1 , . . . , rj , . . . , rk , . . . , rN )|2 = |ΨE (r1 , . . . , rk , . . . , rj , . . . , rN )|2 , (5.1.7)

since the physical properties follow from |Ψ|2 , not from Ψ. Therefore,

ΨE (r1 , . . . , rj , . . . , rk , . . . , rN ) = θ ΨE (r1 , . . . , rk , . . . , rj , . . . , rN ), (5.1.8)

with θ = ±1; that is, the total wave function must be either symmetric, θ = +1, or
anti-symmetric, θ = −1, under the permutation of two particles.
All particles in Nature are then classified as bosons (symmetric wave functions)
or fermions (anti-symmetric wave functions). Bosons are particles with integer spins,
such as photons, phonons, gravitons, π-mesons, 4 He atoms, and so forth. Fermions are
particles with half-integer spin, such as electrons, protons, neutrons, muons, neutrinos,
3 He atoms, etc.

Let us consider an example with two particles, N = 2, assuming each one can be in
either of two single-particle states, N = 2, which we denote by φa and φb . We may then
form the symmetric and anti-symmetric combinations,
1
ψS = √ [φa (r1 ) φb (r2 ) + φb (r1 ) φa (r2 )] , (5.1.9)
2
and
1
ψA = √ [φa (r1 ) φb (r2 ) − φb (r1 ) φa (r2 )] (5.1.10)
2
5.1. INDISTINGUISHABILITY 91

From this simple example we learn that the condition (5.1.8) is carried over to the coef-
ficients. Indeed, the exchange ri ↔ rj is equivalent to the exchange of the corresponding
quantum numbers mi ↔ mj , that is,

C(m1 , . . . , mj , . . . , mk , . . . , mN ) = θ C(m1 ., . . . , mk , . . . , mj , . . . , mN ). (5.1.11)

In particular, we note that Pauli’s exclusion principle follows from (5.1.11), given that
for fermions,
C(m1 , . . . , m, . . . , m, . . . mN ) = 0. (5.1.12)

We recall that the equality mj = mk = m actually corresponds to the equality of all


quantum numbers in the sets mj and mk .
Note that conditions such as (5.1.11) reflect the fact that a description of a quantum
state by Eq. (5.1.6) is actually redundant, since it is immaterial specifying which particle
is in the single-particle state mk , and so forth: the relevant information is really how
many particles are in the state mk , and so forth. Therefore the natural variables in
quantum many-body problems are the occupation numbers, nmk , of the different states.
Accordingly, the probability of finding n1 particles in the state m1 , n2 in the state m2 ,
etc., is given by
|C(n1 , n2 , . . .)|2 = |C(m1 , m2 , . . . mN )|2 ,
X
(5.1.13)

where the sum extends to all states with n1 particles in state m1 , n2 is state m2 , etc.
Using (5.1.11) and the same counting arguments which led to Eq. (3.7.5), we obtain

N! 2
|C(n1 , n2 , . . .)|2 = C(m01 , m02 , . . . , m0N ) , (5.1.14)
n1 !n2 ! . . .

since for a given distribution of particles through the states m01 , m02 , . . . , m0N all
|C(m01 , m02 , . . . , m0N )|2 are equal. This relation allows us to go from a representation
in terms of the m’s to the occupation number representation, also known as second
quantisation representation. In the latter, nm can be either 0 or 1 for fermions, while
nm = 0, 1, 2, . . . for bosons.
With this, total energy of the system can be written as
X0
E= n m εm , (5.1.15)
m

P0
where reminds us that the sum is subject to the condition
X
nm = N. (5.1.16)
m

It is also important to stress the difference between Eqs. (5.1.5)) and (5.1.15): in the
former one sums over particles, while in the latter one sums over states.
92 CHAPTER 5. QUANTUM EFFECTS: BOSE AND FERMI STATISTICS

5.2 Ideal Systems of Bosons or Fermions


In the previous Section we saw that quantum indistinguishability effects manifest them-
selves in the symmetry, or anti-symmetry, of the wave functions. We have also mentioned
that these effects are only expected to dominate at low temperatures or high densities,
as reflected by the role played by the thermal wavelength, Λ, for gases. The study of
some of these effects in non-interacting quantum gases is the main purpose of the present
Section.
Let us then consider N non-interacting particles of mass m in a volume V , each of
which with a spin-S; we will not consider here internal degrees of freedom, since they
are not affected by indistinguishability, and are treated within the framework analogous
to that of Section 3.9. Each single-particle state is therefore labelled by the eigenvalue
of the linear momentum operator, p, and by the eigenvalue σ~ of the z-component of
the spin operator, S. Thus for each value of p, there are 2S + 1 distinct states with
σ = −S, −S + 1, . . . , S. For a gas in the absence of an external magnetic field, the energy
levels are independent of σ,
p2
 

εpσ = εp = , with pα = ~ nα , nα = 0, ±1, . . . , α = x, y, z, (5.2.1)
2m L
where we assume the container is a cubic box with linear size L (see Sec. 2.4).
As mentioned before, a convenient set of basis states is the one specified by the
single-particle occupation numbers, which in the case of spin-1/2 particles becomes

|{np,σ }i ≡ |np1 ↑ , np1 ↓ , np2 ↑ , np2 ↓ , . . .i ≡ |np1 ↑ i|np1 ↓ i|np2 ↑ i|np2 ↓ i . . . , (5.2.2)

so that for a specific pair, (P, Σ), one has,

n̂PΣ |{np,σ }i = nPΣ |{np,σ }i; (5.2.3)

where in this basis the operator n̂pσ simply counts how many particles, npσ , occupy
the state (p, σ). The possible outcomes are npσ = 0 or 1 for fermions, or npσ =
0, 1, 2, . . . , or ∞, for bosons.
For a non-interacting system, the Hamiltonian can then be written as [compare with
Eq. (5.1.15)] XX
H= εp n̂pσ , (5.2.4)
p σ

where n̂pσ is the operator counting the number of particles with momentum p and
spin-component σ~.
The canonical partition function is then
X0 P P
ZN = Tr e−βH = e−β p σ εp npσ (5.2.5)
{npσ }

where we replaced the operator n̂pσ by its eigenvalue npσ , since we assume the trace is
taken in the occupation number representation, in which H is diagonal. It is important
5.2. IDEAL SYSTEMS OF BOSONS OR FERMIONS 93

to note that the sum over {npσ } is over all possible configurations, with the prime
enforcing the restriction of constant total number of particles,
X
npσ = N. (5.2.6)

This restriction precludes the factorisation of the partition function into a product (over
p and σ) of exponentials, each of which with its own sum over possible occupations.
This is a manifestation of the correlation between the occupation of the energy levels, a
purely quantum phenomenon.
At this point it is instructive to assess the influence of indistinguishability by recov-
ering the partition function for the Boltzmann gas. To this end, we take S = 0, for
simplicity, and note that for distinguishable
Q particles (Boltzmann) each configuration
{np } may be obtained in N !/ p np ! distinct ways. In this case, Eq. (5.2.5) becomes
!N
X0 N! Y X
ZB = Q e−βεp np = e−βεp , (5.2.7)
p n p ! p p
{np }

where the last equality follows from the binomial theorem. Equation (5.2.7) is the known
classical result, apart from the 1/N ! factor, which takes into account, a posteriori, the
indistinguishability of particles.
The restriction of a constant number of particles, Eq. (5.2.6), may be lifted if we use
the grand-canonical ensemble. In this case, we have
∞ X
X 0 β P [µ−ε ] n
Z= e p,σ p pσ
. (5.2.8)
N =0 {npσ }

In order to understand how these sums are carried out, we assume there are only two
accessible states to each particle, with energies ε1 and ε2 , in terms of which we define
a = eβ(µ−ε1 ) and b = eβ(µ−ε2 ) . Let us also admit that each of these single-particle
states can be occupied by an arbitrary number of particles; the case of fermions can be
recovered in the end, as we will see below. The grand partition function in this case may
be written as
∞ XX ∞ XN
X 0 0 n X
Z= a 1 bn2 = aN −n bn . (5.2.9)
N =0 n1 n2 N =0 n=0
given that the sums in n1 and n2 are subject to the restriction n1 + n2 = N .
Therefore, for each N we sum from n = 0 to n = N ; then we sum the partial results
from N = 0 to ∞. In the table below, this amounts to summing all rows in sequence,
N =0 1
N =1 a+b
N = 2 a2 + ab + b2
N = 3 a3 + a2 b + ab2 + b3
... ...
94 CHAPTER 5. QUANTUM EFFECTS: BOSE AND FERMI STATISTICS

Alternatively, for each fixed power of a we may sum over all powers of b, and then sum
over all powers of a, that is,

Z = (1 + b + b2 + b3 + · · · )+
+ a (1 + b + b2 + b3 + · · · )+
+ a2 (1 + b + b2 + b3 + · · · ) + . . . =

! ∞ !
X X
= an1 bn2 . (5.2.10)
n1 =0 n2 =0

This result can be easily extended to an arbitrary number of single-particle states, so


that Eq. (5.2.8) becomes
YYX ∞
Z= eβn(µ−εp ) . (5.2.11)
p σ n=0

For fermions the occupation numbers, n, can be either 0 or 1, so the sum in (5.2.11)
only has two terms, leading to
YYh i
Z= 1 + eβ(µ−εp ) (F). (5.2.12)
p σ

For bosons, the occupation numbers, n, can be any non-negative integer, and the
sum in (5.2.11) trivially converges, as long as the exponent is negative for any εp . This
requires,
µ ≤ 0 , for bosons, (5.2.13)
where the equality is only valid in cases in which εp > 0, ∀p. Thus,
YYh i−1
Z= 1 − eβ(µ−εp ) (B). (5.2.14)
p σ

Using the parameter θ = ±1 [c.f., (5.1.8)], we can write an expression for Z which is
simultaneously valid for bosons and fermions,
YYh i−θ
Z= 1 − θ eβ(µ−εp ) . (5.2.15)
p σ

It is important to notice that, similarly to the Maxwell-Boltzmann gas, the grand


partition function for the quantum ideal gas is factorised. However, a crucial difference
is that here the product of exponentials runs over single-particle states, while in the
Maxwell-Boltzmann case the product runs over individual particles.
The grand-potencial J(T, V, µ) may then be written as a sum over states,
XX h i
J(T, V, µ) ≡ V P (T, µ) = −θkB T ln 1 − θ eβ(µ−εp ) , (5.2.16)
p σ
5.2. IDEAL SYSTEMS OF BOSONS OR FERMIONS 95

from which all remaining thermodynamic functions may be extracted from differentia-
tions, as follows:
hN i
 
∂P
particle density: n = = (5.2.17)
V ∂µ T
 
S ∂P
entropy density: s̃ = = (5.2.18)
V ∂T µ
   
1 ∂V 1 ∂n
compressibility: KT = − = 2 (5.2.19)
V ∂P T n ∂µ T
 
1 ∂
internal energy density: ẽ = − βJ (5.2.20)
V ∂β z,V
 
∂ẽ
specific heat (per volume): cV = . (5.2.21)
∂T µ,V

The reader should also notice (see Problem 5.1) that the derivative wih respect to β in
the calculation of the internal energy density is taken at constant fugacity, and not at
constant chemical potential. Further, the second equality in Eq. (5.2.19), obtained using
Eq. (4.2.18), also shows that the compressibility provides a measure of the energetic cost
to add particles to the system; thus, an insulator is incompressible, KT = 0, while a
metal is compressible, KT > 0.
Let us now develop Eq. (5.2.16) a bit further. First, we notePthat in the absence of an
external magnetic field, εp does not depend on σ, so that the σ yields a multiplicative
factor, g, which is the degeneracy of the level εp . Second, for a system with macroscopic
dimensions, the possible values of p are closely spaced; in Eq. (5.2.16) we may therefore
replace the sum over p by an integral.2
The replacement
L3
X Z
→ 3 d3 p, (5.2.22)
p
h
then yields
V
Z h i
2
P V = −θgkB T 3 d3 p ln 1 − θ eβ(µ−p /2m) . (5.2.23)
h
If we integrate in spherical coordinates, the angular part contributes with 4π. Defin-
ing η ≡ β(p2 /2m), and integrating (5.2.23) by parts yields
Z ∞
η 3/2

2 −3 2
P (T, µ) = kB T gΛ √ dη η−µ/k T , (5.2.24)
3 π 0 e B −θ
where we notice the reappearance of the thermal wavelength, Eq. (3.8.5), thus indicating
that another length scale becomes important, in addition to the linear size, L, of the
system; as we will see, if Λ is much smaller than the average interparticle spacing (whose
upper bound is L), quantum effects will not be dominant.
2
As we will see in §5.5, care must be taken when performing this replacement, due to the possibility
of occurrence of a macroscopic occupation of the single-particle ground state.
96 CHAPTER 5. QUANTUM EFFECTS: BOSE AND FERMI STATISTICS

We have therefore obtained an expression for P as a function of T and µ. This latter


quantity is not very convenient, since it is not directly measurable. In order to obtain
an equation of state, P (T, n), we note that the density, n, is given by


η 3/2 eη−µ/kB T
 
∂P 2 2
Z
n= = g Λ−3 √ dη , (5.2.25)
∂µ T 3 π 0 [eη−µ/kB T − θ]2

which, after integration by parts, becomes



2 η 1/2
Z
−3
n(T, µ) = g Λ √ dη . (5.2.26)
π 0 eη−µ/kB T − θ

Solving (5.2.26) for µ(n, T ), and taking into (5.2.24), we may in principle obtain
P (T, n). Some proposals to invert the relation between chemical potential and density,
Eq. (5.2.26), have been advanced [15, 16], but they resort to quite intricate integrals. For
the benefit of physical intuition it is therefore more advantageous to work simultaneously
with Eqs. (5.2.24) and (5.2.26), and perform the inversion in specific limiting cases.
Before examining the high- and low-temperature limits of Eqs. (5.2.24) and (5.2.26),
we note that the energy density may be obtained from (5.2.20) as


2 η 3/2
Z
−3
ẽ(T, µ) = g kB T Λ √ dη , (5.2.27)
π 0 eη−µ/kB T − θ

which upon direct comparison with (5.2.24), yields the equation of state

2
P = ẽ. (5.2.28)
3

The reader should convince him(her)self that the 2/3 fraction in Eq. (5.2.28) actually
represents the ratio s/d, where s is the momentum exponent in the dispersion relation,
ε ∝ ps , and d is the spatial dimension. One should also stress the universal aspect of the
equation of state: since θ does not appear in (5.2.28), this relation is valid for any ideal
system, independent of the statistics, namely Maxwell-Boltzmann (MB), Bose-Einstein
(BE), and Fermi-Dirac (FD). For the MB case, the simple form

Pcl = n kB T (5.2.29)

is recovered with the aid of the Equipartition Theorem.


Let us now consider the situation in which quantum effects do not dominate, namely
at high temperatures or low densities. The high temperature limit of Eq. (3.9.12) occurs
for (µ/kB T ) → −∞, or
 3
µ/kB T Λ
z=e =N  1, (5.2.30)
L
when it is easy to add particles to the system.
5.3. BOSE-EINSTEIN AND FERMI-DIRAC DISTRIBUTIONS 97

Expanding the integrands in Eqs. (5.2.24) and (5.2.26), and integrating term by term,
we get
P = g kB T Λ−3 z(1 + θ 2−5/2 z + 3−5/2 z 2 + · · · ), (5.2.31)
n = g Λ−3 z(1 + θ 2−3/2 z + 3−3/2 z 2 + · · · ). (5.2.32)
Equation (5.2.32) may be inverted order by order, and taken into (5.2.31), which yields,
P = nkB T [1 − 0.1768 θ g −1 Λ3 n − 0.0033 g −2 Λ6 n2 + · · · ]. (5.2.33)
This result contains very interesting information. First, the pressure is expressed as a
power series of the so-called degeneracy parameter,
3/2
h2

−1 3 1
δ≡g Λ n= n, (5.2.34)
g 2πmkB T
which may be thought of as the fraction of the macroscopic volume occupied by the
wave packets (of length Λ), associated with the particles. Thus the Maxwell-Boltzmann
statistics corresponds to the non-degenerate limit,
δ1 (MB), (5.2.35)
of high temperatures (for a given density) or low densities (for a given temperature),
when effects of interference between the wave packets are very small. Further, the RHS
of Eq. (5.2.33) may also be seen as an expansion in powers of the density, n, which is
known as a virial expansion. Such expansions appear in the context of non-ideal gases
(i.e., ones in which the molecules interact with each other; see §7.2).
The second point is that this deviation from the result for the classical ideal gas
is due to the correlation between the particles, introduced when properly symmetrised
wave functions are adopted. Thus, despite the absence of actual interactions between
the particles, the motion of each particle depends on the motion of the other particles.
It is as if fermions were subject to a repulsive pseudo-force, which enhances the pressure
relative to the MB gas; similarly, bosons would be subject to an attractive pseudo-force
which decreases the pressure relative to the MB gas.

5.3 Bose-Einstein and Fermi-Dirac distributions


As we will see, the occupation of the single-particle states plays a very important
role in describing the high degeneracy regime, δ  1. For the case at hand, the
thermodynamically-averaged occupation of the single particle states labelled by (p, σ)
are denoted by hnpσ i. We may obtain them by assuming the energy levels depend on σ,
that is εpσ , and we get [see Problem 5.1(b)],
 
1 ∂ 1
hnp σ i = −
0 0 βP V = β(ε 0 0 −µ) , (5.3.1)
β ∂εp0 σ0 z,T e p σ −θ
leading to the well known distributions (returning to εpσ = εp ):
98 CHAPTER 5. QUANTUM EFFECTS: BOSE AND FERMI STATISTICS

(i) Bose-Einstein,
1
hnpσ i = , and (5.3.2)
eβ(εp −µ) −1

(ii) Fermi-Dirac
1
hnpσ i = . (5.3.3)
eβ(εp −µ) +1
P P
Note that hN i = pσ hnpσ i, and that the magnetisation, given by pσ σhnpσ i,
vanishes in the absence of a magnetic field since hnpσ i does not depend on σ: the
equilibrium state is therefore unpolarised. And, finally, for fermions 1 − hnpσ i is the
average number of holes in the state (pσ).
Due to the different statistical properties of fermions and bosons, in what follows
we separately explore the behaviour of the corresponding gases in the highly degenerate
limit,
Λ3 n
δ≡ ≥ 1. (5.3.4)
g
At this point, we recall that the smallness of the particle masses also contributes towards
increasing Λ, hence driving the system deeper into the high degeneracy regime: this is
one of the features of He atoms allowing them to form a superfluid at low temperatures.

5.4 Degenerate Fermi gas


In fermionic systems with constant density, particles are distributed according to Pauli’s
exclusion principle, which prevents two particles to share the same set of quantum num-
bers; that is, accumulation of particles on any single-particle state is not allowed. At
low temperatures, the most favourable distributions correspond to having fermions oc-
cupying the lowest lying single-particle states compatible with their degeneracy, g, until
all particles are accommodated. The energy of the highest occupied state is called the
Fermi energy, εF . In this way, the zero-point energy of a fermionic system is considerable,
unlike what happens for a bosonic system.
Accordingy, at T = 0 we must have

hnpσ i = Θ(εF − εp ), (5.4.1)

with (
0 x<0
Θ(x) = (5.4.2)
1 x > 0,
as shown in Fig. 5.1.
In order to make (5.4.1) compatible with the distribution (5.3.3), we must note that
(
0 if (ε − µ) < 0
lim eβ(ε−µ) = (5.4.3)
β→∞ ∞ if (ε − µ) > 0,
5.4. DEGENERATE FERMI GAS 99

np
1

F
p

Figure 5.1: Fermi distribution at T = 0.

or (
11 if ε < µ
hnpσ i = β(ε−µ) → (5.4.4)
e +1 0 if ε > µ,
which necessarily leads to
µ = εF at T = 0. (5.4.5)
The Fermi energy is obtained by first recalling that the density of particles as given
by Eq. (5.2.26), reduces in the limit T → 0, to

25/2 π m3/2 g ∞
Z
n= dε ε1/2 Θ(εF − ε), (5.4.6)
h3 0

which leads to 2/3 


6π 2 ~2
 
εF = n2/3 . (5.4.7)
g 2m

We may similarly define a Fermi momentum, pF = 2mεF , or
1/3
6π 2

pF = ~ n1/3 . (5.4.8)
g

The internal energy per volume is calculated from (5.2.27),


3
ẽ = n εF (T = 0), (5.4.9)
5
so that the equation of state leads to the pressure being given by
2/3 
6π 2 ~2
 
2 1
P = n εF = n5/3 (T = 0). (5.4.10)
5 5 g m
The ideal Fermi gas provides a quite reasonable model for the alkali metals, while for
other metals it may be used as a guide to extract order of magnitudes; see, e.g. Ref. [17],
100 CHAPTER 5. QUANTUM EFFECTS: BOSE AND FERMI STATISTICS

Ch. 2. Typical electron densities in metals are on the order of 1021 -1022 electrons/cm3 ,
which leads to Fermi energies between 2 and 10 eV. Therefore, due to this large zero-
point energy the pressure of an ideal Fermi gas at T = 0 is considerable, being on the
order of 3 GPa ' 104 atm. This behaviour should be contrasted with that for the ideal
Bose gas (see §5.5), whose pressure vanishes as T → 0.
Let us now examine how the thermodynamic quantities behave at low, but non-zero
temperatures. We first recall that the pressure and density are given by
Z ∞
P g 4 η 3/2 g
= 3 √ dη −1 η ≡ 3 f5/2 (z) (5.4.11)
kB T Λ 3 π 0 z e +1 Λ
and

g 2 η 1/2 g
Z
n= √ dη ≡ 3 f3/2 (z), (5.4.12)
Λ3 π 0 z −1 eη+1 Λ
where the last equality in Eqs. (5.4.11) and (5.4.12) introduces the Fermi integrals,
Z ∞
1 xn−1 dx
fn (z) ≡ , (5.4.13)
Γ(n) 0 z −1 ex + 1
with √
Γ(n) = (n − 1)! ⇒ Γ(n + 1) = n Γ(n); Γ(1/2) = π. (5.4.14)
Next we perform systematic expansions for the integrals appearing in fn (z), using a
method developed by Sommerfeld; an alternative approach, in terms of the density of
states, will be discussed in § 6.3. At low temperatures, T → 0, we have µ → εF , so that
z = e µ/kB T  1. Introducing the variable

ξ ≡ ln z (= µ/kB T ), (5.4.15)

which is  1 at low temperatures, we write



xn−1
Z
Fn (ξ) ≡ Γ(n) fn (ξ) = dx . (5.4.16)
0 ex−ξ + 1

We then focus on the factor (e x−ξ + 1)−1 : for x  ξ  1, it is very close to 0, while
for x < ξ  1 it is very close to 1; see Fig. 5.2. It is only near x = ξ that this function
varies significantly between 0 and 1. As a first approximation, we may therefore take
Z ξ
Fn (ξ) ≈ dxxn−1 = ξ n /n. (5.4.17)
0

This approximation may be systematically improved through the Sommerfeld expan-


sion (for details, see, e.g Refs. [1, 2, 3, 4]):

ξn π2 1 7π 4 1
 
fn (ξ) = 1 + n(n − 1) + n(n − 1)(n − 2)(n − 3) + ··· .
Γ(n + 1) 6 ξ2 360 ξ 4
(5.4.18)
5.4. DEGENERATE FERMI GAS 101

1
1.0

+ 1]
)
0.5

(x
[e
0.0
x
−1
Figure 5.2: Schematic plot of ex−ξ + 1 as a function of x: the temperature only causes appreciable changes
relative to T = 0 (Fig. 5.1) in the region x ' ξ.

With this, the density is given by


" #
µ 3/2 4 π 2 kB T 2
   
g
n= 3 √ 1+ + ··· (5.4.19)
Λ kB T 3 π 8 µ

which may be inverted with the aid of Eqs. (5.4.5) and (5.4.7) for T = 0, leading to
" #
π 2 kB T 2
 
µ = εF 1 − + ··· . (5.4.20)
12 εF

This equation relates the chemical potential with the temperature and the density
(through εF ). For metals at room temperatures (∼ 0.25 eV), the chemical potential
differs from εF by termos on the order of 10−3 εF , so that for temperatures of interest
(much lower than 300 K) one may always take µ = εF for these systems.
The internal energy density may be obtained in an analogous way as
" #
5π 2 kB T 2
 
3
ẽ(n, T ) = nεF 1 + + ··· (5.4.21)
5 12 εF

from which we obtain the specific heat as


π 2 kB
2
 
∂ẽ
cV (T, n) = = γ T, γ≡ (5.4.22)
∂T n 2εF
(again, the dependence of cV with n is through εF ). Thus, the specific heat behaves
linearly with T at low temperatures. This is in marked contrast with the ideal MB gas
result, cV = 3kB /2, which, nonetheless, is recovered at high temperatures, as shown
schematically in Fig. 5.3. For usual metals, γ ∼ 10−3 J/(mol·K2 ), but for some com-
pounds such as UBe13 , CeAl3 , CeCu2 Si2 and others, γ may assume values up to 103
times larger. Since γ ∝ m [electron mass; see Eq. (5.4.7)], these compounds are called
heavy fermions. The effective mass enhancement is attributed to hybridisations between
electron orbitals, which in turn may lead to unusual properties: some materials exhibit
magnetic order coexisting with superconductivity, quantum critical points, etc.
102 CHAPTER 5. QUANTUM EFFECTS: BOSE AND FERMI STATISTICS

CV
Nk B

3/2

F kBT

Figure 5.3: The temperature dependence of the specific heat of the Fermi gas.

Once cV (T, n) = T [∂s̃(T, n)/∂T ]n is known, the entropy density may be obtained by
a simple integration,
2T
π 2 kB
Z T
cV
s̃ = dT = + ··· , (5.4.23)
0 T 2 εF
so that s̃ → 0 when T → 0. This behaviour satisfies the Third Law of Thermodynamics,
unlike what happens for the ideal MB gas,
"   #
s̃ e5/2 L 3
= n ln −→ −∞. (5.4.24)
kB N Λ T →0

Other thermodynamic quantities will be discussed in Ch. 6.

5.5 Degenerate Bose gas


We start by recalling Eqs. (5.2.24) and (5.2.26), with θ = 1, and noticing that they can
be expressed in terms of the Bose integrals,
Z ∞
1 xλ−1
gλ (z) = dx −1 x , (5.5.1)
Γ(λ) 0 z e −1

where the Gamma function, Γ(λ), was defined in Eq. (5.4.14), and z ≡ exp(βµ) is the
fugacity. That is, we may write
1
Pn = k B T g (z), (5.5.2)
Λ3 5/2
and
1
Nn = V
g (z), (5.5.3)
Λ3 3/2
where the subscript n in both equations stands for “normal”, for reasons which will
become apparent later.
5.5. DEGENERATE BOSE GAS 103

2.612
2.5
g 3/2(z)
g 5/2(z)
2.0

gn(z)
1.5
1.341

1.0

0.5

0.0
0.0 0.5 1.0
z

Figure 5.4: The functions g3/2 (z) e g5/2 (z).

The functions gλ (z) have some simple properties. For z ≤ 1, the integrand in
Eq. (5.5.1) can be expanded in a power series in z, and then integrated term by term to
yield

X z`
gλ (z) = , (5.5.4)

`=1

whose radius of convergence is z = 1. For λ > 1, gλ (z) calculated at z = 1 becomes the


Riemann ζ function,
X∞
ζ(λ) = `−λ . (5.5.5)
`=1

In particular, the following will be very useful to us here:

ζ(3/2) ≈ 2.612 and ζ(5/2) ≈ 1.342; (5.5.6)

note also that ζ(∞) = 1. For λ ≤ 1, on the other hand, gλ (1) diverges.3 Figure 5.4
shows g3/2 (z) and g5/2 (z), calculated using Eq. (5.5.4): we see that for all values of z of
our concern here, the functions gλ (z) increase monotonically, that is,

gn (z) ≤ gn (1) ≡ ζ(n). (5.5.7)

Next, we take a closer look at the Bose-Einstein distribution, Eq. (5.3.2), which we
write in terms of z, as
z
n(ε) = βε , (5.5.8)
e −z
keeping in mind that µ ≤ 0 for bosons, so that z ∈ [0, 1]. When taking the zero
temperature limit, we have to distinguish between the occupation of the ground state
3
See, e.g. Appendix D of Refs. [3, 4] for a detailed discussion on the properties of gλ (z).
104 CHAPTER 5. QUANTUM EFFECTS: BOSE AND FERMI STATISTICS

(ε = 0) and of any excited state (ε > 0),

 z ,

if ε = 0, (5.5.9a)
n(ε) → 1−z
 −βε
ze , if ε 6= 0. (5.5.9b)

In the absence of a restriction (such as the Pauli principle for fermions), at zero temper-
ature all particles must be in the ground state, that is, the occupation with bosons of
the lowest-energy state, ε = 0, must be macroscopic: n(0) ∼ N → ∞. This can only be
achieved with
lim z = 1, or, equivalently, lim µ → 0− , (5.5.10)
β→∞ T →0

where in the second limit µ is to be regarded as a function of T and of the density N/V .
This establishes the zero temperature limits of µ and z as 0− and 1, respectively.
Now we recall that Eqs. (5.2.24) e (5.2.26) were obtained by replacing the sums by
integrals in p [c.f. Eq. (5.2.22)]; the integration variables were subsequently changed to
η = p2 /(2mkB T ). An equivalent way of expressing average values is in terms of integrals
in the single particle energy, ε, and of the density of states D(ε); see Chapter 2. For
instance, the average number of particles is obtained from
Z
hN i = dε D(ε) n(ε), (5.5.11)

which separates the information about the spectral properties [contained in D(ε)] from
the thermal properties [in n(ε)].
For the present case of quadratic dispersion, ε ∝ p2 , and for a three-dimensional
space, we have (see § 2.4 and Problem 2.2)


D(ε) = (2m)3/2 V ε1/2 , (5.5.12)
h3
where we have taken g = 1 for simplicity. This density of states attributes zero weight to
states with ε = 0, so that the ground state occupation would not contribute to hN i.4 In
addition, since n ≈ exp(−βε) the excited states would also contribute with hN i → 0 at
low temperatures. This is certainly nonsensical, since particles cannot disappear as the
temperature is lowered. The inconsistency lies in the fact that the replacement of sums
over p by integrals in ε ignores the singular behaviour of n(ε) expressed in Eqs. (5.5.9a)
and (5.5.9b). We must therefore separate the contributions from the p = 0 states before
replacing the sums by integrals. Going back to Eq. (5.2.16), we write
 
 X h i
P V = −kB T ln(1 − z) + ln 1 − z e−βεp , (5.5.13)
 
p6=0

4
Note that usually one considers N as large, but finite, and the limit N → ∞ is taken at the end of
the calculations.
5.5. DEGENERATE BOSE GAS 105

whose derivative with respect to µ yields


N 1 z 1 X 1
= + −1 βε
. (5.5.14)
V V 1−z V z e p −1
p6=0

The sums in p can now be replaced by integrals, as before, since the p = 0 terms do not
contribute anyway; we then have
P 1 1
= − ln(1 − z) + 3 g5/2 (z), (5.5.15)
kB T V Λ
and
1
n = n0 + g (z), (5.5.16)
Λ3 3/2
where
hN0 i 1 z
n0 ≡ = (5.5.17)
V V 1−z
is the density of particles in the ground state, and the Bose integrals are given by
Eq. (5.5.1).
Let us examine the relative magnitude of the terms on the right-hand side (RHS) of
Eqs. (5.5.15) and (5.5.16), keeping in mind that for bosons we must have z ∈ [0, 1] since
µ ∈ (−∞, 0]. Given that P/kB T and n are intensive, we only need to keep terms of O(1)
on the RHS of these equations.
At high temperatures, z  1, so that ln(1 − z) ' −z and the new term in (5.5.15)
contributes with z/V . O(1/N ); in this classical limit, the second term must yield n,
in comparison with which the new term can be neglected. The first term in (5.5.16),
namely the density of particles in the ground state, is O(z/N ), so that, again, the second
term is the one providing the sought O(1) contribution. Thus, the new terms do not
contribute at high temperatures, and the Maxwell-Boltzmann limit is unaffected.
At very low temperatures, z → 1, the dominant contribution to the density in (5.5.16)
must come from the first term, since the accumulation of particles in the ground state is
allowed. Therefore, n0 = z(1 − z)−1 /V must be O(1), implying in z(1 − z)−1 ' N ; hence
z ∼ 1 − 1/N . By contrast, when we take this into the first term on the RHS of (5.5.15),
we see that its contribution to the pressure, −(1/V ) ln(1 − z), is, at most, O[(ln N )/N ].
In summary, the pressure is not significantly [i.e., not O(1)] altered by the contri-
butions from the ground state neither at high nor at low temperatures; therefore, the
new term will be neglected from now on. For the density, the new term accounts for the
‘missing’ particles at low temperatuers, so it must be kept. Accordingly, Eqs. (5.5.15)
and (5.5.16) become
P 1
= 3 g5/2 (z), (5.5.18)
kB T Λ
and
1
n = n0 + g (z), (5.5.19)
Λ3 3/2
which provide us with the equation of state.
106 CHAPTER 5. QUANTUM EFFECTS: BOSE AND FERMI STATISTICS

ne,max
n

Tc T
Figure 5.5: Density of particles occupying the excited states, ne , as a function of temperature, with the total
density, n, being kept constant. (Schematic). The critical temperature corresponds to ne = n (see text).

We have therefore found two distinct regimes of ground state occupancy: one corre-
sponds to a macroscopic occupation, occurring for z ≈ 1, and the other to a microscopic
occupation, occurring for z  1.
The important question to answer now is whether this macroscopic occupation, or
condensed state, persists through a finite temperature interval, or it becomes microscopic
as soon as the temperature rises. To this end we examine the behaviour of the density of
particles accommodated in all excited states, i.e., those with p 6= 0; call it ne ≡ n − n0 .
The first thing to note is that, by virtue of gλ (1) being finite for λ = 3/2, ne is limited.
Indeed, using Eqs. (5.5.19), (5.5.6), and (5.5.7)), we may write, for a given temperature,

ne ≤ ne,max = 2.612/Λ3 ∝ T 3/2 . (5.5.20)

The dependence of ne,max with the temperature is illustrated in Fig. 5.5, which also
shows the total density, n, assumed fixed.
Figure 5.5 highlights two regimes. When ne,max < n, the number of particles which
can be accommodated in the excited states is limited, so the excess particles must neces-
sarily occupy the ground state, leading to a macroscopic density n0 ≡ n − ne,max .5 The
other regime is when ne,max > n, in which the excited states can be occupied without
any restriction; this is the situation closer to the ideal Boltzmann gas, in which excited
states are progressively occupied without restriction as the temperature is increased, so
that the ground state is depleted; its occupation becomes microscopic.
The picture emerging from this fixed-density analysis is that the macroscopic occu-
pation of the ground state, known as Bose-Einstein condensation (BEC),6 persists at
finite temperatures, up to some critical temperature, Tc , which is determined from the
5
One must always have in mind that the particles are indistinguishable, so we cannot say which
particles are in the state with εp = 0 and which are in the states with εp 6= 0. This fact is already
incorporated into the properly symmetrised wave function, Eq. (5.1.6).
6
The term condensation is usually associated with the phase transition which takes place when
vapour becomes liquid, a phenomenon occurring in a region of coordinate space. By contrast, BEC is a
condensation in the p = 0 ‘region’ of momentum-space.
5.5. DEGENERATE BOSE GAS 107

condition ne,max = n to be

h2 n n o2/3
Tc = . (5.5.21)
2πmkB 2.612
Alternatively, instead of keeping the density fixed and varying the temperature, one
can go across the two regimes the other way around: we keep the temperature fixed, while
the density can be varied. If n > ne,max (T ) for a given temperature, then the occupation
of the ground state is macroscopic; by contrast, if n < ne,max (T ) the occupation of the
ground state is microscopic. Therefore, for a given temperature ne,max (T ) is the critical
density separating these two regimes of ground state occupation,

nc (T ) ≡ ne,max (T ) = 2.612/Λ3 . (5.5.22)

Since nc ∝ T 3/2 , the higher the temperature, the larger is the critical density needed to
induce Bose-Einstein condensation; conversely, if one can work at very low temperatures,
then the critical density is not that high. At this point, one should note that BEC only
occurs when the occupation of excited states is bounded [see Eq. (5.5.20)].
We now compare the behaviour of the gas in the condensed phase with that in the
phase without a condensate. First, we recall that since the condensate survives at any
temperature below Tc one must have µ ≈ 0 or, equivalently, z ≈ 1 throughout the
condensed phase. Indeed, the occupation of the ground state at a given temperature is
given by Eq. (5.5.17), which can be solved for z, leading to
1
z '1− . (5.5.23)
hN0 i
That is, as long as there is a condensate, hN0 i ∼ N , and z differs from 1 by terms on the
order of 1/V ; see Fig. 5.6. Similarly, µ ∼ −(kB T /hN0 i) → 0− for hN0 i  1. Therefore,
in what follows it is legitimate to take µ = 0 or z = 1 in the calculations of the different
quantities for T < Tc .
The occupation of excited states for T < Tc , is then given by

2πmkB T 3/2
 
V
N − hN0 i = 3 g3/2 (1) = 2.612 V =
Λ h2
 3/2
T
=N , (5.5.24)
Tc
which, upon rearranging terms leads to
hN0 i
= 1 − (T /Tc )3/2 , (5.5.25)
N
as shown in Fig. 5.7. We see that as the temperature decreases from Tc , the ground
state occupation grows monotonically, reaching the saturation value, N , at T = 0.
This behaviour is typical of the order parameter in a phase transition, such as the
magnetisation of a ferromagnet as a function of temperature; see Ch. 8.
108 CHAPTER 5. QUANTUM EFFECTS: BOSE AND FERMI STATISTICS

z N0
N
o(1/ V)
1 v constante
1

3
0 1 1/n
2.612 Tc T
Figure 5.6: Fugacity as a function of 1/nΛ3 (schem- Figure 5.7: Ground state occupation as a function
atic). of temperature, at constant v ≡ 1/n.

P
linha das transicoes

kBT g (1)
3 5/2

T
vc (T) v
Figure 5.8: Isotherms for the equation of state P (v), where v = 1/n. The dashed curve locates the phase transition
points.

Interesting interpretations arise if we imagine a two-fluid model such that for T < Tc
the system is regarded as a mixture of two phases: one is a ‘condensate’ with density
n0 , corresponding to the particles in the state with p = 0, and a ‘gas’ with density
ne ≡ n − n0 corresponding to the particles in excited states; we refer to the latter as the
‘normal fluid’, for reasons which will become apparent soon.
We start with the equation of state, for fixed n. Taking z ' 1 for T < Tc , we have,
from Eq. (5.5.18),
kB T
P (T ) = 3 g5/2 (1) ∼ T 5/2 , for T < Tc , (5.5.26)
Λ
which is independent of v ≡ 1/n goes to zero when T → 0. For T > Tc we may neglect
hN0 i, and get
N 1
= 3 g3/2 (z), for T > Tc , (5.5.27)
V Λ
which may, in principle, be inverted to obtain z = z(T, n). Equation (5.5.18) then gives
us
kB T  
P (T, n) = 3 g5/2 z(T, n) , for T > Tc . (5.5.28)
Λ
5.5. DEGENERATE BOSE GAS 109

Figure 5.8 displays two P (v) isotherms, with the top curve representing a higher tem-
perature than the bottom one, according to Eqs. (5.5.26) and (5.5.28). According to
Eq. (5.5.22), for each temperature there is a critical specific volume, vc = Λ3 /g3/2 (1),
such that for v < vc the system is in the condensed phase. The dashed line in Fig. 5.8
represents the locus of the transition points, obtained by setting z → 1 and T = Tc
in Eqs. (5.5.27) and (5.5.28). A comparison with the ideal MB gas reveals that while
for v > vc the isotherms should approach P = kB T /v, for v < vc the pressure does not
change as the density is increased. This provides a signature that particles in the ground
state do not contribute to the pressure. Still from Fig. 5.8, we note that the isothermal
compressibility [Eq. (3.4.3)] is infinite for v < vc ; as we will see in Ch. 8, this is consistent
with a coexistence of the condensate and the normal fluid.
We now turn to calculate the entropy through Eq. (4.1.19), with N = hN i, so that

E + P V − µN
S= , (5.5.29)
T
which, together with the equation of state, Eq. (5.2.28), yields the general result,

5 PV µN
S= − . (5.5.30)
2 T T
In the condensed phase, T < Tc , we use Eq. (5.5.18), with z ' 1, to replace P ; similarly,
we use Eq. (5.5.18), with ne ≡ n − n0 , to write Λ3 in terms of Ne = ne V and g3/2 (1).
We then have,
5 g5/2 (1)
S = kB Ne , T < Tc . (5.5.31)
2 g3/2 (1)
Above Tc , analogous replacements yield
 
g5/2 z(n, T )
P (T ) = n kB T  , (5.5.32)
g3/2 z(n, T )

from which we obtain


5 g5/2 (z)
 
S = N kB − ln z , T > Tc . (5.5.33)
2 g3/2 (z)

The proportionality between S and Ne in the condensed phase means that only particles
in excited states ‘carry’ entropy.7 With this, the interpretation of two fluids coexisting for
T < Tc acquires further consistency: the condensate neither carries entropy nor exerts
pressure, unlike the ‘normal fluid’ which carries entropy and exerts pressure. Above
Tc , there is no condensate, so that all particles contribute to the entropy, S ∝ N . A
similar two-fluid model is sometimes invoked to describe some aspects of superfluidity
and superconductivity.
7
Same comment in footnote 5 applies.
110 CHAPTER 5. QUANTUM EFFECTS: BOSE AND FERMI STATISTICS

Finally, we focus on the heat capacity. Using the equation of state, Eq. (5.2.28), the
heat capacity is given by
   
CV 1 ∂E 3 ∂P
= = . (5.5.34)
N kB N kB ∂T N,V 2n ∂T N, V
| {z }
n

Below Tc we then have,


CV 15 1
= g (1) ∝ T 3/2 , T < Tc . (5.5.35)
N kB 4 5/2 nΛ3
In order to obtain CV above Tc , again we use Eq. (5.5.32) to write

3 g5/2 (z)
  
CV ∂
= T . (5.5.36)
N kB ∂T 2 g3/2 (z) n

The calculation of the derivative above requires the knowledge of (∂z/∂T )n . To this
end, we first note that
∂g3/2 ∂g3/2 (z) ∂z
   
= . (5.5.37)
∂T n ∂z ∂T n
On the one hand Eq. (5.5.27) gives us

∂g3/2 3 g3/2 (z)


 
=− , (5.5.38)
∂T n 2 T

while from the expansion (5.5.4) follows that


z gn (z) = gn−1 (z). (5.5.39)
∂z
Taking these two results into Eq. (5.5.37), we get

3 z g3/2 (z)
 
∂z
=− . (5.5.40)
∂T n 2 T g1/2 (z)

With these, Eq. (5.5.36) finally becomes

CV 15 g5/2 (z) 9 g3/2 (z)


= − , (5.5.41)
N kB 4 g3/2 (z) 4 g1/2 (z)

with z(n, T ) being obtained from (5.5.27).


Figure 5.9 shows the specific heat as a function of temperature, from which we
highlight three important features. First, CV /N kB ∝ T 3/2 at low temperatures, thus
approaching zero as T → 0, in agreement with the Third Law of Thermodynamics. The
incorporation of quantum statistics therefore eliminates the unsatisfactory behaviour
of the specific heat at low temperatures. Second, at high temperatures the classical
5.6. EXERCISES 111

CV
Nk B

3/2

3/2
~T

Tc
T
Figure 5.9: The specific heat of an ideal Bose gas (schematic).

behaviour, CV /N kB = 3/2, is recovered, as expected. Third, the specific heat is singular


at Tc , a behaviour commonly found in a phase transition; in this respect, the resemblance
of this curve with the one observed for the superfluid transition in 4 He suggests that the
latter has a close connection with the BEC. However, both in the superfluid phase of
4 He and in superconductors the interactions between particles cannot be neglected, and

must be incorporated in the description of these phenomena in order to explain several


quantitative data.
Despite being predicted in 1925, and after numerous attempts to observe it in dif-
ferent systems, only in 1995 BEC was observed in a conclusive way. It is interesting to
account for the reasons causing such a long lapse. We first note that it is not enough to
cool down a boson gas until Λ becomes of the order of atomic spacing: the interactions
among particles eventually end up driving the bosonic gas into a liquid or a solid (He
atoms form a notable exception). One must therefore work with densities sufficiently low
to mitigate the effect of interactions, but high enough for quantum interference effects to
dominate. Equation (5.5.22) points the way to achieve this delicate balance: BEC may
occur at low densities, as long as the temperatures are sufficiently low. Accordingly, with
the use of sophisticated laser-cooling techniques and magnetic trapping, temperatures of
the order of 0.1 µK were achieved for Rb, Na and Li atoms, with densities of the order
of 1014 cm−3 , thus making possible the observation of BEC [18, 19]; for these works, the
2001 Nobel Prize was awarded to Eric A. Cornell, Carl E. Wieman, and Wolfgang Ket-
terle [20, 21]. BEC was subsequently observed in excited quasiparticles such as magnons
[22] and exciton polaritons [23].

5.6 Exercises
1. (a) Show that for ideal quantum gases, the energy density can be obtained from the
grand-potential, J, as
 
1 ∂
ẽ = − βJ .
V ∂β z,V
112 CHAPTER 5. QUANTUM EFFECTS: BOSE AND FERMI STATISTICS

(b) Now suppose the single-particle levels depend on σ, εpσ , to show that
 
1 ∂
hnp0 σ0 i = − βJ .
β ∂εp0 σ0 z,T

2. Consider an ideal Fermi gas, with energy spectrum ε(p) = aps , contained in a hyper-
cubic box of ‘volume’ V = Ld , in a d-dimensional space.

(a) Show that the equation of state is


s
PV = E
d
where E is the internal energy.
(b) Show that the specific heat is given by
 2
f(d/s)+1 (z) fd/s (z)
 
CV d d d
= +1 − ,
N kB s s fd/s (z) s f(d/s)−1 (z)

where z is the fugacity, and



1 xn−1 dx
Z
fn (z) = .
Γ(n) 0 z −1 ex + 1

(c) Obtain the low-temperature behaviour of CV /N kB . Comment.

3. In an intrinsic semiconductor, with an energy gap EG , the densities of conduction


electrons and of holes are n and p, respectively. Show that
" #3/2
2π (me mh )1/2 kB T
n=p=2 e−EG /2kB T ,
h2

and that the Fermi energy of the system is given by


1 3 mh
µ = EG + kB T ln ,
2 4 me
when electrons and holes are considered as free particles of masses me and mh , re-
spectively. Take the origin of the energies at the top of the filled band, and assume
EG  kB T . Estimate the value of n para EG = 0.7eV, T = 300K, and me = mh .

4. Consider an ideal gas of N bosons, with energy spectrum εp = aps , s > 0, contained
in a d-dimensional box of linear size L and volume V = Ld .

(a) Is there Bose-Einstein condensation for any value of s and d?


(b) Where applicable, determine the dependence of Tc with the density n ≡ N/V .
(c) Discuss the dependence of the specific heat with T at low temperatures, for
general s and d .
5.6. EXERCISES 113

5. N bosonic atoms of mass m move confined by a harmonic trap. In the dilute regime,
the interactions between the atoms can be neglected, so that the Hamiltonian becomes
d XN
" #
X p2i,` 1 2 2
H= + mω` xi,` , (5.6.1)
2m 2
`=1 i=1

written in a way that allows for d spatial dimensions, and we consider here an isotropic
trap ω` = ω, ∀` = 1, ..., d. The density of states for this system is found to be
approximately given by
D(ε) ∝ εd−1 . (5.6.2)

(a) Is there Bose-Einstein condensation (BEC) for any spatial dimension, d?


(b) When applicable, determine the dependence of the critical temperature for BEC
with the number of atoms.
(c) Determine the temperature dependence of the heat capacity in d dimensions at
low temperatures.
(d) Compare your results in (a)-(c) with the corresponding ones for free atoms (in a
box).

6. Consider an ideal Bose gas, made up of molecules with internal degrees of freedom.
Admit that, in addition to the ground state, ε0 = 0, one only needs to take into
account the first excited state of the internal spectrum, with energy ε1 . Show that
the critical temperature for Bose-Einstein condensation is given by
   1/2 
(0) 1
2/3 2 4/3 πε (0)
Tc 1 + 3ζ(3/2) 1
if ε1  kB Tc

2 k T
(0)
Tc ' h B
(0)
i c

Tc(0) 1 − 2

e−ε1 /kB Tc (0)
if ε1  kB Tc ,
3ζ(3/2)

(0)
where Tc is the usual critical temperature, and ζ(n) is Riemann’s ζ-function.
114 CHAPTER 5. QUANTUM EFFECTS: BOSE AND FERMI STATISTICS
Chapter 6

Applications of Ideal Quantum


Systems
Refs.: Huang, Landau & Lifshitz, Pathria

6.1 Introduction
In this Chapter we will study some simple applications of quantum ideal systems. We
start with a discussion on the calculation of ensemble averages through the use of single-
particle density of states; we will then see that this approach becomes especially useful
in the analyses of fermionic systems at low temperatures. Then will study the magnetic
behaviour of a Fermi gas, encompassing Pauli paramagnetism and Landau diamagnetism;
a brief discussion of the Quantum Hall Effect (QHE) will also be presented. And, finally,
we will also discuss the bosonic behaviour of some elemenary excitations, such as photons
and phonons.

6.2 Density of States


In § 5.2 [e.g. in Eq. (5.2.16)] we replaced the discrete momentum sums by continuum
integrals in d3 p, and then into dη, with η = βp2 /2m, from which we obtained the
pressure and density. We may generalise this to deal both with systems in d spatial
dimensions, in which case we take
Ld
X Z
→ d dd p, (6.2.1)
p
h

and with single-particle levels which are arbitrary functions of p ≡ |p|, namely ε(p); see
Probs. 7 and 8 of Chapter 3. ForP the time being, we assume the energy levels do not
depend on the spin states, so the σ in Eq. (5.2.16) is simply g, the spin degeneracy of
each level. Thus, inverting ε(p) → p(ε), we have
Ld d Ld ∂p
g d
d p = g d
Sd [p(ε)]d−1 dε,
h h ∂ε
≡ D(ε) dε (6.2.2)

115
116 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

where [3, 4]
2π d/2
Sd = , (6.2.3)
Γ(d/2)
is the area of a d-dimensional sphere of unit radius, with the Gamma function being
given by
Z ∞
Γ(λ + 1) = λ! = dx xλ e−x , λ > −1, (6.2.4)
0

Γ(λ + 1) = λΓ(λ) ; Γ(1) = 1; Γ(1/2) = π; (6.2.5)

for d = 2 and 3 we have (


2π, if d = 2,
Sd = (6.2.6)
4π, if d = 3.
Equation (6.2.2) defines the density of states: it carries information solely about
the single-particle spectrum (which depends on the space dimensionality), not about
the thermal occupation of the states. For a free particle in three dimensions, with spin
degeneracy g, and with εp = p2 /2m, we have
4πV √ 3 1/2
D(ε) = g 2m ε , (6.2.7)
h3
while in d dimensions one has D(ε) ∼ ε(d−2)/2 , as the reader should verify.
The replacement (6.2.1) then becomes
X Z
→ dε D(ε). (6.2.8)
p,σ

For instance, the average energy (assuming the energy levels do not depend on σ) be-
comes
X
hEi = n p εp
p,σ
Z
= dε D(ε)n(ε)ε, (6.2.9)

where n(ε) is given by Eqs. (5.3.2) or (5.3.3), with εp → ε, for bosons or fermions,
respectively. The average number of particles is similarly given by
Z
hN i = dε D(ε)n(ε), (6.2.10)

and the generalisation for any function of energy, Q(ε), by


Z
hQi = dε D(ε) n(ε) Q(ε). (6.2.11)

In the next Section we will explore the behaviour of some of these integrals caused
by the peculiarities of the Fermi distribution at low temperatures.
6.3. FERMIONIC SYSTEMS 117

6.3 Fermionic Systems


We now specialise to fermionic systems, and, to stress this fact, we will use f (ε) instead
of n(ε), in integrals such as Z ∞
I≡ dε G(ε)f (ε), (6.3.1)
ε0

where ε0 is the lowest single-particle energy, and G is a function of ε, such as Q(ε)D(ε)


in Eq. (6.2.11).
We will be particularly interested in the behaviour of such integrals at low tempera-
tures, where quantum effects are dominant. From the outset we assume G is continuous
and infinitely differentiable at ε = µ, and that it slowly varies within an interval of the
order kB T around this point. Let ψ(ε) be the primitive of G(ε), that is, ψ 0 (ε) = G(ε),
such that integrating (6.3.1) by parts leads to
Z ∞ ∞ Z ∞
dψ df
I= dε f (ε) = f (ε)ψ(ε) − dε ψ(ε) , (6.3.2)
ε0 dε ε0 ε0 dε

where the first term on the RHS of (6.3.2)) vanishes since f (∞) = 0 and also because
one assumes that ψ(ε0 ) = 0.1
From Fig. 5.2 it is easy to see that, especially at low temperatures the function df /dε
takes on very small values, unless on an interval of the order of kB T around ε = µ. We
may therefore expand ψ(ε),
1
ψ(ε) = ψ(µ) + (ε − µ)ψ 0 (µ) + (ε − µ)2 ψ 00 (ε) + . . . , (6.3.3)
2
take into Eq. (6.3.2), and integrate each term.
We may extend the lower limit of integration to −∞, since this does not cause
any significant differences, given that the integrands vanish in these limits, and use the
following results,
Z ∞
df
dε = −1, (6.3.4)
−∞ dε
Z ∞
df
dε (ε − µ)n = 0 (n odd), (6.3.5)

Z−∞
∞ ∞
df xn e x
Z
dε (ε − µ)n = − (kB T )n dx
−∞ dε −∞ (ex + 1)2
= −2 (kB T )n n! 1 − 21−n ζ(n) (n even),

(6.3.6)

to obtain

2 1 − 21−2r ζ(2r) (kB T )2r ψ (2r) (µ).
X 
I = ψ(µ) + (6.3.7)
r=1
1
For most cases of interest, with ε ∼ ps , we have D(ε) ∼ (ε − ε0 )(d−s)/s , and Q(ε) ∼ (ε − ε0 )λ ;
therefore, ψ(ε) ∼ (ε − ε0 )(d+sλ)/s , so that one must have λ > −d/s for the assumption to hold.
118 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

P∞ −n
In the above equations, ζ(n) ≡ l=1 l is Riemann’s ζ-function, whose relation to the
Bernoulli numbers, Br , is
π 2r
ζ(2r) = 22r−1 Br , (6.3.8)
(2r)!
with
1 1 1 1 5
B1 = , B 2 = , B 3 = , B 4 = , B 5 = . (6.3.9)
6 30 42 30 66
Replacing ψ 0 (ε) by G(ε) yields
Z ∞
π2 7π 4
Z µ
dε G(ε)f (ε) = dε G(ε) + (kB T )2 G0 (µ) + (kB T )4 G000 (µ) + . . . (6.3.10)
ε0 ε0 6 360

The integral on the RHS can be further simplified by recalling that at low temperatures
the difference between the chemical potential and the Fermi energy is very small, of the
order of (εF /kB T )2 , so we may write,
Z µ Z εF
dε G(ε) ≈ dε G(ε) + (µ − εF ) G(εF ). (6.3.11)
ε0 ε0

This allows us to finally write Eq. (6.3.10) as


Z ∞
π2
Z εF
I≡ dε G(ε)f (ε) = dε G(ε) + (µ − εF )G(εF ) + (kB T )2 G0 (µ) + . . . (6.3.12)
ε0 ε0 6

An important aspect of this expression is that the T = 0 contribution (the first term on
the RHS above) is separated from those related to T > 0 (the remaining terms).
From Eq. (6.3.12) the reader should be able to derive the following relations
 
∂I 1
= π 2 kB 2
T G0 (εF ) + O(T 3 ), (6.3.13)
∂T µ 3
 
∂I
= G(εF ) + O(T 2 ), (6.3.14)
∂µ T
 
∂I 1
= π 2 kB 2
T φ0 (εF )D(εF ) + O(T 3 ), (6.3.15)
∂T N 3

where φ = G/D.
In particular, in Problem 6.2 the reader is asked to show that the chemical potential
at low temperatures is given by
"  #
π 2 d ln D(ε) kB T 2
  
µ ' εF 1 − . (6.3.16)
6 d ln ε ε=εF εF

In addition, one can also show that the heat capacity at constant volume and the entropy
approximately coincide,
π2 2
CV ' S ' D(εF ) kB T. (6.3.17)
3
6.4. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 119

Before moving on to specific applications of ideal Fermi systems, it is very important


to notice that the dominant behaviour of the heat capacity with the temperature may
be obtained through a very simple argument, differing from Eq (6.3.17) by just a small
multiplying factor. Indeed, Pauli’s exclusion principe imposes that only fermions with
energy near the Fermi energy can be thermally excited; these, in turn, are the ones that
can contribute to changes in the internal energy with the temperature, hence to the
specific heat. The number of fermions in an interval of the order kB T around the Fermi
energy is
δN ∼ D(εF ) × kB T, (6.3.18)
since D measures the number of states per energy interval, including spin degeneracy.
The change in internal energy can then be estimated as

δE ∼ δN × kB T = (kB T )2 D(εF ), (6.3.19)

which leads to
2
CV ∼ D(εF )kB T, (6.3.20)
which should be compared with Eq. (6.3.17). This argument also explains why, in the
degenerate regime, the specific heat of a Fermi gas is linear with the temperature in any
dimension, d, and dispersion, ε ∼ ps , given that these features only influence D(ε).

6.4 Magnetic Behaviour of an Ideal Fermi Gas


The paramagnetic response of itinerant electrons in metals is very different from what
happens in insulators, whose magnetic moments are localised; the behaviour of the
latter was discussed in § 3.10. In particular, we will see below that at low temperatures
there is no saturation of the total magnetic moment, and that the susceptibility does
not depend on the temperature; by contrast, for insulators in this regime the magnetic
moment saturates and the susceptiblity diverges as 1/T . Pauli’s suggestion, in 1927, that
conduction electrons in alkali metals should be treated as a degenerate Fermi gas, set the
basis to understand this phenomenon, which became known as Pauli paramagnetism.
In addition to paramagnetism, an applied magnetic field may also give rise to a
diamagnetic effect, which is the appearance of an induced magnetic field opposite to the
applied one; its contribution to the magnetic susceptibility is therefore negative. This
phenomenon has no classical analogue, and its occurrence in metals was first explained by
Lev Landau in 1930: it is a consequence of the otherwise free electron energies becoming
quantised due to the confining helical orbits. As we will see, in addition to being negative,
the diamagnetic susceptibility has a Curie-like behaviour at high temperatures, and
becomes a constant as T → 0, though the constant depends on the density of particles.
Moreover, for strong fields the low-temperature susceptibility is oscillatory, with period
proportional to 1/H, where H is the applied field. This oscillation is known as the de
Haas-van Alphen effect, in honour of who first observed it, in 1930; its explanation was
given by Peierls, in 1933.
120 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

Experimental advances in the 1980’s made it possible to confine electrons within an


interface of a semiconductor heterostructure; the latter consists of a periodic arrangement
of layers made up from different materials. By a suitable choice of materials a nearly
two-dimensional electron system can be formed at the interface, perpendicular to which a
magnetic field is applied. Measurements of the Hall resistivity as a function of the applied
field revealed the existence of plateaux at sub-multiples of the resistivity quantum: this
phenomenon is known as the Quantum Hall Effect (QHE). The QHE can actually be
grouped into two categories, the integer QHE and the fractional QHE; while the former
can be understood through the features of a simple Fermi gas, the explanation of the
latter takes into account electron-electron interactions associated with concepts such as
composite particles and charge fractionalisation
In the following sub-sections we discuss Pauli paramagnetism and Landau diamag-
netism separately, with the purpose of singling out their respective contributions to the
susceptibility. We will end up with an elementary discussion of the QHE.

6.4.1 Pauli Paramagnetism


We initially consider N neutral fermions, with mass m and magnetic moment µ, in the
presence of an external field H. The Hamiltonian for each particle is therefore

p2
H= − µ · H, (6.4.1)
2m
where the first term is the kinetic energy, and the second represents the interaction of
the electron’s moment with the field. We consider here the case of spins-1/2, so that
the moment only has two possible orientations with respect to H: µ = ±µB , where µB
is the Bohr magneton.
This system may be imagined as two gases of different species, one with moments
parallel to the field, and the other with moments antiparallel to the field, coexisting
in equilibrium..2 Figure 6.1(a) shows the density of states (on the horizontal axis; the
energy appears on the vertical axis) for both species of particles, when H = 0. For
a non-zero field, all energy levels for spins parallel [antiparallel] to the field suffer the
same shift, −µB H [+µB H]. Therefore, as indicated in Fig. 6.1(b), the density of states
associated with the spin channel ‘up’ (σ =↑) is shifted towards lower energies, while the
opposite occurs for the density of states for ‘down’ spins (σ =↓), and we may write

1
Dσ (ε) = D(ε + σµB H), (6.4.2)
2
where, in the three-dimensional case, D(ε) is given by Eq. (6.2.7); the factor 1/2 comes
from the fact that the states contributing to Dσ are non-degenerate, or g = 1, while
Eq. (6.2.7) was obtained for g = 2.
2
From now on, we will use the expression ‘spin parallel (or antiparallel) to the field’ meaning ‘mag-
netic moment parallel (or antiparallel) to the field’, but always keeping in mind that for electrons
µ ∝ −S.
6.4. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 121

(a) H = 0 (b) H =/ 0

F F

+µB H

D( ) D( ) D( ) µB H D( )

Figure 6.1: Schematic density of states for each spin channel, σ =↑, ↓, for the three-dimensional Fermi gas: (a)
zero field; (b) non-zero field.

The Fermi energy is the same for both species, and is determined by imposing that the
total area under the curves Dσ is the total number of particles. Accordingly, Fig. 6.1(b)
shows that the majority of particles have spin parallel to the field, giving rise to a
net magnetisation, which does not occur when H = 0. The magnetisation and the
susceptibility are obtained by calculating N↑ and N↓ , which can be done through small
changes in the results obtained in § 6.3. Thus,
∞ ∞
1
Z Z
Nσ = dε Dσ (ε) f (ε) = dε D(ε + σµB H) f (ε). (6.4.3)
−∞ −∞ 2

At this point we note that there are three energy scales at play, namely the Fermi
energy, εF , the magnetic energy, µB H, and the thermal energy, kB T . Even at very intense
fields in laboratories, ∼ 20 T, and with typical εF ∼ 10 eV, we have µB H/εF ∼ 10−3 , so
that in what follows we will always have in mind that µB H  εF . Let us then start with
T = 0, for simplicity. The Fermi function, f (ε), restricts the upper limits in the above
integrals, and we may write,

εF εF +σµB H
1 1
Z Z
Nσ = dε D(ε + σµB H) = dε D(ε), (6.4.4)
−σµB H 2 0 2

where, following Fig. 6.1, one assumes the lowest possible energies for the fermions is
−σµB H.
For the density of states in Eq. (6.2.7), the integration in (6.4.4) is immediate, and
the magnetisation is given by

4πV (2m)3/2 n 3/2 3/2


o
M = µB (N+ − N− ) = µB (ε F + µ B H) − (ε F − µ B H) . (6.4.5)
3h3
122 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

Since µB H  εF , we end up with

4πV (2m)3/2 1/2


M' 3
µB εF (3µB H)
3h
3 N µ2B H
= , (6.4.6)
2 εF
where N is the total number of particles, and εF is given by (5.4.7) with g = 2, so that

1 ∂M 3 µ2B
χ0 ≡ = . (6.4.7)
N ∂H 2 εF
The comparison of these results with the corresponding ones for the insulating case is
very illustrative. From (6.4.6), we may write the magnetisation per particle as
M 3 µB H
M≡ = µB . (6.4.8)
N 2 εF
This form stresses the fact that the typical magnetisation unit, µB , comes multiplied
by the small factor µB H/εF , while for localised spins any non-zero field produces a
saturated magnetisation, M = µB , in the ground state. The lack of saturation for
itinerant electrons is due to the appreciable zero-point energy of the Fermi gas; that is,
the alignment is strongly suppressed by quantum fluctuations. Further, since a small
field is unable to produce a considerable alignment, the ground state susceptibility is
finite; again, this is in marked contrast with the Curie divergence (∼ 1/T ) occurring in
insulators when T → 0, since any finite field produces maximum alignment.
At finite temperatures we proceed similarly. The magnetisation is given by
1
Z
M = µB (N↑ − N↓ ) = µB dε {D(ε + µB H) − D(ε − µB H)} f (ε). (6.4.9)
2
where the temperature enters solely on f (ε). Since µB H  εF we may expand the D’s,
thus obtaining
M µ2B ∞
Z
χ= = dε D0 (ε)f (ε), (6.4.10)
H N 0
where D0 (ε) ≡ dD/dε.
At low temperatures, we use Eq. (6.3.15), with φ = µ2B D0 /D, to obtain

π2 2 2
 2
d ln D
  
∂χ
= µ k T D(εF ) . (6.4.11)
∂T N 3N B B dε2 ε=εF

Integrating with respect to the temperature leads to


( )
µ2B D(εF )
 2
D

1 2 d ln
χ= 1 + π (kB T )2 + ... . (6.4.12)
N 6 dε2 ε=εF

It is interesting to note that the susceptibility at T = 0 is proportional to the density


of states at the Fermi energy. Therefore, measurements of the susceptibility at very low
6.4. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 123

temperatures can provide information, e.g. whether D(εF ) is large or small, similarly to
the heat capacity [see Eqs. (6.3.17) and (6.3.20)].
For free electrons in three dimensions, with D(ε) given by (6.2.7), we have
"  #
3 µ2B π 2 kB T 2

M≈ H 1− , (6.4.13)
2 εF 12 εF

and "  #
3 µ2B π 2 kB T 2

χ' 1− . (6.4.14)
2 εF 12 εF

At high temperatures, kB T  εF , we may take f (ε) ' e−β(ε−µ) into Eq. (6.4.10)
which, integrated by parts, yields
µ2
χ' B . (6.4.15)
kB T
As expected, the high temperature susceptibility does not depend on the density of
states, and displays the Curie’s law characteristic of insulators, see (3.10.15).

6.4.2 Landau Diamagnetism


In the previous subsection we explored the interaction of a fermion’s intrinsic magnetic
moment with an applied magnetic field, giving rise to paramagnetism. However, a
charged particle under a magnetic field, H = H ẑ, moves in a helicoidal trajectory, with
its axis in the direction, ẑ, of the field; that is, a uniform circular motion in the xy plane
superimposed with free motion along ẑ. A charged particle in circular motion generates
an extrinsic magnetic moment, which tends to align antiparallel to the field. Despite
its appeal, this classical image is not sufficient to explain diamagnetism: van Leeuwen’s
theorem states that diagmanetism cannot occur in Classical Physics; see Prob. 6.3.
Let us then address the quantum motion of a gas of independent electrons. Given
that our purpose here is to emphasise the changes in orbital motion due to the field, we
consider spinless fermions for now. The spectrum of a single-particle of charge e in a
uniform magnetic field is easily determined (see, e.g. Ref. [24]) since the Hamiltonian is
separable into an effective one-dimensional harmonic oscillator of frequency
eH
ω= , (6.4.16)
mc
and a kinetic energy relative to the motion along the field direction; the single-particle
energy levels are then given by

p2
 
1
ε= j+ ~ω + z , j = 0, 1, 2, . . . . (6.4.17)
2 2m
The oscillator energies in this context are known as the Landau levels. In a three dimen-
sional motion, one must add to each Landau level a continuum of levels due to the free
z motion, so that the spectrum is gapless. On the other hand, if the particles are kept
124 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

(a) H = 0 (b) H =/ 0

j= 3
h
j= 2
h
j= 1
h
h j= 0

Figure 6.2: Planar contribution to the single-particle energy levels (schematic): (a) H = 0, and (b) H 6= 0.

confined to the plane perpendicular to H, then the spectrum corresponds solely to the
Landau levels, which has gaps.
Figure 6.2 illustrates the effect of the magnetic field on the two-dimensional single-
particle spectrum. One can imagine that several continuum levels in the absence of the
field coalesce into a single level when H 6= 0; that is, every g free levels within an interval
~ω merge into the nearest discrete Landau level. The number of these free states is given
by (in the quasi-continuum approximation)

L2 L2
Z Z Z
g= dpx dpy = 2πp dp
h2 h2
p2 2
x +py p2
j~ω< <(j+1)~ω j~ω< 2m <(j+1)~ω
2m

L2 eH
= . (6.4.18)
hc

We note that the degeneracy of each Landau level increases with H. Further, g/L2
represents the number, per Landau level, of orbits that can be accommodated in each
cm2 ; it therefore provides a quantum measure of the uncertainty in the position of the
electron’s circular orbit.
For a system of non-interacting spinless fermions, the set of good quantum numbers
is therefore λ ≡ {pz , j, α}, with α = 1, 2, . . . , g. Similarly to the free case, it is more
convenient to work in the grand-canonical ensemble, which allows us to factorise the
partition function into a product over single-particle states,

Y 
Z= 1 + ze−βελ . (6.4.19)
λ
6.4. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 125

Taking the logarithm we get

X   g X
X ∞ X  
−βελ
ln Z = ln 1 + ze = ln 1 + ze−βε(α,j,pz )
λ α=1 j=0 pz
1/3 ∞ ∞
gV
Z X  
= dp ln 1 + ze−βελ , (6.4.20)
h −∞ j=0

and, recalling that


∂ X
hN i = z ln Z = hnλ i, (6.4.21)
∂z
λ

we obtain
∞ ∞
gV 1/3 1
Z X
hN i = dp . (6.4.22)
h −∞ z −1 eβε + 1
j=0

Let us now examine the limiting cases. At high temperatures, kB T  εF , we have


z  1, so we expand (6.4.20) and (6.4.22) in powers of z, keeping only the lowest order
terms,
 
∞ p2
1/3 ∞
~ω −1
 
zgV zV eH 1
Z X −β 2m
+~ω(j+1/2)
ln Z ≈ dp e = 2 sinh , (6.4.23)
h −∞ hc Λ 2kB T
j=0

so that
zV x
hN i ≈ ln Z ' , (6.4.24)
Λ3 sinh x
with
µ0 H
x≡ , (6.4.25)
kB T
where
eh
µ0 ≡ (6.4.26)
4πmc
is the induced magnetic moment.
The magnetisation is obtained in the usual way,
   
1 ∂ z 0 1 x cosh x
M = kB T ln Z = 3µ −
V ∂H z,V,T Λ sinh x sinh2 x
= −nµ0 L(x), (6.4.27)

where n ≡ hN i/V and the Langevin function is defined as


1
L(x) ≡ coth x − . (6.4.28)
x
The magnetisation as given by Eq. (6.4.27) is very similar to the one obtained by applying
the Langevin theory to classical dipoles. The main important differences are: (i) M < 0,
126 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

indicating that it points opposite to the field, a signature of diamagnetism; (ii) the purely
quantum nature of this effect, which is evident by the fact that µ0 → 0 when h → 0, and
is in line with the more formal proof of van Leeuwen’s theorem (see Problem 6.3).
With the additional assumption that µ0 H  kB T , we have

L(x) ≈ x/3, (6.4.29)

so that
nµ02 H
M≈− , (6.4.30)
3kB T
and
nµ02
χ≈− , (6.4.31)
3kB T
where the fact that both M and χ depend on µ02 indicates that the diamagnetic effect
does not depend on the sign of the particle’s charge.
Further, the total high-temperature susceptibility is obtained by adding the para-
magnetic and diamagnetic contributions, Eqs. (6.4.15) and (6.4.31), respectively. One
should also have in mind that the particle mass appearing in the definition of µ0 is to be
understood as the effective mass, such as, e.g. the one in a crystal. Thus,
 
n 2 1 02
χ≈ µB − µ , µ0 H  kB T. (6.4.32)
kB T 3
If, in particular, µ0 = µB , the diamagnetic contribution for electrons is 1/3 of the para-
magnetic one, at high temperatures.
Let us now consider the opposite limit of low temperatures, kB T  εF . Assuming the
magnetic energy scale is the smallest one, i.e. µ0 H  kB T , we can use Euler’s formula
to calculate the sum in j in Eq. (6.4.20); we get
∞ Z ∞
X 1
f (j + 1/2) ≈ f (x) dx + f 0 (0), (6.4.33)
0 24
j=0

with the result,


"Z #
∞ Z ∞   0H Z ∞
eV H 0 p2 1 µ 1
ln Z = 2 dx dp ln 1 + ze−β(2µ Hx+ 2m ) − dp p2
.
h c 0 −∞ 12 kB T −∞ z −1 eβ 2m +1
(6.4.34)
0
The evaluation of these integrals is simple in the limit µ H  kB T  εF (see, e.g.
Ref. [4], §8.2, for details): due to the quantisation of the orbits, the low-temperature
susceptibility becomes
1 nµ02
χ≈− , (6.4.35)
2 εF
which, once again, bears the signature of diamagnetism, irrespective of the sign of the
particle charge. Note also that, unlike the paramagnetic contribution, Eq. (6.4.7), the
diamagnetic susceptibility at T = 0 depends on the particle density.
6.4. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 127

H V VH
I
w

t
Figure 6.3: Esquema de medida das tensões longitudinal, V , e transversa (Hall), VH , em uma amostra de largura
w e espessura t, percorrida por uma corrente I, em presença de um campo magnético perpendicular H.

Assuming now µ0 H ' kB T  εF , one can show (see, e.g. Ref. [4], §8.2) that the
susceptibility contains oscillatory terms in H:
1/2
3nµ02 kB T εF sin(πεF /µ0 H − π/4)
χ≈π . (6.4.36)
2εF (µ0 H)3/2 sinh(π 2 /βµ0 H)
These oscillations with H are known as the de Haas-van Alphen effect and have a very
important consequence: by experimentally measuring the period of oscillation, one is
able to determine the Fermi energy.

6.4.3 The Quantum Hall Effect


Imagine uma corrente I passando por uma amostra. Ao aplicarmos um campo magné-
tico, H, perpendicular à corrente (veja a Fig. 6.3), as cargas serão defletidas em direção
à extremidade anterior, devido à força de Lorentz. Esta acumulação de cargas gera um
campo elétrico transverso, E⊥ , cujo sentido depende do sinal dos transportadores. Uma
nova situação de equilı́brio ocorre quando a força de Lorentz fôr contrabalançada por
esta força eletrostática; isto é, a corrente volta a fluir quando
v
E⊥ = H (CGS), (6.4.37)
c
onde v é a velocidade dos transportadores, determinada pela corrente I ou, equivalente-
mente, pela densidade de corrente j:
j I
v= = . (6.4.38)
nq n wt q
Nesta equação, n é a densidade de transportadores com carga q, e w e t são, respec-
tivamente, a largura e a espessura da seção reta da amostra; como veremos adiante, é
conveniente definir a densidade superficial de transportadores como ns = n t.
128 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

Figure 6.4: Medidas tı́pricas de resistência como função do campo magnético. A curva com platôs corresponde à
resistência Hall, RH , em undidades do quantum de resistência, h/e2 ; as setas indicam o valor de ν na Eq. (6.4.40).
A resistência longitudinal exibe máximos entre os platôs de RH e se anula nos platôs. [Segundo HL Stormer,
Rev.Mod.Phys.71, 875 (1999)].

Medindo-se a voltagem, V , ao longo da corrente (veja a Fig. 6.3), obtemos a mag-


netorresistência R = V /I. Podemos também definir a resistência Hall como a razão
entre a voltagem perpendicular, VH , e a corrente: RH = VH /I. Expressando VH em
termos de E⊥ , I em termos de j, e usando (6.4.37) e (6.4.38), obtemos, finalmente, que
a resistência Hall depende linearmente do campo magnético,
1
RH = H, (6.4.39)
ns qc
conforme observado por Edwin Hall, em 1879. Este resultado é notável, já que um único
parâmetro caracterı́stico do material – a densidade eletrônica superficial, ns – define a
proporcionalidade entre RH e H, independentemente da forma da amostra.
O desenvolvimento de técnicas de deposição bastante apuradas, a partir de 1980,
permitiu a fabricação de heteroestruturas semicondutoras com alto grau de pureza, como
MOSFET’s (Metal-oxide-semiconductor field-effect transistors) de Silı́cio, compostos de
uma camada de Si em contato com uma de SiO2 .3 Estes dispositivos são capazes de
confinar elétrons à interface entre as camadas, formando, essencialmente, um gás bi-
dimensional. A restrição a duas dimensões inibe a imersão do espectro da Fig. 6.2(b) em
um contı́nuo de estados associados ao movimento livre na direção z; e, como veremos a
seguir, a presença de gaps é crucial para os efeitos interessantes que surgem.
3
Para uma discussão mais detalhada, veja, p.ex., H. L. Stormer, Rev. Mod. Phys. 71, 875 (1999).
6.4. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 129

Figure 6.5: Densidade de estados para um gás de elétrons bi-dimensional em um campo magnético: (a) na
ausência de impurezas, e (b) na presença de impurezas. As impurezas causam um alargamento dos nı́veis de
Landau, que se tornam bandas de estados deslocalizados (regiões hachuradas), ao mesmo tempo em que introduz
estados localizados entre sucessivos nı́veis de Landau.

Quando submetidos a temperaturas de 4K e a campos magnéticos da ordem de


20 T, estes dispositivos entram num regime no qual espera-se que o efeito Hall seja
dominado por efeitos quânticos, já que os gaps no espectro se tornam comparáveis à
energia térmica. Os resultados obtidos4 e mostrados na Fig. 6.4, foram surpreendentes.
Em primeiro lugar, o crescimento de RH com H se dá através de platôs, ao invés do
comportamento linear previsto classicamente; veja a Eq. (6.4.39). Em segundo lugar, da
mesma figura se nota que o valor de RH nestes platôs é quantizado,
1 h
RH = , ν = 1, 2, . . . , (6.4.40)
ν e2
definindo o que passou a ser conhecido como o quantum de resistência, h/e2 ' 25.8
kΩ. E, finalmente, a magnetorresistência apresenta valores extremamente baixos nos
intervalos de H correspondentes aos platôs na resistência Hall.
A compreensão destes resultados é obtida por etapas. Em primeiro lugar, para
entender a existência de uma região de magnetorresistência nula, lembremos que a re-
sistividade se deve a algum mecanismo de espalhamento (por vibrações da rede, por
impurezas, ou por outros elétrons), que leva elétrons com energias perto da energia de
Fermi a estados finais com energias também próximas a εF . Imagine agora que algum
efeito coletivo no sistema cause a abertura de um um gap em torno de εF , de modo que
os estados finais possı́veis estão agora separados dos estados iniciais por um limiar de
energia. Nestes processos de espalhamento as energias disponı́veis para os elétrons não
são suficientes para vencer o gap, de modo que a transição entre estados eletrônicos não
ocorre, e o transporte se dá sem resistência. Isto sugere que os gaps entre os nı́veis de
4
K. von Klitzing et al., Phys. Rev. Lett. 45, 494 (1980)
130 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

Landau, presentes no movimento bi-dimensional (perpendicular a H) sejam a fonte de


queda na magnetorresistência.
Para ver como isto ocorre, consideremos inicialmente um sistema totalmente puro,
para o qual a densidade de estados corresponde a funções-δ igualmente espaçadas, loca-
lizadas nos nı́veis de Landau; veja a Fig. 6.5(a). A razão entre o número de elétrons, N ,
e a degenerescência de cada nı́vel de Landau define o fator de preenchimento,

N ns hc 1
ν= = , (6.4.41)
g e H

cujo inverso mede a ‘disponibilidade’ do nı́vel. É importante notar a dependência de


1/ν com H, para uma densidade de elétrons fixa: se H = H1 ≡ ns hc/e, só o nı́vel de
Landau de mais baixa energia estará (totalmente) preenchido. À medida em que H
diminui a partir deste valor, o nı́vel mais baixo passa a não acomodar todos os elétrons
e inicia-se uma ‘migração’ para o segundo nı́vel. Quando H = H1 /2, os dois nı́veis de
Landau mais baixos estão totalmente preenchidos; uma diminuição maior de H leva a
uma migração em direção ao terceiro nı́vel, e assim por diante. Pode-se se pensar que,
para H diminuindo entre H1 e H1 /2, o nı́vel de Fermi permanece ‘grudado’ no segundo
nı́vel de Landau; quando H < H1 /2, εF salta para o terceiro nı́vel de Landau, ficando
grudado até que H < H1 /3, etc.
Vemos então que valores do campo H = H1 /ν são especiais por representarem
preenchimento completo de ν nı́veis de Landau. Levando estes valores na Eq. (6.4.39),
obtemos a quantização de RH , descrita pela Eq. (6.4.40). Como para estes campos (ou
valores de ν) os gaps de Landau separam estados totalmente ocupados de estados total-
mente desocupados, a resistência é nula.
A discussão acima, no entanto, não explica a presença de platôs nem o fato da mag-
netorresistência não se anular em torno dos ν inteiros. A origem destes efeitos está no
fato de que, por mais cuidadoso que seja o processo de crescimento, o sistema sempre
apresenta impurezas, as quais causam dois efeitos importantes. Em primeiro lugar, os
nı́veis de Landau se alargam, virando mini-bandas de estados deslocalizados (i.e., elétrons
nestes estados podem conduzir corrente quando submetidos a um campo elétrico), rep-
resentadas na Fig. 6.5(b) pelas regiões hachuradas. Em segundo lugar, as impurezas
aprisionam alguns elétrons, que ficam em estados localizados, não participando, por-
tanto, da condução; estes estados ocupam as regiões entre as bandas de Landau, como
mostra a Fig. 6.5(b). Suponha agora que, para um dado valor de H, o nı́vel de Fermi
esteja no meio de uma das bandas de Landau; neste caso a magnetorresistência não é
nula, e RH não está em um platô. À medida em que H diminui, o nı́vel de Fermi agora
aumenta continuamente, passando pela região de estados localizados, como indicado pela
reta pontilhada na Fig. 6.5(b). Nesta região, os elétrons deslocalizados sentem um gap
efetivo e, como no caso puro, não apresentam resistência; ademais, como as bandas de
Landau permanecem totalmente preenchidas, RH se mantém nos valores quantizados.
Posteriormente, os MOSFET’s de Si foram substituı́dos por heteroestruturas de
GaAs/AlGaAs, com um ganho significativo na mobilidade dos elétrons; isto é, dimi-
nuı́ram significativamente a presença de impurezas e a rugosidade nas interfaces [veja
6.4. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 131

Figure 6.6: FQHE: Resistência Hall (RH ) e Magnetorresistência (R) como funções do campo magnético aplicado,
agora no caso de heteroestruturas de GaAs/AlGaAs. Deve ser notado o aparecimento de mais platôs em RH e
de mais quedas em R do que na Fig. 6.4. [Segundo HL Stormer, Rev.Mod.Phys.71, 875 (1999)].

HL Stormer, op. cit.]. Isto, aliado à disponibilidade de campos magnéticos mais intensos,
permitiu estabelecer a presença de platôs também para valores racionais não-inteiros de
ν, dando origem ao Efeito Hall Quântico Fracionário (FQHE); veja a Fig. 6.6.
A origem do FQHE reside na interação entre os elétrons, sendo, portanto, um efeito
de muitos corpos. Todavia, a análise pode ser reduzida, de modo engenhoso, a um outro
problema de partı́culas não interagentes. Para ver isto, devemos notar inicialmente que
um campo magnético H, cujo fluxo é dado por Φ = HL2 (L2 é a área), aplicado a
uma distribuição uniforme de carga produz vórtices, cada um dos quais associado a
um quantum de fluxo magnético Φ0 = hc/e. A Eq. (6.4.18) nos permite escrever a
degenerescência de cada nı́vel em termos de uma razão entre fluxos como

Φ
g= , (6.4.42)
Φ0

de modo que a Eq. (6.4.41) fornece

N
Φ= Φ0 . (6.4.43)
ν
O efeito das interações entre os elétrons pode ser levada em conta, de modo efetivo,
ao ‘fixarmos’ quanta de fluxo nos elétrons, criando as chamadas partı́culas compostas
132 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

(PC’s). Isto leva a uma transmutação estatı́stica, pois ao trocarmos duas PC’s, a função
de onda fica multiplicada por um fator de fase (−1)1+Φ/Φ0 . Assim, elétrons com um
número par de quanta de fluxo são férmions compostos, enquanto que elétrons com
um número ı́mpar de fluxos se tornam bósons compostos. A partir destas idéias pode-se
compreender uma boa parte dos platôs e das correspondentes magnetorresistências nulas
[veja HL Stormer, op. cit., RB Laughlin, Rev. Mod. Phys. 71, 863 (1998), e referências
lá citadas].

6.5 Thermodynamics of Blackbody Radiation


Uma das mais importantes aplicações da estatı́stica de Bose-Einstein é na descrição de
radiação eletromagnética em equilı́brio termodinâmico, chamada de radiação de corpo
negro. Ela pode ser pensada como um ‘gás’ de fótons. A linearidade das equações da
eletrodinâmica implica na ausência de interações entre os fótons, de modo que este gás
é, de fato, ideal.
Para tratar a radiação em um meio material – e não no vácuo – ainda como um
gás ideal, a interação entre os fótons e a matéria deve ser pequena. Para gases, esta
condição é satisfeita para todo o espectro, com exceção de frequências próximas dos
picos de absorção; para meios materiais mais densos, a interação só pode ser considerada
pequena a altas temperaturas. Por outro lado, deve-se ter em mente que a matéria deve
sempre estar presente, pois é ela que fornece o mecanismo – através da emissão e absorção
de fótons – para a radiação atingir o equilı́brio termodinâmico. Por esta razão, o número
de fótons N não é definido, ao contrário do que ocorre em um gás material. Assim, para
radiação em equilı́brio em uma cavidade de volume V , à temperatura T (fixos), N deve
ser determinado a partir das condições de equilı́brio do sistema; a condição de mı́nimo
da energia livre do gás de fótons fornece
 
∂A
= µ = 0, (6.5.1)
∂N T,V

ou seja, o potencial quı́mico do gás de fótons é zero. É importante notar que esta
condição ocorre sempre que as partı́culas em estudo corresponderem a excitações de
algum sistema como, por exemplo, fônons, mágnons, etc.
Os fótons se distribuem entre os diferentes modos normais, caracterizados por vetores
de onda k, com energias εk = ~ωk e relação de dispersão ω = c|k|; os valores possı́veis
de k dependem das condições de contorno impostas à cavidade. Consideraremos sempre
condições de contorno periódicas em uma caixa cúbica de volume V , que fornecem

kα = nα , nα = 0, ±1, ±2, . . . , (6.5.2)
V 1/3
onde α = x, y, z. O número médio de fótons com vetor de onda k é dado pela Eq. (5.3.2)
com µ = 0,
1
hnk i = β~ω , (6.5.3)
e k −1
6.5. THERMODYNAMICS OF BLACKBODY RADIATION 133

que é a conhecida distribuição de Planck.


Supondo o volume grande o suficiente, podemos passar para uma distribuição con-
tı́nua de modos normais. O número de modos com vetores de onda no intervalo dk
centrado em k é [V /(2π)3 ]dk, que, devido à isotropia da relação de dispersão, deve ser o
mesmo que o número de modos com módulo do vetor de onda no intervalo dk centrado
em k. Temos então, para a densidade de modos (isto é, o número de modos por intervalo)

V
g(k) = 4πk 2 . (6.5.4)
(2π)3

Para relacionar g(k) com g(ω), usamos a relação de dispersão e notemos que o campo
eletromagnético tem apenas duas direções de polarização (denotadas por ê1 e ê2 , de
modo que a densidade de modos com frequência entre ω e ω + dω fica, finalmente,

V
g(ω) = 2 × ω2. (6.5.5)
2π 2 c2
O número de fótons com frequência neste intervalo é obtido multiplicando-se a
Eq. (6.5.3) por g(ω)dω:
V ω 2 dω
dNω = 2 3 β~ω . (6.5.6)
π c e −1
A energia irradiada nesta faixa do espectro é obtida como ~ω · dNω , ou

V ~ ω 3 dω
dEω = , (6.5.7)
π 2 c3 eβ~ω − 1
que é conhecida como a fórmula de Planck para a radiação de corpo negro; veja a Fig. 6.7.
A baixas frequências (~ω  kB T ), recupera-se o resultado de Rayleigh-Jeans,

V ω2
dEω = kB T dω, (6.5.8)
π 2 c3
enquanto que a altas frequências obtemos a lei de Wien,

V ~ 3 −β~ω
dEω = ω e dω. (6.5.9)
π 2 c3
Para o cálculo de outras grandezas termodinâmicas necessitamos da função de par-
tição,

X
−β
P YX Y 1
Z= e k,ê ~ωk nk,ê
= e−β~ωk n = , (6.5.10)
1 − e−β~ωk
{nk },ê k,ê n=0 k,ê

cujo logaritmo nos dá


X X
ln Z = − ln(1 − e−β~ωk ) = −2 ln(1 − e−β~ωk ). (6.5.11)
k,ê k
134 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

Figure 6.7: Distribuição espectral da energia [u0 ≡ dEω /dω, Eq. (6.5.7)] na radiação de corpo negro, mostrando
os resultados de Planck, Rayleigh-Jeans e Wien; x ≡ ~ω/kB T .

A energia interna é dada por


∂ X 2~ωk e−β~ωk X
E=− ln Z = = 2~ωk hnk i, (6.5.12)
∂β 1 − e−β~ωk
k k

onde hnk i é dado pela Eq. (6.5.3) e não inclui a degenerescência devida aos dois modos
transversos de polarização. De modo análogo, a pressão fica
1 ∂ 1 X
P = ln Z = 2~ωk hnk i, (6.5.13)
β ∂V 3V
k

onde deve-se lembrar que a dependência em V vem através de ωk = ck, com k dado pela
Eq. (6.5.2). Comparando as Eqs. (6.5.12) e (6.5.13), obtemos a equação de estado,
1
PV = E, (6.5.14)
3
que é um resultado bastante conhecido para a pressão da radiação de corpo negro. Deve-
se notar que o fator 1/3 representa, na realidade, a razão entre o expoente s da relação
de dispersão (εp ∼ ps ) e a dimensão espacial d.
Tomando agora V → ∞, as somas em k podem ser substituı́das por integrais, e
Z ∞
V V~ ω3
Z
2 ~ck
E= 3
dk 4πk β~ck
= 2 3
dω β~ω , (6.5.15)
(2π) e −1 π c 0 e −1
ou
E π 2 (kB T )4
= . (6.5.16)
V 15 (~c)3
6.6. PHONONS 135

O calor especı́fico do gás de fótons fica sendo


4
4πkB
CV = T 3, (6.5.17)
15(~c)3
Devemos comparar as diferentes contribuições do calor especı́fico a baixas temperat-
uras. Para o gás de bósons materiais a 3 dimensões, temos CV ∼ T 3/2 e para o gás de
fótons também a 3 dimensões, CV ∼ T 3 . Estes resultados podem ser generalizados da
seguinte forma: CV ∼ T d/s para um gás de bósons. Esta dependência com o expoente
da relação de dispersão e com a dimensionalidade do sistema deve ser contrastada com
o comportamento de um gás de férmions, CV ∼ T , para quaisquer s e d.

6.6 Phonons
O problema de modos vibracionais de um sólido pode ser estudado considerando o
sistema tanto como um conjunto de osciladores harmônicos, quanto como um gás de
quanta de som, os chamados fônons. Para ilustrar isto, consideremos a Hamiltoniana
de um sólido clássico de N átomos, cujas posições no espaço são especificadas pelas
coordenadas (x1 , x2 , x3 , . . . x3N ). As vibrações dos átomos em torno de suas posições
de equilı́brio (x̄1 , x̄2 , x̄3 , . . . x̄3N ) são descritas pelos deslocamentos ξi = (xi − x̄i ), onde
i = 1, . . . 3N . A energia cinética do sistema na configuração {xi } é, então, dada por
3N
1 X 2 1 X ˙2
Ec = m ẋi = m ξi , (6.6.1)
2 2
i=1 i

e a energia potencial por


X  ∂Φ  X 1  ∂2Φ 
Φ = Φ(xi ) = Φ(x̄i ) + ξi + ξi ξj + . . . (6.6.2)
∂xi {xi }={x̄i } 2 ∂xi ∂xj {xi }={x̄i }
i i,j

O termo Φ(x̄i ) representa a energia (mı́nima) do sólido, Φ0 , quando todos os N átomos


estão em repouso em suas posições de equilı́brio. O termo seguinte é identicamente
nulo porque Φ deve ter um mı́nimo em (x̄i ). Os termos de segunda ordem represen-
tam, então, a componente harmônica das vibrações atômicas. Trabalharemos aqui na
aproximação harmônica, baseada na hipótese de que as vibrações têm pequenas ampli-
tudes, permitindo-nos desprezar termos de ordem mais alta. Podemos então escrever a
Hamiltoniana como  
X 1 
mξ˙i2 +
X
H = Φ0 + αij ξi ξj , (6.6.3)
 2 
i i,j

onde
∂2Φ
 
1
αij = , (6.6.4)
2 ∂xi ∂xj
inclui também o acoplamento entre vibrações em torno de diferentes sı́tios.
136 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

Agora introduzimos uma transformação linear, das coordenadas ξi para as chamadas


coordenadas normais, qi , de modo que a nova expressão para a Hamiltoniana não contém
termos cruzados,
X1
H = Φ0 + m(q̇i2 + ωi2 qi2 ), (6.6.5)
2
i

onde os ωi , i = 1, 2, . . . , 3N são as frequências caracterı́sticas dos chamados modos


normais do sistema. Elas são determinadas, essencialmente, pelos αij , que refletem
detalhes do potencial de interação Φ(xi ). Ademais, a Eq. (6.6.5) sugere que o sólido se
comporta como um conjunto de 3N osciladores harmônicos não-interagentes com um
espectro de frequências naturais, ωi .
Classicamente, então, cada um dos 3N modos normais corresponde a uma distorção
dos pontos da rede; isto é, a uma onda sonora. Quanticamente, estes modos dão origem
a quanta, chamados de fônons, em analogia com os modos do campo eletromagnético
dando origem a fótons. Uma diferença importante entre estes dois casos é que, enquanto
o número de modos normais no caso do campo eletromagnético é indefinido, o número de
modos normais no caso de sólidos é especificado pelo número de sı́tios da rede. Todavia,
o número de fônons, bem como o número de fótons, é também indefinido, resultando num
potencial quı́mico identicamente nulo; veja a Seção 6.5. Estas diferenças se manifestam
apenas nos comportamentos termodinâmicos envolvendo modos de altas frequências,
como pode ser verificado pelos resultados que serão deduzidos nesta seção.
A contribuição dos fônons para a termodinâmica do sólido pode então ser obtida
da maneira usual, lembrando, em primeiro lugar, que os autovalores da Hamiltoniana
quântica são dados por
X 1

E{ni } = Φ0 + ni + ~ωi , (6.6.6)
2
i

onde os números ni definem o estado de excitação dos diversos osciladores; equivalen-


temente, estes números definem as ocupações dos vários nı́veis dos fônons. A energia
interna do sistema é, então,
( )
X1 X ~ωi
E(T ) = Φ0 + ~ωi + /k
. (6.6.7)
2 e ~ω i BT − 1
i i

A expressão entre colchetes é a energia do sólido no zero absoluto e determina a energia


de ligação da rede. O último termo é que determina o calor especı́fico,

∂E
 X (~ωi /kB T )2 e~ωi /kB T
CV (T ) = = kB (6.6.8)
∂T V i
(e~ωi /kB T − 1)2

Para prosseguirmos além deste ponto necessitarı́amos de informações sobre o espectro


de frequências, o qual não é simples de ser obtido a partir de primeiros princı́pios. Alter-
nativamente, lança-se mão de espectros obtidos experimentalmente, ou faz-se hipóteses
6.6. PHONONS 137

simplificadoras a seu respeito. No modelo de Einstein (1907), supõe-se que todas as


frequências têm o mesmo valor: ωi = ωE ∀i . O calor especı́fico é, então, dado por

CV (T ) = 3N kB E(x), (6.6.9)

onde a função de Einstein é

x2 ex ~ωE ΘE
E(x) = , com x= ≡ ; (6.6.10)
(ex − 1)2 kB T T

a última expressão define a temperatura de Einstein ΘE . A altas temperaturas, T  ΘE ,


obtemos CV ∼ 3N kB , que é o resultado clássico (c.f., o teorema da equipartição da
energia) como deveria ser. Já a baixas temperaturas, T  ΘE , temos CV ∼ e−x , que
decai muito mais rápido que o previsto experimentalmente (em 3 dimensões) ∼ T 3 .
Como vimos anteriormente, o comportamento exponencial do calor especı́fico sinaliza a
presença de um gap de energia que, neste caso, é atribuı́do à artificialidade do modelo.
No modelo de Debye (1912) considera-se um espectro contı́nuo, até uma determinada
frequência de corte, ωD , a qual é determinada impondo que o número total de modos de
vibração seja igual a 3N ; isto é,
Z ωD
g(ω) dω = 3N, (6.6.11)
0

onde g(ω)dω fornece o número de modos normais entre ω e ω + dω. Para g(ω) podemos
usar a expressão (6.5.5), desde que adaptada para levar em conta os seguintes aspectos:
(1) os modos de vibração podem ser longitudinais e transversais (estes últimos são du-
plamente degenerados); (2) as velocidades de propagação dos modos longitudinais (cL )
e transversais (cT ) podem ser diferentes. Assim,

V ω2 V ω2
g(ω) = + , (6.6.12)
2π 2 c3L π 2 c3T

que, levado em (6.6.11), fornece


 −1
3 N
2 1 2
ωD = 18π 3 + 3 . (6.6.13)
V cL cT

Finalmente, o espectro de frequências de Debye é dado por


(
(9N/ωD3 ) ω 2 , se ω ≤ ω
D
g(ω) = (6.6.14)
0, se ω > ωD .

Neste ponto devemos fazer duas observações. Em primeiro lugar, o espectro de


freqüências de Debye é, claramente, uma idealização, como fica aparente ao ser com-
parado com um espectro real tı́pico; veja a Fig. 6.8. Se para os modos de baixa frequência
– os chamados fônons acústicos – a aproximação de Debye é razoável, para os modos de
138 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

Figure 6.8: Distribuição de frequências, g(ω), para o Al. A linha cheia é obtida por espalhamento de raios-X [C
B Walker, Phys. Rev. 103 547, (1956)] e a linha tracejada corresponde à aproximação de Debye.

alta frequência – fônons óticos – as discrepâncias são aparentes. Felizmente, para quanti-
dades médias como a energia interna e, por conseguinte, para o calor especı́fico, detalhes
finos do espectro não são muito importantes. Em segundo lugar, os modos longitudinais
e transversais têm suas próprias frequências de corte, ωD,L e ωD,T , ao invés de um valor
comum, ωD , simplesmente porque há 2N modos transversos e N longitudinais. Todavia,
ambas as frequências de corte correspondem a um mesmo comprimento de onda mı́nimo,
λmin = (4πV /3N )1/3 , que é da ordem da distância interatômica no sólido.
Retomando os cálculos na aproximação de Debye, e lembrando que na Eq. (6.6.8) a
passagem para o contı́nuo contribui com g(ω) ∝ ω 2 , obtemos
CV (T ) = 3N kB D(x0 ), (6.6.15)
onde D(x0 ) é a função de Debye,
3 x0
x4 e x
Z
D(x0 ) = 3 dx , (6.6.16)
x0 0 (ex − 1)2
com
~ωD ΘD
≡x0 = , (6.6.17)
kB T T
o que define a temperatura de Debye para o sólido. Fazendo a integral em (6.6.16) por
partes, obtemos
3x0 12 x0 x3
Z
D(x0 ) = − x0 + 3 dx x . (6.6.18)
e − 1 x0 0 e −1
Para T  ΘD , a função D(x0 ) pode ser expressa em uma série de potências em x0 :
x20
D(x0 ) ' 1 − , (6.6.19)
20
6.7. EXERCISES 139

e o calor especı́fico neste limite fica

CV ' 3N kB , (6.6.20)

que é o resultado clássico. A baixas temperaturas, T  ΘD , podemos estender o limite


superior de integração para ∞ em (6.6.18),

12 x3
Z
D(x0 ) = dx + O(e−x0 ), (6.6.21)
x30 0 ex − 1

recaindo nas conhecidas integrais bosônicas, gn (z); veja Eq. (5.5.1). Logo,
3
4π 4

12 T
D(x0 ) ' 3 Γ(4)g4 (1) = , (6.6.22)
x0 5 ΘD

e, portanto,
3
12π 4

T
C V ' N kB , (6.6.23)
5 ΘD
reproduzindo o comportamento conhecido como a Lei-T 3 de Debye, indicando a ausência
de um gap, contrariamente ao previsto pelo modelo de Einstein. Deve-se notar que a
dependência de CV com T a baixas temperaturas pode ser extraı́da sem nos referirmos
às integrais bosônicas: com efeito, a integral em (6.6.21) contribui com um número,
enquanto que a dependência com T já está contida em x−3 0 que, por sua vez, resultou de
uma mudança de variável de integração.
Medidas experimentais do calor especı́fico de sólidos a baixas temperaturas servem de
teste para o modelo de Debye, através de estimativas para ΘD , que devem ser comparadas
com as obtidas a partir de constantes elásticas; o resultado favorece a teoria de Debye.
Valores tı́picos de ΘD cobrem o intervalo de 100 a 1000K.
Finalizando, esta análise indica que se o calor especı́fico a baixas temperaturas de
um dado sistema obedece à lei-T 3 , então suas excitações térmicas são explicadas apenas
por fônons.

6.7 Exercises
1. Obtenha os resultados (6.3.13), (6.3.14) e (6.3.15).

2. Mostre que, para um gás de férmions a baixas temperaturas temos, de uma maneira
geral,
"  #
π 2 d ln g(ε) kB T 2 π2 2
  
µ ' εF 1 − e CV ' S ' k T g(εF ),
6 d ln ε ε=εF εF 3 B

onde g(ε) é a densidade de estados de uma partı́cula. Discuta estes resultados para
um gás com espectro de energia εp = apn em um espaço d-dimensional.
140 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

3. Mostre que o diamagnetismo não existe na Fı́sica Clássica. [Sugestão: A Hamiltoniana


para partı́culas carregadas em presença de um campo magnético B = ∇ × A é uma
função de pj + (ej /c)A(rj ). Deve-se mostrar, então, que a função de partição do
sistema é independente do campo aplicado.]

4. Considere um gás ideal de elétrons bi-dimensional, cuja densidade (número de elétrons


pela área do sistema) é n. Obtenha a contribuição dos momentos magnéticos intrı́n-
secos para a suscetibilidade deste sistema a T = 0.

5. Considere elétrons não interagentes em 3 dimensões, em presença de um campo


magnético uniforme H; a Hamiltoniana de uma partı́cula é dada pela Eq. (6.4.1).

(a) Mostre que a energia de uma dada configuração de spins pode ser escrita como
X
E= Ep (np↑ , np↓ ),
p

onde npσ (= 0 ou 1) é o número de partı́culas com spin σ = ±1 (ou ↑, ↓) e


momento p, e
p2
Ep (np↑ , np↓ ) = np − mp µB H,
2m
com np ≡ np↑ + np↓ e mp ≡ np↑ − np↓ .
(b) Mostre que a gran-função de partição pode ser escrita como

Z = Z0 (µ + µB H) Z0 (µ − µB H),

onde Yh i
2
Z0 (ν) = 1 + eβ(ν−p /2m) .
p

(c) Mostre que o gran-potencial pode ser expresso como


V h βµB H −βµB H
i
J = kB T f5/2 (ze ) + f5/2 (ze ) ,
Λ3
onde as integrais fermiônicas f5/2 (w) foram definidas na Eq. (5.4.11).
(d) Denotando por Nσ o número médio de partı́culas com spin σ, mostre que o número
total de elétrons e a magnetização são dados por
V h i
N = N↑ + N↓ = 3 f3/2 (zeβµB H ) + f3/2 (ze−βµB H ) ,
Λ
e
V h i
M = µB (N↑ − N↓ ) = µB 3 f3/2 (zeβµB H ) − f3/2 (ze−βµB H ) ,
Λ
respectivamente.
(e) Discuta os limites de altas e baixas temperaturas, comparando com os resultados
da Seção 6.4.1.
6.7. EXERCISES 141

6. Considere um gás ideal de férmions de massa m e spin-1/2, com um espectro de uma


partı́cula ε(k).

(a) Qual a probabilidade de ocupação, p(n; ε), à temperatura T (ou sua inversa,
β ≡ 1/kB T ) de um estado arbitrário com energia ε, sendo n = 0, 1 a ocupação
do estado? Certifique-se de que esta probabilidade está normalizada.
(b) Mostre que a probabilidade do estado com energia µ+δ (δ é uma energia constante
arbitrária) estar ocupado é igual à probabilidade do estado com energia µ−δ estar
desocupado. Comente.

Suponha, de agora em diante, que o espectro destes férmions admita energias


positivas e negativas, com dispersão
p
ε± (k) = ± m2 c4 + ~2 c2 k 2 ,

onde c é uma constante.


(c) À temperatura nula, todos os estados de energia negativa estão ocupados, en-
quanto que os de energia positiva estão desocupados; logo, µ(T = 0) = 0. Baseado
no resultado do item (b), o que se pode afirmar sobre µ(T > 0)?
(d) Mostre que a energia média de excitação deste sistema, à temperatura T > 0, é
dada por
4V ε+ (k)
Z
E(T ) − E(0) = 3
d3 k βε (k) ,
(2π) e + +1
onde V é o volume a três dimensões.
(e) Suponha que estes férmions não tenham massa; obtenha a dependência com a
temperatura da capacidade calorı́fica deste gás. Como este resultado se compara
com o caso em que o espectro é limitado inferiormente? Discuta.
(f) Suponha agora férmions massivos a baixas temperaturas; obtenha a dependência
com a temperatura da capacidade calorı́fica deste gás. Comente.

7. Ondas de spin são perturbações a baixas temperaturas sobre um estado com spins
(clássicos) totalmente alinhados [parte (a) da figura abaixo]. Elas correspondem,
essencialmente, a um desvio transversal sendo compartilhado por todos os spins; veja
a parte (b) da figura abaixo. Mágnons são os quanta destas excitações, que têm
relação de dispersão ω = Ak 2 , onde A é uma constante.

(a) Faça esboços das densidades de estados de mágnons, D(ε), como funções da
energia ε, para dimensões espaciais d = 1, 2 e 3. Coloque no mesmo gráfico o
número médio de mágnons com energia ε.
(b) Obtenha o número médio total de mágnons em um sistema de dimensão d.
(c) Discuta cuidadosamente seus resultados. Comente, em particular, as consequên-
cias para o alinhamento quando d ≤ 2.
142 CHAPTER 6. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

Figure 6.9: Problema 6

(d) Suponha agora que limε→0 g(ε) = ∆, onde ∆ é uma constante positiva. Como
isto alteraria as conclusões do ı́tem anterior?

8. Supondo que a relação de dispersão para vibrações em sólidos seja ω = Ak s , mostre


que a respectiva contribuição para o calor especı́fico a baixas temperaturas é propor-
cional a T 3/s . Generalize este resultado para d dimensões. (Obs.: s = 1 corresponde
a fônons, e s = 2 corresponde a mágnons.)

9. Um gás ideal de bósons se movimenta em bloco com velocidade v em relação a um


referencial inercial.

(a) Mostre que o número médio de ocupação hnp i de um estado com energia εp é
dado por
1
hnp i = β(ε −µ−v·p) ,
e p −1
onde µ é o potencial quı́mico.
(b) Mostre, a partir daı́, que a densidade de ‘massa inercial’ de um gás de fônons,
com relação de dispersão ω = ck, movendo-se em bloco com velocidade v é

16π 5 (kB T )4 1
ρ= .
45h c 3 5
(1 − v 2 /c2 )3
Chapter 7

Approximation Methods
Refs.: Landau & Lifshitz, Reichl e Koonin

7.1 Introduction
Nos Capı́tulos anteriores, as interações entre as partı́culas foram totalmente desprezadas.
Mesmo assim, pudemos ver exemplos em que esta descrição aproximada fornecia resul-
tados bastante satisfatórios. Por outro lado, há muitos fenômenos, tais como desvios do
gás ideal na dependência da pressão com a densidade de partı́culas, e transições de fase
em sistemas fluidos, magnéticos, supercondutores, etc., nas quais o papel das interações
é crucial para explicar o comportamento observado.
Neste Capı́tulo e no próximo, apresentaremos algumas maneiras aproximadas de se
tratar sistemas interagentes. Não poderı́amos, de forma alguma, fazer uma revisão de
todos os métodos disponı́veis, pois há muitos deles; cada um reflete as peculiaridades
de cada sistema e das diferentes situações fı́sicas. Podemos dividir as aproximações em,
basicamente, duas categorias: métodos perturbativos e não-perturbativos. Na primeira,
explora-se a presença de algum parâmetro que seja pequeno, em certo sentido. Por
exemplo, expansões na densidade de partı́culas (Seção 7.2) ou na parte atrativa do po-
tencial de interação (Seção 7.3); ou, ainda, expansões da suscetibilidade em altas e baixas
temperaturas, que são muito úteis no estudo de transições de fase, mas que não serão
abordadas neste curso. Entre os métodos não-perturbativos podemos incluir simulações
numéricas como Monte Carlo (Seção 7.4) e Dinâmica Molecular; no Capı́tulo 8 discutire-
mos outros, como teorias de Campo Médio e Grupo de Renormalização. Claramente, esta
divisão tem suas imprecisões, já que vários métodos são frequentemente combinados.

7.2 The Virial Expansion


7.2.1 Deviation of gases from the ideal state
A equação de estado de um gás ideal, quando aplicada a gases reais fornece, na maioria
dos casos, resultados bastante precisos. Como mencionado acima, esta aproximação
pode não ser adequada em algumas situações. Veremos agora como surgem os desvios
do comportamento ideal a partir da incorporação das interações entre as moléculas.

143
144 CHAPTER 7. APPROXIMATION METHODS

Façamos, inicialmente, a hipótese de que o gás seja tão rarefeito que colisões múltiplas
– isto é, colisões envolvendo mais do que dois corpos simultaneamente – possam ser
desprezadas. Também por simplicidade, consideraremos um gás monoatômico. O movi-
mento das partı́culas pode ser tratado classicamente, de modo que a energia tem a forma
N
X p2i
H= + U (r1 , r2 , . . . , rN ), (7.2.1)
2m
i=1

onde U (r1 , r2 , . . . , rN ) é a energia de interação mútua que, num gás monoatômico, é


função apenas das distâncias entre os átomos.
A função de partição pode ser escrita como

1
Z
ZN (T, V ) = d3N r d3N p e−βH . (7.2.2)
N !h3N

A integração em p é trivial por ser Gaussiana, e reproduz os resultados obtidos anteri-


ormente,
3N Z ∞ p 3N
2
Y
dp e−βp /2m = 2πmkB T = h3N Λ−3N . (7.2.3)
i=1 −∞

Definindo a integral de configuração,


Z
QN (T, V ) ≡ d3N r e−βU (r1 ,r2 ,...,rN ) , (7.2.4)

podemos escrever
1
ZN (T, V ) = QN (T, V ). (7.2.5)
N !Λ3N
Fazendo U = 0, a integral de configuração se reduz a V N , recuperando a já conhecida
função de partição para o gás ideal,
 N
(0) 1 V
ZN = , (7.2.6)
N! Λ3

bem como a energia livre de Helmholtz,

A(0) = −N kB T ln V /Λ3 + kB T ln N !.

(7.2.7)

É então conveniente escrever a Eq. (7.2.5) como

(0) QN (T, V )
ZN (T, V ) = ZN (T, V ) , (7.2.8)
VN
para que a energia livre tome a forma

A = A(0) − kB T ln QN /V N .

(7.2.9)
7.2. THE VIRIAL EXPANSION 145

d3N r =
R
Somando e subtraindo 1 no integrando da Eq. (7.2.4), e usando o fato de que
V N , temos  
1
Z  
(0) 3N −βU
A = A − kB T ln d r e −1 +1 . (7.2.10)
VN
A interação entre um par de átomos é muito pequena, a não ser quando eles estão
muito próximos; isto é, prestes a colidir. Façamos agora mais uma hipótese simplifi-
cadora:1 além de rarefeito, há tão poucos átomos que, dificilmente, mais de um par
deles esteja colidindo a cada instante. Assim, para N átomos este par pode ser escolhido
de 12 N (N − 1) maneiras, e podemos fazer a seguinte aproximação para a integral em
(7.2.10):
Z h i 1 Z h i
3N −βU N −2
d r e − 1 ' N (N − 1)V d3 r1 d3 r2 e−βu(r12 ) − 1 , (7.2.11)
2
onde u(r12 ) é a energia de interação entre dois átomos quaisquer, e depende apenas de
suas coordenadas; isto nos permitiu fazer a integração nas outras 3(N − 2) coordenadas,
dando o fator V N −2 . Expandindo o logaritmo e tomando N (N − 1) ∼ N 2 , temos

1 N2
 Z h i
(0) 3 3 −βu(r12 )
A = A − kB T ln 1 + d r1 d r2 e −1 '
2 V2
1 N2
Z h i
' A(0) − kB T 2 d3 r1 d3 r2 e−βu(r12 ) − 1 (7.2.12)
2 V
Lembrando que u é função apenas das coordenadas relativas, r, a integral dupla pode
ser expressa em termos das coordenadas do centro de massa, R, e de r, o que nos permite
fazer a integral em d3 R dando origem a mais um fator V . Assim,

1 N2
Z h i
(0) 3 −βu(r)
A ' A − kB T d r e −1 , (7.2.13)
2 V
que pode ser escrita como

N2
A ' A(0) + kB T B2 (T ), (7.2.14)
V
onde
1
Z  
B2 (T ) ≡ d3 r 1 − e−βu(r) (7.2.15)
2
tem dimensão de volume. The reader should note that the factor N multiplying n ≡ N/V
in (7.2.14) is in line with the extensive character of A(T, V, N ).
A pressão é dada em termos do coeficiente B2 (T ),
   
∂A N kB T N
P =− = 1+ B2 (T ) ; (7.2.16)
∂V T,N V V
1
Esta hipótese será dispensada na próxima sub-seção, onde a expansão do virial será deduzida de
modo mais formal.
146 CHAPTER 7. APPROXIMATION METHODS

r
2r0
u0

Figure 7.1: Energia potencial de interação em função da distância interatômica; r0 é o ‘raio atômico’ e −u0 é o
mı́nimo de energia.

ou seja, a primeira correção à equação de estado do gás ideal é proporcional à densidade


de partı́culas.
Algumas observações sobre os resultados acima devem ser feitas. Em primeiro lugar,
eles se aplicam a gases monoatômicos; a extensão para gases poliatômicos é feita levando-
se em conta que a energia de interação entre um par de moléculas depende não apenas
da distância entre seus respectivos centros de massa, mas também da orientação relativa
entre elas. Uma outra extensão possı́vel pode ser feita para incluir a interação entre os
spins das partı́culas; neste caso, além da integração nas coordenadas espaciais, deve-se
incluir também uma soma sobre os números quânticos de spin. Em segundo lugar, os
potenciais devem cair rapidamente com a distância, para que a integral na Eq. (7.2.15)
convirja; ou seja, devemos ter u(r) ∼ r−n , com n > 3. Esta condição é geralmente
satisfeita para gases monoatômicos e moleculares, pois os potenciais de interação entre
átomos e entre moléculas neutras (incluindo dipolos), quando tomados em média sobre
as direções relativas, dão origem a potenciais com u ∼ 1/r6 .
We should now discuss the behaviour of the pressure at high and low temperatures
based on a typical interatomic potential, such as the one displayed in Fig. 7.1. Apart
from specific details, these potentials should display: (1) a ‘hard core’ reflecting the
‘impenetrability’ of the atoms for distances r . 2r0 , where r0 is the atomic radius, so
that this can be considered as the repulsive region of the potential; and (2) a minimum
of the well at r∗ , such that u(r∗ ) = −u0 , corresponding to stable equilibrium, so that
the region r & 2r0 will then be referred to as the attractive region of the potential. We
can then think in terms of three energy scales: the thermal energy, kB T , the attractive
energy, u0 , and the hard core energy, call it uhc , with uhc  u0 . Then, in this context
high temperatures means uhc  kB T  u0 , since the thermal energy is still small to
overcome the nuclear repulsion; and low temperatures means uhc  u0  kB T .
It is therefore illustrative to break the integral in (7.2.15) into separate contributions
from the repulsive, Ir , and attractive, Ia , regions: B2 (T ) = Ir + Ia . The dominant
7.2. THE VIRIAL EXPANSION 147

contribution to the integrand in Ir is


1 − e−βu(r) ' 1 − e−βuhc ≈ 1, (7.2.17)
either at high or low temperatures. For the attractive region, the integrand is typically
1 − e−βu(r) ' 1 − eβu0 . (7.2.18)
At high temperatures,
1 − eβu0 ≈ −βu0 , with |βu0 |  1, (7.2.19)
so that Ir  |Ia |, and B2 ≈ Ir > 0: the pressure is larger than that of the non-
interacting gas. By contrast, at low temperatures,
1 − eβu0 ≈ −eβu0 , with |βu0 |  1, (7.2.20)
so that Ir  |Ia |, so that B2 ≈ Ia < 0: the pressure is smaller than that of the ideal
gas.
Na próxima sub-seção a expansão em densidades será reobtida, desta vez de uma
forma mais sistemática, que permite o cálculo até ordens mais altas.

7.2.2 The virial expansion


Como vimos, a Eq. (7.2.16) corresponde aos dois primeiros termos de uma expansão da
pressão em potências da densidade n ≡ N/V ,
"  2 #
N kB T N N
P = 1+ B2 (T ) + B3 (T ) + · · · , (7.2.21)
V V V
onde os coeficientes Bj (T ) são conhecidos como os coeficientes do virial. Para uma
dedução sistemática desta expansão, é conveniente tratar o problema no ensemble gran-
canônico, no qual a pressão é obtida a partir de

1 µN/kB T
X Z
e P V /kB T
= e dΓN e−βHN (p,q) , (7.2.22)
N!
N =0
onde o volume no espaço de fases é
1 3 3
dΓN = d r1 d r2 . . . d3 pN , (7.2.23)
h3N
e os HN são, por exemplo,
N = 0 ⇒ H0 = 0 (7.2.24)
p2
N = 1 ⇒ H1 = (7.2.25)
2m
2
X p2i
N = 2 ⇒ H2 = + u(r12 ) (7.2.26)
2m
i=1
3
X p2i X
N = 3 ⇒ H3 = + u(rij ), (7.2.27)
2m
i=1 1≤i<j≤3
148 CHAPTER 7. APPROXIMATION METHODS

pois levamos em conta apenas interações a dois corpos.


Como a integral nos momentos pode ser feita independentemente, chamemos

eµ/kB T z
Z
2 /2m
ξ≡ d3 p e−βp = , (7.2.28)
h3 Λ3

com z = exp(µ/kB T ), de modo que a Eq. (7.2.22) fornece

ξ2 ξ3
 
P V = kB T ln 1 + ξV + I2 + I3 + · · · , (7.2.29)
2! 3!
com Z
I2 = d3 r1 d3 r2 e−βu(r12 ) , (7.2.30)
e Z P
I3 = d3 r1 d3 r2 d3 r3 e−β 1≤i<j≤3 u(rij )
. (7.2.31)

Expandindo o logaritmo em potências de ξ, obtemos



X Jn
P = kB T ξn, (7.2.32)
n!
n=1

onde, até 3a ordem,

J1 =1, (7.2.33)
1
I2 − V 2 , e

J2 = (7.2.34)
V
1
I3 − 3V I2 + 2V 3 .

J3 = (7.2.35)
V
As integrais I2 e I3 podem ser simplificadas introduzindo as coordenadas relativas
r = r2 − r1 , r0 = r3 − r2 , r31 = r − r0 , e as coordenadas do centro de massa do sistema,
R = (r1 + r2 + r3 )/3; note que r31 não é independente. Assim,
Z Z
I2 = d3 R d3 r e−βu(r) , (7.2.36)

e Z Z
3 0 0
I3 = d R d3 r d3 r0 e−βu(r) e−βu(r ) e−βu(|r−r |) . (7.2.37)

As integrais em d3 R contribuem com V , de modo que


Z  
J2 = d3 r e−βu(r) − 1 , (7.2.38)

e Z  
0 0
J3 = d3 r d3 r0 e−βu(r) e−βu(r ) e−βu(|r−r |) − 3e−βu(r) + 2 . (7.2.39)
7.2. THE VIRIAL EXPANSION 149

É interessante notar que os Jn só são apreciavelmente diferentes de zero se os n


átomos estiverem próximos. Por esta razão, expansões deste tipo são também chamadas
de expansões em aglomerados (clusters).
Para eliminar o potencial quı́mico, devemos também calcular o número médio de
partı́culas,
        
∂ ∂P ∂P ∂ξ ∂P ξ
N= PV =V =V =V , (7.2.40)
∂µ T,V ∂µ T,V ∂ξ ∂µ ∂ξ kB T

ou

X Jn
N =V ξn. (7.2.41)
(n − 1)!
n=1

Resolvendo (7.2.41) para ξ(N, V ), e levando em (7.2.32), podemos obter P (T, V, N )


por aproximações sucessivas:

N kB T
1a aprox.: P = kB T ξ, N = V ξ ⇒ P = = P (0) (7.2.42)
  V  
a 1 N kB T 1N
2 aprox.: P = kB T ξ 1 + J2 ξ , N = V ξ(1 + J2 ξ) ⇒ P = 1− J2 ,
2 V 2V
(7.2.43)

que reproduz o resultado (7.2.16), com (7.2.15).

7.2.3 The Van der Waals Equation


Em gases a interação entre as moléculas é muito fraca. À medida em que esta interação
cresce em intensidade, as propriedades do gás se distanciam cada vez mais de um gás
ideal até que o fluido condensa em uma fase lı́quida. Nesta, o fluido é caracterizado por
uma forte interação entre as moléculas, fazendo com que suas propriedades dependam
consideravelmente do lı́quido em estudo. Por esta razão, uma descrição quantitativa de
lı́quidos é muito difı́cil de ser obtida.
Todavia, pode-se obter uma fórmula que descreve qualitativamente a transição entre
lı́quidos e gases, a chamada equação de van der Waals. De fato, no limite de gases
rarefeitos ela se reduz ao resultado conhecido do gás ideal; à medida em que a densidade
aumenta, atingimos um limite de compressibilidade, sinalizando a chegada à fase lı́quida.
Para obter a equação de van der Waals, consideremos interações como as descritas
na Seção 7.2.1 (veja a Fig. 7.1) , e suponhamos que u0  kB T . A integral em (7.2.15)
pode ser dividida nas mesmas regiões (até 2r0 e daı́ até ∞):

1 a
Z
B2 (T ) = d3 r (1 − e−βu(r) ) ≡ b − , (7.2.44)
2 kB T
com Z 2r0  
b = 2π r2 dr 1 − e−βu(r) , (7.2.45)
0
150 CHAPTER 7. APPROXIMATION METHODS

e ∞
a
Z
− = 2π r2 dr (1 − e−βu(r) ). (7.2.46)
kB T 2r0

Note that b and a have dimensions of volume and [energy · volume], respectively. In
the hard core region the exponential is much smaller than 1, and the integral does not
depend on the interaction potential; we therefore obtain,
16 3
b' πr0 = 4v0 , (7.2.47)
3
where v0 is the atomic volume. In the attractive region, the argument in the exponencial
is −βu(r) = β|u(r)|  1, o que fornece 1 − exp β|u(r)| ' β|u(r)|], e
Z ∞
a |u(r)|
− ' 2π dr r2 . (7.2.48)
kB T 2r0 kB T

Taking the definition of B2 (T ) in terms of a and b [(7.2.44)], into (7.2.16), the pressure
can be written as
N N2 N2
P = kB T + 2 kB T b − 2 a, (7.2.49)
V V V
or, rearranging terms, as
−1
N2
 
N N
P+ 2a 1+ b = kB T. (7.2.50)
V V V

Assuming the gas to be sufficiently rarefied, such that we can neglect triple (and higher
order) collisions, the molecules are very far apart, and we may take V  N b; this implies
 −1  
N N
1+ b ' 1− b , (7.2.51)
V V

and we arrive at the usual form of the van der Waals equation of state,

N 2a
 
P + 2 (V − N b) = N kB T, (7.2.52)
V

We see that for rarefied gases, N 2 a/V 2  P and N b  V , we recover the ideal gas
result. Most importantly, we see that as result of the interactions, the gas cannot be
compressed indefinitely, since the second term in brackets would become negative, while
both other terms are positive. There is therefore a minimum volume for the gas, namely
Vmin ≡ N b; this can be interpreted as an indication that below this volume threshold
the gas becomes a liquid, as discussed in Sec. 8.3.1.
Uma outra grandeza que ilustra a diferença com relação ao gás ideal é a entropia,
dada por

N 2 kB b
   
∂A (0) Nb
S=− = S − N kB ln 1 − ' S (0) + ; (7.2.53)
∂T V V V
7.3. DENSE FLUIDS: PERTURBATION THEORY 151

ou seja, a entropia do gás de van der Waals é maior que a do gás ideal. A energia interna
fica, então,
N 2a
E = A + T S = E (0) − , (7.2.54)
V
e o calor especı́fico a volume constante,
!
∂E (0)
 
∂E (0) 3
CV = = = CV = N kB , (7.2.55)
∂T V ∂T 2

é igual ao do gás ideal. Já o calor especı́fico a pressão constante pode ser calculado
usando os resultados do Exercı́cio 2.7, fornecendo
 ∂P
 2 −1
N a(V − N b)2

∂T V
CP − CV = −T = N kB 1 − 2 (7.2.56)
∂P kB T V 3

∂V T

(0) (0) (0)


que difere do gás ideal, CP − CV = N kB , pelo fato de que CP > CP .
Em resumo, o gás de van der Waals fornece uma interpolação entre os comporta-
mentos de gás ideal de um fluido. No Capı́tulo 8 utilizaremos este modelo para discutir
alguns aspectos da transição lı́quido-gás em sistemas fluidos.

7.3 Dense Fluids: Perturbation Theory


É possı́vel fazer uma expansão em clusters também para fluidos densos, sendo que a
diferença entre esta e a expansão do virial consiste, basicamente, no modo com que os
termos são somados.
Um método mais preciso consiste em uma teoria de perturbação no potencial de
interação. Este método foi introduzido por Zwanzig [J. Chem. Phys. 22 1420 (1954)] e
parte da constatação de que o comportamento qualitativo de fluidos densos é determi-
nado pela parte repulsiva (‘caroço duro’) do potencial de interação, e que a parte atrativa
do potencial contribui apenas com correções ao comportamento de carôço duro. Deste
modo podemos tratar a atração entre as moléculas perturbativamente.
Para sistemas clássicos a contribuição de energia cinética para a energia livre é fa-
torada da contribuição de interações (configurações). Suponhamos que a energia poten-
cial possa ser escrita como
V = V0 + V 0 , (7.3.1)

onde V0 é o caroço duro e V 0 a contribuição da parte atrativa; ambos envolvem, em


princı́pio, N partı́culas. A energia livre de configuração, Ā, pode, então, ser obtida
através de
QN 1
Z
e−β Ā ≡ = d3 r1 . . . d3 rN e−βV , (7.3.2)
N! N!
onde QN é a integral de configuração definida pela Eq. (7.2.4).
152 CHAPTER 7. APPROXIMATION METHODS

Definamos, de maneira análoga, a contribuição do caroço duro, A0 , através de


(0)
Q 1
Z
−βA0
e ≡ N = d3 r1 . . . d3 rN e−βV0 , (7.3.3)
N! N!
de modo que a densidade de probabilidade de encontrarmos o sistema de caroço duro na
configuração (r1 , r2 , . . . rN ) é

e−βV0
ρN
0 (r1 , r2 , . . . rN ) ≡ (0)
. (7.3.4)
QN

Assim, a energia livre de configurações pode ser calculada como


Z
−β Ā −βA0 0
e =e d3 r1 . . . d3 rN ρ0 (r1 , . . . rN ) e−βV (7.3.5)
0
= e−βA0 he−βV i0 , (7.3.6)

onde h. . .i0 corresponde à média de configurações cuja distribuição é a de caroço duro.


Expandindo h. . .i0 , temos
0 1
he−βV i0 = h1 − βV 0 + (βV 0 )2 + · · · i0 = (7.3.7)
2
1
0
= 1 − βhV i0 + β 2 hV 0 2 i0 + · · · (7.3.8)
2
Tomando o logaritmo, temos, para a energia livre,
 
1 0 1 2 02
Ā = A0 − ln 1 − βhV i0 + β hV i0 ' (7.3.9)
β 2
β
' A0 + hV 0 i0 − [hV 0 2 i0 − hV 0 i20 ], (7.3.10)
2
que é conhecida como expansão em cumulantes.
Esta teoria de perturbação tem sido bastante bem sucedida no tratamento de fluidos
densos, desde que efeitos quânticos sejam desprezı́veis.

7.4 Monte Carlo Simulations


7.4.1 Introduction
Frequentemente métodos perturbativos não são convenientes para calcular funções de
partição e valores médios; por exemplo, a altas densidades, a escolha de um parâmetro
‘pequeno’ é, geralmente, arbitrária, o que compromete o controle das expansões. Uma
alternativa é fazer estes cálculos numericamente.
Considere, por exemplo, a integral de configuração, Eq. (7.2.4). O cálculo desta
integral usando métodos numéricos tradicionais de quadratura (tais como método do
trapézio ou regra de Simpson) é impraticável, a não ser para N pequeno. Para entender
7.4. MONTE CARLO SIMULATIONS 153

isto, suponha que cada um dos 3N ‘eixos coordenados’ seja particionado em 10 divisões
– o que, convenhamos, não é muito! –, de modo que o integrando deve ser calculado
em 103N pontos. Tomando N = 20 em um computador rápido – capaz de calcular o
integrando da ordem de 107 vezes por segundo – obterı́amos uma estimativa para QN
em 1053 s, que é da ordem de 1034 vezes a idade do Universo! Evidentemente, devemos
procurar outros métodos para calcular estas integrais.
O Método de Monte Carlo (MC) que discutiremos aqui é um dos modos mais efi-
cientes para calcular integrais multi-dimensionais, ou, principalmente, somas discretas
sobre configurações. O nome ‘Monte Carlo’ vem do caráter aleatório do método e sua
semelhança com o famoso cassino em Mônaco.
A idéia essencial não é calcular o integrando em cada um de um grande número de
pontos da quadratura, mas, ao contrário, apenas numa amostragem representativa das
abscissas. Veremos aqui como selecionar esta amostragem, e suas consequências.
In order to illustrate the power of MC simulations, we will focus on spin models,
since the interactions are usually short-ranged, and the number of states is finite and
discrete: 2N , since there are 2 states for each of the N spins (sites). To this end, in the
next section we discuss some aspects of the basic interaction between spins.

7.4.2 Exchange interaction


It is instructive to consider a system composed of spins-1/2 siting on the N sites of a
lattice. We may adopt the following simplifying assumptions:

(1) Each spin only interacts with its nearest neighbours. This can be justified since the
dominant coupling is due to the exchange interaction, which involves the overlap
between wave functions centred at the lattice sites, and they decay exponentially
with the distance. With i and j being nearest neighbour (nn) sites, this effective
exchange coupling usually takes the form2
(
−J/4, if Si + Sj add to a triplet state
Eij = −J Si · Sj = (7.4.1)
+3J/4, if Si + Sj add to a singlet state,

where Si and Sj are spin-1/2 operators, and J is the exchange constant. This
rotationally invariant coupling involving the three spin components is known as the
Heisenberg interaction. It should be noted that if J < 0 the ground state of these
two coupled spins is the singlet, Stotal = 0.

(2) The interaction only involves the z-component of the spin operator. While this in
fact occurs in crystals with strong uniaxial anisotropy, it may also be used as defining
the simplest non-trivial instance of an interacting system whose partition function
can be calculated exactly in one- (see Sec. 8.4) and two spatial dimensions. Equation
2
We set ~ = 1, which is equivalent to incorporating ~2 into J, which then acquires dimension of
energy.
154 CHAPTER 7. APPROXIMATION METHODS

(7.4.1) then simplifies to


(
−J/4, if Siz = Sjz , i.e., parallel, or ferromagnetic
Eij = −J Siz Sjz =
+J/4, if Siz = −Sjz , i.e., antiparallel, or antiferromagnetic,
(7.4.2)
This coupling involving just one spin component is known as the Ising interaction;
note that the energy is not invariant under an arbitrary rotation; it is only invariant
by a rotation of π on both spins around either the x or y directions, i.e., Siz → −Siz
and Sjz → −Sjz . Further, if J < 0 the ground state of these two coupled spins
corresponds to the antiferromagnetic alignment, ↑↓ or ↓↑.

Generalising these assumptions to a set of N spins-1/2 on a lattice, and including the


coupling to an external magnetic field, B = B ẑ, the Ising Hamiltonian can be written
as X X
H = −J σi σj − B σi , (7.4.3)
hi,ji i

where σi = ±1 are the eigenvalues of the Pauli spin operator σiz , and hiji stands for
nearest neighbour sites on a lattice. Also, we have incorporated all the physical constants
(such as those relating the magnetic moment to the spin, and the ~/2 relating Siz to σiz )
into J and B, both of which now acquire dimension of energy. A ferromagnetically
ordered state then corresponds to having σi = σ, ∀i .

7.4.3 The Basic Strategy


Since σi = ±1 on each site, the number of possible configurations of this system is
2N . In order to calculate the partition function and averages one would have to sum
the contributions from all these states, which is a formidable task for N  1.3 Let us
assume, for definiteness, we wish to calculate the thermodynamic average of a quantity
A, which depends on the spin configuration S ≡ |σ1 , σ2 , . . . , σN i;4 also, for convenience
we ascribe a label n = 1, 2, . . . , 2N to each configuration, Sn . We may then write,

2 N
X
hAi = w(Sn ) A(Sn ), (7.4.4)
n=1

where
1 −βH(Sn )
w(Sn ) =
e (7.4.5)
Z
is the Boltzmann weight for the spin configuration, with H(Sn ) being the energy eigen-
value for the configuration.
3
The available exact solutions to the two-dimensional case resort to very specialised mathematical
tools, and so far no exact solutions have been proposed in three dimensions.
4
Note that the use of a single site label in S ≡ {σ1 , σ2 , . . . , σN } implies, for simplicity, that the
lattice has been ‘rectified’: for instance, on a square lattice of L × L sites, the site coordinate (1, 1) → 1,
(1, 2) → 2, . . . , (1, L) → L, (2, 1) → L + 1, . . . , (L, L) → N = L2 .
7.4. MONTE CARLO SIMULATIONS 155

Given that the number of configurations is very large, one would like to sample over
a smaller set of configurations, M  2N . However, not all configurations are equally
probable, so we should sample through the most probable ones, for a given choice of
external parameters such as temperature and magnetic field. This importance sampling
is the basic Monte Carlo strategy. In order to implement this strategy, we imagine our
aim is to generate a sequence of configurations, S1 , S2 , S3 , . . . , SM .
Let us then assume for definiteness that S1 corresponds to a completely random
configuration, say S1 = | ↑, ↓, ↓, ↑, ↓, ↓, ↑, . . . , ↑i. Then we generate another configuration,
St (t stands for trial, or temporary), by, say flipping one spin (e.g., the first spin) relative
to S1 ,
St = | ↓, ↓, ↓, ↑, ↓, ↓, ↑, . . . , ↑i. (7.4.6)
One of the most widely used implementations of the importance sampling is the so-
called Metropolis algorithm, which proceeds as follows: one calculates the ratio between
the probabilities of occurrence of St and S1 , as given by the corresponding Boltzmann
factors,
w(St )
r= = e−β[H(St )−H(S1 )] . (7.4.7)
w(S1 )
Note that if St has an energy smaller than that of S1 , then r > 1, so the new configuration
is more probable than the previous one; St is therefore accepted as the second member of
the sequence, St → S2 . On the other hand, if r < 1 one cannot discard St outright, since
the system must be able to visit less probable configurations as a result of fluctuations,
especially if the difference in energies is small; therefore, if r < 1, St is accepted (St → S2 )
with probability r. One then tries to flip the second spin in S2 , to obtain a new St , from
which we calculate a new r, and so forth. When reaching the last site, one can return
to the first site, and continue attempting to flip spins. By the end of the process, a
sequence of M configurations will have been generated which, as shown in Sec. 7.4.4, is
distributed according to w(S).5

7.4.4 The Metropolis Algorithm


Suponha que se queira gerar um conjunto de pontos num espaço multi-dimensional de
variáveis X, distribuı́dos com uma densidade de probabilidade w(X). O algoritmo de
Metropolis gera uma sequência de pontos X0 , X1 , . . . que define um caminho aleatório
percorrido por um ‘andarilho’ (random walker) naquele espaço. À medida em que o
caminho fica mais longo, ele se aproxima da distribuição desejada.
As regras de geração deste caminho aleatório são as seguintes. Suponha que o andar-
ilho se encontre no ponto Xn da sequência. Para gerar Xn+1 ele tenta ir para um novo
ponto Xt (t significa temporário), que pode ser escolhido, por exemplo, uniformemente
ao acaso dentro de um hipercubo de lado δ (pequeno) centrado em Xn . Definindo a
razão
w(Xt )
r≡ , (7.4.8)
w(Xn )
5
On a first reading, one can simply accept this statement and skip straight to Sec. 7.4.5 without loss
of continuity.
156 CHAPTER 7. APPROXIMATION METHODS

este passo para Xt é aceito se r > 1; se r < 1 ele é aceito com probabilidade r.
Em aplicações numéricas esta última condição é reproduzida comparando-se r com um
número aleatório ζ distribuı́do uniformemente no intervalo [0,1]: o passo é aceito (re-
jeitado) se ζ < r (ζ > r). Assim Xn+1 = Xt se o passo foi aceito, ou Xn+1 = Xn , se o
passo foi rejeitado. Este procedimento é, então, repetido um número grande de vezes. É
importante frisar que a possibilidade do passo ser aceito, mesmo quando representa uma
configuração menos provável, simula o papel de flutuações térmicas, que torna acessı́veis
estados com energias livres diferentes de um mı́nimo global. Deve-se notar também que
qualquer ponto inicial, X0 , pode, em princı́pio, ser escolhido mas, como veremos abaixo,
uma escolha conveniente em geral acelera o processo de convergência.
Para mostrar que este algoritmo efetivamente gera uma sequência de pontos dis-
tribuı́dos de acordo com w, considere um grande número de andarilhos partindo de
diferentes pontos iniciais, e se movendo independentemente no espaço-X. Seja Nn (X) a
densidade de andarilhos no ponto X após n passos; o número resultante de andarilhos
que se movem de X para Y no próximo passo é
∆N (X) = Nn (X) P (X → Y) − Nn (Y) P (Y → X) = (7.4.9)
Nn (X) P (Y → X)
 
= Nn (Y) P (X → Y) − , (7.4.10)
Nn (Y) P (X → Y)
onde P (X → Y) é a probabilidade do andarilho transicionar para Y se ele estiver em
X. A condição de equilı́brio, correspondente a não haver alteração na população de X,
∆N (X) = 0, é
Neq (X) Nn (X) P (Y → X)
≡ = . (7.4.11)
Neq (Y) Nn (Y) P (X → Y)
Quando o sistema não está em equilı́brio, as mudanças em N (X) ocorrem no sen-
tido de levá-lo a esta condição. Por exemplo, se houver excesso de andarilhos em X,
Nn (X)/Nn (Y) é maior que o valor de equilı́brio, e ∆N (X) > 0; ou seja, há uma ‘fuga’
de X para Y. É, portanto, plausı́vel que, após um grande número de passos, a população
de andarilhos se estabilize no valor de equilı́brio Neq (X).
Por outro lado, a probabilidade de efetuar a transição de X para Y pode ser escrita
como
P (X → Y) = T (X → Y) A(X → Y), (7.4.12)
onde T é a probabilidade de dar um passo de X para Y e A a probabilidade do passo
ser aceito. Se X e Y estão separados por apenas um passo, então
T (X → Y) = T (Y → X), (7.4.13)
e a distribuição de equilı́brio para andarilhos de Metropolis satisfaz
Neq (X) A(Y → X)
= . (7.4.14)
Neq (Y) A(X → Y)
Se w(X) > w(Y), o passo de Y para X é aceito (A(Y → X) = 1) e
w(Y)
A(X → Y) = , (7.4.15)
w(X)
7.4. MONTE CARLO SIMULATIONS 157

de acordo com (6.4.15)(7.4.8); da mesma forma, se w(X) < w(Y), A(X → Y) = 1 e

w(X)
A(Y → X) = , (7.4.16)
w(Y)

Em qualquer caso, portanto, a população de equilı́brio satisfaz

Neq (X) w(X)


= , (7.4.17)
Neq (Y) w(Y)

mostrando que os andarilhos são, de fato, distribuı́dos de acordo com w(X).


Sabendo, então, que as tentativas de passo são feitas numa vizinhança de Xn , como
se deve escolher o tamanho do passo δ? Suponha que Xn esteja num máximo de w,
correspondendo ao valor mais provável. Se δ é grande w(Xt ) deve ser muito menor
que w(Xn ) e a maioria dos passos deve ser rejeitada, representando uma amostragem
ineficiente de w. Por outro lado, se δ é muito pequeno a maioria dos passos é aceita,
mas o andarilho nunca irá muito longe, o que também é um processo ineficiente. Logo,
o tamanho adequado do passo é quando aproximadamente a metade dos passos é aceita.

7.4.5 Thermalization and Averaging


Visto como o algoritmo de Metropolis leva o sistema ao equilı́brio, podemos discutir
agora o cálculo de médias no ensemble de X. Seja f (X) uma grandeza qualquer; sua
média é dada por R
dX w(X) f (X)
hf i = R , (7.4.18)
dX w(X)
onde admitimos que w(X) possa ser normalizada a posteriori. Claramente estas integrais
podem ser calculadas pela quadratura de Monte Carlo, mas queremos chamar a atenção
aqui de alguns detalhes técnicos.
Os pontos X0 , X1 , . . . não são independentes entre si devido, simplesmente, ao fato
de que eles foram gerados em vizinhanças sucessivas. Logo, os valores fi ≡ f (Xi )
não são variáveis aleatórias independentes, e o erro dado por (6.4.4) tem sua validade
questionada. Para verificar isto de modo quantitativo, calcula-se a função de auto-
correlação
hfi fi+k i − hfi i2
C(k) ≡ , (7.4.19)
hfi2 i − hfi i2
onde as médias são tomadas no caminho aleatório, isto é,
M
1 X
hfi i = f (Xi ) (7.4.20)
M
i=1

e
M −k
1 X
hfi fi+k i = f (Xi ) f (Xi+k ). (7.4.21)
M −k
i=1
158 CHAPTER 7. APPROXIMATION METHODS

Se as medidas não são independentes C(k) é diferente de zero (excluı́do, é claro, o


caso trivial k = 0). Na prática, o que se faz é calcular estas médias usando pontos do
caminho aleatório separados por um intervalo fixo; este intervalo é tomado de modo a
ter C(k) . 0.1.
Como mencionado anteriormente, o caminho aleatório pode partir de qualquer ponto
do espaço X. Após decorridos um certo número de passos o sistema ‘termaliza’, e perde
a memória de que ponto partiu. Claramente, as médias não devem ser consideradas até
que o sistema termalize.

7.4.6 An Example: The 2D Ising Model


Considere spins-1/2 fixos nos sı́tios de uma rede quadrada, de tamanho N = L × L.
Sob determinadas condições, as propriedades magnéticas deste sistema são descritas,
aproximadamente, pela Hamiltoniana de Ising,
X X
H = −J σi σj − B σi , (7.4.22)
hi,ji i

onde J é a constante de acoplamento, B é o campo magnético aplicado (em unidades


apropriadas), σi = ±1 e hiji corresponde a primeiros vizinhos. O estado ordenado
ferromagnético corresponde a ter todos os σi = σ, ∀i .
Este sistema tem 2N configurações, S, possı́veis, distribuı́das de acordo com o fator
de Boltzmann
1
w(S) = e−βH(S) (7.4.23)
Z
onde X
Z= e−βH(S) . (7.4.24)
S

As grandezas de interesse são a magnetização por sı́tio,

1 ∂ X 1
hM i = − [−kB T ln Z] = w(S)M = hMi, (7.4.25)
N ∂B N
S

onde X
M≡ σi , (7.4.26)
i

a suscetibilidade magnética,

∂M β 
χ= = hM2 i − hMi2 , (7.4.27)
∂B N
a energia interna
∂ X
E = hHi = − ln Z = w(S) H(S), (7.4.28)
∂β
S
7.4. MONTE CARLO SIMULATIONS 159

e a capacidade calorı́fica
( )
X
2 2 2
CB = kB β w(S) H (S) − E (7.4.29)
S

Para implementar o algoritmo de Metropolis, um passo de S para St poderia corre-


sponder a mudar todos os spins ao acaso; mas a nova configuração seria muito diferente
da anterior e, portanto, com alta taxa de rejeição. O passo pequeno, neste caso corre-
sponde a virar um spin de cada vez, varrendo sistematicamente toda a rede. O novo
passo é então aceito dependendo da razão
w(St )
r= = e−β[H(St )−H(S)] (7.4.30)
w(S)
como vimos anteriormente.
Como numa rede quadrada cada spin interage com apenas 4 outros, podemos escrever

r = e−2βσxy (Jf +B) , (7.4.31)

ao tentarmos virar o spin localizado no sı́tio de coordenadas (x, y), com

f = σx+1,y + σx−1,y + σx,y+1 + σx,y−1 . (7.4.32)

Logo, como σ = ±1, f só pode assumir 5 valores distintos, f = 0, ±2, ±4, dando
origem a apenas 10 valores distintos de r. Numa simulação longa é conveniente calcular
estes valores e armazená-los, evitando chamadas frequentes da função exponencial que
ralentariam a execução.
Now we present some results of MC simulations on a square lattice, extracted from
a review by Jacques Kotze,
https://arxiv.org/pdf/0803.0217.pdf
to which the reader is referred for technical details.
We start with the internal energy, as given by Eq. (7.4.28). The ground state cor-
responds to all spins being parallel, so the total ground energy can be easily seen to
be
1
E0 = − zN J = −2N J, (7.4.33)
2
since there are z = 4 neighbouring spins to each spin, and the factor 1/2 corrects for
double counting. The ground state energy per spin is therefore −2J. Figure 7.2 shows
the energy per spin for finite temperatures, which illustrates the importance of displaying
intensive quantities: data for different system sizes can be compared on the same scale,
thus highlighting the influence of the finiteness of the lattices. Indeed, the figure suggests
that the data for L = 8 and 16 appear to be closer to some convergence than those for
L = 2 and L = 4; as we will see below, this is only qualitatively apparent.
The specific heat, as calculated through Eq. (7.4.29), is shown in Fig. 7.3. Since
CH = (∂E/∂T )H , the figure reflects the increasing slope in E × T near Tc = 2.3 as the
system size increases: a pronounced peak evolves around this temperature.
This realization is only significant for the initial configuration and the problem is
avoided by the program in the future by using small temperature steps and the
configuration of the lattice at the previous temperature. A very small number
of mcs are thus required for the system to stabilize its configuration to the new
temperature.

2 Results
2 RESULTS 12
2.1 Energy Results
160 CHAPTER 7. APPROXIMATION METHODS
Energy per spin (E/N) vs Temperature (T) Specific Heat Capacity per spin (C/N) vs Temperature (T)
-0.4 1.6
L=2 L=2
L=4 L=4
-0.6 1.4 L=8
L=8

Heat Capacity per spin (C/N)


L=16 L=16
-0.8 1.2
Energy per spin (E/N)

-1 1

-1.2 0.8

-1.4 0.6

-1.6 0.4

-1.8 0.2

-2 0
0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Temperature (T) Temperature (T)

Figure 7: This plot shows the differing results of the Energy for varying lattice
Figure 8: This plot shows the differing results of Specific Heat Capacity for
sizes, LFigure
× L. 7.2: Average energy × temperature (in units varyingFigure 7.3: Specific
lattice sizes, L × L. heat × temperature (in units of
of J/kB ) for the Ising model on a square lattice. The J/kB ) for the Ising model on a square lattice. The
plots are
In Figure 7 thefor L × per
energy L lattices,
spin as awith L =of2,temperature
function 4, 8, and 16.
can beIn seen.
plots are
Figure 8 thefor L × heat
specific L lattices,
capacitywith L=
per spin is 2, 4, 8,asand
shown 16. of tem-
a function
The curve of the graph becomes more pronounced as the lattice sizeperature.increasesWe concluded previously that a divergence would occur at a phase
but there isn’t a marked difference between the L = 8 and L = 16 lattices. The
transition and thus should be looking for such a divergence on the graph. It is
steep gradient in the larger lattices points towards a possible phasehowever
transition
clear that there is no such divergence but merely a progressive steep-
In order
but isn’t clearly to acquire
illustrated. The energyaper physical intuition
spin for higher ofof what
temperatures
ening the peakisashappening,
is we calculate
the lattice size increases. The point the (ab-
at which the plot is
relatively high which is in keeping with our expectation 6 of having a random
solutewhile
value of the) peaked should be noted as a possible point of divergence. The reason for not
configuration it stabilizes to amagnetisation,
E/N = −2J = −2 at low temperatures.
explicitly finding a divergence will be discussed in Section 2.4.
This indicates that the spins are all aligned in parallel.
X
h|M |i = 2.2 w(S)|M|,
Magnetization Results (7.4.34)
SFigure 9 of the magnetization results shows very beautifully that the shape
of the gradient becomes more distinct as the lattice size is increased. Fur-
thermore, as opposed to Figure 7, there is a far more apparent difference that
and a modified susceptibility, the larger lattices produce in the curves and this illustrates a more apparent
continuous phase transition. The behaviour of the magnetization at high and
0 hMlow2 itemperature
− h|M |iare 2 as the theory prescribes (random to stable parallel aligned
χ ≡ configuration). , (7.4.35)
kBthis
At T juncture it is prudent to point out that the susceptibility cannot be
calculated using the ordinary technique in equation (20) given in the discussion
plotted in Figs. 7.4 and 7.5, respectively. on the calculation of observables. The reason is focused around a subtle fact
that has drastic implications. To comprehend the problem at work we have to
From a mental extrapolation of the consider
magnetisation data towards
one of the constraints → ∞,
of our model,Lnamely we nature
the finite see of our
lattice. This manifests in the fact that spontaneous magnetization can occur
that two physically distinct regimes become apparent: at low temperatures the system
for a finite sized lattice. In this instance the effect is of particular interest below
displays a finite magnetisation, while at high temperatures
the critical temperature. the magnetisation vanishes.
This can be illustrated by considering the following example of collected
Indeed, a careful extrapolation of the magnetisation
data in Figure 10. This datawould
data is taken also show that
at a temperature that is hM i
considerably
less
drops to zero continuously at Tc ≈ 2.3. nature than
Further, the Curie temperature and we
also close to Tc = 2.3thatthewould thus expect
(modified) a stable
it to have
and yet it clearly displays a fluctuation is uncharacteristic, resulting
susceptibility develops a pronounced peak; note that this is the same Tc as for the
specific heat. Therefore, a phase transition does indeed take place at Tc , separating
an ordered low-temperature phase from a disordered high-temperature phase. Further,
several quantities display a non-analytic behaviour at Tc , which will be explored in the
next chapter.
In conclusion, Monte Carlo simulations can indeed provide a deep insight into the
behaviour of interacting systems. But one should be warned that this is not a simple
brute force method: data mining and analyses require very careful considerations. In
particular, extrapolations from finite-sized systems to the thermodynamic limit are based
6
Due to large fluctuations on finite-sized lattices, regions of opposite magnetisations are formed so the
actual magnetisation is underestimated; therefore the absolute magnetisation is plotted here. Further,
since the magnetisation fluctuations are used in the calculation of the susceptibility, one calculates a
modified susceptibility, χ0 [Eq. (7.4.35)]. As discussed in Kotze’s review, h|M |i and χ0 approach hM i and
χ for sufficiently large lattices.
2 RESULTS 17

2 RESULTS 13
7.5. EXERCISES 161
Absolute Magnetisation per spin (<|M|>/N) vs Temperature (T) Magnetic Susceptability per spin (X/N) vs Temperature (T)
1 7
L=2 L=2

Magnetic Susceptability per spin (X/N)


0.9 L=4 L=4
Absolute Magnetisation (<|M|>/N)

L=8 6 L=8
0.8 L=16 L=16
0.7 5

0.6
4
0.5
3
0.4
0.3 2
0.2
1
0.1
0 0
0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Temperature (T) Temperature (T)

Figure 9: This plot shows the differing results of the MagnetizationFigure 14: This plot shows the differing results
for varying 0 of the susceptibility for varying
lattice Figure 7.4:
sizes, L × L. Absolute magnetisation × temperature lattice Figure 7.5:
sizes, L × L. ‘Susceptibility’ χ (see footnote) × tem-
(in units of J/kB ) for the Ising model on a square perature (in units of J/kB ) for the Ising model on a
lattice. The plots are for L × L lattices, with L = square lattice. The plots are for L × L lattices, with
in a complete flip of16.
2, 4, 8, and the magnetization. It has already been highlightedLthat
= 2, 4, 8, and 16.
because we are dealing with a limited lattice size there is finite probability for
this kind of behaviour to take place. This probability is directly proportional
to the number of mcs used and inversely proportional to the lattice size, this is
on thebycompetition
compounded the preiodic boundarybetween
conditionstwo
used.length scales, namely the linear size of the system, L,
Figure 11 schematically depicts this fact. The valley shown linking the two Magnetic Susceptability per spin (X/N) vs Temperature (T)
and the spatial range of correlations, ξ [25]. Proper
peaks of the probability will thus be dropped for lower temperatures and bigger 100 consideration of quantum effects in
L=2
MC simulations adds extra difficulties, starting mayfrom the fact that the density L=4 operator
Magnetic Susceptability per spin (X/N)

lattice configurations. It should be noted that even though the probability 90


L=8
be less it does always exist and this has to be accounted for in data collection or80 L=16
it mayis corrupt
the exponential of a the
the results. We expect Hamiltonian
configuration to beinvolving non-commuting terms.
relatively stable
70
at the peaks but if its magnetization has slipped down (fluctuated) to the center
of the valley then it has an equal probability of climbing up either side of the60
peaks, this is the crux of the spontaneous flipping. This aspect of symmetry50
7.5 Exercises
proves to also be the seed for a possible solution to this problem. 40
As an example of what has just been mentioned we note from Figure 10
where a fluctuation occurs just before 5000 mcs and the magnetization peaks30
1. Obtenha os termos de correção ao gás ideal, em ordem mais baixa na densidade, para
at 0 from −1. The configuration is now in the middle of the valley and happens20
to go back asto seguintes grandezas:
its previous state. energias
The same phenomenon livres
occurs de 5000
just after Helmholtz
10 e de Gibbs, entropia, energia
mcs but in this instance chooses to flip to an opposite, but equally probable, 0
interna e
magnetization, from -1 to 1.calor especı́fico a volume constante. 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
If we now were to think of the implications of this spontaneous flipping Temperature (T)
2. As
we come to themoléculas
realization thatdeit um
wouldgás
causeinteragem
an averaging out deofFigure
acordo
the mean com um potencial de dois corpos u(r).
15: This plot shows the differing results of the susceptibility for varying
magnetization, ⟨M ⟩. This of course has a detrimental effect on calculating the
variance ofObtenha as correções
the magnetization and thus the ao gás ideal para assizes,
susceptibility.
lattice energias
L × L. livres de Helmholtz e de Gibbs,
2
This can be illustrated in the Figure 12 where the plot shows that ⟨M ⟩
para a equação de estado, e para a entropia, a energia interna e os calores especı́ficos
remains zero for an extended period at low temperatures. This would cause
a volume
the variance to peak at elower
a pressão constantes,
temperatures. As the latticenos seguintes
size increases the casos:
spontaneous magnetization is less likely to occur and the critical point moves
progressively
(a)to higher temperatures, this implies that the peak for the suscepti-
u(r) = α/rn , n > 0;
(b) 
∞
 se r < a
u(r) = −u0 se a < r < b

0 se r > b,

onde α, u0 , a e b são constantes.


Discuta seus resultados!
3. Mostre que a equação de van der Waals dá origem à lei dos estados correspondentes,
 
3
p̄ + 2 (3V̄ − 1) = 8T̄ .

162 CHAPTER 7. APPROXIMATION METHODS

Determine p̄, V̄ , T̄ e interprete seus resultados. Explique o que são “estados corre-
spondentes”.

4. Mostre que a curva de pressão de vapor para um gás em equilibrio com um liquido é
dada aproximadamente [explicite suas aproximações] por:

p = p0 e−`/RT

com ` ≡ calor latente de vaporização (por mol); p0 = constante.

5. Calcule a integral
1
dx
Z
I= ,
0 1 + x2
usando simulações de Monte Carlo. Utilize os seguintes pesos: (a) w1 (x) = 1 e
(b) w2 (x) = (4 − 2x)/3. Faça uma tabela que contenha as estimativas de I e do
desvio padrão σI nos dois casos (a) e (b), para amostragens cada vez maiores. O
valor exato de I é 0.78540.
Chapter 8

Phase Transitions
Refs.: Landau & Lifshitz, Reichl e Stanley

8.1 Introduction
Neste Capı́tulo continuaremos estudando sistemas interagentes em equilı́brio, mas enfa-
tizando um aspecto muito importante, que são as transições de fase.
A matéria existe em muitas fases, que podem ser classificadas, por exemplo, em
função de sua estrutura – isto é, do grau de ordenamento atômico – como sólidas,
lı́quidas ou gasosas. Cada uma destas, por sua vez, admite sub-divisões; por exemplo,
um sólido pode sofrer transições de fase estruturais, passando de um arranjo tetragonal
para ortorrômbico. Superposto a isto, outras propriedades macroscópicas podem se
manifestar. Um sistema pode transicionar de paramagnético para ferromagnético, ou de
um metal normal para um supercondutor; 4 He e 3 He se tornam superfluidos a baixas
temperaturas. Novamente, é possı́vel subdividir muitas destas fases, ilustrando a riqueza
deste assunto.
Os exemplos acima sugerem que a noção de ordem desempenha um papel funda-
mental. Assim, as fases gasosa, lı́quida, paramagnética, metal normal e fluido nor-
mal são consideradas desordenadas, em contraposição, respectivamente, às fases lı́quida,
sólida, ferromagnética, supercondutora e superfluida, ditas ordenadas. Note que, em
alguns casos, a classificação em fases ordenada e desordenada é relativa: a fase lı́quida
é mais ordenada que a gasosa, porém mais desordenada que a sólida. Cada uma destas
transições de fase pode ocorrer pela mudança da temperatura e dos parâmetros externos
relevantes em cada caso, como a pressão ou campo magnético. Além destes, muitos
outros parâmetros, como a concentração de impurezas, anisotropias, etc., podem oca-
sionar mudanças de fase. Para fixar idéias, pensaremos, na maioria dos casos, que a
temperatura é o parâmetro que varia, mantendo os demais fixos. É bastante intuitivo
o fato de que quanto mais baixa fôr a temperatura, mais ordenado fica o sistema. Isto
porque as interações entre os constituintes do sistema determinam a natureza do estado
ordenado, que sempre é perturbado pela agitação térmica.
Deve-se notar que a fase ordenada é menos simétrica que a fase desordenada. Por
exemplo, na fase ferromagnética existe uma magnetização macroscópica privilegiando
uma direção espacial, enquanto que na fase paramagnética o sistema é isotrópico. Diz-

163
164 CHAPTER 8. PHASE TRANSITIONS

se, portanto, que uma transição de fase vem acompanhada de uma quebra espontânea de
simetria.
Apesar de muitos sistemas sofrerem diferentes transições de fase, verificou-se experi-
mentalmente ao longo dos anos que diversas grandezas macroscópicas – como as funções-
resposta – apresentavam essencialmente os mesmos comportamentos singulares perto da
transição de fase. Por exemplo, o calor especı́fico perto da transição superfluida em 4 He
é quantitativamente semelhante ao de alguns sistemas magnéticos. (Isto será colocado
de modo mais preciso no decorrer deste Capı́tulo). Este aspecto de universalidade em
transições de fase só foi compreendido em toda sua profundidade com as idéias de scaling
desenvolvidas a partir de 1965 por Widom, Kadanoff, Wilson e Fisher.
Para chegarmos a estas idéias, discutiremos na Seção 8.2 a termodinâmica de tran-
sições de fase. Na Seção 8.3 apresentaremos três versões de teorias de campo médio: de
van der Waals, de Weiss e de Landau. Como ilustração das limitações de teorias deste
tipo, a solução exata do modelo de Ising em uma dimensão será apresentada na Seção
8.4 e confrontada com as previsões da teoria de Weiss na Seção 8.5, que faz então uma
crı́tica às assim chamadas teorias de um corpo (one-body physics). Uma introdução às
teorias de escala (scaling) é feita na Seção 8.6, e o Grupo de Renormalização é discutido
nas Seções 8.7 a 8.9.

8.2 Thermodynamics of Phase Transitions


Nesta seção faremos uma descrição puramente termodinâmica, isto é, apenas em termos
de variáveis macroscópicas, deixando a descrição microscópica para as seções seguintes.

8.2.1 Phase Coexistence: Gibbs Phase Rule


O primeiro passo para compreender as mudanças de fase que ocorrem em um sistema é
mapear um diagrama de fases. A Fig. 8.1 mostra um diagrama de fases tı́pico para um
fluido – também chamado de sistema P V T ; as fases sólida (S), lı́quida (L) e gasosa (G)
ocorrem nas regiões assinaladas. Isto significa que se calculássemos a energia livre de
Gibbs admitindo o sistema em cada uma destas fases, GS , GL e GG , elas corresponderiam
a mı́nimos nas regiões S, L e G, respectivamente.
A Figura 8.1 mostra também diversas regiões onde ocorre coexistência de duas fases;
o termo vapor (V) é usado para descrever a fase gasosa quando esta coexiste com a fase
lı́quida ou sólida. Note que as três fases V, L e S coexistem na linha tripla, a qual,
quando projetada num diagrama P T , colapsa em um único ponto, o chamado ponto
triplo; ao projetar, o volume fica indeterminado. Logo, para um dado conjunto das
variáveis independentes, duas ou mais fases podem coexistir. A chamada regra de fases
de Gibbs fornece o número de fases que coexistem, baseada nas condições de equilı́brio.
Para um sistema P V T puro – isto é, composto de apenas um tipo de partı́culas – se
duas fases I e II coexistem, elas estão em equilı́brio térmico (TI = TII = T ), mecânico
(PI = PII = P ) e quı́mico:
µI (P, T ) = µII (P, T ). (8.2.1)
Line abcdef in Fig. 18.26 represents constant-pressure heating, with melting
along bc and vaporization along de. Note the volume changes that occur as T
increases along this line. Line ghjklm corresponds to an isothermal (constant tem-
perature) compression, with liquefaction along hj and solidification along kl.
Between these, segments gh and jk represent isothermal compression with
increase in pressure; the pressure increases are much greater in the liquid region
8.2. THERMODYNAMICS OF PHASE TRANSITIONS 165

-surface for a substance p


melting. Projections of the
he surface onto the pT- and m Solid
Solid-Liquid
so shown. p

Critical Liquid
point
Solid f
uid

T Critical
Liq

m point
Vapor q
l Li
P
k
O vapquid
Liquid So or Gas
a g R lid
E Solid -Va
Critical po

Solid-Liquid
S f r
O S d point
U L
b c i
R va quid e
E a j por
Tri Ga V
ple h s
p line Va
So po
lid r
-Va g
po T4
r o
VO
LU n T3Tc
M T2 RE
E T1 A TU
R
PE
E M
T

Figure 8.1: Diagrama de fases tı́pico para um fluido puro, expresso em termos da pressão, P , do volume, V , e da
temperatura, T . As fases sólida, lı́quida e gasosa estão assinaladas, bem como as regiões de coexistência de cada
par destas fases. Note a presença de um ponto crı́tico e de uma linha tripla, na qual as três fases coexistem em
equilı́brio. Estão também assinaladas as projeções do diagrama nos planos P T (esquerda) e P V (direita). (Figure
taken from Ref. [26].)

A Eq. (8.2.1) pode ser resolvida para P , fornecendo a curva de coexistência num diagrama
PT,
P = Pcoex. (T ). (8.2.2)
Se o sistema puro tem 3 fases, então

µI (P, T ) = µII (P, T ) = µIII (P, T ), (8.2.3)

e a coexistência entre elas só é possı́vel em apenas um ponto: o ponto triplo (o ponto
de interseção entre as duas curvas no diagrama projetado PT da Fig. 8.1). Para uma
mistura de ` tipos diferentes de partı́culas, há ` + 1 variáveis independentes para cada
fase, a saber, (P, T, x1 , . . . , x`−1 ), onde xi é a fração molar de partı́culas do tipo i. Uma
argumentação análoga à anterior pode ser usada para mostrar que, neste caso, ` + 2 fases
diferentes podem coexistir para T e P dados.

8.2.2 Classification of Phase Transitions


Considerando ainda um sistema P V T puro, a discussão acima não impõe quaisquer
restrições às derivadas de G com relação a T e a P . Na realidade, os comportamentos
destas derivadas são usados para classificar as transições de fase. Se S ≡ −(∂G/∂T )P,N
166 CHAPTER 8. PHASE TRANSITIONS

Figure 8.3: Comportamento


Figure 8.2: Comportamento tı́pico da energia livre de Gibbs e de suas
tı́pico da energia livre de
derivadas numa transição de primeira ordem.
Gibbs e de suas derivadas
numa transição de segunda
ordem.

ou V ≡ (∂G/∂P )T,N são descontı́nuas no ponto de transição, esta é dita de primeira


ordem. Já se S e V são contı́nuas na transição, mas suas derivadas de ordem mais alta
são descontı́nuas, a transição é chamada de contı́nua (ou de na. ordem).
A Fig. 8.2 mostra a energia livre de Gibbs, G, e suas derivadas para um sistema P V T ,
perto de uma transição de primeira ordem, isto é, perto de um ponto de coexistência de
fases. Note que, de acordo com a discussão da Sec. 3.5.3, G é uma função côncava de T e
de P . A descontinuidade em (∂G/∂P )T implica no volume ser diferente nas duas fases,
   
∂GII ∂GI
∆V = VII − VI = − ; (8.2.4)
∂P T ∂P T

analogamente, a descontinuidade em (∂G/∂T )P implica na entropia ser diferente nas


duas fases,     
∂GII ∂GI
∆S = SII − SI = − − . (8.2.5)
∂T V ∂T V
As descontinuidades se manifestam, respectivamente, no comportamento singular da
compressibilidade e na presença de calor latente. Este último é definido como a diferença
de entalpia nas duas fases,

∆H = ∆(G + T S) = T ∆S = HII − HI , (8.2.6)

onde a segunda igualdade decorre do fato da energia livre de Gibbs e a temperatura


serem as mesmas na transição.
8.2. THERMODYNAMICS OF PHASE TRANSITIONS 167

Mais ainda, as descontinuidades definem a forma da curva de coexistência. Como a


energia livre de Gibbs deve ser a mesma em fases coexistentes, se nos movermos para
um outro ponto ao longo da curva de coexistência, variando P e T , as energias livres
das duas fases devem variar igualmente, isto é,

dGI = dGII ⇒ VI dP − SI dT = VII dP − SII dT. (8.2.7)

Logo,  
dP ∆S ∆H
= = , (8.2.8)
dT coex ∆V T ∆V
que é a conhecida equação de Clausius-Clapeyron, onde
 ∆H
 é o calor
 absorvido para ir
∂GI ∂GII
da fase I para a fase II. Da Fig. 8.2(d) , vemos que ∂T > ∂T , de modo que

SI < SII ⇒ ∆S ≡ SII − SI > 0 ⇒ ∆H > 0, (8.2.9)

e o sistema absorve calor para ir da fase de baixa temperatura para a fase de alta
temperatura.
A Fig. 8.3(a) mostra a energia livre de Gibbs como função da temperatura na vizi-
nhança de uma transição de segunda ordem. Mesmo sendo contı́nua na transição, isto
é,    
∂G ∂G
SI = − = SII = − , (8.2.10)
∂T I ∂T II
sua derivada com relação à temperatura muda rapidamente, dando origem a um pico
acentuado no calor especı́fico [Fig. 8.3(b) e (c)]. Neste caso não há calor latente.
A situação é análoga para as derivadas com relação à pressão. O volume não é
descontı́nuo,    
∂G ∂G
VI = = VII = , (8.2.11)
∂P I ∂P II
mas a compressibilidade diverge em Tc , sinalizando a transição de fase.
Na próxima sub-seção analisaremos sistemas fluidos com mais detalhes.

8.2.3 Pure Fluid Systems


Quando um fluido (ou sistema P V T ) é composto de um único tipo de moléculas dizemos
que ele é puro. Como já vimos, sistemas deste tipo se apresentam em diversas fases –
sólida, lı́quida e gasosa – como resultado das interações entre as moléculas. As Figs. 8.4
e 8.5 mostram, respectivamente, as projeções do diagrama de fases nos planos P T e P V ,
como indicadas na Fig. 8.1.
O ponto C é um ponto crı́tico, onde termina a curva de pressão de vapor. A presença
de um ponto crı́tico indica que, escolhendo um caminho conveniente, pode-se mudar
continuamente lı́quido em gás (e vice-versa) sem passar por uma transição de fase; isto
é, o gás muito denso fica indistinguı́vel do lı́quido. O mesmo não ocorre na curva de
fusão, indicando que as diferenças entre sólido (S) e lı́quido (L) são muito maiores do que
entre lı́quidos e gases (G). Ao contrário destes, sólidos exibem ordenamento espacial.
168 CHAPTER 8. PHASE TRANSITIONS

Figure 8.4: Curvas de coexistência para um sistema


P V T tı́pico. A é o ponto triplo e C é o ponto crı́tico. Figure 8.5: Regiões de coexistência para um sis-
A curva tracejada é um exemplo de curva de fusão tema P V T tı́pico. As transições são todas de
com coeficiente angular negativo. primeira ordem. As linhas tracejadas representam
isotermas.

Figure 8.6: Critical opalescence. A laser beam shining through a test tube becomes more and more scattered and
the fluid becomes more and more opaque, as the critical point is approached from higher temperatures. From
https://inspirehep.net/record/838172/plots. Or from clique aqui

As transições G-L, L-S e G-S são todas de 1a. ordem, e são acompanhadas de calor
latente e mudança de volume. A Fig. 8.5 mostra o diagrama de fases no plano P -V .
Note que os coeficientes angulares das isotermas (linhas tracejadas) são negativos, de
acordo com a condição de estabilidade KT > 0 [c.f. Eq. (3.5.11)]. As linhas cheias
delimitam regiões de coexistência de fases, nas quais as isotermas são sempre horizontais
(KT = ∞) indicando que há mudança de volume para P e T constantes. A divergência
na compressibilidade está associada a flutuações de densidade, fazendo com que luz
visı́vel sofra um forte espalhamento ao passar por um fluido na temperatura crı́tica da
transição G-L; este fenômeno é conhecido como opalescência crı́tica (veja a Figura 8.6
e Stanley, Seções 1.1, 7.2 e 7.3).
Analisemos agora a transição lı́quido-gás com mais detalhes. Ao contrário das dis-
cussões anteriores, usaremos a densidade ρ que, por ser intensiva, é mais apropriada
do que o volume V ∼ ρ−1 . Note, primeiramente, que lı́quido e gás são indistinguı́veis
no ponto crı́tico, caracterizado por Tc e pela densidade crı́tica, ρc . Podemos expressar
este fato dizendo que as respectivas densidades se igualam neste ponto: ρL = ρG = ρc .
Como os valores de Tc e de ρc dependem da substância em estudo, é mais conveniente
introduzirmos as grandezas reduzidas T /Tc e ρ/ρc , que medem a distância do ponto
8.2. THERMODYNAMICS OF PHASE TRANSITIONS 169

Figure 8.7: Curva experimental de coexistência lı́quido-vapor para diferentes substâncias.

crı́tico para cada substância. A Fig. 8.7 mostra os resultados experimentais das curvas
de coexistência obtidos por E. A. Guggenheim (J. Chem. Phys. 13, 253 (1945)) para
diversas substâncias; veja também a Tabela 3.5 do livro do Stanley para os valores dos
parâmetros crı́ticos. Os dados colapsam em uma única curva, satisfazendo a lei dos
estados correspondentes, segundo a qual todos os fluidos clássicos puros satisfazem a
mesma equação de estado, quando expressa em termos de quantidades reduzidas. Em
particular, temos
T β
 
7
ρL − ρG = ρc 1 − , (8.2.12)
2 Tc
onde
β = 1/3 (8.2.13)
é um expoente crı́tico; outros destes expoentes serão introduzidos ao longo da Seção 8.3.
Eles desempenham um papel fundamental no estudo de transições de fase, pois definem
as chamadas classes de universalidade: as transições de fase podem ser agrupadas de
acordo com os valores destes expoentes. A diferença ∆ρ ≡ ρL −ρG , por ser nula acima da
transição e crescer até um valor de saturação à medida em que a temperatura diminui, é
chamada de parâmetro de ordem da transição. Como ∆ρ cresce continuamente de zero,
a transição no ponto C é de segunda ordem.
Outras grandezas, como, por exemplo, o calor especı́fico a volume constante dentro
da região de coexistência, podem ser obtidas através da equação de Clausius-Clapeyron;
170 CHAPTER 8. PHASE TRANSITIONS

Figure 8.8: Projeções do diagrama de fases para um sistema magnético nos planos H-T (a), H-M (b), e M -T . A
seta tracejada em (a) representa o caminho termodinâmico que leva continuamente uma fase na outra.

veja Reichl, seção 4.D.3. A descontinuidade da entropia na transição se manifesta pelo


calor especı́fico a pressão constante ser infinito na região de coexistência.
Vejamos agora como a discussão sobre fluidos é modificada no caso magnético.

8.2.4 Magnetic Systems


Como vimos anteriormente, a analogia entre fluidos e magnetos é feita a partir da
seguinte associação:
− P → H V → M T → T. (8.2.14)
A Fig. 8.8 mostra o análogo das Figs. 8.4, 8.5, e 8.7 para um magneto simples. As
fases que coexistem correspondem a spins ‘para cima’ e ‘para baixo’ (com relação a uma
certa direção espacial), que são estabilizadas pelo campo H. Ou seja, imaginando-se
uma experiência em que o sistema seja resfriado a campo nulo, ele sofrerá uma transição
em Tc , mas não haverá uma magnetização resultante. Isto porque diferentes regiões
macroscópicas (porém ainda muito menores que o tamanho da amostra) terão magne-
tizações em diferentes sentidos que se cancelam em média. Na Fig. 8.8 (c), a curva da
magnetização com H = 0 só será realizada experimentalmente se o resfriamento fôr feito
em presença de um campo infinitesimal; isto é, a rigor devemos ter H = 0± . Note
também que as transições para a fase sólida, no caso do fluido, não têm correspondente
nos casos magnéticos mais simples.
Sob o ponto de vista microscópico, os sistemas magnéticos são muito mais simples
de serem estudados, já que, em geral, parte-se de uma Hamiltoniana com interações de
curto alcance. As Hamiltonianas magnéticas mais representativas são as seguintes:
X
Ising: H = −J Siz Sjz (8.2.15)
hi,ji

(Six Sjx + Siy Sjy )


X
XY: H = −J (8.2.16)
hi,ji
X
Heisenberg: H = −J Si · Sj (8.2.17)
hi,ji
8.2. THERMODYNAMICS OF PHASE TRANSITIONS 171

onde os J representam as integrais de exchange, hiji indica que as somas são sobre sı́tios
primeiros vizinhos em uma rede d-dimensional, e os S são os operadores usuais de spin-S.
Se J > 0, o estado fundamental dos modelos acima é ferromagnético, correspondendo a
spins alinhados paralelamente entre si.
Deve-se notar aqui que o modelo de Ising é invariante por uma rotação de π em
todos os spins; isto é, através da transformação discreta Siz ↔ −Siz , ∀i, a Hamiltoniana
não se altera. Já os modelos de Heisenberg e XY, por conterem produtos escalares, são
invariantes por rotações contı́nuas, ou por qualquer ângulo. Como veremos no decorrer
do capı́tulo, esta diferença se manifesta em diversas propriedades dos modelos.
A partir de uma Hamiltoniana microscópica, diversas aproximações podem ser feitas
de modo sistemático. No caso de fluidos, as interações são mais difı́ceis de serem incor-
poradas, o que explica o fato dos avanços conseguidos no estudo de transições de fase
nos últimos anos ter sido baseado, em grande parte, em sistemas magnéticos.

8.2.5 Percolation
Let us now discuss a purely geometrical problem: consider a d-dimensional (d > 1)
lattice of linear size L, in which only a fraction, p, of the sites are randomly occupied;
that is, p = Nocc /Ntotal , where Nocc is the number of occupied sites, and Ntotal is the
total number of sites. If p  1, there is no way the lattice can be spanned from one
edge to another1 by a path made up of occupied nearest-neighbour sites. In the opposite
limit, p ≈ 1, one can certainly go from one edge to another, and one says the occupied
sites percolate.2 Therefore, there must exist a critical concentration, pc , separating two
regimes: one, for p < pc , in which an arbitrary number of finite clusters of nearest
neighbour occupied sites are formed; and another, for p > pc , in which there is at least
one ‘infinite cluster’, by which one means a cluster of typical size ∼ L  a, where a
is the nearest-neighbour distance. Figure 8.9 illustrates these two regimes on a square
lattice.
We can then devise several cluster properties which bear the signature of pc . One
important quantity is P (p), the probability that an occupied site belongs to the infinite
spanning cluster [27]: it is zero for p < pc , since there is no spanning cluster, and it grows
from 0 to 1, as p grows from pc to 1; see Fig. 8.10. The similarity with the temperature
behaviour of both the magnetisation in magnetic systems, and the density difference in
the case of fluids should be evident: P (p) therefore plays the role of an order parameter
for this phase transition. The lack of a discontinuity in P (p) indicates that the transition
is of second order, or continuous.
In order to complete the analogy with thermal phase transitions, we may introduce
in percolation problems the analogue of the magnetic field and of the pressure. Imagine
a ‘ghost site’, lying outside the lattice, so that each lattice site has a probability h of
being connected to it, and 1 − h of not being connected to it; see Fig. 8.11. Then, if
1
This applies to a lattice with free boundaries; for a lattice with periodic boundary conditions, this
is understood as the completion of one ‘turn’ around the lattice.
2
When water is poured onto a heap of ground coffee it wets the grains in such way that holes of
dried regions are hardly formed; the liquid thus obtained is percolated coffee.
172 CHAPTER 8. PHASE TRANSITIONS

Figure 8.9: Site percolation. Computer-generated square lattice with 60 × 50 sites, for two different concentrations
of occupied sites (denoted by ∗; unoccupied sites are not shown): p = 0.5 on the left panel, and p = 0.6 on the right
panel. Some clusters of occupied sites are highlighted by lines joining nearest-neighbour sites. The percolation
threshold is pc = 0.5928, and we see that for p < pc the two largest clusters are highlighted, none of which spans
the whole lattice. By contrast, for p > pc a single cluster (the highlighted one) spans the whole lattice. (Figures
taken from Ref. [27].)

Figure 8.10: Schematic plot of P (p), the probability Figure 8.11: The ‘ghost-site’ is a site outside the lat-
that a site taken at random belongs to the percolating tice, which has a probability h of being connected to
cluster. P (p) plays the role of an order parameter for a given site.
the percolation phase transition.

h 6= 0, the connectivity of the lattice is enhanced since even sites far apart from each
other may become connected; for h ≈ 1 all occupied sites are connected, thus forming
a spanning cluster. This is similar to the effect a magnetic field has on an interacting
spin system: it helps to order the spins. By the same token, applying pressure to a gas
brings the molecules together, favouring the formation of a liquid state. The analogy
between fluids, magnets and percolation can then be read as

− P → H → h, V → M → P, T → T → (1 − p). (8.2.18)

Instead of sites randomly occupying a lattice, one may think of a concentration p


of bonds being randomly attached to nearest-neighbour sites (all of which are assumed
occupied): this is now the bond-percolation problem, to distinguish from the previous
site-percolation problem; the above analogy with fluids and magnets is preserved. Fur-
ther, if these bonds are resistors one may then study the conductance of this random
8.3. MEAN-FIELD THEORIES 173

resistor network as a function of p; see, e.g. Ref. [27]. One may also consider the situation
in which each site is occupied either by a magnetic atom (that is, an atom with a total
angular momentum S 6= 0) or by a non-magnetic atom (S = 0). In this situation, if all
neighbouring magnetic atoms are exchange-coupled, the percolating cluster for p > pc
will be magnetically ordered at temperatures T ≤ Tc (p), such that Tc (1) is the critical
temperature for the clean magnetic system; for reviews, see, e.g. Refs. [28, 29].

8.3 Mean-Field Theories


Nesta seção veremos uma classe de teorias (ou aproximações) bastante simples, utilizadas
para descrever transições de fase. Apesar de aparentemente diferentes, todas têm em
comum o fato de não tratarem as flutuações de modo adequado; as conseqüências deste
fato serão discutidas na Seção 8.5.

8.3.1 The van der Waals equation


Na Sub-seção 7.2.3, a equação de van der Waals foi deduzida no contexto da expansão do
virial. Alternativamente, ela pode ser obtida da seguinte maneira (veja, p.ex., F. Reif,
Fundamentals of Statistical and Thermal Physics). Suponha que, ao invés de tratar a
interação entre pares de partı́culas, cada uma se movimente independentemente em um
potencial efetivo devido a todas as outras:
(
∞ se r < 2r0
U (r) = (8.3.1)
Ū se r ≥ 2r0 ,

onde Ū < 0 é uma grandeza a ser determinada; deve-se notar que, neste caso, trata-
se de um potencial de alcance infinito. Para estimar Ū notemos, primeiramente, que a
energia potencial total do sistema é N Ū , resultante da interação entre 21 N (N −1) ' 21 N 2
pares, cada um dos quais contribuindo com ū0 . Esta pode ser tomada como uma média
(esférica) da parte atrativa do potencial intermolecular, u(r), sobre o volume do sistema,

1 R 2a
Z
ū0 = 4πr2 dr u(r) ≡ − , (8.3.2)
V 2r0 V

o que define a constante a, e onde supusemos que u(r) decaia a zero rapidamente quando
r → R ∼ V 1/3 . Dado que N Ū = (1/2)N 2 ū0 , devemos ter, portanto,
1 N
Ū = N ū0 = −a , (8.3.3)
2 V
mostrando que Ū é intensiva.
A função de partição fica, então,

1 V − V0 βaN/V N
 
1 N
ZN = Z = e , (8.3.4)
N! 1 N! Λ3
174 CHAPTER 8. PHASE TRANSITIONS

Figure 8.13: Energia livre molar como função da


pressão para a isoterma com T < Tc . Os pontos
Figure 8.12: Isoterma tı́pica do gás de van der
assinalados aqui coincidem com os da Fig. 8.12.
Waals. O trecho DF corresponde a estados mecani-
camente instáveis. A área sob a curva ṽ(P ), entre
dois pontos quaisquer, é igual à diferença entre as
energias livres molares nos respectivos pontos.

onde V0 é o volume excluı́do, por molécula, devido ao carôço duro. Como o volume
excluı́do por par é 43 π(2r0 )3 ≡ 2b [veja Eq. (7.2.47)], devemos ter

V0 = bN. (8.3.5)

Finalmente, a pressão é calculada da maneira usual, recuperando a equação de van


der Waals,
N 2a
 
P + 2 (V − N b) = N kB T. (8.3.6)
V
Introduzindo o número de moles ν ≡ N/NA , onde NA é o número de Avogadro, e a
constante dos gases R = kB NA , a Eq. (8.3.6) pode ser reescrita, em termos do volume
molar ṽ ≡ V /ν, como  a
P + 2 (ṽ − b) = RT, (8.3.7)

ou, ainda, como uma equação cúbica em ṽ,
 
3 RT a ab
ṽ − b + ṽ 2 + ṽ − = 0. (8.3.8)
P P P
A Fig. 8.12 mostra uma isoterma obtida a partir da equação de van der Waals; veja
também a Fig. 8.5. A temperaturas suficientemente baixas, a equação cúbica admite
três soluções reais para ṽ. À medida em que T cresce, estas três soluções se aproximam
até coincidirem em Tc . Para T > Tc existe apenas uma raiz real que, para T → ∞,
corresponde à solução do gás ideal.
Um aspecto insatisfatório da equação de van der Waals é a previsão de um coefi-
ciente angular, (∂P/∂ṽ)T , positivo no trecho DF da Fig. 8.12, pois isto implica em uma
8.3. MEAN-FIELD THEORIES 175

compressibilidade negativa. De acordo com a discussão da Seção 3.5, os estados corres-


pondentes são termodinâmicamente instáveis por corresponderem a uma energia livre
de Gibbs convexa. Esta região não-fı́sica pode ser removida pela chamada construção de
Maxwell. Para isto, lembremos que, numa isoterma, a variação na energia livre molar
de um sistema quimicamente isolado é dada por

dg̃ = ṽ dP, (8.3.9)

de modo que a diferença em energias livres de dois pontos quaisquer 1 e 2 é dada pela
área da curva ṽ(P ) entre eles, ou
Z P2
g̃2 − g̃1 = ṽ(P ) dP. (8.3.10)
P1

Com isto, a energia livre molar ao longo do trecho AI da Fig. 8.12 é apresentada
na Fig. 8.13. Entre D e F os estados são instáveis porque a energia livre aparece como
uma função convexa de P e não é mı́nima; nos outros trechos a concavidade garante a
estabilidade. Todavia, para garantir que a evolução de A até I na Fig. 8.12 se faça por
estados de energia livre mı́nima, devemos descartar os estados que vão de C a G. Isto
é feito impondo que a energia livre permaneça constante entre C e G, o que equivale a
traçar uma reta vertical na Fig. 8.12 unindo C a G. Assim, a variação de energia livre
entre estes dois pontos é nula, de modo que
Z PG
0= dP ṽ(P ) =
PC
ZPD Z PE Z PF Z PG
= dP ṽ(P ) + dP ṽ(P ) + dP ṽ(P ) + dP ṽ(P ), (8.3.11)
PC PD PE PF

ou, rearranjando os limites de integração,


Z PD Z PD Z PE Z PG
dP ṽ(P ) − dP ṽ(P ) = dP ṽ(P ) − dP ṽ(P ). (8.3.12)
PC PE PF PF

Cada lado da equação corresponde a uma das áreas hachuradas na Fig. 8.12, indicando
que a reta vertical é traçada de modo a fazer com que aquelas áreas sejam iguais.
Os estados descartados, para os quais a energia livre ainda é côncava, são ditos
metaestáveis. Note que o trecho vertical corresponde a uma compressibilidade infinita,
o que está de acordo com o comportamento na região de coexistência. A construção
de Maxwell é utilizada em outros contextos, quando alguma aproximação dá origem a
energias livres com convexidade insatisfatória.
Examinemos agora o comportamento da equação de van der Waals perto do ponto
crı́tico, o qual é localizado como sendo o ponto onde o coeficiente angular da isoterma
crı́tica é infinito, e por ser também um ponto de inflexão. Ou seja,
   2 
∂P ∂ P
=0 e = 0. (8.3.13)
∂ṽ Tc ∂ṽ 2 Tc
176 CHAPTER 8. PHASE TRANSITIONS

CV / NkB

3/2

T
Figure 8.14: Calor especı́fico a volume constante como função da temperatura (esquemático), conforme previsão
da teoria de van der Waals. Note que, para T > Tc , o calor especı́fico é igual ao do gás ideal.

Assim,
a 8a
Pc =2
, ṽc = 3b e Tc = . (8.3.14)
27b 27bR
Introduzindo as variáveis P̄ ≡ P/Pc , T̄ ≡ T /Tc e V̄ ≡ ṽ/ṽc , a equação de van der Waals
satisfaz uma lei de estados correspondentes,
 
3
P̄ + 2 (3V̄ − 1) = 8T̄ (8.3.15)

cujo significado fı́sico foi discutido em detalhes na Sub-seção 8.2.3.
Na vizinhança do ponto crı́tico de segunda ordem, diversas grandezas apresentam
comportamentos singulares, caracterizados pelos chamados expoentes crı́ticos. Por e-
xemplo, introduzindo as notações ∆ρ ≡ ρL −ρG , de acordo com a discussão da Sub-seção
8.2.3, e ε ≡ (T /Tc ) − 1, temos
∆ρ ∼ (−ε)β . (8.3.16)
A partir da equação de van der Waals, obtém-se (veja o Exercı́cio 2) β = 1/2, que é
diferente do resultado experimental, β ' 1/3, para fluidos reais.
A compressibilidade isotérmica, na vizinhança do ponto crı́tico é dada por
( 0
(−ε)−γ , se T < Tc
KT ∼ (8.3.17)
ε−γ , se T > Tc ,

com γ = γ 0 = 1 pela teoria de van der Waals, enquanto que experimentalmente tem-se
γ ' γ 0 ∼ 1.2.
Experimentalmente, o calor especı́fico também apresenta um comportamento singu-
lar, ( 0
(−ε)−α se T < Tc
CV ∼ (8.3.18)
ε−α se T > Tc ,
8.3. MEAN-FIELD THEORIES 177

com α ' α0 ∼ 0.1 − 0.3. No entanto, a teoria de van der Waals fornece uma descon-
tinuidade (Fig. 8.14), e não uma divergência. Em termos de expoentes, a descontinuidade
é representada por α0 = α = 0(desc.). O comportamento do calor especı́fico a pressão
constante é semelhante ao da compressibilidade.
O expoente δ descreve a variação da pressão com a densidade ao longo da isoterma
crı́tica:
δ
P − Pc ρ
∼± −1 , (8.3.19)
Pc ρc
onde o sinal ± indica ρ maior ou menor que ρc . Pela equação de van der Waals, δ = 3,
enquanto que, experimentalmente, δ ∼ 4.
Podemos definir outros expoentes associados à função de correlação densidade-densi-
dade, Γ(r). Como a discussão é muito extensa (veja Stanley, Cap. 7), só mencionaremos
aqui que, perto de Tc , as correlações decaem exponencialmente com a distância,

Γ(r) ≡ hn(r)n(r0 )i − hn(r)ihn(r0 )i ∼ e−r/ξ(T ) , (8.3.20)

onde n(r) é a densidade no ponto r. O alcance de Γ define um comprimento caracterı́stico


ξ(T ), tal que
( 0
(−ε)−ν se T < Tc
ξ∼ (8.3.21)
εν se T > Tc .

Exatamente no ponto crı́tico, as correlações decaem algebricamente com a distância,

1
Γ(r) ∼ , (8.3.22)
rd−2+η

definindo o expoente η. O tratamento destas correlações, no espı́rito da teoria de van


der Waals, é conhecido como a teoria de Ornstein-Zernicke, a qual fornece ν 0 = ν = 1/2
e η = 0. Há poucas estimativas experimentais para estes expoentes no caso de fluidos,
ao contrário do caso magnético.
Em resumo, a teoria de van der Waals pode ser pensada como uma teoria de campo
médio, em que a interação entre as partı́culas é substituı́da por uma interação efetiva de
alcance infinito. Apesar de drástica, esta aproximação reproduz satisfatoriamente alguns
aspectos qualitativos da transição lı́quido-gás, como a lei de estados correspondentes, o
comportamento singular de diversas grandezas, e a universalidade dos expoentes.3 A
igualdade entre expoentes acima e abaixo da transição é confirmada tanto pela teoria de
scaling (Seção 8.6), quanto pela maioria dos resultados experimentais, de modo que não
mais faremos distinção entre eles. Quantitativamente, todavia, os valores dos expoentes
obtidos nas teorias de campo médio, não concordam com os resultados experimentais;
as razões serão explicitadas na Seção 8.5.
3
Note que as constantes de proporcionalidade, omitidas nas definições dos expoentes, não são uni-
versais.
178 CHAPTER 8. PHASE TRANSITIONS

8.3.2 Weiss Theory


A Teoria de Weiss do campo molecular foi proposta em 1907 para descrever o magnetismo
devido a spins localizados, antes mesmo de Heisenberg propor a interação de exchange
como o mecanismo responsável pelo comportamento cooperativo nestes sistemas.
Comecemos nossa discussão tendo em mente um modelo simplificado, o chamado
modelo de Ising de spin-1/2, definido em (8.2.15) e que já foi objeto de estudo na Seção
7.4.6. A Hamiltoniana é dada por
X X
H = −J σiz szj − H σiz , (8.3.23)
hi,ji i

onde a constante de acoplamento J é suposta homogênea, a primeira soma se estende a


pares de z sı́tios primeiros vizinhos de uma rede d-dimensional, os σ z são as matrizes de
Pauli, e H é um campo externo; note that the physical constants have been incorporated
into J and H, which now Q have dimensions of energy. Claramente H é diagonal numa
base de autoestados de N i σ z , onde N é o número de sı́tios. Logo, podemos substituir
i
os operadores que aparecem em (8.3.23) por autovalores, σ = ±1.
O espı́rito da teoria de Weiss é o mesmo da teoria de van der Waals, discutida na
Sub-seção 8.3.1: substitui-se a interação entre pares por uma interação efetiva. No caso
presente, o alcance é tomado como o mesmo da interação original, restrita a primeiros
vizinhos. Pode-se mostrar, todavia, que se cada spin interagisse com todos os demais –
isto é, se a soma em (8.3.23) se estendesse a todos os pares de spins, a solução de Weiss
seria exata, e não uma aproximação como no caso de alcance restrito; veja, por exemplo,
Stanley, Seção 6.5.
Assim, a hipótese de Weiss consiste em supor que cada spin sente, além do campo
aplicado H, um campo médio proporcional à magnetização de seus primeiros vizinhos.
H é então substituı́da por X
HW = − Hi σi , (8.3.24)
i
onde o campo efetivo no sı́tio i, dado por
X
Hi = Jhσj i + H, (8.3.25)
j

deve ser determinado autoconsistentemente. Em (8.3.25) a soma sobre os sı́tios j se


restringe aos z primeiros vizinhos de i; z é conhecido como o número de coordenação
da rede. Note que, de acordo com a hipótese de Weiss, todos os spins apresentariam
um comportamento igual ao da média. HW tem agora a forma de uma Hamiltoniana de
spins independentes, e o tratamento é semelhante ao do paramagnetismo, discutido na
Seção 3.10.
Se o sistema é homogêneo, devemos esperar que a magnetização média independa do
sı́tio considerado, ou hσj i = hσi, ∀j, e
1
Hi = zJhσi + H ≡ H.
e (8.3.26)
2
8.3. MEAN-FIELD THEORIES 179

1.5
T > Tc
T = Tc
< >
T < Tc
tanh [< >Tc /T]
1.0

0.5

0.0
0.0 0.5 1.0 1.5
< >

Figure 8.15: Solução gráfica da Eq. (8.3.29). O lado direito da equação é mostrado para diversas temperaturas.
Tc é obtida quando as derivadas de ambos os lados da equação se igualam.

A função de partição fica


e e N ≡ (Z1 )N ,
ZW = Tr e−βHW = (eβ H + e−β H )N = (2 cosh β H)
e
(8.3.27)

a partir da qual a energia livre de Gibbs é calculada:

G = −N kB T ln Z1 . (8.3.28)

A magnetização espontânea (i.e., H = 0) é dada sob a forma de uma equação auto-


consistente,  
1 ∂G zJhσi
hσi = − = tanh , (8.3.29)
N ∂H 2kB T
que pode ser resolvida graficamente. Chamemos y ≡ hσi e x ≡ tanh(zJhσi/2kB T ). Para
cada T , hσi é determinado como a interseção y = x, como indica a Fig. 8.15. Note que
para temperaturas muito altas, a derivada de x com relação a hσi na origem é menor que
a de y, que é 1. Como resultado, x fica sempre abaixo de y, e a única solução corresponde
a hσi = 0: é a fase paramagnética. À medida em que a temperatura diminui, a derivada
de x na origem aumenta até que se igualem a uma certa temperatura,
zJ
kB Tc = . (8.3.30)
2
Abaixo de Tc , aparece uma solução com hσi =6 0; é fácil ver graficamente que hσi cresce
à medida em que T decresce. O comportamento de hσi é, então, semelhante ao que
aparece na Fig. 8.8(c), desempenhando o papel de parâmetro de ordem da transição.
Deve-se frisar que para certos sistemas magnéticos (como os chamados vidros de spin)
o parâmetro de ordem não é a magnetização; na Sub-seção 8.3.3 mencionaremos outros
aspectos dos parâmetros de ordem.
180 CHAPTER 8. PHASE TRANSITIONS

A estimativa de Tc obtida na teoria de Weiss merece alguns comentários. Em primeiro


lugar, ela corresponde, essencialmente, à energia térmica necessária para contrabalançar
a energia magnética de um par de spins paralelos. Em segundo lugar, a dimensão da rede
aparece apenas no número de coordenação: a aproximação não distingue, por exemplo,
a rede triangular da rede cúbica simples, ambas com z = 6. Ela também prevê uma
transição de fase a uma temperatura não-nula para o modelo em uma dimensão que,
como veremos na Seção 8.4, é errado. Finalmente, o crescimento da temperatura crı́tica
com o número de coordenação é razoável, já que quanto maior fôr z, mais robusto é
o estado ordenado, necessitando de mais energia térmica para desordenar um estado
alinhado.
Para calcular o expoente β associado à magnetização, notemos que, perto de Tc , hσi
é pequeno; logo, "  2 #
zJhσi 1 zJ
hσi ' 1− hσi , (8.3.31)
2kB T 3 2kB T
que, usando (8.3.30), nos dá

Tc − T

hσi ' , (8.3.32)
Tc
com
1
β= , (8.3.33)
2
idêntico ao fornecido pela teoria de van der Waals para fluidos.
Outros expoentes crı́ticos podem ser definidos no caso magnético, em analogia aos
da Sub-seção 8.3.1. Abaixo citamos também os resultados para estes expoentes, obtidos
pela teoria de Weiss, cujos cálculos explı́citos são pedidos no Exercı́cio 3. Assim, na
isoterma crı́tica temos
hσ z i ∼ H 1/δ , δ = 3, (8.3.34)
onde H é agora um campo aplicado. Para o calor especı́fico a campo constante,

CH ∼ |T − Tc |−α , α = 0(desc.), (8.3.35)

e para a suscetibilidade,
χ ∼ |T − Tc |−γ γ=1 (8.3.36)
Há outra grandeza que não decorre da energia livre diretamente, mas que é muito
importante: a função de correlação entre as flutuações do parâmetro de ordem,

Γ(r) ≡ h[σ0 − hσ0 i][σr − hσr i]i = hσ0 σr i − hσ0 ihσr i, (8.3.37)

que mede o grau de influência entre spins afastados de uma distância r, e desempenha um
papel análogo à função de correlação densidade-densidade nos sistemas fluidos. Assim,
seu comportamento assintótico (isto é, para distâncias muito maiores que o parâmetro
de rede e perto da temperatura crı́tica) é

Γ(r) ∼ e−r/ξ , (8.3.38)


8.3. MEAN-FIELD THEORIES 181

onde
ξ ∼ |T − Tc |−ν (8.3.39)
é o comprimento de correlação, que mede o alcance das correlações e ν é um outro
expoente crı́tico.
Na transição, o decaimento de Γ(r) é mais lento:
1
Γ(r) ∼ , T = Tc , (8.3.40)
rd−2+η
onde d é a dimensão da rede e η é mais um expoente crı́tico.
Como no limr→∞ Γ(r) = 0, o parâmetro de ordem pode ser calculado como

hσi2 = lim hσ0 σr i, (8.3.41)


r→∞

de modo que se hσi2 6= 0 dizemos que o sistema apresenta ordem de longo alcance.
Por corresponder, essencialmente, a um sistema de spins não-interagentes, a aproxi-
mação de campo médio despreza as correlações; isto é,

hσo σr i = hσ0 ihσr i, (8.3.42)

de modo que não há flutuações entre correlações. Nisto reside uma das falhas da Teoria
de Weiss, cujas conseqüências serão exploradas na Seção 8.5.
Mesmo assim, usando-se o fato de que a teoria de Weiss fornece os mesmos expoentes
que a de van der Waals, podemos invocar a aproximação de Ornstein-Zernicke (veja
Stanley, Cap. 7), para citar os valores de ν e de η:

ν = 1/2 η = 0. (8.3.43)

8.3.3 Landau Theory


Um aspecto de transições de fase que aparece implicitamente nas discussões anteriores
é que, em geral, o aparecimento de um parâmetro de ordem está ligado à quebra de
alguma simetria. Isto é, a fase de baixa temperatura (ordenada) tem uma simetria menor
que a fase de alta temperatura. Por exemplo, um sólido é invariante por translações
discretas, enquanto que um gás ou um lı́quido são invariantes pelo conjunto mais amplo
das translações contı́nuas. Em alguns magnetos a simetria global (contı́nua) de rotação
da fase de altas temperaturas é quebrada pelo aparecimento de uma magnetização que
privilegia uma direção espacial. Em outros magnetos, nos quais a direção está definida,
mas não o sentido, a simetria global (discreta) de inversão dos spins é quebrada pela
escolha de um dos sentidos a baixas temperaturas. Estes dois exemplos magnéticos
ilustram casos em que o parâmetro de ordem é um vetor de três componentes e de uma
componente, respectivamente. Pensaremos num parâmetro de ordem como um vetor de
n componentes; algumas transições são descritas por parâmetros de ordem tensoriais,
mas não serão abordadas aqui.
A teoria de Landau parte desta idéia de quebra de simetria para fazer uma descrição
semi-fenomenológica da transição. Ao contrário da teoria de Weiss, a formulação de
182 CHAPTER 8. PHASE TRANSITIONS

Figure 8.16: Energia livre de Helmholtz (ou de Gibbs) como função do parâmetro de ordem: (a) acima de Tc ; (b)
abaixo de Tc .

Landau não pressupõe o conhecimento de uma Hamiltoniana, mas enfatiza o papel da


simetria que é quebrada.
Consideremos, por simplicidade, um parâmetro de ordem escalar, φ; este pode ser a
diferença entre densidades em sistemas fluidos ou a magnetização em sistemas magnéticos
do tipo Ising. A hipótese de Landau consiste em supor que, perto da transição, a energia
livre de Helmholtz possa ser expandida da seguinte forma:
A(T, φ) = A0 (T ) + α2 (T ) φ2 + α4 (T ) φ4 + · · · , (8.3.44)
onde supusemos que os coeficientes das potências ı́mpares se anulem por simetria; isto
é óbvio para sistemas magnéticos, pois estados com magnetizações φ e −φ devem ser
equivalentes, possuindo a mesma energia livre. Os coeficientes α2 e α4 são escolhidos
de modo a satisfazer certas condições que dependem de diversos fatores, como a ordem
da transição. Para transições de segunda ordem suporemos, primeiramente, α4 > 0 para
garantir a convexidade de A na região φ ∼ 1; veja a Fig. 8.16. Se α4 pudesse ser negativo,
terı́amos que manter termos até φ6 na expansão (8.3.44), com α6 > 0; veja o Exercı́cio 5.
Em segundo lugar, α2 deve ser tal que, para T > Tc apenas a solução φ ≡ 0 represente
um mı́nimo de A; para T < Tc a solução mais estável deve corresponder a φ 6= 0, e que
cresça continuamente quando T decresce a partir de Tc . Assim, a condição de mı́nimo
de A fica
∂A 
= 2α2 (T ) + 4α4 (T )φ2 φ = 0,

(8.3.45)
∂φ
que tem como soluções s
1 α2 (T )
φ = 0 ou φ = ± − . (8.3.46)
2 α4 (T )
Se escolhermos α2 > 0 para T > Tc , a segunda solução é imaginária e, portanto,
não-fı́sica. Por outro lado, tomando α2 < 0 para T < Tc , a segunda raiz corresponde às
duas soluções simétricas para o parâmetro de ordem na fase ordenada. Como a transição
é contı́nua, devemos ter α2 (Tc ) = 0. Logo, podemos supor que
α2 (T ) = α0 (T − Tc ), (8.3.47)
8.3. MEAN-FIELD THEORIES 183

onde α0 é uma constante. Supondo ainda que perto de Tc a dependência de α4 com T


seja lenta, e usando (8.3.46) e (8.3.47), podemos escrever
φ(T ) ∼ (Tc − T )β , com β = 1/2. (8.3.48)
Deve-se notar que este resultado para o expoente crı́tico β, associado ao comportamento
do parâmetro de ordem, é idêntico ao das teorias de Weiss e de van der Waals.
Assim, a expansão para a energia livre fica
(
A0 (T ) se T > Tc
A(T, φ) = 2 2
(8.3.49)
A0 (T ) − (α0 /4α4 )(T − Tc ) se T < Tc ,
de onde calculamos o calor especı́fico como C = −T (∂ 2 A/∂T 2 ); este apresenta uma
descontinuidade dada por
α2
∆C = Tc 0 , (8.3.50)
2α4
ou α = 0(desc.), como nas teorias de campo médio anteriores.
Para calcular outros expoentes, pensemos em um sistema magnético. O campo
magnético é dado por uma das relações de Maxwell,
 
∂A
H= , (8.3.51)
∂φ T
ou,
H ' 2α2 (T ) φ + 4α4 (T ) φ3 . (8.3.52)
A suscetibilidade pode ser calculada por
   2 −1
∂φ ∂ A
χT = = , (8.3.53)
∂H T ∂φ2 T
que, até ordem mais baixa em φ na Eq. (8.3.52), nos dá
1
χT ' , (8.3.54)
2α2
ou γ = 1, como anteriormente. Se fizermos agora T = Tc , a Eq. (8.3.52) fornece o
expoente δ = 3.
A teoria de Landau nos dá, como esperado, os mesmos expoentes das teorias de van
der Waals e de Weiss. Aqui, também, as flutuações no parâmetro de ordem não são
incorporadas corretamente. Pode-se criticar esta teoria porque sabemos a priori que a
energia livre não é uma função analı́tica do parâmetro de ordem, mas a expectativa é
de que as singularidades se manifestem em termos de ordem mais alta; veja Stanley,
Cap. 10 para uma análise mais detalhada da teoria de Landau.

8.3.4 The Bethe Lattice


Another way of implementing a mean-field approximation is to consider a lattice with no
loops, such as the Cayley tree shown in Fig. 8.17 for coordination z = 3.4 The branching
4
Since Hans Bethe was the first to solve spin models on these structures, they also became known
as Bethe lattices [27].
184 CHAPTER 8. PHASE TRANSITIONS

Figure 8.18: In a Cayley tree with coordination z =


3, the (central) site leads to z = 3 sites forming
branches. Within each branch one finds z − 1 sub-
branches, and so forth. Figure taken from Ref. [27].
Figure 8.17: A Cayley tree with coordination (i.e.,
the number of nearest neighbour sites of a given
site) z = 3. Figure taken from Ref. [27].

process shown in Fig. 8.17 is assumed to go on forever.


Let us first calculate the site-percolation threshold for these lattices. Any site (but
the origin, call it zeroth generation) has z − 1 bonds in the outward direction, each of
which will reach a new site, belonging to, say the first generation; each new site, in turn,
has a probability p of being occupied. Thus, the average number of paths connecting the
zeroth generation site to a first generation site will be p(z − 1). Carrying on to the next
generation, if p(z − 1) < 1 the average number of paths connecting the zeroth generation
site to a second generation site will decrease by the same factor; each added generation
will lead to a reduction in the average number of paths by the same factor. Therefore,
in order to avoid the steady decrease (thus the absence of a spanning cluster) we must
have p(z − 1) ≥ 1; the equality then defines the percolation threshold,
1
pc =. (8.3.55)
z−1
Note that the threshold decreases as the coordination increases: it is a non-universal
quantity.
Let us now evaluate P (p), the probability that the central site belongs to the perco-
lating cluster. Figure 8.18 highlights the central site (‘site’ in the figure), one ‘neighbour’
and its ‘branch’, as well as its ‘sub-branches’, for a z = 3 tree. Letting K be the proba-
bility that at least one branch is connected to the percolating cluster, we may write
P (p) = p · K
= p · (1 − K)
e (8.3.56)

where K e is the complement of K, namely the probability that none of the z branches
is part of the percolating cluster. With Q being the probability that a branch is not
8.3. MEAN-FIELD THEORIES 185

connected to the infinite cluster, we have

e = Qz .
K (8.3.57)

Now, a branch is not connected to the percolating cluster if ‘neighbour’ is unoccupied


[which occurs with probability (1 − p)], or, if it is occupied, the outward z − 1 branches
are themselves not connected to the percolating cluster [probability p Qz−1 ]. Thus,

Q = (1 − p) + p Qz−1 , (8.3.58)

If we specialise to z = 3, the solutions of (8.3.58) are Q = 1 and Q = (1 − p)/p; the


former yields P (p) ≡ 0, which is only acceptable for p < pc , while the latter yields
"  #
1−p 3

P (p) = p 1 − (8.3.59)
p
∼ (p − pc )β , with β = 1, for p → p+
c . (8.3.60)

One should convince oneself that β is the same for all z.


Let us now define the mean cluster size, S(p), as the average number of sites in the
cluster to which ‘site’ belongs; we consider p < pc . ‘Site’ itself contributes with 1 to
this number, to which we must add T , the contribution from each of the z branches
connected to it; that is,
S(p) = 1 + zT. (8.3.61)
For a given branch, if ‘neighbour’ is unoccupied [probability (1 − p)], it contributes with
size 0 to the average; on the other hand, if ‘neighbour’ is occupied [probability p] it
contributes with its own size, plus with T sites for each of its (z − 1) sub-branches.
Thus,

T = (1 − p) · 0 + p · [1 + (z − 1)T ]
= p + p(z − 1)T. (8.3.62)

Solving for T , and inserting into Eq. (8.3.61) yields

1+p
S(p) =
1 − p(z − 1)
pc (1 + p)
= (8.3.63)
pc − p
∼ (pc − p)−γ , with γ = 1 (8.3.64)

where we have used Eq. (8.3.55). The introduction of the exponent γ to characterise this
singular behaviour stresses that S(p) is the analogue of the magnetic susceptibility (and
the compressibility) in percolation problems. Indeed, this quantity reflects how prone
the system is to develop a percolating cluster when a small ghost field is switched on.
186 CHAPTER 8. PHASE TRANSITIONS

Another quantity of interest is the correlation function, or pair connectivity, g(r):


it probes the probability that two sites, separated by a distance r, belong to the same
cluster. One therefore expects that, asymptotically,

g(r) −−−→ e−r/ξ , (8.3.65)


r→∞

where ξ is the correlation length, which, for p near pc is expected to behave as

ξ ∼ |p − pc |−ν , with ν = 1/2 for the Bethe lattice [27]. (8.3.66)

In closing, we mention that many quantities may be defined in close analogy with
magnetic and fluid systems, while several other quantities characterising cluster prop-
erties and statistics are characterised by critical exponents with no magnetic (or fluid)
counterparts; see Ref. [27] for detailed discussions.
In the next Section we will obtain the exact solution for a one-dimensional interacting
spin system, which is very illustrative in itself and clearly pinpoints some of the difficulties
mean-field theories meet in describing low-dimensional systems; these shortcomings are
discussed in detail in Sec. 8.5.

8.4 Exact Solution for the One-dimensional Ising Model


Considere uma cadeia linear com condições de contorno periódicas; isto é, σNz z
+1 = σ1 .
O sistema pode então ser pensado como um anel; veja a Fig. 8.19. Admitindo que cada
sı́tio esteja ocupado por um spin- 21 , a Hamiltoniana de Ising em presença de um campo
externo é dada por
XN X
H = −J σiz σi+1
z
−H σiz . (8.4.1)
i=1 i
Para calcular a função de partição tomemos por base o conjunto de autoestados em
que σiz é diagonal, σiz |σi i = σi |σi i. Isto permite substituir os operadores em (8.4.1) por
seus autovalores σi = ±1: XY
Z= eKσi σi+1 +Bσi , (8.4.2)
{σi } i

1 N N 1 N 2
2
3 . .
.
4
.
. .

Figure 8.19: Topologia da rede uni-dimensional com condições de contorno periódicas.


8.4. EXACT SOLUTION FOR THE ONE-DIMENSIONAL ISING MODEL 187

com K ≡ J/kB T e B ≡ H/kB T .


A função de partição pode então ser escrita como
XX X
Z= ··· f (σ1 , σ2 ) f (σ2 , σ3 ) · · · f (σN , σ1 ), (8.4.3)
σ1 σ2 σN

onde
1
f (σi , σi+1 ) ≡ eKσi σi+1 + 2 B(σi +σi+1 ) , (8.4.4)
devendo-se notar que o mesmo sı́tio i contribui com 12 B em f (σi−1 , σi ) e em f (σi , σi+1 ),
totalizando B, como na Hamiltoniana, Eq. (8.4.1); o objetivo disto é tornar f (σi , σj )
simétrico na troca σi ↔ σj .
Note que podemos identificar f (σi , σi+1 ) como elementos de uma matriz

e−K
 K+B 
e
T= , (8.4.5)
e−K eK−B

chamada Matriz de Transferência porque relaciona os estados de spin no sı́tio i com os


do sı́tio i + 1. Desta forma,
X
Z= hσ1 |T|σ2 ihσ2 |T|σ3 i · · · hσN |T|σ1 i
{σi }
X
= hσ1 |TN |σ1 i = Tr TN , (8.4.6)
σ1

Como o traço independe da base, podemos usar aquela que diagonaliza T para obter
"  N #
λ<
Z = λN> 1+ , (8.4.7)
λ>

onde
λ > = eK cosh B ± (e2K sinh2 B + e−2K )1/2 , (8.4.8)
<

são os dois autovalores de T. Note that (i) when B = 0, one has λ> = 2 cosh K, e
λ< = 2 sinh K, and (ii) λ> /λ< ≤ 1, where the equality only applies asymptotically, for
B = 0 and K → ∞.
Para N grande, podemos desprezar (λ< /λ> )N em (8.4.7), o que nos dá

ZN ' λN
>. (8.4.9)

A energia livre por spin fica

g(T, H) ' −kB T ln λ> , (8.4.10)

de onde obtemos a magnetização por spin,


∂g sinh B
hσi = − =p . (8.4.11)
∂H 2
cosh B − 2e−2K sinh K
188 CHAPTER 8. PHASE TRANSITIONS

Figure 8.20: Função de correlação hσ0 σr i, como função de r, para uma temperatura fixa e campo nulo, nos casos
ferromagnético (J > 0) e antiferromagnético (J < 0). A linha cheia corresponde ao envelope exponencial.

É importante notar que


lim hσi = 0, (8.4.12)
B→0

de modo que não existe magnetização espontânea em uma dimensão para T 6= 0. Assim,
não há transição de fase a temperatura finita para o modelo de Ising em d = 1, ao
contrário da previsão da teoria de Weiss, Eq. (8.3.30) com z = 2,

(kB Tc )Weiss = J. (8.4.13)

A função de correlação de pares também pode ser calculada exatamente (veja o


Exercı́cio 7), com o resultado
 r
λ<
hσ0 σr i = hσ0 ihσr i + a , (8.4.14)
λ>

onde a é uma constante, o que fornece


 r
λ<
Γ(r) = a = a e−r/ξ , (8.4.15)
λ>
com
1 λ>
= ln . (8.4.16)
ξ λ<
A Fig. 8.20 mostra o comportamento de hσ0 σr i com r nos casos ferro- (J > 0) e anti-
ferromagnético (J < 0); o caráter oscilatório deste último tem origem no alinhamento
alternado dos spins no estado fundamental.
8.4. EXACT SOLUTION FOR THE ONE-DIMENSIONAL ISING MODEL 189

Figure 8.21: Exact solution for the one-dimensional Ising model: (a) Entropy, (b) Specific heat, and (c) Inverse
susceptibility as functions of temperature in the absence of an external field. For comparison with non-interacting
spins, the Curie law is shown in (c) as a dashed line.

A Eq. (8.4.16) nos mostra que ξ → ∞ quando λ> → λ< , o que ocorre apenas em
T = Tc = 0, H = Hc = 0. Therefore, expanding λ> and λ< for H = 0 and kB T  J
yields
ξ ∼ e2J/kB T , (8.4.17)
que, ao contrário da divergência algébrica (i.e., como lei de potência em |T − Tc |) que
ocorre para d > 1, verifica-se aqui uma singularidade essencial; mais sobre isto na Seção
8.5.
É importante enfatizar que a Eq. (8.4.16) é válida para d > 1, desde que λ> e λ<
sejam interpretados como os dois maiores autovalores da matriz de transferência; veja
C. Domb, Adv. Phys. 9, 149 (1960).
Outras grandezas termodinâmicas podem ser calculadas, como a entropia por spin,
∂g
s=− = kB (ln 2 + ln cosh K − K tanh K)
∂T
' 2kB Ke−2K , T → 0, (8.4.18)

com S = N s mostrada na Fig. 8.21(a), e o calor especı́fico [c.f. Eq. (3.4.2)],

CH = kB (K sech K)2 , (8.4.19)

mostrado na Fig. 8.21(b); neste último deve-se notar que a presença do máximo não está
relacionada a alguma transição de fase, mas ao fato de que a cadeia linear se comporta,
efetivamente, como um conjunto de ligações (entre os sı́tios i e i + 1) independentes.
A suscetibilidade é obtida da maneira usual, e é interessante ressaltar que também
apresenta um comportamento exponencial a baixas temperaturas,
1 2J/kB T
χT ∼ e , (8.4.20)
T
mostrado na Fig. 8.21(c). Note que a singularidade é bem mais acentuada do que no
caso de spins não-interagentes, como indicado na Fig. 8.21(c).
Em resumo, o modelo de Ising foi resolvido exatamente numa rede linear. A presença
de condições de contorno periódicas nos permitiu usar a matriz de transferência, que
190 CHAPTER 8. PHASE TRANSITIONS

tem aplicações mais gerais do que esta.5 Vimos que a transição ocorre a T = 0, com as
diversas grandezas termodinâmicas apresentando singularidades essenciais, ao invés de
singularidades algébricas.

8.5 Critique of Mean-Field Theories


Na seção anterior discutimos um modelo exatamente solúvel, cujos resultados estão
em completo desacordo com as previsões de Campo Médio, já que a transição de fase
ocorre apenas em T = 0. Além disto, tanto medidas experimentais em diferentes sis-
temas fı́sicos, quanto a solução de Onsager para o modelo de Ising bi-dimensional – que
apresenta uma transição com Tc 6= 0 – fornecem expoentes crı́ticos diferentes daqueles
previstos pelas Teorias de Campo Médio (TCM’s).
Estas discrepâncias ocorrem porque as TCM’s ignoram correlações entre as flutuações
no parâmetro de ordem. Isto aparece como uma inconsistência nos resultados, como vere-
mos a seguir. O Teorema de Flutuação-Dissipação relaciona as flutuações em um sistema
no equilı́brio com a resposta a um estı́mulo externo (tal como um campo magnético em
sistemas magnéticos ou a pressão em sistemas fluidos; veja o Exercı́cio 10):

1 ∂2G
 
β X
χT = − = h[σi − hσi i][σj − hσj i]i =
N ∂H 2 N
i,j
X
=β Γ(rij ) = β Γ̃(k = 0) (8.5.1)
j

onde rij ≡ ri − rj , e Γ̃(k) é a transformada de Fourier de Γ(rij ), a função de cor-


relação entre as flutuações. Note que na terceira igualdade acima usamos a condição de
invariância translacional; isto é, a função de correlação não depende de onde se toma ri ,
apenas da distância, rij , entre os sı́tios i e j. Por outro lado, na TCM,

hσi σj i = hσi ihσj i; (8.5.2)

já que as correlações são desprezadas porque a Hamiltoniana efetiva é do tipo não-
interagente, apesar de efeitos cooperativos estarem incluı́dos via o campo autoconsis-
tente. Assim, temos
Γ(rij ) = δij Γ(0) = δij [hσi2 i − hσi i2 ], (8.5.3)
e a inconsistência está no fato de que o alcance da função de correlação é nulo, não sendo
possı́vel obter-se o comportamento singular para χT ,

χT ∼ |T − Tc |−γ , (8.5.4)

como previsto pela própria TCM.


5
A cadeia com extremidades livres também pode ser resolvida exatamente; veja, por exemplo, Stan-
ley, Seção 8.2. Os resultados, no limite termodinâmico, são essencialmente os mesmos.
experimentally. The MF prediction for the transition point is too high,
the specific heat shows a finite discontinuity instead of diverging, and is
furthermore characterized by the absence of the characteristic 'high-
temperature tail '. The latter is encountered in all the more sophisticated
models as well as experimentally, and is due to the presence of short-
range interactions above T c t h a t are not taken into account in the MF
theory. Neglect of the short-range order is in fact the reason why the
8.5. CRITIQUE OF MEAN-FIELD THEORIES 191
12 L . J . de Jongh and A. R. Miedema on

4
Fig. 1
Fig. 6
Cm
R 2 3 ME 3 M.F.
Cm
R HEISENBERG
4: 41 47
ISING d=1,2,3
d=1,2,3 S=1/2
S=1/2
7

2
7:

I I I I 0 2
0 r T/O
~- It@
Specific heats of the S = ½ Heisenberg model in 1, 2 and 3 dimensions. The
Theoretical magnetic specific heats Cdo
m of theespecı́co
S = ½ Ising1-d model for
the aresult
1, dimensões
2for
and
702 2

Figure 8.22: Comparação calor curve


(teórico) emisdiversas the antiferromagnetic chain
espaciais, incluindo a obtained by Bonner
aproximação
3-d lattice. The
de campo chain
médio curve
(MF), parahas been obtained
os modelos and
de Ising byFisher
Ising
(painel (1925),
(1964),
esquerdo) fromwhoapproximate
e Heisenberg solutions.
(painel direito). θThe 2-d curve
= zJ/2k B é a
applies
first performed
temperaturacalculations on the
de Curie-Weiss. model
[Extraı́do de that
LJ detobears
the ferromagnetic
Jongh his
and name.
AR Miedema, quadratic
The lattice23,
Adv. Phys. and has been constructed by
1 (1974)].
2-d curve is also an exact result, derived by BloembergenOnsager (1944) (1971for
) fromthethe predictions of spin-wave theory (T~ 0 < O"1),
7

quadratic lattice. The 3-d curve has been calculated from the high-temperature
by B16te and series expansion (T/O>I), and from the
ttuiskamp (1969) and B15te (1972) for the simplediscussedexperimental
cubic lattice data on approximants
from of this model (0"1 < T/O < 1), to be
the curve follows
Voltando à Eq. (8.5.1), vemos, pelo below. que
contrário, The o3-d from series expansions
de χT for the
high and low-temperature series expansions of Cb.c.c, m given by Bakergiven
ferromagnet et al.by Baker et al. (1967singular
comportamento
b). Also included is the
(1963) está
and associado
Sykes et al.ao(1972).
longo alcance da função
For comparison, demolecular
the
molecular correlação: os termos h[σi − hσi i][σj − hσj i]i,
field
field prediction.
prediction (MF) has been included. R denotes the gas constant and
sendo finitos, só poderão acarretar um comportamento singular caso se mantenham
is the Curie-Weiss temperature (O=~zS(S+ 1)J/k), which is the transi-
finitos, mesmo
tion temperature a longas
according to the distâncias,
MF theory. rij .
Assim, as flutuações no parâmetro de ordem são
The enhancement muito
of the importantes
importance of the na região crı́tica.effects
short-range-order
also follows from the fact t h a t in the
Em primeiro lugar, porque são elas que destróem a fase ordenada, e desprezá-las, case of the Heisenbergcomo model a
lowering of the dimensionality to 2 is already sufficient to prevent the
nas teorias de campo médio, significa superestimar
onset of long-range o avalor
order at non-zerode temperature
Tc . Isto é (Mermin
ilustrado andna Wagner
Fig. 8.22, que mostra o calor especı́fico
1966). Thepara os modelosof de
thermodynamics the Ising (painel esquerdo)
2-d Heisenberg e
model will therefore
Heisenberg (painel direito) em todiversas
a certaindimensões
extent resemble the behaviour
espaciais: Tc é semprefound in the chain
menor que models
a ;
to a certain extent because there is a possible difference following from
estimativa de campo médio (Curie-Weiss), θ, e decresce à medida em que d diminui.
the analysis of series expansions of the susceptibility (Stanley and Kaplan
A solução exata para o modelo1966),
de Ising em dindications
in which = 1 mostra wereque estafordiscrepância
found the existenceem of Tnon-zero
c
pode ser drástica a ponto de eliminar a existência
transition points at de fasethe
which ordenada a qualquer
ferromagnetic T > 0. diverges.
susceptibility O
Thus, although the chain models as well as the 2-d Heisenberg model
painel esquerdo da Fig. 8.22 ilustra isto para o modelo de Ising, através da ausência de
cannot sustain a spontaneous magnetization at any finite temperature,
singularidade no calor especı́ficotheem d =would
latter 1; o distinguish
painel direitoitself também
by possessing mostra a ausência
a transition to a phase
de singularidade a temperaturas withfinitas parasusceptibility.
an infinite o modelo deWeHeisenberg will return toem thisdintriguing
= 1 e 2. problem
Portanto, devemos esperar de um modo geral que exista sempre uma dimensão crı́ticamodels
later. At this point we merely remark t h a t since the 2-d XY
have been found to possess similar properties as the 2-d Heisenberg model,
d≤
inferior, di , tal que Tc = 0 parathe di .
anisotropy evidently must be of the Ising form to enable a transition
Para sistemas com simetriatodiscreta,
long-range doorder
tipotoIsing,
occur in um argumento
a 2-d lattice. devido a Peierls
ilustra muito bem que di = 1. A idéia é calcular a diferença em energia livre entre uma
configuração com todos os spins alinhados e uma com todos os spins virados a partir
de um ponto qualquer da rede, ou com um kink; veja a Fig. 8.23. Como o kink pode
ser formado em qualquer um dos N sı́tios da rede, há N modos de fazê-lo; isto dá uma
contribuição ∆S = kB ln N para a variação de entropia. A baixas temperaturas, temos,
portanto,
∆G = ∆E − T ∆S = 2J − kB T ln N, (8.5.5)
de modo que, para qualquer T > 0 o termo de entropia domina por ser macroscópico, e
192 CHAPTER 8. PHASE TRANSITIONS

(a)

(b) L
Figure 8.23: Configurações de uma cadeia de
Figure 8.24: Uma excitação para spins de Ising em uma
Ising com N spins: (a) estado fundamental,
rede quadrada: os spins na região de tamanho linear L
com todos os spins alinhados; (b) um estado
estão opostos aos demais.
excitado (kink) de mais baixa energia, cuja
degenerescência é ∼ N .

teremos sempre ∆G < 0. Isto é, o estado ordenado é instável pela formação de kinks.
Acima de d = 1, excitações tı́picas correspondem a virar os spins dentro de uma
região de dimensão linear L, como ilustra a Fig. 8.24. A diferença de energia é então
proporcional ao número de spins na fronteira ou, equivalentemente, ao perı́metro da
região: ∆E ∼ 2J Ld−1 . A contribuição da entropia não é tão simples de ser calculada
como em uma dimensão, mas é claramente macroscópica. Portanto, o sistema consegue
manter a ordem (isto é, ter a maioria dos spins apontando num dado sentido), ∆G > 0,
pagando o preço de formar ilhas muito grandes com spins opostos, o que só é favorável
até uma temperatura Tc > 0.
Já para sistemas magnéticos com simetria contı́nua, as excitações de baixa energia
correspondem a ondas de spin que, para d ≤ 2, ocorrem em grande número, também
destruindo a fase ordenada. É o que acontece, por exemplo, nos modelos de Heisenberg
e XY (veja o Exercı́cio 5.6); assim, di = 2 para modelos com simetria contı́nua.
É interessante notar também que na dimensão crı́tica inferior as divergências das
diversas grandezas são exponenciais: isto ocorre para o modelo de Ising unidimensional
(Seção 8.4) e para os modelos de Heisenberg e XY em d = 2. Já para d < di , as
divergências quando T → 0 voltam a ser algébricas, p.ex., ξ ∼ T −ν , como no caso do
modelo de Heisenberg unidimensional.6
Uma segunda conseqüência da ausência de flutuações de longo alcance nas teorias
de campo médio é a previsão de expoentes crı́ticos diferentes dos observados experimen-
talmente ou calculados por outros métodos. Neste sentido, as TCM’s fornecem muito
poucas classes de universalidade.
Por outro lado, para dimensões espaciais suficientemente altas, devemos esperar que
as flutuações desempenhem um papel cada vez menos importante. Deve haver, portanto,
6
Para os valores dos expoentes, veja, p.ex., JW Lyklema, Phys Rev B 27, 3108 (1983).
8.6. UNIVERSALITY AND SCALING 193

uma dimensão crı́tica superior, ds , tal que os expoentes de campo médio sejam exatos
para d ≥ ds . Veremos na próxima seção que, para os modelos de Ising, Heisenberg e
XY , temos ds = 4, while for the percolation problem (Section 8.2.5) one has ds = 6.
Visto que identificamos a ausência de flutuações de longo alcance como a falha prin-
cipal das TCM’s, veremos agora como incorporá-las de modo fundamental, explorando
as transformações do sistema sob mudanças de escala.

8.6 Universality and Scaling


Um resultado curioso obtido a partir das TCM’s é que várias propriedades são inde-
pendentes do sistema em estudo. Em particular, notemos que os expoentes crı́ticos são
os mesmos, para todas as Hamiltonianas magnéticas (Ising, Heisenberg e XY ). Além
disto, eles independem do valor do spin e do valor de J. Enquanto a pequena diver-
sidade dos conjuntos de expoentes é uma deficiência das TCM’s, o fato de transições
devidas a mecanismos tão distintos, como, por exemplo, fluidos, magnetos, supercodu-
tores, etc., exibirem, em alguns casos, os mesmos conjuntos de expoentes, permanecem
válidos mesmo abaixo de ds .
O que se verificou, através de experiências e de cálculos teóricos (exatos e expansões
em séries de potência) é que os vários sistemas fı́sicos podem ser associados a classes
de universalidade, determinadas, em sua maioria, pela simetria do parâmetro de ordem
(isto é, por sua dimensionalidade, n) e pela dimensão espacial. Desta forma, o valor de J,
do spin S e a topologia da rede (por exemplo, quadrada, triangular, hexagonal etc.) para
uma dada dimensão espacial, são irrelevantes na determinação dos expoentes crı́ticos.
É interessante lembrar que Tc depende de todos estes fatores, por ser uma propriedade
intimamente ligada à conectividade da rede e ao número de graus de liberdade por spin.
A irrelevância destes fatores ocorre devido ao fato de que, na região crı́tica, eles
representam detalhes de curto alcance, contrastando com o longo alcance das correlações.
Isto é, substituindo-se um bloco de spins por um spin médio, estes detalhes ficam diluı́dos.
Esta mudança de escala, obtida quando se associa uma nova variável a um bloco de spins,
é crucial na formulação da Teoria Moderna de Fenômenos Crı́ticos, que teve inı́cio com
os trabalhos de Widom, Kadanoff, Wilson e Fisher. Veremos que os expoentes crı́ticos
são determinados por estas propriedades de scaling.
Considere uma rede hipercúbica e associemos a cada grupo de bd spins Si = ±1
(Ising), distando a entre si, uma nova variável SI como

1 X
SI = Si , (8.6.1)
Λ
i ∈ bloco

onde o parâmetro de rede agora é ba, e Λ pode ser pensado como um fator de normali-
zação que faz SI ter as mesmas propriedades de Si . Por exemplo, se Si = ±1 devemos
ter SI ± 1; assim, Λ ∼ bd . É claro que esta definição de SI é um pouco vaga, mas será
feita de modo mais preciso na próxima seção. A Fig.8.25 mostra um exemplo para a rede
quadrada, em que b = 2.
194 CHAPTER 8. PHASE TRANSITIONS

a 2a
(a) (b)
Figure 8.25: Exemplo da construção dos blocos de Kadanoff: a cada 4 (= bd , com b = d = 2) spins do sistema
original em (a), associamos 1 spin no sistema escalado (b). O parâmetro de rede passa de a para ba.

Para uma Hamiltoniana inicial


X X
HS = −J Si Sj − H Si , (8.6.2)
hi,ji i

suponhamos que a Hamiltoniana escalada também seja da mesma forma, isto é,
X X
HS 0 = −J 0 SI SJ − H 0 SI , (8.6.3)
hI,Ji I

onde J 0 e H 0 são os novos parâmetros da Hamiltoniana em termos das variáveis de bloco


SI .
At this point, it is worth noticing that in addition to the initial energy scales, J and
H, one has the thermal energy, kB T , and we seek dimensionless ratios between them.
Since in the density operator the Hamiltonian appears in the exponent as exp(−βH), it
is natural to introduce pairs of dimensionless variables such as

K ≡ J/kB T, B ≡ H/kB T, (8.6.4)

at finite temperatures. Moreover, it is convenient to introduce the relative (dimension-


less) distance from the critical temperature as
T − Tc Kc − K Kc − K
ε≡ = ' , (8.6.5)
Tc K Kc
where the last passage follows from the fact that proximity to the critical point is as-
sumed, so that one can set K ' Kc in the denominator.
8.6. UNIVERSALITY AND SCALING 195

With these, the critical point is located at (ε = 0, B = 0), and, going back to the
Kadanoff blocks, we may think that the change in scale corresponds to a transformation
in the coupling constants as
(ε, B) → (ε0 , B 0 ). (8.6.6)
Por serem extensivas, as energias livres dos sistemas original e escalado devem ser as
mesmas; daı́ segue que as energias livres por partı́cula devem estar relacionadas por7

g(ε0 , B 0 ) = bd g(ε, B), (8.6.7)

e os comprimentos de correlação, em unidades de a, por


1
ξ(ε0 , B 0 ) = ξ(ε, B). (8.6.8)
b
Deve-se notar que, pelo fato de se supor que lidamos com um sistema no limite ter-
modinâmico, g e ξ são as mesmas funções dos pares de variáveis, (ε, B) e (ε0 , B 0 ), relativas
aos sistemas original e escalado, respectivamente.
A Eq. (8.6.8) indica que se ε 6= 0, o novo comprimento de correlação é menor que o
original, já que b > 1; isto é, a mudança de escala nos afasta do ponto crı́tico. Devemos
ter, portanto, ε0 > ε, o que sugere a escolha

ε0 = λt ε, (8.6.9)

onde λt independe de ε e de B, e o ı́ndice t significa ‘térmico’. Já que efetuar duas


mudanças de escala sucessivas com fatores b1 e b2 equivale a uma única por um fator
b1 · b2 , λt deve ser da forma
λt = byt , (8.6.10)
com yt a ser determinado. Analogamente,

N N/bd
X XX X
B Si = B Si = BΛ SI , (8.6.11)
i=1 I=1 i∈I I

o que nos leva a supor que


B 0 = ΛB = byh B, (8.6.12)
com yh a ser determinado – o ı́ndice h indica ‘magnético’.
Assim, a transformação da energia livre é

g(byt ε, byh B) = bd g(ε, B), (8.6.13)

refletindo o fato de que ela é uma função homogênea de suas variáveis.


7
A rigor, esta relação é satisfeita pela parte singular da energia livre; veja, por exemplo, Th Niemeijer
e JMJ van Leeuwen, em Phase Transitions and Critical Phenomena, editado por C Domb e MS Green,
vol. 6 (1976).
196 CHAPTER 8. PHASE TRANSITIONS

Dado o papel das flutuações, é importante examinarmos como a função de correlação


se comporta sob mudança de escala. Para o sistema de blocos temos

Γ(r0 , ε0 ) = hSI SJ i − hSI ihSJ i


1 X
= 2 {hSi Sj i − hSi ihSj i} (8.6.14)
Λ i,j
∈I,J

Usando o fato de que

hSi0 Sj 0 i − hSi0 ihSj 0 i ' hSi Sj i − hSi ihSj i, (8.6.15)

para todos os Si0 pertencentes ao bloco I e todos os Sj 0 pertencentes ao bloco J, de modo


que a soma fornece (bd )2 termos aproximadamente iguais a Γ(r), podemos escrever
2
bd

0 0
Γ(r , ε ) ' Γ(r, ε), (8.6.16)
Λ
com
r0 = b−1 r, (8.6.17)
também em unidades de a. Com ε0 = byt ε e B 0 = byh B, temos, finalmente,

Γ(b−1 r, byt ε) = b2(d−yh ) Γ(r, ε). (8.6.18)

Com estas transformações para g e Γ, podemos obter relações interessantes. A mag-


netização é obtida diferenciando-se (8.6.13) com relação a B,

byh M (byt ε, byh B) = bd M (ε, B). (8.6.19)

Tomando b = (−ε)−1/yt e fazendo B = 0, vem


d−yh
M (ε, 0) = (−ε) yt M (−1, 0) ∼ (−ε)β , (8.6.20)

já que M não é singular no ponto (-1,0); isto nos dá


d − yh
β= . (8.6.21)
yt

Substituindo b = B −1/yh e ε = 0 em (8.6.19), vem

M (0, B) = B d/yh −1 M (0, 1) ∼ B 1/δ , (8.6.22)

o que nos dá


yh
δ= . (8.6.23)
d − yh
De modo análogo, tomando a segunda derivada da energia livre com relação a B,
vem
b2yh χ(byt ε, byh B) = bd χ(ε, B). (8.6.24)
8.6. UNIVERSALITY AND SCALING 197

Fazendo B = 0 e b = ε−1/yt temos


d−2yh
χ(ε, 0) = ε yt χ(1, 0) ∼ ε−γ , (8.6.25)

com
2yh − d
γ= . (8.6.26)
yt
0
Se tomássemos b = (−ε)−1/yt , e definindo χ ∼ (Tc − T )−γ , T < Tc , obterı́amos γ = γ 0 .
Tomando agora a segunda derivada de g com relação a T , temos o calor especı́fico,

b2yt CH (byt ε, byh B) = bd CH (ε, B). (8.6.27)

Fazendo b = ε−1/yt e B = 0, vem


d−2yt
CH (ε, 0) = ε yt CH (1, 0) ∼ ε−α , (8.6.28)

onde
α = 2 − d/yt . (8.6.29)
Da mesma forma, obtém-se que α = α0 .
Voltando agora à função de correlação [Eq. (8.6.18)], façamos b = ε−1/yt ; assim
2(yh −d)
Γ(r, ε) = ε yt Γ(r/ε−1/yt , 1). (8.6.30)

Chamando
f (r/ξ) ≡ Γ(r/ε−1/yt , 1), (8.6.31)
vemos que a dependência de Γ com r aparece apenas na variável r/ξ, com

ξ ' ε−1/yt ∼ ε−ν , (8.6.32)

ou
ν = 1/yt . (8.6.33)
Tomando b = r e ε = 0 em (8.6.18), temos

Γ(r, 0) = r2(yh −d) Γ(1, 0) ∼ r−(d−2+η) , (8.6.34)

ou
η = d + 2(1 − yh ). (8.6.35)
As equações (8.6.21), (8.6.23), (8.6.26), (8.6.29), (8.6.33), e (8.6.35) indicam que
apenas dois expoentes são independentes, e, também, que estas relações independem do
sistema fı́sico em particular. Mais ainda, uma vez que yt e yh são determinados pelas
propriedades de transformação de H sob mudança de escala, seus valores não dependem
de K ou de B.
198 CHAPTER 8. PHASE TRANSITIONS

Eliminando yh e yt nestas equações, obtemos as chamadas leis de escala:


dν = 2 − α (8.6.36a)
γ = ν(2 − η) (8.6.36b)
2β = ν(d − 2 + η) (8.6.36c)
d+2−η
δ= ; (8.6.36d)
d−2+η
elas indicam que apenas dois expoentes são independentes. Deve-se mencionar que estas
leis de escala podem também ser obtidas, como desigualdades, a partir de condições de
estabilidade; veja Stanley, Cap. 4.
É interessante notar que as leis de escala podem ser usadas para calcular a dimensão
crı́tica superior ds . De fato, atribuindo aos expoentes os valores de campo médio obtidos
na Seção 8.3, obtemos ds = 4; atribuindo os valores de campo médio do problema da
percolação, β = γ = 1 e ν = 1/2, temos ds = 6.
Em resumo, a análise do comportamento de um sistema sob mudança de escala nos dá
uma compreensão unificada sobre transições de fase. Em primeiro lugar, as leis de escala
surgem como conseqüência natural da homogeneidade da energia livre. Em segundo
lugar, o ponto crı́tico está associado a um ponto de invariância de escala. E, finalmente, a
simetria do parâmetro de ordem determina as leis de transformação perto do ponto crı́tico
– via yt e yh . Deve-se mencionar que a dedução apresentada foi baseada em diversas
hipóteses que, posteriormente, se mostraram muito simplificadoras; os resultados finais,
todavia, são essencialmente corretos. Sob o ponto de vista operacional, estas idéias
não fornecem um método de cálculo que permita estimar valores para temperaturas e
expoentes crı́ticos; é preciso complementá-las com um formalismo baseado na eliminação
explı́cita de graus de liberdade, que é o grupo de renormalização (GR).

8.7 The Position-Space Renormalization Group


Na teoria de escala desenvolvida na seção anterior, a definição do spin efetivo do bloco
foi feita de um modo bastante impreciso. De fato, a primeira formalização destas idéias
foi feita por Wilson em 1972: a partir da Hamiltoniana, escrita no espaço dos momenta,
graus de liberdade são eliminados através da integração dos modos de pequenos com-
primentos de onda (ou k grandes); veja a Sec. 8.9. Assim, obtém-se uma relação de
recorrência entre as ‘velhas’ e ‘novas’ variáveis, de maneira análoga às relações ε0 (ε) e
H 0 (H) da Seção 8.6.
De uma maneira geral, podemos pensar na Hamiltoniana do sistema como um ponto
num espaço de parâmetros. Por exemplo, a Hamiltoniana de Ising,
X X X
− βH = K σi σj + L σi σj + H σi , (8.7.1)
hi,ji [i,j] i

onde hi, ji e [i, j] denotam, respectivamente, pares de sı́tios primeiros e segundos vizinhos,
seria representada num espaço tri-dimensional pelo ponto u ≡ (K, L, H). Sob uma mu-
dança de escala, espera-se que o sistema passe a ser descrito pelo ponto u0 ≡ (K 0 , L0 , H 0 ),
8.7. THE POSITION-SPACE RENORMALIZATION GROUP 199

1.0

0.8 (a)

(b)
0.6
t’

0.4 FM PM

0 Tc oo T
0.2

0.0
0.0 0.2 0.4 0.6 0.8 1.0
t

Figure 8.26: (a) Um exemplo de transformação do grupo de renormalização (TGR): as interseções das linhas cheia
[representando a Eq. (8.7.7)] e tracejada (t0 = t) definem os pontos fixos; os atratores aparecem como quadrados
e o ponto fixo crı́tico como ∗. (b) Diagrama de fluxos da TGR: com exceção do ponto fixo, os pontos são levados
aos atratores ferromagnético (FM) ou paramagnético (PM) por sucessivas mudanças de escala.

onde, em princı́pio,

K 0 = K 0 (K, L, H), (8.7.2a)


0 0
L = L (K, L, H), (8.7.2b)
0 0
H = H (K, L, H). (8.7.2c)

Desta forma, a mudança de escala está associada a uma transformação no espaço


dos parâmetros:
u0 = Rb u, (8.7.3)
onde b é o fator de escala. Estas transformações formam um semi-grupo, já que

Rb1 b2 = Rb1 Rb2 , (8.7.4)

mas a operação inversa não é definida. Apesar da caracterı́stica de semi-grupo, estas


transformações são chamadas de Grupo de Renormalização (GR).
Para simplificar nossa análise, consideremos um espaço de parâmetros uni-dimensio-
nal (K). Sob uma transformação do grupo de renormalização (TGR) o comprimento de
correlação se transforma como
1
ξ(K 0 ) = ξ(K), (8.7.5)
b
onde K 0 = K 0 (K). O ponto crı́tico é associado àquele em que ξ = ∞, definindo um
ponto especial K ∗ = Kc tal que
K ∗ = K 0 (K ∗ ); (8.7.6)
isto é, no caso de um parâmetro apenas, o ponto crı́tico (Kc ) coincide com o ponto fixo
(K ∗ ) da transformação.
200 CHAPTER 8. PHASE TRANSITIONS

Na Seção 8.8 discutiremos como gerar uma TGR mas, para fixar idéias, utilizemos a
seguinte transformação aproximada para a rede quadrada, a ser obtida no Exercı́cio 13,

2t2 (1 + t)
t0 = , (8.7.7)
1 + 2t3 + t4

onde t ≡ tanh K e t0 ≡ tanh K 0 ; veja a Fig. 8.26(a). A interseção de (8.7.7) com a reta
t0 = t fornece os pontos fixos da transformação:

(i) t∗ = 0; (ii) t∗ = 1; (iii) t∗ = tc ≡ (1 + 2)−1 ' 0.414. (8.7.8)

Iterando a TGR sucessivamente, notamos que os pontos t0 > tc são levados a t∗ = 1.


Este ponto corresponde a T = 0 e, portanto, ao estado fundamental ordenado; logo, é
chamado de atrator da fase ordenada. Fisicamente, isto indica que sistemas abaixo da
temperatura crı́tica são equivalentes, por transformações de escala, a sistemas ordenados.
Similarmente, os pontos t0 < tc são levados a t∗ = 0 (T = ∞), que é o atrator da fase
desordenada (paramagnética). Estas trajetórias são ilustradas esquematicamente na
Fig. 8.26(b). Separando estas duas regiões há o chamado ponto fixo crı́tico (ou ponto
fixo não-trivial), tc , que fornece uma estimativa para a temperatura crı́tica do sistema:
J/kB Tc ' 0.441: este é o resultado exato de Onsager.8
Perto de K ∗ = Kc podemos escrever, a partir de (8.7.5),

1
(K 0 − K ∗ )−ν = (K − K ∗ )−ν , (8.7.9)
b
ou
K 0 = K ∗ + b1/ν (K − K ∗ ), (8.7.10)
que pode ser interpretada como uma expansão de K 0 (K) em torno de K ∗ , com

dK 0
= λb = b1/ν . (8.7.11)
dK K∗

Assim, o expoente ν é calculado como

ln b
ν= . (8.7.12)
ln λb

Usando novamente a TGR (8.7.7) como exemplo, e lembrando que (dt0 /dt)t=t∗ ≡
(dK 0 /dK)K=K ∗ , obtemos (b = 2)
ν ' 1.15, (8.7.13)
valor que deve ser comparado com o resultado exato, ν = 1. Aumentando-se o tamanho
do cluster de modo a sempre preservar a auto-dualidade, a estimativa de ν se aproxima
8
Esta aproximação reproduz o resultado exato para Kc porque o cluster utilizado compartilha, com
o modelo de Ising na rede quadrada infinita, uma propriedade de simetria topológica, a auto-dualidade;
veja, por exemplo, R Savit, Rev. Mod. Phys. 52, 453 (1980).
8.7. THE POSITION-SPACE RENORMALIZATION GROUP 201

do valor exato.9 Logo, não obstante a simplicidade do método, obtém-se resultados


bastante satisfatórios.
Para avançarmos um pouco mais, consideremos agora um espaço de parâmetros
com dimensão maior que 1. Concretamente, podemos pensar numa Hamiltoniana de
Heisenberg anisotrópica, em d = 3:
X 1 y y 1

x x z z
− βH = K (1 − ∆)(Si Sj + Si Sj ) + (1 + ∆) Si Sj , (8.7.14)
2 2
hi,ji

de modo que o espaço dos parâmetros é descrito por pontos (K, ∆). A TGR deve ser,
então, da forma

K 0 = K 0 (K, ∆) (8.7.15a)
0 0
∆ = ∆ (K, ∆). (8.7.15b)

As soluções de pontos fixos não triviais devem ser

Ising : ∆∗ = 1, K ∗ = KcI (8.7.16a)


∗ ∗
XY : ∆ = −1, K = KcXY (8.7.16b)
Heisenberg : ∆∗ = 0, K ∗ = KcH , (8.7.16c)

que estão assinalados com ∗ na Fig. 8.27. Os atratores das fases ordenadas devem ser

Ising : ∆∗ = 1, K∗ = ∞ (8.7.17a)
∗ ∗
XY : ∆ = −1, K =∞ (8.7.17b)
∗ ∗
Heisenberg : ∆ = 0, K = ∞, (8.7.17c)

que, juntamente com os análogos para as fases desordenadas, também estão assinalados
na Fig. 8.27.
Na Fig. 8.27, as setas correspondem às trajetórias dos pontos, obtidas após sucessivas
iterações das TGR. Após um número muito grande destas iterações, um ponto qualquer
deve convergir para um ponto fixo, indicando que certos detalhes da Hamiltoniana vão se
tornando cada vez menos importantes. Por exemplo, começando no ponto A da Fig. 8.27,
um sistema pouco anisotrópico se comporta, em última análise, como um ferromagneto
XY isotrópico em sua fase ordenada, pois é para o atrator (K ∗ = ∞, ∆∗ = −1) que as
trajetórias convergem.
Quando há mais de um parâmetro, o cálculo de expoentes crı́ticos envolve a lin-
earização das TGR perto dos pontos fixos não-triviais. Não discutiremos com detalhes
este ponto, mas mencionaremos apenas os aspectos mais importantes. Primeiro, vemos
que, neste formalismo, expoentes crı́ticos estão associados a pontos fixos. Por exemplo,
a curva HI separa as fases paramagnética e ferromagnética, sendo, portanto, uma curva
crı́tica; isto é, as grandezas termodinâmicas (ξ, CH , χ, etc.) são singulares nesta curva.
9
veja, p.ex., C Tsallis and ACN de Magalhães, Phys Rep 268, 305 (1996), e referências lá contidas.
202 CHAPTER 8. PHASE TRANSITIONS

T
PM PM
XY I

H
A

FM FM

1 0 1

Figure 8.27: Diagrama de fluxos de GR (esquemático) para o modelo de Heisenberg anisotrópico a três dimensões
no espaço temperatura (∼ 1/K) – anisotropia (∆). Os pontos fixos crı́ticos estão assinalados por (∗) e os atratores
das fases ordenadas por (). As curvas H-XY e H-I, que conectam os pontos fixos não-triviais, são as curvas
crı́ticas.

Apesar disto, os expoentes são aqueles determinados pela linearização em torno de I, já
que é para este ponto fixo que as trajetórias na curva crı́tica convergem. É neste fato
que a noção de classes da universalidade se manifesta. Podemos pensar que cada ponto
das trajetórias do GR representa um sistema fı́sico real, com valores bem definidos de
J e ∆, a uma dada temperatura. Fica claro, então, que eles têm os mesmos expoentes
porque compartilham essencialmente as mesmas trajetórias no espaço de parâmetros;
lembre-se que o parâmetro que importa é K ≡ J/kB T . Por exemplo, todos os sis-
temas anisotrópicos com ∆ > 0 têm o mesmo comportamento do sistema totalmente
anisotrópico (∆ = 1).
Em segundo lugar, o cálculo do expoente η é feito introduzindo um campo magnético
externo. Em geral, tem-se que o ponto crı́tico ocorre em (K = Kc , H = 0) de modo que
a relação de recorrência para H é da forma

∂H 0
H 0 = λh H, com λh = = byh . (8.7.18)
∂H H=0

de onde extraı́mos yh ,
ln b
yh = . (8.7.19)
ln λh
o qual, por sua vez, é inserido na Eq. (8.6.35), para obtermos η. Assim, a partir dos dois
expoentes ν e η [no caso mais simples do espaço de parâmetros (K, H)] podemos obter
todos os outros expoentes.
8.8. EXAMPLES OF PSRG 203

Em resumo, o formalismo de GR fornece as seguintes informações: 1) diferentes


classes de universalidade são descritas por diferentes pontos fixos crı́ticos; 2) os expoentes
crı́ticos estão associados às propriedades das TGR linearizadas perto dos pontos fixos
não triviais. É claro que, na prática, é tão difı́cil obter uma TGR exata quanto resolver
exatamente o problema. A vantagem do GR é que as aproximações feitas para se obter
as relações de recorrência ficam mais transparentes e, sob certos aspectos, controláveis.
Veremos na próxima seção como obter estas transformações em casos simples.

8.8 Examples of PSRG


Considere um sistema de spins-1/2 descrito por uma Hamiltoniana H{σ} (u), onde os
{σ} representam os graus de liberdade (variáveis de spin) e u denota os parâmetros
pertinentes ao sistema [por exemplo, (K, ∆, H, . . .)]; esta definição já incorpora o fator
multiplicativo −β. Uma mudança de escala é obtida associando-se um novo conjunto de
variáveis, {σ 0 }, às antigas, de acordo com alguma prescrição, P[{σ 0 }|{σ}], dando origem
a uma nova Hamiltoniana, H0 ≡ H{σ0 } (u0 ).
Vejamos agora que as restrições às quais a prescrição deve satisfazer permitem grande
flexibilidade. Primeiramente, a função de partição tem que ser preservada sob uma
mudança de escala,
0
Z = Tr{σ0 } eH = Tr{σ} eH . (8.8.1)

Podemos então usar este fato para definir a transformação de grupo de renormalização
a partir de
0
eH ≡ Tr{σ} P[{σ 0 }|{σ}] eH , (8.8.2)

o que corresponde à eliminação parcial de graus de liberdade. Este procedimento está


sujeito às restrições
P[{σ 0 }|{σ}] ≥ 0 ∀σ, σ 0 , (8.8.3)

para garantir a hermiticidade de H0 , e

Tr{σ0 } P[{σ 0 }|{σ}] = 1 (8.8.4)

para que (8.8.1) seja satisfeita.


É interessante notar que, em princı́pio, estas são as únicas restrições impostas a
P[{σ 0 }|{σ}], o que permite uma grande flexibilidade. Todavia, esta transformação deve
incorporar diversos aspectos do problema de modo a apresentar resultados fisicamente
razoáveis, como discutiremos no final desta Seção.
Há várias prescrições possı́veis, mas citaremos aqui apenas duas:10

• Regra da maioria. O spin de um bloco é definido pelo sinal da maioria dos spins.

• Dizimação. O estado de spin de um bloco é idêntico ao de um dos spins iniciais,


eliminando-se os demais.
204 CHAPTER 8. PHASE TRANSITIONS

σ11#σ12# σ13# σ21#σ22# σ23# σ1# σ2#

K K K K K b=3 K’

Figure 8.28: The majority rule applied to the one-dimensional Ising model; see text.

We start with the majority rule applied to the one-dimensional Ising model, within
an approximation that only examines two clusters of spins coupled as shown in the left
panel of Fig. 8.28. There are 23 spin states for each cluster, half of which are mapped
onto a renormalised spin σi = sign(σi1 + σi2 + σi3 ) = +1, and half onto σi = −1. For
book-keeping purposes, it is convenient to write the total energy (actually, −β× the
energy) of the six-site system as

E({σ1j }, {σ2j }) = E3 ({σ1j }) + E3 ({σ2j }) + E2 (σ13 , σ21 ), j = 1, 3 (8.8.5)

where

E3 ({σij }) = K(σi1 σi2 + σi2 σi3 ), i = 1, 2 (8.8.6)


E2 (σ13 , σ21 ) = Kσ13 σ21 (8.8.7)

are the 3-spins and 2-spins contributions to the total energy.


In the absence of an external field, only the configurations (σ1 , σ2 ) = (+1, +1) and
(+1, −1) need to be considered, since (−1, −1) and (−1, +1) become redundant. Also,
one should allow for a constant, K00 , to be added to the renormalised Hamiltonian, which
for the two-site system should read (with the factor −β incorporated),

H0 = K 0 σ1 σ2 + K00 . (8.8.8)

We then have two equations,


0 0
X
eK +K0 = eE({σ1j },{σ2j }) ≡ f++ (K), (8.8.9a)
{σ1j },{σ2j }
σ1 =σ2 =1
0 0
X
e−K +K0 = eE({σ1j },{σ2j }) ≡ f+− (K), (8.8.9b)
{σ1j },{σ2j }
σ1 =1,σ2 =−1

where the restrictions on the sums should be noted, and lead to

f++ (K) = e5K + 2e3K + 7eK + 3e−K + 3e−3K , (8.8.10a)


3K K −K −3K −5K
f+− (K) = 3e + 4e + 6e + 2e +e . (8.8.10b)

It is worth noticing that the coefficients in each of Eqs. (8.8.10) add to 16, which is the
number of configurations leading to σ1 = σ2 = 1 or to σ1 = 1, σ2 = −1.
10
Para outras prescrições, veja os artigos de revisão no livro Real Space Renormalization, editado por
TW Burkhardt e JMJ van Leeuwen (1982).
8.8. EXAMPLES OF PSRG 205

1.2

0.8
u'
0.6
u
0.4 u_tri

0.2

0
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
0.55
0.6
0.65
0.7
0.75
0.8
0.85
0.9
0.95
1
Figure 8.29: Examples of RG recursion relations, u0 (u), for the Ising model, using the majority rule: in one- (blue
curve) and two dimensions (triangular lattice, green curve). The intersection of the red straight line, f (u) = u,
with each curve marks the fixed points in each case; see text.

0
Eliminating K00 in Eqs. (8.8.9), and introducing u ≡ e−2K and u0 ≡ e−2K leads to

3 + 4u + 6u2 + 2u3 + u4
u0 = u , (8.8.11)
1 + 2u + 7u2 + 3u3 + 3u4
which is plotted (blue curve) in Fig. 8.29. The fixed points are located at the intersection
of this curve with the straight line f (u) = u:

u∗ = 0 or K ∗ = ∞, the T = 0, or ferromagnetic, fixed point (8.8.12)


∗ ∗
u =1 or K = 0, the T = ∞, or paramagnetic, fixed point. (8.8.13)

The derivatives, λu ≡ du0 /du, calculated at these fixed points describe their stability:

du0
λu = = 3 >1 ⇒ u∗ = 0 is an unstable fixed point, (8.8.14)
du u∗ =0
du0 5
λu = = <1 ⇒ u∗ = 1 is a stable fixed point. (8.8.15)
du u∗ =1 16

Therefore the (ground state) ferromagnetic fixed point is unstable against thermal ex-
citations: the aligned state does not survive at finite temperatures, that is, Tc = 0, as
already seen from the exact solution.
The application of the majority rule to two clusters on a triangular lattice is left as
an exercise; see Problem 7.12. The recursion relation one obtains in this case is

1 + u + 4u2 + 6u3 + 2u4


u0 = 2u2 , (8.8.16)
1 + 3u2 + 2u3 + 3u4 + 6u5 + u6
and is plotted as the green curve in Fig. 8.29. The intersection of this curve with the
straight line now occurs at a critical fixed point, u∗ ≈ 0.510, apart from u∗ = 0 (FM)
206 CHAPTER 8. PHASE TRANSITIONS

1 t 2

t’
t t

4 t 3

(a) (b)
Figure 8.30: (a) Trecho de uma rede quadrada utilizada para obter uma transformação do grupo de renormalização.
Toma-se o traço√ nos spins dos sı́tios ×, de modo que os spins remanescentes, ◦, também formam uma rede
quadrada; b = 2. As linhas cheias representam as interações originais entre os spins, enquanto que as linhas
tracejadas representam as interações renormalizadas. (b) Um cluster com 4 sı́tios é ‘extraı́do’ de (a) [linhas cheias
mais grossas], para ser renormalizado: as 4 ligações originais de intensidade t ≡ tanh K dão origem a uma ligação
de intensidade t0 ≡ tanh K 0 ; veja o texto.

and u∗ = 1 (PM). Another important difference with respect to the 1D case is that the
derivative of u0 (u) at the FM fixed point, u∗ = 0, now vanishes, indicating that this
becomes an attractor for the ordered phase; recall the discussion related to Fig. 8.26(b).
Vamos agora deduzir uma transformação do GR por meio de dizimação para o modelo
de Ising com spins-1/2 na rede quadrada. A Fig. 8.30(a) mostra um pedaço de uma rede
quadrada, onde imaginamos que haja um spin em cada vértice. De cada dois spins, um
é mantido na rede renormalizada, e o outro é eliminado tomando-se o traço sobre ele
– no espı́rito da Eq. (8.8.2) – de modo a ficarmos com uma rede isomorfa à original.
Este objetivo é atingido eliminando-se todos os spins da sub-rede assinalados com ×,
mantendo os spins na outra sub-rede, assinalados com ◦. Mesmo assim, isto ainda é
difı́cil de ser implementado, levando-nos a fazer alguma aproximação. A mais imediata
consiste em obter uma transformação para um cluster, e supor que a transformação
resultante seja válida para toda a rede. A Fig. 8.30(b) mostra o cluster mais simples que
se pode extrair de uma rede quadrada, e a transformação é gerada tomando-se o traço
sobre os spins σ2 e σ4 . Lembrando que
0
eKσσ = cosh K + σσ 0 sinh K = cosh K(1 + σσ 0 t), (8.8.17)

pois σ, σ 0 = ±1, e onde t ≡ tanh K, podemos escrever


0
eH = Tr σ2 ,σ4 eK(σ1 σ2 +σ2 σ3 +σ3 σ4 +σ4 σ1 ) =
= cosh4 K Tr σ2 σ4 (1 + σ1 σ2 t)(1 + σ2 σ3 t)(1 + σ3 σ4 t)(1 + σ4 σ1 t) =
2t2
 
4 4
= cosh K(1 + t ) 1 + σ1 σ3 , (8.8.18)
1 + t4

onde utilizamos o fato de que Tr σ σ ≡ 0.


8.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 207

Por outro lado,


0 0
eH = eG0 +K σ1 σ3 = eG0 cosh K 0 (1 + σ1 σ3 t0 ), (8.8.19)
onde introduzimos em H0 uma constante, G0 , importante para o cálculo da energia livre
via GR, mas não para nossos propósitos mais imediatos aqui; veja, por exemplo, Th
Niemeijer e JMJ van Leeuwen, em Phase Transitions and Critical Phenomena, editado
por C Domb e MS Green, vol. 6 (1976). As equações (8.8.18) e (8.8.19) têm que ser
iguais para quaisquer σ1 e σ3 , de modo que a transformação do GR para este exemplo
é, finalmente,
2t2
t0 = . (8.8.20)
1 + t4
Esta relação admite os seguintes pontos fixos: t∗ = 0, t∗ = 1, e t∗ = 0.544. A
comparação deste último com o valor exato, t∗exato ' 0.414, pode parecer decepcionante,
mas deve-se levar em conta a simplicidade da transformação. Qualitativamente, o com-
portamento é o mesmo que o mostrado na Fig. 8.26(a). Estas transformações podem,
em geral, ser melhoradas sistematicamente aumentando-se o número de sı́tios nos clus-
ters que, todavia, se não for feito com cuidado, podem gerar acoplamentos de alcance
mais longo que o inicial. O expoente crı́tico obtido a partir da transformação (8.8.20)
é ν ' 0.67, também pior que o anterior [c.f. Eq. (8.7.13)], mas pode ser melhorado de
modo sistemático.
Finalizando, devemos fazer alguns comentários sobre as aproximações de cluster com
dizimação. Em primeiro lugar, elas têm uma inconsistência interna devido ao fato dos
spins não serem escalados; veja a Eq. (8.6.18). Como d = 2, isto equivale a fixar η = 0, o
que é, obviamente, uma limitação do método; os expoentes térmicos, todavia, são bem
descritos, bem como o comportamento qualitativo do sistema. Em segundo lugar, note
que tanto a TGR (8.7.7) quanto a (8.8.20) não admitem t∗ = −1 como ponto atrator,
correspondente a um estado fundamental antiferromagnético. Isto porque em ambos
os casos a estrutura de sub-redes, que define um arranjo antiferromagnético, não foi
preservada na TGR. Este ponto ilustra o fato de que uma boa dose de intuição deve
orientar a escolha da transformação.
Em resumo, as idéias contidas no Grupo de Renormalização, por incorporarem de
modo fundamental a simetria de invariância de escala, contribuı́ram para uma visão
unificadora dos fenômenos crı́ticos, além de fornecerem um arcabouço teórico para efe-
tuar cálculos de diagramas de fase e expoentes crı́ticos. Na próxima seção resumiremos
a formulação do GR de KG Wilson, que foi a primeira implementação efetiva das ideias
de Kadanoff.

8.9 The Momentum-Space Renormalization Group11


Para obter uma transformação do GR no espaço de momentos, vamos primeiro discutir
uma formulação conveniente do modelo de Ising neste espaço, a qual nos permitirá fazer
11
Esta seção é baseada em F Ravndal, Scaling & Renormalisation Groups (unpublished lecture notes,
Nordita, Copenhagen, 1975-76), lectures 8 & 9; ver também Reichl Cap. 8, Sec. S8.a.
208 CHAPTER 8. PHASE TRANSITIONS

Figure 8.31: Funções-peso usadas na passagem para o contı́nuo: (a) Duplo-delta, que recupera o caso discreto;
(b) Distribuição Gaussiana; (c) Distribuição-S 4 .

cálculos de forma mais simples. Lembremos inicialmente que a primeira zona de Brillouin
num espaço d-dimensional corresponde a componentes dos vetores de onda no intervalo
−π π
≤ kµ < , µ = 1, 2, . . . d (redes hipercúbicas), (8.9.1)
a a
onde a é o parâmetro de rede.
Vamos considerar o modelo de Ising nesta rede hipercúbica, para o qual a função de
partição se escreve
!
X XX X
Z(K) = exp K Sn Sn+e ≡ exp(−H[S]), (8.9.2)
{Sn } n e {Sn }

onde os n denotam sı́tios da rede e os e, vetores conectando metade dos sı́tios primeiros
vizinhos; H[S] deve, portanto, ser entendido como função de todos os Sn .
It is convenient to work with continuum variables, both in the sense that the spin
degree of freedom ranges continuously from −∞ to ∞ instead of simply Sm = ±1, and
in the sense that it is a function of a continuous spatial variable, x. The extended range
is accomplished by introducing weight functions, W (Sm ), in the partition function,
" Z #
Y ∞
Z(K) = dSm W (Sm ) exp(−H[S]). (8.9.3)
m −∞

Nossa formulação original (Sm = ±1) corresponde a tomar, portanto,


2
W (Sm ) = δ(Sm − 1); (8.9.4)

veja a Fig. 8.31(a).


8.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 209

Uma distribuição contı́nua possı́vel, e que, semelhantemente à distribuição discreta,


preserva como nulo o valor médio dos spins é
 c 
2
W (Sm ) ∼ exp − Sm (modelo Gaussiano), (8.9.5)
2
esboçada na Fig. 8.31(b). Porém, uma forma mais próxima do caso discreto por onde
começamos seria
 c 
2 4
W (Sm ) ∼ exp − Sm − u Sm (modelo S 4 ), (8.9.6)
2
com u > 0, para que as integrais correspondentes sejam convergentes; veja a Fig. 8.31(c).
Se c = −4u, obtemos
2
W (Sm ) ∼ exp{−u (Sm − 1)2 }, (8.9.7)
de modo que, para u grande, teremos pesos parecidos com as funções-δ originais. Note
que, de acordo com as ideias de universallidade [KG Wilson (1971)], espera-se que o
estudo do modelo S 4 , para quaisquer valores de c e u, terá as mesmas propriedades
crı́ticas que o caso especial c = −4u, u → ∞.

8.9.1 The Gaussian Model


Comecemos pela análise do modelo Gaussiano, Eq. (8.9.5), que é mais simples. Podemos
escrever
" Z # !
Y ∞ XX cX 2
Z(K) = dSm exp K Sn Sn+e − S , (8.9.8)
m −∞ n e
2 n n

o que define a Hamiltoniana efetiva do modelo Gaussiano,


" #
XX cX 2 KX X 2 2
HG [S] = −K Sn Sn+e + S = (Sn+e − Sn ) + R Sn , (8.9.9)
n e
2 n n 2 n e
com
c
R= − 2d, (8.9.10)
K
e onde a soma em e se dá agora sobre números positivos. Note também que o acopla-
mento R é análogo ao coeficiente α2 (T ) do termo em φ2 da Teoria de Landau; veja a
Eq. (8.3.44). Further, the term (Sn+e − Sn )2 may be interpreted as the finite-difference
version of a (∇S)2 , which, at the most elementary level, allows for fluctuations in S.
Introduzamos a transformada de Fourier dos spins da rede,
X
S(k) = ad S(xn ) e−ik·xn , (8.9.11)
xn
P P
com as notações S(xn ) ≡ Sn e xn ≡ n, cuja inversa é
Z π/a
S(x) = d−k S(k) eik·x , (8.9.12)
0
210 CHAPTER 8. PHASE TRANSITIONS

com
π/a π/a π/a π/a
dk1 dk2 dkd
Z Z Z Z

dk ≡ ··· . (8.9.13)
0 −π/a 2π −π/a 2π −π/a 2π
Deve-se notar que, deste modo, o ‘campo’ de spins S(x) [Eq. (8.9.12)] reproduz o spin
S(xn ) nos pontos da rede, mas assume valores não-nulos também entre os sı́tios.
We may then write
Z π/a
Sn = d−k S(k) eik·x , (8.9.14)
0
Z π/a
Sn+e = d−k S(k) eik·(x+e) , (8.9.15)
0

so that Z π/a h i
Sn+e − Sn = d−k S(k) eik·x eik·e − 1 . (8.9.16)
0
Taking the square and summing yields
X X Z π/aZ π/a 0 0
(Sn+e − Sn )2 =
X
d−kd−k0 S(k) S(k0 ) ei(k+k )·x (eik·e − 1)(eik ·e − 1)
n,e n e 0 0
Z π/a X 2
= d−k S(k) S(−k) eik·e − 1) , (8.9.17)
0 e

where we used the fact that


0
X
ei(k+k )·x = δ(k + k0 ). (8.9.18)
n

Assim, a representação de HG [S] no espaço de momentos toma a forma


Z π/a " #
1 −d −
X
ik·e 2
HG [S] = Ka dk |e − 1 | + R S(k)S(−k). (8.9.19)
2 0 e

Como estaremos interessados principalmente nas flutuações de longo alcance associadas


aos fenômenos crı́ticos (p.ex., transição de fase ferro-paramagnética de segunda ordem),
vamos colocar esta expressão em forma apropriada para longos comprimentos de onda,
k · e  1. Expandindo a exponencial e mantendo apenas o termo de ordem mais baixa,
X
|eik·e − 1 |2 ' k 2 a2 (8.9.20)
e

nos leva a
π/a
1
Z
HG [S] = Ka2−d d−k k 2 + r S(k)S(−k),
 
(8.9.21)
2 0
com
R c 2d
r= = − 2. (8.9.22)
a2 Ka2 a
8.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 211

Figure 8.32: As componentes de Fourier das variáveis de spin referentes aos comprimentos de onda curtos, i.e.,
π/ba < k ≤ π/a (região sombreada na figura), são eliminadas por integração.

Agora, a analogia com o coeficiente α2 (T ) da teoria de Landau se dá através de r (já


que o termo em k 2 está ligado às flutuações). Assim, espera-se que algum ponto crı́tico
corresponda a r = 0.
Este resultado sugere que se incorpore uma escala natural ao campo de spins, através
da redefinição
S(k) (Ka2−d )1/2 → S(k), (8.9.23)
de modo que
Λ
1
Z
d−k k 2 + r S(k) S(−k),
 
HG [S] = (8.9.24)
2 0
onde introduzimos a nomenclatura para o cutoff, Λ ≡ π/a. These changes remove the
specific length scale a, and, as we will see, only the scale factor b will play a significant
role.
Como vimos na Seção 8.6, a construção dos blocos de Kadanoff corresponde a eliminar
(i.e., tomar o traço parcial sobre) os graus de liberdade numa escala de comprimentos
inferior a ba, onde b é o fator de escala e a, o parâmetro de rede. Para efetuar uma
construção equivalente no espaço de momentos, lembremos inicialmente que distâncias
curtas correspondem a números de onda grandes, de modo que a redução de graus
de liberdade deve se dar pela eliminação (i.e., integração) dos modos com pequenos
comprimentos de onda, ou k’s ‘grandes’.
Vamos então dividir o intervalo de momentos 0 < k < π/a em uma parte de com-
primentos de onda longos, 0 < k < π/ba, e outra de comprimentos de onda curtos,
π/ba < k < π/a (b > 1); veja a Fig. 8.32. As componentes de Fourier do spin também
podem ser separadas em modos de comprimentos de onda longos, Sb0 (k), e curtos, σb (k),
definidos por
π π π
Sb0 (k) = S(k) para 0 < k < ; σb (k) = S(k) para <k< . (8.9.25)
ba ba a
We then have,
Z π/ba Z π/a
S(x) = d k Sb0 (k) eik·x

+ d−k σb (k) eik·x = Sb0 (x) + σb (x). (8.9.26)
0 π/ba

We note that Sb0 (x) is a slowly varying function over a length scale ba, while σb (x) is a
rapidly fluctuating function within this scale. Therefore, if we take a spatial average of
212 CHAPTER 8. PHASE TRANSITIONS

S(x) over the volume V = (ba)d , the contribution from σb (x) averages out to zero, while
Sb0 (x) may be regarded as a constant; we then get
1
Z
0
Sb (x) ' hS(x)iV = d d y S(y). (8.9.27)
V V
A Eq. (8.9.24) mostra que a Hamiltoniana é diagonal quando expressa em termos das
componentes de Fourier; temos então

HG [S] = HG [Sb0 ] + HG [σb ], (8.9.28)

com
Λ/b
1
Z
HG [Sb0 ] d−k k 2 + r Sb0 (k) Sb0 (−k)
 
= (8.9.29)
2 0
e
Λ
1
Z
d−k k 2 + r σb (k) σb (−k).
 
HG [σb ] = (8.9.30)
2 Λ/b

Assim, podemos escrever para a função de partição Z = Z(r),


Z Z Z
−HG [S] −HG [σb ] 0
Z(r) = DS e = Dσb e × DSb0 e−HG [Sb ] , (8.9.31)

onde usamos a notação abreviada,


Z Z ∞ Z ∞ Z ∞
DS ≡ dS1 dS2 · · · dSN , (8.9.32)
−∞ −∞ −∞

com definições análogas para Dσb e DSb0 .


Estamos agora em condições de escrever a equação do grupo de renormalização para
a variável r. O campo Sb0 corresponde aos spins do bloco de Kadanoff de lado ba,
e σb corresponde aos graus de liberdade de spin internos aos blocos. Para obter a
nova Hamiltoniana de blocos, devemos somar sobre os graus de liberdade internos, i.e.,
fazer a integral sobre σb na Eq. (8.9.31). Esta integral contribuirá com uma constante,
independente dos spins de bloco Sb0 ; logo, não nos interessará aqui e será omitida. Temos
então ( Z Λ/b )
1
Z
Z(r) = DSb0 exp − d−k (k 2 + r) Sb0 (k) Sb0 (−k) . (8.9.33)
2 0
Note que a Eq. (8.9.33) está escrita para um volume contraı́do, e devemos retorná-lo
ao tamanho original, para extrair por completo o efeito da mudança de escala. Com isto
em mente, façamos uma transformação de escala dos momentos,

kb = b k, (8.9.34)

que deve ser acompanhada pela introdução de um campo de spin renormalizado por um
parâmetro C, a ser determinado:

Sb (kb ) = C −1 Sb0 (k). (8.9.35)


8.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 213

Isto fornece
Λ
kb2
   
1
Z Z
Z(r) = DSb (kb ) exp − C 2 b−d −
d kb +r Sb (kb ) Sb (−kb ) . (8.9.36)
2 0 b2
O fator C deve ser ajustado de maneira que o coeficiente de kb2 que aparece na Hamilto-
niana transformada, Eq. (8.9.36), seja o mesmo que na Hamiltoniana original (8.9.24):
C 2 b−d b−2 = 1 ⇒ C = b1+d/2 . (8.9.37)
Finalmente, Z
Z(rb ) = DSb e−HG [Sb ] , (8.9.38)
com
1 Λ−
Z
d kb kb2 + rb Sb (kb ) Sb (−kb ),

HG [Sb ] = (8.9.39)
2 0
onde a constante de acoplamento renormalizada é
rb = b2 r, (8.9.40)
que mostra que um ponto fixo é r = 0. O autovalor desta transformação é, portanto,
λt = b2 ⇒ yt = 2 (8.9.41)
Para obter o autovalor magnético, precisamos aplicar um campo B, o que contribui
com um termo adicional na Hamiltoniana,
X
HB [S] = B Sn = a−d BS(k = 0). (8.9.42)
n

Mas, tomando k = 0 na Eq. (8.9.35), obtemos


HB [Sb ] = a−d B C Sb (k = 0) ≡ a−d Bb Sb (k = 0), (8.9.43)
com
Bb = C B ⇒ λh = C = b1+d/2 ⇒ yh = 1 + d/2 (8.9.44)
Usando as relações entre expoentes crı́ticos e (yt , yh ), obtidas na Seção 8.6, obtemos:

d − yh d−2
β= = , (8.9.45a)
yt 4
yh d+2
δ= = , (8.9.45b)
d − yh d−2
2yh − d
γ= = 1, (8.9.45c)
yt
d d
α=2− =2− , (8.9.45d)
yt 2
1 1
ν= = , (8.9.45e)
yt 2
η = d + 2 (1 − yh ) = 0. (8.9.45f)
214 CHAPTER 8. PHASE TRANSITIONS

Vemos que alguns expoentes apresentam uma dependência explı́cita com a dimensiona-
lidade do espaço, algo ausente das formulações do GR aqui discutidas anteriormente.
No entanto, o fato de que ν = 1/2, η = 0 e γ = 1 para todo d, sendo estes os valores
previstos pelas TCM’s, indica que as leis de escala [Eqs. (8.6.36)] só não serão violadas
se tomarmos d = 4, que é a dimensionalidade crı́tica superior, ds . Conclui-se, portanto,
que o modelo Gaussiano corresponde a efetuar uma aproximação de campo médio no
modelo inicial. Na realidade, isto não é surpreendente, já que na aproximação Gaussiana
cada modo flutua independentemente em torno da distribuição mais provável, e isto é a
essência das TCM’s.
Veremos, em seguida, que ds desempenha um importante papel no GR no espaço dos
momentos, ao discutir o modelo S 4 .

8.9.2 The S 4 Model


Vamos agora delinear o que ocorre com o modelo S 4 , ao aplicarmos as mesmas ideias
usadas para a renormalização do modelo Gaussiano. The partition function is now
written as Z
Z(K, ũ) = DS e−H[S] , (8.9.46)

with XX Xc 
H[S] = −K Sn Sn+e + Sn2 + ũSn4 , (8.9.47)
n e n
2

onde, por conveniência, usamos ũ ao invés de u, como aparece na Eq. (8.9.6). Intro-
duzindo as componentes de Fourier do campo de spins, e fazendo a renormalização tal
como para o modelo Gaussiano, temos :

1 Λ−
Z
H[S] = d k (k 2 + r) S(k) S(−k)
2 0
Z Λ Z Λ Z Λ Z Λ
+u d−k1 d−k2 d−k3 d−k4 S(k1 ) S(k2 ) S(k3 ) S(k4 ) δ(k1 + k2 + k3 + k4 )
0 0 0 0
(8.9.48)
= H0 [S] + V[S], (8.9.49)

onde H0 [S] corresponde ao modelo Gaussiano e


u= . (8.9.50)
K 2 a 4−d

O termo de interação V[S] = V[Sb0 , σb ] acopla as componentes de comprimento de onda


longo, Sb0 , e curto, σb ; isto resulta do fato de que, como a δ correspondente agora envolve
4 vetores de onda, nada impede que tenhamos alguns k’s de um tipo, e outros do outro
tipo, ainda assim somando zero. Portanto, teremos de fazer algo similar ao procedimento
adotado para transformações no espaço real: calcular médias em relação ao ensemble
8.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 215

em que as ‘células’ são consideradas desacopladas, só que agora as médias são sobre os
graus de liberdade de curto alcance, com o fator de Boltzmann exp(−H0 [σb ]):
0
Dσb e−H0 [σb ] e−V[Sb ,σb ]
R
−V[Sb0 ]
he i0 = . (8.9.51)
Dσb e−H0 [σb ]
R

Nesta aproximação, escrevemos:


Z
0 0
Z(r, u) = DSb0 e−H0 [Sb ] he−V[Sb ] i0 . (8.9.52)

Como a expansão em cumulantes (ver, e.g., Reichl 4.D.3) fornece


1 2 i −hVi2 ]+...
heV i0 = ehVi0 + 2 [hV 0 0 , (8.9.53)

teremos Z
0 1 2 i −hVi2 ]+...
Z(r, u) = DSb0 e−H0 [Sb ]−hVi0 − 2 [hV 0 0 . (8.9.54)

Começamos como no modelo Gaussiano, fazendo

kb = b k e Sb0 (k) = C Sb (kb ), (8.9.55)

sendo que agora precisamos também de uma expressão para ub , o transformado do termo
u em S 4 .
A partir daı́, desenvolvendo e mantendo os termos de ordem mais baixa possı́vel, e
que ainda assim dão resultado não-trivial, temos:

C = b1+d/2 , (8.9.56)

isto é, nesta ordem C é idêntico ao do caso Gaussiano. Também,

ub = C 4 b−3d u + O(u2 )
 
(8.9.57)

onde deve-se notar que a 4a. potência em C aparece porque este termo envolve 4 spins, e
o fator b−3d surge porque há 4 integrais em d−kb , mas a função δ elimina uma destas.12
Substituindo C dado por (8.9.56), obtemos:

ub = b4−d u + O(u2 ) .
 
(8.9.58)

Definindo ε ≡ 4−d, vemos que para ε < 0 (d > 4), o acoplamento de 4 spins é irrelevante,
i.e., u renormaliza para zero, de modo que o comportamento deve ser o mesmo do modelo
Gaussiano. Por outro lado, se ε > 0 (d < 4), o comportamento deve diferir do modelo
Gaussiano.
12
Lembre-se que para o acoplamento de 2 spins tı́nhamos 2 integrais, e 1 função-δ, e, ao final, ficamos
com 1 integral, e a condição dada pela δ aparecia no fato de que os 2 termos de spin correspondiam,
respectivamente, a k e −k.
216 CHAPTER 8. PHASE TRANSITIONS

r (a) d > 4 r (b) d < 4

* u * u

*
Figure 8.33: Flow diagrams. The fixed points are denoted by ∗.

A análise do acoplamento de 2 spins mostra que, em ordem mais baixa, temos o


mesmo resultado do modelo Gaussiano:
rb = b2 [r + O(u)] . (8.9.59)
Logo, para obter os valores corretos (mesmo em ordem mais baixa) das posições dos
pontos fixos, e correspondentes autovalores da transformação, é necessário calcular as
correções indicadas nas 2 equações acima. Os cálculos são um tanto extensos (e fogem
dos objetivos deste curso introdutório), mas o resultado final é (ver Ravndal, Reichl)
 
2 C1 (b)
rb = b r + 12u (8.9.60a)
1+r
 
C2 (b)
ub = b4−d u − 36u2 , (8.9.60b)
(1 + r)2
com Z 1
1
C` (b) ≡ (1 + r)` d−k 2 . (8.9.61)
1/b (k + r)`
Os pontos fixos da transformação (8.9.60) são os seguintes:
(r∗ , u∗ ) = (0, 0) → ponto fixo trivial, ou Gaussiano (8.9.62)
 
∗ ∗ ε ε
(r , u ) = − , → ponto fixo não-trivial, só acessı́vel quando ε > 0, (8.9.63)
6 3d0
onde d0 é uma constante relacionada ao ângulo sólido em d dimensões. Note que para
d > 4 apenas o primeiro ponto fixo é acessı́vel, sendo localizado na origem da Fig. 8.33(a).
Este mesmo ponto fixo (r∗ , u∗ ) = (0, 0) ainda aparece para d < 4, mas surge um novo
ponto fixo; ambos são indicados na Fig. 8.33(b).
Na vizinhança de cada ponto fixo, a transformação linearizada do grupo de renor-
malização (TGR) pode ser expressa sob a forma matricial. Aqui também os cálculos são
longos, chegando-se a (veja Ravndal, Reichl)
2 − d0 u∗ d0 (1 − r∗ )
   
r
M= , na base , (8.9.64)
0 ε − 6d0 u∗ u
8.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 217

até ordem mais baixa em ε. A estabilidade relativa dos pontos fixos é determinada pelos
autovalores da TGR,

λ1 = 2 − d0 u∗ (8.9.65a)

λ2 = ε − 6d0 u , (8.9.65b)

enquanto que as trajetórias do GR são descritas pelos correspondentes autovetores (à


direita, R),
 
R 1
v1 = (8.9.66a)
0
− 20 1 + 12 (ε + 4r∗ )
 d  
R
v2 = (8.9.66b)
1

Assim, v1R aponta na direção de r, enquanto que v2R aponta numa direção inclinada com
relação a r e u; veja a Fig. 8.33.
Quando d > 4 (ε < 0), só há um ponto fixo, a saber (r∗ , u∗ ) = (0, 0), e o comporta-
mento crı́tico é regido por este ponto fixo (Gaussiano), com λ1 desempenhando o papel
de autovalor térmico,

λ1 = λt = 2 (8.9.67a)
λ2 = ε < 0, (8.9.67b)

Dizemos então que v1R é uma perturbação relevante, por afastar as trajetórias do ponto
fixo (0, 0) (para longe da criticalidade), daı́ que λ1 faz o papel do autovalor térmico,
associado aos expoentes crı́ticos. Por outro lado, v2R é dita uma perturbação irrelevante,
por ‘sugar’ as trajetórias em direção ao ponto fixo (0, 0), i.e., não consegue afastar da
criticalidade. Este comportamento das trajetórias do GR estão ilustrados na Fig. 8.33(a).
Quando d < 4 (ε > 0), as Eqs. (8.9.65) fornecem dois conjuntos de autovalores:
(
λG
1 =2
Gaussiano: (8.9.68)
λG
2 = ε > 0,

e (
λ1 = 2 − 3ε
Não-trivial: (8.9.69)
λ2 = −ε < 0.
Note as seguintes diferenças com relação ao caso d > 4: (1) com a troca de sinal de
λ2 no ponto fixo gaussiano, a direção v2R passa a ser relevante, por levar o comporta-
mento crı́tico para o ponto fixo não-trivial, enquanto que a auto-direção v1R no ponto fixo
Gaussiano não sofreu qualquer mudança. (2) há um segundo ponto fixo, cujo compor-
tamento crı́tico também está associado com a direção v1R , porém com autovalor distinto
do correspondente Gaussiano, em torno do qual a direção v2R é irrelevante (λ2 < 0).
Os diagramas de fluxo resultantes são, portanto, aqueles mostrados na Fig. 8.33. Para
d = 4, a análise é mais complexa, já que aparecem correções logaritmicas.
218 CHAPTER 8. PHASE TRANSITIONS

Table 8.1: Comparação entre diferentes previsões de valores dos expoentes crı́ticos.

mean- ε-
exponent d=3 experiments
field expansion
α 0 ε/2 1/2 0.12
β 1/2 1/2 − ε/6 1/3 0.31
δ 3 3+ε 4 5.2
γ 1 1 + ε/6 7/6 1.25
ν 1/2 1/2 + ε/12 7/12 0.64
η 0 0 0 0.1

Embora toda esta análise seja correta, em princı́pio, apenas para ε  1, é ilustrativo
examinar o que ocorre se fizermos ε = 1, ou d = 3. Usando os valores apropriados da
expansão-ε para d < 4, lançamos na Tabela 8.1 os valores correspondentes; a tabela
então compara os expoentes, até ordem ε, com os de campo médio (mean-field), bem
como com resultados experimentais para d = 3 (magnetos de Ising, i.e, com anisotropia
uniaxial, ou sistemas P V T próximos ao ponto crı́tico). Note que, com exceção de η,
todos os resultados da expansão-ε representam correções às previsões de campo médio,
e, importante, apontam nas direções corretas de aumento ou diminuição dos valores à
medida em que a dimensionalidade diminui de 4.

8.10 Exercises
1. A Fig. 8.4 mostra curvas de coexistência para um fluido tı́pico. Ao longo do trecho
AC, denominado de curva de pressão de vapor, as fases gasosa e lı́quida coexistem.
Suponha que, ao longo desta curva, as mudanças de volume do lı́quido sejam de-
sprezı́veis em comparação com as mudanças no volume do gás, e que este último
possa ser tratado como um gás ideal. Suponha também que o calor latente de vapo-
rização por mol, `, seja aproximadamente constante no intervalo de temperaturas de
interesse.

(a) Mostre que a pressão de vapor é dada por

P = P0 e−`/RT ,

onde R é a constante dos gases, e P0 é uma constante.


(b) Mostre que a capacidade calorı́fica ao longo da curva de pressão de vapor é dada
por
ν`
Ccoex = CP − ,
T
para ν moles.

2. Obtenha os expoentes crı́ticos α, β, γ e δ para o gás de van der Waals.


8.10. EXERCISES 219

3. O modelo de Heisenberg para spin-S é definido pela Hamiltoniana


X X
H = −J Si · Sj − µ H · Si ,
hiji i

onde µ é o momento magnético, H é um campo externo aplicado, e as somas se


estendem aos sı́tios de uma rede d-dimensional, sendo que hiji restringe a soma a
pares de primeiros vizinhos. Considere a aproximação de Weiss para este modelo.
(a) Mostre que a temperatura crı́tica é dada por
S(S + 1) µzJ
kB Tc = ,
3 2
onde z é o número de coordenação. Compare os resultados com os do modelo de
Ising e comente fisicamente.
(b) Mostre que a magnetização satisfaz uma lei de estados correspondentes, como
função de um campo H̃ e de uma temperatura T̃ reduzidos.
(c) Obtenha os expoentes crı́ticos α, β, γ e δ e comente sua dependência com S e d.
4. Considere um sistema de spins localizados, descrito pela Hamiltoniana
X X
H = −J σiz σjz − Γ σix ,
hi,ji i

onde os σ são as matrizes de Pauli e a primeira soma se estende aos pares de sı́tios
primeiros vizinhos de uma rede d-dimensional com número de coordenação z. Pode-
mos definir uma Hamiltoniana efetiva (Weiss) como
X
HW = − γ · σ i,
i

onde o campo médio que atua em cada spin é dado por


zJ z
γ = Γx̂ + hσ i ẑ;
2
veja a Figura 8.34.
(a) Tome a direção ẑ0 , paralela a γ , como a nova direção de quantização. Mostre que
0
hσ z i ≡ R = tanh βγ,
onde γ ≡ | γ |.
(b) Obtenha uma condição de autoconsistência para γ. A transição de fase é sina-
lizada por hσ z i ' 0, o que ocorre para Γ ∼ J. Mostre que, neste caso, a curva
crı́tica é dada por
2Γ Γ
= tanh ,
zJ kB Tc
e faça um esboço de τ ≡ (2kB Tc /zJ) em função de g = 2Γ/zJ. Discuta seus
resultados fisicamente.
220 CHAPTER 8. PHASE TRANSITIONS

z’
zJ < z >
2
R
< z>

< x> x
Figure 8.34: Problema 4 – Teoria de Weiss para o modelo de Ising com campo transverso.

5. Considere a seguinte expansão para a energia livre, em termos do parâmetro de ordem


φ, de um sistema magnético a campo nulo.

A(T, φ) = A0 (T ) + α2 (T ) φ2 − α4 (T ) φ4 + α6 (T ) φ6 ,

com α4 (T ) > 0. Suponha que, perto de Tc , o coeficiente do termo em φ6 possa ser


escrito como
α2 (T ) T − Tc
α6 (T ) = 4 (1 + ε), ε ≡ .
3α2 (T ) Tc
Discuta a transição de fase do sistema.

6. Em um diagrama de fases, o encontro entre linhas de transição de primeira e de


segunda ordens, se dá no chamado ponto tricrı́tico, caracterizado, por exemplo, por
uma temperatura Tt . Na expansão de Landau para a energia livre, este ponto é deter-
minado impondo-se que o coeficiente do termo de quarta ordem se anule: α4 (Tt ) = 0.
Considere um sistema magnético e defina ε ≡ (T − Tt )/Tt .

(a) Calcule os expoentes tricrı́ticos:


(i) para a magnetização, M ∼ |ε|βt ;
(ii) para a suscetibilidade, χT ∼ |ε|−γt ;
(iii) para a isoterma crı́tica, M ∼ H 1/δt ; e
(iv) para o calor especı́fico, ∆CH ∼ |ε|−αt .
(b) Obtenha a dimensão crı́tica superior para fenômenos tricrı́ticos, sabendo que os
expoentes que descrevem as correlações são os mesmos da teoria de Landau para
os pontos crı́ticos usuais, a saber, νt = 1/2 e ηt = 0.
8.10. EXERCISES 221

7. Um determinado sistema sofre uma transição de fase descrita por um parâmetro de


ordem bidimensional, φ ≡ (φ1 , φ2 ). Suponha que argumentos de simetria imponham
que a expansão de Landau para a energia livre de Helmholtz seja dada por
a 2  b 4  λ
A(T, φ ) = A0 + φ1 + φ22 + φ1 + φ42 + φ21 φ22 ,
2 4 2
onde A0 , a, b e λ são funções de T , com b > 0 e λ 6= b.

(a) Discuta as transições de fase deste sistema, caracterizadas pelo ordenamento


(e/ou desordenamento) das componentes φ1 e φ2 .
(b) Discuta a estabilidade das fases obtidas em (a) num diagrama λ vs. b.

8. Mostre que para um sistema descrito pela Hamiltoniana


X X
H = −J σi σj − Hσi ,
hi,ji i

onde os σ = ±1 e a primeira soma se estende aos pares de primeiros vizinhos, a


suscetibilidade satisfaz a regra de soma
β X
χ= h[σi − hσi i][σj − hσj i]i ,
N
i,j

onde N é o número de sı́tios da rede. Este é o teorema da flutuação-dissipação.

9. Mostre que a função de correlação para o modelo de Ising em uma rede unidimensional
com condições de contorno periódicas é dada por
 r
λ<
hσ0 σr i = hσ0 ihσr i + a ,
λ>
onde a é uma constante e os λ’s são os autovalores da matriz de transferência.

10. No chamado modelo de Potts associa-se a cada sı́tio uma variável clássica, σi =
1, 2 . . . q, representando os estados possı́veis de um vetor. Para q = 2, o vetor pode
apontar em um dos dois sentidos de uma direção arbitrária; é o caso análogo ao da
componente z do operador de spin-1/2. Para q = 3 (q = 4), o vetor pode apontar
para um dos vértices de um triângulo equilátero (tetraedro). A energia de interação
entre dois destes vetores, localizados em sı́tios vizinhos i e j pode ser tomada como

Hij = −qJδσi σj ,

onde J é uma constante e δσi σj é a função delta de Kronecker. Considere uma rede
linear (uni-dimensional) cujos N (N  1) sı́tios estejam ocupados por variáveis deste
tipo, nos casos particulares de q = 3 e 4. Calcule o comprimento de correlação destes
sistemas a baixas temperaturas e interprete fisicamente seu resultado. Comparando
os resultados para q = 2, 3 e 4, intua o comportamento de ξ(T ) para um q genérico.
222 CHAPTER 8. PHASE TRANSITIONS

11. O modelo de Ising com spin−1 num anel é definido pela Hamiltoniana
X
H = −J Si Si+1 ,
i

onde Si = 0, ±1.

(a) Escreva a matriz de transferência para este modelo, numa base de autovetores do
operador Π, que tem a seguinte propriedade: Π|Si = | − Si.
(b) Obtenha o comprimento de correlação a baixas temperaturas.
(c) Qual a temperatura crı́tica deste sistema?

12. The left panel in Fig. 8.35 shows part of a triangular lattice, in which we highlight a
cluster of sites labelled 11, 12, 13, 21, 22, and 23. We assume each site is occupied by
a spin-1/2 (σij = ±1) which interacts only with its nearest-neighbours, through an
Ising coupling, K ≡ J/kB T . A Renormalisation Group transformation (RGT) may
be obtained by ascribing a new spin to each triangle, according to the majority rule,

σi = sign (σi1 + σi2 + σi3 ), i = 1, 2. (8.10.1)

1"
11"
K K
12" 13"
K
K K
K0
p
b= 3
21"
K K
22" 23" 2"
K

Figure 8.35: Problem 12: Cluster for a majority-rule RGT for the triangular lattice.

(a) Show that the RGT is

v 6 + 3v 4 + 2v 3 + 3v 2 + 6v + 1
v0 = , (8.10.2)
2v 4 + 2v 3 + 4v 2 + 6v + 2
where v 0 ≡ exp(2K 0 ), and v ≡ exp(2K). [Suggestion: As usual, the use of
symmetry considerations simplifies the calculations considerably.]
(b) Verify that v ∗ = 1 and v ∗ = ∞ are fixed points. Interpret the physical content of
each of these.
(c) Solve Eq. (8.10.2) for the critical fixed point, and compare your estimate for K ∗
with the exact result, Kcexact = 0.27465.
(d) Obtain an estimate for the correlation length exponent, ν, and compare with the
exact result, ν exact = 1.
8.10. EXERCISES 223

13. Considere o cluster representado na Fig. 8.36(a) como um pedaço de uma rede qua-
drada, que tem spins de Ising em cada sı́tio. Impondo como condições de contorno
que os sı́tios 1 e 1’ (2 e 2’) estejam no mesmo estado de spin, o cluster fica equivalente
ao da Fig. 8.36(b), no qual as ligações horizontais externas foram descartadas porque
estamos interessados na propagação de correlações na direção vertical. Cada par de
spins interage com constante de acoplamento K ≡ J/kB T . Uma transformação do
grupo de renormalização pode ser obtida eliminando-se as variáveis de spin nos sı́tios
3 e 4 do cluster da Fig. 8.36(b), obtendo-se um acoplamento efetivo K 0 entre os spins
nos sı́tios 1 e 2, como na Fig. 8.36(c).

2=2’" 2"
2" 2’"
K K K K

≈"
K K
3" 4" K’
3" 4" b=2
K K K K
K
1=1’" 1"
1" 1’"
(a)" (b)" (c)"

Figure 8.36: Problema 13 – Cluster auto-dual para a rede quadrada.

(a) Mostre que a TGR neste caso é dada por

2t2 (1 + t)
t0 = ,
1 + 2t3 + t4

onde t ≡ tanh K e t0 ≡ tanh K 0 .


(b) Obtenha o ponto fixo da transformação e o expoente ν. Compare com os resul-
tados exatos, tanh Kc = 0.414 e ν = 1. Comente.

14. Suponha que as ligações entre os sı́tios de uma rede não estejam necessariamente todas
presentes, mas apenas uma fração delas, distribuı́das aleatóriamente; a concentração
de ligações é p ∈ [0, 1].

(a) Discuta qualitativamente a existência (ou não) de uma ilha infinita composta de
sı́tios conectados por ligações nos limites p  1 e p ∼ 1. Faça analogia desta
transição geométrica (de percolação) com uma transição de fase térmica.
(b) Considere três sı́tios dispostos ‘em série’ como na Fig. 8.37(a). Qual a probabil-
idade ps do sı́tio 1 estar conectado ao 3? Qual o valor da concentração crı́tica
para a transição de percolação em uma dimensão? Justifique cuidadosamente
suas argumentações.
224 CHAPTER 8. PHASE TRANSITIONS

p
1$ p 2$ p 3$
1$ 2$
p

(a)$ (b)$

Figure 8.37: Problema 14 – Combinações em série (a) e em paralelo (b) de ligações de uma rede. Cada ligação
está presente com probabilidade p.

(c) Considere dois sı́tios dispostos ‘em paralelo’ como na Fig. 8.37(b). Qual a prob-
abilidade pp do sı́tio 1 estar conectado ao 2? Justifique cuidadosamente suas
argumentações.
(d) Use o cluster da dizimação na rede quadrada [Fig. 8.30(b)] e as associações em
‘série’ e ‘paralelo’ para obter uma aproximação para pc e ν para o problema
da percolação por ligações na rede quadrada. Justifique cuidadosamente suas
argumentações. Compare com os resultados exatos pc = 1/2 e ν = 4/3.

15. Considere o problema de percolação por sı́tios, no qual cada sı́tio possa estar ativo
com probabilidade p e inativo com probabilidade 1−p. Semelhantemente ao problema
de percolação por ligações, existem dois regimes distintos: o de altas concentrações,
no qual pode-se atravessar a rede (infinita) de um extremo a outro, por caminhos
formados pela conexão de sı́tios ativos primeiros vizinhos; e o de baixas concentrações,
no qual não há um caminho conectando um extremo a outro da rede.

5 6

p p
3 4

p p
1 2
Figure 8.38: Problema 15

(a) Considere o cluster da Fig. 8.38, como uma aproximação da rede quadrada. Cal-
cule a probabilidade, p0 , de que os sı́tios 1 ou 2 estejam ligados aos sı́tios 5 ou 6
por meio de um caminho formado de sı́tios ativos primeiros vizinhos.
8.10. EXERCISES 225

(b) Interprete o resultado de (a) como a probabilidade do cluster estar ativo, no


contexto do Grupo de Renormalização. Obtenha, então, uma aproximação para
(s)
a concentração crı́tica, pc .
(c) De um modo geral, como você espera que as concentrações crı́ticas para os prob-
(s) (`)
lemas de percolação por sı́tios e por ligações, pc e pc , considerando uma mesma
rede (p. ex., quadrada, triangular, etc) devam se comparar?

16. A Hamiltoniana de Ising em uma dimensão é dada por


X
H = −J σiz σi+1
z
,
i

onde J > 0 e J < 0 correspondem, respectivamente, aos casos ferromagnético (FM)


e antiferromagnético (AFM), e os σ z são as matrizes de Pauli.

(a) Quais os estados fundamentais do sistema nos casos FM e AFM?


(b) Defina t ≡ tanh J/kB T e t0 = tanh(J/kB T )0 , e mostre que a combinação ‘em
série’ de b ligações fornece t0 = tb ; veja a Fig. 8.39. [Sugestão: obtenha uma
transformação do Grupo de Renormalização (TGR) ‘dizimando’ os spins nos sı́tios
cheios da Fig. 8.39]

t t t b t’

1 2 3 b b+1 1 b+1

Figure 8.39: Problema 16

(c) Obtenha os pontos fixos da TGR. Eles dependem de b? Discuta detalhadamente


o significado fı́sico de cada um deles, incluindo o valor de Tc .
(d) Comente sobre a adequação (ou não) da descrição do caso antiferromagnético
por este método.
226 CHAPTER 8. PHASE TRANSITIONS
Chapter 9

Introduction to Nonequilibrium
Statistical Mechanics
Refs.: Reichl e Pathria; Sergio Queiroz, Notas de Aula

9.1 Introduction
Até aqui vimos trabalhando com sistemas em equilı́brio no limite termodinâmico
(N, V → ∞). Nestes casos, médias termodinâmicas são calculadas, e correspondem
aos resultados esperados das medidas das diversas grandezas. No entanto, já vimos
que flutuações em torno das médias existem, mas que são geralmente pequenas. Não
obstante, o estudo destas flutuações é particularmente importante por diversas razões.
Primeiramente, porque elas desempenham um papel crucial na vizinhança de pontos
crı́ticos de 2a. ordem: o comportamento estático (i.e., sem dependência temporal) das
funções de correlação serviu de base para as teorias de scaling no Cap. 8. Em segundo
lugar, porque as flutuações nos permitem compreender, de forma abrangente, uma classe
de fenômenos, genericamente chamados de “movimentos Brownianos”, em homenagem
ao botânico Robert Brown, que, em 1827, observou que grãos de pólen imersos em água
executam um movimento errático de agitação. Trata-se de um movimento no qual al-
guns poucos graus de liberdade do sistema (os grãos de pólen) evoluem em uma escala
de tempo muito mais lenta que os demais (as moléculas da água). No contexto de nosso
curso, a descrição deste movimento ilustra como um sistema simples se aproxima do
equilı́brio, e como as flutuações podem ser tratadas de modo quantitativo. Antes, porém,
discutiremos como trabalhar com funções de distribuição de probabilidades dependentes
do tempo, em casos simples de memória restrita a eventos recentes, os chamados pro-
cessos markovianos.

9.2 Time-dependent Probability Distributions


Consideremos um sistema cujas propriedades possam ser descritas em termos de uma
única variável estocástica Y ; esta pode representar a velocidade de uma partı́cula Brow-
niana, a distância percorrida em um movimento aleatório (random walk ), o estado de

227
228 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

spin de uma partı́cula, etc.


Usaremos as seguintes definições:
• Densidade de probabilidade de que Y = y1 no instante t1 : P1 (y1 , t1 )
• Densidade de probabilidade conjunta de que Y = y1 em t1 e Y = y2 em t2 :
P2 (y1 , t1 ; y2 , t2 )
• Densidade de probabilidade conjunta de que Y = y1 em t1 , Y = y2 em t2 ,. . . , e
Y = yn em tn : Pn (y1 , t1 ; y2 , t2 ; . . . ; yn , tn )
Estas densidades de probabilidade são positivas,
Pn ≥ 0, (9.2.1)
redutı́veis,
Z
dyk Pn (y1 , t1 ; . . . ; yk , tk ; . . . ; yn , tn ) = Pn−1 (y1 , t1 ; . . . ; yk−1 , tk−1 ; yk+1 , tk+1 ; . . . ; yn , tn ),
(9.2.2)
e normalizadas, Z
dy1 P1 (y1 , t1 ) = 1. (9.2.3)

Podemos também definir múltiplas correlações (i.e., momentos da distribuição) entre


as variáveis estocásticas em diferentes instantes de tempo,
Z Z Z
hy1 (t1 ) y2 (t2 ) . . . yn (tn )i = dy1 dy2 . . . dyn y1 y2 . . . yn Pn (y1 , t1 ; . . . ; yn , tn ).
(9.2.4)
Se Y for uma variável discreta, as integrais acima devem ser substituı́das por somas.
Um processo é dito estacionário se
Pn (y1 , t1 ; y2 , t2 ; . . . ; yn , tn ) = Pn (y1 , t1 + τ ; y2 , t2 + τ ; . . . ; yn , tn + τ ), (9.2.5)
para todo n e τ . Assim, para um processo estacionário,
P1 (y1 , t1 ) = P1 (y1 ), (9.2.6)
de modo que hy1 (t1 )y2 (t2 )i depende apenas do intervalo de tempo |t1 −t2 |, como demons-
trado a seguir.
Demonstração:
Z Z
hy1 (t1 ) y2 (t2 )i = dy1 dy2 y1 y2 P2 (y1 , t1 ; y2 , t2 ) (9.2.7)
Z Z
= dy1 dy2 y1 y2 P2 (y1 , t1 + τ ; y2 , t2 + τ ) (9.2.8)
Z Z
−→ = dy1 dy2 y1 y2 P2 (y1 , 0 ; y2 , t2 − t1 ) (9.2.9)
τ =−t1
Z Z
−→ = dy1 dy2 y1 y2 P2 (y1 , t1 − t2 ; y2 , 0) (9.2.10)
τ =−t2

=⇒ hy1 (t1 ) y2 (t2 )i só depende de |t1 − t2 |. (9.2.11)


9.2. TIME-DEPENDENT PROBABILITY DISTRIBUTIONS 229

Todos os processos fı́sicos em equilı́brio são estacionários.


É importante também introduzir a (densidade de) probabilidade condicional de que
Y valha y2 em t2 dado que valeu y1 em t1 , denotada por P1|1 (y1 , t1 | y2 , t2 ). Ela é definida
pela identidade
P2 (y1 , t1 y2 , t2 ) ≡ P1 (y1 , t1 ) × P1|1 (y1 , t1 | y2 , t2 ). (9.2.12)
Usando (9.2.2) e (9.2.12), obtemos uma relação entre densidades de probabilidade em
tempos distintos:
Z
P1 (y2 , t2 ) = dy1 P1 (y1 , t1 ) P1|1 (y1 , t1 | y2 , t2 ). (9.2.13)

Integrando (9.2.12) em y2 , temos


Z
dy2 P2 (y1 , t1 y2 , t2 ) = P1 (y1 , t1 )
Z
= P1 (y1 , t1 ) dy2 P1|1 (y1 , t1 | y2 , t2 ), (9.2.14)

where the first equality follows from Eq. (9.2.2). Therefore, the conditional probability
is also normalised: Z
dy2 P1|1 (y1 , t1 | y2 , t2 ) = 1. (9.2.15)

P1|1 é também chamada de probabilidade de transição (de y1 para y2 ).


De modo análogo, podemos também definir uma probabilidade condicional conjunta
de que Y valha yk+1 em tk+1 , · · · , yk+` em tk+` , dado que valeu y1 em t1 , · · · , yk em tk :
Pk|` (y1 , t1 ; · · · ; yk , tk | yk+1 , tk+1 ; · · · ; yk+` , tk+` ). Assim,

Pk|` (y1 , t1 ; · · · ; yk , tk | yk+1 , tk+1 ; · · · ; yk+` , tk+` ) =


Pk+` (y1 , t1 ; · · · ; yk , tk ; yk+1 , tk+1 ; · · · ; yk+` , tk+` )
. (9.2.16)
Pk (y1 , t1 ; · · · ; yk , tk )
Probabilidades condicionais são importantes quando há correlações entre os valores da
variável estocástica em tempos diferentes; isto é, quando a variável estocástica guarda
alguma memória do passado.
No entanto, se a variavel estocástica só tem memória do passado imediato, o processo
de evolução temporal é chamado de Markoviano. Neste caso,

Pn−1|1 (y1 , t1 ; · · · ; yn−1 , tn−1 | yn , tn ) = P1|1 (yn−1 , tn−1 | yn , tn ),


com t1 < t2 < · · · < tn .
(9.2.17)
Assim, um processo Markoviano é completamente determinado por P1 (y, t) e
P1|1 (y1 , t1 | y2 , t2 ), e toda a hierarquia de densidades de probabilidades pode ser obtida
a partir destas. Por exemplo:

P3 (y1 , t1 ; y2 , t2 ; y3 , t3 ) = P2 (y1 , t1 ; y2 , t2 ) P2|1 (y1 , t1 ; y2 , t2 | y3 , t3 )


= P1 (y1 , t1 ) P1|1 (y1 , t1 | y2 , t2 ) P1|1 (y2 , t2 | y3 , t3 ). (9.2.18)
230 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

Figure 9.1: Forma tı́pica da probabilidade de transição. O passo da transição é ξ = y − y 0 . [Figura cedida por
SLA de Queiroz]

Integrando sobre y2 e admitindo t1 < t2 < t3 , vem


Z
P2 (y1 , t1 ; y3 , t3 ) = P1 (y1 , t1 ) dy2 P1|1 (y1 , t1 | y2 , t2 ) P1|1 (y2 , t2 | y3 , t3 ), (9.2.19)

que, dividindo por P1 (y1 , t1 ), fornece


Z
P1|1 (y1 , t1 | y3 , t3 ) = P1|1 (y1 , t1 | y2 , t2 ) P1|1 (y2 , t2 | y3 , t3 ) dy2 , (9.2.20)

resultado conhecido como Equação de Chapman-Kolmogorov. O processo de correlação


entre t1 e t3 é colocado totalmente em função das correlações t1 → t2 e depois, indepen-
dentemente, de t2 → t3 . Isto expressa o fato de que passos sucessivos são estatisticamente
independentes.

9.3 The Master Equation and the Fokker-Planck Equation


A equação mestra fornece a variação temporal de probabilidades. Ela pode ser construı́da
com base na definição de uma taxa de transição Wt1 (y1 , y2 ), que é a probabilidade
de transição entre y1 e y2 (de y1 para y2 ) por unidade de tempo, calculada em t1 .
Implicitamente, estamos supondo tratar-se um processo Markoviano, ao dizer que W só
depende de y1 e y2 , e não do passado mais remoto. Com isto,

∂P1 (y, t)
Z
= dy 0 Wt (y 0 , y) P1 (y 0 , t) − Wt (y, y 0 ) P1 (y, t) ,

(9.3.1)
∂t
é a equação mestra. Ela reflete o fato de que a probabilidade de ocorrência de y aumenta
devido às transições de y 0 para y num dado intervalo de tempo, mas diminui devido às
transições de y para y 0 .
Admitindo que as mudanças em y só ocorrem em pequenas quantidades, e intro-
duzindo o passo
ξ = y − y0, (9.3.2)
temos,
W (y 0 , y) = W (y 0 , y − y 0 ) ≡ W (y 0 , ξ), (9.3.3)
9.3. THE MASTER EQUATION AND THE FOKKER-PLANCK EQUATION 231

com o aspecto tı́pico da Fig. 9.1 (para y 0 fixo), podemos escrever


∂P1 (y, t)
Z
= dξ {W (y − ξ, ξ) P1 (y − ξ, t) − P1 (y, t) W (y, y − ξ)} =
∂t
Z Z
= dξ W (y − ξ, ξ) P1 (y − ξ, t) − P1 (y, t) dξ W (y, y − ξ), (9.3.4)

onde na primeira igualdade usamos o fato de que


Z ∞ Z −∞ Z ∞
dy 0 f (y 0 ) = − dξf (y − ξ) = dξf (y − ξ). (9.3.5)
−∞ ∞ −∞

Expandindo o produto W (y − ξ, ξ) P1 (y − ξ, t) em série de Taylor em torno de ξ = 0,


vem
W (y − ξ, ξ) P1 (y − ξ, t) = W (y, ξ) P1 (y, t)−
∂ ξ2 ∂2
−ξ [W (y, ξ) P1 (y, t)] + [W (y, ξ) P1 (y, t)] + · · · .
∂y 2 ∂y 2
(9.3.6)
Pudemos parar no 2o. termo porque na integral em dξ apenas os termos com |ξ|  1 vão
importar (e para esta região pode-se truncar a série) já que, de qualquer modo, W → 0
para |ξ|  1.
Levando (9.3.6) em (9.3.4), obtemos
ξ2 ∂2
 
∂P1 ∂
Z
= dξ W (y, ξ) P1 (y, t) − ξ (W (y, ξ) P1 (y, t)) + (W (y, ξ) P1 (y, t)) −
∂t ∂y 2 ∂y 2
Z
− P1 (y, t) dξ W (y, y − ξ). (9.3.7)

Novamente, como as integrais vão de −∞ a +∞, tem-se


Z Z
dξ W (y, ξ) = dξ W (y, y − ξ), (9.3.8)

de modo que
1 ∂2  2
 
∂P1 ∂
Z

=− dξ [ξ W (y, ξ) P1 (y, t)] − ξ W (y, ξ) P1 (y, t) . (9.3.9)
∂t ∂y 2 ∂y 2
Definindo o momento de n–ésima ordem da distribuição de saltos,
Z
αn (y) ≡ dξ ξ n W (y, ξ), (9.3.10)

obtemos, finalmente,
∂P1 (y, t) ∂ 1 ∂2
= − [α1 (y) P1 (y, t)] + [α2 (y) P1 (y, t)] , (9.3.11)
∂t ∂y 2 ∂y 2
que é a equação de Fokker-Planck; é a equação diferencial obtida a partir da equação
mestra, que é integro-diferencial.
232 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

9.4 Application: Random Walk and the Diffusion Equa-


tion
O problema do passeio randômico (random walk ) pode ser formulado como uma cadeia
Markoviana de probabilidades de transição. Consideremos, por simplicidade, um movi-
mento unidimensional, com passos de tamanho `, e suponhamos que o tempo entre
passos seja τ . A versão discreta da Eq. (9.2.13) se escreve
X
P1 (n2 `, sτ ) = P1 (n1 `, (s − 1)τ ) P1|1 (n1 `, (s − 1)τ |n2 `, sτ ) . (9.4.1)
n1

onde a natureza Markoviana do processo se manifesta pelo fato de apenas os tempos sτ


e (s − 1)τ serem envolvidos.
Se a probabilidade de dar um passo à esquerda e à direita é a mesma, i.e.,
1
P1|1 (n1 `, (s − 1)τ | n2 `, sτ ) = [δn ,n +1 + δn1 ,n2 −1 ] , (9.4.2)
2 1 2
então
1 1
P1 (n`, sτ ) = P1 ((n − 1)`, (s − 1)τ ) + P1 ((n + 1)`, (s − 1)τ ) . (9.4.3)
2 2
Para relacionar com a equação de difusão, cujas variáveis x e t são contı́nuas, tomemos
1
[P1 (n`, sτ ) − P1 (n`, (s − 1)τ )] =
τ
`2 P1 ((n + 1)`, (s − 1)τ ) + P1 ((n − 1)`, (s − 1)τ ) − 2P1 (n`, (s − 1)τ )
 
= .
2τ `2
(9.4.4)

Definindo x ≡ n` e t ≡ sτ , com `, τ → 0 tal que D ≡ `2 /2τ = constante, a Eq. (9.4.4)


fica
∂P1 ∂ 2 P1
(x, t) = D (x, t); (9.4.5)
∂t ∂x2
ou seja, a equação de Fokker-Planck para o problema é a equação de difusão para a
densidade de probabilidades. Note que, pela simetria da distribuição, i.e., W (y, −ξ) =
W (y, +ξ), o primeiro momento é zero.
A tı́tulo de ilustração, vamos obter a solução correspondente à condição inicial
P1 (x, 0) = δ(x). Isto corresponde a um processo de difusão em que, por exemplo,
um frasco de perfume é aberto num dado ponto, e o cheiro se espalha (sem convecção)
pelo ar, ou, então, uma pequena partı́cula se movimenta em suspensão em um fluido
(movimento Browniano; veja a Seção 9.5.)
Introduzamos a transformada de Fourier de P1 (x, t),
Z +∞
P̃1 (k, t) ≡ dx P1 (x, t) eikx , (9.4.6)
−∞
9.4. RANDOM WALK 233

cuja inversa é
+∞
1
Z
P1 (x, t) = dk P̃1 (k, t) e−ikx . (9.4.7)
2π −∞

Assim,
∂2
Z  Z 
∂ −ikx −ikx
dk P̃1 (k, t) e =D 2 dk P̃1 (k, t) e , (9.4.8)
∂t ∂x
que fornece " #
∂ P̃1 (k, t)
Z
dk + k 2 D P̃1 (k, t) e−ikx = 0, (9.4.9)
∂t
de modo que o termo entre colchetes deve ser satisfeito para todo k. Logo,

∂ P̃1 (k, t)
= −k 2 D P̃1 (k, t), (9.4.10)
∂t
cuja solução é
2
P̃1 (k, t) = A e−Dk t , (9.4.11)
com A a ser determinado pelas condições iniciais. A transformada inversa é dada por
Z +∞
1 2
P1 (x, t) = dk A e−Dk t e−ikx . (9.4.12)
2π −∞

Completando o quadrado no expoente,

x2 x2
   
kx kx
Dk 2 t + ikx = Dt k 2 + i = Dt k 2 + i − + =
Dt Dt 4D2 t2 4D2 t2
x2
 
x 2 x
= Dt k + i + 2 2
, k0 = k + i , (9.4.13)
2Dt 4D t 2Dt

obtemos
+∞
1 1
Z
02t 2 /4Dt 2
P1 (x, t) = dk 0 A e−Dk e−x =√ A e−x /4Dt . (9.4.14)
2π −∞ 4πDt

Para determinar A, notemos que (9.4.11) fornece P̃1 (k, t = 0) = A, que, levado em
(9.4.7), e lembrando que
1
Z
δ(x) = dk e−ikx , (9.4.15)

leva, finalmente, a
1 2
P1 (x, t) = √ e−x /4Dt . (9.4.16)
4πDt

2 2
 hx(t)i = 0, e a dispersão é lida diretamente da gaussiana,
Por simetria,
exp −x /2hx i :
hx2 (t)i = 2Dt. (9.4.17)
234 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

Daı́ segue que


dhx2 i
= 2D, (9.4.18)
dt
de modo que a distribuição se alarga com o tempo, consistindo num processo ‘dissipativo’.
Este comportamento hx2 (t)i ∼ t é conhecido como difusão normal ; quando hx2 (t)i ∼ tα a
difusão é dita anômala. Deve-se ter em mente que o tratamento dado aqui foi puramente
fenomenológico, no sentido de que não especificamos como a constante D se relaciona
com propriedades do meio ou da partı́cula que se difunde; a próxima seção discute esta
questão para o caso do movimento Browniano.

9.5 Movimento Browniano1


9.5.1 Introduction
Em 1828, o botânico Robert Brown estudou o movimento de pequenos grãos de pólen
imersos em água, e constatou que eles executam um movimento aleatório. Hoje sabe-
mos que este movimento Browniano se deve às moléculas do fluido, as quais colidem
aleatoriamente com os grãos; veja applets simulando este movimento no link
http://en.wikipedia.org/wiki/Brownian motion
Einstein foi o primeiro a formular uma teoria (a partir de 1905) conectando a natureza
irreversı́vel deste fenômeno com o mecanismo de flutuações moleculares. A partir desta
formulação, a descrição genérica de mobilidade devida a flutuações em sistemas fluidos
ficou conhecida como Movimento Browniano. Esta descrição enfatiza dois aspectos bas-
tante importantes. Primeiramente, permite relacionar propriedades de mobilidade de
um fluido, como, p.ex., o coeficiente de difusão, com a temperatura através de relações
que acabaram levando seu nome, as relações de Einstein. Em segundo lugar, ajuda a
compreender, até certa medida, como que um sistema fora do equilı́brio atinge o estado
de equilı́brio. Há várias maneiras de descrever o movimento Browniano, mas apresentare-
mos aqui apenas a formulação via Equação de Langevin, pela sua generalidade; a teoria
de Einstein-Smoluchowski para este movimento pode ser encontrada, p.ex., no Pathria,
Seção 14.3.

9.5.2 Teoria de Langevin para o Movimento Browniano


Consideremos uma partı́cula Browniana, de massa M , em um meio fluido. Suporemos
que, além das forças aleatórias devido às colisões moleculares, nenhuma outra força atua
na partı́cula; veja a Fig. 9.2. A equação de movimento para esta partı́cula pode ser
escrita como
dv v
M = − + F(t), com F(t) = 0 (9.5.1)
dt B
onde foi feita a separação entre o efeito de arrasto viscoso, −v/B, com B sendo a
mobilidade do sistema (B = 1/6πηa, onde η é o coeficiente de viscosidade, e a é o raio
1
Baseado nas seções 14.4 e 14.6 do Pathria; veja também as seções 14.3 e 14.5.
9.5. MOVIMENTO BROWNIANO 235

Figure 9.2: Partı́cula Browniana sofre colisões aleatórias com as moléculas do fluido. [Figura cedida por SLA de
Queiroz]

da partı́cula), e o de uma força que flutua rapidamente, cuja média temporal, tomada
em intervalos de tempo longos comparados com uma escala caracterı́stica, τ ∗ , se anula.
Tomando a média no ensemble na Eq. (9.5.1), e usando que hF(t)i = 0 também neste
caso, temos

d 1
M hvi = − hvi (9.5.2)
dt B
⇒ hv(t)i = hv(0)i e−t/τ , (9.5.3)

onde τ ≡ M B é o tempo de relaxação. Deve-se notar que hvi → 0 para tempos muito
longos, dada a natureza dissipativa (donde irreversı́vel) deste fenômeno. Voltando à
Eq. (9.5.1), e dividindo-a por M vem

dv v F(t)
= − + A(t), A(t) = = 0. (9.5.4)
dt τ M
Tomando o produto escalar com r, usemos

1d 2
r·v = r , (9.5.5a)
2 dt
1 d2 r2
 
dv
r· = − v2, (9.5.5b)
dt 2 dt2
hA · ri = 0, (9.5.5c)
hF · vi =
6 0, (9.5.5d)

onde as duas últimas equações expressam o fato de que o caráter aleatório de F não
causa correlação posicional entre r e F, mas sim entre v e F. Com isto, a média no
ensemble fornece
d2 2 1 d 2
hr i + hr i = 2hv 2 i. (9.5.6)
dt2 τ dt
236 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

Se a partı́cula está em equilı́brio térmico com o fluido à temperatura T , o teorema


da equipartição dá
3kB T
hv 2 i = , (9.5.7)
M
de modo que
6kB T τ 2 t 
 
2 −t/τ
hr i = − 1−e , (9.5.8)
M τ
para as condições iniciais hr2 it=0 = 0 e [dhr2 i/dt]t=0 = hr · vit=0 = 0.
Suponhamos agora que t  τ ; temos, então,

3kB T 2
hr2 i ' t = hv 2 i t2 , (9.5.9)
M
consistente com as equações de Newton (reversı́veis), já que ainda não houve tempo dos
fenômenos dissipativos agirem, o que acontece na escala de tempo τ .
Por outro lado, se t  τ , obtemos

6kB T τ
hr2 i ' t = (6BkB T ) t. (9.5.10)
M

Este comportamento linear com t de hr2 i sugere, por analogia com o caminho aleatório
unidimensional [Eq. (9.4.17)], que possamos definir o coeficiente de difusão a partir de

hr2 i ≡ 6 D t, (9.5.11)

onde o fator 6 = 3 × 2 reflete o fato de que o movimento é em 3 dimensões. Temos,


então,
D = B kB T, (9.5.12)
resultado que é conhecido como a Relação de Einstein entre difusão e mobilidade. Inte-
ressantemente, é uma relação entre grandezas tı́picas de não-equilı́brio e a temperatura
do fluido, suposto em equilı́brio.

9.5.3 Influence of the rapidly fluctuating force


Na subseção anterior, substituı́mos na Eq. (9.5.6) o termo hv 2 i pelo seu valor limite (de
equilı́brio). Esta simplificação fez com que se perdesse a influência do termo de força
flutuante. Para recuperá-la, inicialmente escrevamos a solução da Eq. (9.5.4) como
Z t
−t/τ −t/τ 0
v(t) = v(0) e +e et /τ A(t0 ) dt0 , (9.5.13)
0

0
obtida multiplicando-se (9.5.4) por et /τ e integrando em t0 de 0 a t. Esta expressão
enfatiza que a velocidade de arrasto da partı́cula Browniana também flutua ao longo do
tempo, e, ao tomarmos a média no ensemble, recuperamos a Eq. (9.5.3).
9.5. MOVIMENTO BROWNIANO 237

K (∆t) K (∆t)

−τ * + τ * ∆t −τ * + τ * ∆t

Figure 9.3: Typical forms of autocorrelation functions. Note that the functions vanish for time intervals longer
than τ ∗ . [Figures courtesy of SLA de Queiroz.]

Tomando agora v2 (t) e, em seguida, a média no ensemble, obtemos


 Z t 
2 2 −2t/τ −2t/τ t0 /τ 0 0
hv (t)i = v (0) e + 2e v(0) · e hA(t )i dt
0
Z tZ t
−2t/τ 0 00
+e e(t +t )/τ hA(t0 ) · A(t00 )i dt0 dt00 , (9.5.14)
0 0

onde o termo cruzado (entre colchetes) se anula, já que hA(t0 )i = 0.


Vemos então que a influência da força flutuante em hv 2 i se dá através da função de
auto-correlação,
K(t0 , t00 ) ≡ hA(t0 ) · A(t00 )i, (9.5.15)
examples of which are sketched in Fig. 9.3. The auto-correlation functions relevant to
our study must have the properties listed below, and the reader should check that the
functions in Fig. 9.3 do indeed satisfy them.

• Lidamos com um ensemble estacionário (i.e., o comportamento global macroscópico


não muda no tempo), de modo que
K(t0 , t00 ) = K(t00 − t0 ), (9.5.16)
refletindo o fato de que somente o intervalo de tempo decorrido é importante.
• A grandeza K(0) é o valor quadrático médio de A no instante t, e, como tal, é
positiva definida. Ademais, num ensemble estacionário deve ser uma constante,
independente de t: D E
K(0) ≡ [A(t)]2 = constante (9.5.17)

• Para qualquer intervalo de tempo, a autocorrelação é menor que no instante inicial:


| K(∆t) | ≤ K(0). (9.5.18)
[Demonstração:
h[A(t1 ) ± A(t2 )]2 i = hA2 (t1 )i + hA2 (t2 )i ± 2hA(t1 ) · A(t2 )i
= 2 [K(0) ± K(∆t)] ≥ 0,
238 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

de modo que K(∆t) não pode ficar fora do intervalo entre −K(0) e K(0); daı́ segue
a Eq. (9.5.18). CQD.]

• Para um ensemble estacionário, a função de auto-correlação é simétrica,

K(∆t) = K(−∆t). (9.5.19)

[Demonstração:

K(∆t) ≡ hA(t) · A(t + ∆t)i = hA(t − ∆t) · A(t)i


= hA(t) · A(t − ∆t)i ≡ K(−∆t), CQD]

• Para intervalos de tempo longos, em comparação com uma segunda escala de


tempo, τ ∗ , os valores de A(t) e A(t + ∆t) ficam descorrelacionados, ou seja,

∆t  τ ∗
K(∆t) ≡ hA(t) · A(t + ∆t)i −−−−−→ hA(t)i · hA(t + ∆t)i (9.5.20)

Vejamos agora como avançar no cálculo da integral dupla que aparece na Eq. (9.5.14),
Z t Z t
0 0 00 )/τ
I≡ dt dt00 e(t +t hA(t0 ) · A(t00 )i
0 0
Z t Z t
0 0 00 )/τ
= dt dt00 e(t +t K(t00 − t0 ), (9.5.21)
0 0

onde, nesta última passagem, está-se admitindo um ensemble estacionário.


Let us introduce the change in variables

1
T ≡ (t0 + t00 ) (9.5.22)
2
s ≡ t00 − t0 (9.5.23)
∂T /∂t0 ∂T /∂t00
  
dt0 dt00 = det dT ds = dT ds. (9.5.24)
∂s/∂t0 ∂s/∂t00

We first note that for a fixed T , we may express s in terms either of t00 and T , or of t0
and T :
s = 2(t00 − T ) = 2(T − t0 ). (9.5.25)
Figure 9.4 shows the region of integration in terms of the variables t0 and t00 , as well as
some special lines of fixed T : T = 0, t/4, t/2, 3t/4, and t. We see that two regimes of
integration should be distinguished: for 0 ≤ T ≤ t/2 the constant-T lines cut the axes at
t0 = 0 and t00 = 0, while for t/2 < T ≤ t the constant-T lines do not cut the axes within
the square. Accordingly, for a given T < t/2, s varies from smin = −2T (for t00 = 0) to
smax = 2T (for t0 = 0); as T increases up to t/2, the corresponding s-integration interval
also increases. On the other hand, for T > t/2, smin and smax respectively correspond to
9.5. MOVIMENTO BROWNIANO 239

s =+2(t−T)
t’’ max
t

T=fixo < t/2 smin=−2(t−T)


smax
=2T

T=fixo > t/2

smin=−2T

t t’
: | s | < τ∗

Figure 9.4: Integration limits. The integral in T is split in two: one from 0 to t/2, and the other from t/2 to t.
For a fixed T in the first [second] interval, T < t/2 [T > t/2], s runs from −2T to 2T [−2(t − T ) to 2(t − T )]. Note,
however, that the only non-zero contributions to the integral in s come from the narrow region around s = 0,
represented by the shaded area.

t0 = t and t00 = t, namely smin = −2(t − T ) and smax = 2(t − T ); now, the corresponding
s-integration interval decreases as T increases. We may therefore write the integral as
Z t/2 Z 2T Z t Z +2(t−T )
I= dT e2T /τ K(s) ds + dT e2T /τ K(s) ds (9.5.26)
0 −2T t/2 −2(t−T )

Se t  τ ∗ (vide Fig. 9.4) os limites de integração de s podem ir para ±∞; com


Z +∞
C≡ K(s) ds (9.5.27)
−∞

temos
t
τ  2t/τ
Z 
I'C e2T /τ dT = C e −1 , (9.5.28)
0 2
sendo que a informação sobre a dinâmica molecular fica na constante C.
Equation (9.5.14) then becomes
τ 
hv 2 (t)i = v 2 (0) e−2t/τ + C 1 − e−2t/τ , (9.5.29)
2
and the condition
3kB T
hv 2 (t)i → for t → ∞, (9.5.30)
M
yields
6kB T
. C= (9.5.31)

Given that the constant C involves to the ‘microscopic’ time scale τ ∗ , Eq. (9.5.31) indi-
cates a connection between τ ∗ and the macroscopic time scale τ .
240 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

<v 2(t)> / (3kBT/M)


2

0 1 2 t/ τ
Figure 9.5: Time dependence of hv 2 i, for two distinct initial conditions.

Podemos escrever, finalmente,


 
2 2 3kB T 2

hv (t)i = v (0) + − v (0) 1 − e−2t/τ . (9.5.32)
M

Este resultado exemplifica o processo de termalização: a velocidade quadrática final será


sempre 3kB T /M , independentemente do valor inicial ser abaixo ou acima do valor limite;
veja a Fig. 9.5.
Taking hv 2 i from (9.5.32) into (9.5.6), we get
 2 3k T    6k T τ
B B
hr2 i = v 2 (0) τ 2 1 − e−t/τ − τ 2 1 − e−t/τ 3 − e−t/τ + t (9.5.33)
M M
If v 2 (0) = 3kB T /M , we recover the previous result, Eq. (9.5.8). Note that we also recover
the limiting cases, (
2 v 2 (0) t2 if t  τ
hr i ' (9.5.34)
6BkB T t if t  τ,
which illustrate the reversible nature of the motion at small time scales, t  τ , and the
irreversible nature at long time scales, t  τ .

9.6 Spectral analysis of fluctuations


O movimento Browniano é apenas um dentre uma enorme variedade de fenômenos causa-
dos por estı́mulos aleatórios, sejam em intensidade, direção, ou intervalos de tempo. Uma
informação relevante nestes casos é a distribuição de frequências (espectro de frequências,
ou power spectrum). Consideremos o exemplo paradigmático de um pêndulo de torção,
que consiste de um pequeno cilindro (de momento de inércia I) suspenso por um fio de
fibra (rigidez c, análoga à constante de força de uma mola); uma haste com um pequeno
espelho é presa ao fio, de modo que um feixe de laser incidente no espelho projeta numa
parede o deslocamento angular do cilindro. As colisões das moléculas de ar com este
9.6. SPECTRAL ANALYSIS OF FLUCTUATIONS 241

sistema suspenso causam uma sucessão de torques de intensidades aleatórias, levando


a flutuações na posição angular θ em torno de uma média (definida, por conveniência,
como nula). Neste movimento Browniano, a força viscosa é fornecida pelo amortecimento
do ar, enquanto que as propriedades elásticas da fibra fornecem um torque restaurador,
Nθ = −c θ. Em equilı́brio, espera-se que valha a equipartição da energia, de modo que
1 2 1 kB T
c θ = kB T ⇒ θ2 = , (9.6.1)
2 2 c
onde, como antes, a barra denota média temporal.
Uma versão mais rudimentar (sem o laser) deste sistema foi utilizada por Kappler
[Ann. Phys. 11, 233 (1931)] que efetuou medidas de θ2 para determinar a constante
de Boltzmann (logo, o número de Avogadro, NA ). Nestes experimentos, I = 4.552 ×
10−4 g cm2 e o perı́odo de oscilação observado foi τ = 1379 s, de modo que a constante
de força era
I
c = 4π 2 2 = 9.443 × 10−9 g cm2 s−2 /rad. (9.6.2)
τ
À temperatura de 287.1 K o valor obtido foi θ2 = 4.178×10−6 , que, através da Eq. (9.6.1),
fornece kB = 1.374 × 10−16 erg K−1 ; ademais, com a constante dos gases sendo
R = 8.31 × 107 erg K−1 mol−1 , obtém-se, finalmente, NA = R/kB = 6, 06 × 1023 mol−1 .
A importância de uma melhor quantificação das flutuações aparece quando imagi-
namos um segundo experimento, desta vez mantendo o pêndulo de torção em um re-
cipiente onde o ar está rarefeito (i.e., onde se faz vácuo). À primeira vista, poder-se-ia
pensar que neste ambiente as flutuações em posição seriam drasticamente reduzidas. No
entanto, isto não ocorre, pois mesmo a pressões muito baixas ainda há um grande número
de moléculas que ‘mantêm vivo’ o movimento Browniano. Interestingly, the mean square
angular deviations due to the collisions are not affected by the density of gas molecules;
one therefore concludes that for a system in equilibrium, they are determined solely by
the temperature. Figure 9.6 shows two traces of the mirror oscillations, the top one
taken at atmospheric pressure, and the bottom one at 10−4 mmHg. The resulting r.m.s.
deviation turned out to be approximately the same in both cases, but the difference in
their appearance can be explained as follows. At high densities (ambient pressure) the
random molecular impulses are very frequent, leading to a large number of individual
deflections, though small in magnitude. By contrast, at low densities the frequency
of individual deflections is smaller, but their magnitude is larger. Nonetheless, when
observed over a long period of time, the overall deflection remains practically the same.
This difference between the spectral quality of the fluctuation patterns can be cast
into a more quantitative basis by first observing that the second spectrum is more jagged
than the first: the high frequency components dominate. In addition, the first pattern
is more predictable, since the curve is smoother: this is attributed to the correlation
function (or memory function), K(s), extending to much larger values of s than in the
second case. These two aspects of fluctuation processes, namely time-dependence and
frequency spectrum, are closely related, as a Fourier analysis will now reveal.
We consider random variables, y(t), such that hy(t)i = 0 (we can always displace the
origin for this to occur), and whose mean square value, hy 2 (t)i, has already reached its
242 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

Figure 9.6: The traces of the thermal oscillations of a suspended mirror system (see text) at different pressures:
upper trace corresponds to atmospheric pressure, while the lower one to 10−4 mm of Hg. [Figure taken from
Pathria (1996).]

equilibrium time-independent (stationary) value; an immediate example is provided by


the velocity of a Brownian motion, as we have just discussed. Further, though y is not a
strictly periodic function of t, its value always oscillates around zero. If it were periodic,
with period T = 1/f0 , we could write
X X
y(t) = a0 + an cos(2πnf0 t) + bn sin(2πnf0 t), (9.6.3)
n n

with

2 T
Z
an = y(t0 ) cos(2πnf0 t0 ) dt0 (9.6.4)
T 0
2 T
Z
bn = y(t0 ) sin(2πnf0 t0 ) dt0 , (9.6.5)
T 0

as in standard Fourier analyses. However, some adaptations are needed in order to take
into account the stochastic nature of the phenomenon:

(1) There is no real period, after which everything repeats exactly. However, we may
consider T much longer than other relevant time scales, or, equivalently, f0 = 1/T
much smaller than other relevant frequencies. In so doing, we may be reasonably
sure that our Fourier analysis does not miss out on any important aspect of the
problem.

(2) Given that y(t) is a random variable, so are the coefficients an and bn ; we must
therefore take ensemble averages for these quantities,

han i = hbn i = 0, (9.6.6)

and
X1
hy 2 (t)i = ha2n i + hb2n i = const. (9.6.7)
n
2
9.6. SPECTRAL ANALYSIS OF FLUCTUATIONS 243

Since the phases of the Fourier components are random, we may write ha2n i = hb2n i
for all n, and Z ∞
X
2 2
hy i = han i ' df w(f ), (9.6.8)
n 0

where
ha2n i = w(nf0 ) ∆(nf0 ), (9.6.9)
or
1 2
w(nf0 ) = ha i. (9.6.10)
f0 n
The function w(f ) defines the power spectrum of the variable y(t).
Let us now show that the power spectrum, w(f ), of the random variable y(t) is
completely determined by the corresponding auto-correlation function, K(s). To
this end, Eq. (9.6.4) yields
Z 1/f0 Z 1/f0
ha2n i = 4f02 hy(t1 ) y(t2 )i cos(2πnf0 t1 ) cos(2πnf0 t2 ) dt1 dt2 . (9.6.11)
0 0

Changing to variables S ≡ (t1 + t2 )/2, s ≡ t2 − t1 , as before, and recalling that


T  sM , where sM is the maximum duration of the memory, i.e., |K(s > sM )| ' 0,
we may write
Z 1/f0 Z +∞
ha2n i ' 2f02 dS ds K(s) {cos(2πnf0 s) + cos(4πnf0 S)} . (9.6.12)
0 −∞

The second term vanishes upon integration over S, and we are left with
Z ∞
ha2n i = 4f0 ds K(s) cos(2πnf0 s), (9.6.13)
0

so that Z ∞
w(f ) = 4 ds K(s) cos(2πf s). (9.6.14)
0
Taking the inverse Fourier transform yields
Z ∞
K(s) = df w(f ) cos(2πf s). (9.6.15)
0

Equations (9.6.14) and (9.6.15) constitute the Wiener–Khintchine theorem, which


relates K(s) and w(f ). One should also note the special case,
Z ∞
K(0) = df w(f ) = hy 2 i. (9.6.16)
0

Let us now discuss some applications of this theorem.


244 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

Figure 9.7: (a) The auto-correlation function K(s) and (b) its power spectrum; the parameter a appears in terms
of an arbitrary unit of (time)−1 .

1. Suppose the variable y(t) is extremely irregular, hence unpredictable. Then the mem-
ory function should only extend over a negligibly small time interval, s. This is the
case, for instance, of the rapid fluctuating force F (t) experienced by a Brownian
particle due to the molecular collisions. If one assumes

K(s) = c δ(s), (9.6.17)

then Eq. (9.6.14) gives


w(f ) = 2c, ∀f. (9.6.18)
This is known as a uniform (or “flat”, or “white”) spectrum. However, this would
lead [see Eq. (9.6.16)] to a diverging hy 2 i, which is certainly unacceptable. We must
therefore admit a less sharply peaked memory function, one which extends over a
finite range of the variable s; one may expect such function to introduce a cutoff in
the flat frequency spectrum.
As a specific example, we consider the function depicted in Fig. 9.7(a),

sin(as)
K(s) = K(0) , a > 0, (9.6.19)
as
which, in the limit a → ∞, K(s) → (π/a) K(0) δ(s). The Wiener–Khintchine theorem
yields
 2π K(0) f < a/2π

w(f ) = a (9.6.20)
0 f > a/2π.
We see that the central peak in K(s) extends up to ∆t = |s| = π/a, and its width
provides an estimate for the time extent of correlations. Consequently, the resulting
power spectrum [Fig. 9.7(b)] corresponds to a white noise [i.e., flat w(f )] for 0 < f ≤
1/∆t.

2. Consider now the opposite case, namely that of an extremely regular variable y(t),
thus completely predictable; this in turn implies a correlation function extending over
s
!2 !1 0 1 2
f∗ f∗ f∗ f∗

614 Chapter 15 9.6. .


SPECTRAL
Fluctuations ANALYSIS OF
and Nonequilibrium FLUCTUATIONS
Statistical Mechanics 245

K(s)

w (f )
s
!2 !1 0 1 2
f∗ f∗ f∗ f∗

0 f∗
f

FIGURE
Figure 9.8: (a) The auto-correlation 15.8 The
function K(s)autocorrelation function
and (b) its power K (s) and
spectrum forthe
thepower distribution
special function w( f ) of a monochromatic
case of a monochro-
matic variable with frequency f ∗variable y(t),
. [Figure with characteristic
extracted from Pathriafrequency f ⇤ . (2011).]
& Beale

see equation
large vales of s. The power (15.6.10).
spectrum The power
must then spectrum
display peaks atw(specific
f ) is then given by the expression
frequencies.
w (f )

An extreme example is that of a monochromatic variable, with a frequency f0∗ , and


Z1
4kT reads,
infinite time range, for which the correlation function s/⌧ 4kT ⌧ 1
w( f ) = e cos(2⇡ fs)ds = , (21)
M M 1 + (2⇡ f ⌧ )2
0 f∗ K(s) = K(0) cos(2πf s), ∗0
(9.6.21)
f
which indeed satisfies the relationship
leading
FIGURE 15.8 The autocorrelation to aK (s)
function power
and thespectrum
power distribution function w( f ) of a monochromatic
variable y(t), with characteristic frequency f ⇤ . 1 Z
w(f ) = K(0) δ(f − f ∗ ); 2kT 1
w( f )df = tan 1 (2⇡f ⌧ ) (9.6.22)
⇡M 0
see equation (15.6.10). The power spectrum
∗ w( f ) is then given by the expression
0
In particular, if f = 0 then both y(t) and K(s) are constants in time, and w(f ) is
kT
peaked at Zf1∗ = 0; see Fig. 9.8. = = hvx2 i, (22)
4kT s/⌧ 4kT ⌧ 1 M
w( f ) = e cos(2⇡ fs)ds = , (21)
M M 1 + (2⇡ f ⌧ )2
3. Let us now0 think of anin agreement with the equipartition
intermediate case, one
in which y(t) is filtered
theorem (as by sometodevice
applied a single component of the
which only resolves frequencies ∗.
velocity v).within an⌧ interval
For f ⌧ ∆f around
1 , the power a mean
distribution is frequency
practically findependent of f , which
which indeed satisfies the relationship
This is achieved by a power spectrum similar to the one depicted
implies a practically “white” spectrum, with in Fig. 9.9(b), which
in turn leads
Z1 to a correlation function attenuated over a time scale σ ∼ 1/∆f , such as
2kT 1
4kT ⌧ with the velocity
the one shownw( f )dfin=Fig. 9.9(a).
tan 1 (2⇡fLet
⌧ ) us illustrate this spectral analysis
w( f ) ' = 4BkT . (23)
⇡M 0
of a Brownian
0 particle, for which the autocorrelation function for M the x-component of
velocity can be obtained kT from the fluctuation-dissipation theorem as [see, e.g., Pathria
= = hvx2 i, (22)
and Beale (2011), Sec. M 15.6]

in agreement with the equipartition theorem (as applied


kBtoT a single component of the
1 K(s) =
velocity v). For f ⌧ ⌧ , the power distribution is practicallyexp(−|s|/τ ) , of τf , =
independent MB
which (9.6.23)
implies a practically “white” spectrum, with
M
The power spectrum is then expressed as
4kT ⌧
w( f ) ' Z= 4BkT . (23)
4kBM T ∞ −s/τ 4kB T τ 1
w(f ) = ds e cos(2πf s) = . (9.6.24)
M 0 M 1 + (2πf τ )2

Note that w(f ) satisfies the relation


Z ∞
2kB T ∞ kB T
df w(f ) = tan−1 (2πf τ ) = = hvx2 i, (9.6.25)
0 πM 0 M
K(s)

15.5 246
Spectral analysis of fluctuations:
CHAPTERthe9.Wiener–Khintchine
NONEQUILIBRIUM theoremSTATISTICAL
615 MECHANICS s
"2! "! 0 ! 2!

K(s)

w (f )
"2! "! 0 ! 2!

0 f∗ 1
2!
f

FIGURE 15.9 The autocorrelation function K (s) and the power distribution function w( f ) of a variable that has
Figure 9.9: (a) The auto-correlation function and (b)
K(s) through
been filtered its power
a lightly spectrum
damped forwith
tuned circuit, themean
special case of
frequency a filtered
f ⇤ and width 1f ⇠ (1/ ).
variable with mean frequency f ∗ and width ∆f ∼ 1/σ. [Figure extracted from Pathria & Beale (2011).]

We can then write for the velocity fluctuations in the frequency range ( f , f + 1f ), with
f ⌧ ⌧ 1 , theorem.
w (f )

in agreement with the equipartition


Note that a characteristic frequency, τ −1 , has emerged,
h1vx2 i( f , f so that for f  τ −1 , w(f )
+1f ) ' w( f )1f ' (4BkT )1f . (24)
0 f ∗
practically does not depend on
1 the frequency (the so-called ‘white spectrum’),
2! In general, our measuring instrument (or the eye, in the case of a visual examination of
f 4kB T τ has a finite response time−1
the particle) ⌧0 , as a consequence of which it is unable to respond
w(f ) to 'frequencies=larger
4Bkthan,
B T, say, f ⌧1 . The
τ observed
. (9.6.26)
fluctuation is then given by the “pruned”
FIGURE 15.9 M w( f ) of a variable that 0has
The autocorrelation function K (s) and the power distribution function
expression
been filtered through a lightly damped tuned circuit, with mean frequency f ⇤ and width 1f ⇠ (1/ ).
On the other hand, in the regime f  τ −1 , Eq. (9.6.24) 1/⌧
yields
Z 0 ✓ ◆
2 2kT 1 ⌧
hv
We can then write for the velocity fluctuations in the frequency 1range ( f , f + −1
x i '
1f ), with
obs w( f )df = tan 2⇡ , (25)
⇡M ⌧0
1
f ⌧⌧ ,
w(f ) ' , f  τ , 0 (9.6.27)
f2
2
instead of the “full” expression (22). In a typical case, the mass of the Brownian particle
) ' w(
redf )1f 2
h1vknown
a regime x i( f , f +1f as ' (4BkT
noise 10 . 12 g, its
or⇠Brown
M )1f noise. 4(24)
cm, and the coefficient of viscosity of the fluid ⌘ ⇠ 10 2
diameter 2a ⇠ 10
poise, so that the relaxation time ⌧ = M/(6⇡⌘a) ⇠ 10 7 seconds. However, the response
In general,
In general, our measuring if K(s)
instrument (ordecays after
the eye, in some
the⌧case of atime
visual∆, then w(fof) has a white noise1 (flat)
examination
−1
time 0 , in the case of visual observation, is of the order of 10 s; clearly, ⌧/⌧0 ⇠ 10 6 ⌧ 1.
behaviour
the particle) has a finite responsefortime 0 ⌧< f a.consequence
0 , as ∆ , decaying to zero
of which at larger
it is unable frequencies. The low-frequency
to respond
to frequencies largerregime
than, say, ⌧0 1 . The observed
essentially fluctuation
guarantees is then
that the given by thebetween
interference “pruned”all Fourier components in
expression this range is only dominantly constructive for s . ∆. The interference becomes
destructive atZ 0 longer times (see
1/⌧ ✓ Example
◆ 1), in which regime the rate of decay of
2kT ⌧
K(s)hvwill
2
i
x obs
determine
' w( f )df the
= behaviour
tan 1
2⇡ of , the tail of w(f ). Indeed,
(25) in the above example
⇡M ⌧0 −2 .
the exponential
0 decay of K(s) leads to the tail w(f ) ∼ f
instead of the “full”Se tivermos
expression umIn instrumento
(22). a typical case, de
the medida queBrownian
mass of the só consegue captar frequencias até um
particle
M ⇠ 10 12 g, its diameter ⇠ 10 4 cm,
valor2amaximo and
1/τ 0 the coefficient
(tempo de of viscosity
resposta & of
τ0 the
), fluid
as 10
componentes
⌘ ⇠ 2
de frequencia > 1/τ0
poise, so that the relaxation time ⌧ = M/(6⇡⌘a) ⇠ 10 7 seconds. However, the response
não serão observadas. Em consequencia, as flutuações observadas serão dadas pela
time ⌧0 , in the case of visual observation,
expressão truncada: is of the order of 10 1 s; clearly, ⌧/⌧0 ⇠ 10 6 ⌧ 1.

1/τ0  
2kB T 2kB T τ
Z
1/τ0
hvx2 iobs = w(f ) df = tan−1 (2πf τ ) 0
= tan−1
2π .
0 πM πM τ0
Exemplo (dados ∼ correspondentes às medidas de Pospisil (1927) em particulas de
fuligem, ver problema 14.9 do Pathria): M ' 10−12 g, diametro 2a ' 10−4 cm,
2
For the many ‘noise colours’ see, e.g. http://en.wikipedia.org/wiki/Colors of noise
9.7. BOLTZMANN EQUATION 247

η ' 10−2 poise (⇒ τ = M B = M/6πηa ' 10−7 s). Para observação visual,
τ0 ' 10−1 s. Portanto,

4kB T τ kB T
hvx2 iobs ' ' 4 × 10−6 .
M τ0 M

Aplicação a flutuações espontaneas no movimento de eletrons (corrente eletrica) em


circuitos LR (notar: estamos considerando um circuito em que a força eletromotriz
externamente imposta é nula, portanto temos apenas flutuações; pelos argumentos
usuais, a indutância L corresponde à “massa”; a resistência R é o atrito). Neste caso,
o tempo caracterı́stico de relaxação [exponencial] do sistema é τ 0 = L/R, portanto
Z ∞
4kB T τ 0 1 kB T
w(f ) = 0 2
⇒ w(f ) df = = hI 2 i ,
L 1 + (2πf τ ) 0 L

de acordo com a equipartição, h 21 LI 2 i = 21 kB T . De novo, para f  1/τ 0 , estamos na


região de white noise, e

4kB T 4kB T
w(f ) ' ⇒ h∆I 2 i(f,f +∆f ) ' ∆f ⇒ h∆V 2 i(f,f +∆f ) ' 4RkB T ∆f .
R R
Portanto, para f  1/τ 0 a densidade espectral V 2 (f ) = 4RkB T (teorema de Nyquist).
Lembrando que τ 0 ' 10−14 s, (ordem de grandeza do tempo entre colisões sucessivas
de um eletron), a densidade espectral das flutuações de voltagem tem um espectro
plano (white noise) até frequencias da ordem de microondas (∼ 1014 Hz).

9.7 Boltzmann Transport Equation3


9.7.1 Derivation
Consideremos um gás clássico diluı́do de partı́culas de massa m. Definamos uma função
f (r, v, t), tal que f (r, v, t) d3 r d3 v fornece o número médio de moléculas num volume
d3 r centrado em r, e com velocidades num intervalo d3 v centrado em v; assim, o ar-
gumento de f é um ponto no espaço de fases de dimensão 6, (r, v), além do tempo.
Admite-se, implicitamente, que o volume dγ ≡ d3 r d3 v seja infinitesimal, mas ainda su-
ficientemente extenso para conter um número grande de pontos, já que cada um destes
representa o estado de movimento de uma partı́cula; isto permite supor que f (r, v, t)
varie muito pouco em dγ. A função f (r, v, t) fornece, portanto, a descrição completa
do estado macroscópico do gás diluı́do, sem levar em conta eventuais perturbações, de
não-equilı́brio, aos graus de liberdade internos de cada molécula.4 A partir desta função
3
Based on Huang, Reif, and Reichl.
4
Devemos enfatizar que este espaço de fases difere daquele utilizado no Cap. 1 no sentido de que
lá, cada ponto no espaço 6N -dimensional representava o estado de todo o sistema de N partı́culas;
sua evolução temporal descrevia uma trajetória neste espaço, e o ensemble corresponde a vários destes
pontos, distribuı́dos de acordo com a função ρ(t) que satisfaz o Teorema de Liouville.
248 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

Figure 9.10: (a) Projection of the 6-dimensional infinitesimal ‘volume’ element onto the two-dimensional one,
(x, vx ). (b) Variation in the number of particles due to flow through faces with constant x: in through the left
(x), out through the right (x + dx).

pode-se calcular quantidades de interesse, como coeficientes de viscosidade e condutivi-


dade térmica.
Nosso primeiro objetivo é, portanto, obter uma equação de movimento para f (r, v, t).
Para isto, consideremos um elemento de volume fixo no espaço de fases, como indica
a Fig. 9.10(a).5 O número de moléculas (ou, equivalentemente, o número de pontos
representativos) neste elemento varia com o tempo devido a colisões entre partı́culas,
forças externas, etc. Esta variação é
∂f
δN = dγ dt (9.7.1)
∂t
Por simplicidade, separemos os efeitos das colisões dos demais, como campo externo.
Assim, na ausência de colisões, decorrido um intervalo de tempo dt, as partı́culas que
estavam em (r, v) estarão em
r0 = r + v dt, (9.7.2)
com velocidade
F
v0 = v +
dt, (9.7.3)
m
O número de partı́culas entrando pela face x = constante do volume dγ, em um intervalo
dt [veja a Fig. 9.10(b)] é aquele contido no volume (ẋ dt) dy dz dvx dvy dvz ,
f (r, v, t) ẋ dt dy dz dvx dvy dvz . (9.7.4)
Analogamente, o número de partı́culas saindo pela face x + dx do mesmo volume no
mesmo intervalo dt [Fig. 9.10(b)] é

f (r, v, t) ẋ dt dy dz dvx dvy dvz , (9.7.5)


x+dx

onde

f (r, v, t) ẋ ≈ f (r, v, t) ẋ + (f ẋ) dx. (9.7.6)
x+dx x ∂x x
5
Alternativamente, pode-se acompanhar a evolução temporal de um elemento de volume; veja Reif
Seção 13.2.
9.7. BOLTZMANN EQUATION 249

Logo, a contribuição total para ∂f /∂t das faces x e x + dx para a taxa de variação
do número de partı́culas no entorno de (r, v) num intervalo dt é
  
∂ ∂
f ẋ − f ẋ + (f ẋ) dx dy dz d3 v dt = − (f ẋ) dγ dt. (9.7.7)
∂x ∂x

Procedendo de modo análogo para as demais faces, (y, z, v), obtemos


" #
∂f ∂ ∂ ∂ ∂ ∂ ∂
dt dγ = − (f ẋ) + (f ẏ) + (f ż) + (f v̇x ) + (f v̇y ) + (f v̇z ) dt dγ,
∂t ∂x ∂y ∂z ∂vx ∂vy ∂vz
(9.7.8)
ou, ainda,

∂f X  ∂f ∂f
 X 
∂ ẋα ∂ v̇α

+ ẋα + v̇α + f + = 0. (9.7.9)
∂t α=x,y,z ∂xα ∂vα α=x,y,z
∂xα ∂vα

Como r e v são variáveis independentes no espaço de fases, ∂ ẋα /∂xα = 0; ademais,


supondo-se forças independentes de velocidade, tem-se que ∂ v̇α /∂vα = 0, de modo que
o segundo termo entre colchetes na Eq. (9.7.9) se anula. Já o primeiro termo entre
colchetes na Eq. (9.7.9) pode ser escrito em termos de gradientes nas variávies espaciais
e de velocidade, de modo que, sem ainda levar-se em conta as colisões, a equação de
movimento para f é
∂f
+ ṙ · ∇r f + v̇ · ∇v f = 0. (9.7.10)
∂t
Neste ponto, pode-se introduzir o efeito das colisões através de um termo extra no
lado direito da Eq. (9.7.10):
!
∂f ∂f
+ ṙ · ∇r f + v̇ · ∇v f = . (9.7.11)
∂t ∂t
coll

Semelhantemente ao discutido acima, o ganho lı́quido de moléculas num volume dγ


centrado em (r, v), num intervalo de tempo dt, devido a colisões pode ser expresso como
!
∂f
dγ dt ≡ (R̄ − R) dγ dt, (9.7.12)
∂t
coll

onde R fornece o número de colisões entre t e t + dt (por unidade de tempo e de volume


no espaço de fases) em que uma das moléculas em colisão se encontra inicialmente num
intervalo dγ em torno de (r, v); isto é, refere-se à perda de pontos no volume. Fica claro,
portanto, que R̄ fornece o número de colisões em que os estados finais se encontram num
intervalo dγ em torno de (r, v); isto é, refere-se ao ganho de pontos no volume.
Para determinar R e R̄, façamos algumas hipóteses simplificadoras, porém realistas:

(1) admitiremos colisões de dois corpos (binárias) apenas, o que é o esperado no regime
de gás diluı́do;
250 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

db

g dt

Figure 9.11: Elemento de volume ocupado pelas partı́culas que, num intervalo dt e com velocidade relativa g,
colidirão com a partı́cula na origem através de um parâmetro de impacto entre b e b + db. [Figura cedida por SLA
de Queiroz]

(2) não levaremos em consideração as paredes do recipiente;

(3) a presença de F não afeta as seções de choque;

(4) v e r de cada partı́cula não têm correlação entre si; esta é conhecida como a hipótese
do caos molecular.

De acordo com (4), podemos escrever que o número de pares de partı́culas num
volume d3 r em torno de r (o qual virá a ser o ponto de colisão) com velocidades em
intervalos d3 v1 e d3 v2 em torno de v1 e v2 , respectivamente, é

[f (r, v1 , t) d3 r d3 v1 ][f (r, v2 , t) d3 r d3 v2 ]. (9.7.13)

Para o cálculo de R, concentremos nossa atenção numa partı́cula com velocidade v1


dentro de um intervalo d3 v1 , no ponto de colisão r, dentro de um volume d3 r. Neste
mesmo volume há moléculas com v2 que atuarão como partı́culas incidentes numa colisão
com as de velocidade v1 . Logo, o fluxo deste feixe incidente (i.e., número de partı́culas
por unidades de área e de tempo) é

f (r, v2 , t) d3 r d3 v2
I= , (9.7.14)
área · tempo

sendo que o elemento de volume relevante é o da casca cilı́ndrica mostrada na Fig. 9.11,
a saber, d3 r = g dt 2π b db. Com isto,

I = f (r, v2 , t) g d3 v2 (9.7.15)

Para referência futura, denotemos os processos de colisões destas partı́culas por


(v1 , v2 ) → (v10 , v20 ). O número destas colisões num intervalo de ângulo sólido dΩ, no
entorno de Ω é obtido multiplicando-se I pela seção de choque de espalhamento, σ(Ω)dΩ,
e pelo intervalo de tempo, dt:

Iσ(Ω) dΩ dt = f (r, v2 , t) |v2 − v1 |σ(Ω) dΩ d3 v2 dt. (9.7.16)


9.7. BOLTZMANN EQUATION 251

Somando agora sobre os diferentes v2 , e multiplicando pela densidade de probabilidade


em (r, v1 ), obtemos, finalmente,
Z Z
3
R = f (r, v1 , t) d v2 dΩ σ(Ω)|v2 − v1 |f (r, v2 , t). (9.7.17)

O cálculo de R̄ segue na mesma linha, com as adaptações a seguir. Por exemplo,


consideraremos colisões do tipo (v10 , v20 ) → (v1 , v2 ), com v1 fixo. Assim, pensemos em
uma molécula com uma velocidade v10 sobre a qual incide um feixe com velocidade v20 .
O fluxo incidente agora é
I = f (r, v20 , t) |v20 − v10 | d3 v20 , (9.7.18)
de modo que o número de colisões deste tipo num intervalo dt é obtido multiplicando-se
I por σ 0 (Ω)dΩ dt. A taxa R̄ é dada por
Z Z
R̄ d3 v1 = d3 v20 dΩ σ 0 (Ω)|v20 − v10 |[f (r, v10 , t)d3 v10 ]f (r, v20 , t). (9.7.19)

Lembrando que (v10 , v20 ) e (v1 , v2 ) se referem a colisões elásticas que são as respectivas
inversas, temos que σ 0 (Ω) = σ(Ω). Além disso, as propriedades de colisões elásticas de
mesma massa [veja, p.ex., Reif, Seção 14.2 ou Huang, Seção 3.2.]
|v20 − v10 | = |v2 − v1 |, (9.7.20)
e
d3 v10 d3 v20 = d3 v1 d3 v2 , (9.7.21)
nos permitem escrever
Z Z
R̄ d3 v1 = d3 v2 d3 v1 dΩ σ(Ω)|v2 − v1 |f (r, v10 , t)f (r, v20 , t), (9.7.22)

tendo em mente que para v1 fixo, v10 e v20 são funções de v1 , v2 , e Ω.


Combinando os resultados para R e R̄, a Eq. (9.7.12) fornece
!
∂f
Z Z
= (R̄ − R) = d v2 dΩ σ(Ω)|v2 − v1 |(f10 f20 − f1 f2 ),
3
(9.7.23)
∂t
coll
onde usamos a notação compacta
fi ≡ f (r, vi , t), fi0 ≡ f (r, vi0 , t), i = 1, 2. (9.7.24)
Com isto, obtemos, finalmente, a Equação de Transporte de Boltzmann,
 
∂ F
Z Z
+ v1 · ∇ r + · ∇v1 f1 = d v2 dΩ σ(Ω)|v2 − v1 |(f10 f20 − f1 f2 ).
3
(9.7.25)
∂t m
Testemos a consistência no equilı́brio. Supondo F = 0, espera-se que, no equilı́brio,
f não dependa do tempo e seja dada pelo fator de Boltzmann:
1
f (r, v, t) → f (v) ∼ e−βK , K = mv 2 ; (9.7.26)
2
Logo, f10 f20 ∼ exp[β(K10 + K20 )] = f1 f2 ∼ exp[β(K1 + K2 )], de modo que o lado direito
da Eq. (9.7.25) se anula e, como ∇r f = 0, obtemos, consistentemente, ∂f /∂t = 0.
252 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

9.7.2 The Relaxation Time Approximation


Reescrevamos a equação de transporte de Boltzmann (ETB), Eq. (9.7.25), como
  !
∂ F ∂f
+ v · ∇r + · ∇v f = , (9.7.27)
∂t m ∂t
coll

onde o ı́ndice 1 foi removido, por desnecessário neste contexto.


Suponhamos que o efeito das colisões seja sempre o de restaurar uma situação de
equilı́brio local, descrita pela função de distribuição f (0) (r, v, t). Assim pode-se supor
que !
∂f f − f (0)
=− . (9.7.28)
∂t τ
coll
Com efeito, na ausência dos termos em gradiente, e definindo
δf ≡ f − f (0) , (9.7.29)
temos
∂ δf
δf = − , (9.7.30)
∂t τ
cuja solução é um decaimento exponencial numa escala de tempo τ ,
δf (r, v, t) = δf (r, v, 0) e−t/τ , (9.7.31)
justificando, assim, chamar este procedimento de aproximação do tempo de relaxação.
Como aplicação, calculemos a condutividade elétrica de um gás de partı́culas de
massa m e carga elétrica e, em presença de um campo elétrico uniforme E = E ẑ.
Suponhamos que as colisões com os ı́ons da rede levem a uma distribuição de equilı́brio
local,
1
f (0) (r, v, t) = g(ε), ε = mv 2 (9.7.32)
2
onde
mβ 1/2 −βε
 
g(ε) = n e , (9.7.33)

é a distribuição de Maxwell-Boltzmann (para um gás de elétrons suficientemente diluı́do),
com n sendo a densidade de partı́culas.
Supondo que o campo elétrico uniforme E não dependa do tempo, pode-se esperar
que a nova função de distribuição, f (r, v, t) não dependa de r e t. Nestas condições, a
ETB envolve apenas a componente z, sendo escrita como
eE ∂f f − f (0)
=− . (9.7.34)
m ∂vz τ
Para um campo elétrico suficientemente pequeno, podemos supor que f difere muito
pouco de f (0) = g, e com
f = g + f (1) , com f (1)  g, (9.7.35)
9.7. BOLTZMANN EQUATION 253

a Eq.(9.7.34) fica
eE ∂g eE ∂f (1) f (1)
+ =− , (9.7.36)
m ∂vz m ∂v τ
| {z z }
O(f (1) E)≈0

cuja solução é
dg
f (r, v, t) = g(ε) − eEτ vz . (9.7.37)

A densidade de corrente ao longo de uma direção n̂ é o fluxo de carga através de um
elemento de área nesta direção,
Z
jn = e d3 vf vn . (9.7.38)

Note que na ausência de campo elétrico, tanto τ quanto g dependem apenas de |v|, de
modo que o integrando é uma função ı́mpar de vn , levando a jn = 0, um resultado já
esperado para a situação de equilı́brio. Em presença de E = E zv,
ˆ todavia, devemos ter
jz 6= 0, e, dado que
dg
= −βg, (9.7.39)

obtemos uma expressão para a condutividade elétrica

jz
Z
σel ≡ = βe2 d3 v g τ vz2 . (9.7.40)
E

Neste ponto, necessitarı́amos explicitar a dependência de τ com v, a qual pode ser


obtida, em princı́pio, através de cálculos bastante extensos; veja Reif, Sec. 12.2. Para
nossos propósitos aqui, podemos substituir τ (v) por um valor médio constante τ ,
Z
σel ≈ βe2 τ d3 v g vz2 = βe2 τ [nvz2 ]. (9.7.41)

A média acima é calculada com a função de distribuição de equilı́brio, g, de modo que


vale a equipartição da energia, fornecendo o resultado já conhecido do modelo de Drude
(veja, p.ex., Ashcroft & Mermin, Cap. 1),

ne2
σel = τ. (9.7.42)
m

Note que se a distribuição de Fermi-Dirac, g(ε) ∝ [eβ(ε−µ) + 1]−1 , tivesse sido utilizada,
então apenas os elétrons com energias próximas à energia de Fermi contribuiriam para
a condutividade, de modo que τ é substituı́da por um valor τF , sem necessidade da
aproximação que levou à média.
254 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

9.7.3 Boltzmann’s H Theorem


Definamos a função
Z Z
H(t) ≡ d3 r1 d3 v1 f (r1 , v1 , t) ln f (r1 , v1 , t), (9.7.43)

e tomemos a derivada temporal,


dH ∂f1
Z Z
= d3 r1 d3 v1 [ln f1 + 1] . (9.7.44)
dt ∂t
Usando o fato de que ∂f1 /∂t deve satisfazer a Equação de Transporte de Boltzmann, e
considerando F = 0, podemos escrever
dH
Z Z
= d3 r1 d3 v1 (−v1 · ∇r f1 ) [ln f1 + 1]
dt
Z Z Z Z
+ d3 r1 d3 v1 d3 v2 dΩ σ(Ω)|v2 − v1 | (f10 f20 − f1 f2 ) [ln f1 + 1] . (9.7.45)

O primeiro termo pode ser transformado em uma integral de superfı́cie, a qual dá
contribuição nula se admitirmos que f → 0 quando r e p → ∞. Ficamos, então, com
dH
Z Z Z Z
= d3 r1 d3 v1 d3 v2 dΩ σ(Ω)|v2 − v1 | (f10 f20 − f1 f2 ) [ln f1 + 1] , (9.7.46)
dt
que, intercambiando p1 com p2 , fornece
dH
Z Z Z Z
= d3 r1 d3 v1 d3 v2 dΩ σ(Ω)|v2 − v1 | (f10 f20 − f1 f2 ) [ln f2 + 1] . (9.7.47)
dt
Somando e dividindo por 2 as Eqs. (9.7.46) e (9.7.47), vem
dH 1
Z Z Z Z
= d3 r1 d3 v1 d3 v2 dΩ σ(Ω)|v2 − v1 | (f10 f20 − f1 f2 ) [ln f1 + ln f2 + 2] .
dt 2
(9.7.48)
0 0
De modo análogo, intercambiando v1 com v1 , e v2 com v2 , obtemos
dH 1
Z Z Z Z
d3 r1 d3 v10 d3 v20 dΩ σ(Ω)|v2 − v1 | (f1 f2 − f10 f20 ) ln f10 + ln f20 + 2 .
 
=
dt 2
(9.7.49)
3 0 3 0 3 3
Lembrando que d v1 d v2 = d v1 d v2 , e, somando (9.7.48) com (9.7.49), chegamos a
 
dH 1 f1 f2
Z Z Z Z
3 3 3 0 0
= d r1 d v1 d v2 dΩ σ(Ω)|v2 − v1 | (f1 f2 − f1 f2 ) ln 0 0 . (9.7.50)
dt 4 f1 f2
O termo entre colchetes em (9.7.50) é da forma [(y − x) ln(x/y)] que é sempre ≤ 0.
Com isto, estabelecemos, finalmente, o Teorema H de Boltzmann: Se f satisfaz a
equação de transporte de Boltzmann, então
dH
≤ 0. (9.7.51)
dt
Figura
esolva2 abaixo. Uma campainha
esta ultima toca a inter- de Fourier.
por transformada
m a vida do rato). Cada vez que a campainha
deAquarto, ele tem
função de aautocorrelação
mesma probabilidade
K(s) de de uma variavel estatisticamente
em que está.9.8.Aproximadamente
EXERCISES −αque
2 2fração de
s ∗ 255
da por: K(s) = K(0) e cos(2πf s). Calcule o espectro de poten
u comportamento nos
Consequentemente, limites:
dH/dt (i) α
= 0 se, e somente se, f→
0 0
1 f2 =0;f1f(ii) f ∗ que
2 , de modo →sob0,condições
e (iii) ambos α e
da a outrainiciais
caixaarbitrárias,
de volume devemosinfinito
ter f (v, t)por
→t→∞um f0 (v), onde f0 é a distribuição de equilı́brio.
Assim, a função H(t) decresce no tempo até atingir o equilı́brio.
ita que a probabilidade
Como −H(t) p de uma
cresce no tempo,particula se a entropia de não-equilı́brio como
pode-se definir
3
3
t, onde n ≡ numero de particulas X 4em A, e aZ 3 3
S(t) = −kB H(t) = −kB d r d v f ln f, (9.7.52)
para A no intervalo ∆t é ρ∆t (ρ = constante).
de modo que quando f tende à distribuição de equilı́brio de Maxwell-Boltzmann, S não
probabilidade de particulas em Ape resolva-a,
mais p
depende do tempo: o sistema
p’
atingiu o estado de equilı́brio.
mero medio de particulas em A, e a variancia,
ação mestra9.8
paraExercises
a equação de Fokker-Planck,
ier. 1 Quar
2 X 1
1. Um rato treinado vive na casa mostrada na Fig. 9.12. Uma campainha toca a inter-
valos regulares p
(muito pequenos comparados com a vida do rato). Cada vez que a
variavel estatisticamente
campainha toca, o estacionaria
rato muda de quarto.y(t)Quando
é muda de quarto, ele tem a mesma
alcule o espectro de potencia w(f ), e discuta
probabilidade de passar por qualquer uma das portas do quarto em que está. Aprox-
imadamente que fração de Figura
sua vida o 1
rato passa em cada quarto?
f ∗ → 0, e (iii) ambos α e f ∗ → 0.

B
Quarto A
A

1 Quarto B Quarto C
n,Ω
ρ
Figura 2
Figure 9.12: Problema 1.

Figura 3
Figure 9.13: Prob. 2.

B
2. Considere uma caixa de volume Ω conectada a outra caixa de volume infinito por um
pequeno buraco (vide Fig. 9.13). Admita que a probabilidade de uma partÃcula se
mover de A para B no intervalo ∆t é (n/Ω)∆t, onde n ≡ número de partÃculas em
A, e a probabilidade de uma partÃcula se mover de B para A no intervalo ∆t é ρ∆t
(ρ = constante).
ρ (a) Escreva a equação mestra para a distribuição de probabilidade de partÃculas em
A.
ra 3 (b) Calcule o número médio de partÃculas em A, e a variância, como função do
tempo. Suponha que em t = 0, n = n0 . [Sugestão: passe da equação mestra para
a equação de Fokker-Planck, e resolva esta última por transformada de Fourier.]
256 CHAPTER 9. NONEQUILIBRIUM STATISTICAL MECHANICS

3. Um spin-1/2, em contato com um reservatório térmico e na ausência de campo ex-


terno, executa transições entre os estados +1 e −1 à razão de α/2 transições por
unidade de tempo, indistintamente se é de +1 para −1, ou vice-versa. Seja P (σ, t) a
probabilidade do spin assumir o valor σ no instante t.

(a) Escreva uma equação mestra para P (σ, t), desprezando a possibilidade de não
haver transições.
(b) Calcule a magnetização média como função do tempo, sabendo que σ=+1 em
t=0. Discuta fisicamente seus resultados.
(c) Comente sobre como a temperatura e o campo magnético (nulo, no presente caso)
entram implicitamente no problema. Em particular, discuta como um campo
não-nulo afetaria o resultado do item (b).

4. A função de autocorrelação K(s) de uma


 variável estatisticamente estacionária y(t)
é dada por: K(s) = K(0) exp −α2 s2 cos(2πf ∗ s). Calcule o espectro de potência
w(f ), e discuta seu comportamento nos limites: (i) α → 0; (ii) f ∗ → 0, e (iii) ambos
α e f ∗ → 0.
Bibliography

[1] R. Balescu, Equilibrium and Non-Equilibrium Statistical Mechanics. Wiley, 1975.

[2] K. Huang, Statistical Mechanics. Wiley, 2nd ed., 1987.

[3] R. K. Pathria, Statistical Mechanics. Butterworth-Heinemann, 2nd ed., 1996.

[4] R. K. Pathria and P. D. Beale, Statistical Mechanics. Butterworth-Heinemann,


3rd ed., 2011.

[5] L. E. Reichl, A Modern Course in Statistical Physics. Wiley, 2nd ed., 1998.

[6] L. E. Reichl, A Modern Course in Statistical Physics. Physics textbook, Wiley,


4th ed., 2016.

[7] R. R. dos Santos, Quantum Mechanics. Lecture Notes, UFRJ, 2014.

[8] I. Prigogine, Non-Equilibrium Statistical Mechanics. Wiley, 1962.

[9] H. E. Stanley, Introduction to Phase Transitions and Critical Phenomena. Interna-


tional series of monographs on physics, Oxford University Press, 1971.

[10] F. Reif, Fundamentals of Statistical and Thermal Physics. Waveland Press, 2009.

[11] F. Reif, Statistical Physics: Berkeley Physics Course, Vol. 5. Berkeley Physics
Course, McGraw-Hill, 1967.

[12] R. B. Griffiths, “A proof that the free energy of a spin system is extensive,” Journal
of Mathematical Physics, vol. 5, no. 9, pp. 1215–1222, 1964.

[13] G. Arfken, H. Weber, and F. Harris, Mathematical Methods for Physicists: A Com-
prehensive Guide. Elsevier Science, 2013.

[14] N. F. Ramsey, “Thermodynamics and statistical mechanics at negative absolute


temperatures,” Phys. Rev., vol. 103, pp. 20–28, Jul 1956.

[15] A. Leonard, “Exact inversion of the fugacity-density relation for ideal quantum
gases,” Phys. Rev., vol. 175, pp. 221–224, Nov 1968.

257
258 BIBLIOGRAPHY

[16] M. M. Nieto, “Exact state and fugacity equations for the ideal quantum gases,”
Journal of Mathematical Physics, vol. 11, no. 4, pp. 1346–1354, 1970.

[17] N. Ashcroft and N. Mermin, Solid State Physics. Holt, Rinehart and Winston, 1976.

[18] M. H. Anderson, J. R. Ensher, M. R. Matthews, C. E. Wieman, and E. A. Cornell,


“Observation of Bose-Einstein condensation in a dilute atomic vapor,” Science,
vol. 269, no. 5221, pp. 198–201, 1995.

[19] K. B. Davis, M. O. Mewes, M. R. Andrews, N. J. van Druten, D. S. Durfee, D. M.


Kurn, and W. Ketterle, “Bose-Einstein condensation in a gas of sodium atoms,”
Phys. Rev. Lett., vol. 75, pp. 3969–3973, Nov 1995.

[20] E. A. Cornell and C. E. Wieman, “Nobel lecture: Bose-Einstein condensation in


a dilute gas, the first 70 years and some recent experiments,” Rev. Mod. Phys.,
vol. 74, pp. 875–893, Aug 2002.

[21] W. Ketterle, “Nobel lecture: When atoms behave as waves: Bose-Einstein conden-
sation and the atom laser,” Rev. Mod. Phys., vol. 74, pp. 1131–1151, Nov 2002.

[22] S. O. Demokritov, V. E. Demidov, O. Dzyapko, G. A. Melkov, A. A. Serga,


B. Hillebrands, and A. N. Slavin, “Bose–Einstein condensation of quasi-equilibrium
magnons at room temperature under pumping,” Nature, vol. 443, no. 7110, pp. 430–
433, 2006.

[23] J. Kasprzak, M. Richard, S. Kundermann, A. Baas, P. Jeambrun, J. M. J. Keeling,


F. M. Marchetti, M. H. Szymańska, R. André, J. L. Staehli, V. Savona, P. B.
Littlewood, B. Deveaud, and L. S. Dang, “Bose–Einstein condensation of exciton
polaritons,” Nature, vol. 443, no. 7110, pp. 409–414, 2006.

[24] L. Landau and E. Lifshitz, Quantum Mechanics: Non-Relativistic Theory. Course


of Theoretical Physics, Elsevier Science, 1981.

[25] M. N. Barber, “Finite-size scaling,” in Phase Transitions and Critical Phenomena


(C. Domb and J. L. Lebowitz, eds.), vol. 8, p. 145, New York: Academic Press,
1983.

[26] H. D. Young and R. A. Freedman, University Physics. Pearson, 13th ed., 2012.

[27] D. Stauffer and A. Aharony, Introduction To Percolation Theory. Taylor & Francis,
2nd ed., 2003.

[28] R. B. Stinchcombe, “Dilute magnetism,” in Phase Transitions and Critical Phenom-


ena (C. Domb and J. L. Lebowitz, eds.), vol. 7, pp. 266–290, New York: Academic
Press, 1983.

[29] D. Belanger, “Experimental characterization of the Ising model in disordered anti-


ferromagnets,” Braz. J. Phys., vol. 30, p. 682, 2000.

You might also like