Integral de Lebesgue
Integral de Lebesgue
Índice general 1
1. Introducción 3
2. Antecedentes 5
2.1. Inicio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2. Precedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2.1. Integral de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2.2. Aportes de Émile Borel . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3. ¿Por qué una nueva integral? . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3.1. Problemas que motivarón la creación de una nueva integral . . . . . 10
3. Aplicaciones 11
3.1. Covarianza de variables independientes . . . . . . . . . . . . . . . . . . . . . 11
3.2. Problema de la aguja de Buffon . . . . . . . . . . . . . . . . . . . . . . . . . 11
4. Integral de Lebesgue 13
4.1. Interpretación geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.2. Espacio de Medida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.3. Integracion de funciones medibles . . . . . . . . . . . . . . . . . . . . . . . . 16
4.4. Definición: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5. Teoria de la probabilidad 19
5.1. Espacio de probabilidad (Ω, A , P ) . . . . . . . . . . . . . . . . . . . . . . . 19
5.1.1. Espacio Muestral Ω . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.1.2. σ-álgebra de eventos A . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.1.3. Medida de Probabilidad P . . . . . . . . . . . . . . . . . . . . . . . . 20
5.2. Conjuntos de Borel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.3. Funcion Medible [Variable Aleatoria] . . . . . . . . . . . . . . . . . . . . . . 21
5.4. Tipos de variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.4.1. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . . 24
5.4.2. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . 24
5.4.3. Variable aleatoria mixta . . . . . . . . . . . . . . . . . . . . . . . . . 25
6. Esperanza Matemática 27
6.1. Esperanza Matemática de una Variable Aleatoria . . . . . . . . . . . . . . . 27
6.2. Esperanza Matemática de Variable Aleatoria Discreta . . . . . . . . . . . . 28
6.3. Esperanza Matemática de Variable Aleatoria Absolutamente Continua . . . 29
6.4. Integración bajo densidades . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.5. Esperanza de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . 31
1
7. Introducción4 33
8. Coincidencias 35
9. Objetivos 39
9.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Bibliografı́a 41
Capı́tulo 1
Introducción
Lebesgue tiene dos definiciones equivalentes de integral, una descriptiva a partir de suce-
siones çonvenientes”(mas propia del Análisis Matemático), que ásicamente cnsiste en la
completización del espacio de las variables simples respecto de la distancia inducidapor
la integral, y otra constructiva. Usaremos la definición constructiva de la integral, de la
cual hay muchas variantes, pero las ideas básicas son siempre las mismas y, en general,
la integral se comienza definiendo siempre para funciones simples. Aunque no excluiremos
los valores infinitos, sin embrago deberemos evitar la aparición ∞ − ∞ a la que no daremos
sentido.
una de las propiedades esenciales de la integral es la de ser continua para lı́mites monóto-
nos, y en la construciión que vamos a realizar apuntaremos a conseguir rápidamente este
resultado.
3
Capı́tulo 2
Antecedentes
2.1. Inicio
Se podrı́a decir que Lebesgue creó la primera teorı́a de integración genuina. Varias
definiciones, teoremas y ejemplos antecededieron a su trabajo, pero carecı́an de la cohe-
rencia y completitud de una verdadera teorı́a. Sin embargo, estas contribuciones anteriores
prepararon el terreno para una sofsticada teorı́a de integración. Concretamente, permitie-
ron a Lebesgue tener la medida como punto de vista para la creación de su integral y le
proveyeron con una buena cantidad de problemas teóricos descubiertos en el contexto de
la integral de Riemann (aunque en su momento no fueron considerados como tales).
2.2. Precedentes
2.2.1. Integral de Riemann
El área de una función f se aproxima por rectángulos. Para ello, primero de divide
el intervalo [a; b] a un número finito de subintervalos [xk−1 ; xk ], donde 1 6 k 6 n, cuyas
longitudes pueden ser distintas y con la única condición de que no se solapen:
Se dice que estos puntos constituyen una partición. Inmediatamente se elige en cada
subintervalo un punto tk ∈ [xk−1 ; xk ], y se forma el rectángulo cuya base es el intervalo
[xk−1 ; xk ] y la altura será igual a f (tk ); definamos △ xk = xk − xk−1 .
Finalmente se forma la suma:
X n
f (tk ) △ xk
k=1
Definición:
Sea P={a = x0 , x1 , . . . , xn = b} una particı́on de [a; b] . Definimos la suma de Riemann
de f para la partición P:
n
X
S(f, P ) = f (tk ) △ xk
k=1
5
Figura 2.1: Sumas de Riemann
mk = ı́nf f (x)
x∈[xk−1 ,xk ]
Mk = sup f (x)
x∈[xk−1 ,xk ]
Figura 2.3: Suma inferior de f en [a; b] Figura 2.4: Suma superior de f en [a; b]
.
Para cada partición hay una única suma superior y otra inferior.
Sea f : [a; b] → R acotada y P [a; b] el conjunto de todas las particiones del intervalo
[a; b] La integral superior de la función f sobre [a; b] esta definida por:
Z b
= U (f ) = ı́nf U (P, f )
a P ∈P [a;b]
Sea f : [a; b] → R acotada. Se dice que la funnción f es integrable sobre [a; b] si:
Z b Z b
= L(f ) = U (f ) =
a a
Teorema 2.1 (Condición de Riemann). Sea f : [a; b] → R, una función acotada, entonces
las siguientes afirmaciones son equivalentes:
Teorema 2.2 (Convergencia de las sumas integrales). Sea f : [a; b] → R una función
integrable, {Pn } una sucesión de particiones de [a; b] tal que {△ (Pn )} → 0 y S(f, P ) una
suma de Riemann de f para la particion Pn . Se verifica entonces que:
Z b
lı́m U (f, P ) = lı́m S(f, P ) = lı́m L(f, P ) = f (x)dx
n→∞ n→∞ n→∞ a
ii) Conservación del orden. Si f, g son integrables en [a; b] y f (x) 6 g(x) para todo
x ∈ [a; b], entonces verifica:
Z b Z b
f (x)dx 6 g(x)dx
a a
v) Aditividad respecto al intervalo. Sea a < c < b, una función f es integrable en [a; b]
sı́ y sólo sı́, es integrable en [a; c] y en [c; b], el cual verifica la igualdad:
Z b Z c Z b
f (x)dx = f (x)dx + f (x)dx
a a c
2.2.2. Aportes de Émile Borel
En su libro ”Lecons sur la théorie des fonctions”(1898), Borel afirma que ”hemos reco-
nocido que una definición de medida sólo puede ser útil si ésta verifica ciertas propiedades
fundamentales, nosotros hemos impuesto estas propiedades a priori y las hemos empleado
para definir la clase de los cojuntos que hemos considerado como medibles. Esta forma de
proceder presenta grandes analogı́as con el método introducido por el Sr. Drach en Álge-
bra y en la teorı́a de las ecuaciones diferenciales... En cualquier caso, procede la misma
idea fundamental: deinir las nuevas propiedades, es decir, establecer qué propiedades son
estrictamente indispensables para el razonamiento que se va a seguir...”.
En este libro Borel establece las siguientes propiedades básicas que debe cumplir una
medida:
ii) La medida de la unión numerable (o finita) disjunta de conjuntos debe ser igual a la
”suma”de las mdidas de dichos conjuntos.
iii) La medida de la diferencia entre dos conjuntos (un conjunto y un subconjunto suyo)
es igual a la diferencia de sus medidas.
iv) Todo conjunto de medida no nula no puede ser (ni finito ni) numerable.
no es integrable.
Fourier asumió que la la respuesta a esta última pregunta es ”siempre”, y lo usó para
probar que la respuesta a la primera pregunta es ”sı́”. Hacia finales del siglo diecinueve
se desmostró que no se puede integrar término a término P ni siquiera en el caso de se-
ries uniformemente acotadas, precisamente porque f (x) = ∞ n=1 un (X) no tiene porque
ser integrable Riemann; aun ası́, se obtuvieron algunos resultados positivos aumentan-
do las hipótesis, pero requerı́an pruebas extremadamente largas. Estos desarrollos, sin
embargo, allanaron el camino para que Lebesgue probara elegantemente que se pueden
ı̈ntercambiar”la integral y la suma para cualquier serie uniformemente acotada de fun-
ciones integrables-Lebesgue. Y aplicando este resultado a la primera cuestión, Lebesgue
estuvo en posición de afirmar la creencia de Fourier de que la respuesta es ”siempre”.
Aplicaciones
11
toca alguna de estas l´?neas. Sea X la variable aleatoria que nos da la abscisa del punto
medio. También vamos a asumir que son independientes la posición en la que cae con la
orientación. Si θ denota la orientación aleatoria de la aguja estamos asumiendo en realidad
la independencia de θyX. Por último, dentro de los valores que puede tomar X y θ no
debe de haber sunconjuntos que con la misma longitud tengan más probabilidad
π π iuno que
otro. En definitica, X la suponemos uniforme en [o, d] y θ uniforme en − , + .
2 2
¿Qué valores (x, θ) son tales que la aguja toca a una de las dos lı́neas? Son los valores que
constituyen el siguiente conjunto,
l l
B = {(x, θ) : 0 ≤ x ≤ cos θod − cos θ ≤ x ≤ d}.
2 2
Aplicando la anterior proposición la probabilidad que buscamos es
π
+
2 1 l l
Z
P((X, θ) ∈ B) = π π P(X ∈ [0, 2 cos θ] ∪ [d − 2 cos θ, d)∂θ
−
2
Z +π
1 2 l cos θ∂θ = 2l .
= π
πd − πd
2
Capı́tulo 4
Integral de Lebesgue
Alguna vez Lebesgue escribió: ′′ Es claro que se debe iniciar partiendo [c;d] en lugar de
[a;b] .... ′′ . En efecto, en contraposición con la integral de Riemann, en la cual se inicia
partiendo el dominio de la función. Lebesgue propuso iniciar partiendo el rango de la
función que se desea integral. Podemos ilustrar la diferencia entre estos dos procedimientos
con una analogı́a propuesta por el mismo Lebesgue: si en un paquete se tienen billetes
de las siguiente denominaciones {0.10; 1; 0.50; 100; 20; 0.10; 2; 500; 20; 10; 100; 0.50},
de acuerdo con Riemann se contarı́an agrupando los primeros tres, después los cuatro
siguientes y finalmente los últimos cinco para obtener 1.60+122.10+630.50 = 754.20. Pero
de acuerdo con el procedimeinto propuesto por Lebesgue los contariamos agrupándolos de
acuerdo a sus valores, ası́ 0.10x2+0.50x2+20x2+100x2+2+500+1+10 =754.20.
donde m(Sk ) es una medida (cualquier medida) del conjunto S.El lı́mite de la suma (4),
cuando la partición sea infinitamente finita, podrá definir una integral.
La medida m(Sk ), la cantidad que determina el tamaño del conjunto Sk , debe ser una
generalización del concepto ”longitud del intervalo” para que la integral sea una
generalización de la integral de Riemann.
El estudio de la medida es indispensable para esta integral puesto que el conjunto Sk ya
no es un intervalo; por lo tanto estudiarems, algunas nociones de la teorı́a de la medida.
13
Figura 4.1: lebesgue
1. X ∈ A .
2. A ∈ A ⇒ A∁ ∈ A .
Mf = {B ⊂ R : f −1 (B) ∈ A }
Definición 4.5 (Espacio de Medida). Llamaremos espacio de medida a toda terna (X, A , µ).
Diremos que la media µ sobre A es finita si µ(X) < ∞, y σ-finita si podemos
escribir: [
X= Xn
n≥1
1.Si A,B ∈ A , tal que A ⊂, entonces µ(A) ≤ µ(A).Además si µ(B) < ∞, se tiene
que:
Observación 4.5. Sea A un conjunto enumerable, entonces posee medida nula. Es decir
µ(A) = 0
4.3. Integracion de funciones medibles
Definición 4.6 (Función caracterı́stica). Dado un conjunto A, se define la función carac-
terı́stica de A como:
(
1, Si x ∈ A.
χA =
0, Si x ∈
/ A.
Definición 4.7 (Función simple). Dado un espacio de medida (X, A , µ) se dice que ϕ :
X → R, es una función simple si se puede escribir como combinación lineal finita de
funciones caracterı́stica de conjuntos de A, es decir:
n
X
ϕ= cj χAj ,
j=1
donde cj ∈ R, Aj ∈ A
Definición 4.8 (Integral).
R
c. f ≥ 0, entonces f = 0 ⇐⇒ f dµ
Ejemplo: Sea
(
1, x∈Q
χQ (x) =
0, cc
veamos que Z
χQ (x)dµ = 1.µ(Q) + 0.µ(R \ Q) = 0,
R
Al ser Q un conjunto enumerable, entonces µ(Q) = 0. Además de no ser riemann integrable
al ser diferentes la suma superior con la suma inferior.
Teorema 4.1 (Convergencia Monótona (TCM)). Si (fi )∞ i=1 es una sucesión mont́ona
creciente de funciones medibles positvas, tales que lı́m fi = f , entonces:
i→∞
Z Z
lı́m fi dµ = f dµ = lı́m
R .
X i→∞ X i→∞( X fi dµ)
Z ∞
! ∞ Z
X X
gn dµ = gn dµ
X n=1 n=1 X
4.4. Definición:
Capı́tulo 5
Teoria de la probabilidad
1. Si A ∈ A entonces Ac ∈ A
2. ∅ ∈ A
19
S∞
3. Si A1 , A2 , ... ∈ A , entonces n=1 An ∈A
Definición 5.2. Una probabilidad P es una función que asigna a cada A ∈ A un número
real P (A). Llamado la probabilidad del evento A, tal que:
1. P (A) ≥ 0, paratodoA ∈ A
2. P (Ω) = 1
Entonces toda P definida sobre una A , con valores en el intervalo [0,1] y que cumpla los
tres postulados anteriores se le llama medida de probabilidad.
B(R) = σ{(a, b) ⊆ R : a ≤ b}
A los elementos de B(R) se les llama conjuntos de Borel, Borelianos o conjuntos Borel
medibles.De esta forma se puede asociar la σ-álgebra B(R) al conjunto de números reales,
y obtener ası́ el espacio medible (R, B(R)).Se muestran a continuación algunos elementos
explı́citos de esta σ-álgebra.
Proposición 5.1.
Para cualesquiera números reales a ≤ b, los intervalos [a, b], (a, ∞), (−∞, b), [a, b), (a, b]y{a},
son todos elementos de B(R).
Notación 5.1.
El conjunto de los números reales va a ser representado por R.La familia de conjun-
tos Borel B(R) es un σ-álgebra en los R.Hay que recalcar que B(R) es el más pequeño
σ-álgebra perteneciente a los intervalos de los R.
Sean (Ω, A ) y (R, B(R)) espacios medibles y X : Ω −→ B(R) una aplicación. Diremos
que X es una variable aleatoria (v.a.), una funcioón medible (o una función
(A , B(R))-medible) tal que para cualquier Boreliano B se cumple que el conjunto
X −1 (B) ∈ A , ∀B ∈ B(R)
Una variable aleatoria es una función de Ω en R tal que la imagen inversa de cualquier
conjunto Boreliano es un elemento de la σ - álgebra del espacio de probabilidad. Esta
condición se conoce como medibilidad en teorı́a de la medida, y se dice entonces que dicha
función es medible respecto de las σ - álgebras A Y B(R).
Veamos otro ejemplo, si (a, b) es un intervalo de la recta real, se puede usar el sı́mbolo
X −1 (a, b), o (X ∈ (a, b)), o bien (a < X < b) para denotar el conjunto {ω ∈: X(ω) ∈ (a, b)}.
Para hacer la escritura más corta, a menudo se omite el argumento ω de una variable X
y se omite también el término variable aleatoria para X suponiendo, en la mayorı́a de las
veces, que lo es.
Propiedades 5.1.
1. La función constante X = c es una variable aleatoria.
2. Si X es variable aleatoria y c es una constante, entonces cX también es variable
aleatoria.
3. Si X y Y son v.a.s, entonces X +Y es variable aleatoria.
4. Si X y Y son v.a.s, entoncesXY es variable aleatoria.
5. Si X y Y son v.a, entonces máx {X, Y }
5. Sean X y Y v.a.s con Y 6= 0.Entonces X/Y es variable aleatoria.
6. Sean X y Y v.a.s, entonces máx {X, Y } y mı́n{X, Y } también son variable
aleatoria.
7. Si X es variable aleatoria, entonces |X| es variable aleatoria.
Por lo comentado anteriormente en la definición 10.2 tenemos la siguiente definición:
Definición 5.5 (Función de Distribución). Una variable aleatoria X induce una medida
de probabilidad FX sobre R tal que:
FX = P ◦ X −1 = P (X −1 (A)) = P (ω ∈ Ω : X(ω) ∈ A)
Nótece que el espacio de llegada de una variablee aleatoria puede ser medible y para
diferentes medidas. Sin embargo, existe sólo una medida de probabilidad que cumple la
anterior denición y que está ligada de forma estructural a la variable aleatoria. Como
ilustración, el siguiente diagrama muestra cómo la variable aleatoria X induce a la medida
de probabilidad FX .
lı́m FX (a) = 1
x→∞
lı́m FX (a) = 0
x→−∞
a. P [a < X 6 b] = FX (b) − FX (a), para todo par de números reales tal que a < b.
b. Para todo número real a
P [X = a] = FX (a) − FX (a − 0)
donde
FX (a − 0) = lı́m FX (a − ε)
ε→0
en donde 0 ≤ α ≤ 1.
En todos los casos que consideraremos en este texto la distribución continua de esta
descomposición será absolutamente continua. En el caso general, esta distribución conti-
nua puede a su vez escribirse como otra combinación lineal convexa entre una distribución
absolutamente continua y una distribución continua singular. Esto lleva al resultado ge-
neral de que cualquier distribución puede escribirse como una combinación lineal convexa
de los tres tipos básicos de distribuciones.
Capı́tulo 6
Esperanza Matemática
Z ∞ Z 0
E(X) = (1 − FX (x))∂x − FX (x)∂x = I1 − I2
0 −∞
1 1
FX (x) = + arctgx , −∞ < x < ∞
2 π
27
Comenzaremos por evaluar la integral I2 , para la cual tenemos
Z 0 Z 0
1 1
I2 = FX (x)∂x = + arctgx ∂x
−∞ −∞ 2 π
0
x x 1 2
I2 = + arctgx − ln(1 + x )
2 π 2π x=−∞
x x 1 2
I2 = 0 + lı́m − − arctgx + ln(1 + x )
x→−∞ 2 π 2π
El lı́mite nos lleva a la forma indeterminada ∞ − ∞, pero usando la fómrmula
π 1
arctgx = − arctg
2 x
obtenemos
1 2 x 1
I2 = lı́m −x + ln(1 + x ) + arctg = ∞ + ∞ − 0.∞
x→−∞ 2π π x
Para determinar la forma 0.∞ hacemos una transformación y usamos la regla de L’Hospital
de la siguiente manera
1
1 arctg
lı́m xarctg = lı́m x
x→−∞ x x→−∞ 1
x
1
1 + (1/x)2
1
= lı́m − 2
x→−∞ −1 x
x2
1
= lı́m =1
x→−∞ 1
1+
x2
y con ésto,
1 1 1 1
I2 = lı́m −x + ln 1 + x2 + =∞+∞+
x→−∞ 2π π 1 π
1+ 2
x
es decir I2 = ∞
lo que nos permite afirmar, cualquiera que sea el valor de I1 , que la esperanza de X no
existe.
En este caso es
X
E(X) = xn .pn
n
e−β .β x
pX (x) =
x!
definida para x = 0, 1, 2, 3, ... se quiere calcular, si existe, E(X).
En este caso, como la variable sólo toma valores no negativos, para demostrar la presencia
de la esperanza de X hay que estudiar la convergencia de la serie de términos no negativos
∞
X
x.pX (x)
x=0
Tenemos
N
X X e−β .β x
∞x.px (x) = lı́m x.
N →∞ x!
x=0 x=0
N N −1
−β
X β x−1 −β
X βr
= β.e lı́m = β.e . lı́m
N →∞
x=0
(x − 1)! N →∞
r=0
r!
= βe−β eβ = β
Por lo tanto,
E(X)= β
Ejemplo: Para la variable aleatoria X cuya distribución de probabilidad está dada por
αe−α(x−β) si x > β
fX (x) =
0 si x ≤ β
donde α es una constante real positiva y β una constante real cualquiera, se tiene.
Si β > 0, entonces
Z ∞ Z 0 Z β Z ∞
I = | x | fX (x)∂x = −x. 0 ∂x + x. 0 ∂x + xαe−α(x−β) ∂x
−∞ −∞ 0 β
Z −β Z ∞
I = (y + β)αe−αy ∂y + (y + β)e−αy ∂y
0 −β
−β ∞
−αy 1 −αy 1
I = e β+y+ + −e β+y+
α y=0 α y=−β
1 1 1 1
I = eαβ β − β + − e0 β + 0 + − e∞ β + ∞ − + eβα β − β +
α α α α
2 αβ 1
I = e −β+
α α
Por lo tanto, también en el caso para los valores de β < 0,l existe E(X) y se tiene
Z ∞ Z ∞
1
E(X) = xfX (x)∂x = xαe−α(x−β) ∂x = β +
−∞ β α
1
E(X) = β +
α
Observación 6.1. Inducir probabilidades, como se habrá ya intuido, no es virtud exclusiva
de las variables aleatorias. A partir de cualquier aplicación medible f , entre (Ω1 , A1 , µ1 ) y
(Ω2 , A2 ), podemos inducir una medida en el espacio imagen mediante una definión análoga
a la anterior,
Si f entre (Ω1 , A1 , µ1 ) y (Ω2 , A2 ),es una aplicación medible, (por poner) nos permite
inducir sobre A2 una medida. Si además g es una función medible definica sobre Ω2 , la
composición g ◦ f será una función medible sobre Ω1 . La relación entre sus integrales
respecto de µ1 y µ2 , respectivamente, se recoge en el siguiente teorema del cambio de
variable.
Teorema 6.1 (Teorema del cambio de variable). Una función g es integrable en A2 res-
pecto de µf sı́ y sólo sı́ g ◦ f lo es en f −1 (A2 ) respecto de µ1 , y en ese caso se verifica
Z Z
g(f (ω1 )dµ1 = g(ω2 )dµf . (6.2)
f −1 (A2 ) A2
Sea g es una función medible definida sobre(R, (B)), entonces g(X) es una nueva va-
riable aleatoria cuya esperanza suponiendo que existe. Si aplicamos (**), la formula del
cambio de variable es la integral, con f=X y µf = Px tendremos:
Z Z
E(X) = g(X)dP = gdPX ,
Ω R
expresión que nos permite obtener la esperanza como una integral sobre R. Aún ası́ , (***)
no es operativa y solamente observando las caracterı́sticas de la distribución de probabili-
dad de X obtendremos expresiones manejables.En efecto,
PX es discreta De acuerdo con (++++), que nos da la integral repecto de una medida
discreta, si D es el soporte de PX
Z X X
E[g(X)] = gdPX = g(xi )PX ({xi }) = g(xi )P (X = xi )
R xi ∈D xi ∈D
(—)
S i en (—) tomamos para g la identidad obtendremos
X
E(X) = xi P (X = xi )
xi ∈D
Z Z
E[g(X)] = g(X)dP = gdFX ,
Ω R
que se justifica porque PX es la medida de Lebesgue-Stieltjes engendrada por FX .
Capı́tulo 7
Introducción4
La esperanza de una variable aleatoria, uno de los conceptos más importantes y po-
deosos de la teorı́a de estadı́tica, parecerı́a tener dos definiciones distintas, dependiendo
del nivel académico en que sea vista. Por una parte, está la definición desde el punto de
vista de la teorı́a de la medida. Por ejemplo, afirma que la esperanza o valor esperado de
una variable aleatoria X está dado por la siguiente expresión:
Z
E(X) = xfx (x)dx
R
Es claroque las dos definiciones no concuerdan a simple vista. En este manuscrito se aclara
por qué, en efecto, las dos definicionees coinciden.
33
Capı́tulo 8
Coincidencias
El siguiente teorema es llamado ”la ley del estadı́stico inconsciente” puesto que es
aplicado tan frecuentemente que se hace de manera incosciente e indiferente.
Demostración:
La demostracı́on de este teorema se realiza en cuatro pasos, para cuatro funciones. En
primer lugar se verifica el teorema para una función indicadora, luego se prueba que el
teorema aplica para cualquier función simple y por consiguiente también para cualquier
función no negativa. En último lugar, se demuestra que, como consecuencia de lo anterior,
el teorema se verića para cualquier función g(.).
35
Z Z
IA (x)fX (x)dx = fX (x)dx
R A
= µX (A)
= P (X −1 (A)
Z Z Z ∁
IA (X(ω))dP = IA (X(ω))dP + IA (X(ω))dP
Ω Ω S
Z Z
= 1dP + 0dP
S S ∁
Z
= IS (ω)dP
S
= P (ω ∈ Ω : X(ω) ∈ A) = P (X −1 (A))
Z Z
IA (x)fX (x)dx = IA (X(ω))dP
R Ω
Z k
Z X
ϕ(x)fX (x)dx = ai IAi (x)f (x)dx
R R i=1
k
X Z
= ai IAi (x)f (x)dx
i=1 R
Xk Z
= ai IAi (x)f (x)dx
i=1 Ω
k
Z X
= ai IAi (x)f (x)dx
Ω i=1
Z
= ϕ(X(ω))dP
Ω
con lo cual se tiene que el teorema es válido para cualquier función no negativa g.
Por consiguiente
Z Z
+
g (X(ω))dP − g− (X(ω))dP =
Z Ω ZΩ
g+ (x)fX (x)dx − g− (x)fX (x)dx
R R
Nótese que cuando la función g es la función idéntica, se tiene que las dos definiciones
de esperanza coinciden. Es decir
Z Z
E(X) = xfX (x)dx = XdP
R Ω
Capı́tulo 9
Objetivos
9.1.
39
Bibliografı́a
41