100% encontró este documento útil (1 voto)
502 vistas41 páginas

Integral de Lebesgue

Los conceptos de σ-álgebra, medida (en particular las medidas de probabilidad), y función medible (en particular las variables aleatorias), han surgido de los esfuerzos hechos en el siglo XIX y principios del XX para ampliar el concepto de integral a clases cada vez más amplias de funciones. La ampliación definitiva fue llevada a cabo por Lebesgue, después de que Borel abriera el camino.

Cargado por

Damian
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
502 vistas41 páginas

Integral de Lebesgue

Los conceptos de σ-álgebra, medida (en particular las medidas de probabilidad), y función medible (en particular las variables aleatorias), han surgido de los esfuerzos hechos en el siglo XIX y principios del XX para ampliar el concepto de integral a clases cada vez más amplias de funciones. La ampliación definitiva fue llevada a cabo por Lebesgue, después de que Borel abriera el camino.

Cargado por

Damian
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 41

Índice general

Índice general 1

1. Introducción 3

2. Antecedentes 5
2.1. Inicio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2. Precedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2.1. Integral de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2.2. Aportes de Émile Borel . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3. ¿Por qué una nueva integral? . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3.1. Problemas que motivarón la creación de una nueva integral . . . . . 10

3. Aplicaciones 11
3.1. Covarianza de variables independientes . . . . . . . . . . . . . . . . . . . . . 11
3.2. Problema de la aguja de Buffon . . . . . . . . . . . . . . . . . . . . . . . . . 11

4. Integral de Lebesgue 13
4.1. Interpretación geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.2. Espacio de Medida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.3. Integracion de funciones medibles . . . . . . . . . . . . . . . . . . . . . . . . 16
4.4. Definición: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

5. Teoria de la probabilidad 19
5.1. Espacio de probabilidad (Ω, A , P ) . . . . . . . . . . . . . . . . . . . . . . . 19
5.1.1. Espacio Muestral Ω . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.1.2. σ-álgebra de eventos A . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.1.3. Medida de Probabilidad P . . . . . . . . . . . . . . . . . . . . . . . . 20
5.2. Conjuntos de Borel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.3. Funcion Medible [Variable Aleatoria] . . . . . . . . . . . . . . . . . . . . . . 21
5.4. Tipos de variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.4.1. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . . 24
5.4.2. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . 24
5.4.3. Variable aleatoria mixta . . . . . . . . . . . . . . . . . . . . . . . . . 25

6. Esperanza Matemática 27
6.1. Esperanza Matemática de una Variable Aleatoria . . . . . . . . . . . . . . . 27
6.2. Esperanza Matemática de Variable Aleatoria Discreta . . . . . . . . . . . . 28
6.3. Esperanza Matemática de Variable Aleatoria Absolutamente Continua . . . 29
6.4. Integración bajo densidades . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.5. Esperanza de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . 31

1
7. Introducción4 33

8. Coincidencias 35

9. Objetivos 39
9.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

Bibliografı́a 41
Capı́tulo 1

Introducción

Los conceptos de σ-álgebra, medida (en particular las medidas de probabilidad), y


función medible (en particular las varibles aleatorias), han surgido de los esfuerzos hechos
en el siglo XIX y principios del XX para ampliar el concepto de integral a clases cada vez
más amplias de funciones. La ampliación definitiva fue llevada a cabo por Lebesgue, depués
de que Borel abriera el camino. Lebesgue trabajo con la medida especial conocida como
”medida de Lebesgue”. Radon aplicó el mismo punto de vista, trabajando con medidas
de ”Stieljes-Lebesgue”. Por último, Frechet, usando aún el punto de vista de Lebesgue,
prescindió de las restriccciones sobre el espacio de medida sobre el que estaban definidas
las funciones numéricas a integrar.
La axiomática de la probabilidad de Kolmogorov, introduciéndola como una medi-
da sobre una σ-álgebra ”de los sucesos”, supuso un importante avance de la Teorı́a de
la Probabilidad, que tuvo desde entonces el importante apoo de la Teorı́a de la Medida
en su evolución. Ası́ el concepto de Esperanza Matemática, que juega en el Cálculo de
Probabilidadesun papel preponderante como medida de centralización, pasó de ser una
simple media aritmética ponderada, calculable en ciertos casos, a su generalización como
una ı̈ntegral respecto de una medida de probabilidad”. Al tiempo, la Teorı́a de la Proba-
bilidadha enriquecido notablemente a la Teorı́a de la Medidano sólo por la justificación
práctica que supone, sino por la abundancia de nuevas ideas que ha introducido y por los
nuevos métodos de demostración que ha impuesto.

Lebesgue tiene dos definiciones equivalentes de integral, una descriptiva a partir de suce-
siones çonvenientes”(mas propia del Análisis Matemático), que ásicamente cnsiste en la
completización del espacio de las variables simples respecto de la distancia inducidapor
la integral, y otra constructiva. Usaremos la definición constructiva de la integral, de la
cual hay muchas variantes, pero las ideas básicas son siempre las mismas y, en general,
la integral se comienza definiendo siempre para funciones simples. Aunque no excluiremos
los valores infinitos, sin embrago deberemos evitar la aparición ∞ − ∞ a la que no daremos
sentido.

una de las propiedades esenciales de la integral es la de ser continua para lı́mites monóto-
nos, y en la construciión que vamos a realizar apuntaremos a conseguir rápidamente este
resultado.

Utilizaremos indistintamente los términos Esperanza Matemática (o Esperanza para abre-


viar), media
R e integral, y para una variable aleatoria dada, X, representaremos su espe-
ranza por X∂P , intX(ω)P (∂ω) o EX e incluso intX cuando no haya lugar a dudas
sobre el espacio probabilı́stico (Ω, σ, P ) que consideramos fijo en todo el tema.

3
Capı́tulo 2

Antecedentes

2.1. Inicio
Se podrı́a decir que Lebesgue creó la primera teorı́a de integración genuina. Varias
definiciones, teoremas y ejemplos antecededieron a su trabajo, pero carecı́an de la cohe-
rencia y completitud de una verdadera teorı́a. Sin embargo, estas contribuciones anteriores
prepararon el terreno para una sofsticada teorı́a de integración. Concretamente, permitie-
ron a Lebesgue tener la medida como punto de vista para la creación de su integral y le
proveyeron con una buena cantidad de problemas teóricos descubiertos en el contexto de
la integral de Riemann (aunque en su momento no fueron considerados como tales).

2.2. Precedentes
2.2.1. Integral de Riemann
El área de una función f se aproxima por rectángulos. Para ello, primero de divide
el intervalo [a; b] a un número finito de subintervalos [xk−1 ; xk ], donde 1 6 k 6 n, cuyas
longitudes pueden ser distintas y con la única condición de que no se solapen:

a = x0 < x1 < x2 < . . . < xn−1 < xn = b

Se dice que estos puntos constituyen una partición. Inmediatamente se elige en cada
subintervalo un punto tk ∈ [xk−1 ; xk ], y se forma el rectángulo cuya base es el intervalo
[xk−1 ; xk ] y la altura será igual a f (tk ); definamos △ xk = xk − xk−1 .
Finalmente se forma la suma:
X n
f (tk ) △ xk
k=1

Definición:
Sea P={a = x0 , x1 , . . . , xn = b} una particı́on de [a; b] . Definimos la suma de Riemann
de f para la partición P:
n
X
S(f, P ) = f (tk ) △ xk
k=1

donde tk ∈ [xk−1 , xk ], k = 1, 2, ..., n.

Observación 2.1. La suma de Riemann S(f, P ) depende de la partición P y de los


puntos (t1 , t2 , ..., tn ), si S(f, P ) tiende a un lı́mite cuando la partción sea infinitamente

5
Figura 2.1: Sumas de Riemann

fina entonces el lı́mite se llama la integral de f (x) de ”a” a ”b” y se denota:


Z b
L= f (x)∂x
a

Se observa que si la altura f (xk ) está en el semiplano superior y en el inferior. Es decir


cuando f toma valores negativos y positivos:
n
X
S(f, P ) = f (tk ) △ xk
k=1
Xn
= (f + (tk ) − f − (tk )) △ xk
k=1
n
X n
X
= f + (tk ) − f − (tk )) △ xk
k=1 k=1
+ −
S(f, P ) = S(f , P ) − S(f , P )

Figura 2.2: Área de f (x)


Definición:
Dada una partición P={a = x0 , x1 , x2 , . . . , xn = b} del intervalo [a; b] y f (x) una
funcı́on de variable real definida y acotada en [a; b], denotamos:

mk = ı́nf f (x)
x∈[xk−1 ,xk ]
Mk = sup f (x)
x∈[xk−1 ,xk ]

Llamaremos suma inferior de la función f , respecto a la partición P; cuyo valor es:


n
X
L(f, P ) = m k △ xk
k=1

Llamaremos suma superior de la función f , respecto a la partición P; cuyo valor es:


n
X
U (f, P ) = Mk △ xk
k=1

Figura 2.3: Suma inferior de f en [a; b] Figura 2.4: Suma superior de f en [a; b]

Observación 2.2. Dado que para todo tk ∈ [xk−1 , xk ] es mk 6 f (tk ) 6 Mk , deducimos


que para toda suma de Riemann, S(f, P ), de f para la partición P es

L(f, P ) 6 S(f, P ) 6 U (f, P )

.
Para cada partición hay una única suma superior y otra inferior.
Sea f : [a; b] → R acotada y P [a; b] el conjunto de todas las particiones del intervalo
[a; b] La integral superior de la función f sobre [a; b] esta definida por:
Z b
= U (f ) = ı́nf U (P, f )
a P ∈P [a;b]

La integral inferior de la función f sobre [a; b] esta definida por:


Z b
= L(f ) = sup L(P, f )
a P ∈P [a;b]
Definición:

Sea f : [a; b] → R acotada. Se dice que la funnción f es integrable sobre [a; b] si:
Z b Z b
= L(f ) = U (f ) =
a a

Teorema 2.1 (Condición de Riemann). Sea f : [a; b] → R, una función acotada, entonces
las siguientes afirmaciones son equivalentes:

1. f es integrable sobre [a; b].

2. Para todo ε > 0 existe una partición, Pε ∈ P [a; b] tal que:

U (f, P ) − L(f, P ) < ε

Teorema 2.2 (Convergencia de las sumas integrales). Sea f : [a; b] → R una función
integrable, {Pn } una sucesión de particiones de [a; b] tal que {△ (Pn )} → 0 y S(f, P ) una
suma de Riemann de f para la particion Pn . Se verifica entonces que:
Z b
lı́m U (f, P ) = lı́m S(f, P ) = lı́m L(f, P ) = f (x)dx
n→∞ n→∞ n→∞ a

Propiedades de la Integral de Riemann


i) Linealidad. Si f, g son integrables en [a; b] y α, β números reales, se verifica que la
función αf + βg, también es integrable en [a; b] y
Z b Z b Z b
(αf (x) + βg(x)dx = α dx + β g(x)dx.
a a a

ii) Conservación del orden. Si f, g son integrables en [a; b] y f (x) 6 g(x) para todo
x ∈ [a; b], entonces verifica:
Z b Z b
f (x)dx 6 g(x)dx
a a

iii) Si f es integrable en [a; b], también |f | es integrable en [a; b] y se verifica la desigual-


dad: Z b Z b


f (x)dx 6 f (x)dx
a a

iv) El producto de funciones integrables Riemann, también es integrable Riemann.

v) Aditividad respecto al intervalo. Sea a < c < b, una función f es integrable en [a; b]
sı́ y sólo sı́, es integrable en [a; c] y en [c; b], el cual verifica la igualdad:
Z b Z c Z b
f (x)dx = f (x)dx + f (x)dx
a a c
2.2.2. Aportes de Émile Borel
En su libro ”Lecons sur la théorie des fonctions”(1898), Borel afirma que ”hemos reco-
nocido que una definición de medida sólo puede ser útil si ésta verifica ciertas propiedades
fundamentales, nosotros hemos impuesto estas propiedades a priori y las hemos empleado
para definir la clase de los cojuntos que hemos considerado como medibles. Esta forma de
proceder presenta grandes analogı́as con el método introducido por el Sr. Drach en Álge-
bra y en la teorı́a de las ecuaciones diferenciales... En cualquier caso, procede la misma
idea fundamental: deinir las nuevas propiedades, es decir, establecer qué propiedades son
estrictamente indispensables para el razonamiento que se va a seguir...”.
En este libro Borel establece las siguientes propiedades básicas que debe cumplir una
medida:

i) Una medida es siempre no negativa.

ii) La medida de la unión numerable (o finita) disjunta de conjuntos debe ser igual a la
”suma”de las mdidas de dichos conjuntos.

iii) La medida de la diferencia entre dos conjuntos (un conjunto y un subconjunto suyo)
es igual a la diferencia de sus medidas.

iv) Todo conjunto de medida no nula no puede ser (ni finito ni) numerable.

2.3. ¿Por qué una nueva integral?


Hacia finales del siglo XIX resultó claro para muchos matemáticos que la integral de
Riemann tiene importantes limitaciones, es sabido por ejemplo su mal comportamiento con
ciertos procesos de convergencia. Ésta y otras limitaciones que ahora veremos, obligaron a
realizar nuevos intentos de construcción de otras integrales. Entre estos intentos destacan
los debidos a Jordan, Borel, Young y finalmente el de Lebesgue, que resultó ser el más
exitoso.
En lo que respecta nosotros, nos interesa destacar las siguientes limitaciones:

1. El conjunto de funciones integrables es relativamente pequeño: Hay funciones senci-


llas que no son integrables. Recuérdese por ejemplo que la función de Dirichlet, esto
es, la función, f : [0; 1] → R.
(
0 Si x ∈ Q.
f (x) =
1 Si x ∈ R\Q.

no es integrable.

2. Su extensión a varias variables tiene algunas dificultades.

Ambos problemas están ı́ntimamente relacionados con el hecho de ampliar el concepto de


medida a otros conjuntos de números reales no necesariamente intervalos y por extensión
a otros subconjuntos de Rn . Las cuestiones pues a resolver son varias:
¿Qué conjuntos se pueden medir?, ¿Cómo medirlos? , ¿Qué funciones se pueden integrar?
y ¿cómo halla su integral?
2.3.1. Problemas que motivarón la creación de una nueva integral
Para Lebesgue, la definición generalizada de integral representa solo el inicio y la parte
menos profunda de su aportación a la teorı́a de integración.
Lo que hizo el descubrimiento inicial importante fue que Lebesgue consiguió reconocer en
él una herramienta analt́ica capaz de hacer frente a los problemas no resueltos que habán
surgido a partir de la anterior teorá de integración.
Como Leguesgue explicó, una generalización hecha no por el placer de generalizar, sino
para resolver problemas previos no resueltos, es siempre una generalización frutı́fera.
De hecho, los problemas no resueltos motivaron los mayores resultados de Lebesgue.

Series trigonométricas y de Fourier e integración término a término


El primero de estos problemas surgió con Fourier en 1822: si una función F se puede
representar como una serie trigonomética, es esa serie la serie de Fourier de f ? Directamen-
te relacionado con esta pregunta, tenemos: ¿cúando podemos permitir integrar término a
término una serie infinita de funciones? Es decir, ¿cuándo es cierto que
Z b X ∞
! ∞ Z b 
X
un (x) = un (x) ?
a n=1 n=1 a

Fourier asumió que la la respuesta a esta última pregunta es ”siempre”, y lo usó para
probar que la respuesta a la primera pregunta es ”sı́”. Hacia finales del siglo diecinueve
se desmostró que no se puede integrar término a término P ni siquiera en el caso de se-
ries uniformemente acotadas, precisamente porque f (x) = ∞ n=1 un (X) no tiene porque
ser integrable Riemann; aun ası́, se obtuvieron algunos resultados positivos aumentan-
do las hipótesis, pero requerı́an pruebas extremadamente largas. Estos desarrollos, sin
embargo, allanaron el camino para que Lebesgue probara elegantemente que se pueden
ı̈ntercambiar”la integral y la suma para cualquier serie uniformemente acotada de fun-
ciones integrables-Lebesgue. Y aplicando este resultado a la primera cuestión, Lebesgue
estuvo en posición de afirmar la creencia de Fourier de que la respuesta es ”siempre”.

El teorema fundamental del cálculo


Otro torrente de dificultades fue el teorema fundamental del cálculo
Z b
f ′ (x)∂x = f (b) − f (a)
a
El trabajo de Ulisse Dini y Vito Volterra dejó claro que existen funciones con derivadas
acotadas no integrables, por lo que el teorema fundamental anterior se torna inútil para
estas nuevas funciones. Más adelante, se descubrieron más clases de funciones con esta
propiedad. Nuevos problemas surgieron en relación con la extensión que Axel Harnack’s
hizo de la integral de Riemann para funciones no acotadas, dado que se descubrieron
funciones monótonas continuas con intervalos densamente distribuidos de invariabilidad.
Tales funciones sirvieron como ejemplo de derivadas Harnack-integrables para las cuales
el teorema fundamental no es aplicable. Algunos teoremas debidos a Lebesgue resolverı́an
elegantemente estos problemas.
La existencia de las funciones mencionadas anteriormente hicieron preguntarse cuando
una función continua es una integral. Esto incitó a Alex Harnack a introducir una nueva
propiedad cuyo nombre no ha variado desde entonces: la continuidad absoluta. Durante
la década de 1890 la continuidad absoluta se empezó a considerar como la propiedad
caracterı́stica de las integrales absolutamente convergentes, aunque nadie fue capaz de
probar que cualquier función absolutamente continua es una integral.
Capı́tulo 3

Aplicaciones

3.1. Covarianza de variables independientes


Sean X e Y dos variables independientes con distribuciones marginales respectivas P1
y P2 y conjunta P1 2 tales que existen los valores esperados de X, Y y XY . Aplicando el
teorema de Fubini se tiene,
Z
E(XY ) = xy∂P1 2(x, y)
2
ZR Z
= xy∂P2 (y)
R RZ
= EX y∂P2 (y)
R
= EXEY,

por lo que cov(X, Y ) = E(XY )−E(X)E(Y ) = 0. En particular el coeficinete de correlación


de Pearson
cov(X, Y )
ρ=
var(X)( 1/2)var(Y )( 1/2)

también se anula para X y Y independientes. El recı́proco no es cierto en general.


Dos variables aleatorias cuyo coeficinete de correlación es 1 o −1 verifican que una es
función lineal de la otra.

3.2. Problema de la aguja de Buffon


Lo planteó el naturalista Buffon en 1777 dentro de su libro Essai d’ arithemtique
moraley es el siguiente. Consideremos en R2 una serie de lı́neas paralelas ortogonales al
eje x y separadas entre si por una distancia fija d. Tomemos una aguja de coser no muy
larga (l < d) y la lanzamos aleatoriamente sobre el plano. ¿Cuál es la probabilidad de
que la guja toque alguna de las lı́neas?
Cuando Byffon usa la palabra aleatoriamente está queriendo decir que puede caer de
cualquier forma y en cualquier sitio. Hemos de definir con precisión qué entendemos por
caer aleatoriamente. La situación de la aguja queda caracterizada si conocemos la posición
de su punto medio (x, y) y su orientación o ángulo que forma con el eje de abscisas θ.
Asumiremos en primer lugar que ninguna banda tiene una especial predisposición a que
la aguja caiga en ella. Podemos suponer por tanto que (x, y) está en la delimitada por el
x = 0yx = d. Observemos que el valor de y no influye a la hora de considerar si la aguja

11
toca alguna de estas l´?neas. Sea X la variable aleatoria que nos da la abscisa del punto
medio. También vamos a asumir que son independientes la posición en la que cae con la
orientación. Si θ denota la orientación aleatoria de la aguja estamos asumiendo en realidad
la independencia de θyX. Por último, dentro de los valores que puede tomar X y θ no
debe de haber sunconjuntos que con la misma longitud tengan más probabilidad
 π π iuno que
otro. En definitica, X la suponemos uniforme en [o, d] y θ uniforme en − , + .
2 2
¿Qué valores (x, θ) son tales que la aguja toca a una de las dos lı́neas? Son los valores que
constituyen el siguiente conjunto,
l l
B = {(x, θ) : 0 ≤ x ≤ cos θod − cos θ ≤ x ≤ d}.
2 2
Aplicando la anterior proposición la probabilidad que buscamos es
π
+
2 1 l l
Z
P((X, θ) ∈ B) = π π P(X ∈ [0, 2 cos θ] ∪ [d − 2 cos θ, d)∂θ

2
Z +π
1 2 l cos θ∂θ = 2l .
= π
πd − πd
2
Capı́tulo 4

Integral de Lebesgue

Alguna vez Lebesgue escribió: ′′ Es claro que se debe iniciar partiendo [c;d] en lugar de
[a;b] .... ′′ . En efecto, en contraposición con la integral de Riemann, en la cual se inicia
partiendo el dominio de la función. Lebesgue propuso iniciar partiendo el rango de la
función que se desea integral. Podemos ilustrar la diferencia entre estos dos procedimientos
con una analogı́a propuesta por el mismo Lebesgue: si en un paquete se tienen billetes
de las siguiente denominaciones {0.10; 1; 0.50; 100; 20; 0.10; 2; 500; 20; 10; 100; 0.50},
de acuerdo con Riemann se contarı́an agrupando los primeros tres, después los cuatro
siguientes y finalmente los últimos cinco para obtener 1.60+122.10+630.50 = 754.20. Pero
de acuerdo con el procedimeinto propuesto por Lebesgue los contariamos agrupándolos de
acuerdo a sus valores, ası́ 0.10x2+0.50x2+20x2+100x2+2+500+1+10 =754.20.

4.1. Interpretación geométrica


Rb
Para definir la Integral de Riemann a f (x) dx tomamos siempre la partición finita
(sub-divición en un número finito de intervalos) [a, b] entonces la suma de Riemann es:
S(f,P)= nk=1 f (tk )(xk − xk−1 ) donde tk ǫ [xk , xk−1 ].......(1)
P

La base de la suma de Riemann,(1),es la división del dominio de f(x).Ahora subdividamos


el recorrido de f(x), [n, M ], donde :
m =[a,b] Inf f(x) , M =[a,b] Sup f(x)
Sea:
y0 =m ,y1 ,y2 , . . . , yk−1 , yk ,. . . . .yn =M ......(2)
una partición de [n,M], y sea:
Sk ={ x | yk−1 ≤ f(x) < yk } ......(3)
entonces se puede formar una suma parecida a (1):
SL (f )= nk=1 tk ∗ m(Sk ) donde tk ǫ [yk , yk−1 ]......(4)
P

donde m(Sk ) es una medida (cualquier medida) del conjunto S.El lı́mite de la suma (4),
cuando la partición sea infinitamente finita, podrá definir una integral.
La medida m(Sk ), la cantidad que determina el tamaño del conjunto Sk , debe ser una
generalización del concepto ”longitud del intervalo” para que la integral sea una
generalización de la integral de Riemann.
El estudio de la medida es indispensable para esta integral puesto que el conjunto Sk ya
no es un intervalo; por lo tanto estudiarems, algunas nociones de la teorı́a de la medida.

13
Figura 4.1: lebesgue

4.2. Espacio de Medida


Definición 4.1. Sea X un conjunto, se dice que A ⊂ P(X) es un σ-álgebra si verifica:

1. X ∈ A .

2. A ∈ A ⇒ A∁ ∈ A .

3. A es cerraada por uniones numerables, finita o no; es decir:


[
An ∈ A ⇒ An ∈ A
n≥1

Observación 4.1. A = P(X), es siempre un σ-álgebra.

Definición 4.2 (σ-álgebra de Borel.). En R se define la σ-álgebra de Borel, BR como


aquella generada por los intervalos abiertos

BR = {(a, b) : a, b ∈ R, a < b}.

La definición de BR también funciona con intervalos cerrados, semiabiertos o incluso


infinitos como [a, ∞).

Definición 4.3 (Función Medible). Diremos que f : X → R, es A -medible si ∀a∈R :

f −1 ((a, ∞)) = {x ∈ X : f (x) > a} ∈ A

Observación 4.2. La definición medible es equvalente a pedir que:

{x ∈ X : f (x) < b} ∈ A , ∀a∈R ,


{x ∈ X : f (x) ≥ a} ∈ A , ∀a∈R ,
{x ∈ X : f (x) ≤ b} ∈ A , ∀a∈R ,
{x ∈ X : a < f (x) < b} ∈ A , ∀a,b∈R .

Observación 4.3. El conjunto de funciones medibles tiene estructura de espacio vectorial.


Si dos funciones f y g son medibles, entonces su suma también es medible y lo mismo
ocurre en el producto, es decir f.g es medible. Si f : X → R, es medible, entonces se puede
escribir:
f = f + − f −,
con f + , f − funciones medibles positivas definidas por:
( (
+ f (x), sif (x) ≥ 0 − 0, sif (x) > 0
f (x) = f (x) =
0, sif (x) < 0 f (x), sif (x) ≤ 0

Dada f : X → R, A -medible, la familia es un σ-álgebra en R.

Mf = {B ⊂ R : f −1 (B) ∈ A }

Por lo tanto contiene al BR ya que (a, ∞) ∈ Mf , ∀a∈R por definición.


Observación 4.4. Si f : X → R es medible, entonces |f | es medible. El paso al lı́mite
no perturba la propiedad de ser medible, es decir si {fn } es una sucesión de funciones
medibles entonces {fn } → f convergencia puntual o casi todos los puntos, entonces f es
medible.
Definición 4.4 (Medida). Dada una σ-álgebra A en X, se dice que µ:A −→ [0, ∞] es
una medida sobre A si se verifican:
1. µ (φ) = 0,
2. Para toda familia numerable {Aj }j≤1 de A cuyos elementos son disjuntos
dos a dos se tiene:
 
] X
µ Aj  = µ(Aj )
j≥1 j≥1

Definición 4.5 (Espacio de Medida). Llamaremos espacio de medida a toda terna (X, A , µ).
Diremos que la media µ sobre A es finita si µ(X) < ∞, y σ-finita si podemos
escribir: [
X= Xn
n≥1

con Xn ∈ A y µ(Xn ) < ∞.


Proposición 4.1. Sea µ una medida sobre la σ -álgebra A , entonces:

1.Si A,B ∈ A , tal que A ⊂, entonces µ(A) ≤ µ(A).Además si µ(B) < ∞, se tiene
que:

µ(B/A) = µ(B) − µ(A)


2.Si A1 ⊂ A2 ⊂ .... ⊂ An ⊂ An+1 ⊂ ...., An ∈ A , ∀n, entonces :
 

[
µ Aj  = lı́m µ(Aj )
j→∞
j=1

3.Si A1 ⊃ A2 ⊂ .... ⊃ An ⊃ An+1 ⊃ ...., An ∈ A , ∀n,y µ(A1 ) < ∞, entonces:


 

\
µ Aj  = lı́m µ(Aj )
j→∞
j=1

Observación 4.5. Sea A un conjunto enumerable, entonces posee medida nula. Es decir
µ(A) = 0
4.3. Integracion de funciones medibles
Definición 4.6 (Función caracterı́stica). Dado un conjunto A, se define la función carac-
terı́stica de A como:
(
1, Si x ∈ A.
χA =
0, Si x ∈
/ A.

Definición 4.7 (Función simple). Dado un espacio de medida (X, A , µ) se dice que ϕ :
X → R, es una función simple si se puede escribir como combinación lineal finita de
funciones caracterı́stica de conjuntos de A, es decir:
n
X
ϕ= cj χAj ,
j=1

donde cj ∈ R, Aj ∈ A
Definición 4.8 (Integral).

1. Para funciones simples tenemos


Z n
X
ϕdµ = cj µ(Aj ),
X j=1

donde estamos suponiendo que µ(Aj ) < ∞.


2. Para una función medible y positiva
Z Z 
f dµ = sup ϕdµ : 0 6 ϕ 6 f
X X

donde el supremo puede valer ∞.

Se obsreva trivialmente que:


a. Si f y g son simples, entonces:
Z Z Z
(f + g)dµ = f dµ + gdµ.

b. Si f y g som edibles tales que 0 6 f 6 g, entonces:


Z Z
f dµ 6 gdµ.

R
c. f ≥ 0, entonces f = 0 ⇐⇒ f dµ
Ejemplo: Sea
(
1, x∈Q
χQ (x) =
0, cc
veamos que Z
χQ (x)dµ = 1.µ(Q) + 0.µ(R \ Q) = 0,
R
Al ser Q un conjunto enumerable, entonces µ(Q) = 0. Además de no ser riemann integrable
al ser diferentes la suma superior con la suma inferior.
Teorema 4.1 (Convergencia Monótona (TCM)). Si (fi )∞ i=1 es una sucesión mont́ona
creciente de funciones medibles positvas, tales que lı́m fi = f , entonces:
i→∞
Z   Z
lı́m fi dµ = f dµ = lı́m
R .
X i→∞ X i→∞( X fi dµ)

Corolario 4.1. Sea (gi )∞


i=1 es una sucesión de funciones medibles y positivas, entonces

Z ∞
! ∞ Z 
X X
gn dµ = gn dµ
X n=1 n=1 X

Proposición 4.2. Si f, g ≥ 0, medibles. Entonces


Z Z Z
(f + g)dµ = f dµ + gdµ.
X X X

Teorema 4.2. Sea f : R → R continua en I = [a, b] y f (x) = 0, si x ∈


/ [a, b] y f es
lebesgue integrable. Entonces:
Z Z b
f dµ = f dx
I a

Teorema 4.3 (Teorema de Radon-Nikodym). Sea m la medida de Lebesgue. Si µX es


absolutamente continua con respecto a m, entonces existe una función medible no negativa
fX : R → R tal que: Z
µX (A) = fX dm
A

4.4. Definición:
Capı́tulo 5

Teoria de la probabilidad

La teorı́a de la probabilidad es la parte de las matemáticas que se encarga del estudio


de los fenómenos o experimentos aleatorios. Se entiende por experimento aleatorio todo
aquel experimento que se podrı́a repetir indefinidamente bajo condiciones esencialmente
invariantes, que pueda describir todos los posibles resultados aún cuando no es posible
establecer lo que será un resultado en particular y que tenga la propiedad de regularidad
estadı́stica ( miestras mas larga sea el número de observaciones, muestre una estabilidad
entre 1 y 0). Bajo estas circunstancias, la teorı́a de la probabilidad tiene el objetivo de
modelar matemáticamente cualquier experimento aleatorio de interés.

5.1. Espacio de probabilidad (Ω, A , P )


El modelo matemático creado durante el primer tercio del siglo XX para estudiar los
experimentos aleatorios es el ası́ llamado espacio de probabilidad. Este modelo consiste
de una terna ordenada, denotada usualmente por (Ω, A , P ), en donde Ω es un conjunto
arbitrario, A es una σ-álgebra de eventos de subconjuntos de Ω, y P es una medida de
probabilidad definida sobre F . Explicamos a continuación brevemente cada uno de estos
elementos.

5.1.1. Espacio Muestral Ω


El conjunto Ω es llamado espacio muestral o espacio muestra cuyos elementos ω se
denomina eventos elementales (o puntos muestrales), y tiene como objetivo agrupar a
todos los posibles resultados del experimento aleatorio en cuestión. Es de notar que a Ω
no se le impone condición alguna, excepto la condición implı́cita de tener elementos.

5.1.2. σ-álgebra de eventos A


Se define la mı́nima σ-álgebra generada por una colección de subconjuntos del espacio
muestral. Pero no es una colección cualquiera, sino una que satisface cierta estructura a
la cual denominaremos σ-álgebra de eventos y que se define de la siguiente manera:
Definición 5.1. Una coleccción A de subconjuntos de Ω es una σ-álgebra de eventos si
cumple las siguientes condiciones:

1. Si A ∈ A entonces Ac ∈ A

2. ∅ ∈ A

19
S∞
3. Si A1 , A2 , ... ∈ A , entonces n=1 An ∈A

En probabilidad elemental el conjunto Ω denota el espacio muestral o conjunto de po-


sibles resultados de un experimento aleatorio, y los elementos de A representan eventos
en el experimento aleatorio. Una A es entonces una estructura que nos permite agrupar
ciertos subconjuntos de Ω de interés, aquellos a los cuales se desea calcular su probabi-
lidad, y esta estructura constituye el dominio de definición de una medida de probabilidad.

5.1.3. Medida de Probabilidad P


Hasta el momento sabemos que al par formado por Ω y A se le denomina un Campo
de probabilidad y constituye parte del modelo.

Definición 5.2. Una probabilidad P es una función que asigna a cada A ∈ A un número
real P (A). Llamado la probabilidad del evento A, tal que:

1. P (A) ≥ 0, paratodoA ∈ A

2. P (Ω) = 1

3. Si {An } es una sucesión de eventos incompatibles(conjuntos disjuntos), entonces:


n

!
[ X
P An = P (An )
n=1 n=1

Entonces toda P definida sobre una A , con valores en el intervalo [0,1] y que cumpla los
tres postulados anteriores se le llama medida de probabilidad.

5.2. Conjuntos de Borel


Considere la colección de todos los intervalos abiertos (a,b) de R, en donde a ≤ b. A
la mı́nima σ−álgebra generada por esta colección se llama σ-álgebra de Borel de R, y se
le denota por B(R).

Definición 5.3 (σ-ÁLGEBRA DE BOREL DE R).

B(R) = σ{(a, b) ⊆ R : a ≤ b}
A los elementos de B(R) se les llama conjuntos de Borel, Borelianos o conjuntos Borel
medibles.De esta forma se puede asociar la σ-álgebra B(R) al conjunto de números reales,
y obtener ası́ el espacio medible (R, B(R)).Se muestran a continuación algunos elementos
explı́citos de esta σ-álgebra.

Proposición 5.1.

Para cualesquiera números reales a ≤ b, los intervalos [a, b], (a, ∞), (−∞, b), [a, b), (a, b]y{a},
son todos elementos de B(R).
Notación 5.1.
El conjunto de los números reales va a ser representado por R.La familia de conjun-
tos Borel B(R) es un σ-álgebra en los R.Hay que recalcar que B(R) es el más pequeño
σ-álgebra perteneciente a los intervalos de los R.

5.3. Funcion Medible [Variable Aleatoria]


Una variable aleatoria es una función del espacio muestral en el conjunto de números
reales que además satisface cierta condición de medibilidad. Representa una traducción de
cada uno de los resultados del espacio muestral en números reales. Mediante una variable
aleatoria uno puede considerar que el posible experimento aleatorio en cuestión no produce
como resultados elementos de Ω sino números reales. El concepto de variable aleatoria es
fundamental en la teorı́a de la probabilidad, y una vez que enunciemos su definición, el
término aparecerá con mucha frecuencia a lo largo del trabajo.

Definición 5.4 (Función Medible).

Sean (Ω, A ) y (R, B(R)) espacios medibles y X : Ω −→ B(R) una aplicación. Diremos
que X es una variable aleatoria (v.a.), una funcioón medible (o una función
(A , B(R))-medible) tal que para cualquier Boreliano B se cumple que el conjunto

X −1 (B) ∈ A , ∀B ∈ B(R)

Figura 5.1: funcion medible

Una variable aleatoria es una función de Ω en R tal que la imagen inversa de cualquier
conjunto Boreliano es un elemento de la σ - álgebra del espacio de probabilidad. Esta
condición se conoce como medibilidad en teorı́a de la medida, y se dice entonces que dicha
función es medible respecto de las σ - álgebras A Y B(R).

Observación 5.1 (Variable Aleatoria).


Dado un campo de probabilidad (Ω, A ) y una funcion real valorada X cuyo dominio
es espacio muestral (Ω) y cuyo recorrido (RX ) es un conjunto no vacı́o de números reales,
es decir X : Ω → R.
Se dice que una X es una variable aleatoria si para cada valor real de a, el conjunto de los
eventos elementales; tal que X(ω) 6 a es un evento. Es decir, {ω ∈ ΩX(ω) 6 a} ∈ A ;
donde de forma practica se le denomina [X 6 a] ∈ A para todo a real.
Figura 5.2: Variable aleatoria

Explicaremos a continuación la razón técnica por la cual se le pide a una función


X : Ω −→ R que cumpla la condiciı́on de medibilidad. Recordemos que P es una medida
de probabilidad definida sobre el espacio medible (Ω, F ). Si X es una variable aleatoria,
entonces podemos trasladar la medida de probabilidad P al espacio medible (R, B(R)) del
siguiente modo: Si B es un conjunto Boreliano definimos PX (B) = P (X −1 (B)), lo cual es
posible pues el conjunto X −1 (B) es un elemento de F , dominio de definición de P.

La función PX : B(R) −→ {0, 1} resulta ser una medida de probabilidad, y se le lla-


ma por tanto la medida de probabilidad inducida por la variable aleatoria.
Se le conoce tambı́en con el nombre de distribución o ley de probabilidad de X.A menu-
do se le denota por FX . De este modo se contruye el espacio de probabilidad(R, B(R), FX ).

Si B es un conjunto Boreliano, se usan los sı́mbolos X −1 (B) y (X ∈ B) para denotar el


conjunto {ω ∈ Ω : X(ω) ∈ B}. Por ejemplo, el conjunto {ω ∈ Ω : X(ω) ∈ [0, ∞)} puede ser
denotado por X −1 [0, ∞)o(X[0, ∞)), o simplemente por (X ≥ 0), incluyendo los paréntesis.

Veamos otro ejemplo, si (a, b) es un intervalo de la recta real, se puede usar el sı́mbolo
X −1 (a, b), o (X ∈ (a, b)), o bien (a < X < b) para denotar el conjunto {ω ∈: X(ω) ∈ (a, b)}.
Para hacer la escritura más corta, a menudo se omite el argumento ω de una variable X
y se omite también el término variable aleatoria para X suponiendo, en la mayorı́a de las
veces, que lo es.

Propiedades 5.1.
1. La función constante X = c es una variable aleatoria.
2. Si X es variable aleatoria y c es una constante, entonces cX también es variable
aleatoria.
3. Si X y Y son v.a.s, entonces X +Y es variable aleatoria.
4. Si X y Y son v.a.s, entoncesXY es variable aleatoria.
5. Si X y Y son v.a, entonces máx {X, Y }
5. Sean X y Y v.a.s con Y 6= 0.Entonces X/Y es variable aleatoria.
6. Sean X y Y v.a.s, entonces máx {X, Y } y mı́n{X, Y } también son variable
aleatoria.
7. Si X es variable aleatoria, entonces |X| es variable aleatoria.
Por lo comentado anteriormente en la definición 10.2 tenemos la siguiente definición:

Definición 5.5 (Función de Distribución). Una variable aleatoria X induce una medida
de probabilidad FX sobre R tal que:

FX = P ◦ X −1 = P (X −1 (A)) = P (ω ∈ Ω : X(ω) ∈ A)
Nótece que el espacio de llegada de una variablee aleatoria puede ser medible y para
diferentes medidas. Sin embargo, existe sólo una medida de probabilidad que cumple la
anterior denición y que está ligada de forma estructural a la variable aleatoria. Como
ilustración, el siguiente diagrama muestra cómo la variable aleatoria X induce a la medida
de probabilidad FX .

X : (Ω, B, P ) −→ (B, B(R), FX := P ◦ X −1 )


Observación 5.2 (Función de distribución).
Toda variable aleatoria esta asociada a una función de distribución, la cual es de mucha
importacia.
Dados un espacio de probabilidad (Ω, A , P ), la función distribucion FX de una variable
aleatoria X, se define como la probabilidad de un suceso de su respetiva variable aleatoria.
Siendo asi, FX : R → [0; 1] definida como: FX (a) = P [X 6 a].
Sea FX una función de distribución, psee las siguientes propiedades:
1. Si a1 6 a1 , entonces FX (a1 ) 6 FX (a2 ), es decir no decreciente.

2. Para toda función de distribución FX se cumple:

lı́m FX (a) = 1
x→∞

3. Para toda función de distribución FX se cumple:

lı́m FX (a) = 0
x→−∞

4. Toda función de distribución FX es continua por la derecha.

5 Dada una variable aleatoria X con función de distribución FX , entonces:

a. P [a < X 6 b] = FX (b) − FX (a), para todo par de números reales tal que a < b.
b. Para todo número real a

P [X = a] = FX (a) − FX (a − 0)

donde
FX (a − 0) = lı́m FX (a − ε)
ε→0

5.4. Tipos de variable aleatoria


Las variables aleatorias se clasifican en varios tipos dependiendo de las caracterı́sticas
de la correspondiente función de distribución. Existen tres tipos: discretas, continuas y
mixtas.
5.4.1. Variable aleatoria discreta
La variable aleatoria X se llama discreta si su correspondiente función de destribución
FX es una función constante a pedazos, es decir su recorrido RX es numerable. Además,
en cada uno de sus puntos de este x1 , x2 , . . ., son de discontinuidad. En cada uno de estos
puntos se cumple P [X = xi ] > 0. Existiendo asi una función pX , llamada función de
cuantı́a o función de densidad discreta, y se define de la manera siguiente:
(
P [X = x] Si x ∈ RX .
pX (x) =
0 Si x ∈
/ RX .

Figura 5.3: Variable aleatoria discreta

La cual cumple las siguientes condiciones

I. pX (x) > 0, para todo x ∈ R


X
II. pX (xn ) = 1, Siendo RX = {x1 , x2 , . . . , xn , . . .}
n
X
III. FX (a) = pX (xn ).
n6a

El conjunto de pares de la forma (xn ; pX (x)) recibe el nombre de la distribución de


probabilidad la variable aleatoria discreta X y contiene toda la información necesaria
para estudiar X.

5.4.2. Variable aleatoria continua


La variable aleatoria X con función de destribución FX es continua, se llama absoluta-
mente continua. Y existe una función no negativa e integrable fX , tal que para cualquier
valor de x se cumpla: Z a
FX (a) = fX (x)∂x
−∞
para cada número real a.
La función fX se denomina función de densidad de probabilidad de la variable alea-
toria X, o de la función de destribución FX ; y la colección de pares (x; fX (x)) es la
destribución de probabilidad de la variable aleatoria absolutamente continua
X y contiene toda la información para estudiar X.
Figura 5.4: Variable aleatoria continua

5.4.3. Variable aleatoria mixta


Toda función de distribución F (x) se puede escribir como una combinación lineal
convexa de una funcón de distribución discreta F d (x) y otra continua F c (x), es decir,
admite la siguiente representación:

F (x) = αF d (x) + (1 − α)F c (x),

en donde 0 ≤ α ≤ 1.

Figura 5.5: Variable aleatoria mixta

En todos los casos que consideraremos en este texto la distribución continua de esta
descomposición será absolutamente continua. En el caso general, esta distribución conti-
nua puede a su vez escribirse como otra combinación lineal convexa entre una distribución
absolutamente continua y una distribución continua singular. Esto lleva al resultado ge-
neral de que cualquier distribución puede escribirse como una combinación lineal convexa
de los tres tipos básicos de distribuciones.
Capı́tulo 6

Esperanza Matemática

6.1. Esperanza Matemática de una Variable Aleatoria

Definición: La esperanza matemática es el punto de gravedad de la propagación de la


masa unitaria de probabilidad, sobre el eje real, determinada por FX . Sea X una variable
aleatoria cuya función de distribución FX se conoce. La esperanza matemática de X, o
simplemente la esperanza de X, que se simboliza como E(X), está definida por:

Z ∞ Z 0
E(X) = (1 − FX (x))∂x − FX (x)∂x = I1 − I2
0 −∞

previsto que ambas integrales tengan valor finito.

Figura 6.1: Esperanza matemática

Si al menos una de estas integrales no es finita, se dice que las esperanza de X no


existe. Ejemplo: Dada la variable aleatoria X cuya función de distribución es

1 1
FX (x) = + arctgx , −∞ < x < ∞
2 π

se desea estudiar la existencia de la esperanza de X.

27
Comenzaremos por evaluar la integral I2 , para la cual tenemos
Z 0 Z 0  
1 1
I2 = FX (x)∂x = + arctgx ∂x
−∞ −∞ 2 π

 0
x x 1 2
I2 = + arctgx − ln(1 + x )
2 π 2π x=−∞

 
x x 1 2
I2 = 0 + lı́m − − arctgx + ln(1 + x )
x→−∞ 2 π 2π
El lı́mite nos lleva a la forma indeterminada ∞ − ∞, pero usando la fómrmula
π 1
arctgx = − arctg
2 x
obtenemos
 
1 2 x 1
I2 = lı́m −x + ln(1 + x ) + arctg = ∞ + ∞ − 0.∞
x→−∞ 2π π x
Para determinar la forma 0.∞ hacemos una transformación y usamos la regla de L’Hospital
de la siguiente manera
1
1 arctg
lı́m xarctg = lı́m x
x→−∞ x x→−∞ 1
x

1
1 + (1/x)2
 
1
= lı́m − 2
x→−∞ −1 x
x2

1
= lı́m =1
x→−∞ 1
1+
x2
y con ésto,
 
1  1 1 1
I2 = lı́m −x + ln 1 + x2 + =∞+∞+
 
x→−∞ 2π π 1  π
1+ 2
x
es decir I2 = ∞
lo que nos permite afirmar, cualquiera que sea el valor de I1 , que la esperanza de X no
existe.

6.2. Esperanza Matemática de Variable Aleatoria Discreta


Si X es una variable aleatoria discreta con función de cuantı́a dada por pX (xn ) = pn
donde xn es un punto del recorrido de X, siendo RX contable, entonces decimos que E(X)
P
existe si y sólo si n xn .pn es una serie absolutamente convergente, ésto es,
X
| xn | .pn < ∞
n

En este caso es
X
E(X) = xn .pn
n

Ejemplo: Sea la variable aleatoria X con función de cuantı́a

e−β .β x
pX (x) =
x!
definida para x = 0, 1, 2, 3, ... se quiere calcular, si existe, E(X).
En este caso, como la variable sólo toma valores no negativos, para demostrar la presencia
de la esperanza de X hay que estudiar la convergencia de la serie de términos no negativos

X
x.pX (x)
x=0

Tenemos
N
X X e−β .β x
∞x.px (x) = lı́m x.
N →∞ x!
x=0 x=0

N N −1
−β
X β x−1 −β
X βr
= β.e lı́m = β.e . lı́m
N →∞
x=0
(x − 1)! N →∞
r=0
r!

= βe−β eβ = β

Por lo tanto,

E(X)= β

6.3. Esperanza Matemática de Variable Aleatoria Absolu-


tamente Continua
Sea X una varoable aleatoria absolutamente continua con función de densidad fX . La
esperanza de X existe y está dada por
Z ∞
E(X) = xfX (x)∂x
−∞

si y sólo si esta integral existe, ésto es, si y sólo si


Z ∞
E(X) = | x | fX (x)∂x < ∞
−∞

Ejemplo: Para la variable aleatoria X cuya distribución de probabilidad está dada por

αe−α(x−β) si x > β
fX (x) =
0 si x ≤ β
donde α es una constante real positiva y β una constante real cualquiera, se tiene.

Si β > 0, entonces
Z ∞ Z 0 Z β Z ∞
I = | x | fX (x)∂x = −x. 0 ∂x + x. 0 ∂x + xαe−α(x−β) ∂x
−∞ −∞ 0 β

e introduciendo el cambio de variable y = x − β bajo el signo integral,


Z ∞ Z ∞ Z ∞
−αy −αy
I = (y + β)αe ∂y = β αe ∂y + αye−αy ∂y
0 0 0
 ∞
∞  ∞ 1 −αy 1
−βe−αy 0 − ye−αy 0 −

= e =β+
α 0 α

En el caso en que sea β > 0,se tiene entonces


1
E(X) = I = β +
α
En cambio si es β ≤ 0, y sı́ se usa el cambio de variable bajo el signo integral x − β = y,
se tiene
Z β Z 0 Z ∞
−α(x−β)
I = xfX (x)∂x + −xαe ∂x + xαe−α(x−β) ∂x
−∞ β 0

Z −β Z ∞
I = (y + β)αe−αy ∂y + (y + β)e−αy ∂y
0 −β

  −β   ∞
−αy 1 −αy 1
I = e β+y+ + −e β+y+
α y=0 α y=−β

       
1 1 1 1
I = eαβ β − β + − e0 β + 0 + − e∞ β + ∞ − + eβα β − β +
α α α α

2 αβ 1
I = e −β+
α α
Por lo tanto, también en el caso para los valores de β < 0,l existe E(X) y se tiene
Z ∞ Z ∞
1
E(X) = xfX (x)∂x = xαe−α(x−β) ∂x = β +
−∞ β α

y, en consecuencia, en cualquier caso para los valores de β

1
E(X) = β +
α
Observación 6.1. Inducir probabilidades, como se habrá ya intuido, no es virtud exclusiva
de las variables aleatorias. A partir de cualquier aplicación medible f , entre (Ω1 , A1 , µ1 ) y
(Ω2 , A2 ), podemos inducir una medida en el espacio imagen mediante una definión análoga
a la anterior,

µf (A2 ) = µ1 (f −1 (A2 )), ∀A2 ∈ A2 . (6.1)

Si f entre (Ω1 , A1 , µ1 ) y (Ω2 , A2 ),es una aplicación medible, (por poner) nos permite
inducir sobre A2 una medida. Si además g es una función medible definica sobre Ω2 , la
composición g ◦ f será una función medible sobre Ω1 . La relación entre sus integrales
respecto de µ1 y µ2 , respectivamente, se recoge en el siguiente teorema del cambio de
variable.

Teorema 6.1 (Teorema del cambio de variable). Una función g es integrable en A2 res-
pecto de µf sı́ y sólo sı́ g ◦ f lo es en f −1 (A2 ) respecto de µ1 , y en ese caso se verifica
Z Z
g(f (ω1 )dµ1 = g(ω2 )dµf . (6.2)
f −1 (A2 ) A2

Si g es no negativa, este resultado es siempre cierto

6.4. Integración bajo densidades


Las medidas de probabilidad poseen densidades respecto a la medida de Lebesgue. en
genera, dadas dos medidas de v y µ definidas sobreR el mismo espaci de medida, decimos
que f es la densidad de v respecto de µ, si v(A) = A f dµ, ∀A ∈ A , con f 0. Las integrales
respecto de medidas ligdas a través de una densidad guardan una sencilla relación.

Teorema 6.2. Si v posee una densidad f respecto de µ, una función g es integrable en A


respecto a v sı́ y sólo sı́ gf lo es respecto de µ, y en ese caso se verifica
Z Z
gdν = gf dµ (6.3)
A A

Si g es no negativa este resultado es siempre cierto.

6.5. Esperanza de una variable aleatoria


Definición 6.1. Si X, variable aleatoria definida sobre el espacio de probabilidad (Ω, A , P ),
es integrable en Ω respecto de P diremos que existe su esperanza o valor esperado que se
define como:
Z
E(X) = XdP.

Sea g es una función medible definida sobre(R, (B)), entonces g(X) es una nueva va-
riable aleatoria cuya esperanza suponiendo que existe. Si aplicamos (**), la formula del
cambio de variable es la integral, con f=X y µf = Px tendremos:
Z Z
E(X) = g(X)dP = gdPX ,
Ω R
expresión que nos permite obtener la esperanza como una integral sobre R. Aún ası́ , (***)
no es operativa y solamente observando las caracterı́sticas de la distribución de probabili-
dad de X obtendremos expresiones manejables.En efecto,
PX es discreta De acuerdo con (++++), que nos da la integral repecto de una medida
discreta, si D es el soporte de PX
Z X X
E[g(X)] = gdPX = g(xi )PX ({xi }) = g(xi )P (X = xi )
R xi ∈D xi ∈D

(—)
S i en (—) tomamos para g la identidad obtendremos
X
E(X) = xi P (X = xi )
xi ∈D

PX posee densidad Si f es la densidad de PX respecto de la medida de Lebesgue en R,


(**) nos permitirá escribir:
Z Z
E[g(X)] = gdPX = gf dλ.
R R

Cuando, como ocurre con frecuencia, gf es integrable


R +∞Riemann, (**) adopta la forma de la
correspondiente integral de Riemann E[g(X)] = −∞ g(x)f (x)dx, que para el caso parti-
R +∞
cular g(x)=x nos proporciona la E(X) = −∞ xf (x)dx.

Observación 6.2. Es costumbre escribir también (***) de la forma

Z Z
E[g(X)] = g(X)dP = gdFX ,
Ω R
que se justifica porque PX es la medida de Lebesgue-Stieltjes engendrada por FX .
Capı́tulo 7

Introducción4

La esperanza de una variable aleatoria, uno de los conceptos más importantes y po-
deosos de la teorı́a de estadı́tica, parecerı́a tener dos definiciones distintas, dependiendo
del nivel académico en que sea vista. Por una parte, está la definición desde el punto de
vista de la teorı́a de la medida. Por ejemplo, afirma que la esperanza o valor esperado de
una variable aleatoria X está dado por la siguiente expresión:
Z
E(X) = xfx (x)dx
R

Es claroque las dos definiciones no concuerdan a simple vista. En este manuscrito se aclara
por qué, en efecto, las dos definicionees coinciden.

33
Capı́tulo 8

Coincidencias

El siguiente teorema es llamado ”la ley del estadı́stico inconsciente” puesto que es
aplicado tan frecuentemente que se hace de manera incosciente e indiferente.

Teorema 8.1. Si g : R → R es una función µX -medible, entonces g(X) es P -medible y


además Z Z
g(X)dP = g(x)fX (x)dx
Ω R

Si X tiene una función de densidad de probabilidad fX (.), entonces


Z
E(g(X)) = g(x)fX (x)dx

Como caso particular, cuando la funciı́on g(x) = x, entonces la esperanza de la variable


aleatoria X toma la forma clásica dada por:
Z
E(X) = XdP

Demostración:
La demostracı́on de este teorema se realiza en cuatro pasos, para cuatro funciones. En
primer lugar se verifica el teorema para una función indicadora, luego se prueba que el
teorema aplica para cualquier función simple y por consiguiente también para cualquier
función no negativa. En último lugar, se demuestra que, como consecuencia de lo anterior,
el teorema se verića para cualquier función g(.).

Figura 8.1: Pasos para demostrar el teorema

Dos expresiones para la esperanza de una variable aleatoria

1. Funciı́on indicadora: Sea A un conjunto de Borel, tal que A ⊆ R. Luego:

35
Z Z
IA (x)fX (x)dx = fX (x)dx
R A
= µX (A)
= P (X −1 (A)

En donde se utiliza la difinición de integral dada por (****), el resultado de Radon-


Nikodyn y la definion de medida inducida por una variable
. Por otro lado, definiendo S = {ω ∈ Ω : X(ω) ∈ A}, se tiene que

Z Z Z ∁
IA (X(ω))dP = IA (X(ω))dP + IA (X(ω))dP
Ω Ω S
Z Z
= 1dP + 0dP
S S ∁
Z
= IS (ω)dP
S
= P (ω ∈ Ω : X(ω) ∈ A) = P (X −1 (A))

En donde se utiliza el hecho de que la integral de una función indicadora es la medida


del conjunto medible. Nótese que la cadena de igualdades coincide con la anterior y
por consiguiente se tiene el cumplimiento del teorema puesto que

Z Z
IA (x)fX (x)dx = IA (X(ω))dP
R Ω

2. Función simple: como el teorema es válido para funciones indicadoras y utilizando


la linealidad de las integrales, se tiene que

Z k
Z X
ϕ(x)fX (x)dx = ai IAi (x)f (x)dx
R R i=1
k
X Z
= ai IAi (x)f (x)dx
i=1 R

Xk Z
= ai IAi (x)f (x)dx
i=1 Ω
k
Z X
= ai IAi (x)f (x)dx
Ω i=1
Z
= ϕ(X(ω))dP

3. Función no negativa:dado que fX es la derivada de Radon-Nikodyn, entonces es


no negativa. Ahora, utilizando (2.4), se tiene que existe una sucesión de funciones
{fX ϕn } las cuales satisfacen que 0 ≤ fX ϕ1 ≤ fX ϕ2 ≤ ... ≤ fX ϕn ≤ fX g y
Z Z
g(X(ω))dP = lı́m ϕn (X(ω)dP
Ω Ω n→∞
Z
= lı́m ϕn (X(ω)dP
n→∞ Ω
Z
= lı́m ϕ(x)fX (x)dx
n→∞ R
Z
= lı́m ϕ(x)fX (x)dx
n→∞
ZR
= g(x)fX (x)dx
R

con lo cual se tiene que el teorema es válido para cualquier función no negativa g.

4. Función arbitraria: aplicando la definición de parte negativa y positiva de una función


de Borel, se tiene que g(ω) = g+ (ω) − g− (ω), con g+ y g− funciones no negativas.
Entonces aplicando el anterior resultado, se tiene
Z Z
+
g (X(ω))dP = g+ (x)fX (x)dx
Ω R
Z Z

g (X(ω))dP = g− (x)fX (x)dx
Ω R

Por consiguiente
Z Z
+
g (X(ω))dP − g− (X(ω))dP =
Z Ω ZΩ
g+ (x)fX (x)dx − g− (x)fX (x)dx
R R

Por linealidad de las integrales, se tine que


Z Z
[g+ − g− ](X(ω))dP = [g+ − g− ](x)fX (x)dx
Ω R

Y con esto se tiene la demostración completa del teorema puesto que


Z Z
g(X(ω))dP = g(x)fX (x)dx
Ω R

Nótese que cuando la función g es la función idéntica, se tiene que las dos definiciones
de esperanza coinciden. Es decir
Z Z
E(X) = xfX (x)dx = XdP
R Ω
Capı́tulo 9

Objetivos

9.1.

39
Bibliografı́a

[1] Yu Takeuchi. Integral de Lebesgue, 1966

[2] Rincon, Luis, Curso Intermedio de Probabilidad, 2007.

[3] Badajoz.Apuntes de Teorı́a de la Medida,2013.

[4] Garcı́a Nogales,Agustı́n.Teorı́as de la Medida y de la Probabilidad,2007.

[5] Ayala Guillermo & Montes Francisco.Teorı́a de la Probabilidad.

[6] Quezada Batalla, Roberto. Una introdución a la medida e integral de Lebesgue.

[7] Cordero Zamorano,Pablo Martı́n.La integral de Lebesgue en su contexto históri-


co,2006.

[8] Belichón,Jose A. Apuntes de Teorı́a de la Medida,2008.

[9] Meza de Castillo,Elizabeth.Probabilidad,1994.

41

También podría gustarte