Producto Interior
Producto Interior
4. hu, ui > 0, si u 6= 0.
Un e.v. sobre el campo R junto con un producto interior especíco se llama espacio vectorial con producto
interior real.
Para vericar que la ecuación 1 es, en efecto, un producto interior, solamente tenemos que utilizar las
propiedades de suma y multiplicación de números reales. Por ejemplo, para vericar el inciso 2 de la denición
de p.i. sean u = (u1 , u2 , ..., un ), v = (v1 , v2 , ..., vn ) ∈ V y α ∈ R; para cada i = 1, 2, ..., n
De donde
Otras propiedades del producto interior se deducen directamente de su denición y se enuncian en el siguiente
teorema.
Teorema 1.3. Sea V un e.v. con p.i. Para cualesquiera vectores u, v y w en V y todo α ∈ R, se cumple lo
siguiente.
1
(a) De los incisos 1 y 3 de la denición 1.1 se sigue que
hu, v + wi |{z}
= hv + w, ui |{z}
= hv, ui + hw, ui |{z}
= hu, vi hu, wi .
3 1 3
(c) Del inciso 1 de la denición 1.1 se sigue que hu, 0i = h0, ui. Para concluir es suente probar que hu, 0i = 0.
Utilizando la identidad 0 · 0 = 0 y el inciso 2 de la denición 1.1, se concluye que
(d) (Ida.) Si u 6= 0, del inciso 4 de la denición 1.1, hu, ui > 0, lo cual contradice la hipótesis. Por lo tanto
u = 0.
(Regreso.) Si u = 0, el inciso (c) implica que hu, ui = h0, 0i = 0.
(e) Por hipótesis, para todo x ∈ V , hx, ui = hx, vi, o bien, hx, u − vi. Sea x = u − v; del inciso (d) se
concluye que u − v = 0, y, por lo tanto, u = v.
El producto interior permite denir con precisión la noción de longitud de un vector a cualquier espacio
vectorial con producto interior. Para jar ideas, sea p = (a, b, c) un punto en R3 . El teorema de pitágoras
implica que la longitud que une al origen con el punto p es
hp, pi.
p p
a2 + b2 + c2 =
3. (Desigualdad de Cauchy-Schwarz.) | hu, vi | ≤ kukkvk. Además la igualdad ocurre si, y sólo si, u y v son
paralelos.
4. (Desigualdad del triángulo.) ku + vk ≤ kuk + kvk. Además la igualdad ocurre si, y sólo si, u y v están
en la misma dirección o alguno de u o v es igual al vector cero.
2
Proof. Sean u, v ∈ V .
1. Sea α ∈ R. Ya que
kαuk2 = hαu, αui = α2 hu, ui = α2 kuk2 ,
se sigue que kαuk = |α|kuk.
2. Por el inciso (d) del teorema 1.3, kuk = 0 si, y sólo si, hu, ui = 0 si, y sólo si, u = 0.
3. Caso I. Si v = 0 el resultado es inmediato (ocurre la igualdad 0 = 0).
Caso II. Se supone v 6= 0. Para todo t ∈ R
0 ≤ ku − tvk2
= hu − tv, u − tvi
= hu, ui − 2t hu, vi + t2 hv, vi
= kuk2 − 2t hu, vi + t2 kvk2 .
hu, vi
En particular para t = (que está bien denido pues v 6= 0):
kvk2
hu, vi hu, vi
2 2
0 ≤ kuk2 − 2 +
kvk 2 kvk2
hu, vi
2
= kuk2 − .
kvk2
Ahora se probará que | hu, vi | = kukkvk si, y sólo si, u y v son paralelos.
(Ida.) Caso I. Si v = 0 el resultado es inmediato.
Caso II. Se supone 6= 0. Como los vectores u y v son paralelos, u − αv = 0, para algún α ∈ R. Más
aún, α es único: si β ∈ R satisface la igualdad u − β v = 0, entonces u − αv = u − β v lo ocual ocurre si,
y sólo si, αv = β v = 0 si, y sólo si (α − β)v = 0. Ya que v 6= 0, α − β = 0, esto es, α = β .
Ahora, si se considera el polinomio P (x) = ku − xvk2 , entonces lo anterior implica que α es la única raíz
del polinomio polinomio P . Se observa a continuación que P es un polinomio de grado dos:
La unicidad de la raíz del polinomio P implica que su discriminante es igual a cero. Así
De donde hu, vi − kvk2 kuk2 = 0, es decir, hu, vi = kvk2 kuk2 . Por lo tanto | hu, vi | = kvkkuk.
2 2
(Regreso.) Conservando la notación utilizada en la ida, el argumento anterior ayuda a probar esta
implicación: si | hu, vi | = kvkkuk, entonces el polinomio P (x) tiene una sola raíz ya que su discriminante
es igual a cero. Sea α ∈ R dicha raíz. Entonces u − αv = 0 ya que ku − αvk2 = 0. Por lo tanto los
vectores u y v son paralelos.
3
4. Se probará como consecuencia de la desigualdad de Cauchy-Schwarz.
ku + vk2 = hu + v, u + vi
= kuk2 + 2 hu, vi + kvk2
≤ kuk2 + 2kukkvk + kvk2 (Desigualdad Cauchy-Schawarz.)
= (kuk + kvk) .
2
Ahora se probará que ku + vk = kuk + kvk si, y sólo si, u y v están en la misma dirección o alguno
de u o v es igual al vector cero.
(Ida.) Se supone u 6= 0 y v 6= 0. Como
De donde α = |α| > 0. Por lo tanto los vectores u y v están en la misma dirección.
(Regreso.) Caso I. Si u = 0, entonces
Análogamente si v = 0.
Caso II. Si u = αv para algún número real α > 0, entonces
De donde
Ejercicio 1.8. (Este ejercicio muestra cómo el producto interior se puede utilizar para probar desigualdades.)
Demostrar que
1 1 1 1
16 ≤ (a + b + c + d) + + + .
a b c d
para cualesquiera números positivos a, b, c y d en R.
Solución 1.9. Sean a, b, c y d números reales positivos.
Proof.
−1
√ √ √ √Entonces a√ ,−1 b−1√, c−1 √
y d−1√también son
números reales positivos. Se denen los vectores u = ( a, b, c, d) y v = ( a , b , c−1 , d−1 ) en R4 .
−1
Entonces
D√ √ √ √ √ √ √ √ E2 √ √ √ √ 2
hu, vi =
2
a, b, c, d), ( a−1 , b−1 , c−1 , d−1 ) = aa−1 + bb−1 + cc−1 + dd−1 = 16 (2)
y
√ √ √ √ √ √ √ √
kuk2 kvk2 = ( a)2 + ( b)2 + ( c)2 + ( d)2 ( a−1 )2 + ( b−1 )2 + ( c−1 )2 + ( d−1 )2
(3)
= (a + b + c + d) a−1 + b−1 + c−1 + d−1 .
4
Denición 1.10. Vectores ortogonales.
Sean u y v vectores en un e.v. V con producto interior. Se dice que u y v son ortogonales si hu, vi = 0.
Nota 1.11. En la denición 1.10, el orden de los vectores no importa porque hu, vi = 0 si, y sólo si, hv, ui = 0.
Por lo tanto, se dirá indistintamente que u y v son ortogonales o que u es ortogonal a v (y al revés).
En términos de la denición 1.10, el inciso (c) del teorema 1.3 dice que el vector cero es ortogonal a todo
vector en V ; el inciso (d) implica que el vector cero es el único vector ortogonal a sí mismo.
Ejercicio 1.12. Sea V un e.v. con p.i., y sean u y v vectores en V . Demostrar la siguiente identidad.
1
hu, vi = ku + vk2 − ku − vk2 .
4
Solución 1.13. Proof.
De donde
Por lo tanto
1
hu, vi = ku + vk2 − ku − vk2 .
4
Teorema 1.14. Sea V un e.v. con producto interior, y sean u y v vectores en V . Los siguientes enunciados
son equivalentes.
1. u y v son ortogonales.
2. ku + vk = ku − vk.
1
hu, vi = ku + vk2 − ku − vk2 .
(4)
4
(1 implica 2.) Si hu, vi = 0, de la ecuación 4, ku + vk2 − ku − vk2 = 0. Por
lo tanto ku + vk = ku − vk.
(2 implica 3.) Por hipótesis ku + vk = ku − vk, así que hu, vi = 0 por la
ecuación 4. Luego
(3 implica 1.)
2 Distancia Euclidiana.
A partir de la norma de un vector se puede denir la noción geométrica de distancia entre dos puntos.
5
El conjunto A junto con la métrica D se llama espacio métrico.
Observación 2.2. Para cualesquiera x, y ∈ A, D(x, y) ≥ 0. En efecto,
p
= (u1 − v1 )2 + (u2 − v2 )2 + ... + (un − vn )2 .
[uv] = {u + α (v − u) ∈ V | 0 ≤ α ≤ 1}.
Ejercicio 2.5. Considera el paralelogramo con vértices a, b, c y d, vectores en un e.v. v con p.i. Sean e
1 1
y f puntos en el segmento [ab] y [ac], respectivamente, tales que D (a, e) = D (a, b) y D (a, f) = D (a, c).
5 6
Demostrar que los vectores ef y ed son paralelos.
1 1
Solución 2.6. Por hipótesis ae = ab y af = ac. Ahora, ad =
5 6
ae + ed y
ad = ac + cd = ac − dc = ac + ab,
donde la última igualdad se sigue ya que los vectores ab y dc son lados
paralelos del paralelogramo. Si se igualan ambas expresiones para el
vector ad, se sigue que
ae + ed = 6 af − 5 ae.
ed = 6 af − ae ef.
De donde, =6
Sean u y v dos vectores en un e.v. con producto interior. En geometría elemental se demuestra la llamada ley
de cosenos, una de las identidades que establece una relación entre la longitud de los lados de un triángulo y
el ángulo formado entre ellos. Se tomará la ley de cosenos como motivación para denir de forma analítica el
ángulo entre dos vectores.
Considere el triángulo con lados formados por los vectores u , v y u − v, y sea φ ∈ [0, π] el ángulo formado
por los vectores u y v.
Utilizando la ley de cosenos se tiene
Pero
ku − vk2 = kuk + kvk − 2 hu, vi . (6)
hu, vi
cos(φ) = .
kukkvk
6
Ahora, por la desigualdad de Cauchy-Schwarz, −kukkvk ≤ hu, vi ≤ kukkvk. Por lo tanto
hu, vi
−1 ≤ ≤ 1.
kukkvk
Esto permite denir el ángulo entre los vectores u y v como sigue.
Denición 3.1. Ángulo entre dos vectores.
Sea V un e.v. con producto interior, y sean u y v vectores en V \ {0}. Se dene el ángulo entre los vectores
u y v, y se denotará Ang(u, v), como el único número número real φ ∈ [0, π] tal que
hu, vi
cos(φ) = .
kukkvk
Observación 3.2.
En R2 tiene sentido hablar de ángulos dirigidos entre dos vectores, es decir, denir como positivo o
negativo el ángulo entre los vecotres u y v según el viaje angular desde u hasta v vaya en contra o con el
movimiento de las manecillas del reloj. En R3 (y a partir de éste) no hay una manera coherente de decidir
si el recorrido desde u hasta v es positivo o negativo, esto dependerá de escoger un lado del plano generado
por u y v para verlo, pero cualquiera de los dos lados son iguales y desde uno se ve lo contrario del
otro. Algebraicamente esto corresponde a que hu, vi = hv, ui, esto es, que el producto interior conmuta.
Lo que sí se puede decir es cuándo tres vectores están orientados positivamente, pero esto se verá más
adelante. De tal manera sólo está denido el ángulo entre vectores, y tiene valores entre 0 y π , donde los
extremos corresponden, respectivamente, a que los vectores estén en la misma dirección o en direcciones
contrarias.
π
hu, vi = 0 si, y sólo si, cos(φ) = 0 si, y sólo si, φ = . En otras palabras, dos vectores distintos de cero son
2
ortogonales si, y sólo si, son perpendiculares, es decir, la noción en geometría elemental de que el ángulo
sea recto (igual a 90◦ ).
π π
Por otra parte, si 0 ≤ φ < , 0 < hu, vi, y si < φ ≤ π , hu, vi < 0.
2 2
Denición 3.3. Sean p y q puntos en un e.v. V con producto interior, y sean u y v vectores en V \ {0}.
1. Ángulo entre rectas. Se dene el ángulo entre las rectas
p + Lu = {p + su | s ∈ R} y q + Lv = {q + tv | t ∈ R}
como el ángulo entre los vectores u y v.
2. Ángulos entre semirectas. Se dene el ángulo entre las semirectas
7
Note que el ángulo entre las rectas (semirectas) está denido aún cuando su intersección sea vacía.
Sr(p1 p2 ) = p1 + {s p1 p2 | s ∈ R y α ≥ 0}
y
Sr(p1 p3 ) = p1 + {t p1 p3 | t ∈ R y t ≥ 0}
Análogamente se dene φ(p2 ) y φ(p3 ).
Para terminar esta sección se demuestra la ley de cosenos.
Teorema 3.5. (Ley de cosenos.) Sean p1 , p2 y p3 puntos no colineales en un e.v. V con producto interior,
y sea4p1 p2 p3 el triángulo con vértices p1 , p2 y p3 . Entonces
D(p2 , p3 )2 = D(p1 , p2 )2 + D(p1 , p3 )2 − 2D(p1 , p2 )D(p1 , p3 ) cos φ(p1 ).
Se cumplen, además, resultados análogos para φ(p2 ) y φ(p3 ).
π
Observación 3.6. El teorema de Pitágoras es un caso partícular de la ley de cosenos cuando φ(p1 ) = .
2
Proof. Por denición
hp1 p2 , p1 p3 i
cos φ(p1 ) = .
kp1 p2 kkp1 p3 k
Por lo tanto es suciente probar que
Ejercicio 3.7. Sea V un e.v. con p.i., y sean u y v vectores en V \{0}. Demostrar que el vector w = kvku+kukv
satisface que Ang(u, w) = Ang(v, w).
Solución 3.8.
Proof. Sea φ1 = Ang(u, w). Por denición
8
Nota 3.9. Por la propiedad del vector w, éste se llamará vector bisectriz del ángulo Ang(u, v).
Observación 3.10. Sea w0 = kvku − kukv. Entonces,
hw, w0 i = hkvku + kukv, kvku − kukvi = kuk2 kvk2 − kukkvk hu, vi + kukkvk hu, vi − kuk2 kvk2 = 0.
Por lo tanto w y w0 son ortogonales. En general se cumple que kuk = kvk si, y sólo si, hu + v, u − vi = 0, ya
que hu + v, u − vi = kuk2 − kvk2 .
Ejercicio 3.11. Sean a, b y c tres puntos no colineales en un e.v. V con producto interior, y sea 4abc el
triángulo con vértices a, b y c. Sean además d y e puntos en los lados [ac] y [ab], respectivamente. Suponga
que el vector de no es paralelo al vector bc y que f y g son puntos en [bc] y [ed], respectivamente, tales que
ae = α ab, ad = β ac y bf = γ fc,
D (b, f)
donde γ = . Ahora
D (c, f)
1. af = ab + bf. De donde, bf = af − ab.
2. af = ac + cf. De donde, fc = −af + ac.
Con lo anterior en cuenta
df = γ fc
si, y sólo si,
af − ab |{z} −af + ac
= γ
1 y 2
1 γ
af = ab + ac. (10)
1+γ 1+γ
D (e, g)
Análogamente, usando que γ = , ae = α ab y ad = β ac, se tiene que
D (d, g)
1 γ α βγ
ag = ad + = ab + ac.
1+γ 1+γ 1+γ 1+γ
Es decir
α βγ
ag = ab + ac. (11)
1+γ 1+γ
D (b, e)
Como γ = y cd = γ cd,
D (c, d)
ae − ab = ba − ea = γ ca − da
,
ae − ab = γ ad − ac ae = γ ab y ad = β ac,
lo cual ocurre si, y sólo si, . Así, usando que
(1 − α)ab = (1 − β)γ ac
y
(1 − α)D (a, b) = (1 − β)γD (a, c) .
Por lo tanto,
1 1−α
= . (12)
D (a, b) (1 − β)γD (a, c)
9
De las ecuaciones 10, 11 y 12
1 γ α βγ 1−α (1 − β)γ
gf = af − ag = ab + ac − ab + ac = ab + ac
1+γ 1+γ 1+γ 1+γ 1+γ 1+γ
(1 − α)D (a, c) (1 − β)γD (a, b)
= ab + ac
(1 + γ)D (a, c) (1 + γ)D (a, b)
1−α
D (a, c) ab + D (a, b) ac ,
=
(1 + γ)D (a, c)
lo cual prueba el ejercicio.
Ejercicio 3.13. Sea V un e.v. con p.i., y sean a, b, c, d vectores l.i. en V . Considera la pirámide abcd; en
ésta suponga que θ + ψ = π , donde ψ = φ(d) en el triángulo 4abd, y θ = φ(d) en el triángulo 4acd. Hallar,
en el triángulo 4ade, el ángulo ω = φ(d), si de es el vector bisectriz del ángulo φ(d) en el triángulo 4bcd.
π
Figure 3: Bajo las hipótesis del ejercicio 3.13, el ángulo ω siempre es igual a .
2
Solución 3.14.
Se denen los siguientes vectores.
da db dc
u1 = u2 = y u3 = .
D (a, d) D (b, d) D (c, d)
hu1 , u2 + u3 i
cos(ω) =
ku2 + u3 k
hu1 , u2 i + hu1 , u3 i
=
ku2 + u3 k
cos(ψ) + cos(θ)
=
ku2 + u3 k
10
Pero
cos(ψ) + cos(θ) = cos(ψ) + cos(π − ψ) = cos(ψ) − cos(ψ) = 0,
π
ya que θ = π − ψ por hipótesis. Por lo tanto, cos(ω) = 0 y, así, ω = .
2
Ejercicio 3.15. Se da la pirámide triangular con vértices a, b, c y d, vectores en un e.v. con p.i. En dicha
pirámide se cumple que D (a, b) = D (a, c) y θ = ϕ, donde θ = φ(a) en el triángulo 4abd y ϕ = φ(a) en el
triángulo 4acd. Demostrar que los vectores ad y bc son ortogonales.
ad, bc = ad, ac − ab
= ad, ac − ad, ab
= D (a, d) D (a, c) cos(ϕ) − D (a, d) D (a, b) cos(θ) = 0,
4 Proyección ortogonal.
En esta sección se discute la signicación geométrica del producto interior en términos de proyección y compo-
nente ortogonal.
11
Observación 4.2.
1. Si Compv u < 0, Proyv u y v están en direcciones opuestas; si Compv u < 0, Proyv u y v tienen la misma
dirección; y si Compv u = 0, Proyv u y v son ortogonales.
2. Si w 6= 0 es un vector paralelo a v, entonces: (a) Proyv u = Proyw u y (b) Compv u = Compw u o bien
Compv u = −Compw u, según los vectores v y w tengan o no la misma dirección.
En efecto: ya que v = αw, para algún α ∈ R \ {0},
El inciso (a) implica que la proyección es, en realidad, proyección ortogonal sobre una recta, es decir, la
proyección no cambia si se reemplaza por cualquier vector (no cero) paralelo a v. Por otro lado, el hecho
que Compw u = Compv u, si α > 0, justica el término componente de u en la dirección de v ya que
ésta no depende de cuál haya sido el vector en la dirección de v para especicar la dirección.
u = Proyv u + Perpv u,
es decir, el vector u se puede expresar como la suma de un vector paralelo a v más otro ortogonal a v.
Esta forma de representar al vector u se llama descomposición ortogonal.
Como la componente ortogonal de un vector en la dirección de otro tiene un signicado geométrico denido,
la relación entre la componente y el producto intetior introduce una interpretación geométrica de este último.
Según la denición de componente ortogonal (denición 4),
Esta ecuación nos dice: el producto interior hu, vi es la longitud del vector v por la componente de u en la
dirección del vector v.
Solución 4.4. Proof. Sean u y v vectores en un e.v. V con p.i. Se probará que | hu, vi ≤ kukkvk.
Caso 1. Si u = 0 o v = 0, el resultado es cierto (se tiene 0 = 0).
Caso 2. Suponga que u y v son vectores distintos del vector cero.
Caso 2.1. Si u y v son vectores l.i., entonces existe un triángulo rectángulo con hipotenusa u y base Proyv u.
Sea w = u − Proyvv u 6= 0. Por el teorema de Pitágoras se tiene
y así
kProyv uk2 = kuk2 − kwk2 < kuk2 .
De donde, kProyv uk < kuk. Por lo tanto,
esto es, | hu, vi | < kukkvk. Caso 2.2. Suponga que los vectores u y v son l.d. Entonces existe α ∈ R \ {0} tal
que u = αv. Luego,
| hu, vi | = | hαv, vi | = |α|kvk2 = kαvkkvk = kukkvk,
esto es, | hu, vi | = kukkvk.
Recíprocamente, si | hu, vi | = kukkvk, entonces hu, vi = kukkvk o hu, vi = −kukkvk. De la fórmula para
el ángulo entre dos vectores se sigue que Ang(u, v) = 0 o Ang(u, v) = π pues
hu, vi hu, vi
=1 o = −1. (13)
kukkvk kukkvk
12
Para terminar esta sección, se utiliza la proyección ortogonal para denir el área de un paralelogramo.
Primero se introduce el concepto de paralelogramo.
Denición 4.5. (Paralelogramo.) Sean u y v vectores no cero en un e.v. V con p.i. Se dene el paralelo-
gramo generado por los vectores u y v, el cual se denota Π (u, v), como el conjunto
q
kuk2 kvk2 − hu, vi
2
ku − Proyv uk = .
kvk
q
Por lo tanto el área del paralelogramo Π (u, v) es kuk2 kvk2 − hu, vi . Esto motiva la siguiente denición.
2
Observación 4.7. La fórmula del área del paralelogramo Π (u, v) se puede expresar en términos de un
determinante 2 × 2. s
hu, ui hu, vi
A(u, v) = .
hu, vi hv, vi
Lema 4.8. Sean u y v vectores no cero en un e.v. V con p.i. Entonces u y v son linealmente dependientes
(o paralelos) si, y sólo si, A (u, v) = 0.
Proof. De la desigualdad de Cauchy-Schwarz, u y v son l.d. si, y sólo si, kuk2 kvk2 − hu, vi , lo cual ocurre si,
2
5 Bases ortonormales.
De forma natural la siguiente denición amplia el concepto de vectores ortogonales a un conjunto de vectores.
13
Observe que si u y v son vectores ortogonales, entonces los vectores αu y β v, donde α y β son escalares
distintos de cero, también son ortogonales. Además, si w es un vector distinto del vector cero, entonces kwk−1 w
es un vector unitario. El proceso de multiplicar un vector distinto de cero por el inverso de su norma se llama
normalización del vector.
Ejemplo 5.2. En R3 , el conjunto U = {(1, 1, 0), (1, −1, 1), (−1, 1, 2)} es un conjunto ortogonal formado por
vectores distintos del vector cero, pero no es ortonormal. Sin embargo, si se normaliza cada vector de U, se
obtiene el conjunto ortonormal
1 1 1
√ (1, 1, 0), √ (1, −1, 1), √ (−1, 1, 2) .
2 3 6
Así como las bases son los bloques sobre los que se construyen los espacios vectoriales, las bases que tienen
la propiedad de ser un conjunto ortonormal son los bloques de los espacios vectoriales con producto interior.
Ejemplo 5.4. Sea F un campo. La base canónica {e1 , e2 , ..., en } de Fn es una base ortonormal de Fn .
El siguiente teorema y sus corolarios ilustran por qué los conjuntos ortogonales y, en particular, las bases
ortonormales son tan importantes.
Teorema 5.5. Sea V un e.v. con p.i., y sea U = {u1 , u2 , ..., vn } un subconjunto ortogonal de V formado por
vectores distintos del vector cero. Si v ∈ gen (U ), entonces
v = α1 u1 + α2 u2 + ... + αn un .
Para cada 1 ≤ i ≤ n, se tiene
hv, ui i
Por lo tanto αi = , y el resultado se cumple.
kui k2
Corolario 5.6. (¾Cómo escribir un vector como combinación lineal de una base ortonormal?)
Si, en adición a las hipótesis del teorema 5.5, el conjunto U es ortonormal y v ∈ gen (U ), entonces
Si el espacio vectorial V posee una base ortonotmal, el corolario 5.6 permite calcular los coecientes en una
combinación lineal de forma fácil.
Corolario 5.7. Sea V un e.v. con p.i., y sea U un subconjunto ortogonal de V formado por vectores distintos
del vector cero. Entonces U es linealmente independiente.
0 = α1 u1 + α2 u2 + ... + αn un .
h0, ui i
Del teorema 5.5 (con v = 0), αi = = 0, para cada i = 1, 2, ..., n. Por lo tanto, U es es un conjunto
kui k2
linealmente independiente.
14
Ejemplo 5.8. Considere el conjunto
1 1 1
U= √ (1, 1, 0), √ (1, −1, 1), √ (−1, 1, 2) ⊆ R3 .
2 3 6
Ya que
h(1, 1, 0), (1, −1, 1)i = 1 · 1 + 1(−1) + 0 · 1 = 0,
h(1, 1, 0), (−1, 1, 2)i = 1(−1) + 1 · 1 + 0 · 2 = 0,
h(1, −1, 1), (−1, 1, 2)i = 1(−1) + (−1)(1) + 1 · 2 = 0,
y
1 1 √ 1 1 √ 1 1 √
√ k(1, 1, 0)k = √ 2 = 1, √ k(1, −1, 1)k = √ 3 = 1, √ k(−1, 1, 2)k = √ 6 = 1,
2 2 3 3 6 6
U es una base ortonotmal de R3 .
Sea x = (x, y, z) ∈ R. Según el corolario 5.6, los coecientes para expresar a x como c.l. de los vectores en
la base ortonormal U de V son
x+y x−y+z −x + y + 2z
α1 = √ , α2 = √ y √ .
2 3 6
Por lo tanto,
x+y x−y+z −x + y + 2z
(x, y, z) = √ (1, 1, 0) + √ (1, −1, 1) + √ (−1, 1, 2).
2 3 6
Ejercicio 5.9. Encontrar una base ortonotmal para el subespacio
W = (x, y, z) ∈ R3 | x − y + 2z = 0
de R3 .
1. W es un plano por el origen. De la ecuación del plano, se tiene que x = y − 2z , así que W consiste en
todos los vectores de la forma
con y, z ∈ R. Es decir, W = gen ((1, 1, 0), (−2, 0, 1)). Los vectores u = (1, 1, 0) y v = (−2, 0, 1) son base
de W , pero no ortonormal. Sin embargo, se puede utilizar a uno de ellos, u diga, y si se encuentra un
vector w1 ortogonal a u, B1 = kuk−1 u, kw1 k−1 w1 será una base ortogonal para W .
Sea w1 = (x, y, z) ∈ W ortogonal a W . Entonces, las coordenadas de w1 se determinan resolviendo el
sistema de ecuaciones
x + y = 0
x − y + 2z = 0.
Todas las soluciones del sistema anterior son de la forma x = −t, y = z = t, con t ∈ R, es decir, w1 es
cualquier vector distinto de cero en gen(−1, 1, 1). Sea w1 = (−1, 1, 1). Es fácil comprobar que con esta
elección se obtiene una base ortonormal del s.v. W .
Entonces B2 = kvk−1 v, kw2 k−1 w2 es una base ortonotmal del s.v. W . (Desde luego w2 = v − Proyu v
6 Complemento ortogonal.
En esta sección se extiende, a través del concepto de complemento ortogonal, la denición de vector ortogonal
o normal a una recta en R2 vista en el curso de G.A. 1.
15
Figure 5: B1 y B2 son dos bases ortonormales del s.v. W .
De donde, v + w ∈ U ⊥.
3. (El producto es cerrado en U ⊥ .) Sea α un escalar y v un vector en U ⊥ . Para cada u ∈ U,
hu, αvi = α hu, vi = α · 0 = 0. (16)
De donde, αv ∈ U ⊥ .
16
Ejemplo 6.3.
En cualquier e.v. con p.i. {0} = V y V ⊥ = {0}.
⊥
Sea u = (u1 , u2 , u3 ) un vector en R3 \ {0}, y sea U = gen (u). Ya que u 6= 0, ui 6= 0, para algún
i ∈ {1, 2, 3}. Si u1 6= 0,
U ⊥ = (x, y, z) ∈ R3 | u1 x + u2 y + u3 z = 0
3 u2 u3
= (x, y, z) ∈ R x = − y− z
u1 u1
u2 u3
= − y − z, y, z y, z ∈ R
u1 u1
u2 u3
= y − , 1, 0 + z − , 0, 1 y, z ∈ R
u1 u1
u2 u3
= gen − , 1, 0 , − , 0, 1 .
u1 u1
u2 u3
Es decir, U ⊥ es el plano por el origen generado por los vectores − , 1, 0 y − , 0, 1 , ortogonales
u1 u1
al vector u. Se concluyen resultados análogos si u2 6= 0 o si u3 6= 0.
En cualquier caso, se observa que {u} es un plano por el origen, es decir, el complemento ortogonal
⊥
u1 x + u2 y + u3 z = 0
(17)
v1 x + v2 y + v3 z = 0.
Si se multiplica la segunda ecuación del sistema 17 por u3 , la primera por −v3 y se suman, se obtiene
(u3 v1 − v3 u1 ) x + (u3 v2 − v3 u2 ) y = 0.
La anterior ecuación tiene una solución canónica volteando los coecientes y en uno de ellos también el
signo, es decir:
x = u2 v3 − v2 u3 , y = u3 v1 − v3 u1 .
Al sustituir estos valores en la ecuación primera ecuación de 17 y simplicar se obtiene
u1 (u2 v3 − v2 u3 ) + u2 (u3 v1 − v3 u1 ) + u3 z = 0
u3 (u2 v1 − v2 u1 + z) = 0,
z = u 1 v2 − v1 u 2 .
Ejercicio 6.4. Sean W1 y W2 subespacios de dimensión nita de un e.v. V con producto interior. Demostrar
⊥ ⊥
que (W1 + W2 ) = W1⊥ ∩ W2⊥ y (W1 ∩ W2 ) = W1⊥ + W2⊥ .
Ejercicio 6.5. Sea V un e.v. con producto interior, y sean U y W subconjuntos de V.
1. Si U es un s.v. de V , demostrar que U ∩ U ⊥ = {0}.
2. Si U ⊆ W , entonces W ⊥ ⊆ U ⊥ .
3. Si W es un s.v. de V , B una base de W y v ∈ V , demostrar que v ∈ W ⊥ si, y sólo si, hv, xi = 0, para
cada x ∈ B .
17
Solución 6.6.
x ∈ U ∩ U ⊥ . Entonces x ∈ U ⊥ , así que hx, ui = 0, para todo u ∈ U . En
1. Sea particular, para x ∈ U,
kxk = hx, xi = 0. De donde, x = 0. Por lo tanto 0 ∈ U ∩ U ⊥ y U ∩ U ⊥ = {0}.
2
2. Sea w ∈ W ⊥ . w ∈ U ⊥ si, y sólo si, hu, wi = 0, para cada u ∈ U . Sea u ∈ U. Entonces u∈W pues
U ⊆ W , por lo que hu, wi = 0. Por lo tanto, w ∈ U ⊥ y W ⊥ ⊆ U ⊥ .
3. (Ida.) Suponga v ∈ W ⊥ . Entonces hv, wi = 0, para cada w ∈ W , en particular, para cada vector en B .
(Regreso.) Suponga que hv, xi = 0, para cada x ∈ B . v ∈ W ⊥ si, y sólo si, hw, vi = 0, para cada
w ∈ W . Sea w ∈ W . Entonces existen vectores w1 , w2 , ..., wn y escalares α1 , α2 , ..., αn tales que
w = α1 w1 + α2 w2 + ... + αn wn .
De donde,
Por lo tanto, v ∈ W ⊥.
7 Producto cruz
u × v = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 ) .
La fórmula para el producto vectorial parece complicada, pero si se introducen determinantes se puede dar
una representación más conveniente y sencilla de recordar.
es decir, la matriz de 3×2 que tiene como columnas a los vectores u y v. Obsérvese que en la primera coordenada
del producto vectorial no aparecen las primeras coordenadas de los vectores u y v: es justo el determinante
u2 v3 − u3 v2 de la matriz 2 × 2 que se obtiene al eliminar el primer renglón de la matriz (u, v) de los dos vectores.
La segunda coordenada es de nuevo el determinante u1 v3 − u3 v1 que se obtiene al eliminar ahora el segundo
renglón de la matriz (u, v), pero con signo negativo. Y la tercera vuelve a ser el determinante u1 v2 −u2 v2 tal cual
al quitar el tercer renglón de la matriz (u, v). El producto cruz se arma de subdeterminantes de 2 × 2 ignorando
coordenadas correspondientes y teniendo cuidado en los signos (el de en medio lleva un signo menos):
u2 v2 u1 v1 u1 v1
u×v= u3 v3
e1 − u3 v3
e2 + u2 v2
e3
= (u2 v3 − u3 v2 ) e1 − (u1 v3 − u3 v1 ) e2 + (u1 v2 − u2 v1 ) e3
= (u2 v3 − u3 v2 ) e1 + (u3 v1 − u1 v3 ) e2 + (u1 v2 − u2 v1 ) e3 .
Por lo tanto el producto cruz de los vectores u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ) en R3 puede denirse como
el determinante formal
e1 e2 e3
u×v= u1 u2 u3 ,
v1 v2 v3
es decir, aceptando que en el primer renglón se coloquen vectores en lugar de escalares.
18
En R2 , dado un vector u, se puede escoger un vector canónico ortogonal a él girándolo 90◦ en la ori-
entación positiva; ése es precisamente el vector ortogonal a u, u⊥ . Nótese que u⊥ está en la semirecta de
vectores ortogonales a u que está a su izquierda y tiene la norma de u. En R3 no es posible elegir de
manera coherente un vector ortogonal a u pues, como ya se vio en el ejemplo 6.3, u tiene todo un plano
de vectores ortogonales como su complemento ortogonal y es imposible decidir cuál de ellos es el bueno.
Para dos vectores, u y v, sí se puede elegir el bueno de manera
geométrica: si u y v son vectores linealmente independientes, en-
tonces éstos generan un plano, así que se debe elegir un vector en
su complemento ortogonal, que es una recta. Primero se elige el
lado de ese plano donde el giro de u a v se ve en sentido contrario
a las manecillas del reloj (denido como el sentido positivo). Se
tiene entonces una semirecta de candidatos a vectores ortogonales
al plano. De estos, se escoge aquel que tiene norma igual al área
del paralelogramo que generan u y v. Así se obtiene un vector or-
togonal a los vectores u y v, escogido de forma canónica, y que es
su producto cruz, u × v (ver inciso 1 del corolario 7.5). Obsérvese
además que la construcción geométrica del producto cruz fun-
ciona en el caso en que los vectores u y v no generan un plano (i.e.
son linealmente dependientes), pues entonces están en una recta
por el origen y el área de su paralelogramo es cero, tocándoles
entonces el vector cero como vector orotogonal.
Así que el producto cruz debe detectar también si los vectores u y v son linealmente independientes, así como
en R2 el determinante Det (u, v) permite concluir si u y v son vectores linealmente dependientes en el plano.
En el párrafo anterior se hizo mención de propiedades del producto cruz contenidas en el siguiente teorema.
1. u × u = 0.
2. hu, u × vi = 0 = hv, u × vi.
3. u × v = −(v × u).
4. u×(v + w) = (u × v)+(u × w) y (u + v)×w = (u × w)+(v × w).
5. u × (αv) = α (u × v) = (αu) × v.
6. hu, v × wi = hv, w × ui = hw, u × vi.
7. u × (v × w) = hu, wi v − hu, vi w.
8. ku × vk = kukkvk sin(θ), donde θ ∈ [0, π], es el ángulo entre los
vectores u y v.
La propiedad 1 dice que el producto vectorial de un vector consigo mismo es el vector cero; se dice que
el producto vectorial es nipolente. La propiedad 2 es la motivación para denir el producto cruz (que es
ortogonal a los vectores u y v). La propiedad 3 se conoce como antisimetría : las variables no conmutan sino
que anticonmutan. Las propiedades 4 y 5 son la linealidad del producto cruz, que junto con la propiedad 2
implican que también es lineal en la primera variable; se dice que es bilineal. Note que la propiedad 5 (para
α = −1) permite escribir la propiedad 3 como u × v = −v × u sin ambigüedad. La razón geométrica de 7
es que cualquier vector ortogonal a v × w está contenido en el plano que generan v y w, y por lo tanto se
expresa como c.l. de ellos. El inciso 8 es la motivación geométrica de la elección del producto vectorial. Ya
que la norma del producto cruz u × v de los vectores u y v se expresa en términos del seno del ángulo θ en u
y v, el producto vectorial puede considerarse como una forma de medir la ortogonalidad de dos vectores en el
mismo sentido que el producto interior es una forma de medir el paralelismo de vectores. Dados dos vectores
unitarios, su producto vectorial es igual a uno si los vectores son ortogonales y es igual a cero si son paralelos.
En el caso del producto interior ocurre lo contrario: su producto interior es igual a uno si son paralelos (en la
misma dirección) y cero si son ortogonales.
Todas las propiedades se siguen directamente de la denición.
19
Figure 6: Interpretación geométrica del producto vectorial.
2.
hu, u × vi = u1 (u2 v3 − u3 v2 ) + u2 (u3 v1 − u1 v3 ) + u3 (u1 v2 − u2 v1 ) = 0
y
hv, u × vi = v1 (u2 v3 − u3 v2 ) + v2 (u3 v1 − u1 v3 ) + v3 (u1 v2 − u2 v1 ) = 0.
3.
u × v = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )
= − (v2 u3 − u2 v3 , u1 v3 − u3 v1 , u2 v1 − u1 v2 )
= − (v × u) .
4.
u × (v + w) = (u1 , u2 , u3 ) × (v1 + w1 , v2 + w2 , v3 + w3 )
= (u2 (v3 + w3 ) − u3 (v2 + w2 ) , u3 (v1 + w1 ) − u1 (v3 + w3 ) , u1 (v2 + w2 ) − u2 (v1 + w1 ))
= (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 ) + (u2 w3 − u3 w2 , u3 w1 − u1 w3 , u1 w2 − u2 w1 )
= (u × w) + (u × w) .
Análogamente se prueba (u + v) × w = (u × w) + (v × w).
5.
u × (αv) = (u1 , u2 , u3 ) × (αv1 , αv2 , αv3 )
= (u2 (αv3 ) − u3 (αv2 ), u3 (αv1 ) − u1 (αv3 ), u1 (αv2 ) − u2 (αv1 ))
= α (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )
= α (u × v) .
Análogamente se prueba α (u × v) = (αu) × v.
6.
hu, v × wi = u1 (v2 w3 − v3 w2 ) + u2 (v3 w1 − v1 w3 ) + u3 (v1 w2 − v2 w1 )
= u1 v2 w3 − u1 v3 w2 + u2 v3 w1 − u2 v1 w3 + u3 v1 w2 − u3 v2 w1
= v1 (u3 w2 − u2 w3 ) + v2 (u1 w3 − u3 w1 ) + v3 (u2 w1 − u1 w2 )
= hv, w × ui .
Análogamente se prueba hv, w × ui = hw, u × vi.
u × (v × w) = (u1 , u2 , u3 ) × (v2 w3 − v3 w2 , v3 w1 − v1 w3 , v1 w2 − v2 w1 ) .
Hagamos con cuidado la primera coordenada; las otras dos son análogas, se siguen de la simetría en el uso
de los subíndices. Al aplicar de nuevola fórmula del producto vectorial se tiene que la primera coordenada
es
u2 (v1 w2 − v2 w1 ) − u3 (v3 w1 − v1 w3 )
= (u2 w2 + u3 w3 ) v1 − (u2 v2 + u3 v3 ) w1
= (u1 w1 + u2 w2 + u3 w3 ) v1 − (u1 v1 + u2 v2 + u3 v3 ) w1 ,
20
que claramente es la primera coordenada del vector hu, wi v − hu, vi w, y entonces
u × (v × w) = hu, wi v − hu, vi w.
ku × vk2 = hu × v, u × vi
= hu, v × (u × v)i
= hu, hv, vi u − hu, vi vi
= hv, vi hu, ui − hu, vi
2
Sea {e1 , e2 , e3 } la base canónica de R3 . A partir de la denición del producto cruz, los vectores en ésta
satisfacen las siguientes relaciones
e1 × e1 = e2 × e2 = e3 × e3 = 0
e1 × e2 = e3 = −e2 × e1
(19)
e2 × e3 = e2 = −e3 × e2
e3 × e1 = e2 = −e1 × e3 .
Observación 7.4. De las ecuaciones en 19, se sigue
u × (v × w) + v × (w × u) + w × (u × v) = 0,
conocidad como identidad de Jacobi. (La identidad se sigue directamente del inciso 7 del teorema 7.3.)
u = u1 e1 + u2 e2 + u3 e3 , v = v1 e1 + v2 e2 + v3 v3 .
Con esto en cuenta,
u × v = (u1 e1 + u2 e2 + u3 e3 ) × (v1 e1 + v2 e2 + v3 v3 )
=u1 v1 (e1 × e1 ) + u1 v2 (e1 × e2 ) + u1 v3 (e1 × e3 ) +
+ u2 v1 (e2 × e1 ) + u2 v2 (e2 × e2 ) + u2 v3 (e2 × e3 ) +
+ u3 v1 (e3 × e1 ) + u3 v2 (e3 × e2 ) + u3 v3 (e3 × e3 )
=u1 v1 0 + u1 v2 e3 − u1 v3 e2 +
− u2 v1 e3 + u2 v2 0 + u2 v3 e1+
+ u3 v1 e2 − u3 v2 e1 + u3 v3 0
= (u2 v3 − u3 v2 ) e1 + (u3 v1 − u1 v3 ) e2 + (u1 v2 − u2 v1 ) e3 .
21
2. u y v son l.d. si, y sólo si, u × v = 0.
Proof.
2. u × v = 0 si, y sólo si, ku × vk = 0. De acuerdo con el inciso anterior esto equivale a hu, vi2 = kuk2 kvk2
o | hu, vi | = kukkvk. Esta última igualdad es la desigualdad de Cauchy-Schwarz en el caso en que la
igualdad se verica, y ya se ha probado que en la desigualdad de Cauchy-Schwarz sólo se verica la
igualdad si u y v son l.d.
Observación 7.6. Del inciso 2 del corolario 7.5 se sigue que el producto vectorial, en general, no satisface la
ley de cancelación. Es decir, si u, v y w son vectores en R3 , con u 6= 0, satisfacen que u × v = u × w, entonces
no necesariamente v = w. En efecto, obsérvese que u × v = u × w es equivalente a la ecuación u × (v − w) = 0.
Del inciso 2 del corolario 7.5, lo anterior ocurre si, y sólo si, los vectores u y v − w son paralelos. Como u 6= 0, lo
anterior implica que v − w = αu, paral algún α ∈ R. Por ejemplo, si u = (1, 0, 0), v = (0, 1, 0) y w = (−1, 0, 0),
ciertamente v 6= w y, para α = 1, se satisface la ecuación v − w = αu: (0, 1, 0) − (−1, 1, 0) = (1)(1, 0, 0). De lo
anterior ocurre que u × v = u × w, lo cual también se puede vericar directamente a partir de la denición de
producto vectorial.
Por otra parte, si además los vectores u, v y w satisfaces hu, vi = hu, wi, entonces
u × ( v × w) = 0 y hu, v − wi = 0.
Como el vector v − w no puede ser simultáneamente paralelo (el caso en que el producto cruz es igual 0)
y ortogonal (el caso en que el producto interior es igual cero) al vector u, se debe cumplir que v − w = 0, es
decir, v = w.
Ejercicio 7.7. Sean u, v y w vectores en R3 .
1. Si el vector u es ortogonal tanto al vector v como al vector w, entonces u y v × w son vectores l.d.
2. Si u y v son vectores l.i., y el vector w es ortogonal a u × v, demostrar que w se puede expresar como
c.l. de los vectores u y v.
Solución 7.8.
Proof. 1. Del inciso 7 del teorema 7.3 se tiene
u × (v × w) = hu, wi v − hu, vi w.
Como hu, vi = hu, wi = 0 por hipótesis, de la ecuación anterior, u × (v × w) = 0, lo cual implica que u
y v × w son vectores l.d., según el inciso 2 del corolario 7.5.
u × w = β u × v = u × (β v).
De donde,
u × (w − β v) = 0,
por lo cual los vectores u y w − β v son l.d. Como u 6= 0, existe α ∈ R tal que
w − β v = α u,
esto es, w = αu + β v. Por lo tanto, w ∈ gen (u, v).
22
Solución 7.10. Primero se observa lo siguiente.
Observación. Sean u, v y w vectores en R tales que u + v + w = 0. Entonces
u × v = u × (−u − w) = w × u y w × u = w × (−v − w) = v × w.
Por lo tanto u × v = v × w = w × u. Tomando la norma se puede dar una interpretación
geométrica a la anterior identidad:
De la ecuación u × v = v × w = w × u se sigue
De donde
kp3 − p2 kkp1 − p2 k sin (ϕ) = kp2 − p1 kkp3 − p1 k sin (θ) = kp1 − p3 kkp2 − p3 k sin (ψ) .
1. De la ecuación
kp3 − p2 k sin (ϕ) = kp3 − p1 k sin (θ) ,
se sigue
sin (ϕ) sin (θ)
= .
kp2 − p1 k kp2 − p3 k
2. De la ecuación
kp2 − p1 k sin (θ) = kp2 − p3 k sin (ψ) , (22)
se sigue
sin (θ) sin (ψ)
= .
kp3 − p2 k kp2 − p1 k
8 Proyecciones ortogonales.
En esta sección se generaliza la denición de proyección ortogonal. El algoritmo descrito en el siguiente teorema
da un método para obtener un conjunto ortogonal a partir de uno linealmente independiente. Más aún, se
prueba que ambos conjuntos generan el mismo subespacio.
u1 = w1 ,
hw2 , u1 i
u2 = w2 − u1 ,
ku1 k2
hw3 , u1 i hw , u i
u3 = w3 − u1 − 3 22 u2 ,
ku1 k 2 ku2 k (23)
..
.
hwn , u1 i hw , u i hw , u i
un = wn − u1 − n 22 u2 − ... − n n−12 un−1 .
ku1 k2 ku2 k kun−1 k
Entonces U es un conjunto ortogonal, formado por vectores distintos del vector cero, tal que gen (U ) = gen (W ).
Proof. La prueba se hará utilizando el principio de inducción matemática sobre n, el número de vectores en el
conjunto W .
Para cada k = 1, 2, ..., n, dena Wk = {w1 , w2 , ..., wk }.
Base de inducción. Si n = 1, W1 = {w1 } y, como w1 6= 0, W1 es un conjunto ortogonal. Haciendo
u1 = w1 y U = W1 , se cumple el teorema.
23
Hipótesis de inducción. Sea 1 < k. Suponga que el conjunto Uk−1 = {u1 , u2 , ..., uk−1 }, se ha construido
utilizando las ecuaciones en 23 de forma que es un conjunto ortogonal formado por vectores distintos del vector
cero y satisface que gen (Uk−1 ) = gen (Wk−1 ).
Paso inductivo. Sea U = Uk−1 ∪ {uk }, donde el vector uk se obtiene a partir del conjunto Uk−1 utilizando
las ecuaciones en 23. Se probará que el conjunto U satisface el teorema.
Primero: si uk = 0, como
hwk , u1 i hw , u i hw , u i
uk = wk − u1 − k 22 u2 − ... − k k−12 uk−1
ku1 k 2 ku2 k kuk−1 k
entonces
hwk , u1 i hw , u i hw , u i
wk = u1 − k 22 u2 − ... − k k−12 uk−1 .
ku1 k2 ku2 k kuk−1 k
De donde, wk ∈ gen (Uk−1 ) = gen (Wk−1 ), lo cual es una contradicción ya que Wk ⊆ W es un conjunto l.i.
pues W lo es. Por lo tanto, uk 6= 0 y U es un conjunto formado por vectores distintos del vector cero. Ahora
se mostrará que U es un conjunto ortogonal: para cada 1 ≤ i < k , de 23, se sigue
pues huj , ui i = 0, si i 6= j , con 1 ≤ j < k , porque el conjunto Uk−1 es ortogonal por hipótesis de inducción.
Esto prueba que Uk es un conjunto ortogonal.
Para terminar, falta probar que gen (Uk ) = gen (Wk ). En efecto: de 23, gen (Uk ) ⊆ gen (Wk ). Ahora, Uk es
un conjunto l.i. (pues es ortogonal); así Dim (gen (Uk )) = Dim (gen (Uk )) = k . Luego, gen (Uk ) = gen (Wk ).
Esto muestra el teorema para k .
En consecuencia, por el principio de inducción matemática, el teorema se cumple para cada n.
La construcción del conjunto U a partir del teorema 8.1 se llama proceso de ortogonalización de Gram-
Schmidt. La gura 7 muestra el proceso de ortogonalización Gram-Schmidt para n = 3.
Observación 8.2. Con la misma notación del teorema 8.1, si W es un conjunto ortogonal, el conjunto U que
se obtiene con el proceso de ortogonalización de Gram-Schmidt satisface que vi = wi , para cada i = 1, 2, ..., n.
24
Proof. La prueba se hará utilizando el principio de inducción matemática sobre n, el número de vectores en el
conjunto W . Para cada k = 1, 2, ..., n, dena Wk = {w1 , w2 , ..., wk }, y suponga que éste es ortogonal.
Base de inducción. Si n = 1, por la denición del proceso de ortogonalización, el primer vector siempre
se mantiene igual, esto es, u1 = w1 . Por lo tanto, el conjunto U = {u1 } cumple la observación.
Hipótesis de inducción. Sea 1 < k. Suponga que el conjunto Uk−1 = {u1 , u2 , ..., uk−1 } que se obtiene
de aplicar el proceso de ortogonalización de Gram-Schmidt al conjunto ortogonal Wk−1 satisface que ui = wi ,
para cada i = 1, 2, ..., k − 1.
Paso inductivo. Sea U = Uk−1 ∪ {uk }, donde el vector uk se obtiene a partir del conjunto Uk−1 utilizando
las ecuaciones en 23. Se probará que uk = wk .
Observe que, para cada i = 1, 2, ..., k − 1, hwk , wi i = 0 ya que Wk es un conjunto ortogonal. Con lo anterior
en cuenta y la hipótesis de inducción se sigue
hwk , u1 i hw , u i hw , u i
uk = wk − u1 − k 22 u2 − ... − n k−12 uk−1
ku1 k 2 ku2 k kuk−1 k
hwk , w1 i hwk , u2 i hw , w i
= wk − w1 − w2 − ... − n k−12 wk−1
kw1 k2 kw2 k2 kwk−1 k
= wk − 0w1 − 0w2 − ... − 0wk−1
= wk .
u1 = w1 = (1, 1, 1).
hw , u i
u2 = w2 − 2 21 u1
ku1 k
h(0, 1, 1), (1, 1, 1)i
= (0, 1, 1) − (1, 1, 1)
k(1, 1, 1)k2
2 2 1 1
= (0, 1, 1) − (1, 1, 1) = − , , .
3 3 3 3
hw3 , u1 i hw , u i
u 3 = w3 − u1 − 3 22 u2
ku1 k2 ku2 k
2 1 1
(0, 0, 1), − , ,
h(0, 0, 1), (1, 1, 1)i 3 3 3 2 1 1
= (0, 0, 1) − (1, 1, 1) − 2 − , ,
k(1, 1, 1)k2
2 1 1 3 3 3
− , ,
3 3 3
1 1 2 1 1
= (0, 0, 1) − (1, 1, 1) − − , ,
3 2 3 3 3
1 1
= 0, − , .
2 2
Por lo tanto,
2 1 1 1 1
U= (1, 1, 1), − , , , 0, − , . (24)
3 3 3 2 2
Nota 8.4. Para simplicar los cálculos en el proceso de ortogonalización de Gram-Schmidt es conveniente
introducir un paso extra intermedio entre cada paso del proceso y escalar cada vector resultante para eliminar
las fracciones. Por lo tanto, con la notación del ejemplo 8.3, se puede reemplazar cada vector ui por un vector
vi = αui , donde α es un escalar adecuado, sin que se afecte la conclusión del teorema 7.
25
2 1 1
De este modo, ya que u2 = − , , , se hace v2 = (−2, 1, 1) y
3 3 3
Por último, si se hace v3 = (0, −1, 1), entonces, claramente, U 0 = {v1 , v2 , v3 } es un conjunto ortogonal tal que
gen (U 0 ) = gen (U ).
Proof. Sea B1 una base del e.v. V . A través del proceso de ortogonalización de Gram-Schmidt (teorema 8.1)
se obtiene un conjunto ortogonal B2 se obtiene un conjunto formado por vectores distintos del vector cero y tal
que gen (B2 ) = gen (B1 ) = V . Al normalizar cada vector en el conjunto B2 se obtiene la base ortonormal B de
V buscada.
La parte nal del teorema es consecuencia del corolario 5.6.
x+y+z −2x + y + z −y + z
(x, y, z) = √ (1, 1, 1) + √ (−2, 1, 1) + √ (0, −1, 1).
3 6 2
Sean u y v, con v 6= 0, vectores en un espacio vectorial V . En el inciso 3 de la observación 4.2 se introdujo
la descomposición ortogonal del vector u en términos de la proyección ortogonal de u sobre v:
Proof. Sea v∈ V , B = {u1 , u2 , ..., un } una base ortonormal del s.v. U , u ∈ V denido como en 26, y sea
w = v − u. Claramente u ∈ U y v = u + w.
26
Para demostrar que w ∈ U ⊥ , por el inciso 3 del ejercicio 6.5, basta mostrar que hw, ui i = 0, para cada
i = 1, 2, ..., n. Para cada 1 ≤ i ≤ n, se tiene
hw, ui i = hv − u, ui i
= hv − hv, v1 i v1 + hv, v2 i v2 + ... + hv, vn i vn , ui i
= hv, ui i − hhv, v1 i v1 + hv, v2 i v2 + ... + hv, vn i vn , ui i
= hv, ui i − hv, ui i hui , ui i
= hv, ui i − hv, ui i
= 0.
Por lo tanto, w ∈ W ⊥ .
Ahora se probará la unicidad de los vectores u y w. Suponga que u0 ∈ U y w0 ∈ U ⊥ satisfacen que
v = u + w = u0 + w0 . Entonces u − u0 = w0 − w ∈ U ∩ U ⊥ = {0} (ver inciso 1 del ejercicio 6.5). De donde,
u − u0 = 0 = w − w0 , esto es, u = u0 y w = w0 . En consecuencia, los vectores u ∈ U y w ∈ U ⊥ tales que
v = u + w, son únicos.
Denición 8.8. (Proyección ortogonal sobre un subespacio.)
Sea U un s.v. de un e.v. V con p.i., y sea {u1 , u2 , ..., un } una base ortonormal del subespacio U . Para cualquier
vector v en V se dene la proyección de v sobre U como
PerpU v = v − ProyU v.
Observación 8.9. Referente al teorema 8.7: la unicidad de los vectores u ∈ U y w ∈ U ⊥ permite concluir
que la denición de los vectores ProyU v y PerpU v no depende de la elección de la base B del subespacio U .
27
5 1 2
ProyW ∈ W pues − +2 = 0, es decir, ProyW v satisface la ecuación x − y + 2z = 0. Así mismo
3 3 3
4
PerpW v ∈ W ⊥ ya que PerpW v = (1, −1, 2).
3
También se mostró en el ejercicio 5.9 que
1 5 1 2
B2 = √ (−2, 0, 1), √ , 1,
5 30 5 5
Con ayuda de la proyección, se puede generalizar el concepto de ángulo entre vectores a un subespacio.
hv, ProyU vi
Ang (v, U ) = arccos .
kvkkProyU vk
En el estudio sobre las bases se demostró que cualquier subconjunto linealmente independiente de un espacio
vectorial de dimensión nita se puede extender a una base. El siguiente teorema muestra un análogo para un
subconjunto ortonormal de un espacio vectorial de dimensión nita y con producto interior.
Teorema 8.12. u u
Suponga que U = { 1 , 2 , ..., um } es un subconjunto ortonormal de un e.v. V de dimensión n
y con p.i. Entonces se cumple lo siguiente.
2. Si W = gen (U ), entonces B1 = {um+1 , um+2 ..., un } es una base de W ⊥ (utilizando la misma notación
del inciso anterior).
28
Proof. 1. Al ser U un conjunto ortogonal, éste es un conjunto l.i., así que U se puede extender a una base de V
agregando vectores adecuados. Sean um+1 , vm+2 , ..., vn en V tales que B1 = {u1 , u2 , ..., um , um+1 , ..., un }
es una base de V . Ahora, note que si se utiliza el proceso de ortogonalización Gram-Schmidt con el
conjunto B1 , los primeros m vectores resultantes del proceso son precisamente los vectores u1 , u2 , ..., um
en U , según la observación 8.2; junto con los n − m vectores restantes que se obtienen del proceso, diga
1
wm+1 , wm+2 , ..., wn , dichos vectores forman una base, ortogonal, B2 de V . Si se hace ui = wi , para
kwi k
cada i = m + 1, m + 2, ..., n, el conjunto B = {u1 , u2 , ..., un } es una base ortonormal de V .
2. Para cada i = 1, 2, ..., m, note que hui , uj i = 0, para cada j = 1, 2, ..., m, por lo cual B0 es un subconjunto
del s.v. W ⊥ . Se prueba a continuación que el conjunto B0 es, de hecho, una base de W ⊥ .
3. Sea W un subespacio de V . Éste es un subespacio de dimensión nita pues V lo es, así que W tiene una
base ortonormal. Sea {u1 , u2 , ..., um } una base ortonormal de W . Segun los incisos 1 y 2,
1 1
Ejemplo 8.13. Conservando la notación del teorema 8.7, sea U = √ (1, 2, 1), √ (1, −1, 1) ⊆ R3 y
6 3
W = gen (U ). Entonces, como
e1 e2 e3
29
2. A continuación se encuentra una base B de R3 que contiene al vector u siguiendo las ideas que aparecen
en la demostración del inciso 1 del teorema 8.12.
Primero se encuentra cualquier base de R3 que contenga al vector u. Si se toma
hu, e2 i
2 1 5 3
w2 = e2 − u = (0, 1, 0) − (1, 2, 3) = − , ,−
kuk2 14 7 7 7
y v2 = (−1, 5, −3), y
hu, e3 i hv , e i
3 3 3 1
w3 = e3 − u − 2 32 v2 = (0, 0, 1) − (1, 2, 3) + (−1, 5, 3) = − , 0, ,
kuk2 kv2 k 14 35 10 10
Ejercicio 8.16. Sea U un s.v. de dimensión nita de un e.v. V con p.i. Demostrar que
⊥ ⊥
1. U = U.
2. V = U ⊕ U ⊥.
Solución 8.17.
x ∈ U y u ∈ U ⊥ . Entonces, hx, ui = 0, lo cual implica que x ∈ U ⊥ ⊥ . Por lo tanto U ⊆ U ⊥ ⊥ .
1. Sea
Sea x ∈ U ⊥ . Por el teorema 8.7 existen únicos vectores u ∈ U y w ∈ U ⊥ tales que x = u + w.
⊥
Ahora bien,
hx, wi = hu + w, wi = hu, wi + hw, wi = 0 + kwk2 = kwk2 .
Ejercicio 8.18. Sea V un e.v. con p.i., y sea B = {u1 , u2 , ..., un } un subconjunto ortonormal de V .
30
Note que al ser B un conjunto ortonormal,
kuk2 = k hv, u1 i u1 k2 + k hv, u2 i u2 k2 + ... + k hv, un i un k2
por el teorema de Pitágoras.
Así,
kvk2 = kuk2 + kwk2
≥ kuk2
= k hv, u1 i u1 + hv, u2 i u2 + ... + hv, un i un k2
= k hv, u1 i u1 k2 + k hv, u2 i u2 k2 + ... + k hv, un i un k2
= | hv, u1 i |2 ku1 k2 + | hv, u2 i |2 ku2 k2 + ... + | hv, un i |2 kun k2
= | hv, u1 i |2 + | hv, u2 i |2 + ... + | hv, un i |2 .
2. La desigualdad de Bessel es una igualdad si, y sólo si, kvk2 = kuk2 , lo cual ocurre si, y sólo si
kuk2 = kvk2 = kuk2 + kwk2 .
De donde, kvk2 = kuk2 si, y sólo si, kwk = 0, esto es, si, y sólo si, w = 0. Por lo tanto la desigualdad de
Bessel es una igualdad si, y sólo si, v = u ∈ U = gen (B).
2. Con una notación análoga al inciso anterior, sea Ax y Ay el área del triángulo 4ux vx wx con vértices
ux , vx y wx , y del triángulo 4uy vy wy con vértices uy , vy y wy , respectivamente. Demostrar, que si A
denota el área del triángulo 4p1 p2 p3 con vértices p1 , p2 y p3 , entonces
A2 = A2x + A2y + A2z .
Además, se tiene
y1 z1 1 x1 z1 1
1 1
Ax = Det y2 z2 1 y Ay = Det x2 z2 1 .
2 2
y3 z3 1 x3 z3 1
Por lo tanto,
v 2 2 2
u
u y1 z1 1 x1 z1 1 x1 y1 1
1u
A = tDet y2 z2 1 + Det x2 z2 1 + Det x2 y2 1
2
y3 z3 1 x3 z3 1 x3 y3 1
Solución 8.21.
1. El triángulo 4ux vx wx tiene como dos de sus tres lados a los vectores
vz − uz = (x2 − x1 , y2 − y1 , 0) y wz − uz = (x3 − x1 , y3 − y1 , 0) .
Por lo tanto,
e1 e2 e3
1 1 1 x − x1 y2 − y1
Az = k (vz − uz ) × (wz − uz ) k = Det x2 − x1 y2 − y1 0 = Det 2 e3
2 2 2 x3 − x1 y2 − y1
x3 − x1 y2 − y1 0
1
= |(x2 − x1 ) (y3 − y1 ) − (x3 − x1 ) (y2 − y1 )|
2
1
= |x1 (y2 − y3 ) − y1 (x2 − x3 ) + x2 y3 − x3 y2 |
2
x1 y1 1
1
= Det x2 y2 1 .
2
x3 y3 1
31
2. El triángulo 4p1 p2 p3 tiene como dos de sus tres lados a los vectores
p2 − p1 = (x2 − x1 , y2 − y1 , z2 − z3 ) y p3 − p1 = (x3 − x1 , y3 − y1 , z3 − z1 ) .
Por lo tanto,
e1 e2 e3
2
1 1
A2 = k (p2 − p1 ) × (p3 − p1 ) k2 = Det x2 − x1 y2 − y1 z2 − z1
4 4
x3 − x1 y2 − y1 z3 − z1
2
1 y2 − y1 z2 − z1 x2 − x1 z2 − z1 x2 − x1 y2 − y1
= Det
y3 − y1 z2 − z1 1
e + x − x z − z e2 + x − x y − y e3
4 3 1 2 1 3 1 2 1
2 2
1 y − y1 z2 − z1 1
= Det 2
y3 − y1 z2 − z1 1
e + Det xx2 − x1 z2 − z1
e2
4 4 3 − x1 z2 − z1
2
1 x2 − x1 y2 − y1
+ Det
x3 − x1 y2 − y1
e3
4
= A2x + A2y + A2z .
9 El determinante y la orientación.
[uvw] = hu, v × wi .
Nótese que expresiones como hu, vi × w no tienen signicado alguno, ya que hu, vi es un número real y el
producto vectorial es una operación entre pares de vectores de R3 .
Sean u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ) y w = (w1 , w2 , w3 ). El triple producto escalar [uvw] puede expresarse
en téminos de un determinante de 3 × 3:
[uvw] = hu, v × wi
= h(u1 , u2 , u3 ) , (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )i
v2 v2 v1 v1 v1 v2
= u1 − u2 + u3
w3 w3 w3 w3 w1 w2
u1 u2 u3
= v1 v2 v3 .
w1 w2 w3
32
Por lo tanto, si denota por (u v w) a la matriz 3 × 3 que tiene como columnas a los vectores u, v y w, esto es,
u1 v1 w1
(u v w) = u2 v2 w2 ,
u3 v3 w3
En efecto:
u1 v1 w1 v1 w2 u3
hu, v × wi = u2 v2 w2 = v1 w2 u3 = hv, w × ui ,
u3 v3 w3 v1 w2 u3
donde se ha utilizado que el valor del determinante cambia en signo al intercambiar cualesquiera dos columnas.
Análogamente se prueba que hu, v × wi = hw, u × vi.
Como el producto interior tiene la propiedad conmutativa, la ecuación 28 puede reformularse como
[uvw] = hv × w, ui = hw × u, vi = hu × v, wi . (29)
La ecuación 28 muestra que el triple producto escalar no cambia por permutaciones cíclicas de los vectores:
y de la ecuación 29 se deduce que al expresar [uvw] se puede colocar la coma y la cruz en cualesquiera de las
dos posiciones: [uvw] = hu, v × wi = hu × v, wi.
Las propiedades de los determinantes dan lugar a las siguientes propiedades del triple producto escalar.
6. No cambia si se suma un múltiplo de un vector a alguno de los otros: [uv + αuw] = [uvw], para todo
α ∈ R.
El triple producto escalar puede usarse para describir la orientación de R3 , concepto que más adelante
se precisará y generalizará a cualquier espacio vectorial de dimensión nita. Si {u, vw} ⊆ R3 es un conjunto
ortogonal (y por lo tanto una base de R3 ) y [uvw] > 0, entonces se dice que u, v y w es una terna positivamente
orientada. Por ejemplo, los vectores e1 , e2 y e3 de la base canónica forman una terna positivamente orientada,
ya que
[e1 e2 e3 ] = he1 , e2 × e3 i = he1 , e1 i = 1 > 0.
Ya se ha admitido que los vectores canónicos e1 , e2 , e3 forman un sistema cuyo movimiento va contrario al de
las manecillas del reloj. Se ha convenido, pues, que la orientación contraria a las mencillas del reloj se tomará
comop orientación positiva. Por lo tanto, si u, v y w forman una terna positivamente orientada de vectores
π
mutuamente ortogonales, la rotación de v a w de un ángulo igual a aparece como si fuera contraria a la de
2
las manecillas del reloj cuando se ve desde u.
La noción de terna orientada puede extenderse a cualquier base B = {u, v, w} de R3 (sin que necesariamente
B sea un conjunto rotogonal): la terna u, v, w constituye una terna positivamente orientada si [uvw] > 0.
Considere ahora la terna v × w, v, w, donde v y w son vectores l.i. Entonces
33
Como se ha supuesto que la orientación contraria a las manecillas del reoj es la orientación positiva, se tiene
que el giro de un ángulo igual a θ ∈ (0, π) de v a w parece contraria al movimiento de las manecillas del reloj
cuando se ve desde v × w.
Para obtener una interpretación geométrica de una terna arbitraria positivamente orientada u, v, w, dena
Π = gen (v, w). Como
[uvw] = hu, v × wi = kv × wkCompv×w u,
la orientación positiva implica que Compv×w u > 0, y, por lo tanto, Proyv×w u y v × w apuntan en la misma
dirección. Es decir, si u, v y w forman una terna positivamente orientada, u y v × w se encuentran a un mismo
lado del plano Π (gura 9).
Nota 9.3. Se pudo haber tomado como orientación positiva la orientación contraria a las manecillas del reloj.
Si se hubiese hecho tal elección, la única cosa que habría cambiado habrían sido las guras dibujadas. Por
ejemplo, si los vectores v y w son vectores l.i., la rotación de v a w de un a«gulo 0 < θ < π habría parecido
tener igual dirección que la de las manecillas del reloj cuando es vista desde v × w.
En geometría elemental, el volúmen de un paralelepípedo es igual al producto del área de su base por su
altura. La base es un paralelogramo de lados v y w, y, por tanto, en R3 , su base es igual a kv × wk. Ahora
bien, la altura es exactamente Compv×w u. De donde, el volúmen del paraleleípedo Π (u, v, w) en R3 es
Si [u, v, w] < 0, entonces − [u, v, w] es el volúmen del paralelepípedo Π (u, v, w) generado por los vectores
u, v y w en R3 . Esto motiva la siguiente denición.
Denición 9.5. (Volúmen de un paralelepípedo en R3 .)
Sean u, v y w vectores no cero en R . El volúmen del paralelepípedo Π (u, v, w), V (u, v, w),
3
denotado es
34
Figure 10: Paralelepípedo generado por los vectores u, v y w.
Ahora se probará que el triple producto escalar proporciona una forma conveniente para comprobr la de-
pendencia o independencia lineal de tres vectores en R3 .
Proof.(Ida.) Se prueba primero que si u, v y w son l.d. entonces [u, v, w] = 0. Considere dos casos:
Caso 1. Si v y w son l.d., u, v y w son l.d. Pero, entonces, el producto vectorial u × v = 0, por lo cual
Caso 2. Si v y w son l.i., mientras que u, v y w son l.d., entonces u = αv + β v para ciertos números reales
α y β . De donde, como tanto v como w son, ambos, ortogonales al vector v × w
35
Caso 2. Si u × v 6= 0, entonces, para algún α ∈ R, v × w = αu × v = (αu) × v. De donde, reordenando,
se tiene v × w + v × (αu) = 0, o bien, v × (w + αu) = 0. Por lo tanto los vectores v y w + αu son paralelos.
Pero v 6= 0 (pues u × v 6= 0), así que, para algún β ∈ R, w + αu = −β v, esto es, αu + β v + w = 0. Lo cual
demuestra que u, v y w son l.d.
Como se ha señalado antes, el valor absoluto del triple prodcuto escalar [u, v, w] es el volumen del par-
alelepípedo Π (u, v, w) con aristas u, v, w, y es claro, geométricamente, que este volumen es cero si, y sólo sí,
los vectores u, v y w están en un mismo plano (i.e., son l.d.).
Ejemplo 9.7. ¾En R3 , son los vectores u = (1, 2, −2), v = (0, 3, 1) y w = (−1, 1, 3) linealmente dependientes?
Solución. Como
1 2 −2
[u, v, w] = 0 3 1
−1 1 3
3 1 0 1 0 3
=1 −2 −2
1 3 −1 3 −1 1
= 1(9 − 1) − 2(0 + 1) − 2(0 + 3)
= 0,
V (x, y, z) = 2 V (u, v, w) .
En general, dado un paralelepípedo Π, el volumen del paralelepípedo generado por las diagonales de las
caras de Π que tienen un vértice común, es igual al doble del volumen del paralelepípedo Π.
V (x, y, z) = hu + v, (v + w) × (u + w)i
= hu + v, v × u + v × w + w × u + w × wi
= hu, v × ui + hu, v × wi + hu, w × ui + hv, v × ui + hv, v × wi + hv, w × ui
= hu, v × wi + hv, w × ui
= 2 hu, v × wi
= 2 V (u, v, w) .
Para terminar esta sección, se utilizará la fórmula 11 para calcular el volumen de un tetraedro en R3 .
Un tetraedro es un poliedro en el espacio con exactamente cuatro vértices (cuatro caras triangulares y seis
aristas). En geometría elemental, el volumen de un tetraedro es igual a un tercio del área de la base por la
altura. Con esto en cuenta, considere el tetraedro con vértices 0, u, v y w, donde los últimos tres forman una
terna positivamente orientada de vectores en R3 (ver gura 12).
36
Figure 12: Tetraedo generado por lo vectores u, v y w.
La base es un triángulo de lados v y w y su área es exactamente la mitad del área del paralelogroamo
1
generado por u y v. De donde el área de la base es kv × wk. La altura es, por tanto, Compv×w u y el volumen
2
del tetraedro es
1 1 1
kv × wk Compv×w u = [uvw] .
3 2 6
Figure 13: El volumen de un tetraedro es un sexto del volumen del paralelogramo generado por tres de los lados
del tetraedo.
1
V (p2 − p1 , p3 − p1 , p4 − p1 ) .
6
37
Ejemplo 9.11. Sean a, b, c y d números reales distintos de cero, y sea
X = {(x, y, z) ∈ R | ax + by + cz + d = 0} .
Observe que las intersecciones del conjunto X con los ejes X , Y y
Z son
d d d
ux = − , 0, 0 , uy = 0, − , 0 y uz = 0, 0, − ,
a b c
(31)
respectivamente. Por lo tanto, el volumen del tetraedro generado
por los vectores ux , uy y uz es
d
− 0 0
a
1 d3
1 1 d
V (ux , uy , uz ) =
Det 0 − 0 = 6 abc .
6 6 b
d
0 0 −
c
Observación 9.12. Note que
X = uz + gen (ux − uz , uy − uz ) ,
es decir, el conjunto X representa al plano por el punto uz generado por los vectores ux − uz y uy − uz . Se ha
calculado, pues, el volumen del tetraedro que se obtiene de intersecar el plano X con los ejes coordenados.
38