0% encontró este documento útil (0 votos)
94 vistas38 páginas

Producto Interior

1. El documento habla sobre espacios vectoriales con producto interior. Define el producto interior y da ejemplos como el producto estándar en Rn. 2. Introduce la norma de un vector como la raíz cuadrada del producto interior de un vector consigo mismo. Muestra propiedades como la desigualdad de Cauchy-Schwarz. 3. Explica que el producto interior permite definir la longitud y distancia en cualquier espacio vectorial con producto interior, análogamente a como se define en Rn.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
94 vistas38 páginas

Producto Interior

1. El documento habla sobre espacios vectoriales con producto interior. Define el producto interior y da ejemplos como el producto estándar en Rn. 2. Introduce la norma de un vector como la raíz cuadrada del producto interior de un vector consigo mismo. Muestra propiedades como la desigualdad de Cauchy-Schwarz. 3. Explica que el producto interior permite definir la longitud y distancia en cualquier espacio vectorial con producto interior, análogamente a como se define en Rn.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 38

Normas y ángulos.

1 Espacios con producto interior.

Denición 1.1 (Espacios vectoriales con producto interior).


Sea V un espacio vectorial sobre el campo R. Un producto interior real 1 es una función de V × V en R que
asigna a cada pareja de vectores u y v en V un número real, denotado hu, vi, tal que para cualesquiera vectores
u, v y w en V y todo α en R se cumple lo siguiente.

1. hu + v, wi = hu, wi + hv, wi.

2. hαu, vi = α hu, vi.

3. hu, vi = hv, ui.

4. hu, ui > 0, si u 6= 0.

Un e.v. sobre el campo R junto con un producto interior especíco se llama espacio vectorial con producto
interior real.

Ejemplo 1.2. En Rn el producto interior estándar 2 se dene de la siguiente forma:


Para cualesquiera vectores u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ) en el e.v. V

hu, vi = u1 v1 + u2 v2 + ... + un vn . (1)

Para vericar que la ecuación 1 es, en efecto, un producto interior, solamente tenemos que utilizar las
propiedades de suma y multiplicación de números reales. Por ejemplo, para vericar el inciso 2 de la denición
de p.i. sean u = (u1 , u2 , ..., un ), v = (v1 , v2 , ..., vn ) ∈ V y α ∈ R; para cada i = 1, 2, ..., n

(αui )vi = α(ui vi ).

De donde

hαu, vi = (αu1 )v1 + (αu2 )v2 + ... + (αun )vn


= α(u1 v1 ) + α(u2 v2 ) + ... + α(un vn )
= α(u1 v1 + u2 v2 + ... + un vn )
= α hu, vi .

Análogamente se verican el resto de los incisos.


En lo sucesivo, cuando se reera al e.v. con p.i. Rn el producto interior es el estándar.

Otras propiedades del producto interior se deducen directamente de su denición y se enuncian en el siguiente
teorema.

Teorema 1.3. Sea V un e.v. con p.i. Para cualesquiera vectores u, v y w en V y todo α ∈ R, se cumple lo
siguiente.

(a) hu, v + wi = hu, vi + hu, wi.

(b) hu, αvi = α hu, vi.

(c) hu, 0i = 0 = h0, ui.

(d) hu, ui = 0 si, y sólo si, u = 0.


(e) Si hx, ui = hx, vi para todo x ∈ V , entonces u = v.
Proof. Sean u, v, w ∈ V y α ∈ R.
1 En lo sucesivo la expresión producto interior real se abreviará como p.i.
2 En la literatura al p.i. estándar se le llama producto punto, y se denota u · v en lugar de hu, vi.

1
(a) De los incisos 1 y 3 de la denición 1.1 se sigue que

hu, v + wi |{z}
= hv + w, ui |{z}
= hv, ui + hw, ui |{z}
= hu, vi hu, wi .
3 1 3

(b) De los incisos 2 y 3 de la denición 1.1 se sigue

hu, αvi |{z}


= hαv, ui |{z}
= α hv, ui |{z}
= α hu, vi hu, wi .
3 2 3

(c) Del inciso 1 de la denición 1.1 se sigue que hu, 0i = h0, ui. Para concluir es suente probar que hu, 0i = 0.
Utilizando la identidad 0 · 0 = 0 y el inciso 2 de la denición 1.1, se concluye que

hu, 0i = hu, 0 · 0i |{z}


= 0 hu, 0i = 0.
(b)

(d) (Ida.) Si u 6= 0, del inciso 4 de la denición 1.1, hu, ui > 0, lo cual contradice la hipótesis. Por lo tanto
u = 0.
(Regreso.) Si u = 0, el inciso (c) implica que hu, ui = h0, 0i = 0.
(e) Por hipótesis, para todo x ∈ V , hx, ui = hx, vi, o bien, hx, u − vi. Sea x = u − v; del inciso (d) se
concluye que u − v = 0, y, por lo tanto, u = v.

El producto interior permite denir con precisión la noción de longitud de un vector a cualquier espacio
vectorial con producto interior. Para jar ideas, sea p = (a, b, c) un punto en R3 . El teorema de pitágoras
implica que la longitud que une al origen con el punto p es

hp, pi.
p p
a2 + b2 + c2 =

(Ver imagen 1.) Esto motiva la siguiente denición.

Denición 1.4 (Norma de un vector.).


Sea V un e.v. con p.i. La norma del vector u en el
e.v. V se dene como

kuk = hu, ui.


p

Ejemplo 1.5. Sea V = Rn . Si u = (u1 , u2 , ..., un ) es


n
un vector en R , entonces
q
kuk = k(u1 , u2 , ..., un )k = u21 + u22 + ... + u2n

es la denición de la norma Euclidiana. Se observa que,


si n = 1, kαk = |α|, con α ∈ R.
Las principales propiedades de la norma de un vector
se resumen en el siguiente teorema.
Figure 1: Distancia del origen al punto p en R3 .
Teorema 1.6. Sea V un e.v. con producto interior. Para cualesquiera vectores u y v en V se cumple lo
siguiente.

1. kαuk = |α|kuk para cualquier número real α.

2. kuk = 0 si, y sólo si, u = 0. En cualquier caso kuk ≥ 0.

3. (Desigualdad de Cauchy-Schwarz.) | hu, vi | ≤ kukkvk. Además la igualdad ocurre si, y sólo si, u y v son
paralelos.

4. (Desigualdad del triángulo.) ku + vk ≤ kuk + kvk. Además la igualdad ocurre si, y sólo si, u y v están
en la misma dirección o alguno de u o v es igual al vector cero.

2
Proof. Sean u, v ∈ V .
1. Sea α ∈ R. Ya que
kαuk2 = hαu, αui = α2 hu, ui = α2 kuk2 ,
se sigue que kαuk = |α|kuk.

2. Por el inciso (d) del teorema 1.3, kuk = 0 si, y sólo si, hu, ui = 0 si, y sólo si, u = 0.
3. Caso I. Si v = 0 el resultado es inmediato (ocurre la igualdad 0 = 0).
Caso II. Se supone v 6= 0. Para todo t ∈ R

0 ≤ ku − tvk2
= hu − tv, u − tvi
= hu, ui − 2t hu, vi + t2 hv, vi
= kuk2 − 2t hu, vi + t2 kvk2 .

hu, vi
En particular para t = (que está bien denido pues v 6= 0):
kvk2

hu, vi hu, vi
2 2
0 ≤ kuk2 − 2 +
kvk 2 kvk2
hu, vi
2
= kuk2 − .
kvk2

De donde hu, vi ≤ kuk2 kvk2 . Por lo tanto, | hu, vi | ≤ kukkvk.


2

Ahora se probará que | hu, vi | = kukkvk si, y sólo si, u y v son paralelos.
(Ida.) Caso I. Si v = 0 el resultado es inmediato.
Caso II. Se supone 6= 0. Como los vectores u y v son paralelos, u − αv = 0, para algún α ∈ R. Más
aún, α es único: si β ∈ R satisface la igualdad u − β v = 0, entonces u − αv = u − β v lo ocual ocurre si,
y sólo si, αv = β v = 0 si, y sólo si (α − β)v = 0. Ya que v 6= 0, α − β = 0, esto es, α = β .
Ahora, si se considera el polinomio P (x) = ku − xvk2 , entonces lo anterior implica que α es la única raíz
del polinomio polinomio P . Se observa a continuación que P es un polinomio de grado dos:

P (x) = kvk2 x2 − 2 hu, vi x + kuk2 , con kvk =


6 0.

La unicidad de la raíz del polinomio P implica que su discriminante es igual a cero. Así

0 = (−2 hu, vi) − 4kvk2 kuk2 = 4 hu, vi − kvk2 kuk2 .


 
2 2

De donde hu, vi − kvk2 kuk2 = 0, es decir, hu, vi = kvk2 kuk2 . Por lo tanto | hu, vi | = kvkkuk.
2 2

(Regreso.) Conservando la notación utilizada en la ida, el argumento anterior ayuda a probar esta
implicación: si | hu, vi | = kvkkuk, entonces el polinomio P (x) tiene una sola raíz ya que su discriminante
es igual a cero. Sea α ∈ R dicha raíz. Entonces u − αv = 0 ya que ku − αvk2 = 0. Por lo tanto los
vectores u y v son paralelos.

Observación 1.7. Una pequeña modicación al argu-


mento anterior da lugar a una bonita demostración de
la desigualdad de Cauchy-Schwarz:
Utilizando el polinomio P (x) = ku − xvk2 , como
P (x) ≥ 0 para todo x ∈ R, entonces P debe tener al
menos una raíz real y su discriminante, D , no es nega-
tivo. Por lo tanto

0 ≤ (−2 hu, vi) −4kuk2 kvk2 = 4 hu, vi − kuk2 kvk2 .


 
2 2

Luego, hu, vi ≤ kuk2 kvk2 .


2

3
4. Se probará como consecuencia de la desigualdad de Cauchy-Schwarz.

ku + vk2 = hu + v, u + vi
= kuk2 + 2 hu, vi + kvk2
≤ kuk2 + 2kukkvk + kvk2 (Desigualdad Cauchy-Schawarz.)
= (kuk + kvk) .
2

Es decir, ku + vk2 ≤ (kuk + kvk) . Por lo tanto, ku + vk ≤ kuk + kvk.


2

Ahora se probará que ku + vk = kuk + kvk si, y sólo si, u y v están en la misma dirección o alguno
de u o v es igual al vector cero.
(Ida.) Se supone u 6= 0 y v 6= 0. Como

ku + vk2 = kuk2 + 2 hu, vi + kvk2 (kuk + kvk) = kuk2 + 2kukkvk + kvk2 ,


2
y

entonces, si ku + vk = kuk + kvk, hu, vi = kukkvk. Luego, de la desigualdad de Cauchy-Schwarz, u y v


son paralelos, y así, u = αv para algún número real α 6= 0. (α =
6 0 ya que u y v son distintos del vector
cero.) Queda solamente mostrar que α > 0. En efecto

|αkvk2 = kαvkkvk = kukkvk = hu, vi = hαv, vi = αkvk2 .

De donde α = |α| > 0. Por lo tanto los vectores u y v están en la misma dirección.
(Regreso.) Caso I. Si u = 0, entonces

ku + vk = k0 + vk = kvk = 0 + kvk = kuk + kvk.

Análogamente si v = 0.
Caso II. Si u = αv para algún número real α > 0, entonces

kukkvk = kαvkkvk = |αkvk2 = αkvk2 = hαv, vi = hu, vi .

De donde

ku + vk2 = kuk2 + 2 hu, vi + kvk2 = kuk2 + 2kukkvk + kvk2 = (kuk + kvk) .


2

Por lo tanto ku + vk = kuk + kvk.

Ejercicio 1.8. (Este ejercicio muestra cómo el producto interior se puede utilizar para probar desigualdades.)
Demostrar que  
1 1 1 1
16 ≤ (a + b + c + d) + + + .
a b c d
para cualesquiera números positivos a, b, c y d en R.
Solución 1.9. Sean a, b, c y d números reales positivos.
Proof.
−1
√ √ √ √Entonces a√ ,−1 b−1√, c−1 √
y d−1√también son
números reales positivos. Se denen los vectores u = ( a, b, c, d) y v = ( a , b , c−1 , d−1 ) en R4 .
−1

Entonces
D√ √ √ √ √ √ √ √ E2 √ √ √ √ 2
hu, vi =
2
a, b, c, d), ( a−1 , b−1 , c−1 , d−1 ) = aa−1 + bb−1 + cc−1 + dd−1 = 16 (2)

y
√ √ √ √  √ √ √ √
kuk2 kvk2 = ( a)2 + ( b)2 + ( c)2 + ( d)2 ( a−1 )2 + ( b−1 )2 + ( c−1 )2 + ( d−1 )2

(3)
= (a + b + c + d) a−1 + b−1 + c−1 + d−1 .


De la de desigualdad de Cauchy-Schwarz y las ecuaciones 2 y 3 se concluye que

16 ≤ (a + b + c + d) a−1 + b−1 + c−1 + d−1 .




A continuación se introduce una denición crucial para este curso.

4
Denición 1.10. Vectores ortogonales.
Sean u y v vectores en un e.v. V con producto interior. Se dice que u y v son ortogonales si hu, vi = 0.
Nota 1.11. En la denición 1.10, el orden de los vectores no importa porque hu, vi = 0 si, y sólo si, hv, ui = 0.
Por lo tanto, se dirá indistintamente que u y v son ortogonales o que u es ortogonal a v (y al revés).

En términos de la denición 1.10, el inciso (c) del teorema 1.3 dice que el vector cero es ortogonal a todo
vector en V ; el inciso (d) implica que el vector cero es el único vector ortogonal a sí mismo.

Ejercicio 1.12. Sea V un e.v. con p.i., y sean u y v vectores en V . Demostrar la siguiente identidad.

1
hu, vi = ku + vk2 − ku − vk2 .

4
Solución 1.13. Proof.

ku ± vk2 = hu ± vi = hu, ui ± 2 hu, vi + hv, vi = kuk2 ± 2 hu, vi + kvk2 .

De donde

ku + vk2 − ku − vk2 = kuk2 + 2 hu, vi + kvk2 − kuk2 − 2 hu, vi + kvk2 = 4 hu, vi .


 

Por lo tanto
1
hu, vi = ku + vk2 − ku − vk2 .

4

Teorema 1.14. Sea V un e.v. con producto interior, y sean u y v vectores en V . Los siguientes enunciados
son equivalentes.

1. u y v son ortogonales.
2. ku + vk = ku − vk.

3. (Teorema de Pitágoras.) ku + vk2 = kuk2 + kvk2 .

Proof. Primero se observa lo siguiente.

1
hu, vi = ku + vk2 − ku − vk2 .

(4)
4
(1 implica 2.) Si hu, vi = 0, de la ecuación 4, ku + vk2 − ku − vk2 = 0. Por
lo tanto ku + vk = ku − vk.
(2 implica 3.) Por hipótesis ku + vk = ku − vk, así que hu, vi = 0 por la
ecuación 4. Luego

ku + vk2 = kuk2 + 2 hu, vi + kvk2 = kuk2 + kvk2 .

(3 implica 1.)

kuk2 + 2 hu, vi + kvk2 = ku + vk2 |{z}


= kuk2 + kvk2 .
Hipótesis

Por lo tanto hu, vi = 0, esto es, los vectores u y v son ortogonales.

2 Distancia Euclidiana.

A partir de la norma de un vector se puede denir la noción geométrica de distancia entre dos puntos.

Denición 2.1. Espacio métrico.


Sea A un conjunto. Una función de D : A×A → R es una métrica o distancia si para cualesquiera x y y en
el conjunto A, la función D satisface lo siguiente.

1. D(x, y) = 0 si, y sólo si, x = y.


2. (Conmutatividad) D(x, y) = D(y, x).
3. (Desigualdad del triángulo.) D(x, y) ≤ D(x, z) + D(y, z) para todo z en el conjunto A.

5
El conjunto A junto con la métrica D se llama espacio métrico.
Observación 2.2. Para cualesquiera x, y ∈ A, D(x, y) ≥ 0. En efecto,

= D(x, x) ≤ D(x, y) + D(y, x) |{z}


0 |{z} = 2D(x, y).
|{z}
(1) (3) (2)

Lo anterior justica que el número real D(x, y) se llame distancia entre x y y.

Ejemplo 2.3. Distancia Euclidiana. Sea V un e.v.


con p.i. Se dene la función D : V × V → R como
D(u, v) = ku − vk, para todo u, v ∈ V . La función D
es una métrica y se llama distancia Euclidiana.
En el caso V = Rn , la distancia entre los vectores
u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ) es
D(u, v) = k(u1 − v1 , u2 − v2 , ..., un − vn )k

p
= (u1 − v1 )2 + (u2 − v2 )2 + ... + (un − vn )2 .

Denición 2.4. (Segmento de recta.)


Sean u y v vectores en un e.v. real V . El segmento
de u a v, denotado [uv], se dene como

[uv] = {u + α (v − u) ∈ V | 0 ≤ α ≤ 1}.

Ejercicio 2.5. Considera el paralelogramo con vértices a, b, c y d, vectores en un e.v. v con p.i. Sean e
1 1
y f puntos en el segmento [ab] y [ac], respectivamente, tales que D (a, e) = D (a, b) y D (a, f) = D (a, c).
5 6
Demostrar que los vectores ef y ed son paralelos.

1 1
Solución 2.6. Por hipótesis ae = ab y af = ac. Ahora, ad =
5 6
ae + ed y
ad = ac + cd = ac − dc = ac + ab,
donde la última igualdad se sigue ya que los vectores ab y dc son lados
paralelos del paralelogramo. Si se igualan ambas expresiones para el
vector ad, se sigue que

ae + ed = 6 af − 5 ae.
ed = 6 af − ae ef.

De donde, =6

3 Ángulo entre vectores.

Sean u y v dos vectores en un e.v. con producto interior. En geometría elemental se demuestra la llamada ley
de cosenos, una de las identidades que establece una relación entre la longitud de los lados de un triángulo y
el ángulo formado entre ellos. Se tomará la ley de cosenos como motivación para denir de forma analítica el
ángulo entre dos vectores.
Considere el triángulo con lados formados por los vectores u , v y u − v, y sea φ ∈ [0, π] el ángulo formado
por los vectores u y v.
Utilizando la ley de cosenos se tiene

ku − vk2 = kuk2 + kvk2 − 2kukkvk cos(φ). (5)

Pero
ku − vk2 = kuk + kvk − 2 hu, vi . (6)

De las ecuaciones 5 y 6 se sigue que

hu, vi
cos(φ) = .
kukkvk

6
Ahora, por la desigualdad de Cauchy-Schwarz, −kukkvk ≤ hu, vi ≤ kukkvk. Por lo tanto

hu, vi
−1 ≤ ≤ 1.
kukkvk
Esto permite denir el ángulo entre los vectores u y v como sigue.
Denición 3.1. Ángulo entre dos vectores.
Sea V un e.v. con producto interior, y sean u y v vectores en V \ {0}. Se dene el ángulo entre los vectores
u y v, y se denotará Ang(u, v), como el único número número real φ ∈ [0, π] tal que
hu, vi
cos(φ) = .
kukkvk
Observación 3.2.
ˆ En R2 tiene sentido hablar de ángulos dirigidos entre dos vectores, es decir, denir como positivo o
negativo el ángulo entre los vecotres u y v según el viaje angular desde u hasta v vaya en contra o con el
movimiento de las manecillas del reloj. En R3 (y a partir de éste) no hay una manera coherente de decidir
si el recorrido desde u hasta v es positivo o negativo, esto dependerá de escoger un lado del plano generado
por u y v para verlo, pero cualquiera de los dos lados son iguales y desde uno se ve lo contrario del
otro. Algebraicamente esto corresponde a que hu, vi = hv, ui, esto es, que el producto interior conmuta.
Lo que sí se puede decir es cuándo tres vectores están orientados positivamente, pero esto se verá más
adelante. De tal manera sólo está denido el ángulo entre vectores, y tiene valores entre 0 y π , donde los
extremos corresponden, respectivamente, a que los vectores estén en la misma dirección o en direcciones
contrarias.

ˆ Sean α y β números reales positivos. Entonces

hαu, β vi αβ hu, vi hu, vi


= = . (7)
kαukkβ vk αβkukkvk kukkvk

La ecuación 7 corresponde a que un ángulo no depende de la longitud de los vectores


que lo denen. (Análogamente si α y β números reales negativos.)

π
ˆ hu, vi = 0 si, y sólo si, cos(φ) = 0 si, y sólo si, φ = . En otras palabras, dos vectores distintos de cero son
2
ortogonales si, y sólo si, son perpendiculares, es decir, la noción en geometría elemental de que el ángulo
sea recto (igual a 90◦ ).
π π
Por otra parte, si 0 ≤ φ < , 0 < hu, vi, y si < φ ≤ π , hu, vi < 0.
2 2

Denición 3.3. Sean p y q puntos en un e.v. V con producto interior, y sean u y v vectores en V \ {0}.
1. Ángulo entre rectas. Se dene el ángulo entre las rectas

p + Lu = {p + su | s ∈ R} y q + Lv = {q + tv | t ∈ R}
como el ángulo entre los vectores u y v.
2. Ángulos entre semirectas. Se dene el ángulo entre las semirectas

Sr(u) = p + {su | s ∈ R y s ≥ 0} y Sr(v) = q + {tv | t ∈ R y t ≥ 0}


como el ángulo entre los vectores u y v.

7
Note que el ángulo entre las rectas (semirectas) está denido aún cuando su intersección sea vacía.

Denición 3.4. (Ángulos en un triángulo.)


Sean p1 , p2 y p3 puntos no colineales en un e.v. V con producto interior, y
sea 4p1 p2 p3 el triángulo con vértices p1 , p2 y p3 . Se dene el ángulo en el
vértice p1 , denotado φ(p1 ), como el ángulo entre las semirectas

Sr(p1 p2 ) = p1 + {s p1 p2 | s ∈ R y α ≥ 0}

y
Sr(p1 p3 ) = p1 + {t p1 p3 | t ∈ R y t ≥ 0}
Análogamente se dene φ(p2 ) y φ(p3 ).
Para terminar esta sección se demuestra la ley de cosenos.

Teorema 3.5. (Ley de cosenos.) Sean p1 , p2 y p3 puntos no colineales en un e.v. V con producto interior,
y sea4p1 p2 p3 el triángulo con vértices p1 , p2 y p3 . Entonces
D(p2 , p3 )2 = D(p1 , p2 )2 + D(p1 , p3 )2 − 2D(p1 , p2 )D(p1 , p3 ) cos φ(p1 ).
Se cumplen, además, resultados análogos para φ(p2 ) y φ(p3 ).
π
Observación 3.6. El teorema de Pitágoras es un caso partícular de la ley de cosenos cuando φ(p1 ) = .
2
Proof. Por denición
hp1 p2 , p1 p3 i
cos φ(p1 ) = .
kp1 p2 kkp1 p3 k
Por lo tanto es suciente probar que

2 hp1 p2 , p1 p3 i = kp1 p2 k2 + kp1 p3 k2 − kp2 p3 k2 .


En efecto
kp1 p2 k2 + kp1 p3 k2 − kp2 p3 k2
= kp1 k2 − 2 hp1 , p2 i + kp2 k2 + kp1 k2 − 2 hp1 , p3 i + kp3 k2 − kp2 k2 + 2 hp2 , p3 i − kp3 k2
= 2kp1 k2 − 2 hp1 , p2 i − 2 hp1 , p3 i + 2 hp2 , p3 i
= 2 hp1 , p1 i − 2 hp1 , p2 i − 2 hp1 , p3 i + 2 hp2 , p3 i
= 2 hp1 p2 , p1 i − 2 hp1 p2 , p3 i
= 2 hp1 p2 , p1 p3 i .

Ejercicio 3.7. Sea V un e.v. con p.i., y sean u y v vectores en V \{0}. Demostrar que el vector w = kvku+kukv
satisface que Ang(u, w) = Ang(v, w).

Solución 3.8.
Proof. Sea φ1 = Ang(u, w). Por denición

hu, wi hu, kvku + kukvi


cos(φ1 ) = =
kukkwk kukkwk
(8)
kuk kvk + kuk hu, vi
2
kukkvk + hu, vi
= = .
kukkwk kwk

Sea φ2 = Ang(v, w). Por denición

hv, wi hv, kvku + kukvi


cos(φ2 ) = =
kvkkwk kvkkwk
(9)
kukkvk + kvk hu, vi
2
kukkvk + hu, vi
= = .
kvkkwk kwk

De las ecuaciones 8 y 9, cos(φ1 ) = cos(φ2 ). Pero la función coseno


es inyectiva en el intervalo [0, π], por lo cual φ1 = φ2 .

8
Nota 3.9. Por la propiedad del vector w, éste se llamará vector bisectriz del ángulo Ang(u, v).
Observación 3.10. Sea w0 = kvku − kukv. Entonces,

hw, w0 i = hkvku + kukv, kvku − kukvi = kuk2 kvk2 − kukkvk hu, vi + kukkvk hu, vi − kuk2 kvk2 = 0.

Por lo tanto w y w0 son ortogonales. En general se cumple que kuk = kvk si, y sólo si, hu + v, u − vi = 0, ya
que hu + v, u − vi = kuk2 − kvk2 .

Ejercicio 3.11. Sean a, b y c tres puntos no colineales en un e.v. V con producto interior, y sea 4abc el
triángulo con vértices a, b y c. Sean además d y e puntos en los lados [ac] y [ab], respectivamente. Suponga
que el vector de no es paralelo al vector bc y que f y g son puntos en [bc] y [ed], respectivamente, tales que

D (b, f) D (e, g) D (b, e)


= = .
D (c, f) D (d, g) D (c, d)

Demostrar que el vector gf es paralelo al vector bisectriz del ángulo φ(a).


Solución 3.12. Proof. Primero note que para ciertos números reales α, β ∈ (0, 1),

ae = α ab, ad = β ac y bf = γ fc,
D (b, f)
donde γ = . Ahora
D (c, f)
1. af = ab + bf. De donde, bf = af − ab.
2. af = ac + cf. De donde, fc = −af + ac.
Con lo anterior en cuenta

df = γ fc
si, y sólo si,
af − ab |{z} −af + ac

= γ
1 y 2

si, y sólo si,


(1 + γ)af = ab + γ ac.
Por lo tanto,

1 γ
af = ab + ac. (10)
1+γ 1+γ
D (e, g)
Análogamente, usando que γ = , ae = α ab y ad = β ac, se tiene que
D (d, g)

1 γ α βγ
ag = ad + = ab + ac.
1+γ 1+γ 1+γ 1+γ
Es decir
α βγ
ag = ab + ac. (11)
1+γ 1+γ
D (b, e)
Como γ = y cd = γ cd,
D (c, d)
ae − ab = ba − ea = γ ca − da

,
ae − ab = γ ad − ac ae = γ ab y ad = β ac,

lo cual ocurre si, y sólo si, . Así, usando que

(1 − α)ab = (1 − β)γ ac
y
(1 − α)D (a, b) = (1 − β)γD (a, c) .
Por lo tanto,
1 1−α
= . (12)
D (a, b) (1 − β)γD (a, c)

9
De las ecuaciones 10, 11 y 12
   
1 γ α βγ 1−α (1 − β)γ
gf = af − ag = ab + ac − ab + ac = ab + ac
1+γ 1+γ 1+γ 1+γ 1+γ 1+γ
(1 − α)D (a, c) (1 − β)γD (a, b)
= ab + ac
(1 + γ)D (a, c) (1 + γ)D (a, b)
 
1−α
D (a, c) ab + D (a, b) ac ,

=
(1 + γ)D (a, c)
lo cual prueba el ejercicio.
Ejercicio 3.13. Sea V un e.v. con p.i., y sean a, b, c, d vectores l.i. en V . Considera la pirámide abcd; en
ésta suponga que θ + ψ = π , donde ψ = φ(d) en el triángulo 4abd, y θ = φ(d) en el triángulo 4acd. Hallar,
en el triángulo 4ade, el ángulo ω = φ(d), si de es el vector bisectriz del ángulo φ(d) en el triángulo 4bcd.

Figure 2: Hipótesis del ejercicio 3.13.

π
Figure 3: Bajo las hipótesis del ejercicio 3.13, el ángulo ω siempre es igual a .
2

Solución 3.14.
Se denen los siguientes vectores.

da db dc
u1 = u2 = y u3 = .
D (a, d) D (b, d) D (c, d)

Con lo anterior en cuenta, se observa que u2 + u2 es paralelo al


vector de. En consecuencia, Ang(u1 , u2 + u3 ) = ω . Ahora bien,

hu1 , u2 + u3 i
cos(ω) =
ku2 + u3 k
hu1 , u2 i + hu1 , u3 i
=
ku2 + u3 k
cos(ψ) + cos(θ)
=
ku2 + u3 k

10
Pero
cos(ψ) + cos(θ) = cos(ψ) + cos(π − ψ) = cos(ψ) − cos(ψ) = 0,
π
ya que θ = π − ψ por hipótesis. Por lo tanto, cos(ω) = 0 y, así, ω = .
2
Ejercicio 3.15. Se da la pirámide triangular con vértices a, b, c y d, vectores en un e.v. con p.i. En dicha
pirámide se cumple que D (a, b) = D (a, c) y θ = ϕ, donde θ = φ(a) en el triángulo 4abd y ϕ = φ(a) en el
triángulo 4acd. Demostrar que los vectores ad y bc son ortogonales.

Solución 3.16. Proof. Observe que ac = ab + bc. De donde, bc = ac − ab


y

ad, bc = ad, ac − ab
= ad, ac − ad, ab
= D (a, d) D (a, c) cos(ϕ) − D (a, d) D (a, b) cos(θ) = 0,

pues por hipótesis D (a, b) = D (a, c) y θ = ϕ. Por lo tanto, los vectores ad y


bc son ortogonales.

4 Proyección ortogonal.

En esta sección se discute la signicación geométrica del producto interior en términos de proyección y compo-
nente ortogonal.

Considere el siguiente problema. Dados dos vectores no cero u y v, construir


un triángulo rectángulo con hipotenusa u y base paralela al vector v (ver
gura 4). Como cualquier vector paralelo a v puede representarse por αv, con
α algún número real, lo que se desea construir es un triángulo de lados u, αv
y w = u − αv de forma que w sea ortogonal a v. Pero u − αv es ortogonal a
v si, y sólo si,
0 = hu − αv, vi = hu, vi − αkvk2 .
hu, vi
Por lo tanto, α = es el único número real tal que u − αv es ortogonal
kvk2
a v y el triángulo rectángulo deseado de hipotenusa u tiene lados
hu, vi hu, vi
v y u− v u = Proyv u + Perpv u.
kvk2 kvk2 Figure 4:
hu, vi
El lado v que es paralelo al vector v se llama proyección ortogonal de u sobre v.
kvk2
Denición 4.1. (Proyección y componente ortogonal.)
Sea V un e.v. con p.i., y sean u y v vectores en V , donde v 6= 0. La proyección ortogonal de u sobre v,
denotada Proyv u, es el vector
hu, vi
Proyv u = v.
kvk2
hu, vi
El número real se llama componente ortogonal de u en la dirección de v, y se denota Compv u. Es
kvk
decir
hu, vi
Compv u = .
kvk
La relación entre la componente y la proyección ortogonal es la siguiente.
v
Proyv u = Compv u .
kvk
v
El vector es un vector unitario en la dirección del vector v, y la relación entre la proyección y la
kvk
componente ortogonal dice que la componente ortogonal de u en al dirección de v es la longitud dirigida de
la proyección ortogonal.

11
Observación 4.2.
1. Si Compv u < 0, Proyv u y v están en direcciones opuestas; si Compv u < 0, Proyv u y v tienen la misma
dirección; y si Compv u = 0, Proyv u y v son ortogonales.

2. Si w 6= 0 es un vector paralelo a v, entonces: (a) Proyv u = Proyw u y (b) Compv u = Compw u o bien
Compv u = −Compw u, según los vectores v y w tengan o no la misma dirección.
En efecto: ya que v = αw, para algún α ∈ R \ {0},

hu, wi hu, αvi hu, vi


Proyw u = w= αv = v = Proyv u
kwk 2 kαvk 2 kvk2
y
hu, wi hu, αvi α hu, vi α
Compw u = = = = Compv u.
kwk kαvk |α| kvk |α|

El inciso (a) implica que la proyección es, en realidad, proyección ortogonal sobre una recta, es decir, la
proyección no cambia si se reemplaza por cualquier vector (no cero) paralelo a v. Por otro lado, el hecho
que Compw u = Compv u, si α > 0, justica el término componente de u en la dirección de v ya que
ésta no depende de cuál haya sido el vector en la dirección de v para especicar la dirección.

3. Sea Perpv u = u − Proyv u. Entonces

u = Proyv u + Perpv u,
es decir, el vector u se puede expresar como la suma de un vector paralelo a v más otro ortogonal a v.
Esta forma de representar al vector u se llama descomposición ortogonal.

Como la componente ortogonal de un vector en la dirección de otro tiene un signicado geométrico denido,
la relación entre la componente y el producto intetior introduce una interpretación geométrica de este último.
Según la denición de componente ortogonal (denición 4),

hu, vi = kvk Compv u.

Esta ecuación nos dice: el producto interior hu, vi es la longitud del vector v por la componente de u en la
dirección del vector v.

Ejercicio 4.3. Demostrar la desigualdad de Cauchy-Schwarz utilizando la proyección ortogonal.

Solución 4.4. Proof. Sean u y v vectores en un e.v. V con p.i. Se probará que | hu, vi ≤ kukkvk.
Caso 1. Si u = 0 o v = 0, el resultado es cierto (se tiene 0 = 0).
Caso 2. Suponga que u y v son vectores distintos del vector cero.
Caso 2.1. Si u y v son vectores l.i., entonces existe un triángulo rectángulo con hipotenusa u y base Proyv u.
Sea w = u − Proyvv u 6= 0. Por el teorema de Pitágoras se tiene

kuk2 = kwk2 + kProyv uk2 ,

y así
kProyv uk2 = kuk2 − kwk2 < kuk2 .
De donde, kProyv uk < kuk. Por lo tanto,

| hu, vi | = kvk|Compv u| = kvkkProyv uk < kukkvk,

esto es, | hu, vi | < kukkvk. Caso 2.2. Suponga que los vectores u y v son l.d. Entonces existe α ∈ R \ {0} tal
que u = αv. Luego,
| hu, vi | = | hαv, vi | = |α|kvk2 = kαvkkvk = kukkvk,
esto es, | hu, vi | = kukkvk.
Recíprocamente, si | hu, vi | = kukkvk, entonces hu, vi = kukkvk o hu, vi = −kukkvk. De la fórmula para
el ángulo entre dos vectores se sigue que Ang(u, v) = 0 o Ang(u, v) = π pues

hu, vi hu, vi
=1 o = −1. (13)
kukkvk kukkvk

En cualquier caso los vectores u y v son paralelos y, por lo tanto, l.d.

12
Para terminar esta sección, se utiliza la proyección ortogonal para denir el área de un paralelogramo.
Primero se introduce el concepto de paralelogramo.

Denición 4.5. (Paralelogramo.) Sean u y v vectores no cero en un e.v. V con p.i. Se dene el paralelo-
gramo generado por los vectores u y v, el cual se denota Π (u, v), como el conjunto

Π (u, v) = {αu + β v ∈ V | α, β ∈ [0, 1] y α + β = 1} .


En geometría elemental, el área de un paralelogramo es igual al producto de su base por su altura. Así, el
área del paralelogramo Π (u, v) es kvkku − Proyv uk. Pero
2
hu, vi
ku − Proyv uk2 = u− v
kvk2
hu, vi | hu, vi |2
2
= kuk2 − 2 +
kvk2 kvk2
hu, vi
2
= kuk2 −
kvk2
kuk2 kvk2 − hu, vi
2
= .
kvk2

Ahora, de la desigualdad de Cauchy-Schwarz, kuk2 kvk2 − hu, vi ≥ 0, por lo cual


2

q
kuk2 kvk2 − hu, vi
2
ku − Proyv uk = .
kvk
q
Por lo tanto el área del paralelogramo Π (u, v) es kuk2 kvk2 − hu, vi . Esto motiva la siguiente denición.
2

Denición 4.6. (Área de un paralelogramo.)


Sean u y v vectores no cero en un e.v. V con p.i. El área del paralelogramo Π (u, v), denotada A(u, v), es
q
A(u, v) = kuk2 kvk2 − hu, vi .
2

Observación 4.7. La fórmula del área del paralelogramo Π (u, v) se puede expresar en términos de un
determinante 2 × 2. s
hu, ui hu, vi
A(u, v) = .
hu, vi hv, vi

Sea φ = Ang(u, v). Entonces

hu, vi = kuk2 kvk2 cos2 (φ) = kuk2 kvk2 (1 − sin2 (φ))


2

= kuk2 kvk2 − kuk2 kvk2 sin2 (φ).

Por lo tanto, el área del paralelogramo Π (u, v) es

A(u, v) = kukkvk sin(φ). (14)

Lema 4.8. Sean u y v vectores no cero en un e.v. V con p.i. Entonces u y v son linealmente dependientes
(o paralelos) si, y sólo si, A (u, v) = 0.

Proof. De la desigualdad de Cauchy-Schwarz, u y v son l.d. si, y sólo si, kuk2 kvk2 − hu, vi , lo cual ocurre si,
2

sólo si, A (u, v) = 0.

5 Bases ortonormales.

De forma natural la siguiente denición amplia el concepto de vectores ortogonales a un conjunto de vectores.

Denición 5.1. (Conjunto ortogonal.)


Sea V un e.v. con p.i. Un subconjunto U del e.v. V es ortogonal si para cualesquiera vectores u y v en U ,
con u 6= v, hu, vi = 0, es decir, u y v son ortogonales.
Un vector v ∈ V es un vector unitario si kvk = 1. Un subconjunto U del e.v. V es ortonormal si U es
ortogonal y cada vector de U es unitario.

13
Observe que si u y v son vectores ortogonales, entonces los vectores αu y β v, donde α y β son escalares
distintos de cero, también son ortogonales. Además, si w es un vector distinto del vector cero, entonces kwk−1 w
es un vector unitario. El proceso de multiplicar un vector distinto de cero por el inverso de su norma se llama
normalización del vector.
Ejemplo 5.2. En R3 , el conjunto U = {(1, 1, 0), (1, −1, 1), (−1, 1, 2)} es un conjunto ortogonal formado por
vectores distintos del vector cero, pero no es ortonormal. Sin embargo, si se normaliza cada vector de U, se
obtiene el conjunto ortonormal
 
1 1 1
√ (1, 1, 0), √ (1, −1, 1), √ (−1, 1, 2) .
2 3 6
Así como las bases son los bloques sobre los que se construyen los espacios vectoriales, las bases que tienen
la propiedad de ser un conjunto ortonormal son los bloques de los espacios vectoriales con producto interior.

Denición 5.3. (Base ortonormal.)


Sea V un e.v. con p.i. Un subconjunto de V es una base ortonotmal de V si éste es una base y es un conjunto
ortonormal.

Ejemplo 5.4. Sea F un campo. La base canónica {e1 , e2 , ..., en } de Fn es una base ortonormal de Fn .
El siguiente teorema y sus corolarios ilustran por qué los conjuntos ortogonales y, en particular, las bases
ortonormales son tan importantes.

Teorema 5.5. Sea V un e.v. con p.i., y sea U = {u1 , u2 , ..., vn } un subconjunto ortogonal de V formado por
vectores distintos del vector cero. Si v ∈ gen (U ), entonces

hv, u1 i hv, u2 i hv, un i


v= u1 + u2 + ... + un .
ku1 k2 ku2 k2 kun k2

Proof. Ya que v ∈ gen (U ), existen escalares α1 , α2 , ..., αn tales que

v = α1 u1 + α2 u2 + ... + αn un .
Para cada 1 ≤ i ≤ n, se tiene

hv, ui i = hα1 u1 + α2 u2 + ... + αn un , ui i = α1 hu1 , ui i + α2 hu2 , ui i + ... + αn hun , ui i = αi hui , ui i = αi kui k2 .

hv, ui i
Por lo tanto αi = , y el resultado se cumple.
kui k2

Corolario 5.6. (¾Cómo escribir un vector como combinación lineal de una base ortonormal?)
Si, en adición a las hipótesis del teorema 5.5, el conjunto U es ortonormal y v ∈ gen (U ), entonces

v = hv, u1 i u1 + hv, u2 i u2 + ... + hv, un i un .

Si el espacio vectorial V posee una base ortonotmal, el corolario 5.6 permite calcular los coecientes en una
combinación lineal de forma fácil.

Corolario 5.7. Sea V un e.v. con p.i., y sea U un subconjunto ortogonal de V formado por vectores distintos
del vector cero. Entonces U es linealmente independiente.

Proof. Sean u1 , u2 , ..., un en U y α1 , α2 , ..., αn escalares tales que

0 = α1 u1 + α2 u2 + ... + αn un .
h0, ui i
Del teorema 5.5 (con v = 0), αi = = 0, para cada i = 1, 2, ..., n. Por lo tanto, U es es un conjunto
kui k2
linealmente independiente.

14
Ejemplo 5.8. Considere el conjunto
 
1 1 1
U= √ (1, 1, 0), √ (1, −1, 1), √ (−1, 1, 2) ⊆ R3 .
2 3 6
Ya que
h(1, 1, 0), (1, −1, 1)i = 1 · 1 + 1(−1) + 0 · 1 = 0,
h(1, 1, 0), (−1, 1, 2)i = 1(−1) + 1 · 1 + 0 · 2 = 0,
h(1, −1, 1), (−1, 1, 2)i = 1(−1) + (−1)(1) + 1 · 2 = 0,
y
1 1 √ 1 1 √ 1 1 √
√ k(1, 1, 0)k = √ 2 = 1, √ k(1, −1, 1)k = √ 3 = 1, √ k(−1, 1, 2)k = √ 6 = 1,
2 2 3 3 6 6
U es una base ortonotmal de R3 .
Sea x = (x, y, z) ∈ R. Según el corolario 5.6, los coecientes para expresar a x como c.l. de los vectores en
la base ortonormal U de V son
x+y x−y+z −x + y + 2z
α1 = √ , α2 = √ y √ .
2 3 6
Por lo tanto,
x+y x−y+z −x + y + 2z
(x, y, z) = √ (1, 1, 0) + √ (1, −1, 1) + √ (−1, 1, 2).
2 3 6
Ejercicio 5.9. Encontrar una base ortonotmal para el subespacio

W = (x, y, z) ∈ R3 | x − y + 2z = 0


de R3 .

Solución 5.10. (Ver gura 5.)

1. W es un plano por el origen. De la ecuación del plano, se tiene que x = y − 2z , así que W consiste en
todos los vectores de la forma

(y − 2z, y, z) = y(1, 1, 0) + z(−2, 0, 1), (15)

con y, z ∈ R. Es decir, W = gen ((1, 1, 0), (−2, 0, 1)). Los vectores u = (1, 1, 0) y v = (−2, 0, 1) son base
de W , pero no ortonormal. Sin embargo, se puede utilizar a uno de ellos, u diga, y si se encuentra un
vector w1 ortogonal a u, B1 = kuk−1 u, kw1 k−1 w1 será una base ortogonal para W .
Sea w1 = (x, y, z) ∈ W ortogonal a W . Entonces, las coordenadas de w1 se determinan resolviendo el
sistema de ecuaciones

x + y = 0
x − y + 2z = 0.

Todas las soluciones del sistema anterior son de la forma x = −t, y = z = t, con t ∈ R, es decir, w1 es
cualquier vector distinto de cero en gen(−1, 1, 1). Sea w1 = (−1, 1, 1). Es fácil comprobar que con esta
elección se obtiene una base ortonormal del s.v. W .

2. Conservando la notación del inciso anterior para u y v, sea ahora


   
4 2 1 2
w2 = u − Proyv u = (1, 1, 0) − , 0, = , 1, .
5 5 5 5

Entonces B2 = kvk−1 v, kw2 k−1 w2 es una base ortonotmal del s.v. W . (Desde luego w2 = v − Proyu v


permite determinar otra base ortonotmal para el s.v. W .)

6 Complemento ortogonal.

En esta sección se extiende, a través del concepto de complemento ortogonal, la denición de vector ortogonal
o normal a una recta en R2 vista en el curso de G.A. 1.

15
Figure 5: B1 y B2 son dos bases ortonormales del s.v. W .

Sea L = {p + tv | t ∈ R}, la recta en Rn por el punto p en la


dirección del vector v 6= 0. Un vector n 6= 0 en R2 es ortogonal
a la recta L si los vectores  v y n son ortogonales. Más aún, si
v = (v1 , v2 ), n ∈ gen v⊥ , donde v⊥ = (−v2 , v1 ). Si p = 0, es
decir, si la recta L pasa por el origen, L es un s.v. de R2 , con lo cual
se tienen dos subespacios de R2 , L y gen v⊥ , con la propiedad de
que cada vector en uno es ortogonal a cada vector en el otro. Esta
es la idea detrás del concepto de complemento ortogonal.

Denición 6.1. (Complemento ortogonal.)


Sea U un subconjunto no vacío de un e.v. V con p.i. Se dene U ⊥ (léase  U ortogonal) como el conjunto de
todos los vectores en V ortogonales a cada vector en el conjunto U ; es decir,

U ⊥ = {v ∈ V | hu, vi = 0, para cada u ∈ U} .


El conjunto U⊥ se llama complemento ortogonal del conjunto U.
Observación 6.2. U⊥ es un s.v. de V para cualquier subconjunto no vacío U de V.
Proof. Sea U un subconjunto no vacío del e.v. V .

1. (0 ∈ U ⊥ .) Para todo u ∈ U , hu, 0i = 0. De donde, 0 ∈ U ⊥.


2. (La suma es cerrada en U ⊥ .) Sean v, w ∈ U ⊥ . Para cada u ∈ U,
hu, v + wi = hu, vi + hu, wi = 0.

De donde, v + w ∈ U ⊥.
3. (El producto es cerrado en U ⊥ .) Sea α un escalar y v un vector en U ⊥ . Para cada u ∈ U,
hu, αvi = α hu, vi = α · 0 = 0. (16)

De donde, αv ∈ U ⊥ .

De 1, 2 y 3, se concluye que U ⊥ es un s.v. de V .

16
Ejemplo 6.3.
ˆ En cualquier e.v. con p.i. {0} = V y V ⊥ = {0}.

ˆ Sea u = (u1 , u2 , u3 ) un vector en R3 \ {0}, y sea U = gen (u). Ya que u 6= 0, ui 6= 0, para algún
i ∈ {1, 2, 3}. Si u1 6= 0,

U ⊥ = (x, y, z) ∈ R3 | u1 x + u2 y + u3 z = 0

 
3 u2 u3
= (x, y, z) ∈ R x = − y− z
u1 u1
  
u2 u3
= − y − z, y, z y, z ∈ R
u1 u1
     
u2 u3
= y − , 1, 0 + z − , 0, 1 y, z ∈ R
u1 u1
   
u2 u3
= gen − , 1, 0 , − , 0, 1 .
u1 u1
   
u2 u3
Es decir, U ⊥ es el plano por el origen generado por los vectores − , 1, 0 y − , 0, 1 , ortogonales
u1 u1
al vector u. Se concluyen resultados análogos si u2 6= 0 o si u3 6= 0.
En cualquier caso, se observa que {u} es un plano por el origen, es decir, el complemento ortogonal

de una recta por el origen es un plano por el origen.


ˆ Sean u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ) vectores l.i. en R3 . Un vector (x, y, z) ∈ R3 pertenece a U ⊥ si, y
sólo si, es solución del sistema de ecuaciones

u1 x + u2 y + u3 z = 0
(17)
v1 x + v2 y + v3 z = 0.

Si se multiplica la segunda ecuación del sistema 17 por u3 , la primera por −v3 y se suman, se obtiene

(u3 v1 − v3 u1 ) x + (u3 v2 − v3 u2 ) y = 0.

La anterior ecuación tiene una solución canónica volteando los coecientes y en uno de ellos también el
signo, es decir:
x = u2 v3 − v2 u3 , y = u3 v1 − v3 u1 .
Al sustituir estos valores en la ecuación primera ecuación de 17 y simplicar se obtiene

u1 (u2 v3 − v2 u3 ) + u2 (u3 v1 − v3 u1 ) + u3 z = 0
u3 (u2 v1 − v2 u1 + z) = 0,

que, independientemente del valor de u3 , tiene solución

z = u 1 v2 − v1 u 2 .

Por lo tanto, el conjunto solución del sistema 17 es gen (u2 v3 − v2 u3 , u3 v1 − v3 u1 , u1 v2 − v1 u2 ). Ya que


los vectores u y v son linealmente independientes, (u2 v3 − v2 u3 , u3 v1 − v3 u1 , u1 v2 − v1 ) 6= 0 (ver inciso 2
del teorema 7.5), así que U ⊥ es una recta cuyo vector de dirección es ortogonal a los vectores u y v. El
vector anterior es tan importante que tiene nombre propio: producto cruz de u y v, denotado u × v,
y se estudiará en la siguiente sección. Con lo anterior en cuenta, se concluye que {u, v} = gen (u × v),

es decir, el complemento ortogonal de un plano es una recta.

Ejercicio 6.4. Sean W1 y W2 subespacios de dimensión nita de un e.v. V con producto interior. Demostrar
⊥ ⊥
que (W1 + W2 ) = W1⊥ ∩ W2⊥ y (W1 ∩ W2 ) = W1⊥ + W2⊥ .
Ejercicio 6.5. Sea V un e.v. con producto interior, y sean U y W subconjuntos de V.
1. Si U es un s.v. de V , demostrar que U ∩ U ⊥ = {0}.

2. Si U ⊆ W , entonces W ⊥ ⊆ U ⊥ .

3. Si W es un s.v. de V , B una base de W y v ∈ V , demostrar que v ∈ W ⊥ si, y sólo si, hv, xi = 0, para
cada x ∈ B .

17
Solución 6.6.
x ∈ U ∩ U ⊥ . Entonces x ∈ U ⊥ , así que hx, ui = 0, para todo u ∈ U . En
1. Sea particular, para x ∈ U,
kxk = hx, xi = 0. De donde, x = 0. Por lo tanto 0 ∈ U ∩ U ⊥ y U ∩ U ⊥ = {0}.
2

2. Sea w ∈ W ⊥ . w ∈ U ⊥ si, y sólo si, hu, wi = 0, para cada u ∈ U . Sea u ∈ U. Entonces u∈W pues
U ⊆ W , por lo que hu, wi = 0. Por lo tanto, w ∈ U ⊥ y W ⊥ ⊆ U ⊥ .
3. (Ida.) Suponga v ∈ W ⊥ . Entonces hv, wi = 0, para cada w ∈ W , en particular, para cada vector en B .
(Regreso.) Suponga que hv, xi = 0, para cada x ∈ B . v ∈ W ⊥ si, y sólo si, hw, vi = 0, para cada
w ∈ W . Sea w ∈ W . Entonces existen vectores w1 , w2 , ..., wn y escalares α1 , α2 , ..., αn tales que
w = α1 w1 + α2 w2 + ... + αn wn .
De donde,

hw, vi = hα1 w1 + α2 w2 + ... + αn wn , vi


= α1 hw1 , vi + α2 hw2 , vi + ... + αn hwn , vi
= α1 · 0 + α2 · 0 + ... + αn · 0
= 0.

Por lo tanto, v ∈ W ⊥.

7 Producto cruz

Denición 7.1. (Producto vectorial.)


El producto vectorial de los vectores u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ) en R , denotado por u × v, lo que se
3

lee  u cruz v, es el vector denido

u × v = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 ) .
La fórmula para el producto vectorial parece complicada, pero si se introducen determinantes se puede dar
una representación más conveniente y sencilla de recordar.

Notación 7.2. Considere la matriz de 3 × 2


 
u1 v1
(u v) = u2 v2  , (18)
u3 v3

es decir, la matriz de 3×2 que tiene como columnas a los vectores u y v. Obsérvese que en la primera coordenada
del producto vectorial no aparecen las primeras coordenadas de los vectores u y v: es justo el determinante
u2 v3 − u3 v2 de la matriz 2 × 2 que se obtiene al eliminar el primer renglón de la matriz (u, v) de los dos vectores.
La segunda coordenada es de nuevo el determinante u1 v3 − u3 v1 que se obtiene al eliminar ahora el segundo
renglón de la matriz (u, v), pero con signo negativo. Y la tercera vuelve a ser el determinante u1 v2 −u2 v2 tal cual
al quitar el tercer renglón de la matriz (u, v). El producto cruz se arma de subdeterminantes de 2 × 2 ignorando
coordenadas correspondientes y teniendo cuidado en los signos (el de en medio lleva un signo menos):

u2 v2 u1 v1 u1 v1
u×v= u3 v3
e1 − u3 v3
e2 + u2 v2
e3
= (u2 v3 − u3 v2 ) e1 − (u1 v3 − u3 v1 ) e2 + (u1 v2 − u2 v1 ) e3
= (u2 v3 − u3 v2 ) e1 + (u3 v1 − u1 v3 ) e2 + (u1 v2 − u2 v1 ) e3 .

Por lo tanto el producto cruz de los vectores u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ) en R3 puede denirse como
el determinante formal
e1 e2 e3
u×v= u1 u2 u3 ,
v1 v2 v3
es decir, aceptando que en el primer renglón se coloquen vectores en lugar de escalares.

18
En R2 , dado un vector u, se puede escoger un vector canónico ortogonal a él girándolo 90◦ en la ori-
entación positiva; ése es precisamente el vector ortogonal a u, u⊥ . Nótese que u⊥ está en la semirecta de
vectores ortogonales a u que está a su izquierda y tiene la norma de u. En R3 no es posible elegir de
manera coherente un vector ortogonal a u pues, como ya se vio en el ejemplo 6.3, u tiene todo un plano
de vectores ortogonales como su complemento ortogonal y es imposible decidir cuál de ellos es el bueno.
Para dos vectores, u y v, sí se puede elegir el bueno de manera
geométrica: si u y v son vectores linealmente independientes, en-
tonces éstos generan un plano, así que se debe elegir un vector en
su complemento ortogonal, que es una recta. Primero se elige el
lado de ese plano donde el giro de u a v se ve en sentido contrario
a las manecillas del reloj (denido como el sentido positivo). Se
tiene entonces una semirecta de candidatos a vectores ortogonales
al plano. De estos, se escoge aquel que tiene norma igual al área
del paralelogramo que generan u y v. Así se obtiene un vector or-
togonal a los vectores u y v, escogido de forma canónica, y que es
su producto cruz, u × v (ver inciso 1 del corolario 7.5). Obsérvese
además que la construcción geométrica del producto cruz fun-
ciona en el caso en que los vectores u y v no generan un plano (i.e.
son linealmente dependientes), pues entonces están en una recta
por el origen y el área de su paralelogramo es cero, tocándoles
entonces el vector cero como vector orotogonal.
Así que el producto cruz debe detectar también si los vectores u y v son linealmente independientes, así como
en R2 el determinante Det (u, v) permite concluir si u y v son vectores linealmente dependientes en el plano.
En el párrafo anterior se hizo mención de propiedades del producto cruz contenidas en el siguiente teorema.

Teorema 7.3. (Propiedades del producto cruz.)


Sean u, v y w tres vectores cualesquiera en R , y sea α ∈ R.
3
Entonces se cumplen las siguientes propiedades
del producto cruz.

1. u × u = 0.
2. hu, u × vi = 0 = hv, u × vi.
3. u × v = −(v × u).
4. u×(v + w) = (u × v)+(u × w) y (u + v)×w = (u × w)+(v × w).
5. u × (αv) = α (u × v) = (αu) × v.
6. hu, v × wi = hv, w × ui = hw, u × vi.
7. u × (v × w) = hu, wi v − hu, vi w.
8. ku × vk = kukkvk sin(θ), donde θ ∈ [0, π], es el ángulo entre los
vectores u y v.

La propiedad 1 dice que el producto vectorial de un vector consigo mismo es el vector cero; se dice que
el producto vectorial es nipolente. La propiedad 2 es la motivación para denir el producto cruz (que es
ortogonal a los vectores u y v). La propiedad 3 se conoce como antisimetría : las variables no conmutan sino
que anticonmutan. Las propiedades 4 y 5 son la linealidad del producto cruz, que junto con la propiedad 2
implican que también es lineal en la primera variable; se dice que es bilineal. Note que la propiedad 5 (para
α = −1) permite escribir la propiedad 3 como u × v = −v × u sin ambigüedad. La razón geométrica de 7
es que cualquier vector ortogonal a v × w está contenido en el plano que generan v y w, y por lo tanto se
expresa como c.l. de ellos. El inciso 8 es la motivación geométrica de la elección del producto vectorial. Ya
que la norma del producto cruz u × v de los vectores u y v se expresa en términos del seno del ángulo θ en u
y v, el producto vectorial puede considerarse como una forma de medir la ortogonalidad de dos vectores en el
mismo sentido que el producto interior es una forma de medir el paralelismo de vectores. Dados dos vectores
unitarios, su producto vectorial es igual a uno si los vectores son ortogonales y es igual a cero si son paralelos.
En el caso del producto interior ocurre lo contrario: su producto interior es igual a uno si son paralelos (en la
misma dirección) y cero si son ortogonales.
Todas las propiedades se siguen directamente de la denición.

Proof. Sean u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ) y w = (w1 , w2 , w3 ) vectores en R3 .


1.
u × u = (u2 u3 − u3 u2 , u3 u1 − u1 u3 , u1 u2 − u2 u1 ) = 0.

19
Figure 6: Interpretación geométrica del producto vectorial.

2.
hu, u × vi = u1 (u2 v3 − u3 v2 ) + u2 (u3 v1 − u1 v3 ) + u3 (u1 v2 − u2 v1 ) = 0
y
hv, u × vi = v1 (u2 v3 − u3 v2 ) + v2 (u3 v1 − u1 v3 ) + v3 (u1 v2 − u2 v1 ) = 0.
3.
u × v = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )
= − (v2 u3 − u2 v3 , u1 v3 − u3 v1 , u2 v1 − u1 v2 )
= − (v × u) .

4.
u × (v + w) = (u1 , u2 , u3 ) × (v1 + w1 , v2 + w2 , v3 + w3 )
= (u2 (v3 + w3 ) − u3 (v2 + w2 ) , u3 (v1 + w1 ) − u1 (v3 + w3 ) , u1 (v2 + w2 ) − u2 (v1 + w1 ))
= (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 ) + (u2 w3 − u3 w2 , u3 w1 − u1 w3 , u1 w2 − u2 w1 )
= (u × w) + (u × w) .
Análogamente se prueba (u + v) × w = (u × w) + (v × w).

5.
u × (αv) = (u1 , u2 , u3 ) × (αv1 , αv2 , αv3 )
= (u2 (αv3 ) − u3 (αv2 ), u3 (αv1 ) − u1 (αv3 ), u1 (αv2 ) − u2 (αv1 ))
= α (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )
= α (u × v) .
Análogamente se prueba α (u × v) = (αu) × v.

6.
hu, v × wi = u1 (v2 w3 − v3 w2 ) + u2 (v3 w1 − v1 w3 ) + u3 (v1 w2 − v2 w1 )
= u1 v2 w3 − u1 v3 w2 + u2 v3 w1 − u2 v1 w3 + u3 v1 w2 − u3 v2 w1
= v1 (u3 w2 − u2 w3 ) + v2 (u1 w3 − u3 w1 ) + v3 (u2 w1 − u1 w2 )
= hv, w × ui .
Análogamente se prueba hv, w × ui = hw, u × vi.

7. Para demostrar 7 de debe desarrollar

u × (v × w) = (u1 , u2 , u3 ) × (v2 w3 − v3 w2 , v3 w1 − v1 w3 , v1 w2 − v2 w1 ) .
Hagamos con cuidado la primera coordenada; las otras dos son análogas, se siguen de la simetría en el uso
de los subíndices. Al aplicar de nuevola fórmula del producto vectorial se tiene que la primera coordenada
es
u2 (v1 w2 − v2 w1 ) − u3 (v3 w1 − v1 w3 )
= (u2 w2 + u3 w3 ) v1 − (u2 v2 + u3 v3 ) w1
= (u1 w1 + u2 w2 + u3 w3 ) v1 − (u1 v1 + u2 v2 + u3 v3 ) w1 ,

20
que claramente es la primera coordenada del vector hu, wi v − hu, vi w, y entonces

u × (v × w) = hu, wi v − hu, vi w.

8. De los incisos 6 y 7 se sigue, respectivamente:

ku × vk2 = hu × v, u × vi
= hu, v × (u × v)i
= hu, hv, vi u − hu, vi vi
= hv, vi hu, ui − hu, vi
2

= kvk2 kuk2 − kuk2 kvk2 cos2 (θ)


= kuk2 kvk2 1 − cos2 (θ)


= kuk2 kvk2 sin2 (θ).

Ya que 0 ≤ θ ≤ π , sin(θ) ≥ 0, por lo que ku × vk = kukkvk sin(θ).

Sea {e1 , e2 , e3 } la base canónica de R3 . A partir de la denición del producto cruz, los vectores en ésta
satisfacen las siguientes relaciones

e1 × e1 = e2 × e2 = e3 × e3 = 0
e1 × e2 = e3 = −e2 × e1
(19)
e2 × e3 = e2 = −e3 × e2
e3 × e1 = e2 = −e1 × e3 .
Observación 7.4. De las ecuaciones en 19, se sigue

e1 × (e1 × e2 ) = e1 × e3 = −e2 y (e1 × e1 ) × e2 = 0 × e2 = 0. (20)

La ecuación 20 demuestra que, en general, u × (v × w) 6= (u × v) × w, es decir, que el producto vectorial


no es asociativo. En lugar de la asociatividad el producto vectorial satisface la ideantidad

u × (v × w) + v × (w × u) + w × (u × v) = 0,
conocidad como identidad de Jacobi. (La identidad se sigue directamente del inciso 7 del teorema 7.3.)

Las ecuaciones en 19 son fáciles de recordar: los productos vectoriales e1 × e2 = e3 , e2 × e3 = e1 y


e3 × e1 = e2 se corresponden con las permutaciones cíclicas de la base {e1 , e2 , e3 }, a saber, {e1 , e2 , e3 },
{e2 , e3 , e1 } y {e3 , e1 , e2 }. Junto con los incisos 4 y 5 del teorema 7.3, estas identidades son sucientes para
calcular el producto vectorial de cualesquiera dos vectores u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ) en R3 .
Primero se expresan los vectores u y v como c.l. de la base canónica:

u = u1 e1 + u2 e2 + u3 e3 , v = v1 e1 + v2 e2 + v3 v3 .
Con esto en cuenta,

u × v = (u1 e1 + u2 e2 + u3 e3 ) × (v1 e1 + v2 e2 + v3 v3 )
=u1 v1 (e1 × e1 ) + u1 v2 (e1 × e2 ) + u1 v3 (e1 × e3 ) +
+ u2 v1 (e2 × e1 ) + u2 v2 (e2 × e2 ) + u2 v3 (e2 × e3 ) +
+ u3 v1 (e3 × e1 ) + u3 v2 (e3 × e2 ) + u3 v3 (e3 × e3 )
=u1 v1 0 + u1 v2 e3 − u1 v3 e2 +
− u2 v1 e3 + u2 v2 0 + u2 v3 e1+
+ u3 v1 e2 − u3 v2 e1 + u3 v3 0
= (u2 v3 − u3 v2 ) e1 + (u3 v1 − u1 v3 ) e2 + (u1 v2 − u2 v1 ) e3 .

Corolario 7.5. Sean u y v vectores en R3 .


1. A(u, v) = ku × vk.

21
2. u y v son l.d. si, y sólo si, u × v = 0.
Proof.

1. Consecuencia del inciso 8 del teorema 7.3 y la ecuación 14.

2. u × v = 0 si, y sólo si, ku × vk = 0. De acuerdo con el inciso anterior esto equivale a hu, vi2 = kuk2 kvk2
o | hu, vi | = kukkvk. Esta última igualdad es la desigualdad de Cauchy-Schwarz en el caso en que la
igualdad se verica, y ya se ha probado que en la desigualdad de Cauchy-Schwarz sólo se verica la
igualdad si u y v son l.d.

Observación 7.6. Del inciso 2 del corolario 7.5 se sigue que el producto vectorial, en general, no satisface la
ley de cancelación. Es decir, si u, v y w son vectores en R3 , con u 6= 0, satisfacen que u × v = u × w, entonces
no necesariamente v = w. En efecto, obsérvese que u × v = u × w es equivalente a la ecuación u × (v − w) = 0.
Del inciso 2 del corolario 7.5, lo anterior ocurre si, y sólo si, los vectores u y v − w son paralelos. Como u 6= 0, lo
anterior implica que v − w = αu, paral algún α ∈ R. Por ejemplo, si u = (1, 0, 0), v = (0, 1, 0) y w = (−1, 0, 0),
ciertamente v 6= w y, para α = 1, se satisface la ecuación v − w = αu: (0, 1, 0) − (−1, 1, 0) = (1)(1, 0, 0). De lo
anterior ocurre que u × v = u × w, lo cual también se puede vericar directamente a partir de la denición de
producto vectorial.
Por otra parte, si además los vectores u, v y w satisfaces hu, vi = hu, wi, entonces

u × ( v × w) = 0 y hu, v − wi = 0.
Como el vector v − w no puede ser simultáneamente paralelo (el caso en que el producto cruz es igual 0)
y ortogonal (el caso en que el producto interior es igual cero) al vector u, se debe cumplir que v − w = 0, es
decir, v = w.
Ejercicio 7.7. Sean u, v y w vectores en R3 .
1. Si el vector u es ortogonal tanto al vector v como al vector w, entonces u y v × w son vectores l.d.
2. Si u y v son vectores l.i., y el vector w es ortogonal a u × v, demostrar que w se puede expresar como
c.l. de los vectores u y v.

Solución 7.8.
Proof. 1. Del inciso 7 del teorema 7.3 se tiene

u × (v × w) = hu, wi v − hu, vi w.
Como hu, vi = hu, wi = 0 por hipótesis, de la ecuación anterior, u × (v × w) = 0, lo cual implica que u
y v × w son vectores l.d., según el inciso 2 del corolario 7.5.

2. Claramente, el vector u × v es ortogonal al vector u y, por hipótesis, el vector u × v es ortogonal al vector


w. Luego, del inciso anterior, los vectores u × v y u × w son vectores l.d.; ya que u × v 6= 0, pues los
vectores u y v son l.i. (inciso 2, corolario 7.5), existe β ∈ R tal que

u × w = β u × v = u × (β v).
De donde,
u × (w − β v) = 0,
por lo cual los vectores u y w − β v son l.d. Como u 6= 0, existe α ∈ R tal que

w − β v = α u,
esto es, w = αu + β v. Por lo tanto, w ∈ gen (u, v).

Ejercicio 7.9. Sean p1 , p2 y p3 vectores linealmente independientes en R3 .


Si θ , ϕ y ψ son, respectivamente, los ángulos en los vértices p1 , p2 y p3 del
triángulo 4p1 p2 p3 , demostar que

sin (ψ) sin (θ) sin (ϕ)


= = .
D (p1 , p2 ) D (p2 , p3 ) D (p1 , p3 )

22
Solución 7.10. Primero se observa lo siguiente.
Observación. Sean u, v y w vectores en R tales que u + v + w = 0. Entonces

u × v = u × (−u − w) = w × u y w × u = w × (−v − w) = v × w.
Por lo tanto u × v = v × w = w × u. Tomando la norma se puede dar una interpretación
geométrica a la anterior identidad:
De la ecuación u × v = v × w = w × u se sigue

k − u × vk = ku × −wk = k − v × wk. (21)


Como la norma del producto vectorial de dos vectores es igual al área del paralelogramo generado por dichos
vectores, la ecuación 21 implica que el área del triángulo de lados u, v y w es independiente de la eleción de
los lados para su cálculo.
De la observación se tiene

k (p3 − p2 ) × (p1 − p2 ) k = k (p2 − p1 ) × (p3 − p1 ) k = k (p1 − p3 ) × (p2 − p3 ) k

De donde

kp3 − p2 kkp1 − p2 k sin (ϕ) = kp2 − p1 kkp3 − p1 k sin (θ) = kp1 − p3 kkp2 − p3 k sin (ψ) .

1. De la ecuación
kp3 − p2 k sin (ϕ) = kp3 − p1 k sin (θ) ,
se sigue
sin (ϕ) sin (θ)
= .
kp2 − p1 k kp2 − p3 k

2. De la ecuación
kp2 − p1 k sin (θ) = kp2 − p3 k sin (ψ) , (22)

se sigue
sin (θ) sin (ψ)
= .
kp3 − p2 k kp2 − p1 k

8 Proyecciones ortogonales.

En esta sección se generaliza la denición de proyección ortogonal. El algoritmo descrito en el siguiente teorema
da un método para obtener un conjunto ortogonal a partir de uno linealmente independiente. Más aún, se
prueba que ambos conjuntos generan el mismo subespacio.

Teorema 8.1. (Proceso de ortogonalización de Gram-Schmidt.)


Sea V un e.v. con p.i. y W = {w1 , w2 , ..., wn } un subconjunto l.i. de V . Dena U = {u1 , u2 , ..., un }, donde

u1 = w1 ,
hw2 , u1 i
u2 = w2 − u1 ,
ku1 k2
hw3 , u1 i hw , u i
u3 = w3 − u1 − 3 22 u2 ,
ku1 k 2 ku2 k (23)
..
.
hwn , u1 i hw , u i hw , u i
un = wn − u1 − n 22 u2 − ... − n n−12 un−1 .
ku1 k2 ku2 k kun−1 k

Entonces U es un conjunto ortogonal, formado por vectores distintos del vector cero, tal que gen (U ) = gen (W ).

Proof. La prueba se hará utilizando el principio de inducción matemática sobre n, el número de vectores en el
conjunto W .
Para cada k = 1, 2, ..., n, dena Wk = {w1 , w2 , ..., wk }.
Base de inducción. Si n = 1, W1 = {w1 } y, como w1 6= 0, W1 es un conjunto ortogonal. Haciendo
u1 = w1 y U = W1 , se cumple el teorema.

23
Hipótesis de inducción. Sea 1 < k. Suponga que el conjunto Uk−1 = {u1 , u2 , ..., uk−1 }, se ha construido
utilizando las ecuaciones en 23 de forma que es un conjunto ortogonal formado por vectores distintos del vector
cero y satisface que gen (Uk−1 ) = gen (Wk−1 ).
Paso inductivo. Sea U = Uk−1 ∪ {uk }, donde el vector uk se obtiene a partir del conjunto Uk−1 utilizando
las ecuaciones en 23. Se probará que el conjunto U satisface el teorema.
Primero: si uk = 0, como

hwk , u1 i hw , u i hw , u i
uk = wk − u1 − k 22 u2 − ... − k k−12 uk−1
ku1 k 2 ku2 k kuk−1 k
entonces
hwk , u1 i hw , u i hw , u i
wk = u1 − k 22 u2 − ... − k k−12 uk−1 .
ku1 k2 ku2 k kuk−1 k
De donde, wk ∈ gen (Uk−1 ) = gen (Wk−1 ), lo cual es una contradicción ya que Wk ⊆ W es un conjunto l.i.
pues W lo es. Por lo tanto, uk 6= 0 y U es un conjunto formado por vectores distintos del vector cero. Ahora
se mostrará que U es un conjunto ortogonal: para cada 1 ≤ i < k , de 23, se sigue

hwk , u1 i hwk , u2 i hwk , uk−1 i


 
huk , ui i = wk − u − u − ... − u , u
ku1 k2 ku2 k2 kuk−1 k2
1 2 k−1 i

hwk , u1 i hwk , u2 i hwk , uk−1 i


= hwk , ui i − hu1 , ui i − hu2 , ui i − ... − huk−1 , ui i
ku1 k 2 ku2 k 2 kuk−1 k2
hwk , ui i
= hwk , ui i − hui , ui i
kui k2
= 0,

pues huj , ui i = 0, si i 6= j , con 1 ≤ j < k , porque el conjunto Uk−1 es ortogonal por hipótesis de inducción.
Esto prueba que Uk es un conjunto ortogonal.
Para terminar, falta probar que gen (Uk ) = gen (Wk ). En efecto: de 23, gen (Uk ) ⊆ gen (Wk ). Ahora, Uk es
un conjunto l.i. (pues es ortogonal); así Dim (gen (Uk )) = Dim (gen (Uk )) = k . Luego, gen (Uk ) = gen (Wk ).
Esto muestra el teorema para k .
En consecuencia, por el principio de inducción matemática, el teorema se cumple para cada n.

La construcción del conjunto U a partir del teorema 8.1 se llama proceso de ortogonalización de Gram-
Schmidt. La gura 7 muestra el proceso de ortogonalización Gram-Schmidt para n = 3.

Figure 7: Proceso de Ortogonalización Gram-Schmidt para n = 3.

Observación 8.2. Con la misma notación del teorema 8.1, si W es un conjunto ortogonal, el conjunto U que
se obtiene con el proceso de ortogonalización de Gram-Schmidt satisface que vi = wi , para cada i = 1, 2, ..., n.

24
Proof. La prueba se hará utilizando el principio de inducción matemática sobre n, el número de vectores en el
conjunto W . Para cada k = 1, 2, ..., n, dena Wk = {w1 , w2 , ..., wk }, y suponga que éste es ortogonal.
Base de inducción. Si n = 1, por la denición del proceso de ortogonalización, el primer vector siempre
se mantiene igual, esto es, u1 = w1 . Por lo tanto, el conjunto U = {u1 } cumple la observación.
Hipótesis de inducción. Sea 1 < k. Suponga que el conjunto Uk−1 = {u1 , u2 , ..., uk−1 } que se obtiene
de aplicar el proceso de ortogonalización de Gram-Schmidt al conjunto ortogonal Wk−1 satisface que ui = wi ,
para cada i = 1, 2, ..., k − 1.
Paso inductivo. Sea U = Uk−1 ∪ {uk }, donde el vector uk se obtiene a partir del conjunto Uk−1 utilizando
las ecuaciones en 23. Se probará que uk = wk .
Observe que, para cada i = 1, 2, ..., k − 1, hwk , wi i = 0 ya que Wk es un conjunto ortogonal. Con lo anterior
en cuenta y la hipótesis de inducción se sigue

hwk , u1 i hw , u i hw , u i
uk = wk − u1 − k 22 u2 − ... − n k−12 uk−1
ku1 k 2 ku2 k kuk−1 k
hwk , w1 i hwk , u2 i hw , w i
= wk − w1 − w2 − ... − n k−12 wk−1
kw1 k2 kw2 k2 kwk−1 k
= wk − 0w1 − 0w2 − ... − 0wk−1
= wk .

Esto muestra la observación para k .


En consecuencia, por el principio de inducción matemática, la observación se cumple para cada n.

Ejemplo 8.3. Sea


W = {(1, 1, 1), (0, 1, 1), (0, 1, 1)} ⊆ R3 .
Con la notación del teorema 8.1, se obtendrá el conjunto ortogonal U utilizando las ecuaciones en 23.
Es fácil ver que el conjunto W es l.i., así que siguiendo el teorema 7, con w1 = (1, 1, 1), w2 = (0, 1, 1) y
(0, 1, 1), se tiene

u1 = w1 = (1, 1, 1).
hw , u i
u2 = w2 − 2 21 u1
ku1 k
h(0, 1, 1), (1, 1, 1)i
= (0, 1, 1) − (1, 1, 1)
k(1, 1, 1)k2
 
2 2 1 1
= (0, 1, 1) − (1, 1, 1) = − , , .
3 3 3 3

hw3 , u1 i hw , u i
u 3 = w3 − u1 − 3 22 u2
ku1 k2 ku2 k
  
2 1 1
(0, 0, 1), − , ,  
h(0, 0, 1), (1, 1, 1)i 3 3 3 2 1 1
= (0, 0, 1) − (1, 1, 1) −  2 − , ,
k(1, 1, 1)k2 
2 1 1 3 3 3
− , ,
3 3 3
 
1 1 2 1 1
= (0, 0, 1) − (1, 1, 1) − − , ,
3 2 3 3 3
 
1 1
= 0, − , .
2 2

Por lo tanto,     
2 1 1 1 1
U= (1, 1, 1), − , , , 0, − , . (24)
3 3 3 2 2

Nota 8.4. Para simplicar los cálculos en el proceso de ortogonalización de Gram-Schmidt es conveniente
introducir un paso extra intermedio entre cada paso del proceso y escalar cada vector resultante para eliminar
las fracciones. Por lo tanto, con la notación del ejemplo 8.3, se puede reemplazar cada vector ui por un vector
vi = αui , donde α es un escalar adecuado, sin que se afecte la conclusión del teorema 7.

25
 
2 1 1
De este modo, ya que u2 = − , , , se hace v2 = (−2, 1, 1) y
3 3 3

h(0, 0, 1), (1, 1, 1)i h(0, 0, 1), (−2, 1, 1)i


u3 = (0, 0, 1) − 2
(1, 1, 1) − (−2, 1, 1)
k(1, 1, 1)k k (−2, 1, 1) k2
1 1
= (0, 0, 1) − (1, 1, 1) − (−2, 1, 1)
 3
 6
1 1
= 0, − , .
2 2

Por último, si se hace v3 = (0, −1, 1), entonces, claramente, U 0 = {v1 , v2 , v3 } es un conjunto ortogonal tal que
gen (U 0 ) = gen (U ).

Teorema 8.5. (Existencia de bases ortonormales.)


Sea V un e.v. distinto del e.v. cero, de dimensión nita y con p.i. Entonces V tiene una base ortonormal B.
Más aún, si B = {v1 , v2 , ..., vn } y v ∈ V , entonces
v = hv, v1 i v1 + hv, v2 i v2 + ... + hv, vn i vn .

Proof. Sea B1 una base del e.v. V . A través del proceso de ortogonalización de Gram-Schmidt (teorema 8.1)
se obtiene un conjunto ortogonal B2 se obtiene un conjunto formado por vectores distintos del vector cero y tal
que gen (B2 ) = gen (B1 ) = V . Al normalizar cada vector en el conjunto B2 se obtiene la base ortonormal B de
V buscada.
La parte nal del teorema es consecuencia del corolario 5.6.

Ejemplo 8.6. El conjunto


W = {(1, 1, 1), (0, 1, 1), (0, 1, 1)} ⊆ R3 .
es una base de R3 ya que éste es l.i. En el ejemplo 8.3, utilizando el proceso de ortogonalización de Gram-Schmidt
se obtuvo el conjunto ortogonal
U 0 = {(1, 1, 1), (−2, 1, 1), (0, −1, 1)}
tal que gen (U 0 ) = gen (W ) = R3 . Si se normaliza cada vector del conjunto U 0 se obtiene la base ortonormal
B = {v1 , v2 , v3 } de R3 , donde
1 1 1
v1 = √ (1, 1, 1), v2 = √ (−2, 1, 1) y v3 = √ (0, −1, 1).
3 6 2

Más aún, para cada (x, y, z) ∈ R3 ,

x+y+z −2x + y + z −y + z
(x, y, z) = √ (1, 1, 1) + √ (−2, 1, 1) + √ (0, −1, 1).
3 6 2
Sean u y v, con v 6= 0, vectores en un espacio vectorial V . En el inciso 3 de la observación 4.2 se introdujo
la descomposición ortogonal del vector u en términos de la proyección ortogonal de u sobre v:

u = Proyv u + Perpv u. (25)

El siguiente teorema generaliza la ecuación 25 a cualquier subespacio de dimensión nita de V .

Teorema 8.7. (Teorema de descomposición ortogonal.)


Sea U un s.v. de dimensión nita de un e.v. V con p.i., y sea v ∈ V . Entonces, existen únicos vectores u∈U
y w ∈ U⊥ tales que v = u + w. Más aún, si B = {u1 , u2 , ..., un } es una base ortonormal del subespacio U,
entonces
u = hv, v1 i v1 + hv, v2 i v2 + ... + hv, vn i vn . (26)

Proof. Sea v∈ V , B = {u1 , u2 , ..., un } una base ortonormal del s.v. U , u ∈ V denido como en 26, y sea
w = v − u. Claramente u ∈ U y v = u + w.

26
Para demostrar que w ∈ U ⊥ , por el inciso 3 del ejercicio 6.5, basta mostrar que hw, ui i = 0, para cada
i = 1, 2, ..., n. Para cada 1 ≤ i ≤ n, se tiene

hw, ui i = hv − u, ui i
= hv − hv, v1 i v1 + hv, v2 i v2 + ... + hv, vn i vn , ui i
= hv, ui i − hhv, v1 i v1 + hv, v2 i v2 + ... + hv, vn i vn , ui i
= hv, ui i − hv, ui i hui , ui i
= hv, ui i − hv, ui i
= 0.

Por lo tanto, w ∈ W ⊥ .
Ahora se probará la unicidad de los vectores u y w. Suponga que u0 ∈ U y w0 ∈ U ⊥ satisfacen que
v = u + w = u0 + w0 . Entonces u − u0 = w0 − w ∈ U ∩ U ⊥ = {0} (ver inciso 1 del ejercicio 6.5). De donde,
u − u0 = 0 = w − w0 , esto es, u = u0 y w = w0 . En consecuencia, los vectores u ∈ U y w ∈ U ⊥ tales que
v = u + w, son únicos.
Denición 8.8. (Proyección ortogonal sobre un subespacio.)
Sea U un s.v. de un e.v. V con p.i., y sea {u1 , u2 , ..., un } una base ortonormal del subespacio U . Para cualquier
vector v en V se dene la proyección de v sobre U como

ProyU v = hv, u1 i u1 + hv, u2 i u2 + ... + hv, un i un . (27)

El vector perpendicular a U asociado al vector v se dene como

PerpU v = v − ProyU v.
Observación 8.9. Referente al teorema 8.7: la unicidad de los vectores u ∈ U y w ∈ U ⊥ permite concluir
que la denición de los vectores ProyU v y PerpU v no depende de la elección de la base B del subespacio U .

Para cada i = 1, 2, ..., n, cada sumando en la ecuación


27 es la proyección del vector v sobre el vector ui . Por
lo tanto, con la notación de la denición anterior,

ProyU v = Proyu v + Proyu v + ... + Proyu v.


1 2 n

Del inciso 2 de la observación 4.2, y puesto que el con-


junto {u1 , u2 , ..., un } es ortogonal, la proyección ortog-
onal del vector v sobre U es la suma de las proyec-
ciones de v sobre las rectas por el origen Ui = gen (ui )
(i = 1, 2, ..., n), ortgonales por pares. Por lo tanto

ProyU v = ProyU v + ProyU v + ... + ProyU v.


1 2 n

Ejemplo 8.10. Sea


W = (x, y, z) ∈ R3 | x − y + 2z = 0 ⊆ R3 ,


y sea v = (3, −1, 2). Se determina a continuación la proyección de v sobre el subespacio W .


En el ejercicio 5.9 se determinó la base
 
1 1
B1 = √ (1, 1, 0), √ (−1, 1, 1) .
2 3
Por lo tanto,

hv, (1, 1, 0)i hv, (−1, 1, 1)i


 
2 5 1 2
ProyW v = (1, 1, 0) + (−1, 1, 1) = (1, 1, 0) − (−1, 1, 1) = , ,−
2 3 3 3 3 3
y    
5 1 2 4 4 8
PerpW v = v − ProyW v = (3, −1, 2) − , ,− = ,− , .
3 3 3 3 3 3

27
 
5 1 2
ProyW ∈ W pues − +2 = 0, es decir, ProyW v satisface la ecuación x − y + 2z = 0. Así mismo
3 3 3
4
PerpW v ∈ W ⊥ ya que PerpW v = (1, −1, 2).
3
También se mostró en el ejercicio 5.9 que
  
1 5 1 2
B2 = √ (−2, 0, 1), √ , 1,
5 30 5 5

es una base ortonormal de W . Así

hv, (−2, 0, 1)i


    
5 1 2 1 2
ProyW v = (−2, 0, 1) + v, , 1, , 1,
5 6 5 5 5 5
 
4 1 1 2
= − (−2, 0, 1) + , 1, −
5 3 5 5
 
5 1 2
= , ,− .
3 3 3

En efecto: la proyección de v sobre W no depende de la base del subespacio W .

Con ayuda de la proyección, se puede generalizar el concepto de ángulo entre vectores a un subespacio.

Denición 8.11. (Ángulo entre un vector y un subespacio.)


Sea U un s.v. de un e.v. V con p.i., y sea v un vector en V \ {0}. Se dene el ángulo entre U y v, denotado
Ang (v, U ), como Ang (v, ProyU v). Es decir,

hv, ProyU vi
Ang (v, U ) = arccos .
kvkkProyU vk

En el estudio sobre las bases se demostró que cualquier subconjunto linealmente independiente de un espacio
vectorial de dimensión nita se puede extender a una base. El siguiente teorema muestra un análogo para un
subconjunto ortonormal de un espacio vectorial de dimensión nita y con producto interior.

Teorema 8.12. u u
Suponga que U = { 1 , 2 , ..., um } es un subconjunto ortonormal de un e.v. V de dimensión n
y con p.i. Entonces se cumple lo siguiente.

1. U se puede extender a una base ortonormal B = {u1 , u2 , ..., um , um+1 , ..., un } de V .

2. Si W = gen (U ), entonces B1 = {um+1 , um+2 ..., un } es una base de W ⊥ (utilizando la misma notación
del inciso anterior).

3. Si W es cualquier s.v. de V , entonces Dim (V ) = Dim (W ) + Dim W ⊥ .




28
Proof. 1. Al ser U un conjunto ortogonal, éste es un conjunto l.i., así que U se puede extender a una base de V
agregando vectores adecuados. Sean um+1 , vm+2 , ..., vn en V tales que B1 = {u1 , u2 , ..., um , um+1 , ..., un }
es una base de V . Ahora, note que si se utiliza el proceso de ortogonalización Gram-Schmidt con el
conjunto B1 , los primeros m vectores resultantes del proceso son precisamente los vectores u1 , u2 , ..., um
en U , según la observación 8.2; junto con los n − m vectores restantes que se obtienen del proceso, diga
1
wm+1 , wm+2 , ..., wn , dichos vectores forman una base, ortogonal, B2 de V . Si se hace ui = wi , para
kwi k
cada i = m + 1, m + 2, ..., n, el conjunto B = {u1 , u2 , ..., un } es una base ortonormal de V .

2. Para cada i = 1, 2, ..., m, note que hui , uj i = 0, para cada j = 1, 2, ..., m, por lo cual B0 es un subconjunto
del s.v. W ⊥ . Se prueba a continuación que el conjunto B0 es, de hecho, una base de W ⊥ .

(a) B0 es un conjunto l.i. ya que es un subconjunto de una base de V .


(b) gen (B0 ) = W ⊥ . Seaw ∈ W ⊥ . Entonces
w = hw, u1 i u1 + hw, u2 i u2 + ... + hw, un i un .
Pero, para cada i = 1, 2, ..., m, hw, ui i = 0 ya que w ∈ W ⊥ y ui ∈ W . De donde

w = hw, um+1 i um+1 + hw, um+2 i um+2 + ... + hw, un i un ∈ gen W ⊥ .




De lo anterior se concluye que B0 es una base de W ⊥ .

3. Sea W un subespacio de V . Éste es un subespacio de dimensión nita pues V lo es, así que W tiene una
base ortonormal. Sea {u1 , u2 , ..., um } una base ortonormal de W . Segun los incisos 1 y 2,

Dim (V ) = n = m + (n − m) = Dim (W ) + Dim W ⊥ .




 
1 1
Ejemplo 8.13. Conservando la notación del teorema 8.7, sea U = √ (1, 2, 1), √ (1, −1, 1) ⊆ R3 y
6 3
W = gen (U ). Entonces, como
e1 e2 e3
 

(1, 2, 1) × (1, −1, 1) =  1 2 1  = (3, 0, −3),


1 −1 1
 
1 1 1
B = √ (1, 2, 1), √ (1, −1, 1), √ (3, 0, −3)
6 3 3 2
 
1
es una base ortonormal de R3 y W ⊥ = gen √ (3, 0, −3) .
3 2
El anterior resutado también se podía deducir observando que (1, 0, −1) ∈ W ⊥ y que, por el inciso 3 del


teorema anterior, Dim W = 3 − 2 = 1.
Una de las aplicación más últiles del proceso de ortogonalización de Gram-Schmidt es determinar una base
ortonormal de un espacio vectorial que contenga un vector especíco o dado.
Ejercicio 8.14. Encuentra una base ortonormal de R3 a partir del vector (1, 2, 3).
Solución 8.15. Sea u = (1, 2, 3).
1. Sea v = (−2, 1, 0) y
e1 e2 e3
 

w = u × v =  1 2 3  = (−3, −6, 5).


−2 1 0
Entonces
hu, vi = (1)(−2) + (2)(1) + (3)(0) = 0
hu, wi = (1)(−3) + (2)(−6) + (3)(5) = 0
hv, wi = (−2)(−3) + (1)(−6) + (0)(5) = 0
y √ √ √
kuk = 14, kvk = 5, kwk = 70.
Con lo anterior en cuenta, se sigue que
 
1 1 1
B1 = √ (1, 2, 3), √ (−2, 1, 0), √ (−3, −6, 5)
14 5 70
es una base ortonormal de R3 .

29
2. A continuación se encuentra una base B de R3 que contiene al vector u siguiendo las ideas que aparecen
en la demostración del inciso 1 del teorema 8.12.
Primero se encuentra cualquier base de R3 que contenga al vector u. Si se toma

e2 = (0, 1, 0) y e3 = (0, 0, 1),


el conjunto B1 = {u, e2 , e3 } es una base de R3 ya que es un conjunto l.i. En efecto: basta observar que el
determinante
1 2 3
0 1 0 = 1 6= 0,
0 0 1
así que cualquier representación del vector cero como c.l. de los vectores u, e2 y e3 será trivial.
Se aplica ahora el proceso de ortogonalización de Gram-Schmidt al conjunto B1 para obtener el conjunto
ortogonal B2 = {u, v2 , v3 }, donde

hu, e2 i
 
2 1 5 3
w2 = e2 − u = (0, 1, 0) − (1, 2, 3) = − , ,−
kuk2 14 7 7 7

y v2 = (−1, 5, −3), y
hu, e3 i hv , e i
 
3 3 3 1
w3 = e3 − u − 2 32 v2 = (0, 0, 1) − (1, 2, 3) + (−1, 5, 3) = − , 0, ,
kuk2 kv2 k 14 35 10 10

por lo que v3 = (−3, 0, 1).


Por último se hace
1 1 1 1 1 1
u1 = u = √ (1, 2, 3), u2 = v2 = √ (−1, 5, −3) y u3 = v3 = √ (−3, 0, 1),
kuk 14 kv2 k 35 kv3 k 10

para obtener la base ortonormal B = {u1 , u2 , u3 } de R3 .

Ejercicio 8.16. Sea U un s.v. de dimensión nita de un e.v. V con p.i. Demostrar que

⊥ ⊥

1. U = U.
2. V = U ⊕ U ⊥.
Solución 8.17.
x ∈ U y u ∈ U ⊥ . Entonces, hx, ui = 0, lo cual implica que x ∈ U ⊥ ⊥ . Por lo tanto U ⊆ U ⊥ ⊥ .
 
1. Sea
Sea x ∈ U ⊥ . Por el teorema 8.7 existen únicos vectores u ∈ U y w ∈ U ⊥ tales que x = u + w.
⊥

Ahora bien,
hx, wi = hu + w, wi = hu, wi + hw, wi = 0 + kwk2 = kwk2 .

De donde, w = 0. Luego, x = u ∈ U . Por lo tanto, U ⊥


⊥
⊆ U.
⊥ ⊥

Con lo anterior en cuenta se consluye que U = U.
2. Del teorema 8.7 V = U + U ⊥ y del inciso 1 del ejercicio 6.5 U ∩ U ⊥ = {0}. Por lo tanto V = U ⊕ U ⊥ .

Ejercicio 8.18. Sea V un e.v. con p.i., y sea B = {u1 , u2 , ..., un } un subconjunto ortonormal de V .

1. Demostrar que para cualquier v ∈ V , se tiene


kvk ≥ | hv, u1 i |2 + | hv, u2 i |2 + ... + | hv, un i |2 .

(Esta desigualdad se llama desigualdad de Bessel.)


2. En el contexto del inciso anterior, demostrar que la desigualdad de Bessel es una igualdad si, y sólo si,
v ∈ gen (B).
Solución 8.19. Sea v ∈ V , y sea U = gen (B).
Proof. 1. Del teorema 8.7, se sabe que existen vectores u∈U y w ∈ U⊥ tales que v = u + w. Más aún,

u = hv, u1 i u1 + hv, u2 i u2 + ... + hv, un i un .

30
Note que al ser B un conjunto ortonormal,
kuk2 = k hv, u1 i u1 k2 + k hv, u2 i u2 k2 + ... + k hv, un i un k2
por el teorema de Pitágoras.
Así,
kvk2 = kuk2 + kwk2
≥ kuk2
= k hv, u1 i u1 + hv, u2 i u2 + ... + hv, un i un k2
= k hv, u1 i u1 k2 + k hv, u2 i u2 k2 + ... + k hv, un i un k2
= | hv, u1 i |2 ku1 k2 + | hv, u2 i |2 ku2 k2 + ... + | hv, un i |2 kun k2
= | hv, u1 i |2 + | hv, u2 i |2 + ... + | hv, un i |2 .

2. La desigualdad de Bessel es una igualdad si, y sólo si, kvk2 = kuk2 , lo cual ocurre si, y sólo si
kuk2 = kvk2 = kuk2 + kwk2 .
De donde, kvk2 = kuk2 si, y sólo si, kwk = 0, esto es, si, y sólo si, w = 0. Por lo tanto la desigualdad de
Bessel es una igualdad si, y sólo si, v = u ∈ U = gen (B).

Ejercicio 8.20. Sean p1 = (x1 , y1 , z1 ), p2 = (x2 , y2 , z2 ) y p3 = (x3 , y3 , z3 ) vectores en R3 .


1. Dena los vectores uz , vz y wz como sigue:
uz = ProyXY p1 , vz = ProyXY p2 y wz = ProyXY p3 .
Demostrar, que si Az denota el área del triángulo 4uz vz wz con vértices uz , vz y wz , entonces
 
x1 y1 1
1
Az = Det x2 y2 1 .
2
x3 y3 1

2. Con una notación análoga al inciso anterior, sea Ax y Ay el área del triángulo 4ux vx wx con vértices
ux , vx y wx , y del triángulo 4uy vy wy con vértices uy , vy y wy , respectivamente. Demostrar, que si A
denota el área del triángulo 4p1 p2 p3 con vértices p1 , p2 y p3 , entonces
A2 = A2x + A2y + A2z .
Además, se tiene
   
y1 z1 1 x1 z1 1
1 1
Ax = Det y2 z2 1 y Ay = Det x2 z2 1 .
2 2
y3 z3 1 x3 z3 1
Por lo tanto,
v  2  2  2
u
u y1 z1 1 x1 z1 1 x1 y1 1
1u
A = tDet y2 z2 1 + Det x2 z2 1 + Det x2 y2 1
2
y3 z3 1 x3 z3 1 x3 y3 1

Solución 8.21.
1. El triángulo 4ux vx wx tiene como dos de sus tres lados a los vectores
vz − uz = (x2 − x1 , y2 − y1 , 0) y wz − uz = (x3 − x1 , y3 − y1 , 0) .
Por lo tanto,
e1 e2 e3
 
 
1 1 1 x − x1 y2 − y1
Az = k (vz − uz ) × (wz − uz ) k = Det x2 − x1 y2 − y1 0 = Det 2 e3
2 2 2 x3 − x1 y2 − y1
x3 − x1 y2 − y1 0
1
= |(x2 − x1 ) (y3 − y1 ) − (x3 − x1 ) (y2 − y1 )|
2
1
= |x1 (y2 − y3 ) − y1 (x2 − x3 ) + x2 y3 − x3 y2 |
2  
x1 y1 1
1
= Det x2 y2 1 .
2
x3 y3 1

31
2. El triángulo 4p1 p2 p3 tiene como dos de sus tres lados a los vectores

p2 − p1 = (x2 − x1 , y2 − y1 , z2 − z3 ) y p3 − p1 = (x3 − x1 , y3 − y1 , z3 − z1 ) .
Por lo tanto,

e1 e2 e3
  2
1 1
A2 = k (p2 − p1 ) × (p3 − p1 ) k2 = Det x2 − x1 y2 − y1 z2 − z1 
4 4
x3 − x1 y2 − y1 z3 − z1
      2
1 y2 − y1 z2 − z1 x2 − x1 z2 − z1 x2 − x1 y2 − y1
= Det
y3 − y1 z2 − z1 1
e + x − x z − z e2 + x − x y − y e3
4 3 1 2 1 3 1 2 1
  2   2
1 y − y1 z2 − z1 1
= Det 2
y3 − y1 z2 − z1 1
e + Det xx2 − x1 z2 − z1
e2
4 4 3 − x1 z2 − z1
  2
1 x2 − x1 y2 − y1
+ Det
x3 − x1 y2 − y1
e3
4
= A2x + A2y + A2z .

Figure 8: A2 = A2x + A2y + A2z .

9 El determinante y la orientación.

Denición 9.1. (Triple producto escalar.)


Dados tres vectores u,v y w en R , el triple producto escalar de u, v y w, denotado [u, v, w], se dene por
3

[uvw] = hu, v × wi .

Nótese que expresiones como hu, vi × w no tienen signicado alguno, ya que hu, vi es un número real y el
producto vectorial es una operación entre pares de vectores de R3 .
Sean u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ) y w = (w1 , w2 , w3 ). El triple producto escalar [uvw] puede expresarse
en téminos de un determinante de 3 × 3:

[uvw] = hu, v × wi
= h(u1 , u2 , u3 ) , (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )i
v2 v2 v1 v1 v1 v2
= u1 − u2 + u3
w3 w3 w3 w3 w1 w2
u1 u2 u3
= v1 v2 v3 .
w1 w2 w3

32
Por lo tanto, si denota por (u v w) a la matriz 3 × 3 que tiene como columnas a los vectores u, v y w, esto es,
 
u1 v1 w1
(u v w) = u2 v2 w2  ,
u3 v3 w3

entonces [uvw] = Det (u v w).


Mediante un cálculo directo puede demostrarse que

[uvw] = hu, v × wi = hv, w × ui = hw, u × vi . (28)

En efecto:
u1 v1 w1 v1 w2 u3
hu, v × wi = u2 v2 w2 = v1 w2 u3 = hv, w × ui ,
u3 v3 w3 v1 w2 u3
donde se ha utilizado que el valor del determinante cambia en signo al intercambiar cualesquiera dos columnas.
Análogamente se prueba que hu, v × wi = hw, u × vi.
Como el producto interior tiene la propiedad conmutativa, la ecuación 28 puede reformularse como

[uvw] = hv × w, ui = hw × u, vi = hu × v, wi . (29)

La ecuación 28 muestra que el triple producto escalar no cambia por permutaciones cíclicas de los vectores:

[uvw] = [vwu] = [wuv]

y de la ecuación 29 se deduce que al expresar [uvw] se puede colocar la coma y la cruz en cualesquiera de las
dos posiciones: [uvw] = hu, v × wi = hu × v, wi.
Las propiedades de los determinantes dan lugar a las siguientes propiedades del triple producto escalar.

Teorema 9.2. (Propiedades del tripe producto escalar.)


Sean u, v y w vectores en R . El triple producto escalar de lso [uvw],
3
tres vectores, satisface las siguientes
propiedades.

1. Sea anula si se repite alguno de los vectores: [uuw] = 0.

2. Es cíclico: [uvw] = [vwu] = [wuv].

3. Cambia el signo al intercambiar dos de los vectores:

[uvw] = − [vuw] = − [uwv] = − [wvu] .

4. Se distribuye sobre la suma: [u + xvw] = [uvw] + [xvw], para todo x ∈ R3 .


5. Saca escalares: [αuvw] = α [uvw], para todo α ∈ R.

6. No cambia si se suma un múltiplo de un vector a alguno de los otros: [uv + αuw] = [uvw], para todo
α ∈ R.
El triple producto escalar puede usarse para describir la orientación de R3 , concepto que más adelante
se precisará y generalizará a cualquier espacio vectorial de dimensión nita. Si {u, vw} ⊆ R3 es un conjunto
ortogonal (y por lo tanto una base de R3 ) y [uvw] > 0, entonces se dice que u, v y w es una terna positivamente
orientada. Por ejemplo, los vectores e1 , e2 y e3 de la base canónica forman una terna positivamente orientada,
ya que
[e1 e2 e3 ] = he1 , e2 × e3 i = he1 , e1 i = 1 > 0.
Ya se ha admitido que los vectores canónicos e1 , e2 , e3 forman un sistema cuyo movimiento va contrario al de
las manecillas del reloj. Se ha convenido, pues, que la orientación contraria a las mencillas del reloj se tomará
comop orientación positiva. Por lo tanto, si u, v y w forman una terna positivamente orientada de vectores
π
mutuamente ortogonales, la rotación de v a w de un ángulo igual a aparece como si fuera contraria a la de
2
las manecillas del reloj cuando se ve desde u.
La noción de terna orientada puede extenderse a cualquier base B = {u, v, w} de R3 (sin que necesariamente
B sea un conjunto rotogonal): la terna u, v, w constituye una terna positivamente orientada si [uvw] > 0.
Considere ahora la terna v × w, v, w, donde v y w son vectores l.i. Entonces

[(v × w) vw] = hv × w, v × wi = kv × wk2 > 0.

33
Como se ha supuesto que la orientación contraria a las manecillas del reoj es la orientación positiva, se tiene
que el giro de un ángulo igual a θ ∈ (0, π) de v a w parece contraria al movimiento de las manecillas del reloj
cuando se ve desde v × w.
Para obtener una interpretación geométrica de una terna arbitraria positivamente orientada u, v, w, dena
Π = gen (v, w). Como
[uvw] = hu, v × wi = kv × wkCompv×w u,
la orientación positiva implica que Compv×w u > 0, y, por lo tanto, Proyv×w u y v × w apuntan en la misma
dirección. Es decir, si u, v y w forman una terna positivamente orientada, u y v × w se encuentran a un mismo
lado del plano Π (gura 9).

Figure 9: Terna de vectores positivamente orientada.

Nota 9.3. Se pudo haber tomado como orientación positiva la orientación contraria a las manecillas del reloj.
Si se hubiese hecho tal elección, la única cosa que habría cambiado habrían sido las guras dibujadas. Por
ejemplo, si los vectores v y w son vectores l.i., la rotación de v a w de un a«gulo 0 < θ < π habría parecido
tener igual dirección que la de las manecillas del reloj cuando es vista desde v × w.

Si la terna de vectores u, v, w en R3 está positivamente orientada, el triple producto escalar [uvw] es el


volumen del paralelepípedo de lados u, v y w:
Para formalizar el concepto de volumen en R3 , primero se dene un paralelepípedo de lados u, v y w.

Denición 9.4. (Paralelepípedo.)


Sean u, v y w vectores no cero en un e.v. V. Se dene el paralelepípedo con lados u, v y w, el cual se
denota Π (u, v, w), como el conjunto

Π (u, v, w) = {αu + β v + γ w ∈ V | α, β, γ ∈ [0, 1]} .

(Ver gura 10.)

En geometría elemental, el volúmen de un paralelepípedo es igual al producto del área de su base por su
altura. La base es un paralelogramo de lados v y w, y, por tanto, en R3 , su base es igual a kv × wk. Ahora
bien, la altura es exactamente Compv×w u. De donde, el volúmen del paraleleípedo Π (u, v, w) en R3 es

kv × wkCompv×w u = hu, v × wi = [u, v, w] .

Si [u, v, w] < 0, entonces − [u, v, w] es el volúmen del paralelepípedo Π (u, v, w) generado por los vectores
u, v y w en R3 . Esto motiva la siguiente denición.
Denición 9.5. (Volúmen de un paralelepípedo en R3 .)
Sean u, v y w vectores no cero en R . El volúmen del paralelepípedo Π (u, v, w), V (u, v, w),
3
denotado es

V (u, v, w) = [u, v, w] . (30)

34
Figure 10: Paralelepípedo generado por los vectores u, v y w.

Figure 11: Volumen del paralelepípedo generado por los vectores u, v y w.

Sea ϕ = Ang(u, v × w). Entonces

hu, v × wi = kukkv × wk cos(ϕ).

Por lo tanto, el volumen del paralelepípedo Π (u, v, w) es

V (u, v, w) = A(v, w)kuk| cos(ϕ)|.

Ahora se probará que el triple producto escalar proporciona una forma conveniente para comprobr la de-
pendencia o independencia lineal de tres vectores en R3 .

Teorema 9.6. (Criterio de independencia lineal de tres vectores en R3 .)


Tres vectores u, v y w en R son l.i. si, y sólo si, [u, v, w] 6=.
3

Proof.(Ida.) Se prueba primero que si u, v y w son l.d. entonces [u, v, w] = 0. Considere dos casos:
Caso 1. Si v y w son l.d., u, v y w son l.d. Pero, entonces, el producto vectorial u × v = 0, por lo cual

[u, v, w] = hu, v × wi = hu, 0i = 0.

Caso 2. Si v y w son l.i., mientras que u, v y w son l.d., entonces u = αv + β v para ciertos números reales
α y β . De donde, como tanto v como w son, ambos, ortogonales al vector v × w

[u, v, w] = hu, v × wi = α hv, v × wi + β hw, v × wi = α · 0 + β · 0 = 0.

(Regreso.) Recíprocamente, suponga [u, v, w] = 0. Entonces el vector v × w es ortogonal al vector u pues


hu, v × wi = 0. Además, el vector v × w es ortogonal al vector v, así que los vectores v × w y u × v son l.d.
(inciso 1, ejercicio 7.7). Considere dos casos:
Caso 1. Si u × v = 0, entonces u y v son l.d., y, por tanto, u, v y w son l.d.

35
Caso 2. Si u × v 6= 0, entonces, para algún α ∈ R, v × w = αu × v = (αu) × v. De donde, reordenando,
se tiene v × w + v × (αu) = 0, o bien, v × (w + αu) = 0. Por lo tanto los vectores v y w + αu son paralelos.
Pero v 6= 0 (pues u × v 6= 0), así que, para algún β ∈ R, w + αu = −β v, esto es, αu + β v + w = 0. Lo cual
demuestra que u, v y w son l.d.

Como se ha señalado antes, el valor absoluto del triple prodcuto escalar [u, v, w] es el volumen del par-
alelepípedo Π (u, v, w) con aristas u, v, w, y es claro, geométricamente, que este volumen es cero si, y sólo sí,
los vectores u, v y w están en un mismo plano (i.e., son l.d.).

Ejemplo 9.7. ¾En R3 , son los vectores u = (1, 2, −2), v = (0, 3, 1) y w = (−1, 1, 3) linealmente dependientes?
Solución. Como
1 2 −2
[u, v, w] = 0 3 1
−1 1 3
3 1 0 1 0 3
=1 −2 −2
1 3 −1 3 −1 1
= 1(9 − 1) − 2(0 + 1) − 2(0 + 3)
= 0,

los vectores son l.d. En realidad, u = v − w.


Ejercicio 9.8. Sean u, v y w vectores en R3 , y dena x = u + v, y = v + w y z = u + w. Demostrar que

V (x, y, z) = 2 V (u, v, w) .

En general, dado un paralelepípedo Π, el volumen del paralelepípedo generado por las diagonales de las
caras de Π que tienen un vértice común, es igual al doble del volumen del paralelepípedo Π.

Solución 9.9. De las propiedades 1, 2, 4 y 6 del teorema 7.3, se sigue

V (x, y, z) = hu + v, (v + w) × (u + w)i
= hu + v, v × u + v × w + w × u + w × wi
= hu, v × ui + hu, v × wi + hu, w × ui + hv, v × ui + hv, v × wi + hv, w × ui
= hu, v × wi + hv, w × ui
= 2 hu, v × wi
= 2 V (u, v, w) .

Para terminar esta sección, se utilizará la fórmula 11 para calcular el volumen de un tetraedro en R3 .
Un tetraedro es un poliedro en el espacio con exactamente cuatro vértices (cuatro caras triangulares y seis
aristas). En geometría elemental, el volumen de un tetraedro es igual a un tercio del área de la base por la
altura. Con esto en cuenta, considere el tetraedro con vértices 0, u, v y w, donde los últimos tres forman una
terna positivamente orientada de vectores en R3 (ver gura 12).

36
Figure 12: Tetraedo generado por lo vectores u, v y w.

La base es un triángulo de lados v y w y su área es exactamente la mitad del área del paralelogroamo
1
generado por u y v. De donde el área de la base es kv × wk. La altura es, por tanto, Compv×w u y el volumen
2
del tetraedro es  
1 1 1
kv × wk Compv×w u = [uvw] .
3 2 6

Figure 13: El volumen de un tetraedro es un sexto del volumen del paralelogramo generado por tres de los lados
del tetraedo.

Lo anterior motiva la siguiente denición.

Denición 9.10. (Tetraedro.)


Sean p1 , p1 , p2 y p4 vectores linealmente independientes en un e.v. V. Se dene el
tetraedo con vértices p1 , p2 , p3 y p4 , denotado 4p1 p2 p3 p4 , como la únión de los
triángulos 4p1 p2 p3 , 4p1 p2 p4 , 4p1 p3 p4 y 4p2 p3 p4 .
En R , se dene el volumen del tetraedro 4p1 p2 p3 p4 como
3

1
V (p2 − p1 , p3 − p1 , p4 − p1 ) .
6

37
Ejemplo 9.11. Sean a, b, c y d números reales distintos de cero, y sea

X = {(x, y, z) ∈ R | ax + by + cz + d = 0} .
Observe que las intersecciones del conjunto X con los ejes X , Y y
Z son
     
d d d
ux = − , 0, 0 , uy = 0, − , 0 y uz = 0, 0, − ,
a b c
(31)
respectivamente. Por lo tanto, el volumen del tetraedro generado
por los vectores ux , uy y uz es

d
 
− 0 0
a
1 d3
 
1 1 d
V (ux , uy , uz ) =
 
Det  0 − 0  = 6 abc .
6 6  b
 d
0 0 −
c
Observación 9.12. Note que
X = uz + gen (ux − uz , uy − uz ) ,
es decir, el conjunto X representa al plano por el punto uz generado por los vectores ux − uz y uy − uz . Se ha
calculado, pues, el volumen del tetraedro que se obtiene de intersecar el plano X con los ejes coordenados.

38

También podría gustarte