0% encontró este documento útil (0 votos)
130 vistas239 páginas

Notas de Aula Roberto

Este documento presenta un resumen de los principales temas de álgebra lineal. Incluye secciones sobre espacios vectoriales, subespacios, conjuntos generadores, bases y dimensión, transformaciones lineales, autovalores y autovectores, matrices semejantes y diagonalización, y la forma canónica de Jordan. El documento proporciona definiciones, teoremas y ejercicios de práctica para cada uno de estos importantes conceptos del álgebra lineal.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
130 vistas239 páginas

Notas de Aula Roberto

Este documento presenta un resumen de los principales temas de álgebra lineal. Incluye secciones sobre espacios vectoriales, subespacios, conjuntos generadores, bases y dimensión, transformaciones lineales, autovalores y autovectores, matrices semejantes y diagonalización, y la forma canónica de Jordan. El documento proporciona definiciones, teoremas y ejercicios de práctica para cada uno de estos importantes conceptos del álgebra lineal.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 239

1

ÁLGEBRA LINEAL
Dr. Roberto Alonso Roque Núñez
2
Índice general
***

1. Espacios Vectoriales 7
1.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Ejercicios propuestos: Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . 17
1.3. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4. Ejercicios propuestos: Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . 23
1.5. Conjuntos Generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5.1. Combinación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5.2. Conjunto Generador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.6. Ejercicios propuestos: Conjuntos Generadores . . . . . . . . . . . . . . . . . . . . 33
1.7. Suma e Intersección de Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.7.1. Intersección de Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.7.2. Suma de Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.7.3. Suma Directa de Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.8. Ejercicios propuestos: Suma e Intersección de subespacios . . . . . . . . . . . . . . 49

2. Bases y Dimensión 51
2.1. Dependencia e Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.2. Ejercicios propuestos: Dependencia e Independencial Lineal . . . . . . . . . . . . . 57
2.3. Base de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.4. Dimensión de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.5. Ejercicios propuestos: Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . 66
2.6. Matriz cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.6.1. Vector de coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.6.2. Matriz Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.7. Ejercicios propuestos: Matriz cambio de base . . . . . . . . . . . . . . . . . . . . . 77

3. Transformaciones Lineales 81
3.1. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.2. Ejercicios propuestos: Transformaciones Lineales . . . . . . . . . . . . . . . . . . . 88
3.3. Composición de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 92
3.4. Ejercicios propuestos: Composición de Transformaciones Lineales . . . . . . . . . . 95
3.5. Núcleo e Imagen de una transformación lineal . . . . . . . . . . . . . . . . . . . . 97

3
4 ÍNDICE GENERAL

3.5.1. Núcleo de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . 97


3.5.2. Imagen de una transformación lineal . . . . . . . . . . . . . . . . . . . . . 98
3.5.3. Teorema de la Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.6. Ejercicios propuestos: Núcleo e Imagen . . . . . . . . . . . . . . . . . . . . . . . . 103
3.7. Transformaciones Lineales Invertibles . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.7.1. Transformación lineal inyectiva . . . . . . . . . . . . . . . . . . . . . . . . 106
3.7.2. Transformacion lineal sobreyectiva . . . . . . . . . . . . . . . . . . . . . . 108
3.7.3. Transformación lineal invertible . . . . . . . . . . . . . . . . . . . . . . . . 110
3.8. Ejercicios propuestos: Inversa de una Transformación Lineal . . . . . . . . . . . . 114
3.9. Representación Matricial de una transformación lineal . . . . . . . . . . . . . . . . 116
3.10. Ejercicios propuestos: Representación Matricial . . . . . . . . . . . . . . . . . . . 122

4. Autovalores y Autovectores 127


4.1. Autovalores y Autovectores de Matrices . . . . . . . . . . . . . . . . . . . . . . . . 127
4.1.1. Cálculo de Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.2. Multiplicidad algebraica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.3. Multiplicidad Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
4.3.1. Autoespacio asociado a autovalores . . . . . . . . . . . . . . . . . . . . . . 132
4.3.2. Multiplicidad geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.4. Autovectores y autovalores de Operadores Lineales . . . . . . . . . . . . . . . . . 137
4.5. Ejercicios propuestos: Autovalores y autovectores . . . . . . . . . . . . . . . . . . 141

5. Matrices Semejantes y Diagonalización 145


5.1. Matrices Semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5.2. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
5.2.1. Primer criterio de Diagonalización . . . . . . . . . . . . . . . . . . . . . . . 148
5.2.2. Segundo criterio de Diagonalización . . . . . . . . . . . . . . . . . . . . . . 150
5.2.3. Cálculo de la Matriz de paso . . . . . . . . . . . . . . . . . . . . . . . . . 151
5.3. Operadores lineales diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . 152
5.4. Ejercicios propuestos: Matrices Semejantes y Diagonalización . . . . . . . . . . . . 154
5.5. Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
5.6. Polinomio Minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
5.7. Tercer criterio de Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
5.8. Algoritmo en Octave/ MatLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
5.9. Ejercicios propuestos: Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . 163

6. Forma Canónica de Jordan 165


6.1. Teorema de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
6.2. Forma Canónica de Jordan (Caso n = 2) . . . . . . . . . . . . . . . . . . . . . . . 168
6.2.1. Subcasos: Diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
6.2.2. Subcaso: No diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
6.3. Forma Canónica de Jordan (Caso n = 3) . . . . . . . . . . . . . . . . . . . . . . . 171
6.4. Ejercicios Propuestos: Forma canónica de Jordan . . . . . . . . . . . . . . . . . . 186
ÍNDICE GENERAL 5

7. Espacios con Producto Interno 189


7.1. Producto Interno (Real) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
7.1.1. Formas Bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
7.2. Producto Interno Hermitiano (o Complejo) . . . . . . . . . . . . . . . . . . . . . . 194
7.2.1. Forma Sesquilineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
7.2.2. Ejercicios Propuestos: Espacios con producto interno . . . . . . . . . . . . 196
7.3. Proceso de Gram-Schmidt y Proyección Ortogonal . . . . . . . . . . . . . . . . . . 198
7.4. Proyección Ortogonal sobre vectores . . . . . . . . . . . . . . . . . . . . . . . . . 199
7.5. Proceso de Gram Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
7.6. Proyección Ortogonal sobre un subespacio H . . . . . . . . . . . . . . . . . . . . . 200
7.6.1. Ejercicios propuestos: Gram-Schmidt y proyección . . . . . . . . . . . . . . 201

8. Descomposición QR 203
8.0.1. Procedimiento para obtener la descomposición QR . . . . . . . . . . . . . 203
8.1. Algoritmo en Octave/ MatLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
8.2. Problema de Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
8.2.1. Definición del Problema de Mínimos Cuadrados . . . . . . . . . . . . . . . 207
8.2.2. Por Ecuaciones Normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
8.2.3. Por Descomposición QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208

9. Teorema Espectral y Formas Cuadráticas 217


9.1. Diagonalización Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
9.2. Formas Cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
9.2.1. Clasificación de una forma cuadrática . . . . . . . . . . . . . . . . . . . . . 223
9.3. Cónicas Inclinadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
9.3.1. Procedimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
9.4. Ejercicios propuestos: Diagonalización ortogonal y Formas cuadráticas . . . . . . . 234

Bibliografía 239
6 ÍNDICE GENERAL
Capítulo
1
Espacios Vectoriales
***

1.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7


1.2. Ejercicios propuestos: Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . 17
1.3. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4. Ejercicios propuestos: Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . 23
1.5. Conjuntos Generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5.1. Combinación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5.2. Conjunto Generador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.6. Ejercicios propuestos: Conjuntos Generadores . . . . . . . . . . . . . . . . . . . . 33
1.7. Suma e Intersección de Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.7.1. Intersección de Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.7.2. Suma de Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.7.3. Suma Directa de Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.8. Ejercicios propuestos: Suma e Intersección de subespacios . . . . . . . . . . . . . . 49

En este capítulo definiremos espacios vectoriales y estudiaremos algunas de sus propiedades


básicas como conjuntos generadores, sumas directas y dependencia lineal.

1.1. Espacios Vectoriales


Objetivo. Familiarizarnos con los primeros conceptos básicos del Álgebra Lineal como el de
espacios vectoriales.
Sea K el sistema de los números reales R o complejos C y sea V un conjunto no vacío en el
que existen dos operaciones:

(A) Adición:

v, w ∈ V → v + w ∈ V (Clausura para la suma) (1.1)

7
8 CAPÍTULO 1. ESPACIOS VECTORIALES

(M) Multiplicación por un escalar:

α ∈ K, v ∈ V → α · v ∈ V (Clausura para el producto por un escalar) (1.2)

α·v
w v+w

v v
Multiplicación por un escalar
Adición

Definición 1.1. Un conjunto V con un sistema de números K (reales o complejos) se denomina


Espacio Vectorial sobre K si además de satisfacer (1.1) y (1.2) también cumple los siguientes
axiomas:

(A1) Asociativa: Dados v, w, z ∈ V entonces

(v + w) + z = v + (w + z)

w w

v v+w z v w+z z

(v + w) + z v + (w + z)

(A2) Commutativa: Dados v, w ∈ V entonces

v+w =w+v

v
v+w
w
w
w+v
v

(A3) Existencia del Elemento Neutro Aditivo: Existe un elemento 0 ∈ V, llamado vector
nulo, tal que para todo v ∈ V,
v+0=v

(A4) Existencia del Inverso Aditivo: Dado cualquier v ∈ V, existe un elemento en V, deno-
tado por −v, tal que
v + (−v) = 0
1.1. ESPACIOS VECTORIALES 9

v
−v

(M1) Asociativa para la multiplicación: Para todos α, β ∈ K y v ∈ V, se tiene que


(α · β) · v = α · (β · v)

(M2) Neutro Multiplicativo: Si 1 es el elemento unidad en K, entonces para todo v ∈ V se


tiene que
1·v =v

(M3) Distributiva por la izquierda: Dados los escalares α, β ∈ K y el vector v ∈ V, entonces


α · (v + w) = α · v + α · w

α(v + w) αw αv + αw

v+w αv
w w
v v
(M4) Distributiva por la derecha: Dados el escalar α ∈ K y los vectores v, w ∈ V, entonces

(α + β) · v = α · v + β · v

Observación 1.2. Cuando K = R el espacio vectorial V se denomina espacio vectorial real.


Cuando K = C el espacio vectorial V se denomina espacio vectorial complejo.

Ejemplo 1.1.1:

Considere en el plano cartesiano V = R2 = {(x, y) : x, y ∈ R} las operaciones usuales:

(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
α · (x, y) = (αx, αy)

Verificaremos a seguir que V = R2 es un espacio vectorial real.

Solución. Veamos primero la validez de las propiedades de clausura (1.1) y (1.2):


(A) Clausura para la suma: Dados (x, y), (x0 , y 0 ) ∈ R2 . Tenemos que
(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ).
Como x + x0 , y + y 0 ∈ R, se tiene que (x, y) + (x0 , y 0 ) ∈ R2 .
10 CAPÍTULO 1. ESPACIOS VECTORIALES

(P) Clausura para el producto por un escalar: Dados α ∈ R y (x, y) ∈ R2 . Tenemos que
α(x, y) = (αx, αy).
Como αx, αy ∈ R, se sigue que α(x, y) ∈ R2 .
Ahora, verificaremos los axiomas que definen a un espacio vectorial:
(A1) Dados v, w, z ∈ R2 con v = (x, y), w = (x0 , y 0 ) y z = (x00 , y 00 ), entonces
(v + w) + z =(x + x0 .y + y 0 ) + (x00 , y 00 ) (definición)
=((x + x0 ) + x00 , (y + y 0 ) + y 00 ) (definición)
=(x + (x0 + x00 ), y + (y 0 + y 00 )) (asociativa números reales)
=(x, y) + ((x0 , y 0 ) + (x00 , y 00 )) (definición)
=v + (w + z) (definición)

(A2) Si u, v ∈ R2 con u = (x, y) y v = (x0 , y 0 ), entonces


u + v =(x + x0 , y + y 0 ) (definición)
=(x0 + x, y 0 + y) (conmutativa de números reales)
=v + u. (definición)

(A3) El elemento neutro en este caso es el vector 0 = (0, 0) ∈ R2 , ya que para todo v = (x, y) ∈
R2 , tenemos que
v + 0 =(x + 0, y + 0) (definición)
=(x, y) (elemento neutro de números reales)
=v.

(A4) Dado v = (x, y) ∈ R2 . Tenemos que el inverso aditivo es dado por −v = (−x, −y), ya que
se satisface que
v + (−v) =(x, y) + (−x, −y) (definición)
=(x + (−x), y + (−y)) (definición)
=(0, 0) (inverso aditivo en los números reales)
=0.

(M1) Dados α, β ∈ R y v = (x, y) ∈ R2 . Tenemos que


α · (β · v) =α · (βx, βy) ( definición)
= (α(βx), α(βy)) ( definición)
=((αβ)x, (αβ)y) ( asociativa de números reales )
=(αβ) · v ( definición producto).
1.1. ESPACIOS VECTORIALES 11

(M2) Sabemos que 1 representa el elemento identidad para la multiplicación de los números
reales. Dado v = (x, y) ∈ R2 . Tenemos que
1 · v =(1x, 1y) ( definición)
=(x, y) ( propiedad de neutro del “1”)
=v.

(M3) Dados α ∈ R y v, w ∈ R2 con v = (x, y) y w = (x0 , y 0 ). Se tiene que


α · (v + w) =α(x + x0 , y + y 0 ) ( definición suma vectorial)
=(α(x + x0 ), α(y + y 0 )) ( definición producto)
=(αx + αx0 , αy + αy 0 ) (distributiva de números reales)
=(αx, αy) + (αx0 , αy 0 ) ( definición suma vectorial)
=αv + αw (definición producto)

(M4) Dados α, β ∈ R y v = (x, y) ∈ R2 . Se tiene que


(α + β) · v =((α + β)x, (α + β)y) ( definición producto)
=(αx + βy, αx + βy) ( distribuiva de números reales)
=(αx, αy) +V (βx, βy) ( definición suma vectorial)
=α · v + β · v. ( definición producto)

Ejemplo 1.1.2: Espacio Euclideano

El conjunto V = R3 = {(x, y, z) : x, y, z ∈ R}, con las operaciones usuales

(x, y, z) + (x0 , y 0 , z 0 ) = (x + x0 , y + y 0 , z + z 0 )
α · (x, y, z) = (αx, αy, αz)

es un espacio vectorial real, denominado Espacio Euclideano 3-dimensional.

En general, el conjunto

V = Rn = {(x1 , x2 , ..., xn ) : xi ∈ R, i = 1, 2, ..., n}

con las operaciones usuales

(x1 , x2 , ..., xn ) + (y1 , y2 , ..., yn ) = (x1 + y1 , x2 + y2 , ..., xn + yn )


α · (x1 , x2 , ..., xn ) = (αx1 , αx2 , ..., αxn )

es un espacio vectorial real, denomiando Espacio Euclideano n-dimensional.


12 CAPÍTULO 1. ESPACIOS VECTORIALES

Ejemplo 1.1.3: Espacio de Polinomios de grado ≤ k

Sea Pk [x] el conjunto de los polinomios de grado menor o igual a k, es decir,


n o
Pk [x] = p(x) = a0 + a1 x + ... + ak−1 xk−1 + ak xk : ai ∈ R, ∀i = 1, 2, ..., k

Este conjunto es un espacio vectorial real con las operaciones usuales de


Adición:
   
a0 + a1 x + ... + ak xk + b0 + b1 x + ... + bk xk = (a0 + b0 ) + (a1 + b1 )x + ... + (ak + bk )xk

y Multiplicación por un escalar:


 
λ · a0 + a1 x + ... + ak xk = λa0 + λa1 x + ... + λak xk

Ejemplo 1.1.4: Espacio de Matrices

Sea Mm×n (R) el conjunto de las matrices de entradas reales de tamaño m × n, es decir,
 
· · · a1n
 

 a11 a12 

· · · a2n 
 
 a21 a22

 


Mm×n (R) = A = 
 .. .. .. . 
..  : aij ∈ R, ∀i = 1, ..., m, ∀j = 1, ..., n

  . . .  


 
am1 am2 · · · amn
 

Tenemos que este conjunto es un espacio vectorial real con las siguientes operaciones usua-
les:
Adición
· · · a1n · · · b1n ···
     
a11 a12 b11 b12 a11 + b11 a12 + b12 a1n + b1n
 a21

a22 · · · a2n   b21 b22
 
· · · b2n   a21 + b21 a22 + b22
 
··· a2n + b2n 

+ . =
 . .. ..  .. ..  .. .. ..
 . ... 
... 
... 
 . . .   .. . .   . . .


am1 am2 · · · amn bm1 bm2 · · · bmn am1 + bm1 am2 + bm2 · · · amn + bmn

y la multiplicación por un escalar

· · · a1n · · · λa1n
   
a11 a12 λa11 λa12
 a21

a22 · · · a2n   λa21 λa22
 
· · · λa2n 

λ·
 .. .. ...  =  ..
..   .. ... .. 
 . . .  . . . 


am1 am2 · · · amn λam1 λam2 · · · λamn
1.1. ESPACIOS VECTORIALES 13

Ejemplo 1.1.5: Espacio de Funciones

Sea X un conjunto arbitrário y sea F(X, R) el conjunto de funciones de X en R, esto es,

F(X, R) = {f : X → R/f es una función real definida en X}

Este conjunto es un espacio vectorial real con las operaciones usuales:

(f + g)(x) = f (x) + g(x)


(λ · f )(x) = λf (x)

Ejemplo 1.1.6:
Si en cada uno de los ejemplos anteriores cambiamos R por C obtenemos los siguientes
espacios vectoriales complejos:

1. C2 = {(z, w) : z, w ∈ C}

2. Cn = {(z1 , z2 , ..., zn ) : zi ∈ R, i = 1, 2, ..., n}


n o
3. Pk [x] = p(x) = a0 + a1 x + ... + ak−1 xk−1 + ak xk : ai ∈ C, ∀i = 1, 2, ..., k
 
· · · a1n
 

a11 a12 

· · · a2n 
 
 a21 a22

  

4. Mm×n (C) = A = 
 .. .. .. :
..  ij
 a ∈ C, ∀i = 1, ..., m, ∀j = 1, ..., n

  .
 . . .  


 
am1 am2 · · · amn
 

5. F(X, C) = {f : X → C/f es una función compleja definida en X}

Como consecuencia de los axiomas que definen a un espacio vectorial tenemos las siguientes
propiedades:

Proposición 1.3 (Propiedad Cancelativa de la Adición). Sea V un espacio vectorial y sean


u, v, w ∈ V. Entonces valen las siguientes propiedades:

(a) Si w + u = w + v entonces u = v.

(b) Si w + u = w entonces u = 0.

(c) Si w + u = 0 entonces u = −w.

Demostración.
14 CAPÍTULO 1. ESPACIOS VECTORIALES

(a) Suponga que w+u = w+v. Sumando el vector −w a ambos lados de la igualdad mencionada,
obtenemos que
−w + (w + u) = −w + (w + v)
(−w + w) + u = (−w + w) + v (asociatividad)
0+u=0+v (inverso aditivo)
u=v (neutro aditivo)

(b) Suponga que w + u = w. Esta igualdad podemos escribirla como


w + u = w + 0.
Luego, por el item (a), tenemos que u = 0.
(c) Suponga que w + u = 0. Esta igualdad podemos escribirla como
w + u = w + (−w).
Nuevamente por el item (a), tenemos que u = −w.

Proposición 1.4. Sea V un espacio vectorial. Entonces valen las siguientes propiedades:
(a) Si v ∈ V entonces 0 · v = 0.
(b) Si α ∈ K entonces α · 0 = 0.
(c) Si α ∈ K y v ∈ V satisfacen que α · v = 0 entonces α = 0 ó v = 0.
(d) Si v ∈ V entonces (−1) · v = −v.
Demostración.
(a) Tenemos que
0 · v = (0 + 0) · v (por el hecho que 0 = 0 + 0)
0 ·
 v =0 ·
v+0·v (distributiva)
Aplicando la propiedad cancelativa (vea, Proposición 1.3 (b)), se obtiene que
0 · v = 0.

(b) Tenemos que


α · 0 = α · (0 + 0) (por el hecho que 0 = 0 + 0)
α
 ·0 =α·0+α·0 (distributiva)

De la propiedad cancelativa (vea, Proposición 1.3 (b)), se sigue que


α · 0 = 0.
1.1. ESPACIOS VECTORIALES 15

(c) Sean α ∈ K y v ∈ V tales que

α · v = 0.

Se sigue que

α−1 · (α · v) = α−1 · 0 (multiplicando ambos lados por α−1 )


α−1 · (α · v) = 0 (aplicando item (b))
(α−1 · α) · v = 0 (asociativa producto)
1·v =0 (inverso multiplicativo en números reales)
v=0 (neutro multiplicativo)

(d) Tenemos que

(−1) · v = (−1) · v + 0 (neutro aditivo)


= (−1) · v + (v + (−v)) (inverso aditivo)
= ((−1) · v + v) + (−v) (asociativa)
= ((−1) · v + 1 · v) + (−v) (neutro para producto)
= ((−1) + 1) · v + (−v) (distributiva)
= 0 · v + (−v) (inverso aditivo en números reales)
= 0 + (−v) (aplicando item (a))
= −v (neutro aditivo)

Ejemplo 1.1.7:
Pruebe que existe un único elemento neutro para la suma vectorial en cualquier espacio
vectorial.

Solución. Asuma que existe otro elemento neutro aditivo 0 ademas del 0. Tenemos que
0 = 0+0 (por ser 0 neutro aditivo)
= 0 (por ser 0 neutro aditivo)
Concluimos que, solo existe un elemento neutro aditivo para la adición vectorial.

Ejemplo 1.1.8:
Sea V un espacio vectorial y sea v ∈ V. Pruebe que solo existe un elemento inverso para
la adición vectorial.
16 CAPÍTULO 1. ESPACIOS VECTORIALES

Solución. Del axioma (A4), sabemos que −v ∈ V es el inverso aditivo de v. Ahora, suponga
que w ∈ V también es un inverso aditivo de v, es decir,
v + w = 0. (1.3)
Sumando el vector −v a ambos lados de (1.3), obtenemos
−v + (v + w) = −v + 0
(−v + v) + w = −v (asociatividad y neutro adtivito)
0 + w = −v (ya que − v es inverso aditivo de v)
w = −v (neutro aditivo).
Es decir, cualquiera que sea el inverso aditivo w del vector v, siempre se reduce al vector −v.
Concluimos que todo vector admite un único inverso aditivo.

Ejemplo 1.1.9:

Verifique las propiedades distributivas para el espacio vectorial M2×2 (R).

Solución. Veamos !la distributiva por


! la izquierda:
a1 b 1 a2 b 2
Dados A = ,B= ∈ M2×2 (R) y α ∈ R. Entonces,
c1 d 1 c2 d 2
!
a + a2 b 1 + b 2
α · (A + B) = α 1 (suma de matrices)
c1 + c2 d 1 + d 2
! !
α(a1 + a2 ) α(b1 + b2 ) multiplicación
=
α(c1 + c2 ) α(d1 + d2 ) por un escalar
!
αa1 + αa2 αb1 + αb2  
= distributiva en número reales
αc1 + αc2 αd1 + αd2
!
definición de adición
= αA + αB
y multiplicación
De manera similar se puede verificar
! la propiedad distributiva por la derecha:
a b
Dados α, β ∈ R y A = ∈ M2×2 (R). Entonces,
c d
! !
(α + β)a (α + β)b multiplicación
(α + β) · A =
(α + β)c (α + β)d por un escalar
!
αa + βa αb + βb  
= distributiva en número reales
αc + βc αd + βd
! !
αa αb βa βb  
= + suma matricial
αc αd βc βd
 
= αA + βA definición producto
1.2. EJERCICIOS PROPUESTOS: ESPACIOS VECTORIALES 17

1.2. Ejercicios propuestos: Espacios Vectoriales


1. Pruebe que existe un único elemento neutro para la suma vectorial en cualquier espacio
vectorial.

2. Si V es un espacio vectorial y v ∈ V, pruebe que solo existe un elemento inverso aditivo


para v.

3. En el conjunto C2 = {(z, w) : z, w ∈ C} considere las siguientes operaciones:

(z, w) + (z 0 , w0 ) = (z + z 0 , w + w0 ), ∀(z, w), (z 0 , w0 ) ∈ C2


α · (z, w) = (αz, αw), ∀α ∈ R, ∀(z, w) ∈ C2

Con estas dos operaciones verifique que el conjunto C2 es un espacio vectorial real.

4. En el conjunto V = {(x, y) ∈ R2 : x > 0, y > 0} defina las siguientes operaciones:

(x, y) + (x0 , y 0 ) = (xx0 , yy 0 ), ∀(x, y), (x0 , y 0 ) ∈ V


α · (x, y) = (xα , y α ), ∀α ∈ R, ∀(x, y) ∈ V

Con estas dos operaciones verifique que el conjunto V es un espacio vectorial real.

5. En el conjunto R2 = {(x, y) : x, y ∈ R} considere las siguientes operaciones:

(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ), ∀(x, y), (x0 , y 0 ) ∈ R2


α · (x, y) = (0, 0), ∀α ∈ R, ∀(x, y) ∈ V

Con estas dos operaciones verifique que el conjunto R2 es un espacio vectorial real.

1.3. Subespacios Vectoriales


La mayoría de espacios vectoriales son en realidad subconjuntos de espacios vectoriales mucho
mayores y universales. Estos subconjuntos representan una rica fuente de ejemplos de espacios
vectoriales con las mismas operaciones del espacio mayor.
Sea V un espacio vectorial, real o complejo. Un subconjunto W ⊂ V no vacío se dice un
subespacio vectorial de V si con las mismas operaciones de suma vectorial + y producto por un
escalar · inducidas por V, se tiene que W también es un espacio vectorial.
El siguiente resultado nos evita verificar todos los axiomas de la definición de espacio vectorial
con solo las clausuras.
Teorema 1.5. Si W ⊂ V es un subconjunto, entonces W es un subespacio vectorial de V si se
cumplen las siguientes condiciones:
1. 0V ∈ W (Pertenencia del elemento nulo),

2. u, v ∈ W entonces u + v ∈ W (Clausura para la suma),


18 CAPÍTULO 1. ESPACIOS VECTORIALES

3. α ∈ K y v ∈ W entonces α · v ∈ W (Clausura para el producto).


Observación 1.6 (Espacios triviales). Sea V un espacio vectorial entonces el conjunto confor-
mado por el elemento nulo W = {0} es un subespacio vectorial de V, denominado espacio nulo.
También, V es un subespacio de si mismo.

Ejemplo 1.3.1: Espacios triviales

Los conjuntos {(0, 0, 0)} y R3 son subespacios triviales de R3 .

Los conjuntos {0 + 0 · x} y P1 [x] son subespacios triviales de P1 [x].


( !)
0 0 0
Los conjuntos y M2×3 (R) son subespacios triviales de M2×3 (R).
0 0 0

Observación 1.7 (Rectas en el plano). Toda recta del plano R2 que pasa por el origen (0, 0) es
un subespacio vectorial de R2 .

Ejemplo 1.3.2: Rectas en el plano

Por la observación anterior, la recta {(x, y) ∈ R2 : y = 7x} es un subespacio vectorial


de R2 .

Por la observación anterior, la recta {(5t, −t) : t ∈ R} es un subespacio vectorial de


R2 .

Por la observación anterior, la recta {(x, y) ∈ R2 : 2(x − 5) = 2(y − 5)} es un


subespacio vectorial de R2 .

Observación 1.8 (Rectas en el espacio). Toda recta del espacio euclidiano R3 que pasa por el
origen (0, 0, 0) es un subespacio vectorial de R3 .

Ejemplo 1.3.3: Rectas en el plano

Por la observación anterior, la recta {(x, y, z) ∈ R3 : x + y − 5z = 0, 2x − 3y + z = 0}


es un subespacio vectorial de R3 .

Por la observación anterior, la recta {(3t, −6t, 5t) : t ∈ R} es un subespacio vectorial


de R3 .
x+10 y+4 z+6
Por la observación anterior, la recta {(x, y, z) ∈ R3 : 5
= 2
= 3
} es un
subespacio vectorial de R3 .

Observación 1.9 (Planos en el espacio). Todo plano del espacio R3 que pasa por el origen
(0, 0, 0) es un subespacio vectorial de R3 .
1.3. SUBESPACIOS VECTORIALES 19

Ejemplo 1.3.4: Rectas en el plano

Por la observación anterior, el plano {(x, y, z) ∈ R3 : x−4y−5z = 0} es un subespacio


vectorial de R3 .

Por la observación anterior, el plano {s(1, −3, 0) + t(2, 3, −1) : s, t ∈ R} es un subes-


pacio vectorial de R3 .

Por la observación anterior, el plano

{(x, y, z) ∈ R3 : x = s + t, y = 5s − t, z = 2s − 3t, s, t ∈ R}

es un subespacio vectorial de R3 .

Ejemplo 1.3.5: Matrices Simétricas

Verifique que el conjunto de matrices simétricas S = {A ∈ Mn×n (R) : AT = A} es un


subespacio vectorial de Mn×n (R).

Solución. Verifiquemos si valen las tres condiciones del Teorema 1.5:


(1) La matriz nula 0 ∈ S, ya que 0T = 0.

(2) Dados A, B ∈ S. Tenemos que

(A + B)T = AT + B T = A + B.

Luego,
A + B ∈ S.

(3) Dados λ ∈ R y A ∈ S. Tenemos que

(λA)T = λAT = λA.

Luego,
λA ∈ S.

Por tanto, S es un subespacio vectorial.

Ejemplo 1.3.6: Matrices Anti-simétricas

Verifique que el conjunto de matrices simétricas W = {A ∈ Mn×n (R) : AT = −A} es un


subespacio vectorial de Mn×n (R).

Solución. Verifiquemos si valen las tres condiciones del Teorema 1.5:


20 CAPÍTULO 1. ESPACIOS VECTORIALES

(1) La matriz nula 0 ∈ W , ya que 0T = 0 = −0.


(2) Dados A, B ∈ W . Tenemos que

(A + B)T = AT + B T = −A − B = −(A + B).

Luego,
A + B ∈ W.

(3) Dados λ ∈ R y A ∈ S. Tenemos que

(λA)T = λAT = λ(−A) = −λA.

Luego,
λA ∈ W.

Por tanto, W es un subespacio vectorial.

Ejemplo 1.3.7:

Diga si el plano W = {(x, y, z) ∈ R3 : 3x − y + 2z = 0} es un subespacio vectorial de R3

Solución. Verifiquemos si valen las tres condiciones del Teorema 1.5.


1. Como 3 · 0 − 0 + 2 · 0 = 0, se tiene que (0, 0, 0) ∈ W .
2. Dados v1 = (x1 , y2 , z2 ), v2 = (x2 , y2 , z2 ) ∈ W . Tenemos

3x1 − y1 + 2z1 = 0 ∧ 3x2 − y2 + 2z2 = 0

Reemplazando las coordenadas de v1 + v2 = (x1 + x2 , y1 + y2 , z1 + z2 ) en la ecuación del


plano:

3(x1 + x2 ) − (y1 + y2 ) + 2(z1 + z2 ) = (3x1 − y1 + 2z1 ) + (3x2 − y2 + 2z2 )


= 0+0
= 0,

luego v1 + v2 ∈ W .
3. Dados v = (x, y, z) ∈ W y α ∈ R. Reemplazamos las componentes de α · v = (αx, αy, αz)
en la ecuación del plano, tenemos

3(αx) − (αy) + 2(αz) = α(3x − y + 2z)


= 3(0)
= 0

luego, α · v ∈ W .
1.3. SUBESPACIOS VECTORIALES 21

Por lo tanto, W es un supespacio vectorial de R3 .

Ejemplo 1.3.8:

Considere el conjunto W = {(x, y) ∈ R2 : xy = 0}. ¿Es W un subespacio de R2 ?

Solución. Veamos si verifica las tres condiciones:

1. Tenemos que (0, 0) ∈ W pues 0 · 0 = 0.

2. La clausura para la suma no es válida. Para ello podemos considerar el siguiente contra-
ejemplo: Considere los vectores v = (1, 0) y w = (0, 1). Se tiene que v ∈ W y w ∈ W ,
pero
v + w = (1, 0) + (0, 1) = (1, 1) ∈
/W

Por lo tanto, W no es subespacio vectorial de R2 .

Ejemplo 1.3.9:

Determine si el conjunto W = {p(x) ∈ P1 [x] : p(1) − p(0) ≥ 0} es o no un subespacio de


P1 [x].

Solución. Veamos si son válidas las tres condiciones:

1. Tenemos que el vector nulo es θ(x) = 0 · x + 0 ∈ W porque

θ(1) − θ(0) = 0 − 0 = 0

2. No se cumple la clausura para el producto. Para ello considere el siguiente contraejemplo:


sea p(x) = x. Tenemos que

p(1) − p(0) = 1 − 0 = 1 > 0

Luego, p(x) ∈ W . Ahora, si tomamos α = −1, tenemos que

αp(x) = −x

y de aqui,
αp(1) − αp(0) = −1 − (−0) = −1 + 0 = −1 < 0.
De modo que, αp(x) ∈
/W

Por lo tanto, W no es subespacio vectorial de P1 [x].


22 CAPÍTULO 1. ESPACIOS VECTORIALES

Ejemplo 1.3.10:
Determine si el siguiente conjunto
( ! )
a a+1
W = A= : a, b ∈ R
0 b

es un subespacio de M2×2 (R).

Solución. Veamos si valen las tres condiciones:


1. El vector nulo de M2×2
! (R) no pertence al conjunto W : Para ello vamos a suponer que el
0 0
vector nulo θ = pertence al conjunto W . Esto implicaria que
0 0
! !
0 0 a a+1
= ,
0 0 0 b

el cual es equivalente a que al siguiente sistema:




 a = 0
a+1 = 0


b = 0

es compatible. Pero podemos observar que este sistema es incompatible. Esta contradicción
resultó de suponer que θ pertence al conjunto W . Asi concluímos que, θ no pertenece al
conjunto W .
De este modo, W no es subespacio de M2×2 (R).

Ejemplo 1.3.11:
Determine si el siguiente conjunto
n o
W = p(x) = ax2 + bx + c ∈ P2 [x] : 2b − p(1) ≥ 1

es un subespacio de P2 [x].

Solución. Veamos si valen las tres condiciones:


1. El vector nulo de P2 [x] no pertence al conjunto W : Para ello observemos que el vector nulo
θ(x) = 0 · x2 + 0 · x + 0 satisface lo siguiente

2(0) − θ(1) = 0 − 0 = 0 < 1

Luego, θ(x) ∈
/ W.
1.4. EJERCICIOS PROPUESTOS: SUBESPACIOS VECTORIALES 23

De este modo, W no es subespacio de P2 [x].

Ejemplo 1.3.12:
! !
1 −3 −5 15
Sea la matriz en un conjunto W y sea la matriz , la cual no esta
−5 4 25 −20
en W . Explique por que W no es subespacio vectorial de M2×2 (R).

Solución. Suponiendo que W es subespacio de M2×2 (R), tendríamos que W satisface la clausura
para el producto por un escalar. En particular, la matriz
! !
−5 15 1 −3
= −5 ∈ W,
25 −20 −5 4

pero por la información del enunciado se sabe que esta matriz no pertence a W . Esto es una
contradicción. Por tanto, W no puede ser un subespacio de M2×2 (R).

1.4. Ejercicios propuestos: Subespacios Vectoriales


1. Encontrar un subconjunto no vacío de R2 que cumpla la clausura aditiva y posea elemento
neutro aditivo pero no cumple la clausura multiplicativa escalar.

2. Encontrar un subconjunto no vacío de R2 que cumple la clausura multiplicativa escalar


pero no la clausura aditiva.

3. Sean los polinomios 2x2 − x + 3, −3x2 + 4x + 1 en un conjunto W y sea el polinomio


−x2 + 3x + 4, el cual no esta en W . Explique por que W no es subespacio vectorial de
V = P2 [x].

4. * Sea el conjunto
(" # )
a b
W= ∈ M2×2 (R) : a + b = c − d, d ≥ 0 .
c d

Este conjunto solo cumple una de las propiedades entre la clausura aditiva y la clausura
multiplicativa. Pruebe la propiedad que se cumple y justifique por que no se cumple la
otra propiedad.

5. * Sea el conjunto (" # )


a b
W= ∈ M2×2 (R) : b − 2c + d ≥ 0 .
c d
Este conjunto solo cumple una de las propiedades entre la clausura aditiva y la clausura
multiplicativa. Pruebe la propiedad que se cumple y justifique por que no se cumple la
otra propiedad.
24 CAPÍTULO 1. ESPACIOS VECTORIALES

6. * Sea el conjunto
W = {A = (aij ) ∈ M2×2 (R) : a11 · a22 = 0} .
Determine si este conjunto satisface o no la condición de clausura para la suma y multipli-
cación por un escalar.

7. En los siguientes apartados se da un espacio vectorial V y un subconjunto W. Indique, en


cada caso, si W es subespacio vectorial real de V.

a) V = R2 y W = {(x, y) ∈ R2 : 2x = −3y}
b) V = R2 y W = {(x, y) ∈ R2 : xy ≥ 0}
c) V = R2 y W = {(x, y) ∈ R2 : x − y ≥ 0}
d) V = R4 y W = {(x, y, z, t) ∈ R4 : y − t = 0}.
e) V = R3 y W = {(x, y, z) ∈ R3 : y = x − 3z}.
f ) V = P3 [x] y W = {p(x) ∈ P3 [x] : p(x) = ax3 + bx2 + cx + d; a + d = 1}.
g) V = P1 [x] y W = {p(x) ∈ P1 [x] : p(1) − p(0) ≥ 0}.
h) V = P2 [x] y W = {p(x) ∈ P2 [x] : p(−1) − p(0) = 0}.
i) V = P2 [x] y W = {ax2 + bx + c ∈ P2 [x] : c = b − a}.
j) V = P2 [x] y W = {p(x) ∈ P2 [x] : p(0) = 1}
k) V = P2 [x] y W = {p(x) ∈ P2 [x] : p(x) − p(1)x = 0}
l) V = P2 [x] y W = {p(x) ∈ P2 [x] : p(0).p(1) = 1}
!
a a+1
m) V = M2×2 (R) y W = {A ∈ M2×2 (R) : A = ; a, b ∈ R}
0 b
n) V = M3×3 (R) y W = {A ∈ V : etraza(A) = 1}.
ñ) V = R3 y W = {(x, y, z) ∈ R3 : x2 + y 2 ≤ 9}.
o) V = R3 y W = {(x, y, z) ∈ R3 : xy ≥ 0 ó yz ≥ 0}.
( ! )
a b c
p) V = M2×3 (R) y W = ∈ M2×3 (R) : a = −2c, f = 2e + d
d e f
( ! )
a b
q) V = M2×2 (R) y W = ∈ M2×2 (R) : a(b − c) = 0
c d
( ! )
a b
r) V = M2×2 (R) y W = ∈ M2×2 (R) : a − bc ≥ 0
c d
     
a b a b !
0 1 2

 

s) V = M3×2 (R) y W =  ∈ M3×2 (R) : traza  c d 
c d  =0
   
1 0 1
 
 

e f e f 

t) V = Mn×n (R) y W = {A ∈ Mn×n (R) : A = −AT }


1.5. CONJUNTOS GENERADORES 25

u) V = M2×3 (R) y W = {A ∈ M2×3 (R) : AB = BA}, donde B ∈ M2×3 es una matriz


fija.
v) * V = R2 y W = {(x, y) ∈ R2 : x + 3y = 2x}
w) * V = P2 [x] y W = {p(x) = ax2 + bx + c ∈ P2 [x] : ab = 0}
x) * V = P2 [x] y W = {p(x) = ax2 + bx + c ∈ P2 [x] : p(−1) ≥ 0}
y) * V = P2 [x] y W = {p(x) = ax2 + bx + c ∈ P2 [x] : 2b − p(1) ≥ 1}
z) * V = M2×2 (R) y W = {A ∈ M2×2 (R) : traza(A) = 2traza(AT )}

8. Determine si el conjunto W es o no un subespacio vectorial complejo del espacio V.

a) V = C2 y W = {(z, w) : z + w = 0}.
b) V = C3 y W = {(z, w, v) : az + aw − v = 0}, donde a = 3 − 2i.
c) V = M3×3 (C) y W = {A ∈ M3×3 (C) : A = A∗ } donde A∗ = Āt .
d) V = M2×2 (C) y W = {Z ∈ M2×2 (C) : A∗ Z = ZA} donde A∗ = Āt y
!
−i 2 − i
A= .
1 2i

1.5. Conjuntos Generadores


Objetivo. Comprender el concepto de combinación lineal, para luego poder obtener el conjunto
generador de un subespacio vectorial.

1.5.1. Combinación Lineal


Definición 1.10. Sea V un espacio vectorial y sea v1 , v2 , ..., vk ∈ V. Decimos que un vector
v ∈ V es combinación lineal de los vectores v1 , v2 , ..., vk cuando existen escalares α1 , α2 , ..., αk en
K tales que
v = α1 v1 + α2 v2 + · · · + αk vk .

Ejemplo 1.5.1:

En el espacio R3 , todo vector (x, y, z) es combinación lineal de los vectores (1, 0, 0), (0, 1, 0)
y (0, 0, 1), ya que
(x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1).
Aquí, los vectores (1, 0, 0), (0, 1, 0) y (0, 0, 1) son denominados “base canónica de R3 ”.

De manera similar existe la noción de “base canónica” en el espacio de polinomios (para la


mas detalles sobre “base canónica” vea la Sección 2.3).
26 CAPÍTULO 1. ESPACIOS VECTORIALES

Ejemplo 1.5.2:

En el espacio P3 [x], todo polinomio p(x) = a + bx + cx2 + dx3 es combinación lineal de los
polinomios 1, x, x2 y x3 , ya que

p(x) = a + bx + cx2 + dx3 = a · 1 + bx + cx2 + dx3 ,

Los polinomios 1, x, x2 y x3 son denominados “base canónica de P3 [x]”.

También veamos en el espacio de matrices:

Ejemplo 1.5.3:
! !
a b 1 0
En el espacio M2×2 , todo matriz es combinación lineal de las matrices ,
c d 0 0
! ! !
0 1 0 0 0 0
, y , ya que
0 0 1 0 0 1
! ! ! ! !
a b 1 0 0 1 0 0 0 0
=a +b +c +d .
c d 0 0 0 0 1 0 0 1
! ! ! !
1 0 0 1 0 0 0 0
Aquí, las matrices , , y son denominados “base canónica de
0 0 0 0 1 0 0 1
M2×2 (R)”.

Veamos otro ejemplo diferente a las bases canónicas mencionadas.

Ejemplo 1.5.4:

En el espacio P2 [x], el polinomio 2x2 − x − 3 es una combinación lineal de los polinomios


x2 + x, x + 1 ya que
2x2 − x − 3 = 2(x2 + x) + (−3)(x + 1)

Observación 1.11. Para hallar los escalares que permiten que un vector sea combinación lineal
de otros vectores, es necesario plantear un sistema lineal de ecuaciones.

Si el sistema es compatible (determinado (SCD) o indeterminado (SCI)) entonces el vector


es combinación lineal de los vectores planteados.

Si el sistema es incompatible (SI) entonces el vector no es combinación lineal de los vectores


planteados.
1.5. CONJUNTOS GENERADORES 27

Ejemplo 1.5.5:
Determine si el polinomio 3 − x es una combinación lineal de los polinomios 1 + x y 1 − x.

Solución. Tenemos que hallar los escalares a y b tales que


3 − x = a(1 + x) + b(1 − x),
el cual es equivalente a
3 − x = (a + b) + (a − b)x.
Comparando los coeficientes independientes y lineales, tenemos el sistema lineal
(
a+b = 3
a − b = −1
Resolviendo el sistema, obtenemos que es compatible determinado con solución
a=1 y b = 2.
Por tanto, el polinomio 3 − x si es combinación lineal de los polinomios 1 + x y 1 − x. Además,
la combinación lineal es
3 − x = 1(1 + x) + 2(1 − x)

Ejemplo 1.5.6:
! ! !
3 0 1 0 4 0
Determine si la matriz es una combinación lineal de las matrices y .
1 2 0 3 1 −1

Solución. Tenemos que hallar los escalares a y b tales que


! ! !
3 0 1 0 4 0
=a +b ,
1 2 0 3 1 −1
el cual es equivalente a ! !
3 0 a + 4b 0
= .
1 2 b 3a − b
Comparando las entradas de ambas matrices, tenemos el sistema lineal


 a + 4b = 3
b = 1
3a − b = 2

Al intentar resolver este sistema


! de ecuaciones lineales llegamos que
! es un sistema
! es incompatible.
3 0 1 0 4 0
Por tanto, la matriz no es combinación lineal de y .
1 2 0 3 1 −1
28 CAPÍTULO 1. ESPACIOS VECTORIALES

1.5.2. Conjunto Generador


Definición 1.12. Sea V un espacio vectorial sobre K y sean v1 , v2 , · · · , vk vectores en V. El
conjunto generado por v1 , v2 , · · · , vk es el conjunto definido por

gen{v1 , v2 , · · · , vk } = {v = α1 v1 + α2 v2 + · · · + αk vk : α1 , α2 , ..., αk ∈ K},

es decir, gen{v1 , v2 , · · · , vk } es el conjunto de todas las combinaciones lineales de los vectores


v1 , v2 , · · · , vk .

Proposición 1.13. El conjunto gen{v1 , v2 , · · · , vk } es un subespacio vectorial de V.

Demostración. Verifiquemos los items que definen a un subespacio vectorial:

(1) El elemento nulo 0 ∈ V puede escribirse como

0 = 0 · v1 + 0 · v2 + · · · + 0 · vk ,

de aquí,
0 ∈ gen{v1 , v2 , · · · , vk }.

(2) Dados v = α1 v1 + α2 v2 + · · · + αk vk y w = β1 v1 + β2 v2 + · · · + βk vk dos vectores en


gen{v1 , v2 , · · · , vk }. Tenemos que

v + w = (α1 v1 + α2 v2 + · · · + αk vk ) + (β1 v1 + β2 v2 + · · · + βk vk )
= (α1 + β1 )v1 + (α2 + β2 )v2 + · · · + (αk + βk )vk ,

el cual pertenece al conjunto gen{v1 , v2 , · · · , vk }. Luego, vale la clausura para la suma


vectorial.

(3) Sea λ ∈ K y sea v = α1 v1 + α2 v2 + · · · + αk vk un vector en gen{v1 , v2 , · · · , vk }. Tenemos


que

λv = λ (α1 v1 + α2 v2 + · · · + αk vk )
= (λα1 )v1 + (λα2 )v2 + · · · + (λαk )vk ,

el cual pertenece al conjunto gen{v1 , v2 , · · · , vk }. Luego, vale la clausura para producto por
un escalar.

Observación 1.14. Para un subconjunto X arbitrário de V se puede definir de manera más


general el conjunto generado por X como se sigue

gen(X) = {α1 v1 + α2 v2 + . . . + αk vk : α1 , ..., αk ∈ K, v1 , ..., vk ∈ X},

el cual también es un subespacio vectorial de V.


1.5. CONJUNTOS GENERADORES 29

Definición 1.15. Sea V un espacio vectorial y sea v1 , v2 , . . . , vk vectores en V. Decimos que el


conjunto de vectores {v1 , v2 , . . . , vk } es un conjunto generador de V cuando
V = gen{v1 , v2 , · · · , vk }.
Definición 1.16. Sea V un espacio vectorial y sea X un subconjunto de V. Decimos que X es
un conjunto generador de V cuando
V = gen(X).
Observación 1.17. Todo espacio vectorial posee un conjunto generador. La forma de encontrar
un conjunto generador es tomar un vector arbitrario del espacio y expresarlo como combinación
lineal de ciertos vectores (del mismo espacio) a partir de las condiciones que definen al espacio.

Ejemplo 1.5.7:
Encuentre un conjunto generador para el espacio

W = {(x, y, z) ∈ R3 : x − y + 3z = 0, x + y − z = 0}.

Solución. Dado (x, y, z) ∈ W . Tenemos que


x − y + 3z = 0 (1.4)
x+y−z = 0 (1.5)
Sumando ambas ecuaciones de arriba, se obtiene que
2x + 2z = 0 =⇒ x = −z.
Luego, al sustituir en (1.4) llegamos a que
(−z) − y + 3z = 0 =⇒ −y + 2z = 0 =⇒ y = 2z.
De aquí,
(x, y, z) = (−z, 2z, z) = z(−1, 2, 1).
Es decir, el vector (x, y, z) es combinación lineal de (−1, 2, 1). Por tanto,
W = gen{(−1, 2, 1)}.

Ejemplo 1.5.8:
De los Ejemplos 1.5.1, 1.5.2 y 1.5.3, se sigue inmediatamente que
n o
R3 = gen{(1, 0, 0), (0, 1, 0), (0, 0, 1)}, P3 [x] = gen 1, x, x2 , x3

y ( ! ! ! !)
1 0 0 1 0 0 0 0
M2×2 (R) = gen , , ,
0 0 0 0 1 0 0 1
30 CAPÍTULO 1. ESPACIOS VECTORIALES

Ejemplo 1.5.9:
Determine un conjunto generador para el espacio

V = {p(x) ∈ P3 [x] : 2p(1) = p(2)}.

Solución. Dado p(x) = a + bx + cx2 + dx3 ∈ W . Como


p(1) = a + b + c + d y p(2) = a + 2b + 4c + 8d,
se tiene que

2p(1) = p(2)
2(a + b + c + d) = a + 2b + 4c + 8d
2a + 
2b
 + 2c + 2d = a + 2b
 + 4c + 8d,

y entonces
a − 2c − 6d = 0 =⇒ a = 2c + 6d
De aquí,

p(x) = a + bx + cx2 + dx3 = 2c + 6d + bx + cx2 + dx3 = bx + c(2 + x2 ) + d(6 + x3 ).

Es decir, el vector p(x) es combinación lineal de x, 2 + x2 y 6 + x3 . Por tanto,

V = gen{x, 2 + x2 , 6 + x3 }.

Ejemplo 1.5.10:
Calcule un conjunto generador del espacio vectorial
( ! )
a b
W = A= : traza(AE) = 0 ,
c d
!
0 1
donde E =
0 1

Solución. Dado A ∈ W , tenemos que


! ! !
a b 0 1 0 a+b
AE = =
c d 0 1 0 c+d

Luego,
traza(AE) = c + d = 0
1.5. CONJUNTOS GENERADORES 31

De aqui, c = −d y entonces
!
a b
A =
c d
!
a b
=
−d d
! ! !
1 0 0 1 0 0
= a +b +d
0 0 0 0 −1 1

Por tanto, ( ! ! !)
1 0 0 1 0 0
W = gen , ,
0 0 0 0 −1 1

Ejemplo 1.5.11:

Determine si v = (1, 3, 4) pertenece o no al espacio

W = gen{(1, 1, 3), (0, −1, 2), (−1, −2, −1)}

Solución. Para que pertenezca se debe tener la siguiente combinación lineal:

(1, 3, 4) = α1 (1, 1, 3) + α2 (0, −1, 2) + α3 (−1, −2, −1)


= (α1 − α3 , α1 − α2 − 2α3 , 3α1 + 2α2 − α3 )

el cual es equivalente al sistema lineal:




 α1 − α3 = 1
α1 − α2 − 2α3 = 3
3α1 + 2α2 − α3 = 4

Expresando matricialmente tenemos


    
1 0 −1 α1 1
1 −1 −2 α2  = 3
    

3 2 −1 α3 4

Usemos su matriz aumentada para resolver este sistema:


     
1 0 −1 1 1 0 −1 1 1 0 −1 1
 F2 −F1 
−−−→  0 −1 −1 2  F3 + 2F1  0 −1 −1 2 
 1 −1 −2 3  −F−−−3F
   
3 1 −−−−−→
3 2 −1 4 0 2 2 1 0 0 0 5

Como el sistema es inconsistente, el sistema no tiene solución y por tanto no se puede expresar
como combinación lineal. Concluímos que, v no pertenece a W .
32 CAPÍTULO 1. ESPACIOS VECTORIALES

Ejemplo 1.5.12:

Halle el valor del parámetro t de modo que el vector (1, t, 1) pertenece al espacio

W = gen{(1, 1, 0), (−1, 1, 1), (0, 2, 1)}

Solución. Debemos saber si existen escalares a, b, c ∈ R tales que

(1, t, 1) = a(1, 1, 0) + b(−1, 1, 1) + c(0, 2, 1),

el cual es equivalente a
(1, t, 1) = (a − b, a + b + 2c, b + c).
Tenemos así el siguiente sistema lineal con parámetro:


 a−b = 1
a + b + 2c = t (1.6)


b+c = 1

Resolviendo por eliminación Gaussiana:


     
1 −1 0 1 1 −1 0 1 1 −1 0 1
 1 1 2 t  F2 − F1  0 2 2 t − 1  F2 ↔ F3  0 1 1 1 
    
−−−−−→ −−−−−→

0 1 1 1 0 1 1 1 0 2 2 t−1
 
1 −1 0 1
F3 − 2F2  0 1 1 1 

−−−−−→

0 0 0 t−3

Luego, el sistema (1.6) es compatible solo cuando t = 3. Por tanto, el parámetro debe ser t = 3
para que el vector (1, t, 1) pertenezca al espacio W .

Ejemplo 1.5.13:
Halle el valor del parámetro m de modo que el polinomio 4 + 3x pertenece al espacio

W = gen{1 + 2x, −1 + mx}

Solución. Debemos saber si existen escalares a, b ∈ R tales que

4 + 3x = a(1 + 2x) + b(−1 + mx),

el cual es equivalente a
4 + 3x = (a − b) + (2a + mb)x.
1.6. EJERCICIOS PROPUESTOS: CONJUNTOS GENERADORES 33

Tenemos así el siguiente sistema lineal con parámetro:




 a−b = 4
2a + mb = 3 (1.7)


b+c = 1

Resolviendo por eliminación Gaussiana:


! !
1 −1 4 1 −1 4
F2 − 2F1
2 m 3 −−−−−→ 0 m + 2 −5

Luego, el sistema (1.7) es compatible solo cuando m 6= −2. Por tanto, el parámetro debe ser
m 6= −2 para que el polinomio 4 + 3x pertenezca al espacio W .
Observación 1.18. Sea V un espacio vectorial y W es un subespacio de V. Si w1 , w2 , . . . , wk ∈ W
entonces
gen{w1 , w2 , . . . , wk } ⊂ W.

Ejemplo 1.5.14:

En R3 , considere los subespacios

L = gen{(1, −1, 0), (2, −1, −1)} y W = {(x, y, z) ∈ R3 : x + y + z = 0}.

Determine si L ⊂ W.

Solución. Tenemos que (1, −1, 0), (2, −1, −1) ∈ W. Por la Observación 1.18, se sigue que

L = gen{(1, −1, 0), (2, −1, −1)} ⊂ W. (1.8)

1.6. Ejercicios propuestos: Conjuntos Generadores


1. Encontrar un conjunto de generadores en cada uno de los siguientes casos:

a) V = {(x, y, z) ∈ R3 : x + y − z = 0}
b) W = {p(x) ∈ P2 [x] : p(0) − p(1) = 0}
!
0 1
c) V = {A ∈ M2×2 (R) : traza(AE) = 0}, donde E = .
0 1
d) W = {(x, y, z, t) ∈ R4 : 2x − y + z − t = 0 ∧ x + 2z + 2t = 0}
e) W = {A = (aij ) ∈ M2×2 (R) : A = AT ∧ a11 = 2a22 }.
!
1 −1
f ) W = {A ∈ M2×2 (R) : traza(A) = 0 ∧ traza(AB) = 0}, donde B = .
−1 1
34 CAPÍTULO 1. ESPACIOS VECTORIALES

2. En los siguientes ejercicios determine si v pertenece o no al subespacio W:

a) v = (5, 3, 1) y W = gen{(1, 2, 5), (0, −2, 2), (1, 3, 4)}


b) v = (1, 3, 4) y W = gen{(1, 1, 3), (0, −1, 2), (−1, −2, −1)}
! ( ! ! ! !)
1 4 2 −1 3 0 1 1 1 1
c) v = y W = gen , , ,
3 3 1 1 0 0 −1 −1 0 1
d) v = x3 + x + 2 y W = gen {x3 + 1, −x3 + 2, x + 1, x − 1}
! ( ! ! !)
1 2 1 2 −2 4 4 0
e) v = y W = gen , ,
3 3 2 3 4 1 0 5
! ( ! ! !)
1 −2 0 1 2 −1 1 −1
f) v = y W = gen , ,
1 3 1 0 3 0 1 1
g) v = x2 + x + 2 y W = gen {2x2 + 1, −x2 + 2, x − 1}
!
1 −1
3. * Determine si el vector pertenece al espacio:
0 0
( ! ! !)
2 1 −1 2 1 3
W = gen , , .
1 0 1 0 2 0

4. * Determine un conjunto generador para el espacio

V = {p(x) ∈ P2 [x] : −p(0) + p(1) = 0} .

5. * Determine un conjunto generador para el espacio

V = {p(x) ∈ P3 [x] : p(1) − 2p(−1) = 0} .

6. * Determine un conjunto generador para el espacio


n o
W = (x, y, z, w) ∈ R4 : x − y + 2z + 3w = 0, −x + 2y + z − w = 0 .

7. Verifique que gen{(1, 2, −1), (2, 1, 0), (−1, 1, −1)} = gen{(1, 2, −1), (2, 1, 0)}

8. Sea W = gen{v1 , v2 , v3 }, con v3 = 4v1 − 7v2 y sea w ∈ W. Demuestre que w es combinación


lineal de v1 y v2 .

9. Sea S = {(1, 0, 2), (−2, 0, −4), (0, −1, 2), (1, 1, 0)} un conjunto generador de H. Extraer una
base de H a partir de S.

10. Determine si el conjunto S es un generador del espacio vectorial V.

a) S = {(1, 2), (2, 0), (4, 1)}, V = R2 .


b) S = {(1, 3, 0), (2, 0, 1), (3, 3, 2)}, V = R3 .
1.7. SUMA E INTERSECCIÓN DE SUBESPACIOS 35

c) S = {1 − 2x, 2 − 3x2 + 2x}, V = P2 [x].


d) S = {1 − 2x, −2 + x2 , 3x − 2x2 }, V = P2 [x].
e) S = {(1, 1, 1), (2, −1, 3), (1, −5, 3)} y V = R3 .
f ) S = {x2 + 2x − 3, 2x2 − x − 4, x2 + 7x − 5} y V = P2 [x].
( ! !)
−1 −4 1 −2
g) S = , y
1 1 2 −1

V = {X ∈ M2×2 (R) : traza(XA) = 0 ∧ traza(XB) = 0} ,


! !
−1 2 2 0
donde A = yB= .
1 1 0 2
( ! ! !)
1 −1 1 0 0 0
h) S = , , y V = M2×2 (R).
0 2 −1 3 1 4
11. En los siguientes ejercicios ,determinar el valor de α para que el vector v pertenezca al
subespacio de R3 generado por el conjunto G.

a) v = (−2, −α, 3) y G = {(1, 2, −3), (−1, 1, 1)}


b) v = (2, −1, α) y G = {(1, −1, −2), (1, 0, −1)}
c) v = (−3, −2, α2 − 3α + 1) y G = {(−1, −1, 1), (2, 1, 0), (3, 1, α + 1)}

1.7. Suma e Intersección de Subespacios


Objetivo. Identificar subespacios vectoriales definidos a partir de operaciones entre subespacios
vectoriales como la intersección y la suma de subespacios.

1.7.1. Intersección de Subespacios


Sea V un espacio vectorial sobre K (R ó C) y sean W1 y W2 dos subespacios del espacio
vectorial V. La intersección W1 ∩ W2 es un subconjunto de V definido por:

W1 ∩ W2 = {v ∈ V : v ∈ W1 ∧ v ∈ W2 }

Teorema 1.19. Si W1 y W2 son subespacios del espacio vectorial V, entonces la intersección


W1 ∩ W2 es también un subespacio vectorial de V.
Demostración. Verificaremos los tres items que definen a un subespacio vectorial:
(1) Como 0 ∈ W1 y 0 ∈ W2 , se sigue que

0 ∈ W1 ∩ W2 .

(2) Dados u, v ∈ W1 ∩ W2 . Tenemos que


36 CAPÍTULO 1. ESPACIOS VECTORIALES

u, v ∈ W1 y u, v ∈ W1 .

Como W1 es un subespacio, se sigue que

u + v ∈ W1 .

Similarmente, del hecho que W2 es un subespacio, se tiene que

u + v ∈ W2 .

Luego,
u + v ∈ W1 ∩ W2 .
Es decir, W1 ∩ W2 satisface la clausura para la suma vectorial.

(3) Dados v ∈ W1 ∩ W2 y α ∈ K. Tenemos que

v ∈ W1 y v ∈ W1 .

Como W1 es un subespacio, se sigue que

αv ∈ W1 .

Similarmente, del hecho que W2 es un subespacio, se tiene que

αv ∈ W2 .

Luego,
αv ∈ W1 ∩ W2 .
Es decir, W1 ∩ W2 satisface la clausura para el producto por un escalar.

Por lo tanto, W1 ∩ W2 es un subespacio de V.

Ejemplo 1.7.1:

En V = R4 , considere los subespacios


n o
W1 = (x, y, z, w) ∈ R4 : x + y − w = 0, 2x + 3y + z + w = 0

y n o
W2 = (x, y, z, w) ∈ R4 : y = −w
Calcule el subespacio W1 ∩ W2 y expréselo en términos de un conjunto generador.
1.7. SUMA E INTERSECCIÓN DE SUBESPACIOS 37

Solución. Dado (x, y, z, w) ∈ W1 ∩ W2 . Tenemos que



x+y−w = 0 (
x + (−w) − w = 0


2x + 3y + z + w = 0 =⇒
2x + 3(−w) + z + w = 0
y = −w


(
x = 2w
=⇒
2x − 2w + z = 0
=⇒ 2(2w) − 2w + z = 0
=⇒ z = −2w

En otras palabras,
x = 2w, y = −w, z = 2w.
Luego,
(x, y, z, w) = (2w, −w, −2w, w) = w(2, −1, −2, 1)
Es decir, (x, y, z, w) es combinación lineal de ((2, −1, −2, 1)). Por tanto,

W1 ∩ W2 = gen {(2, −1, −2, 1)} .

Ejemplo 1.7.2:

En P2 [x], considere los subespacios

W1 = {p(x) ∈ P2 [x] : p(1) = 0} y W2 = {p(x) ∈ P2 [x] : p(−1) = 0}

Calcule el subespacio W1 ∩ W2 y expréselo en términos de un conjunto generador.

Solución. Dado p(x) = a + bx + cx2 ∈ W1 ∩ W2 . Tenemos que

p(1) = a + b + c = 0 y p(−1) = a − b + c = 0.

Resolviendo el sistema lineal (


a+b+c = 0
,
a−b+c = 0
obtenemos que
a = −c y b = 0.
Luego,
p(x) = a + bx + cx2 = (−c) + 0 · x + cx2 = c(−1 + x2 ).
Por tanto,
W1 ∩ W2 = gen{−1 + x2 }.
38 CAPÍTULO 1. ESPACIOS VECTORIALES

1.7.2. Suma de Subespacios


Como en la sección anterior vimos que la intersección de dos subespacios vectoriales es un
subespacio vectorial, es natural esperar que lo mismo ocurre con la unión W1 ∪ W2 , pero lamen-
tablemente esto no es verdad y lo podemos ver en un ejemplo.
Ejemplo 1.7.3:

En R2 , considere los subespacios

W1 = {(x, y) ∈ R2 : x = 0} y W2 = {(x, y) ∈ R2 : y = 0}

Demuestre que la unión W1 ∪ W2 no es un subespacio de R2 .

Solución. La unión de W1 y W2 es dada por

W1 ∪ W2 = {(x, y) ∈ R2 : (x, y) ∈ W1 ∨ (x, y) ∈ W2 }


= {(x, y) ∈ R2 : x = 0 ∨ y = 0}.

Tenemos que (0, 1) ∈ W1 y (1, 0) ∈ W2 . Sin embargo,

(0, 1) + (1, 0) = (1, 1) ∈


/ W1 ∪ W2 .

Como W1 ∪ W2 no satisface la propiedad de la clausura para la suma, se concluye que W1 ∪ W2


no es subespacio vectorial de R2 .

En un espacio vectorial podemos definir la suma de dos subconjuntos cualesquiera:

Definición 1.20. Sean A y B dos subconjuntos de V. La suma de A y B esta definido como el


conjunto dado por
A + B = {v + w : v ∈ A y w ∈ B}.

Observación 1.21. En general, la suma A + B no es un subespacio de V. Sin embargo, en el


caso que A y B son subespacios, la suma A + B si seria un subespacio de V, como veremos a
seguir.

Proposición 1.22. Sean W1 y W2 dos subespacios de un espacio vectorial V. Entonces la suma


de estos subespacios W1 + W2 también es un subespacio de V.

Demostración. Verificaremos los items que definen a un subespacio:

(1) Como 0 ∈ W1 y 0 ∈ W2 , se sigue que

0 = 0 + 0 ∈ W1 + W2 .
1.7. SUMA E INTERSECCIÓN DE SUBESPACIOS 39

(2) Dados u, v ∈ W1 + W2 . Tenemos que

u = u1 + u2 y v = v1 + v2 ,

donde u1 , v1 ∈ W1 y u2 , v2 ∈ W2 . Como W1 y W2 son subespacios, se tiene que

u1 + v1 ∈ W1 y u2 + v2 ∈ W2

Luego,
u + v = (u1 + u2 ) + (v1 + v2 ) = (u1 + v1 ) + (u2 + v2 ) ∈ W1 + W2 .
Es decir, W1 + W2 satisface la clausura para la suma vectorial.

(3) Dados v ∈ W1 + W2 y α ∈ K. Tenemos que

v = v1 + v2 ,

donde v1 ∈ W1 y v2 ∈ W2 . Como W1 y W2 son subespacios, se tiene que

αv1 ∈ W1 y αv2 ∈ W2

Luego,
αv = α(v1 + v2 ) = (αv1 ) + (αv2 ) ∈ W1 + W2 .
Es decir, W1 + W2 satisface la clausura para el producto por un escalar.
Por tanto, W1 + W2 es un subespacio de V.
Vimos al inicio de esta sección que el conjunto W1 ∪ W2 no siempre es subespacio de V, pero
si consideramos el espacio generado por esta unión obtendremos una propiedad interesante:
Proposición 1.23. Sean W1 y W2 dos subespacios del espacio vectorial V. Entonces la suma
W1 + W2 coincide con el subespacio generado por la unión de W1 ∪ W2 , es decir,

W1 + W2 = gen(W1 ∪ W2 )

Demostración. Demostraremos que las dos siguientes inclusiones:


(1) Probaremos que W1 + W2 ⊂ gen(W1 ∪ W2 )
Dado v ∈ W1 + W2 . Tenemos que
v = v1 + v2 ,
donde v1 ∈ W1 y v2 ∈ W2 . Como W1 ⊂ W1 ∪ W2 y W2 ⊂ W1 ∪ W2 , se sigue que

v1 ∈ W1 ∪ W2 y v2 ∈ W1 ∪ W2 .

Es decir, v es combinación lineal de los vectores v1 y v2 , los cuales están en W1 ∪ W2 . Por


tanto,
v ∈ gen(W1 ∪ W2 ).
40 CAPÍTULO 1. ESPACIOS VECTORIALES

(2) Probaremos ahora que gen(W1 ∪ W2 ) ⊂ W1 + W2


Dado v ∈ gen(W1 ∪ W2 ). Por la Observación 1.14, tenemos que
v = α1 v1 + α2 v2 + αk vk , (1.9)
donde v1 , v2 , · · · , vk ∈ W1 ∪ W2 . De los vectores v1 , v2 , · · · , vk , algunos pertenecen a W1 y
otros pertenecen a W2 . Denotemos por vr1 , vr2 , ..., vrm los que pertenecen a W1 y denotemos
por vs1 , vs2 , ..., vsk−m los que pertencen a W2 . De modo que (1.9) puede escribirse como
v = (αr1 vr1 + αr2 vr2 + ... + αrm vrm ) + (αs1 vs1 + αs1 vs2 + ... + αsk−m vsk−m ) . (1.10)
| {z } | {z }
u w

Como W1 y W2 son subespacios, tenemos que

u = αr1 vr1 + αr2 vr2 + ... + αrm vrm ∈ W1 y w = αs1 vs1 + αs1 vs2 + ... + αsk−m vsk−m ∈ W2 .

Luego, por (1.10), tenemos que


v = u + w ∈ W1 + W2 .

De los items (1) y (2), concluimos que


W1 + W2 = gen(W1 ∪ W2 ).

Corolario 1.24. Si W1 = gen{v1 , ..., vk } y W2 = gen{w1 , ..., wl } son subespacios de V entonces


W1 + W2 = gen{v1 , ..., vk , w1 , ..., wl }
Observación 1.25. De la Proposición 1.23, también tenemos que W1 + W2 es el menor subes-
pacio vectorial de V que contiene a la unión W1 ∪ W2 .

Ejemplo 1.7.4:

Dados los subespacios vectoriales de R3


n o n o
W1 = (x, y, z) ∈ R3 : z = 0 y W2 = (x, y, z) ∈ R3 : y = 0

Calcule la suma W1 + W2 expresando su respuesta en términos de un conjunto generador.

Solución. Hallaremos los conjuntos generadores por pasos:


• Conjunto generador para W1 : Dado (x, y, z) ∈ W1 , tenemos que z = 0 y asi
(x, y, z) = (x, y, 0) = x(1, 0, 0) + y(0, 1, 0),
y entonces
W1 = gen{(1, 0, 0), (0, 1, 0)}.
1.7. SUMA E INTERSECCIÓN DE SUBESPACIOS 41

• Conjunto generador para W2 : Similarmente, si (x, y, z) ∈ W2 , tenemos que y = 0 y asi

(x, y, z) = (x, 0, z) = x(1, 0, 0) + z(0, 0, 1)

Osea,
W2 = gen{(1, 0, 0), (0, 0, 1)}

• Conjunto generador para W1 + W2 : Por el Corolario 1.24, tenemos que

W1 + W2 = gen{(1, 0, 0), (0, 1, 0), (1, 0, 0), (0, 0, 1)}


= gen{(1, 0, 0), (0, 1, 0), (0, 0, 1)} = R3 .

Ejemplo 1.7.5:

Dados los subespacios vectoriales de P2 [x]

W1 = {p(x) ∈ P2 [x] : p(−2) = 0} y W2 = {p(x) ∈ P2 [x] : p(1) = p(−1) = 0}

Determine si P2 [x] es igual o no a la suma W1 + W2 .

Solución. Dado p(x) = a + bx + cx2 ∈ P2 [x]. Supongamos que p(x) ∈ W1 + W2 , se tiene que

p(x) = q(x) + r(x), (1.11)

donde q(x) = a1 + b1 x + c1 x2 ∈ W1 y r(x) = a2 + b2 x + c2 x2 ∈ W2 . Tenemos que

q(x) = a1 + b1 x + c1 x2 ∈ W1 =⇒ q(−2) = a1 − 2b1 + 4c1 = 0


=⇒ a1 = 2b1 − 4c1
=⇒ q(x) = 2b1 − 4c1 + b1 x + c1 x2 (1.12)

Ahora, de r(x) = a2 + b2 x + c2 x2 ∈ W2 se tiene que

r(1) = a2 + b2 + c2 = 0
r(−1) = a2 − b2 + c2 = 0

De aquí,

a2 = −c2 y b2 = 0 =⇒ r(x) = −c2 + c2 x2 (1.13)

Sustituyendo (1.12) y (1.13) en (1.11), se obtiene

a + bx + cx2 = (2b1 − 4c1 + b1 x + c1 x2 ) + (−c2 + c2 x2 )


= (2b1 − 4c1 − c2 ) + b1 x + (c1 + c2 )x2 ,
42 CAPÍTULO 1. ESPACIOS VECTORIALES

el cual es equivalente al sistema lineal




 2b1 − 4c1 − c2 = a
b1 = b


c1 + c2 = c
Resolviendo por eliminación Gaussiana:
     
2 −4 −1 a 1 0 0 b 1 0 0 b
 1 0

0 b  F1 ↔ F2  2 −4 −1 a  F2 − 2F1  0 −4 −1 a − 2b 
   
−−−−−→ −−−−−→

0 1 1 c 0 1 1 c 0 1 1 c
   
1 0 0 b 1 0 0 b
F2 + 4F3  0 0 3 a − 2b + 4c  F2 ↔ F3  0 1 1 c ,
   
−−−−−→ −−−−−→
0 1 1 c 0 0 3 a − 2b + 4c

obtenemos que este sistema siempre es compatible. De modo que la suma en (1.11) siempre es
posible. Por tanto,
P2 [x] = W1 + W2 .

1.7.3. Suma Directa de Subespacios


Definición 1.26. Dados W1 y W2 dos subespacios del espacio vectorial V. Decimos que V es
suma directa de los subespacios vectoriales W1 y W2 si satisface las siguientes condiciones:
(i) W1 ∩ W2 = {0}.

(ii) V = W1 + W2 .
Cuando vale estas condiciones escribiremos V = W1 ⊕ W2
Proposición 1.27. Sean W1 y W2 dos subespacios de un espacio vectorial V. Entonces,
cada vector v ∈ V tiene una única descomposición v = w1 + w2
V = W1 ⊕ W2 ⇐⇒
con w1 ∈ W1 y w2 ∈ W2 .
Demostración. (=⇒) Supongamos que vale V = W1 ⊕ W2 . Dado v ∈ V. Por el item (ii) de la
definición de suma directa, tenemos que

v = w1 + w2 , (1.14)

donde w1 ∈ W1 y w2 ∈ W2 . Supongamos ahora que también se puede escribir como otra suma

v = z1 + z2 , (1.15)

donde z1 ∈ W1 y z2 ∈ W2 . Juntando (1.14) y (1.15), se obtiene

v = w1 + w2 = z1 + z2 .
1.7. SUMA E INTERSECCIÓN DE SUBESPACIOS 43

De aquí,
w1 − z1 = z2 − w2 ∈ W1 ∩ W2 , (1.16)
ya que w1 − z1 ∈ W1 y z2 − w2 ∈ W2 . Por el item (i) de la definición de suma directa, tenemos
que W1 ∩ W2 = {0}. Se sigue de (1.16) que w1 − z1 = z2 − w2 . Por tanto,
w1 = z1 y w2 = z2 .
(⇐=) Supongamos que cada vector v ∈ V tiene una única descomposición v = w1 + w2 con
w1 ∈ W1 y w2 ∈ W2 . De aquí, tenemos que
v = w1 + w2 ∈ W1 + W2 .
Luego, V = W1 + W2 . Es decir, vale el item (ii) de la definición de suma directa.
Veamos ahora la validez del item (i). Dado w ∈ W1 ∩ W2 . Podemos escribir w como
w = 0 + w, (1.17)
con 0 ∈ W1 y w ∈ W2 . Pero también podemos escribir w como
w = w + 0, (1.18)
con w ∈ W2 y 0 ∈ W2 . Por (1.17), (1.18) y por la unicidad enunciada en la hipótesis, tenemos
que w = 0. En otras palabras,
W1 ∩ W2 = {0}.
Por tanto, vale que
V = W1 ⊕ W2 .

Ejemplo 1.7.6:

Dados los subespacios vectoriales de Mn×n (R)


n o n o
W1 = A ∈ Mn×n (R) : AT = A y W2 = A ∈ Mn×n (R) : AT = −A

Determine si el espacio vectorial Mn×n (R) es suma directa de los subespacios W1 y W2 . Es


decir, si vale R2 = W1 ⊕ W2 .

Solución. Verifiquemos si valen las condiciones (i) y (ii) de la definición de suma directa.
(i) Dado A ∈ W1 ∩ W2 . Tenemos que
AT = A y AT = −A.
De aquí,
A = AT = −A −→ 2A = 0 =⇒ A = 0.
Es decir,
W1 ∩ W2 = {0}.
44 CAPÍTULO 1. ESPACIOS VECTORIALES

(ii) Dado A ∈ Mn×n (R). Veamos si es posible escribir A como una suma

A = B + C, (1.19)

donde B ∈ W1 y C ∈ W2 . Tenemos que

BT = B y C T = −C.

Luego, por (1.19), tenemos

AT = (B + C)T = B T + C T = B − C. (1.20)

Sumando las expresiones (1.19) y (1.20), se llega a que

1
A + AT = 2B =⇒ B = (A + AT ). (1.21)
2
Sustituyen (1.21) en (1.19), obtenemos que

1 1
C = A − B = A − (A + AT ) = (A − AT ). (1.22)
2 2
Por (1.21) y (1.22), se concluye que

1 1
A = (A + AT ) + (A − AT ) ∈ W1 + W2 .
2 2
Es decir,
R2 = W1 + W2

Por tanto, vale la igualdad


R2 = W1 ⊕ W2 .

Ejemplo 1.7.7:

Dados los subespacios vectoriales de R2


n o n o
W1 = (x, y) ∈ R2 : y = 0 y W2 = (x, y) ∈ R2 : x = 0

Determine si el espacio vectorial R2 es suma directa de los subespacios W1 y W2 . Es decir,


si vale R2 = W1 ⊕ W2 .

Solución. Verifiquemos si valen las condiciones (i) y (ii) de la definición de suma directa.
1.7. SUMA E INTERSECCIÓN DE SUBESPACIOS 45

(i) Dado v = (x, y) ∈ W1 ∩ W2 un vector arbitrário, veamos si vale que v = (0, 0). Tenemos
que
v = (x, y) ∈ W1 =⇒ x = 0
y así mismo
v = (x, y) ∈ W2 =⇒ y = 0
De este modo,
v = (0, 0)
Luego,
W1 ∩ W2 = {(0, 0)}

(ii) Podemos encontrar los siguientes generadores

W1 = gen{(1, 0)} y W2 = gen{(0, 1)}

Luego,
W1 + W2 = gen{(1, 0), (0, 1)} = R2

Por tanto, vale que


R2 = W1 ⊕ W2 .

Ejemplo 1.7.8:

Dados los subespacios vectoriales de R3 :


n o n o
W1 = (x, y, z) ∈ R3 : x = z, y = 2z y W2 = (x, y, z) ∈ R3 : z = 0

Determine si el espacio vectorial R3 es suma directa de los subespacios W1 y W2 . Es decir,


si es verdad que R3 = W1 ⊕ W2 .

Solución. Verifiquemos si las condiciones (i) y (ii) de suma directa son válidas.

(i) Dado v = (x, y, z) ∈ W1 ∩ W2 un vector arbitrário. Debemos ver si vale que v = (0, 0, 0).
Como v = (x, y, z) ∈ W1 , se tiene que

y=0 y x=0

Ahora, de v = (x, y, z) ∈ W2 se sigue que z = 0. Luego,

v = (0, 0, 0)

Es decir,
W1 ∩ W2 = {(0, 0, 0)} .
46 CAPÍTULO 1. ESPACIOS VECTORIALES

(ii) Dado v = (x, y, z) ∈ R3 un vector arbitrario. Veamos si vale que

v = (x, y, z) ∈ W1 + W2 .

Observemos primero que

W1 = {(z, 2z, z) : z ∈ R} y W2 = {(x, y, 0) : x, y ∈ R}

Para que v = (x, y, z) pertenezca a W1 + W2 , deben existir vectores w1 = (a, 2a, a) ∈ W1


y w2 = (b, c, 0) ∈ W2 tales que valga la siguiente suma

(x, y, z) = (a, 2a, a) + (b, c, 0)


= (a + b, 2a + c, a), (1.23)

el cual es equivalente s resolver el sistema lineal




 a+b = x
2a + c = y


a = z

Resolviendo el sistema obtenemos que

a = z, b = x − z y c = y − 2z.

Es decir, expresar (x, y, z) como la suma dada en (1.23) si es posible. Luego,

R3 = W1 + W2

Por tanto,
R3 = W1 ⊕ W2 .

Ejemplo 1.7.9:

Dados los subespacios vectoriales de R4


n o
W1 = (x, y, z, t) ∈ R4 : x + z − t = 0, 2x − y + z − t = 0

y n o
W2 = (x, y, z, t) ∈ R4 : x = 0
Determine si el espacio vectorial R4 es suma directa de los subespacios W1 y W2 . Es decir,
si es válida la igualdad R4 = W1 ⊕ W2 .

Solución. Verifiquemos si valen las condiciones (i) y (ii) de la definición de suma directa.
1.7. SUMA E INTERSECCIÓN DE SUBESPACIOS 47

(i) Dado v = (x, y, z, t) ∈ W1 ∩ W2 , veamo si vale que v = (0, 0, 0, 0).


Por las definiciones de W1 y W2 , tenemos que el siguiente sistema lineal


 x+z−t = 0
2x − y + z − t = 0


x = 0

Resolviendo el sistema se llega a que


 

 x+z
 −t = 0 z−t = 0


2x
 − y + z −t = 0 =⇒  y + z − t = 0


x = 0 
x = 0


 t = z
=⇒ −y + z − z = 0


x = 0

t = z


=⇒  y = 0

x = 0

Usando esta última expresión, se obtiene que

v = (0, 0, z, z) = z(0, 0, 1, 1)

De aquí,
W1 ∩ W2 = gen{(0, 0, 1, 1)} =
6 {(0, 0, 0, 0)}

Como el item (i) falla, se concluye que

R4 6= W1 ⊕ W2 .

Ejemplo 1.7.10:

Dados los subespacios vectoriales de P2 [x]

W = {p(x) ∈ P2 [x] : p(1) = 0}

y
L = {p(x) ∈ P2 [x] : p(0) = p(−1) = 0}
Determine si es válido que P2 [x] = W ⊕ L.

Solución. Verifiquemos si valen las condiciones (i) y (ii) de la definición de suma directa.
48 CAPÍTULO 1. ESPACIOS VECTORIALES

(i) Sea p(x) = ax2 + bx + c ∈ W ∩ L un vector arbitrário, debemos ver si vale que p(x) = 0P2 [x] .
De p(x) = ax2 + bx + c ∈ W, tenemos que

0 = p(1) = a + b + c

y de p(x) = ax2 + bx + c ∈ L, tenemos que

0 = p(0) = c y 0 = p(−1) = a − b + c

Así, obtenemos el siguiente sistema lineal

a+b+c = 0
a−b+c = 0
c = 0

Resolvamos usando eliminación Gaussiana


   
1 1 1 0 1 1 1 0
 F2 −F1 
 1 −1 1 0  −→  0 −2 0 0 
 

0 0 1 0 0 0 1 0

de donde a = 0, b = 0 y c = 0. De aqui,

p(x) = 0x2 + 0x + 0.

Luego, n o
W ∩ L = 0P2 [x] .

(ii) Dado p(x) = ax2 + bx + c un vector arbitrário en P2 [x], debemos ver si es válido que
p(x) = ax2 + bx + c ∈ W + L.
Queremos ver si existen q(x) = a1 x2 + b1 x + c1 ∈ W y r(x) = a2 x2 + b2 x + c2 ∈ L tales que

p(x) = q(x) + r(x)

Tenemos que

q(x) ∈ W ⇒ a1 + b1 + c1 = 0 ⇒ q(x) = a1 x2 + b1 x − a1 − b1

y
r(x) ∈ L ⇒ c2 = 0 ∧ a2 − b2 + c2 = 0 ⇒ r(x) = a2 x2 + a2 x
De aqui,

p(x) = q(x) + r(x)


ax2 + bx + c = (a1 x2 + b1 x − a1 − b1 ) + (a2 x2 + a2 x)
ax2 + bx + c = (a1 + a2 )x2 + (b1 + a2 )x − a1 − b1
1.8. EJERCICIOS PROPUESTOS: SUMA E INTERSECCIÓN DE SUBESPACIOS 49

Así, obtenemos un sistema matricial


    
1 0 1 a1 a
 0 1 1   b1  =  b 
    

−1 −1 0 a2 c

Resolvamos resolviendo eliminación Gaussiana


   
1 0 1 a 1 0 1 a

0 1 1 b  F3 + F1 
 
0 1 1 b 
−−−−−→
 
−1 −1 0 c 0 −1 1 c + a
 
1 0 1 a
 0 1 1
F3 + F2  b 
−−−−−→

0 0 2 a+b+c

Como el sistema es compatible determinado, tenemos que si es posible expresar p(x) como
suma de los polinomios q(x) ∈ W y r(x) ∈ L. Por tanto,

W + L = P2 [x].

Por tanto,
P2 [x] = W ⊕ L.

1.8. Ejercicios propuestos: Suma e Intersección de subes-


pacios
1. En cada uno de los siguientes apartados calcule el espacio intersección W1 ∩ W2 expresando
su respuesta en términos de un conjunto generador.

a) W1 = {(x, y, z, w) ∈ R4 : x + y − w = 0, 2x + 3y + z + w = 0} y

W2 = {(x, y, z, w) ∈ R4 : y = −w}.

b) W1 = {(x1 , x2 , x3 , x4 ) : x1 + x3 − x4 = 0, x1 − 2x2 + x3 + x4 = 0} y

W2 = {(x1 , x2 , x3 , x4 ) : x2 − x4 = 0}.

c) W1 = {(x, y, z, s, t) : x + 2y − 2z + 2s − t = 0, x + 2y − z + 3s − 2t = 0} y

W2 = {(x, y, z, t, s) : 2x + 4y − 7z + s + t = 0}.

d) W1 = {p(x) = ax3 + bx2 + cx + d : 2p(1) + p(−1) = 0} y

W2 = {p(x) = ax3 + bx2 + cx + d : 2p(0) + p(−2) = 0, p(1) = 0}.


50 CAPÍTULO 1. ESPACIOS VECTORIALES

e) W1 = {p(x) ∈ P3 [x] : p(1) + p(−1) = 0} y


W2 = {p(x) ∈ P3 [x] : p(1) − 2p(−1) = 0}.

f ) W1 = {ax4 + bx3 + cx2 + dx + e ∈ P4 [x] : a + 2b − c + 3d − 4e = 0} y


W2 = {ax4 +bx3 +cx2 +dx+e ∈ P4 [x] : 2a+4b−2c−d+5e = 0, 2a+4b−2c+4d−2e = 0}.
( ! ! !)
1 1 0 1 2 0
g) W1 = gen , , y
−1 −1 −1 0 2 0
( ! !)
−1 1 2 0
W2 = gen , .
−1 1 0 1

h) V = R3 , W = gen{(1, 1, 3), (1, 3, 5), (6, 12, 24)} y U = gen{(1, 1, 0); (3, 2, 1)}.
i) V = R[x], W = {f ∈ R[x] : f (1) = 0} y U = gen{1, x, x2 , x3 + 2x2 − x, x5 }.
2. En los siguientes items, determine si V = W ⊕ L o caso contrario justifique por que esto no
es verdad.
a) Dados L = {t(1, 2, 1) : t ∈ R}, W = {(x, y, 0) ∈ R3 : x, y ∈ R} y V = R3 .
b) Sea W = {(x, y, z) ∈ R3 /z = 2x − 3z} y sea L una recta que pasa por el origen que
no está contenida en W y V = R3 .
c) Sean V = R3 y considere los subespacios
W1 = {(x, y, z) ∈ R3 : x = y = z} y W2 = {(x, y, z) ∈ R3 : z = 0, x = y}.
Determine si vale la igualdad R3 = W1 ⊕ W2 .
d) Tome W = {p(x) ∈ P2 [x] : p(1) = 0}, L = {p(x) ∈ P2 [x] : p(0) = p(−1) = 0} y
V = P2 [x].
e) Sean W = {(a, b, c) ∈ R3 : a + b + c = 0}, L = {(0, 0, d) ∈ R3 : d ∈ R} y V = R3
f ) Tome L = {p(x) ∈ P3 [x] : p(0) = p(1) = 0}, W = {p(x) ∈ P3 [x] : p(−1) = p(2) = 0} y
V = P4 [x]
g) Considere el espacio vectorial V = {(x, y, z) ∈ R3 : x − 2y + z = 0} y los subespacios
L1 = gen{(1, −1, −3)} y L2 = gen{(3, 1, −1)}.
Demuestre que V = L1 ⊕ L2
h) Tome W = {A ∈ M2×2 (R) : traza(A) = traza(AE1 ) = 0} y
L = {A ∈ M2×2 (R) : traza(AJ) = traza(AE2 ) = 0},
donde ! ! !
1 0 0 1 0 1
E1 = , J= y E2 = .
1 0 1 0 0 0
para V = M2×2 (R). Muestre que V = W ⊕ L
Capítulo
2
Bases y Dimensión
***

2.1. Dependencia e Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 51


2.2. Ejercicios propuestos: Dependencia e Independencial Lineal . . . . . . . . . . . . . 57
2.3. Base de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.4. Dimensión de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.5. Ejercicios propuestos: Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . 66
2.6. Matriz cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.6.1. Vector de coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.6.2. Matriz Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.7. Ejercicios propuestos: Matriz cambio de base . . . . . . . . . . . . . . . . . . . . . 77

2.1. Dependencia e Independencia Lineal


Objetivo. Identificar y clasificar subconjuntos de espacios vectoriales en Linealmente Indepen-
dientes (L.I.) y Linealmente Dependientes (L.D.).

Definición 2.1. Un subconjunto {v1 , v2 , . . . , vn } de un espacio vectorial V es Linealmente Inde-


pendiente (L.I.), si al escribir la combinación lineal

α1 v1 + α2 v2 + α3 v3 + . . . + αn vn = 0

implica que se tenga


α1 = α2 = α3 = . . . = αn = 0
Caso contrario el subconjunto es Linealmente Dependiente (L.D.). Es decir, {v1 , v2 , . . . , vn } es
linealmente dependiente si al escribir la combinación lineal

α1 v1 + α2 v2 + α3 v3 + . . . + αn vn = 0

se tiene que al menos un αi 6= 0, para algún i = 1, 2, 3, . . . , n.

51
52 CAPÍTULO 2. BASES Y DIMENSIÓN

Ejemplo 2.1.1:

Sea V = R3 y considere el conjunto

{(1, 2, −4), (−4, 3, 6)}

formado por dos vectores. Determine si el subconjunto es L.I. o L.D.

Solución. Consideramos la combinación lineal

α(1, 2, −4) + β(−4, 3, 6) = (0, 0, 0),

de donde obtenemos el sistema 



 α − 4β = 0
2α + 3β = 0
−4α + 6β = 0

Resolvamos por eliminación Gaussiana


     
1 −4 0 1 −4 0 F + 10 F 1 −4 0
 F2 −2F1   3 11 1 
 2

−−−→  0
3 0  −F−3−+4F4
11 0  −→  0 11 0  
−4 6 0 0 −10 0 0 0 0

de donde los escalares son α = 0 y β = 0. Por tanto, el conjunto {(1, 2, −4), (−4, 3, 6)} es L.I.

Observación 2.2. Cuando colocamos la combinación lineal

α1 v1 + α2 v2 + α3 v3 + . . . + αn vn = 0,

esta siempre nos lleva a un sistema lineal homogéneo con variables α1 , α2 , ..., αn .

Si el sistema homogéneo es compatible determinado (SCD) entonces {v1 , v2 , ..., vn } es L.I.

Si el sistema homogéneo es compatible indeterminado (SCI) entonces {v1 , v2 , ..., vn } es L.D.

Ejemplo 2.1.2:

Sea V = P2 [x] y considere el conjunto

{−x, x2 − 2x, 3x − 5x2 }

conformado por tres vectores. Determine si el subconjunto es L.I. o L.D.

Solución. Consideramos la combinación lineal

α(−x) + β(x2 − 2x) + γ(3x − 5x2 ) = 0 (2.1)


2.1. DEPENDENCIA E INDEPENDENCIA LINEAL 53

De aquí,
(β − 5γ)x2 + (−α − 2β + 3γ)x + 0 = 0x2 + 0x + 0,
el cual es equivalente al sistema lineal homogéneo:
(
β − 5γ = 0
−α − 2β + 3γ = 0
Resolviendo por eliminación Gaussiana
! ! !
−1 −2 3 0 −1 0 −7 0 1 0 7 0
F2 + 2F1 −F
0 1 −5 0 −−−−−→ 0 1 −5 0 −−→1 0 1 −5 0
Luego, el sistema homogéneo es compatible indeterminado. Por la Observación 2.2, se concluye
que {−x, x2 − 2x, 3x − 5x2 } es L.D.

Ejemplo 2.1.3:

Sea V = M2×2 (R) y considere el conjunto


( ! ! !)
2 −1 0 −3 4 1
S= , ,
4 0 1 5 7 −5

formado por tres matrices. Determine si este subconjunto es L.I. o L.D.

Solución. Consideramos la combinación lineal


! ! ! !
2 −1 0 −3 4 1 0 0
α +β +γ = ,
4 0 1 5 7 −5 0 0
de aquí, ! !
2α + 4γ −α − 3β + γ 0 0
= ,
4α + β + 7γ 5β − 5γ 0 0
de donde obtenemos el sistema lineal homogéneo:


 2α + 4γ = 0
−α − 3β + γ = 0




 4α + β + 7γ = 0
5β − 5γ = 0

Resolvamos el sistema usando eliminación Gaussiana:


2 0 4 0 2 0 4 0 2 0 4 0
     
 −1 −3 1
 F2 + 12 F1  0 −3 3
0  0  0 −3 3 0
1
 F3 + 3 F2 
  
 −−−−− −→ 
 
 −−−−−−→ 
 4 1 7 0  F3 −2F1  0 1 −1 0  F4 + 3 F2  5
0 0 0 0
 

0 5 −5 0 0 5 −5 0 0 0 0 0
1 0 2 0
 
1
F 
2 1  0 1 −1 0 
−−− −→ 

− 13 F3  0 0 0 0


0 0 0 0
54 CAPÍTULO 2. BASES Y DIMENSIÓN

De modo que el sistema homogéneo es compatible indeterminado. Luego, por la Observación 2.2,
el conjunto S es L.D.

Proposición 2.3. Sea {v1 , v2 , ..., vm } un conjunto en L.I. Si c1 , c2 , ..., cm y d1 , d2 , ..., dm son
escalares tal que
c1 v1 + c2 v2 + ... + cm vm = d1 v1 + d2 v2 + ... + dm vm
entonces
c1 = d1 , c2 = d2 , . . . , cm = dm .

Observación 2.4. Tenemos las siguientes propiedades:

(1) Todo subconjunto unitario {v}, con v 6= 0, es L.I.

(2) El conjunto {v, w} es L.I. si, y solamente si, los vectores v y w no son paralelos.

(3) Todo conjunto que posea al elemento nulo {0, v1 , ..., vk } del espacio vectorial V es L.D.

(4) Si vk es combinación lineal de los vectores v1 , v2 , ..., vk−1 , entonces el conjunto {v1 , v2 , ..., vk−1 , vk }
es L.D.

(5) Si {v1 , ..., vk } es L.D. entonces {v1 , ..., vk , vk+1 , ..., vm } es L.D.

(6) Todo subconjunto de un conjunto L.I. es L.I.

(7) Si el conjunto de vectores {v1 , v2 , ..., vn } genera el espacio vectorial V , entonces cualquier
conjunto con mas de n vectores en V es L.D.

Ejemplo 2.1.4:

Determine si el conjunto {(1, 3, 0, −1)} de R4 es L.I. o L.D.

Solución. Como (1, 3, 0, −1) 6= (0, 0, 0, 0), se sigue de la Observación 2.4(1) que el conjunto
{(1, 3, 0, −1)} es L.I.

Ejemplo 2.1.5:

Determine si el subconjunto {(4, 0, −1), (0, 5, 9)} de R3 es L.I. o L.D.

Solución. Como no existe α ∈ R tal que

(4, 0, −1) = α(0, 5, 9),

se sigue que los vectores (4, 0, −1) y (0, 5, 9) no son paralelos. Luego, por la Observación 2.4(2),
el conjunto {(4, 0, −1), (0, 5, 9)} es L.I.
2.1. DEPENDENCIA E INDEPENDENCIA LINEAL 55

Ejemplo 2.1.6:

Determine si el subconjunto {x + x3 , 1 + x2 } de P3 [x] es L.I. o L.D.

Solución. Veamos si los vectores x + x3 y 1 + x2 son paralelos. Suponiendo que existe α ∈ R tal
que
x + x3 = α(1 + x2 ).
Tenemos que

x + x3 − α − αx2 = 0 =⇒ −α · 1 + x − αx2 + x3 = 0 (2.2)

Como {1, x, x2 , x3 } es L.I., se sigue de (2.2) que


−α = 0, 1 = 0, −α = 0 y 1 = 0,
el cual es absurdo. De modo que no existe tal escalar α. Es decir, los polinomios x + x3 y 1 + x2
no son paralelos. Luego, por la Observación 2.4(2), el conjunto {x + x3 , 1 + x2 } es L.I.

Observación 2.5. Respecto al ejemplo anterior, el hecho que

x + x3 = x(1 + x2 ) (2.3)

no implica que x + x3 y 1 + x2 sean paralelos, ya que el factor x que multiplica a 1 + x2 en la


expresión (2.3) es una variable (o indeterminada) y no es un escalar en R.

Ejemplo 2.1.7:
( ! !)
1 −2 −3 6
Determine si el subconjunto , de M2×2 (R) es L.I. o L.D.
−6 5 18 −15

Solución. Tenemos que ! !


−3 6 1 −2
= −3 .
18 −15 −6 5
! !
1 −2 −3 6
Se sigue que y son matrices paralelas en M2×2 (R).
−6 5 18 −15
( ! !)
1 −2 −3 6
Luego, por la Observación 2.4(2), el conjunto , es L.D.
−6 5 18 −15

Ejemplo 2.1.8:

Determine si el subconjunto S = {(1, 2 − 1), (0, 0, 0), (2, 0, 1)} de R3 es L.I. o L.D.
56 CAPÍTULO 2. BASES Y DIMENSIÓN

Solución. Tenemos que el elemento nulo (0, 0, 0) ∈ S. Luego, por la Observación 2.4(3), el
conjunto S es L.D.

Ejemplo 2.1.9:
( ! ! !)
1 0 −1 0 1 3 1 1 2
Determine si el subconjunto X = , , de M2×3 (R)
2 5 0 −3 −2 1 −1 3 1
es L.I. o L.D.

Solución. Observemos que


! ! !
1 1 2 1 0 −1 0 1 3
= + .
−1 3 1 2 5 0 −3 −2 1

Es decir, una de las matrices es combinación lineal de las otras dos. Por la Observación 2.4(4),
el conjunto X es L.D.

Ejemplo 2.1.10:
( ! ! ! !)
1 −2 −3 6 1 0 2 −1
Determine si el subconjunto S = , , , de
−6 5 18 −15 3 −4 −1 1
M2×2 (R) es L.I. o L.D.

( ! !)
1 −2 −3 6
Solución. Por el Ejemplo 2.1.7, sabemos que el conjunto , es L.D., el
−6 5 18 −15
cual es un subconjunto de S. Luego, por la Observación 2.4(5), el conjunto S también es L.D.

Ejemplo 2.1.11:

Determine si el subconjunto S = {1 − x, 2 + x2 , −1 + x + x3 , x − x3 , x2 − 4x3 } de P3 [x] es


L.I. o L.D.

Solución. Por el Ejemplo 1.5.8, sabemos que

P3 [x] = gen{1, x, x2 , x3 }.

En otras palabras, 1, x, x2 , x3 son cuatro polinomios que generan al espacio P3 [x]. Mientras que

1 − x, 2 + x2 , −1 + x + x3 , x − x3 , x2 − 4x3

son cinco polinomios en P3 [x]. Luego, por la Observación 2.4(7), el conjunto S es L.D.
2.2. EJERCICIOS PROPUESTOS: DEPENDENCIA E INDEPENDENCIAL LINEAL 57

2.2. Ejercicios propuestos: Dependencia e Independencial


Lineal
1. Determinar si el conjunto de vectores son linealmente independientes o linealmente depen-
dientes.
   
1 −4
a) v1 =  2  , v2 =  3 
   

−4 6
     
1 1 3
b) v1 =  0  , v2 =  1  , v3 =  −1 
     

2 4 1
       
3 −3 0 0
c) v1 =  −3  , v2 =  7  , v3 =  0  , v4 =  −3 
       

0 0 0 5
! ! !
−3 1 4
d) v1 = , v2 = , v3 =
2 10 −5
1 3 0 5
       
 −2   0   4   0 
e) v1 =  ,

v2 =  ,

v3 =  , v4 = 
   
1 2 −1 3
  
       
1 −2 −1 −1
2. Determinar si los siguientes polinomios son L.I. o L.D.
a) En P2 [x], G = {−x, x2 − 2x, 3x + 5x2 }.
b) En P3 [x], G = {x3 − x2 + 1, x2 + x + 2, x3 − 1}.
c) En P3 [x], G = {x3 + 2x2 − 3x + 2, −2x3 − 5x2 + 4x − 1, 3x3 + 10x2 − x − 6}.
d) En P3 [x], G = {2x, x3 − 3, 1 + x − 4x3 , x3 + 18x − 9}.
e) En P2 [x], G = {1 − x, 1 + x, x2 }.
f ) En P3 [x], G = {x3 − x − 1, x2 + x − 1, x3 + 2x2 + x − 3}.
3. Determinar si las siguientes matrices son L.I. o L.D.
( ! ! !)
2 −1 0 −3 4 1
a) En M2×2 (R), H = , , .
4 0 1 5 7 −5
( ! ! ! !)
1 −1 −1 0 1 1 0 1
b) En M2×2 (R), H = , , ,
0 6 3 1 −1 2 1 0

4. Sea V = R3 un espacio vectorial sobre R. Mostrar si el conjunto de vectores


{(1, 2, 3), (2, 3, 1), (1, 1, 4), (5, 1, 1)}
es linealmente independiente sobre R.
58 CAPÍTULO 2. BASES Y DIMENSIÓN

5. Determine para que valores del parámetro k el conjunto


S = {(1, k, 2), (3, 0, 5), (0, −1, −k)}
es L.I. y L.D. en R3
6. Sea V = C2 un espacio vectorial sobre K. Mostrar si el conjunto de vectores
{(1 − i, i), (2, −1 + i)}
es linealmente independientes sobre K, para K = R y K = C.
7. Calcular los valores de k ∈ R para los cuales el conjunto:
( ! ! !)
1 k k 1 0 0
, ,
−1 2 0 2k 1 0
es linealmente independiente sobre el espacio vectorial V = M2×2 (R).
8. Calcular los valores de t ∈ R para los cuales el conjunto
{(1, −1, 0), (−2, 3, 0), (2, 3, t)}
es linealmente dependiente sobre el espacio vectorial V = R.
9. * Determine el valor de k de modo que
{(1, −1, k), (0, 2, −1), (3, 1, 1)}
sea un conjunto L.I.
10. * Determine el valor de k para que el conjunto sea L.I.
( ! ! !)
1 −1 k 0 k−1 1
, ,
k −3 1 −3k 0 3 − 3k

11. Sea S = {v1 , v2 , v3 } un conjunto linealmente independiente. Considere los vectores

w1 = −2v1 + 5v2 , w2 = v1 + v2 , w3 = v1 + v2 + 2v3 .

Demostrar que el conjunto T = {w1 , w2 , w3 } es también linealmente independiente.


12. Sea S = {v1 , v2 , v3 , v4 } un conjunto linealmente independiente. Considere los vectores
−2
u1 = −3v1 , u2 = −v1 + 12 v2 , u3 = 3 1
v − 3v2 + v3 , u4 = − 31 v1 − v2 − v3 + 3v4 .

Verifique que T = {u1 , u2 , u3 , u4 } también es linealmente independiente.


13. Sea S = {v1 , v2 , . . . , vn } un conjunto linealmente independiente. Considere los vectores
u1 = v1 , u2 = v1 + v2 , . . . , un = v1 + v2 + · · · + vn
Demuestre que el conjunto {u1 , u2 , ..., un } también es linealmente independiente.
2.3. BASE DE UN ESPACIO VECTORIAL 59

2.3. Base de un espacio vectorial


Objetivo. Aprender el concepto de base y dimensión de un Espacio Vectorial. Identificar cuando
un conjunto de vectores es una base.

Definición 2.6. Sea V un espacio vectorial sobre un campo K. Decimos que un subconjunto de
vectores B = {v1 , v2 , . . . , vn } de V es una base de V si

(1) B = {v1 , v2 , . . . , vn } es linealmente independiente, es decir,

α1 v1 + α2 v2 + ... + αn vn = 0 =⇒ α1 = α2 = · · · = αn = 0

(2) B = {v1 , v2 , . . . , vn } es un conjunto generador de V, es decir,

V = gen{v1 , v2 , . . . , vn }

Ejemplo 2.3.1:

Determine si el conjunto B = {(1, −2, 1), (2, −3, 0), (−1, 1, 0)} es una base del espacio
vectorial R3 .

Solución. Verifiquemos si valen las dos condiciones:

(1) Para ver que B = {(1, −2, 1), (2, −3, 0), (−1, 1, 0)} es L.I., debemos de verificar que la
siguiente combinación lineal

c1 (1, −2, 1) + c2 (2, −3, 0) + c3 (−1, 1, 0) = (0, 0, 0)

tenga como única solución a c1 = c2 = c3 = 0. Esto es equivalente a resolver el sistema


lineal:     
1 2 −1 c1 0
−2 −3 1  c2  = 0
    

1 0 3 c3 0
Resolveremos por eliminación Gaussiana:

2 −1 0 F2 +2F1 1 2 −1 0
     
1 1 2 −1 0
 F3 −F1   F3 +2F2 
 −2 −3 1 0  −→  0 1 −1 0  −→  0 1 −1 0 


1 0 3 0 0 −2 4 0 0 0 2 0

Luego, este sistema es compatible determinado con

c1 = c2 = c3 = 0

Osea, B es LI.
60 CAPÍTULO 2. BASES Y DIMENSIÓN

(2) Para ver que B es un conjunto generador, debemos ver si para todo (x, y, z) ∈ R3 es posible
la siguiente combinación lineal
(x, y, z) = c1 (1, −2, 1) + c2 (2, −3, 0) + c3 (−1, 1, 0) = (0, 0, 0)
Esto es equivalente a resolver el sistema lineal:
    
1 2 −1 c1 x
−2 −3 1  c2  = y 
    

1 0 3 c3 z
Resolveremos por eliminación Gaussiana:
2 −1 x F2 +2F1 1 2 −1
     
1 x 1 2 −1 x
 F3 −F1   F3 +2F2 
 −2 −3 1 y  −→  0 1 −1 y + 2x  −→  0 1 −1 y + 2x
 

1 0 3 z 0 −2 4 z − x 0 0 2 z + 3x + 2y
Luego, este sistema es compatible determinado. Por tanto, B es un conjunto generador de
R3 .
Concluimos que B es una base para R3 .

Ejemplo 2.3.2:

Determine si el conjunto S = {1 − 2x + x2 , 2 − 3x, 3 − 5x + x2 } es una base del espacio


vectorial P2 [x].

Solución. Verifiquemos si valen las dos condiciones:


(1) Para ver que S = {1 − 2x + x2 , 2 − 3x, 3 − 5x + x2 } es L.I., debemos de verificar que la
siguiente combinación lineal
c1 (1 − 2x + x2 ) + c2 (2 − 3x) + c3 (3 − 5x + x2 ) = 0
tenga como única solución a c1 = c2 = c3 = 0. Esto es equivalente a
(c1 + 2c2 + 3c3 ) + (−2c1 − 3c2 − 5c3 )x + (c1 + c3 )x2 = 0 = 0 + 0 · x + 0 · x2 ,
del cual se obtiene el sistema lineal:


 c1 + 2c2 + 3c3 = 0
−2c1 − 3c2 − 5c3 = 0


c1 + c3 = 0
Resolviendo por eliminación Gaussiana:
     
1 2 3 0 1 2 3 0 1 0 1 0
 F2 +2F1   F3 +2F2 
 −2 −3 −5 0  −F−−−F
−−→  0 1 1 0 −−−→  0 1 1 0 
 −F−−−2F
 
3 1 1 2
1 0 1 0 0 −2 −2 0 0 0 0 0
De aquí, tenemos que es un sistema homogéneo es compatible indeterminado. Luego, el
conjunto S es L.D.
Como falla el item (1), se concluye que S no es una base de P2 [x].
2.4. DIMENSIÓN DE UN ESPACIO VECTORIAL 61

2.4. Dimensión de un espacio vectorial


Un propiedad importante en común de las bases en un espacio vectorial es que siempre
conservan la cantidad de vectores. Mas precisamente se tiene el siguiente resultado.
Teorema 2.7. Sea V un espacio vectorial sobre K. Si {v1 , v2 , ..., vm } y {w1 , w2 , ..., wn } son bases
de V, entonces m = n. Es decir, cualesquiera dos bases en un espacio vectorial V tienen el mismo
número de vectores.
Este resultado nos permite definir uno de los conceptos centrales en el álgebra lineal:
Definición 2.8. Si un espacio vectorial V tiene una base B = {v1 , v2 , ..., vn }, entonces decimos
que la dimensión de V es n. En este caso, decimos que V es un espacio vectorial de dimensión
finita igual a n. Si V = {0}, entonces se dice que V tiene dimensión cero.
Notación: La dimensión del espacio V se denota por dim V.

Ejemplo 2.4.1: Dimensión del espacio Euclideano


El conjunto dado por

B = {(1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, . . . , 0, 1)}

es una base de Rn , el cual es denominado base canónica de Rn . De modo que

dim(Rn ) = n

Ejemplo 2.4.2: Dimensión del espacio de polinomios de grado ≤ k

El conjunto B = {1, x, x2 , . . . , xk } es una base de Pk [x], la cual se denomina base canónica


de Pk [x]. Se sigue que
dim(Pk [x]) = k + 1.

Ejemplo 2.4.3: Dimensión de matrices


El conjunto dado por
 
0 ··· 1 ··· 0 ···
   
 1
 0 0 0 0 0  
0 ··· 0 ··· 0 ···
 
0 0  0 0 0 0

   
 
B= .
. .. . .  , .
..   .. . .  , . . .  ..
..   .. . . .. 





. . . .   .. . . . . . . . 


0 0 ··· 0 0 0 ··· 0 0 0 ··· 1
 

es una base de Mm×n (R), la cual se denomina base canónica de Mm×n (R). Se sigue que

dim(Mm×n (R)) = mn.


62 CAPÍTULO 2. BASES Y DIMENSIÓN

Ejemplo 2.4.4:
Calcule la dimensión del subespacio

W = {(x, y, z, t) ∈ R4 : x − 2y + 2z + t = 0, x − y − 3z − t = 0}.

Solución. Lo que debemos hacer primero es plantear un conjunto generador y luego ver si dicho
conjunto es también linealmente independiente:
• Conjunto generador para W.
Dado (x, y, z, t) ∈ W. Tenemos el sistema lineal
x − 2y + 2z + t = 0
x − y − 3z − t = 0
Resolviendo el sistema por eliminación Gauss-Jordan:
! ! !
1 −2 2 1 0 1 −2 2 1 0 1 0 −8 −3 0
F2 − F1 F1 + 2F2
1 −1 −3 −1 0 −−−−−→ 0 1 −5 −2 0 −−−−−→ 0 1 −5 −2 0
De aquí, ( (
x − 8z − 3t = 0 x = 8z + 3t
=⇒ .
y − 5z − 2t = 0 y = 5z + 2t
Luego,
(x, y, z, t) = (8z + 3t, 5z + 2t, z, t) = z(8, 5, 1, 0) + t(3, 2, 0, 1).
De modo que
W = gen{(8, 5, 1, 0), (3, 2, 0, 1)}.

• Verifiquemos si el conjunto generador es L.I.


Como los vectores (8, 5, 1, 0) y (3, 2, 0, 1) no son paralelos, se sigue de la Observación 2.4(2)
que el conjunto
{(8, 5, 1, 0), (3, 2, 0, 1)}
si es linealmente independiente.
Por tanto, el conjunto
B = {(8, 5, 1, 0), (3, 2, 0, 1)}
es una base de W. Concluyendo que dim W = 2.

Ejemplo 2.4.5:
Determine si el conjunto
S = {1 − 2x, 2 + 2x − 3x2 }
es una base de P2 [x]
2.4. DIMENSIÓN DE UN ESPACIO VECTORIAL 63

Solución. Del Ejemplo 2.4.2, se sabe que

dim P2 [x] = 3.

Luego, por el Teorema 2.7, tenemos que cualquier base de P2 [x] debe tener exactamente tres
vectores. Como S tiene apenas dos vectores, se concluye que S no es una base de P2 [x].

Proposición 2.9. Sea V un espacio vectorial de dimensión dim V = n. Un conjunto de n-vectores


{v1 , v2 , ..., vn } genera al espacio V si, y solamente si, {v1 , v2 , ..., vn } es L.I.

Como consecuencia tenemos el siguiente resultado:

Corolario 2.10. Sea V un espacio vectorial de dimensión dim V = n. Entonces vale lo siguiente:

1. Si {v1 , v2 , ..., vn } es L.I., entonces {v1 , v2 , ..., vn } es una base de V.

2. Si {v1 , v2 , ..., vn } es un conjunto generador de V, entonces {v1 , v2 , ..., vn } es una base de V.

Ejemplo 2.4.6:

Determine si el conjunto {1 − x, 2 + x} es una base de P1 [x].

Solución. Verifiquemos que {1 − x, 2 + x} es L.I. Sean c1 , c2 ∈ R tales que

c1 (1 − x) + c2 (2 + x) = 0

Sigue que
(c1 + 2c2 ) + (−c1 + c2 )x = 0
Como {1, x} es L.I., se sigue que (
c1 + 2c2 = 0
−c1 + c2 = 0
Resolviendo este sistema, obtenemos que

c1 = c2 = 0

Por tanto, {1 − x, 2 + x} es L.I. Luego, por el Corolario 2.10, tenemos que {1 − x, 2 + x} es una
base de P1 [x].

Ejemplo 2.4.7:
Determine si el conjunto

S = {(1, 1, 1), (2, −1, 3), (1, −4, 3)}

es una base de R3 .
64 CAPÍTULO 2. BASES Y DIMENSIÓN

Solución. Verifiquemos que el conjunto S es L.I. Sean c1 , c2 , c3 ∈ R tales que

c1 (1, 1, 1) + c2 (2, −1, 3) + c3 (1, −4, 3) = (0, 0, 0)

Sigue que
(c1 + 2c2 + c3 , c1 − c2 − 4c3 , c1 + 3c2 + 3c3 ) = (0, 0, 0),
el cual es equivalente al sistema lineal homogéneo


 c1 + 2c2 + c3 = 0
c1 − c2 − 4c3 = 0


c1 + 3c2 + 3c3 = 0

Resolviendo este sistema por eliminación Gaussiana:


     
1 2 1 0 1 2 1 0 1 2 1 0
 F2 −F1 
 1 −1 −4 0  −F−−−F
−−→  0 −3 −5 0  F2 ↔ F3  0 1 2 0 
  
−−−−−→

3 1
1 3 3 0 0 1 2 0 0 −3 −5 0
 
1 2 1 0
F3 + 3F2  0 1 2 0 
 
−−−−−→
0 0 1 0

De modo que el sistema homogéneo es compatible determinado. Luego, por la Observación 2.2,
el conjunto S es L.I. Como dim R3 = 3, se sigue del Corolario 2.10 que S es base de R3 .
Veremos a seguir otras propiedades importantes de la dimensión.
Teorema 2.11. Sea V un espacio vectorial con dim V = n. Entonces
(1) Todo conjunto generador S = {v1 , v2 , . . . , vk } de V, contiene una base de V.

(2) Si {v1 , v2 , ..., vk } es un conjunto L.I., entonces k ≤ n.

(3) Si {v1 , v2 , ..., vk }, con k < n, es un conjunto L.I., entonces existen vectores vk+1 , vk+2 , . . . , vn
tales que
B = {v1 , v2 , . . . , vk , vk+1 , . . . , vn }
es una base de V.

(4) Si W es un subespacio de V, entonces dim W ≤ dim V.

(5) Si W es un subespacio de V, entonces

dim W = dim V ⇐⇒ W = V

Observación 2.12. Una forma para completar un conjunto L.I. a una base del espacio Rn es
dada por los siguientes pasos:
1. Colocar los vectores en filas en una matriz.
2.4. DIMENSIÓN DE UN ESPACIO VECTORIAL 65

2. Hacer operaciones elementales hasta llegar a su forma escalonada.

3. Escoger adecuadamente algunos vectores de la base canónica y colocar en las ultimas filas
de la matriz escalonada (del item anterior) para sea cuadrada y de rango completo.

4. Los vectores de la base canónica que se tomó en el paso anterior son los vectores que
completan a una base.

Ejemplo 2.4.8:

Complete el siguiente conjunto L.I. {(1, 0, 1), (1, 0, −1)} a una base de R3 .

Solución. Coloquemos los vectores del conjunto L.I. en filas:


! !
1 0 1 1 0 1
F2 − F1
1 0 −1 −−−−−→ 0 0 −2
 
En esta matriz escalonada no podemos agregarle en la ultima fila el vector 1 0 0 , ya que
obtendríamos la siguiente matriz no invertible
 
1 0 1
 0 0 −2 
 

1 0 0
 
Pero si colocamos en la ultima fila al vector 0 1 0 , tendríamos la matriz
 
1 0 1
 0 0 −2  ,
 

0 1 0

la cual es invertible. Por tanto, el siguiente conjunto

{(1, 0, 1), (1, 0, −1), (0, 1, 0)}

completa a una base de R3 .

Ejemplo 2.4.9:

En R3 , considere los subespacios

L = gen{(1, −1, 0), (2, −1, −1)} y W = {(x, y, z) ∈ R3 : x + y + z = 0}.

Determine si L = W.
66 CAPÍTULO 2. BASES Y DIMENSIÓN

Solución. Tenemos que (1, −1, 0), (2, −1, −1) ∈ W. Por la Observación 1.18, tenemos que

L = gen{(1, −1, 0), (2, −1, −1)} ⊂ W (2.4)

Hallemos la dimensión de W. Dado (x, y, z) ∈ W, tenemos que

x + y + z = 0 =⇒ z = −x − y.

Luego,
(x, y, z) = (x, y, −x − y) = x(1, 0, −1) + y(0, −1, 1).
De modo que
W = gen{(1, 0, −1), (0, −1, 1)}.
Como (1, 0, −1) y (0, −1, 1) no son paralelos, se sigue que son L.I. De aquí,

dim W = 2.

Hallemos ahora la dimensión de L. Como (1, −1, 0) y (2, −1, −1) no son paralelos, se sigue que
son L.I. De aquí,
dim L = 2.
En resumen, tenemos que L ⊂ W y dim L = dim W = 2. Se sigue del Teorema 2.11(5) que

L = W.

2.5. Ejercicios propuestos: Bases y dimensión


1. En los siguientes ejercicios determinar si el conjunto de polinomios B es o no una base para
el espacio P3 [x].

a) B = {x3 + x2 − 2x, 4x3 − 3, 2x3 + 4x2 − 3x + 1, 2x3 + 2x2 − 1},


b) B = {x3 + x2 + 1, x3 − 1, x3 + x2 + x},
c) B = {2 + 3x − 2x2 + 2x3 , −x + 4x2 , 1 − x3 , 3 − 2x + 3x2 − 2x3 }
d) B = {x2 + x3 − 1, x3 − 2x + 4, x2 − x + 1, 2x3 − x2 }
e) B = {x3 + 3x2 , −2x3 − 3x2 + x, }

2. Sea S = {(1, 0, 2), (−2, 0, −4), (0, −1, 2), (1, 1, 0)} un conjunto generador de H. Extraer una
base de H a partir de S.

3. Pruebe que los polinomios 1, x − 1 y x2 − 3x + 1 forman una base del espacio vectorial
V = P2 [x]. Exprese el polinomio 2x2 − 5x + 6 como una combinación lineal de los elementos
de dicha base.
2.5. EJERCICIOS PROPUESTOS: BASES Y DIMENSIÓN 67

4. En cada uno de los siguientes ejercicios determine una base del espacio vectorial V y su
halle su respectiva dimensión.

a) V = gen{x2 − 2x + 1, 3x − 2, x2 + x − 1}
b) V = {(x1 , x2 , x3 , x4 , x5 ) ∈ R5 : −2x1 + 3x2 − x3 + 4x4 − 2x5 = 0}
c) V = {(x, y, z, t) ∈ R4 : x = z, y = −t}
d) V = {(x, y, z, t) ∈ R4 : x + y + z = 0, t = 0}
e) S = {(x, y, z, t) ∈ R4 : x − y = 0}, T = gen {(1, −1, 0, 2), (−2, 0, −1, 3)} y tome
V = S + T.
f ) S = {p(x) ∈ P3 [x] : p(1) = 0, p(−1) = 0}, T = {p(x) ∈ P3 [x] : p(2) = 0, p(−1) = 0}
y tome V = S + T.
g) S = {(x, y, z, t) ∈ R4 : x + 2y + 3z + 3t = 0, x + 3y + 4z + 5t = 0},
T = {(x, y, z, t) ∈ R4 | x + y + z = 0, −x + z + t = 0} y tome V = S + T.
h) V = gen{(−2, 0, −4), (0, −1, 2), (1, 1, 0)}
i) V = gen{(1, 0, 2), (−2, 0, −4), (0, −1, 2), (1, 1, 0)}
j) V = gen{(1, 1, 2, 1), (2, −1, 2, 1), (1, −1, 1, −1), (0, 3, 2, 1)}
k) V = gen{(1, 2, −4, 1), (−1, 3, −6, 4), (−2, −4, 8, −2), (−3, −1, 2, 2)}

5. * Sea W = {p(x) ∈ P2 [x] : p(−3) = p(1)} un subespacio vectorial del espacio vectorial
P2 [x]. Halle una base para W e indique su dim(W).

6. Para los ejercicios siguientes, obtenga una base y la dimensión para el espacio solución W
del sistema homogéneo indicado
(
x − 3y = 0
a)
−2x + 2y = 0


 x − 4y + z = 0
b) −2x + 2y − 3z = 0
−3x + 6y − 4z = 0




 2x − 6y + 4z = 0
c) −2x + 3y − z = 0
−3x + 2y − 6z = 0

7. Sea {v1 , v2 , v3 , v4 } una base de V y considere los vectores

u1 = v1 , u2 = v1 − 2v2 , u3 = −4v1 + v2 + v3 y u4 = −v1 + 3v2 + v3 − 4v4 .

Demuestre que {u1 , u2 , u3 , u4 } también es una base de V.


68 CAPÍTULO 2. BASES Y DIMENSIÓN

2.6. Matriz cambio de base


Objetivo.

Identificar al vector de coordenadas de un vector respecto a diversas bases.

Comprender el concepto de matriz cambio de base y aprender a usar las relaciones que
tiene este concepto con los vectores de coordenadas.

2.6.1. Vector de coordenadas


Sea V un espacio vectorial sobre K y sea B = {v1 , v2 , . . . , vn } una base de V. Dado un vector
v ∈ V, entonces existen escalares únicos α1 , α2 , ..., αn en K tales que

v = α1 v1 + α2 v2 + . . . + αn vn

El vector de coordenadas de v en la base B es definida como el vector columna:


 
α1
 α2 
 
[v]B = 
 .. 

 . 
αn

Los escalares α1 , α2 , . . . , αn son denominados coordenadas del vector v en la base B.

Ejemplo 2.6.1:

Calcule el vector de coordenadas del polinomio 5x + 3 ∈ P1 [x] con respecto a la base


B = {x − 1, x + 1}

Solución. El vector de coordenadas de v = 5x + 3 en la base B es dado por


!
α1
[v]B =
α2

donde los escalares α1 y α2 satisfacen que

5x + 3 = α1 (x − 1) + α2 (x + 1)
5x + 3 = (α1 + α2 ) + (−α1 + α2 )x,

el cual es equivalente a resolver el sistema lineal:

α1 + α2 = 5
−α1 + α2 = 3
2.6. MATRIZ CAMBIO DE BASE 69

La solución es dada por


α1 = 4 y α2 = 1
Por lo tanto, el vector de coordenadas es
!
4
[v]B =
1

Ejemplo 2.6.2:

Hallar el vector de coordenadas de v = (2, −1, 5) en la base

B = {(1, −2, 1), (2, −3, 0), (−1, 1, 3)}

del espacio vectorial R3 .

Solución. El vector de coordenadas de v en la base B es dado por


 
α1
[v]B = α2 
 

α3
donde los escalares satisfacen

(2, −1, 5) = α1 (1, −2, 1) + α2 (2, −3, 0) + α3 (−1, 1, 3)


= (α1 + 2α2 − α3 , −2α1 − 3α2 + 3α3 , α1 + 3α3 ),

el cual es equivalente al siguiente sistema lineal de ecuaciones


α1 + 2α2 − α3 = 2
−2α1 − 3α2 + 3α3 = −1
α1 + 3α3 = 5
Resolvamos usando el método de eliminación de Gauss-Jordan:
F2 +2F1
1 2 −1 2 F1 −2F2 1 0 −3 −4
     
1 2 −1 2
F3 −F4  F3 +2F2 
 −2 −3 3 −1 
 −→  0 1  −→  0 1 1
1 3  3 


1 0 3 5 0 −2 4 3 0 0 6 9
1 0 −3 −4 F1 +3F3 1 0 0 1
   
1 2
F
6 3 F2 −F3  3
−→  0 1 1

 −→  0 1 0
3  2


3 3
0 0 1 2
0 0 1 2

Luego, la solución es dada por


1 3 3
α1 = , α 2 = y α3 =
2 2 2
70 CAPÍTULO 2. BASES Y DIMENSIÓN

Por lo tanto,  
1/2
[v]B = 3/2
 

3/2

Ejemplo 2.6.3:
( ! )
0 a
Considere el espacio vectorial V = : a, b ∈ R con base
b 0
( ! !)
0 1 0 −2
B= , .
2 0 1 0
!
0 1
Calcule el vector de coordenadas de A = en la base B.
7 0

Solución. Hallemos los escalares α y β tales que


! ! !
0 1 0 1 0 −2
= α +β
7 0 2 0 1 0
!
0 α − 2β
= ,
2α + β 0
el cual es equivalente a resolver el sistema lineal
α − 2β = 1
.
2α + β = 7
Se tiene, que la solución a este sistema es α = 3 y β = 1. Por tanto, el vector de coordenadas de
A es !
3
[A]B = .
1

Ejemplo 2.6.4:

Sea B = {1 − x,

2 −x2 , 5x − x2 } una base de P2 [x]. Halle el polinomio p(x) ∈ P2 [x] sabiendo
3
que [p(x)]B = −4

.
2

Solución. Por definición de vector de coordenadas tenemos que


p(x) = 3(1 − x) − 4(2 − x2 ) + 2(5x − x2 ) = −5 + 7x + 2x2 .
2.6. MATRIZ CAMBIO DE BASE 71

2.6.2. Matriz Cambio de Base


Sea V un espacio vectorial sobre K y sean
B1 = {v1 , v2 , . . . , vn } y B2 = {w1 , w2 , . . . , wn }
dos bases en V. Considerando un vector v ∈ V, es natural preguntar cual es la relación entre los
vectores de coordenadas [v]B1 y [v]B2 . El siguiente resultado nos dá la respuesta a esa cuestión.
Teorema 2.13. Existe una matriz, denotada por [I]B1 →B2 = (aij ) ∈ Mn×n (K), que satisface que
[v]B2 = [I]B1 →B2 · [v]B1
Dicha matriz es denominada matriz cambio de base de B1 en B2 y se calcula hallando
los escalares aij de las siguientes combinaciones lineales
v1 = a11 w1 + a21 w2 + · · · + an1 wn
v2 = a12 w1 + a22 w2 + · · · + an2 wn
.. .. .. .. ..
. . . . .
vn = a1n w1 + a2n w2 + · · · + ann wn

Ejemplo 2.6.5:

Dadas las bases en R2

B1 = {(5, 3), (4, 1)} y B2 = {(1, 1), (2, 3)}

Calcule la matriz de cambio de base [I]B1 →B2

Solución. Tenemos que hallar la matriz


!
a a
[I]B1 →B2 = 11 12
a21 a22
donde los escalares cumplen que
(5, 3) = a11 (1, 1) + a21 (2, 3)
(4, 1) = a12 (1, 1) + a22 (2, 3)
dichas combinaciones lineales son equivalentes a los sistemas lineales:
( (
a11 + 2a21 = 5 a12 + 2a22 = 4
y
a11 + 3a21 = 3 a12 + 3a22 = 1
o que matricialmente es equivalente a
! ! ! ! ! !
1 2 a11 5 1 2 a12 4
= y =
1 3 a21 3 1 3 a22 1
72 CAPÍTULO 2. BASES Y DIMENSIÓN

Podemos juntar estos dos sistemas matriciales en uno solo


! ! !
1 2 a11 a12 5 4
=
1 3 a21 a22 3 1

Resolvamos este sistema usando el método de eliminación de Gauss-Jordan


! ! !
1 2 5 4 F2 −F1 1 2 5 4 F1 −2F2 1 0 9 10
−→ −→
1 3 3 1 0 1 −2 −3 0 1 −2 −3

Por tanto,
! !
a a 9 10
[I]B1 →B2 = 11 12 =
a21 a22 −2 −3

Ejemplo 2.6.6:

Considere en R3 , las bases

B1 = {(3, 0, 0), (1, −2, 0), (1, 1, −3)} y B2 = {(1, −2, 1), (2, −3, 0), (−1, 1, 3)}.

Halle la matriz cambio de base de B1 a B2 .

Solución. Debemos hallar la matriz


 
a11 a12 a13
[A]B1 →B2 = a21 a22 a23 
 

a31 a32 a33

donde sus entradas son dadas por

(3, 0, 0) = a11 (1, −2, 1) + a21 (2, −3, 0) + a31 (−1, 1, 3)


(1, −2, 0) = a12 (1, −2, 1) + a22 (2, −3, 0) + a32 (−1, 1, 3)
(1, 1, −3) = a13 (1, −2, 1) + a23 (2, −3, 0) + a33 (−1, 1, 3)

El cual es equivalente a resolver el sistema matricial


    
1 2 −1 a11 a12 a13 3 1 1
−2 −3 1  a21 a22 a23  = 0 −2 1 
    

1 0 3 a31 a32 a33 0 0 −3


2.6. MATRIZ CAMBIO DE BASE 73

Resolviendo por eliminación de Gauss-Jordan


 F2 +2F1   
1 2 −1 3 1 1 1 2 −1 3 1 1
F3 −F4 
 −2 −3 1  −→  0 1 −1
0 −2 1  6 0 3 


1 0 3 0 0 −3 0 −2 4 −3 −1 −4
F1 −2F2    
1 0 1 −9 1 −5 1
F
1 0 1 −9 1 −5
F3 +2F2  2 3 
−→  0 1 −1 6 0 3 
 −→  0 1 −1 6 0 3 

9 1
0 0 2 9 −1 2 0 0 1 2
− 2
1
F1 −F3
1 0 0 − 27 3
 
2 2
−6
F2 +F3  21 1
−→  0 1 0 2
−2 4  
9 1
0 0 1 2
− 2
1

Por lo tanto,
− 27 32 −6
   
a11 a12 a13
 212
[A]B1 →B2 = a21 a22 a23  =  2 − 12 4 
  
9
a31 a32 a33 2
− 12 1

Observación 2.14. La matriz aumentada a la que aplicamos el método de eliminación Gauss-


Jordan es dada por
 
↑ ↑ ··· ↑ ↑ ↑ ··· ↑

 w1 w2 · · · wn v1 v2 · · · vn 
 ,
↓ ↓ ··· ↓ ↓ ↓ ··· ↓
| {z } | {z }
B2 B1

la cual se obtiene de colocar como columnas (vectores de coordenadas en la base canónica)


a los vectores de la base B2 = {w1 , w2 , . . . , wn } en el lado izquierdo y a los vectores de la base
B1 = {v1 , v2 , . . . , vn } en el lado derecho.

Ejemplo 2.6.7:

Considere en R3 , las bases

B1 = {(2, 1, 0), (−1, 1, 2), (3, −1, 3)} y B2 = {(1, −1, 0), (1, 1, 1), (−1, 0, −1)}.

Halle la matriz cambio de base de B1 a B2 .

Solución. Por la observación anterior tenemos la siguiente matriz aumentada


 
1 1 −1 2 −1 3

 −1 1 0 1 1 −1 

0 1 −1 0 2 3
| {z } | {z }
B2 B1
74 CAPÍTULO 2. BASES Y DIMENSIÓN

Resolviendo por eliminación de Gauss-Jordan:


   
1 1 −1 2 −1 3 1 1 −1 2 −1 3

−1 1 0 1 1 −1 
F
 2 + F  0 2 −1 3 0 2 
 
−−−−−→1

0 1 −1 0 2 3 0 1 −1 0 2 3
1 0 − 12 12 −1 2
   
1 1 −1 2 −1 3
1   F −F2 
F2  0 1 − 21 32 0 1  −F−31−−F
−−→  0 1 − 1
2
3
2
0 1 
2

2
1 3
−−→ 0 1 −1 0 2 3 0 0 −2 −2 2 2
   
1 0 0 2 −3 0 1 0 0 2 −3 0
F1 −F3 
−−−−−→  0 1
F2 −F3
0 3 −2 −1  −2F3  0 1 0 3 −2 −1 
 
−−−→

1 3
0 0 −2 −2 2 2 0 0 1 3 −4 −4

De aquí, concluimos que  


2 −3 0
[I]B1 →B2 = 3 −2 −1 .
 

3 −4 −4

Ejemplo 2.6.8:

En P1 [x], considere las bases

B1 = {1 + x, 3 − 4x} y B2 = {1 − x, 2 + x}.

Halle la matriz cambio de base de B1 a B2 .

Solución. Tenemos la siguiente matriz aumentada


!
independiente → 1 2 1 3
lineal → −1 1 1 −4
| {z } | {z }
B2 B1
Resolviendo por eliminación Gauss-Jordan
! ! !
1 2 1 3 1 2 1 3 1 1 2 1 3
F +F F2
−1 1 1 −4 −−2−−−→1 0 3 2 −1 3−→ 0 1 23 − 31
− !
1 0 − 31 11
F1 − 2F2 3
−−−−−→ 0 1 23 − 31

Por tanto, la matriz cambio de base es


!
− 31 11
3
[I]B1 →B2 = 2
3
− 13
2.6. MATRIZ CAMBIO DE BASE 75

Ejemplo 2.6.9:

Sea W = {A ∈ M2×2 (R) : AT = A} el espacio de matrices simétricas. Considere las bases


( ! ! !) ( ! ! !)
1 0 0 1 0 0 1 0 −1 −1 1 1
B1 = , , y B2 = , ,
0 0 1 0 0 −1 0 0 −1 0 1 1

Halle la matriz cambio de base de B1 a B2 .

Solución. Tenemos la siguiente matriz aumentada

posición a11 → 1 −1 1 1 0 0
 

posición a12 → 
 0 −1 1 0 1 0 

posición a21 → 0 −1 1 0 1 0
 
 
posición a22 → 0 0 1 0 0 −1
| {z } | {z }
B2 B1

Resolviendo por eliminación de Gauss-Jordan

1 −1 1 1 0 0 1 0 0 1 0 0
   
 0 −1 1 0 1 0 
 F1 −F2 
 0 −1 1 0 1 0 
 −F−−−F
−−→ 
 
0 −1 1 0 1 0 0 0 0 0 0 0
 
  3 2  
0 0 1 0 0 −1 0 0 1 0 0 −1
1 0 0 1 0 0
 

−F2 
 0 1 −1 0 −1 0 

−−−−−→

F3 ↔F4  0 0 1 0 0 −1


0 0 0 0 0 0
1 0 0 1 0 0
 
 0 1 0 0 −1 −1 
F2 + F3  
−−−−−→  0 0 1 0 0 −1
 

0 0 0 0 0 0

Por tanto, la matriz cambio de base es


 
1 0 0
[I]B1 →B2 = 0 −1 −1

.
0 0 −1

Teorema 2.15. Sea V un espacio vectorial y sean B1 , B2 y B3 tres bases de V. Entonces valen
las siguientes propiedades

1. [I]B2 →B1 = ([I]B1 →B2 )−1

2. [I]B1 →B3 = [I]B2 →B3 [I]B1 →B2


76 CAPÍTULO 2. BASES Y DIMENSIÓN

Ejemplo 2.6.10:

Considere en R3 , las bases

B1 = {(2, 1, 0), (−1, 1, 2), (3, −1, 3)} y B2 = {(1, −1, 0), (1, 1, 1), (−1, 0, −1)}.

Halle la matriz cambio de base de [I]B2 →B1 .

Solución. Del Ejemplo 2.6.7, se sabe que


 
2 −3 0
[I]B1 →B2 = 3 −2 −1
 

3 −4 −4
Por el teorema anterior tenemos que
[I]B2 →B1 = ([I]B1 →B2 )−1
 −1
2 −3 0
= 3 −2 −1
 

3 −4 −4
 
−4 12 −3
1 
= −9 8 −2

19
6 1 −5

Ejemplo 2.6.11:

Sean B1 y B2 = {1 − x, 2 + 5x} dos bases en P1 [x] tales que


!
1 2
[I]B1 →B2 = .
2 −1
!
3
Sea p(x) es un polinomio en P1 [x] tal que [p(x)]B1 = . Halle p(x).
−5

Solución. Tenemos que


[p(x)]B2 = [I]B1 →B2 [p(x)]B1
! ! !
1 2 3 −7
= =
2 −1 −5 11
Por tanto,
p(x) = −7(1 − x) + 11(2 + 5x) = 15 + 62x
2.7. EJERCICIOS PROPUESTOS: MATRIZ CAMBIO DE BASE 77

2.7. Ejercicios propuestos: Matriz cambio de base


1. En el siguiente bloque de ejercicios, calcule [v]B , donde v = (−4, 2) ∈ R2 .

a) B = {(1, 1), (2, −2)}.


b) B = {(2, −3), (3, −2)}.
c) B = {(5, −2), (3, −1)}.
d) B = {(a, c), (b, d)}, donde ad − bc 6= 0.

2. En P2 [x], considere las bases


n o n o
B1 = x2 − 2, −x2 + x, 2x + 1 y B2 = x2 , 3x2 + x, 2x2 − x + 2 .

a) Calcule [v]B1 donde v = 3x2 − x + 4 ∈ P2 [x].


b) Calcule la matriz [I]B1 →B2 .
c) Use los items a) y b) para calcular [v]B2 .

3. En R2 , considere las bases B1 = {(1, 1), (2, 3)} y B2 = {(4, 3),!(5, 1)}. Sean u, !
v ∈ R2 tal
−2 4
que sus respectivos vectores de coordenados son [u]B1 = y [v]B2 = .
3 5

a) Halle la matriz cambio de base [I]B1 →B2 .


b) Calcule los vectores de coordenadas [u]B2 y [v]B1 .

4. En R3 , considere las bases

B1 = {(1, −1, 0), (0, 1, −1), (1, 0, 1)} y B2 = {(3, 0, 0), (1, 2, −1), (0, 1, 5)}.
   
1 −5
Sean v, w ∈ R3 cuyos vectores de coordenadas son [v]B1 =  1  y [w]B2 =  −1 .
   

3 −2
Calcule los vectores de coordenadas [v]B2 y [w]B1 .

5. Sea p(x) un polinomio en P2 [x] y suponga que B1 = {1 − x, 3x, x2 − 2x + 3} y B2 son dos


bases en P2 [x] tales que
   
4 1 1 −1
[p(x)]B2 = 2 

 y [I]B1 →B2 = −1 1 0 


1 0 1 −1

Halle el polinomio p(x).


78 CAPÍTULO 2. BASES Y DIMENSIÓN
 
3
6. En el espacio P2 [x], considere q(x) un polinomio que satisface [q(x)]B1 =  1 , donde
 

−2
2 2
B1 = {3 − x, −3x − 2x , x − x − 1} es una base de P2 [x]. Halle el vector de coordenadas
de q(x) en la base B2 = {3 − 2x, −2 + x, 3x + x2 − 1}.
7. Sean B1 y B2 = {(1, −2, −3), (1, 0, 3), (3, −2, 1)} dos bases de R3 tales que
 
1 1 −1
[I]B1 →B2 −1 1 0  .
= 

−1 2 −1
Hallar explícitamente los vectores de la base B1 .
8. Sean B1 = {(−3, 0, 1), (1, −1, 2), (1, 1, −1)} y B2 = {(2, −3, 1), (0, 1, 1), (1, −1, 0)} bases
del espacio R3
a) Halle la matriz cambio de base [I]B1 →B2
b) Sabiendo que v ∈ R3 satisface [v]B1 = (0, −4, −3), halle [v]B2 .
9. En los siguientes ejercicios, calcule v a partir de los datos proporcionados
2 1 1 −1 2
   
 −1   0 1 4 1 
a) [v]B2 =  , [I]B1 →B2 =  y
   
−4 1 1 3 2 

  
2 0 0 1 1
( ! ! ! !)
1 1 0 0 1 0 0 1
B1 = , , ,
0 0 1 1 0 1 0 1
   
3 1 2 3
b) [v]B2 =  2 , [I]B1 →B2 =  0 −1 1  y
   

1 0 −3 2
n o
B1 = x2 + x + 2, x2 + 2x + 1, x2 + 2x + 2 .
n o
10. * Considere S = A ∈ M2×2 (R) : AT = A el espacio de matrices simétricas de tamaño
2 × 2. En este espacio considere dos bases
( ! ! !) ( ! ! !)
1 0 1 1 0 0 1 0 1 −1 0 1
B1 = , , y B2 = , , .
0 0 1 1 0 1 0 1 −1 2 1 0
Calcule la matriz de cambio de base [I]B1 →B2 .
11. * Considere el espacio H = {p(x) ∈ P3 [x] : p(0) = 0}. En este espacio considere las bases
n o n o
B1 = 3x3 + x2 − x, x2 , −2x3 + x y B2 = x3 + x2 , x2 + x, −x3 .
Calcule la matriz cambio de base [I]B1 →B2 .
2.7. EJERCICIOS PROPUESTOS: MATRIZ CAMBIO DE BASE 79

12. Considere el espacio vectorial W = {(x, y, z, t, r) ∈ R5 : x + y + z = 0, 2z − t + r = 0}.

a) Obtenga una base B de W.


b) Halle el vector de coordenadas de v = (1, 1, −2, −1, 3) ∈ W en la base B.

13. Encuentre una base B para el espacio


( ! ! ! !)
0 −1 1 2 2 3 1 1
V = gen , , , .
−2 −3 2 4 2 5 2 4
!
4 4
Encuentre el vector de coordenadas de la matriz A = en la base B.
4 10

14. Considere el subespacio vectorial W de M2×2 (R) dado por


( ! ! ! !)
a b a b 1 0 0 0
W= ∈ M2×2 (R) : =
c d c d 1 0 0 0

a) Determine una base B para el espacio W.


!
−3 3
b) Halle el vector de coordenadas de la matriz en la base B .
−4 4
!
1 −1
15. Considere W = {(aij ) ∈ M2×2 (R) : traza(AE) = 0 ; a11 = 2a12 }, donde E =
1 1

a) Encuentre una base B de W.


!
6 3
b) Sea A = ∈ W. Calcule el vector de coordenadas [A]B
9 0
16. Dado el espacio vectorial

W = {(x, y, z, t) ∈ R4 : x − y − 2z = 0; t − 5z + 2x = 0}

a) Obtenga una base B para el espacio W.


b) ¿El vector v = (4, 2, 1, −3) esta en W?. Si la respuesta es afirmativa, halle [v]B .

17. Sea B = {1+x, x2 +1, 3} una base de P2 [x].



Encuentre

el polinomio p(x) ∈ P2 [x], sabiendo
−2
que su vector de coordenadas es [p(x)]B =  1 

.
4

18. En P2 [x], considere los subconjuntos

B1 = {1 + x, x2 + 1, 3} y B2 = {x2 − x − 2, x2 − 1, x + 1}

a) Determine cual de los subconjuntos B1 ó B2 es un base de P2 [x].


80 CAPÍTULO 2. BASES Y DIMENSIÓN
 
−2
b) Encuentre el polinomio p(x) ∈ P2 [x], sabiendo que [p(x)]B =  1 , donde B es la
 

4
base obtenida en el item a).

19. * Considere el espacio vectorial


1
 
V = gen x2 − 2, 4 − 2x2 , x + 2, − x − 1
2
a) Obtenga una base B para el espacio V.
!
−1
b) Halle el polinomio p(x) ∈ V, sabiendo que [p(x)]B = y B es la base obtenida
1
del item a)

20. * Considere el espacio vectorial

V = gen{(−1, 2, 0), (2, 1, −5), (3, 0, −6)}

a) Determine una base B para el espacio V.


!
3
b) Halle el vector v ∈ V, sabiendo que [v]B = , donde B es la base del item a)
−6

21. * Considere el espacio vectorial

W = {p(x) ∈ P2 [x] : p(2) + p(−1) = 0}

a) Determine una base B1 para el espacio W.


b) Sea B2 = {x2 − x − 2, −2x + 1} otra base de W. Calcule [I]B1 →B2 .
c) Dado el polinomio p(x) = x2 − 7x + 1 ∈ W. Calcule [p(x)]B1 .

22. * Considere el subespacio vectorial


( ! ) !
a b 1 −1
W= A= ∈ M2×2 (R) : traza(AE) = 0 , donde E = .
c d 1 1

a) Determine una base B para W.


!
6 3
b) Dada la matriz C = ∈ W. Calcule el vector de coordenadas de C en la base
9 0
B del item a).
Capítulo
3
Transformaciones Lineales
***

3.1. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81


3.2. Ejercicios propuestos: Transformaciones Lineales . . . . . . . . . . . . . . . . . . . 88
3.3. Composición de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 92
3.4. Ejercicios propuestos: Composición de Transformaciones Lineales . . . . . . . . . . 95
3.5. Núcleo e Imagen de una transformación lineal . . . . . . . . . . . . . . . . . . . . 97
3.5.1. Núcleo de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . 97
3.5.2. Imagen de una transformación lineal . . . . . . . . . . . . . . . . . . . . . 98
3.5.3. Teorema de la Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.6. Ejercicios propuestos: Núcleo e Imagen . . . . . . . . . . . . . . . . . . . . . . . . 103
3.7. Transformaciones Lineales Invertibles . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.7.1. Transformación lineal inyectiva . . . . . . . . . . . . . . . . . . . . . . . . 106
3.7.2. Transformacion lineal sobreyectiva . . . . . . . . . . . . . . . . . . . . . . 108
3.7.3. Transformación lineal invertible . . . . . . . . . . . . . . . . . . . . . . . . 110
3.8. Ejercicios propuestos: Inversa de una Transformación Lineal . . . . . . . . . . . . 114
3.9. Representación Matricial de una transformación lineal . . . . . . . . . . . . . . . . 116
3.10. Ejercicios propuestos: Representación Matricial . . . . . . . . . . . . . . . . . . . 122

3.1. Transformaciones Lineales


Objetivo. El objetivo de esta sesión es identificar que aplicaciones son transformaciones lineales,
para luego usar sus propiedades.

Definición 3.1. Sean V y W dos espacios vectoriales sobre K. Una aplicación T : V → W es


Transformación Lineal si cumple las siguientes condiciones:

(i) T (v + u) = T (v) + T (u), para todo u, v ∈ V.

(ii) T (αv) = αT (v), para todo α ∈ K y todo v ∈ V.

81
82 CAPÍTULO 3. TRANSFORMACIONES LINEALES

T :V→W
V W

v T (v)

Ejemplo 3.1.1:

Sea la aplicación T : P1 [x] → R3 dada por

T (ax + b) = (2a, b, b − a)

Determine si T es o no una transformación lineal.

Solución. Veamos si se verifican las dos condiciones:


(i) ¿Si a1 x + b1 y a2 x + b2 son dos vectores en P1 [x], entonces

T ((a1 x + b1 ) + (a2 x + b2 )) = T (a1 x + b1 ) + T (a2 x + b2 )?

Por un lado tenemos

T ((a1 x + b1 ) + (a2 x + b2 )) = T ((a1 + a2 )x + (b1 + b2 ))


= (2(a1 + a2 ), b1 + b2 , b1 + b2 − (a1 + a2 )) (3.1)

Por otro lado,

T (a1 x + b1 ) + T (a2 x + b2 ) = (2a1 , b1 , b1 − a1 ) + (2a2 , b2 , b2 − a2 )


= (2a1 + 2a2 , b1 + b2 , b1 − a1 + b2 − a2 ) (3.2)

Vemos que (3.1) y (3.2) son iguales. Por tanto, es válida la propiedad (i).
(i) ¿Si λ ∈ R y ax + b es un vector en P1 [x] entonces

T (λ(ax + b)) = λT (ax + b)?

Por un lado, tenemos

T (λ(ax + b)) = T ((λa)x + λb) = (2λa, λb, λb − λb)

Y por otro lado,

λT (ax + b) = λ(2a, b, b − a) = (2λa, λb, λ(b − a))

Vemos que ambas expresiones son iguales. Por tanto, es válida la propiedad (ii).
3.1. TRANSFORMACIONES LINEALES 83

Concluimos que T es una transformación lineal.

Ejemplo 3.1.2:

Sea la aplicación T : R2 → R dada por

T (x, y) = xy − 2y

Determine si T es o no una transformación lineal.

Solución. Veamos si valen las dos condiciones


(i) ¿Si (x, y) y (x0 , y 0 )) son dos vectores en R2 , entonces

T ((x, y) + (x0 , y 0 )) = T (x, y) + T (x0 , y 0 )?

Por un lado tenemos que

T ((x, y) + (x0 , y 0 )) = T (x + x0 , y + y 0 )
= (x + x0 )(y + y 0 ) − 2(y + y 0 )
= xy + x0 y 0 + xy 0 + x0 y − 2y − 2y 0 (3.3)

y por otro lado,

T (x, y) + T (x0 , y 0 ) = (xy − 2y) + (x0 y 0 − 2y 0 )


= xy + x0 y 0 − 2y − 2y 0 (3.4)

Vemos que (3.3) y (3.4) son diferentes siempre y cuando

xy 0 + x0 y 6= 0

A partir de esta condición podemos construir un contraejemplo:

(x, y) = (1, 1) y (x0 , y 0 ) = (0, 1)

Tenemos que
T ((1, 1) + (0, 1)) = T (1, 2) = 1 · 2 − 2(2) = −2
y
T (1, 1) + T (0, 1) = (1 · 1 − 2(1)) + (0 · 1 − 2(1)) = −3
Es decir,
T ((1, 1) + (0, 1)) 6= T (1, 1) + T (0, 1)
Así, la condición (i) falla.
Por tanto, T no es una transformación lineal.
84 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Proposición 3.2. Sean V y W dos subespacios vectoriales. Tenemos que vale lo siguiente:

(1) Si T : V → W es una transformación lineal, entonces T (0V ) = 0W .

(2) Si T : V → W es una transformación lineal, entonces

T (α1 v1 + α2 v2 + ... + αk vk ) = α1 T (v1 ) + α2 T (vk ) + ... + αk T (vk ).

Ejemplo 3.1.3:

Sea la aplicación T : R2 → R3 dada por

T (a, b) = (a2 − 2b, a + 5, b)

Determine si T es o no una transformación lineal.

Solución. Tenemos que

T (0, 0) = (02 − 2(0), 0 + 5, 0) = (0, 5, 0) 6= (0, 0, 0)

Luego, por la Proposición 3.2(1), tenemos que T no puede ser una transformación lineal.

Teorema 3.3. Sean V, W dos espacios vectoriales sobre K. Si B = {v1 , v2 , . . . , vn } es una base
de V y w1 , w2 , . . . , wn son vectores en W, entonces existe una única transformación lineal tal que

T (v1 ) = w1 , T (v2 ) = w2 , . . . , T (vn ) = wn . (3.5)

Demostración. (Existencia) Como B = {v1 , v2 , . . . , vn } es una base, todo vector u ∈ V se expresa,


de mono único, como combinación lineal

u = α1 v1 + α2 v2 + · · · + αn vn .

Definamos la aplicación T : V → W por

T (u) = α1 w1 + α2 w2 + · · · + αn wn ,

para todo u = α1 v1 + α2 v2 + · · · + αn vn ∈ V. Verificaremos que la aplicación T es una transfor-


mación lineal:

(i) Dados u, v ∈ V. Tenemos que

u = α1 v1 + α2 v2 + · · · + αn vn y v = β1 v1 + β2 v2 + · · · + βn vn .

De aquí,
u + v = (α1 + β1 )v1 + (α2 + β2 )v2 + · · · + (αn + βn )vn .
3.1. TRANSFORMACIONES LINEALES 85

Luego, por definición de T , se tiene que

T (u + v) = (α1 + β1 )w1 + (α2 + β2 )w2 + · · · + (αn + βn )wn


= (α1 w1 + α2 w2 + · · · + αn wn ) + (β1 w1 + β2 w2 + · · · + βn wn )
| {z } | {z }
T (u) T (v)

Es decir,
T (u + v) = T (u) + T (v), ∀u, v ∈ V.

(ii) Dados u = α1 v1 + α2 v2 + · · · + αn vn ∈ V y λ ∈ K. Tenemos que

λ · u = (λα1 )v1 + (λα2 )v2 + · · · + (λαn )vn

Luego, por definición de T , se tiene que

T (λ · u) = (λα1 )w1 + (λα2 )w2 + · · · + (λαn )wn


= λ (α1 v1 + α2 v2 + · · · + αn vn )
| {z }
T (u)

Es decir,
T (λ · u) = λ · T (u), ∀u ∈ V, ∀λ ∈ K.
Por tanto, T es una transformación lineal.

(Unicidad) Suponga que existe cualquier otra transformación lineal S : V → W satisfaciendo la


condición (3.5), es decir,

S(v1 ) = w1 , S(v2 ) = w2 , . . . , S(vn ) = wn . (3.6)

Dado u = α1 v1 + α2 v2 + · · · + αn vn ∈ V. Por la Proposición 3.2, tenemos que


 
S(u) = S α1 v1 + α2 v2 + · · · + αn vn ∈ V
= α1 S(v1 ) + α2 S(v2 ) + · · · + αn S(vn )

Luego, por (3.6) y por definición de T , obtenemos que

S(u) = α1 S(v1 ) + α2 S(v2 ) + · · · + αn S(vn )


= α1 w 1 + α2 w 2 + · · · + αn w n
= T (α1 v1 + α2 v2 + · · · + αn vn )
= T (u),

el cual implica que S = T . Es decir, T es la única transformación lineal que satisface la condición
(3.5).
86 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Ejemplo 3.1.4:

Sea T : P2 [x] → R2 una transformación lineal tal que

T (2x2 − x + 1) = (1, −1)


T (−x2 + x) = (2, 0)
T (−x2 + 2x − 1) = (3, 1)

Calcule T (−x2 ).

Solución. Debemos usar el hecho que


B = {2x2 − x + 1, −x2 + x, −x2 + 2x − 1}
es una base de P2 [x]. De modo que podemos hallar α, β y γ tales que
−x2 = α(2x2 − x + 1) + β(−x2 + x) + γ(−x2 + 2x − 1)
el cual es equivalente al siguiente sistema lineal
    
2 −1 −1 α −1
−1 1 2 β  =  0 
    

1 0 −1 γ 0
Resolviendo por eliminación de Gauss-Jordan
     
2 −1 −1 −1 1 0 −1 0 F2 +F1 1 0 −1 0
 F1 ←→F3   F3 −2F1 
 −1 1 2 0  −→  −1 1 2 0  −→  0 1 1 0 


1 0 −1 0 2 −1 −1 −1 0 −1 1 −1
1 0 0 − 12
     
1 0 −1 0 1 1 0 −1 0 F1 +F3
F3 +F1   2 F3   F2 −F3 
−→  0 1 1 0  −→  0 1 1 0  −→  0 1 0 12  
0 0 2 −1 0 0 1 − 12 0 0 1 − 21
Luego,
1 1 1
α=− , β= yγ=−
2 2 2
De modo que
1 1 1
−x2 = − (2x2 − x + 1) + (−x2 + x) − (−x2 + 2x − 1)
2 2 2
Usando la Proposición 3.2 (2), se obtiene que
1 1 1
 
2
T (−x ) = T − (2x2 − x + 1) + (−x2 + x) − (−x2 + 2x − 1)
2 2 2
1 1 1
= − T (2x2 − x + 1) + T (−x2 + x) − T (−x2 + 2x − 1)
2 2 2
1 1 1
= − (1, −1) + (2, 0) − (3, 1)
2 2 2
= (−1, 0)
3.1. TRANSFORMACIONES LINEALES 87

Ejemplo 3.1.5:

Sea T : R3 → P1 [x] una transformación lineal tal que

T (2, −1, 3) = 2x + 1
T (1, 0, 1) = −x (3.7)
T (−1, 1, −1) = 3x + 2

Halle la regla de correspondencia T (a, b, c).

Solución. Debemos usar el hecho que


B = {(2, −1, 3), (1, 0, 1), (−1, 1, −1)}
es una base de R3 . De modo que podemos hallar α, β y γ tales que
(a, b, c) = α(2, −1, 3) + β(1, 0, 1) + γ(−1, 1, −1),
el cual es equivalente al siguiente sistema lineal
    
2 1 −1 α a
−1 0 1  β  =  b 
    

3 1 −1 γ c
Resolviendo por eliminación de Gauss-Jordan
     
2 1 −1 a 0 1 1 a + 2b −1 0 1 b
F1 +2F2 
 −1 0 1 b  −−−→  −1 0 1
 −F−−+3F b  F1 ↔ F2  0 1 1 a + 2b 
   
3 1 −−−−−→
3 1 −1 c 0 1 2 c + 3b 0 1 2 c + 3b
   
1 0 −1 −b 1 0 0 −a + c
−F1   F1 +F3 
−−−−−→  0 1
F3 −F2
1 a + 2b  −−−−−→  0 1 0
F2 −F3
2a +b−c  
0 0 1 c+b−a 0 0 1 −a + b + c
Luego,
α = −a + c, β = 2a + b − c y γ = −a + b + c
De modo que
(a, b, c) = (−a + c)(2, −1, 3) + (2a + b − c)(1, 0, 1) + (−a + b + c)(−1, 1, −1)
Usando la Proposición 3.2(2), se obtiene que
 
T (a, b, c) = T (−a + c)(2, −1, 3) + (2a + b − c)(1, 0, 1) + (−a + b + c)(−1, 1, −1)
= (−a + c)T (2, −1, 3) + (2a + b − c)T (1, 0, 1) + (−a + b + c)T (−1, 1, −1)
= (−a + c)(2x + 1) + (2a + b − c)(−x) + (−a + b + c)(3x + 2)
= (−2a + 2c − 2a − b − b + c + 3b + 3c)x + (−a + c − 2a + 2b + 2c)
= (−7a + 2b + 6c)x + (−3a + 2b + 3c).
88 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Además, por el Teorema 3.3, esta transformación lineal que hemos encontrado es la única que
satisface (3.7).

3.2. Ejercicios propuestos: Transformaciones Lineales


1. Sea V un espacio vectorial sobre K = (R ó C). Encontrar una función T : V → V que
cumpla:

a) T (u + v) = T (u) + T (v), para cualquier par de vectores u, v ∈ V, pero que no sea una
transformación lineal.
b) T (α · v) = α · T (v), para cualquier v ∈ V y α ∈ K, pero que no sea una transformación
lineal.

2. Sean V y W dos espacios vectoriales sobre R. Para los siguientes casos, determine si la
aplicación T : V → W es una transformación lineal. En caso de no serlo, de un contraejemplo
o explique que condición no es satisfecha.

a) T : R2 → R, T (x, y) = xy − 2y.
b) T : R2 → R2 , T (x, y) = (x + y, x − y).
c) T : R → R2 , T (a) = (a2 − 2a, a + 5).
d) T : R2 → R2 , T (x, y) = ((x + y)2 , y 3 ).
e) T : R2 → R3 , T (x, y) = (x, 0, x − y).
f ) T : R3 → R3 , T (x, y, z) = (x, a, 3y), donde a ∈ R.
g) T : R2 → R2 , T (x, y) = (x cos(φ) − y sin(φ), x sin(φ) + y cos(φ)), donde 0 ≤ φ ≤ 2π.
4 3
h) T : R → R , T (x, y, z, w) = (xz − y, xw + wy, 3y).
2
i) T : R → P1 [x], T (a, b) = (a + b)x + ab.
j) * T : P1 [x] → R3 , dada por T (ax + b) = (2a, 2b, b − a).
k) * T : P2 [x] → R3 dada por

T (ax2 + bx + c) = (3(a − 2) + 2(b + c + 3), 2a + b + 60c, 3(a − 1) + 5(b + 2) − (c + 6))

l) * T : P2 [x] → R3 dada por T (ax2 + bx + c) = (a + b, 0, |b| − 2a)


m) T : R3 → P2 [x], T (a, b, c) = (a + 1)x2 + bx + c.
n) T : R3 → P3 [x], T (a, b, c) = ax3 + bx2 + cx + a + b.
ñ) T : P2 [x] → P1 [x], T (ax2 + bx + c) = (a − c)x + 2b.
o) T : P3 [x] → P3 [x], T (p(x)) = 3p(x) + p(0).
!
b 2c
p) T : R3 → M2×2 (R), T (a, b, c) = .
0 ab
3.2. EJERCICIOS PROPUESTOS: TRANSFORMACIONES LINEALES 89
!
a−b 0
q) T : R3 → M2×2 (R), T (a, b, c) = .
0 c
!
2 b 0 c
r) T : P3 [x] → M2×3 (R), T (ax + bx + c) = .
0 2a a2
!
2 a+b 0
s) * T : R → M2×2 (R) dada por T (a, b) =
0 2b
! !
2 1 −1 a −b
t) * T : P2 [x] → M2×2 (R) dada por T (ax + bx + c) =
−1 2 −c c
!
a b
u) * T : M2×2 (R) → P2 [x] dada por T = bx2 + (a + c)x + d
c d
v) T : M2×2 (R) → M2×2 (R), T (X) = AX − XA, donde A ∈ M2×2 (R).
w) T : Mn×n (R) → Mn×n (R), T (A) = AT A,
!
a + 2b 2b
x) T : C → M2×2 (R), T (a + bi) = .
−5a b − 2a
y) T : M4×1 (R) → M2×1 (R), T (Y ) = B(A+λI)Y , donde A e I son matrices arbitrarias
de orden 3 × 4, y B es de orden 2 × 3 y λ ∈ R
3. Determine si T : P2 [x] → W definida por:
T (ax2 + bx + c) = (a, bc)
es una transformación lineal, donde W = {(a, b) ∈ R2 : a = b}.
4. Determine si T : P2 [x] → W definida por:
T (ax2 + bx + c) = (a + b)x + bc
es una transformación lineal, donde W = {p(x) ∈ P1 [x] : p(0) = 1}.
5. Determine si T : P2 [x] → W definida por:
T (ax2 + bx + c) = (a + b)x2 + 3cx + b
es una transformación lineal, donde W = {p(x) ∈ P2 [x] : p(0) = 0}.
6. * Determine si la aplicación T : P2 [x] → W definida por T (ax2 +bx+c) = (2b − c, a, a + 2c),
donde W = {(m, n, r) ∈ R3 : r = 2m + n} es o no una transformación lineal.
7. * Determine si la aplicación T : P2 [x] → W definida por T (ax2 + bx + c) = (a + b, b − c, c),
donde W = {(m, n, r) ∈ R3 : m = r + n} es o no una transformación lineal.
8. Sea W = {(a, b, c) ∈ R3 : c = a + b} y sea T : P2 [x] → W definida por:
 
T ax2 + bx + c = (2a + b, c − a − b, a + c)
Determine si T es una transformación lineal.
90 CAPÍTULO 3. TRANSFORMACIONES LINEALES
( ! )
a b
9. Sea W = ∈ M22 /a = d, b = −c y T : R3 → W y definida por
c d
!
a+b c−b
T (a, b, c) = .
b−c b+a

Determine si es o no una transformación lineal.

10. Determine si la aplicación T : P2 [x] → W definida por T (ax2 +bx+c) = bx3 +(a − b) x2 +cx,
donde W = {q (x) ∈ P3 [x] : q(0) − q(1) = 0} es o no una transformación lineal.
!
2 a+b c
11. Determine si la aplicación T : P2 [x] → W definida por T (ax + bx + c) = ,
b−c a
n o
donde W = A ∈ M2×2 (R) : A − AT = 0 es o no una transformación lineal.

12. Para cada caso, construir la transformación lineal T : R3 → R3 que cumpla:

a) T (1, 2, 1) = (2, 8, 0), T (0, 0, 1) = (3, 0, 5) y T (3, 4, 2) = (4, 4, 1).


b) T (1, 1, 1) = (3, 2, 6), T (0, 0, 1) = (2, 1, 0) y T (1, 0, −1) = (−2, −1, 2).
c) T (−1, 0, 1) = (1, 2, 1), T (−2, 0, 1) = (0, −1, 2) y T (1, 2, 0) = (0, 0, 1).

13. Sea B = {(1, 1, 1) , (2, 1, 3) , (1, 0, 3)} una base de R3 . Considere el espacio vectorial
( ! )
a b
W = A= ∈ M2×2 (R) : b = 2c, a = −2d
c d

Halle la transformación lineal T : R3 → W que satisface


! !
0 2 −2 0
T (2, 1, 3) = y T (1, 0, 3) = .
1 0 0 1

14. Sea B = {x2 − 2x + 3, 2x2 − 3x + 4, −x2 + 4x − 6} una base de P2 [x]. Halle la transfor-
mación lineal T : P2 [x] → R3 que cumple lo siguiente
     
T x2 − 2x + 3 = (1, 0, 1) , T 2x2 − 3x + 4 = (0, 1, 1) , T −x2 + 4x − 6 = (−2, 1, 0) .

15. Determine la transformación lineal T : P2 [x] → R2 tales que T (2x2 − x + 1) = (1, −1),
T (−x2 + x) = (2, 0), T (−x2 + 2x − 1) = (3, 1). Luego calcule el vector T (−x2 ).

16. * Determine la transformación lineal T : P1 [x] → R2 tales que T (−x + 1) = (3, −1) y
T (x) = (1, 1). Luego calcule el vector T (2x + 1).

17. * Determine la transformación lineal T : R2 → P1 [x] tales que T (1, −4) = 2x + 1 y


T (2, 1) = −x + 2. Luego calcule T (1, 1).
3.2. EJERCICIOS PROPUESTOS: TRANSFORMACIONES LINEALES 91

18. * Halle la regla de correspondencia de una transformación lineal T : R3 → R4 que satisface,

T (2, −1, 3) =(1, 0, 1, 0)


T (1, 0, 1) =(−2, 3, 1, 0)
T (−1, 1, −1) =(−0, 1, 1, 0)

19. * Calcule la regla de correspondencia de una transformación lineal T : R3 → P1 [x] que


satisface,

T (2, −1, 3) =2x + 1


T (1, 0, 1) = − x
T (−1, 1, −1) =3x + 2

20. Diga si existe una transformación lineal T : R2 → P2 [x] que cumpla lo siguiente:

T (1, −1) = 2 − x + 2x2 , T (−3, 2) = 1 + x − x2 y T (−2, 1) = 3 − x2 .

21. Diga si existe una transformación lineal T : R2 → P2 [x] que cumpla lo siguiente:

T (1, −1) = 2 − x + 2x2 , T (1, 1) = 1 + 3x − 3x2 y T (2, 0) = 3 + 2x − x2 .

22. Diga si existe una transformación lineal T : P1 [x] → R3 que cumpla lo siguiente:

T (−1 + 2x) = (2, −3, 1) y T (3 − 6x) = (6, −9, 2).

23. Para que valores de a ∈ R existe una transformación lineal T : R3 → R3 tal que

T (1, −1, 1) = (2, a, −1), T (1, −1, 2) = (a2 , −1, 1) y T (1, −1, −2) = (5, −1, −7).

24. Sean T, U : R3 → R3 dos transformaciones lineales tales que

T (1, 0, 1) = (1, 2, 1), T (2, 1, 0) = (2, 1, 0), T (−1, 0, 0) = (1, 2, 1)

U (1, 1, 1) = (1, 1, 0), U (3, 2, 1) = (0, 0, 1), U (2, 2, −1) = (3, −1, 2).

Determine si es posible que T = U .


92 CAPÍTULO 3. TRANSFORMACIONES LINEALES

3.3. Composición de transformaciones lineales


Sean V, W y Z tres subespacios vectoriales y sean T : V → W y S : W → Z dos transforma-
ciones lineales. La composición de S con T es la aplicación S ◦ T : V → Z definida como
(S ◦ T )(v) = S(T (v)), ∀v ∈ V.
Observación. Se puede verificar que S ◦ T es también un transformación lineal.

V W Z

T S
v T (v) S(T (v))

Propiedades
1. Asociatividad. Si R : Z → U, S : W → Z y T : V → W son transformaciones lineales
entonces
(R ◦ S) ◦ T = R ◦ (S ◦ T )

2. Distributividad por la derecha. Si S1 : W → Z, S2 : W → Z y T : V → W son transforma-


ciones lienales, entonces
(S1 + S2 ) ◦ T = S1 ◦ T + S2 ◦ T

3. Distributividad por la izquierda. Si S : W → Z, T1 : V → W y T2 : V → W son transfor-


maciones lineales, entonces
S ◦ (T1 + T2 ) = S ◦ T1 + S ◦ T2

4. Homogeneidad. Si T : V → W y S : W → Z son transformaciones lineales; y si α ∈ K


entonces
(αS) ◦ T = S ◦ (αT ) = α(S ◦ T )

Observación 3.4. La conmutatividad no es válida en la composición de transformaciones linea-


les, como se puede ver en el ejemplo a seguir.

Ejemplo 3.3.1:

Sean T : R2 → R2 y S : R2 → R2 dos transformaciones lineales dadas por

T (x, y) = (x + y, x − y) y S(x, y) = (−y, x)

Calcule S ◦ T y T ◦ S. Determine si S ◦ T = T ◦ S.
3.3. COMPOSICIÓN DE TRANSFORMACIONES LINEALES 93

Solución. Tenemos que


(S ◦ T )(x, y) = S(T (x, y))
= S(x + y, x − y)
= (−(x − y), x + y) = (−x + y, x + y)
Por otro lado,
(T ◦ S)(x, y) = T (S(x, y))
= T (−y, x)
= (−y + x, −y − x)
Claramente S ◦ T 6= T ◦ S.
Definición 3.5. Sea V un espacio vectorial sobre K. Una transformación lineal T : V → V es
denominado operador lineal.

Ejemplo 3.3.2:

Sea D : Pk [x] → Pk [x] el operador lineal definido por la derivada

D(p(x)) = p0 (x), ∀p(x) ∈ Pk [x].

Es decir, si p(x) = a0 + a1 x + a2 x2 + . . . + ak xk entonces

D(p(x)) = p0 (x) = a1 + 2a2 x + . . . + kak xk−1 .

El D es llamado operador de derivación.

Definición 3.6. Sea V un espacio vectorial sobre K. Dos operadores lineales T, S : V → V son
llamados conmutables cuando T ◦ S = S ◦ T .
Ejemplo 3.3.3:

Dados los operadores lineales T, S : R2 → R2 definidos por

T (x, y) = (x + y, y) y S(x, y) = (3x − y, 3y).

Determine si T y S son o no operadores conmutables.

Solución. Por un lado, se tiene que


(T ◦ S)(x, y) = T (S(x, y))
= T (3x − y, 3y)
= ((3x − y) + 3y, 3y)
= (3x + 2y, 3y) (3.8)
94 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Por otro lado, tenemos

(S ◦ T )(x, y) = S(T (x, y))


= S(x + y, y)
= (3(x + y) − y, 3y)
= (3x + 2y, 3y) (3.9)

Comparando (3.8) y (3.9), se obtiene que T ◦ S = S ◦ T . Por tanto, T y S son operadores


conmutables.

Definición 3.7. Sea V un espacio vectorial sobre K y sea T : V → V un operador lineal. Para
todo k ∈ N definimos el operador lineal T k : V → V dado por

T k = |T ◦ T ◦{z· · · ◦ T}
k−veces

Definición 3.8. Sea V un espacio vectorial sobre K. Un operador lineal T : V → V es llamado


nilpotente cuando existe k ∈ N tal que
T k = 0.
El número natural k es llamado orden de nilpotencia.

Ejemplo 3.3.4:

Demuestre que el operador de derivación D : Pk [x] → Pk [x] es un operador nilpotente de


orden k + 1.

Solución. Tenemos que

D(p(x)) = a1 + 2a2 x + 3a3 x2 + 4a4 x3 · · · + kak xk−1


D2 (p(x)) = 2a2 + 6a3 x + · · · + k(k − 1)ak xk−2
..
.
Dk (p(x)) = k(k − 1) · · · 2 · 1ak
Dk+1 (p(x)) = 0

Por tanto, D es un operador nilpotente de orden k + 1.

Definición 3.9. Sea V un espacio vectorial sobre K. Un operador lineal T : V → V es llamado


idempotente cuando
T 2 = T.
3.4. EJERCICIOS PROPUESTOS: COMPOSICIÓN DE TRANSFORMACIONES LINEALES95

Ejemplo 3.3.5:

Dado el operador lineal P : R2 → R2 definido por


x − y −x + y
 
P (x, y) = , .
2 2
Determine si P es o no un operador idempotente.

Solución. Tenemos que


x − y −x + y
 
P 2 (x, y) = P (P (x, y)) = P ,
2 2 
      
x−y −x+y x−y −x+y
2
− 2
− 2
+ 2
=  , 
2 2
2x − 2y −2x + 2y
 
= ,
4 4
x − y −x + y

= ,
2 2
= P (x, y)

Por tanto, P es un operador idempotente.

3.4. Ejercicios propuestos: Composición de Transforma-


ciones Lineales
1. Sean T : R2 → R3 y U : R3 → R2 dos transformaciones lineales, definidas por:

T (x, y) = (x + 2y, x + y, x − y) y U (a, b, c) = (3b + a, c + 2a).

Calcule (T ◦ U )(1, −2, 0) y (U ◦ T )(1, 1).

2. Sean T : R2 → R3 y R : R3 → P1 [x] tales que

T (1, −2) = (2, −3, 5) y R(a, b, c) = (3a − b) + (5b − 2c)x.

Calcule (R ◦ T )(1, −2).

3. Sean T : R2 → P1 [x] y S : P1 [x] → M2×2 (R) dos transformaciones lineales, definidas por
!
3a −b
T (m, n) = 2m + (m − n)x y S(a + bx) = .
2b a + b

a) Determine si S ◦ T está bien definida. En caso es afirmativo, halle su regla de corres-


pondencia.
96 CAPÍTULO 3. TRANSFORMACIONES LINEALES

b) Determine si T ◦ S está bien definida. En caso es afirmativo, halle su regla de corres-


pondencia.
4. Sean T : P2 [x] → M2×3 (R) y S : M2×3 (R) → P2 [x] dos transformaciones lineales dadas por
! !
2 a + b 2c b − c m n p
T (a+bx+cx ) = y S = (2m−r)+(n+3q+p)x+(3s−n)x2 .
3a −b 2a q r s

a) Determine si S ◦ T está bien definida. En caso es afirmativo, halle su regla de corres-


pondencia.
b) Determine si T ◦ S está bien definida. En caso es afirmativo, halle su regla de corres-
pondencia.
5. Sea T : R3 → R3 el operador lineal dado por
T (x, y, z) = (ay + bz, cz, 0),
donde a, b, c son constantes reales. ¿Es verdad que T es un operador lineal nilpotente de
orden 3?. Justifique su respuesta.
6. Dados los operadores lineales T, S : P1 [x] → P1 [x] definidos por
T (a + bx) = (a + b) + bx y S(a + bx) = (7a − 2b) + 7bx.
Determine si T y S son o no operadores conmutables.
7. Dados los operadores lineales T, S : R2 → R2 definidos por
T (x, y) = (x + y, y) y S(x, y) = (ax + by, ay).
Determine para que valores de a y b los operadores T y S son conmutables.
8. Dado el operador lineal T : P1 [x] → P1 [x] definido por
!
a + 2b 2a + 4b
T (a + bx) = + x.
5 5
Determine si T es o no un operador idempotente.
9. Sea T : R2 → R2 el operador lineal dado por
−3x + 4y 4x + 3y
 
T (x, y) = ,
5 5
¿Es verdad que T 2 = I?. Justifique su respuesta.
10. Sea T : R2 → R2 el operador lineal dado por
T (x, y) = (−y, x)
¿Es verdad que T 4 = I?. Justifique su respuesta.
3.5. NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL 97

3.5. Núcleo e Imagen de una transformación lineal


Objetivo. Aprender a determinar el Núcleo e la Imagen de una transformación lineal. Compren-
der la importancia del Teorema de la dimensión en sus multiples aplicaciones.

3.5.1. Núcleo de una transformación lineal


El núcleo (o Kernel) de una transformación lineal T : V → W es un subconjunto de V definido
por
N (T ) = {v ∈ V : T (v) = 0W }

Proposición 3.10. El núcleo N (T ) es un subespacio vectorial de V.

Definición 3.11. La dimensión del núcleo de una transformación lineal T : V → W es denomi-


nada Nulidad de T , y denotaremos como

N ull(T ) = dim(N (T ))

Ejemplo 3.5.1:

Halle el núcleo de la transformación lineal T : R3 → R2 definido como

T (x, y, z) = (x − y, 5z)

y diga cual es su nulidad.

Solución. Dado (x, y, z) ∈ N (T ). Sigue que

T (x, y, z) = (0, 0)
(x − y, 5z) = (0, 0)

Luego,
x=y ∧ z=0
Asi,
(x, y, z) = (y, y, 0) = y(1, 1, 0)
De modo que
N (T ) = gen{(1, 1, 0)}
Por tanto,
N ull(T ) = 1.
98 CAPÍTULO 3. TRANSFORMACIONES LINEALES

3.5.2. Imagen de una transformación lineal


La Imagen de una transformación lineal T : V → W es un subconjunto de W definido por

Im(T ) = {w ∈ W : ∃v ∈ V con T (v) = w}

Proposición 3.12. La imagen Im(T ) es un subespacio vectorial de W.


Definición 3.13. La dimensión de la imagen de una transformación lineal T : V → W es
denominada Rango de T y será denotada como

Rank(T ) = dim(Im(T ))

Ejemplo 3.5.2:

Sea T : R2 → R2 una transformación lineal definida por

T (x, y) = (2x + y, x − y)

Determine la imagen y el rango de T .

Solución. Dado (a, b) ∈ Im(T ), sigue que

(a, b) = T (x, y) = (2x + y, x − y) = x(2, 1) + y(1, −1)

Osea, Im(T ) = gen {(2, 1), (1, −1)} Como (2, 1) y (1, −1) no son paralelos, sigue que B =
{(2, 1), (1, −1)} es una base de Im(T ). Por tanto,

Rank(T ) = 2

Ejemplo 3.5.3:

Sea T : R3 → P1 [x] una transformación lineal definida por:

T (a, b, c) = a + b + (c − 2b)x

Obtener el Núcleo, Nulidad, Imagen y Rango de T .

Solución.
Hallemos el núcleo de T . Dado (x, y, z) ∈ N (T ). Tenemos

T (a, b, c) = 0 + 0 · x ⇒ (a + b) + (c − 2b)x = 0 + 0 · x
⇒ a + b = 0, c − 2b = 0
⇒ a = −b, c = 2b
3.5. NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL 99

De aqui,
(a, b, c) = (−b, b, 2b) = b(−1, 1, 2)
Luego,
N (T ) = gen{(−1, 1, 2)}.
Además,
N ull(T ) = 1.

Hallemos la imagen de T . Tenemos que

T (a, b, c) = a + b + (c − 2b)x = a + b(1 − 2x) + cx

Luego,
Im(T ) = gen{1, 1 − 2x, x}
Tenemos que el conjunto {1, 1 − 2x, x} no puede ser L.I., ya que dim P1 [x] = 2.

Debemos descartar alguno de los tres polinomios que genera a Im(T ). Para ello observe
que 1 − 2x es combinación lineal de 1 y x. Por tanto,

Im(T ) = gen{1, 1 − 2x, x} = gen{1, x} = P1 [x]

Además,
Rank(T ) = 2.

3.5.3. Teorema de la Dimensión


El siguiente resultado es denominado Teorema del núcleo e imagen, o también teorema de la
dimensión.

Teorema 3.14 (Teorema del Núcleo e Imagen). Sean V y W dos espacios vectoriales de dimen-
siones finitas. Si T : V → W es una transformación lineal, entonces

dim(V) = dim N (T ) + dim Im(T )

Observación 3.15. Esa última conclusión tambien puede escribirse como

dim V = N ull(T ) + Rank(T ).

Ejemplo 3.5.4:

La transformación lineal T (a, b, c) = (a+b)+(c−2b)x del Ejemplo 3 satisface la conclusión


del Teorema del Núcleo e Imagen.
100 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Solución. En efecto, en este caso V = R3 , N ull(T ) = 1 y Rank(T ) = 2, los cuales cumplen que

dim V = N ull(T ) + Rank(T )


dim R3 = 1 + 2
3 = 3

Ejemplo 3.5.5:

Determine si es posible construir una transformación lineal T : P2 [x] → R3 tal que


n o
N (T ) = gen x2 , x + 1 y Rank(T ) = 2

Solución. Supongamos que si es posible construir dicha transformación lineal. Como {x2 , x + 1}
es una base de N (T ) = gen {x2 , x + 1}, se sigue que

N ull(T ) = 2

Aplicando el Teorema de la dimensión para V = P2 [x], se obtiene que

dim V = N ull(T ) + Rank(T )


dim P2 [x] = 2 + 2
3 = 4,

lo cual es absurdo. Por tanto, no es posible construir un transformación lineal T que satisfaga
dichas condiciones.

Ejemplo 3.5.6:

Determine si es posible construir una transformación lineal T : R3 → P2 [x] tal que

N (T ) = gen {(1, 1, 0), (1, 0, −1)} e Im(T ) = gen{1 + x2 }.

Solución. Como los vectores (1, 1, 0) y (1, 0, −1) no son paralelos, tenemos que son L.I.. Luego,
N ull(T ) = 2. También se tiene que Rank(T ) = 1. Al aplicar el Teorema de la dimensión para
V = R3 , se obtiene que

dim V = N ull(T ) + Rank(T )


dim R3 = 2 + 1
3 = 3,

lo cual es verdadero. Así que debe existir una tal transformación lineal. A seguir pasaremos a
construir dicha transformación lineal:
3.5. NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL 101

Primero completaremos el conjunto L.I. {(1, 1, 0), (1, 0, −1)} a una base de R3 usando el
criterio de la Observación 2.12. Coloquemos estos vectores en filas:
! !
1 1 0 1 1 0
F2 − F1
1 0 −1 −−−−−→ 0 −1 −1
 
En esta matriz escalonada podemos agregarle en la última fila el vector 0 0 1 , de modo
que la matriz  
1 1 0
 0 −1 −1  ,
 

0 0 1
es invertible. Por tanto, el siguiente conjunto
{(1, 1, 0), (1, 0, −1), (0, 0, 1)}
completa a una base de R3 .
Ahora por el Teorema 3.3, existe una transformación lineal T : R3 → P2 [x] tal que

T (1, 1, 0) = 0, T (1, 0, −1) = 0 y T (0, 0, 1) = 1 + x2

Dado (a, b, c) ∈ R3 . Hallemos escalares c1 , c2 , c3 tales que


(a, b, c) = c1 (1, 1, 0) + c2 (1, 0, −1) + c3 (0, 0, 1),
el cual es equivalente a la ecuación matricial:
    
1 1 0 c1 a

1 0 0 c
 
  2 = b .
 

0 −1 1 c3 c
Resolvamos usando eliminación de Gauss-Jordan
     
1 1 0 a 1 1 0 a 1 0 0 b
 F1 +F2 
 1 0 0 b  F2 − F1  0 −1 0 b − a  −F−−−F
−−→  0 −1 0 b − a 
  
−−−−−→

3 2
0 −1 1 c 0 −1 1 c 0 0 1 c−b+a
 
1 0 0 b
−F2  0 1 0

a−b 
−−→

0 0 1 a−b+c
Luego,
(a, b, c) = b(1, 1, 0) + (a − b)(1, 0, −1) + (a − b + c)(0, 0, 1)
Aplicando T a ambos lados de la igualdad de arriba, se obtiene finalmente la transformación
lineal que queríamos
T (a, b, c) = T (b(1, 1, 0) + (a − b)(1, 0, −1) + (a − b + c)(0, 0, 1))
= bT (1, 1, 0) + (a − b)T (1, 0, −1) + (a − b + c)T (0, 0, 1)
= b(0) + (a − b)(0) + (a − b + c)(1 + x2 )
= (a − b + c) + (a − b + c)x2 ,
102 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Ejemplo 3.5.7:

Sean T : R3 → P1 [x] y R : P1 [x] → R2 dos transformaciones lineales, definidas por:

T (a, b, c) = (a + b)x + (a + c) y R(ax + b) = (a − b, a + b)

1. Calcule R ◦ T .

2. Obtenga una base para N (R ◦ T ) y Im(R ◦ T ).

3. Verifique el Teorema de la dimension para la composición R ◦ T .

Solución.
1. Tenemos que

(R ◦ T )(a, b, c) = R((a + b)x + (a + c))


= ((a + b) − (a + c), (a + b) + (a + c))
= (b − c, 2a + b + c)

2. Hallemos el núcleo: Dado (a, b, c) ∈ N (R ◦ T ). Se sigue que

(R ◦ T )(a, b, c) = (0, 0)
(b − c, 2a + b + c) = (0, 0)

Luego,
(
b−c = 0 2a + c + c = 0
⇒ b=c ∧
2a + b + c = 0 2a + 2c = 0
⇒ b = c ∧ a = −c

De modo que
(a, b, c) = (−c, c, c) = c(−1, 1, 1)
Asi,
N (R ◦ T ) = gen{(−1, 1, 1)}
Por tanto, {(−1, 1, 1)} es una base de N (R ◦ T ).
3. Hallemos la imagen:

(R ◦ T )(a, b, c) = (b − c, 2a + b + c)
= a(0, 2) + b(1, 1) + c(−1, 1)

Luego,
Im(R ◦ T ) = gen{(0, 2), (1, 1), (−1, 1)}
3.6. EJERCICIOS PROPUESTOS: NÚCLEO E IMAGEN 103

El conjunto {(0, 2), (1, 1), (−1, 1)} es L.D. ya que son tres vectores en un espacio de dimen-
sión dim R2 = 2.
Como (0, 2) = (1, 1) + (−1, 1), se sigue que

Im(R ◦ T ) = gen{(1, 1), (−1, 1)}

Ahora, el conjunto {(1, 1), (−1, 1)} si es L.I. y por tanto es una base de Im(R ◦ T ).

4. Verifiquemos la validez del Teorema de la dimensión: Como dim N (R◦T ) = 1 y dim Im(R◦
T ) = 2, se tiene que

dim R3 = dim N (R ◦ T ) + dim Im(R ◦ T )


3 = 1+2
3 = 3

Es decir, se verifica la veracidad del Teorema de la dimensión.

3.6. Ejercicios propuestos: Núcleo e Imagen


1. Sea T : R2 → R2 una transformación lineal definida por
! ! !
x 1 2 x
T =
y 2 4 y
!
1
a) ¿ pertenece al núcleo de T ?
2
!
2
b) ¿ pertenece a la imagen de T ?
3
c) Determine una base para el núcleo de T .
d) Determine una base para la imagen de T .

2. Sea T : P3 [x] → P3 [x] una transformación lineal definida por

T (ax3 + bx2 + cx + d) = (a − b)x3 + (c − d)x

a) ¿p(x) = x3 + x2 + x − 1 pertenece al núcleo de T ?


b) ¿p(x) = 3x3 + x pertenece a la imagen de T ?
c) Determine una base para el núcleo de T .
d) Determine una base para la imagen de T .

3. Para las siguientes transformaciones lineales, obtener el núcleo, imagen, rango, nulidad y
verificar si cumple el teorema de la dimensión:
104 CAPÍTULO 3. TRANSFORMACIONES LINEALES

a) T : R2 → R2 , T (x, y) = (2x + y, x − y)
b) T : R3 → R, T (x, y, z) = 2x − 5y + z
4 3
c) T : R → R , T (x, y, z, w) = (x + y, z + w, x + z)
d) T : R → P3 [x], T (a) = ax3 + ax2 + ax + a
e) T : P3 [x] → P4 [x], T (p(x)) = xp(x)
f ) T : R3 → P2 [x], T (a, b, c) = (a − b)x2 + (b + c)x
g) T : R3 → P2 [x], T (a, b, c) = (a + 2b)x2 + (a + b + c)x + (b − 2c)
!
2 2a + b a
h) T : R → M2×2 (R), T (a, b) =
a b + 3a
!
a b
i) T : M2×2 (R) → P3 [x], T = ax2 + (b + c)x + d
c d
j) T : R2 → R3 definida por T (x, y) = (x + 2y, −2x − 4y, 3x + 6y)
k) T : R3 → P3 [t] definida por
T (x, y, z) = (x + 2y − z)t3 + (2x + 3y − z)t2 + (−3x − 6y + 3z)t + (−x − 2y + z)

l) T : P1 [x] → R3 definida por T (ax + b) = (a − b, b, a + b)


m) T : R2 → P2 [x] definida por T (a, b) = bx2 + (a − 3b)x + a − b
n) * T : P1 [x] → P2 [x] definida por T (ax + b) = (a − 2b)x2 + 3b − 21 a
ñ) * T : R2 → P2 [x] definida por T (a, b) = (a − b)x2 + (b − a)x
o) * T : R2 → R3 dada por T (x, y) = (3x + 2y, 12y + 18x, x/2 + y/3)
p) * T : R2 → R3 dada por T (x, y) = (2x − 3y, 15y − 10x, x/3 − y/2)
4. Determine si es posible construir una transformación lineal T : P2 [x] → R3 tal que cumpla:
n o
N (T ) = gen x2 ; x + 1 y Rank(T ) = 2
En caso afirmativo, construya explícitamente una tal transformación lineal T .
5. Determine si es posible construir una transformación lineal T : R3 → M2×2 (R) tal que
cumpla:
( ! ! !)
1 0 0 1 1 1
N ull(T ) = 1 y Im(T ) = gen , ,
0 0 0 0 0 0
En caso afirmativo, construya explícitamente una tal transformación lineal T .
6. Determine si es posible construir una transformación lineal T : M2×2 (R) → R3 tal que
cumpla:
( ! ! !)
1 0 3 0 1 0
N (T ) = gen , , y Rank(T ) = 1
0 0 0 2 0 1
En caso afirmativo, construya explícitamente una tal transformación lineal T .
3.6. EJERCICIOS PROPUESTOS: NÚCLEO E IMAGEN 105

7. Determine si existe una transformación lineal T : R3 → R4 que verifique Im(T ) = W y


N (T ) = U . En caso afirmativo, construya explícitamente una tal transformación lineal T .
Donde:
a) W = {(x, y, z, w) : x + y − z + 2w = 0} y U = gen{(1, 2, 1)}
b) W = {(x, y, z, w) : x + y = 0, z + w = 0} y U = gen{(1, −2, 1)}
8. Sea T : P2 [x] → R4 una transformación lineal tal que

N (T ) = gen {1 − x − x2 , 1 + x + 2x2 , 2 + x2 , 3 − x}

Calcule Rank(T ).
9. Determine si existe una transformación lineal T : R3 → P2 [x] tal que

N (t) = gen{(1, −1, −3), (1, 1, 2), (2, 0, −1)} y Im(T ) = gen {2x − x2 }

En caso afirmativo, construya explícitamente una tal transformación lineal T .


10. Determine si existe una transformación lineal T : R3 → P2 [x] tal que

N (t) = gen{(1, −1, −3)} y Im(T ) = gen {1 − x2 , x + x2 , 1 + x}

En caso afirmativo, construya explícitamente una tal transformación lineal T .


11. Sean T : R2 → M2×2 (R) y U : M2×2 (R) → R2 dos transformaciones lineales, definidas por:
! !
x + y −x a b
T (x, y) = yU = (3a − b, c + d)
2x − y 3y c d

a) Calcule T ◦ U .
b) Im(T ◦ U ) y N (T ◦ U )
c) Verifique el Teorema de la dimensión para T ◦ U .

12. Sean T : R3 → P1 [x] y R : P1 [x] → R2 dos transformaciones lineales, definidas por:


T (a, b, c) = (a + b)x + (a + c) y R(ax + b) = (a − b, a + b)
a) Calcule R ◦ T .
b) Obtenga una base para Im(R ◦ T ) y N (R ◦ T ).
13. Sean T : R3 → P1 [x] y R : P1 [x] → R3 dos transformaciones lineales, definidas por:
T (a, b, c) = (a + b)x + (2b − c) y R(ax + b) = (2a + b, 3b, a − 2b)
a) Calcule R ◦ T .
b) Obtenga una base para Im(R ◦ T ) y N (R ◦ T ).
c) Verifique el Teorema de la dimensión para la composición R ◦ T .
106 CAPÍTULO 3. TRANSFORMACIONES LINEALES

3.7. Transformaciones Lineales Invertibles


Objetivo.

Identificar cuando una transformación lineal es inyectiva y/o sobreyectiva.

Reconocer las transformaciones lineales invertibles y aprender a determinar su inversa.

3.7.1. Transformación lineal inyectiva


Definición 3.16. Una transformación lineal T : V → W es inyectiva cuando para todo par de
vectores v, w ∈ V se tiene que
T v = T w =⇒ v = w

Ejemplo 3.7.1:

Considere la transformación lineal T : R2 → P1 [x] definida por

T (a, b) = 2a + (a − b)x.

Determine si T es inyectiva.

Solución. Dados (a, b), (a0 , b0 ) ∈ R2 tales que

T (a, b) = T (a0 , b0 )
2a + (a − b)x = 2a0 + (a0 − b0 )x

Asi tenemos el siguiente sistema

2a = 2a0
a − b = a0 − b 0

Resolviendo obtenemos que a = a0 y b = b0 . De modo que

(a, b) = (a0 , b0 ).

Por tanto, T es inyectiva.

Proposición 3.17. Sea T : V → W una transformación lineal, entonces

T es inyectiva si, y solo si, N (T ) = {0}.


3.7. TRANSFORMACIONES LINEALES INVERTIBLES 107

Ejemplo 3.7.2:

Determine si la transformación lineal T : R2 → R2 , definida por T (x, y) = (2x + 5y, x − 3y)


es inyectiva

Solución. Para saber si T es inyectiva debemos encontrar su núcleo. Dado (x, y) ∈ N (T ), tenemos
que
T (x, y) = (0, 0)
(2x + 5y, x − 3y) = (0, 0)

Asi se obtene el siguiente sistema lineal

2x + 5y = 0
x − 3y = 0

resolviendo se llega a que x = 0 y y = 0. De donde

N (T ) = {(0, 0)}

Por lo tanto T es inyectiva.


Ejemplo 3.7.3:

Determine si la transformación lineal T : P2 [x] → P2 [x], definida por T (ax2 + bx + c) =


(2a − b)x2 + (b − 3c)x + b es inyectiva.

Solución. Calculemos el núcleo

N (T ) = {ax2 + bx + c ∈ P2 [x]/T (ax2 + bx + c) = 0}

(2a − b)x2 + (b − 3c)x + b = 0x2 + 0x + 0

comparando

2a − b = 0
b − 3c = 0
b =0

Resolviendo se obtiene que a = 0, b = 0 y c = 0, de donde

N (T ) = {0x2 + 0x + 0}.

Por consiguiente, T es inyectiva.


108 CAPÍTULO 3. TRANSFORMACIONES LINEALES

3.7.2. Transformacion lineal sobreyectiva


Una transformación lineal T : V → W es denominada sobreyectiva cuando Im(T ) = W.
Ejemplo 3.7.4:

Determine si la transformación lineal T : R3 → P1 [x], definida por T (a, b, c) = (a + b +


2c) + (a + 2b − c)x es sobreyectiva.

Solución. Para saber si es sobreyectiva, necesitamos saber si vale que

Im(T ) = P1 [x].

En otras palabras, si para todo m + nx ∈ P1 [x], ¿Será que existe (a, b, c) ∈ R3 tal que

m + nx = T (a, b, c)?

Esa última expresión es equivalente a

m + nx = (a + b + 2c) + (a + 2b − c)x. (3.10)

De aquí,
(
a + b + 2c = m
a + 2b − c = n
Resolviendo este sistema
! !
1 1 2 m 1 1 2 m
F −F ,
1 2 −1 n −−2−−−→1 0 1 −3 n

el cual es un sistema compatible indeterminado. Es decir, si existe tales valores a, b, c ∈ R que


satisfacen (3.10). Luego,
Im(T ) = P1 [x].
Por tanto, T es sobreyectiva.
Usaremos el siguiente resultado para caracterizar las transformaciones sobreyectivas en el
teorema abajo.

Proposición 3.18. Sea W un subespacio del espacio vectorial V, entonces

W = V ⇐⇒ dim W = dim V.

Teorema 3.19. Sea T : V → W una transformación lineal. Entonces

T es sobreyectiva ⇐⇒ dim(Im(T )) = dim(W)


3.7. TRANSFORMACIONES LINEALES INVERTIBLES 109

Ejemplo 3.7.5:

Determine si la transformación lineal T : P2 [x] → P2 [x], definida por T (ax2 + bx + c) =


(a + 3b)x2 + (b + 4c)x + c es sobreyectiva.

Solución. Para saber si es sobreyectiva, necesitamos conocer su imagen


Im(T ) = {w ∈ P2 [x]/T v = w}

T (ax2 + bx + c) = (a + 3b)x2 + (b + 4c)x + c


= ax2 + 3bx2 + bx + 4cx + c
= ax2 + b(3x2 + x) + c(4x + 1)
de donde
Im(T ) = gen{x2 , 3x2 + x, 4x + 1}.
Se puede verificar que {x2 , 3x2 + x, 4x + 1} es L.I., asi que es una base de Im(T ). Luego,
dim(Im(T )) = dim(P2 [x]) = 3
Por tanto, T es sobreyectiva.
Ejemplo 3.7.6:

Dada la transformación lineal T : R3 → M2×2 (R), definida por


!
a+b b + 2c
T (a, b, c) =
a − 2c a + b + c

Determine si T es sobreyectiva.

Solución. Calculemos su imagen


Im(T ) = {w ∈ M2×2 (R)/T v = w}
! ! ! !
a+b b + 2c a 0 b b 0 2c
= + +
a − 2c a + b + c a a 0 b −2c c
! ! ! !
a+b b + 2c 1 0 1 1 0 2
=a +b +c
a − 2c a + b + c 1 1 0 1 −2 1
de donde se tiene la imagen
( ! ! !)
1 0 1 1 0 2
Im(T ) = , ,
1 1 0 1 −2 1
luego
dim(Im(T )) = 3 6= dim(M2×2 (R) = 4
Por lo tanto, T no es sobreyectiva.
110 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Proposición 3.20. Sea T : V → W una transformación lineal.

1. Si T es inyectiva entonces dim V ≤ dim W.

2. Si T es sobreyectiva entonces dim V ≥ dim W.

Ejemplo 3.7.7:

Determine si la transformación lineal T : P2 [x] → R2 dada por T (a + bx + cx2 ) = (a − b +


7c) + (2a − 3b + 4c)x es inyectiva.

Solución. Como dim P2 [x] = 3 > 2 = dim R2 , se sigue de la proposición anterior que T no es
inyectiva.

Ejemplo 3.7.8:

Determine si la transformación
! lineal T : P1 [x] → M2×2 (R) dada por T (a + bx) =
a − 2b 3b
es sobretiva.
−2a + b 7a − b

Solución. Como dim P1 [x] = 2 < 4 = dim M2×2 (R), se sigue de la proposición anterior que T
no es sobreyectiva.

3.7.3. Transformación lineal invertible


Decimos que una transformación lineal T : V → W es invertible cuando existe una aplicación
denotada por T −1 : W → V tal que

T −1 ◦ T = IV y T ◦ T −1 = IW ,

donde IV e IW son las aplicaciones identidad en V y W respectivamente. La aplicación T −1 es


denominada inversa de T .

Observación 3.21. Si T : V → W es una transformación lineal invertible, entonces la inversa


T −1 : W → V es una transformación lineal.

Transformación lineal biyectiva


Una transformación lineal T : V → W es denominada biyectiva cuando T es inyectiva y
sobreyectiva.

Proposición 3.22. Sea T : V → W una transformación lineal. Entonces

T es invertible si, y solamente si, T es biyectiva.


3.7. TRANSFORMACIONES LINEALES INVERTIBLES 111

Teorema 3.23. Sea T : V → W una transformación lineal. Si dim V = dim W, entonces


T es inyectiva ⇐⇒ T sobreyectiva
Corolario 3.24. Sea T : V → W una transformación lineal.
Si dim V = dim W y T es inyectiva =⇒ T es invertible.
Corolario 3.25. Sea T : V → W una transformación lineal.
Si dim V = dim W y T es sobreyectiva =⇒ T es invertible.

Ejemplo 3.7.9:

Dada la transformación lineal T : P2 [x] → R3 , definida por

T (ax2 + bx + c) = (a − c, b + c, a − b).

Determine T si es invertible. En caso afirmativo, encuentre T −1 .

Solución. Calculemos el núcleo de T . Dado p(x) = ax2 + bx + c ∈ N (T ), tenemos

T (ax2 + bx + c) = (0, 0, 0)
(a − c, b + c, a − b) = (0, 0, 0)

El cual es equivalente al sistema lineal




 a − c = 0
b + c = 0
a − b


= 0

Resolviendo por eliminación Gaussiana,


   
1 0 −1 0 1 0 −1 0
 0 1  F3 − F1  0 1
1 0  1 0 
 
−−−−−→

1 −1 0 0 0 −1 1 0
 
1 0 −1 0
F3 + F2  0 1 1 0 
 
−−−−−→
0 0 2 0

Luego, es un sistema compatible determinado, cuya solución es a = 0, b = 0 y c = 0. De aqui,


p(x) = 0x2 + 0x + 0 = θ(x) y
N (T ) = {θ(x)}.
Como dim P2 [x] = dim R3 = 3 y N (T ) = {θ(x)}, se tiene que T es invertible. Ahora, encontremos
T −1 : R3 → P2 [x]. Debemos hallar T −1 (m, n, r). Para esto debemos calcular a, b, c tales que

T −1 (m, n, r) = ax2 + bx + c
112 CAPÍTULO 3. TRANSFORMACIONES LINEALES

el cual es equivalente a
T (ax2 + bx + c) = (m, n, r)
Es decir,
(a − c, b + c, a − b) = (m, n, r)
Asi que debemos resolver el sistema lineal


 a − c = m
b + c = n
a − b


= r

Lo que es equivalente a resolver


    
1 0 −1 a p
0 1 1  b  = q 
    

1 −1 0 c r

Haciendo calculos obtenemos que


 −1  1 1 1

1 0 −1 2 2 2
1 1
0 1

1 =

2 2
− 21 

1 −1 0 − 21 1
2
1
2

De aquí,
   −1   1
 1 1
 
a 1 0 −1 m m
 12 2
1
2
1  
 b  = 0 1
  
1 n =  2
 
2
−2  n 
c 1 −1 0 r − 21 1
2
1
2
r
 1 1
n + 12 r

m+
 12 2
1
=  2 +m 2
n − 12 r  
− 21 m + 12 n + 21 r

Por tanto,
m+n+r 2 m+n−r −m + n + r
     
−1
T (m, n, r) = x + x+
2 2 2
es la inversa de T .
Ejemplo 3.7.10:

Dada la transformación lineal T : P1 [x] → P1 [x], definida por

T (ax + b) = (a − b)x + 2b − 3a

Determine si es invertible. Solo en caso afirmativo, encuentre T −1 .


3.7. TRANSFORMACIONES LINEALES INVERTIBLES 113

Solución. Calculemos el núcleo de T . Dado p(x) = ax + b ∈ N (T ), tenemos

T (ax + b) = θ(x)
(a − b)x + 2b − 3a = 0 · x + 0

De aquí,
a − b =0
2b − 3a = 0
Resolviendo el sistema lineal, llegamos a que a = 0 y b = 0. Es decir, p(x) = 0 · x + 0. De modo
que
N (T ) = {0x + 0}
Como el conjunto de partida y llegada de T es P1 [x], es claro que tiene la misma dimensión.
Luego, T es invertible.

Ahora, encontremos T −1 : P1 [x] → P1 [x]. Es decir, hallaremos a y b tales que

T −1 (mx + n) = ax + b.

Lo cual es equivalente a

T (ax + b) = mx + n
(a − b)x + 2b − 3a = mx + n

Tenemos el sistema lineal

a−b = m
−3a + 2b = n

osea ! ! !
1 −1 a m
=
−3 2 b n
De aqui,
! !−1 !
a 1 −1 m
=
b −3 2 n
! !
−2 −1 m
=
−3 −1 n
!
−2m − n
=
−3m − n

Por tanto,
T −1 (mx + n) = (−2m − n, −3m − n) = (−2m − n)x − 3m − n
es la inversa de T .
114 CAPÍTULO 3. TRANSFORMACIONES LINEALES

3.8. Ejercicios propuestos: Inversa de una Transforma-


ción Lineal
1. Determine si las siguientes transformaciones lineales son invertibles o no, justificando su
respuesta.
a) T : R2 → R2 , T (x, y) = (x − 2y, −3x + 3y).
b) T : P2 [x] → P2 [x], T (ax2 + bx + c) = (a + b)x2 + (b − c)x + c.
! ! !
a b 2 −3 a b
c) T : M2×2 (R) → M2×2 (R), T =
c d 1 −2 c d
!
a b
d) * T : M2×2 (R) → P2 [x] definida por T = ax2 + (b + c)x + a + c
c d
e) * T : R3 → P2 [x] definida por T (a, b, c) = ax2 + (b + c)x + c
f ) * T : P2 [x] → R3 dada por T (ax2 + bx + c) = (a + b, 3a + c, 4a + b + c)
2. Determine si la transformación lineal T : R4 → M2×2 (R) dada por:
!
a+b−c 2a − b
T (a, b, c, d) =
b − 6c − 2d b + 2c + d
es inyectiva. Justifique su respuesta.
3. Determine si la transformación lineal T : M2×2 (R) → R4 dada por:
!
a b
T = (a + 3b − c + d, 2a + 7b + 3c + 2d, a + 2b + c − 2d, 2b + 3c + 3d)
c d
es biyectiva. Justifique su respuesta.
4. Sea la transformación lineal invertible T : R3 → P2 [x] definida por
T (a, b, c) = (a − b + c) x2 + (a + b − c) x + (−a + b + c) .
Halle la trasformación lineal inversa.
5. Sea la transformación lineal invertible T : P2 [x] → R3 definida por
 
T ax2 + bx + c = (c − a; 2a + b + c; −a − b) .
Halle la Trasformación lineal inversa.
6. Dada la transformación lineal T : R3 → M2×2 (R) inyectiva, definida por
!
a−b b
T (a, b, c) = .
b a+c

Determine T −1 : M2×2 (R) → R3 .


3.8. EJERCICIOS PROPUESTOS: INVERSA DE UNA TRANSFORMACIÓN LINEAL 115

7. Dada la transformación lineal T : R3 → P2 [x] inyectiva, definida por

T (a, b, c) = (b − c) x2 + 2ax + c.

Determine T −1 : P2 [x] → R3 .

8. * Considere las transformaciones T : R2 → M2×2 (R) y S : M2×2 (R) → P1 [x] por las reglas
de correspondencia:
! !
b a−b a b
T (a, b) = y S = (a − b)x + c + d.
a+b a c d

a) Calcule S ◦ T .
b) Determine si S ◦ T es invertible justificando debidamente su respuesta.

9. * Considere las transformaciones T : P1 [x] → R3 y S : R3 → R2 por as reglas de corres-


pondencia,

T (ax + b) = (a, a + b, b) y S(a, b, c) = (a + c, b + c).

a) Calcule S ◦ T .
b) Determine si S ◦ T es invertible justificando debidamente su respuesta.

10. * Considere las transformaciones T : R2 → R2 y S : R2 → P2 [x] por as reglas de corres-


pondencia,

T (a, b) = (−b, a + b) y S(a, b) = (a + b)x2 − 2bx − a.

a) Calcule S ◦ T .
b) Determine si S ◦ T es sobreyectiva justificando debidamente su respuesta.

11. * Considere las transformaciones T : M2×2 (R) → R2 y S : R2 → R2 por as reglas de


correspondencia,

T (A) = (traza(A) − a11 , a22 − 2a21 ) y S(a, b) = (−b − a, a).

a) Calcule S ◦ T .
b) Determine si S ◦ T es sobreyectiva justificando debidamente su respuesta.

12. * Sea T : P2 [x] → M2×2 (R) y R : M2×2 (R) → R3 , definidos por,


! !
2 a − 2b a−c p q
T (ax + bx + c) = y R = (p − 2q, q − 2r, r − 2t).
c − a b − 2a + 3c/2 r t

a) Halle R ◦ T ,
b) Halle el núcleo de R ◦ T ,
116 CAPÍTULO 3. TRANSFORMACIONES LINEALES

c) Determine si R ◦ T es sobreyectiva.

13. * Dadas las transformaciones lineales T : P1 [x] → M2×2 (R), S : M2×2 (R) → R3 definidas
por
! !
a −b m n
T (ax + b) = y S = (m, n + r, p).
a − b −a r p

a) Halle S ◦ T ,
b) Halle el núcleo y nulidad de S ◦ T ,
c) Determine si S ◦ T es sobreyectiva.

3.9. Representación Matricial de una transformación li-


neal
Objetivo. Identificar la matriz asociada a una transformación lineal y conocer sus propiedades
matriciales equivalentes.
Sean V y W dos espacios vectoriales de dimensiones finitas dim V = m y dim W = n. Considere
las bases
B1 = {v1 , v2 , . . . , vm } y B2 = {w1 , w2 , . . . , wn }
en V y W respectivamente. Sea T : V → W una transformación lineal. La matriz representativa
de T en las bases B1 y B2 está definida como

· · · a1m
 
a11 a12
 a21 a22

· · · a2m 

[T ]B1 →B2 =
 .. .. ... .. 
 . . . 

an1 an2 · · · anm

donde

T v1 = a11 w1 + a21 w2 + · · · + an1 wn


T v2 = a12 w1 + a22 w2 + · · · + an2 wn
.. .. ..
. . .
T vm = a1m w1 + a2m w2 + · · · + anm wn

Observación 3.26. La matriz representativa tiene como vectores columnas a los vectores de
coordenadas [T v1 ]B2 , [T v2 ]B2 ,...,[T vm ]B2 de los respectivos vectores T v1 , T v2 ,..., T vm respecto a
la base B2 . Por tal motivo podemos escribir que

[T ]B1 →B2 = ([T v1 ]B2 [T v2 ]B2 · · · [T vm ]B2 )


3.9. REPRESENTACIÓN MATRICIAL DE UNA TRANSFORMACIÓN LINEAL 117

Ejemplo 3.9.1:

Dada la transformación lineal T : R2 → R3 definida como

T (x, y) = (x + y, x − y, 2x)

Considere en R2 y R3 respectivamente las bases

B1 = {(1, 2), (−2, 3)} y B2 = {(1, −2, 1), (2, −1, 0), (1, 1, −2)}

Determine la matriz representativa [T ]B1 →B2 .

Solución. Debemos hallar la matriz

 
a11 a12
[T ]B1 →B2 = a21 a22 
 

a31 a32

donde las entradas de esta matriz son dadas por

T (1, 2) = a11 (1, −2, 1) + a21 (2, −1, 0) + a31 (1, 1, −2)
T (−2, 3) = a12 (1, −2, 1) + a22 (2, −1, 0) + a32 (1, 1, −2)

Usando la definición de T , se sigue que

(3, −1, 2) = T (1, 2) = a11 (1, −2, 1) + a21 (2, −1, 0) + a31 (1, 1, −2)
(1, −5, −4) = T (−2, 3) = a12 (1, −2, 1) + a22 (2, −1, 0) + a32 (1, 1, −2)

el cual es equivalente a los sistemas lineales

         
1 2 1 a11 3 1 2 1 a12 1
−2 −1 1  a21  = −1 y −2 −1 1  a22  = −5
         

1 0 −2 a31 2 1 0 −2 a32 −4

Juntando en un solo sistema matricial, se tiene

    
1 2 1 a11 a12 3 1
−2 −1 1  a21 a22  = −1 −5
    

1 0 −2 a31 a32 2 −4
118 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Resolviendo por eliminación de Gauss-Jordan


 F2 +2F1   
1 2 1 3 1 1 2 1 3 1
 F3 −F1 
 −2 −1 1 −1 −5  −→  0 3 3 5 −3 


1 0 −2 2 −4 0 −2 −3 −1 −5
F1 −2F2
1 0 −1 − 13 3
   
1
F
1 2 1 3 1
3 2 5 F3 +2F 2 5
−→  0 1

1 3
−1  −→

 0 1 1

3
−1 

7
0 −2 −3 −1 −5 0 0 −1 3 −7
F1 −F3 F1 −F3
1 0 0 − 38 10 1 0 0 − 83 10
   
F2 +F3  F2 +F3 
−→  0 1 0 4 −8   −→  0 1 0 4 −8  
7 7
0 0 −1 3 −7 0 0 1 −3 7

Por tanto,
− 83 10
   
a11 a12
[T ]B1 →B2 = a21 a22  =  4 −8
   

a31 a32 − 73 7

Observación 3.27. La matriz aumentada a la que aplicamos el método de eliminación Gauss-


Jordan es dada por
 
↑ ↑ ··· ↑ ↑ ↑ ··· ↑

 w1 w2 · · · wn T (v1 ) T (v2 ) · · · T (vn ) 
 ,
↓ ↓ ··· ↓ ↓ ↓ ··· ↓
| {z } | {z }
B2 T (B1 )

la cual se obtiene de colocar como columnas (vectores de coordenadas en la base canónica) a


los vectores de la base B2 = {w1 , w2 , . . . , wn } en el lado izquierdo y a los vectores de T (B1 ) =
{T v1 , T v2 , . . . , T vn } en el lado derecho.

Ejemplo 3.9.2:

Dada la transformación lineal T : M2×2 (R) → R2 definida como


!
a b
T = (a − b − c − d, b + c + d)
c d

Considere las bases


( ! ! ! !)
1 0 0 −1 1 0 2 0
B1 = , , , y B2 = {(1, −2), (3, 1)}
0 0 1 0 0 1 1 −1

Determine la matriz representativa [T ]B1 →B2 .


3.9. REPRESENTACIÓN MATRICIAL DE UNA TRANSFORMACIÓN LINEAL 119

Solución. Tenemos que


 !
 1 0
T = (1, 0)


0 0






 !
0 −1



T = (0, 0)


1 0



T (B1 ) = !

 1 0
T = (0, 1)


0 1






 !
2 0



T = (2, 0)


1 −1

Por la Observación 3.27, la matriz aumentada a resolver es


!
1 3 1 0 0 2
−2 1 0 0 1 0
| {z } | {z }
B2 T (B1 )
Resolviendo por eliminación de Gauss-Jordan
! !
1 3 1 0 0 2 F2 +2F1 1 3 1 0 0 2
−→
−2 1 0 0 1 0 0 7 2 0 1 4
! !
1
1
F
2 2 1 3 1 0 0 2 F1 −3F2 1 0 0 − 37 2
−→ −→ 7 7
0 1 27 0 17 74 0 1 2
7
0 17 4
7

Por tanto,
!
1
7
0 − 37 2
7
[T ]B1 →B2 = 2
7
0 17 4
7

Ejemplo 3.9.3:

Sea W = {A ∈ M2×2 (R) : AT = A} el espacio de matrices simétricas y sea T : R2 → W


una transformación lineal dada por
!
2x − y 2y − x
T (x, y) =
2y − x x + y

Considere las bases


( ! ! !)
1 0 −1 −1 1 1
B1 = {(1, 1), (2, −1)} y B2 = , ,
0 0 −1 0 1 1

en R2 y W respectivamente. Halle la matriz representativa de T en estas bases.


120 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Solución. Tenemos que


 !
 1 1
T (1, 1) =


1 2



T (B1 ) =  !
 5 −4
T (2, −1) =


−4 1

La matriz aumentada a resolver es


posición a11 −→ 1 −1 1 1 5
 

posición a12 −→ 
 0 −1 1 1 −4 

posición a21 −→ 0 −1 1 1 −4
 
 
posición a22 −→ 0 0 1 2 1
| {z } | {z }
B2 T (B1 )
Resolviendo por eliminación de Gauss-Jordan

1 −1 1 1 5 1 0 0 0 9
   
F1 −F2
 0 −1 1 1 −4   0 −1 1 1 −4 
 F3 −F2 
 −→ 
 
0 −1 1 1 −4   0 0 0 0 0 
 

0 0 1 2 1 0 0 1 2 1
1 0 0 0 9 1 0 0 0 9
   
−F2
F3 ↔F4
 0 1 −1 −1 4 
 F2 +F3
 0 1 0 1 5 
−→   −→
 
0 0 1 2 1 0 0 1 2 1
  
   
0 0 0 0 0 0 0 0 0 0

Por tanto,  
0 9
[T ]B1 →B2 = 1 5
 

2 1

Teorema 3.28. Sean V y W dos espacios vectoriales con bases B1 y B2 respectivamente. Sea
T : V → W es una transformación lineal, entonces valen lo siguiente

1. Para todo v ∈ V,
[T v]B2 = [T ]B1 →B2 [v]B1

2. Si T es invertible entonces
h i
T −1 = ([T ]B1 →B2 )−1
B2 →B1

3. Si Z es un espacio vectorial con base B3 y S : W → Z es una tranformación lineal, entonces

[S ◦ T ]B1 →B3 = [S]B2 →B3 [T ]B1 →B2


3.9. REPRESENTACIÓN MATRICIAL DE UNA TRANSFORMACIÓN LINEAL 121

Ejemplo 3.9.4:

Dada la transformación lineal T : R2 → P2 [x] cuya matriz representativa es


 
1 5
[T ]B1 →B2 =  2 −3 ,
 

−1 3

donde B1 y B2 = {x2 , x2 + x, x + !
1} son bases de R2 y P2 [x] respectivamente. Sea v ∈ R2
1
un vector que satisface [v]B1 = . Determine T v
2

Solución. Por el teorema anterior, tenemos que


   
1 5 ! 11
 1
[T v]B2 = [T ]B1 →B2 [v]B1 =  2 −3

= −4

2

−1 3 5

Luego,

T v = 11x2 − 4(x2 + x) + 5(x + 1)


= 7x2 + x + 5

Ejemplo 3.9.5:

Dadas las transformaciones lineales R : R2 → R3 y T : R3 → P1 [x], definidas por

R(a, b) = (a − b, b, −a) y T (m.n, r) = (m + n)x + n + r.

Considere las bases

B1 = {(1, 2); (3, −1)} y B2 = {x − 1; 2x + 1}

en los espacios R2 y P1 [x] respectivamente. Halle T ◦ R y su representación matricial en las


mencionadas bases.

Solución. Tenemos que

(T ◦ R)(a, b) = T (a − b, b, −a)
= (a − b + b)x + b − a
= ax + b − a
122 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Luego,

(T ◦ R)(1, 2) = x + 1
(T ◦ R)(3, −1) = 3x − 4

La matriz aumentada que debemos resolver es


!
lineal → 1 2 1 3
independiente → −1 1 1 −4
| {z } | {z }
B2 (T ◦ R)(B1 )

Resolviendo por eliminación Gauss-Jordan


! ! !
1 2 1 3 1 2 1 3 1 1 2 1 3
F +F F2
−1 1 1 −4 −−2−−−→1 0 3 2 −1 3−→ 0 1 23 − 31
− !
1 0 − 31 11
F1 − 2F2 3
−−−−−→ 0 1 23 − 31

Por tanto, !
− 31 11
[T ◦ R]B1 →B2 = 2
3
3
− 13

3.10. Ejercicios propuestos: Representación Matricial


1. Dadas las bases B1 y B2 . Para cada item, encuentre la representación matricial [T ]B1 →B2
de la transformación lineal:

a) T : R2 → R2 , T (x, y) = (x − 2y, 2x + y) donde B1 = B2 = {(1, −2); (3, 2)}.


b) T : R2 → R2 , T (x, y) = (4x − y, 3x + 2y) donde B1 = B2 = {(−1, 1); (4, 3)}.
c) T : R3 → R2 , T (x, y, z) = (x + y, x + z) donde B1 = {(1, 0, 1); (1, 1, 0); (1, 1, 1)} y
B2 = {(1, −1); (2, 3)}.
d) T : R2 → P2 [x], T (a, b) = (a − b)x2 + (a + b)x + b donde B1 = {(2, −1); (1, 2)} y
B2 = {x2 − x; 2x; 2x + 5}.
! !
a b 0 a
e) T : M2×2 (R) → M2×2 (R), T = donde
c d c+d 0
( ! ! ! !)
1 0 0 1 1 0 0 1
B1 = B2 = ; ; ;
0 1 1 0 1 1 0 1
3.10. EJERCICIOS PROPUESTOS: REPRESENTACIÓN MATRICIAL 123

2. Sea B = {v1 , v2 , v3 } una base de R3 y sea B0 = {w1 , w2 , w3 , w4 } una base de R4 . Sea


T : R3 → R4 una transformación lineal tal que:

1 −2 1
 
 −1 1 −1 
[T ]B→B0 = 
 
2 1 4 


3 −2 5

Hallar T (3v1 + 2v2 − v3 ). ¿Cuál es su vector de coordenadas en la base B0 ?

3. Dada la transformación lineal T : R2 → R2 definida por:

T (x, y) = (x − 2y, x + y)

Considere las bases B1 = {(−1, 1); (1, −2)} y B2 = {(2, 1); (3, 0)} de R2 .

a) Calcule la matriz representativa [T ]B1 →B2 .


!
4
b) Sabiendo [w]B1 = , calcule el vector T (w)
3

4. Sea T : P1 [x] → R2 definido por T (p(x)) = (p(1), p(−1)) y sean las bases B1 = {2x−1, x+1}
y B2 = {(1, −2); (2, 1)}.

a) Halle la matriz representativa [T ]B1 →B2


!
2
b) Si p(x) ∈ P1 [x] tal que [p(x)]B1 = , calcule [T (v)]B2 y luego T (v).
−4

5. Dada la transformación lineal T : R2 → P2 [x] definida por:

T (a, b) = (a − 2b)x2 + (2a + b)

Considere las bases B1 = {(1, −1); (1, 1)} y B2 = {x2 ; x2 + x; x + 1} de R2 y P2 [x] respec-
tivamente.

a) Calcule la matriz representativa A = [T ]B1 →B2 .


!
−2
b) Sabiendo que [w]B1 = , halle el vector T (w).
4
( ! )
a b
6. Sea el subespacio W = A = ∈ M2×2 (R) : c = 2a + b . Considere las transfor-
c d
maciones lineales T : R2 → W y R : W → P2 [x] definidas por
! !
x − y x + 2y a b
T (x, y) = y R = (a − d)t2 + (b − c)t + d.
3x x+y c d
124 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Considere las bases B1 = {(−2, 1) ; (1, −1)} y B2 = {2t2 − t + 1; 4t2 + 1; t2 + t} de R2 y


P2 [t] respectivamente. Halle la matriz que represente a R ◦ T en las bases dadas.
( ! )
a b
7. Sea el subespacio W = ∈ M2×2 (R) : a = 2b ∧ d = −2c y considere las trans-
c d
formaciones lineales T : R3 → W y R : W → P1 [t] definidas por
! !
2y − 2z y − z a b
T (x, y, z) = y R = (2c + b + d) t + (a − 2b − c).
2x −4x c d

Sean B1 = {(1, 2, 3) ; (−1, −3, −2); (0, 4, 1)} y B2 = {−2t + 4; −t + 3} bases de R3 y P1 [t]
respectivamente. Halle la matriz que represente a R ◦ T en las bases dadas.

8. Sean R : M2×2 (R) → P2 [x] y T : P2 [x] → R2 dos transformaciones lineales definidas por
!
a b
R = (a − d) x2 + (b + c) x + d , T (mx2 + nx + r) = (m − n, n + r)
c d

Considere las siguientes bases


( ! ! ! !)
1 0 0 −1 1 0 2 0
B1 = ; ; ; y B2 = {(1, −2) ; (3, 1)}
0 0 1 0 1 0 1 −1

en M2×2 (R) y R2 respectivamente. Calcular la matriz que represente a R ◦ T en las bases


dadas.

9. Sean R : P1 [x] → R2 y T : R2 → R2 dos transformaciones lineales definidas por


m+n n
 
R(ax + b) = (a + b, 2a − 3b) y T (m.n) = ,
2 3
Sean B1 = {2x − 5, −x + 3} y B2 = {(1, −3) ; (4, −2)} bases de P1 [x] y R2 respectivamente.
Calcule la matriz que represente a R ◦ T en las bases dadas.

10. * Dadas las transformaciones lineales R : P1 [x] → R2 y T : R2 → R2 , definidas por

R(ax + b) = (a + b, b) y T (m, n) = (−m, n)

Considere las bases B1 = {x + 1, 1} y B2 = {(1, −2) ; (3, 1)} de P1 [x] y R2 respectivamente.


Halle T ◦ R y su representación matricial.

11. * Dadas las transformaciones lineales R : R2 → R3 y T : R3 → P1 [x] definidas por

R(a, b) = (a − b, b, −a) y T (m.n, r) = (m + n)x + n + r.


3.10. EJERCICIOS PROPUESTOS: REPRESENTACIÓN MATRICIAL 125

Considere las bases B1 = {(1, 2); (3, −1)} y B2 = {x − 1; 2x + 1} de R2 y P1 [x] respecti-


vamente. Halle T ◦ R y su representación matricial.

12. * Dada la transformación lineal T : R2 → R2 definida por T (a, b) = (a − b, 2b + a) y sea


B = {(1, 3); (2, −1)} una base de R2 .

a) Determine la matriz representativa [T ]B→B .


!
4
b) Sabiendo que [v]B = , calcule T (v).
−5

13. * Considere la transformación lineal T : M2×2 (R) → P1 [x] definida por


!
a b
T = (a − 2b + c)x + (b − 2c + d).
c d

Considere
( ! ! ! !)
1 −1 0 1 −1 −1 1 1
B1 = , , , y B2 = {x + 1, −x + 2}
2 −2 1 1 −3 3 4 −1

bases de M2×2 (R) y P1 [x] respectivamente.

a) Calcule la representación matricial [T ]B1 →B2 .


!
1
b) Sabiendo que [p(x)]B2 = , calcular p(x).
−2

14. * Considere la transformación lineal T : M2×2 (R) → M2×2 (R) definida por
! ! !
a b −1 0 a b
T = .
c d 0 1 c d

Considere
( ! ! ! !)
0 2 0 1 1 0 0 0
B= ; ; ;
1 0 1 0 0 0 0 1

una base de M2×2 (R).

a) Calcule la representación matricial T en la base B.


!
−1
b) Sea [u]B = , calcular T (u).
2

15. * Considere la transformación lineal T : M2×2 (R) → M2×2 (R) definida por
! ! !
a b −1 1 a b
T = .
c d 2 0 c d
126 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Considere
( ! ! ! !)
0 −1 0 −2 1 0 0 0
B= ; ; ;
0 1 0 1 0 0 1 0

una base de M2×2 (R).

a) Calcule la representación matricial T en la base B.


!
−1
b) Sea [u]B = , calcular T (u).
3
Capítulo
4
Autovalores y Autovectores
***

4.1. Autovalores y Autovectores de Matrices . . . . . . . . . . . . . . . . . . . . . . . . 127


4.1.1. Cálculo de Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.2. Multiplicidad algebraica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.3. Multiplicidad Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
4.3.1. Autoespacio asociado a autovalores . . . . . . . . . . . . . . . . . . . . . . 132
4.3.2. Multiplicidad geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.4. Autovectores y autovalores de Operadores Lineales . . . . . . . . . . . . . . . . . 137
4.5. Ejercicios propuestos: Autovalores y autovectores . . . . . . . . . . . . . . . . . . 141

Objetivo.
1. Encontrar los autovalores y autovectores de transformaciones lineales.

2. Identificar las multiplicidades algebraicas y geométricas de los autovalores.

4.1. Autovalores y Autovectores de Matrices


Definición 4.1. Sea A una matriz cuadrada de orden n con entradas en K (sistema de números
reales o complejos). Un número λ ∈ K es denominado autovalor (o valor propio, o eigenvalor)
de A si existe un vector v 6= 0 tal que
Av = λv.
El vector v 6= 0 es denominado autovector (o vector propio, o eigenvector) de A asociado a λ.
Observación 4.2. Si λ es un autovalor de A, entonces existe un autovector v 6= 0 tal que

Av = λv.

De aquí,
0 = λv − Av,

127
128 CAPÍTULO 4. AUTOVALORES Y AUTOVECTORES

el cual es equivalente a
(λI − A)v = 0 (4.1)

• Si A es una matriz cuadrada de orden n entonces (4.1) es un sistema homogéneo de n


ecuaciones y n variables.

• Si det(λI − A) 6= 0, entonces (4.1) tiene solución trivial v = 0 y λ no es autovalor.

• Si det(λI − A) = 0, entonces (4.1) tiene solución v 6= 0 y λ si es autovalor.

Definición 4.3. Sea A ∈ Mn×n (K). El polinomio característico de A es definido como

pA (λ) = det(λI − A).

Por la Observación anterior, tenemos la siguiente:

Proposición 4.4. Si A ∈ Mn×n (K), entonces

λ es un autovalor de A ⇐⇒ pA (λ) = det(λI − A) = 0

Es decir, los autovalores de A coinciden soluciones de la ecuación característica

pA (λ) = det(λI − A) = 0.
!
a b
En el caso que la matriz es A = , el polinomio característico es dado por
c d

pA (λ) = λ2 − traza(A)λ + det(A).

Es decir,
pA (λ) = λ2 − (a + d)λ + (ad − bc).

Ejemplo 4.1.1:
Calcule los autovalores de la matriz
!
2 8
A= .
4 6

Solución. El polinomio característico de A es dado por

pA (λ) = λ2 − (2 + 6)λ + (2 · 6 − 8 · 4)
= λ2 − 8λ − 20
= (λ − 10)(λ + 2)
4.1. AUTOVALORES Y AUTOVECTORES DE MATRICES 129

Resolviendo la ecuación característica:

pA (λ) = (λ − 10)(λ + 2) = 0,

obtenemos que los autovalores de A son

λ1 = 10 y λ2 = −2.

Observación 4.5. Una matriz A con entradas reales pueden también tener autovalores comple-
jos, como veremos en el ejemplo a seguir.

Ejemplo 4.1.2:
Calcule los autovalores de la matriz
!
0 −2
A= .
2 0

Solución. El polinomio característico de A es dado por

pA (λ) = λ2 − (0 + 0)λ + (0 · 0 − (−2) · 2)


= λ2 + 4
= (λ − 2i)(λ + 2i)

Resolviendo la ecuación característica:

pA (λ) = (λ − 2i)(λ + 2i) = 0,

obtenemos que los autovalores de A son

λ1 = 2i y λ2 = −2i,

los cuales son números complejos puros.

4.1.1. Cálculo de Autovectores


Dada una matriz A ∈ Mn×n (K).

• Hallar el polinomio característico pA (λ) = |λI − A|

• Hallar las soluciones (autovalores de A) λ1 , λ2 , ..., λn de la ecuación caracteristica:

|λI − A| = 0
130 CAPÍTULO 4. AUTOVALORES Y AUTOVECTORES

• Para cada autovalor λi , resolver el sistema homogéneo

(λi I − A)v = 0,

para encontrar los autovectores v 6= 0.

Ejemplo 4.1.3:
Hallar los autovalores y autovectores de la matriz
!
1 2
A= .
4 3

Solución.

• El polinomio característico de A es

pA (λ) = λ2 − 4λ − 5
= (λ − 5)(λ + 1)

• Resolviendo la ecuación característica

(λ − 5)(λ + 1) = 0,

obtenemos que los autovalores de A son

λ1 = 5 y λ2 = −1.

• Para λ1 = 5, resolvamos
! ! !
5 − 1 −2 v1 0
(5I − A)v = 0 −→ =
−4 5 − 3 v2 0
! ! !
4 −2 v1 0
−→ =
−4 2 v2 0

Al resolver el sistema, obtenemos 2v1 − v2 = 0. Asi, v2 = 2v1 y entonces


! ! !
v v1 1
v= 1 = = v1
v2 2v1 2

Luego, un autovector asociado a λ1 = 5 es


!
1
v=
2
4.2. MULTIPLICIDAD ALGEBRAICA 131

• Para λ2 = −1, resolvamos


! ! !
−1 − 1 −2 w1 0
(−I − A)w = 0 −→ =
−4 −1 − 3 w2 0
! ! !
−2 −2 w1 0
−→ =
−4 −4 w2 0

Al resolver el sistema, obtenemos w1 + w2 = 0. Asi, w2 = −w1 y entonces


! ! !
w1 w1 1
w= = = w1
w2 −w1 −1

Luego, un autovector asociado a λ2 = −1 es


!
1
w=
−1

4.2. Multiplicidad algebraica


Consideremos una matriz A ∈ Mn×n (K) dada por

· · · a1n
 
a11 a12
 a21 a22

· · · a2n 

A=
 .. .. .. .. 
 . . . .  
an1 an2 · · · ann

Tenemos que el polinomio característico de A es un polinomio mónico con coeficientes en K y de


grado n:


λ − a11 −a12 ··· −a1n


−a21 λ − a22 ··· −a2n

pA (λ) = |λI − A| = .. .. .. ..

. . . .



−an1 −an2 ··· λ − ann
n n−1
= λ + bn−1 λ + · · · + b2 λ2 + b1 λ + b0

Cuando pA (λ) se pueda factorizar en la siguiente forma

pA (λ) = (λ − λ1 )r1 (λ − λ2 )r2 · · · (λ − λn )rn ,

diremos que cada uno de los números enteros positivos r1 , r2 , . . . , rn es la multiplicidad algebraica
de λ1 , λ2 , . . . , λn respectivamente.
132 CAPÍTULO 4. AUTOVALORES Y AUTOVECTORES

Notación. La multiplicidad algebraica de λi es denotada por ma(λi ), es decir,

ma(λi ) = ri .

Ejemplo 4.2.1:
Considere la matriz !
1 2
A= .
4 3
Halle los autovalores de A y sus respectivas multiplicidades algebraicas.

Solución. Por el Ejemplo 4.1.3, el polinomio característico de A es dado por

pA (λ) = (λ − 5)(λ + 1)

Luego, las multiplicidades algebraicas de los autovalores λ1 = 5 y λ2 = −1 son respectivamente

ma(5) = 1 y ma(−1) = 1

4.3. Multiplicidad Geométrica


4.3.1. Autoespacio asociado a autovalores
Teorema 4.6. Si λ es un autovalor de A ∈ Mn×n (K), donde K es el sistema de reales o complejos,
entonces el conjunto de todos los autovectores asociados a λ:

Eλ = {v : Av = λv}

es un subespacio vectorial de Cn .

Definición 4.7. El conjunto Eλ es denominado autoespacio de A asociado al autovalor λ.

Ejemplo 4.3.1:
Considere la matriz  
5 −6 −6
A = −1 4 2


3 −6 −4
Halle los autovalores de A y sus respectivos autoespacios asociados.
4.3. MULTIPLICIDAD GEOMÉTRICA 133

Solución. El polinomio característico es


pA (λ) = |λI − A|

λ−5 6 6

=
1 λ − 4 −2

−3

6 λ+4

λ−2 0 −λ + 2
F1 −F3

=

1 λ−4 −2

−3

6 λ+4


λ−2 0 0

C3 +C1
=
1 λ − 4 −1

−3

6 λ+1

λ − 4 −1
= (λ − 2)
6 λ+1

= (λ − 2)(λ2 − 3λ + 2)
= (λ − 2)(λ − 2)(λ − 1)
= (λ − 2)2 (λ − 1)
Luego, los autovalores son
λ1 = 2 y λ2 = 1
Calculemos los autovectores asociados a λ1 = 2:
    
−3 6 6 v1 0
(2I − A)v = 0 −→  1 −2 −2 v2  = 0
    

−3 6 6 v3 0
−→ v1 − 2v2 − 2v3 = 0
−→ v1 = 2v2 + 2v3
Se sigue que
       
v1 2v2 + 2v3 2 2
v2  =  v2  = v2 1 + v3 0 . (4.2)
       

v3 v3 0 1
Luego, los autovectores L.I. asociados a λ1 = 2 son
   
2 2
v = 1 y w= 0 .
   

0 1
Además, por (4.2), tenemos que el autoespacio asociado al autovalor λ1 = 2 es
    
 2
 2 

E(λ=2) = gen 1 , 0 .
   

0 
1
134 CAPÍTULO 4. AUTOVALORES Y AUTOVECTORES

Calculemos los autovectores asociados a λ1 = 1:


    
−4 6 6 z1 0
(I − A)z = 0 −→  1 −3 −2 z2  = 0
    

−3 6 5 z3 0

Resolvamos por eliminación Gauss-Jordan:


     
−4 6 6 0 0 −6 −2 0 0 0 0 0
 F1 +4F2   F1 −2F3 
 1 −3 −2 0  −F−−+3F
−−−→  1 −3 −2 0  −−−−−→  1 0 −1 0  (4.3)

F2 −F3

3 2
−3 6 5 0 0 −3 −1 0 0 −3 −1 0

Se sigue que (
z1 − z3 = 0
−3z2 − z3 = 0
De aquí,
z3
z1 = z3 y z2 = −
3
y entonces
     
z1 z3 3
 z3  z3  
z
 
 2 = −
 3 = −1 . (4.4)
3

z3 z3 3

Luego, el autovector L.I. asociado a λ2 = 1 es


 
3
z = −1 .
 

Además, por (4.4), tenemos que el autoespacio asociado al autovalor λ2 = 1 es


 
 3 
 
E(λ=1) = gen −1 .
 

3

4.3.2. Multiplicidad geométrica


Sea λ un autovalor de A. La multiplicidad geométrica es la dimensión del auto-espacio asociado

Eλ = N (A − λI) = {v : (A − λI)v = 0}
Es decir la multiplicidad geométrica es el número de autovectores linealmente independientes
correspondientes al autovalor λ.
4.3. MULTIPLICIDAD GEOMÉTRICA 135

Notación. La multiplicidad geométrica de λ es denotada por mg(λ), es decir,

mg(λ) = dim Eλ .

Ejemplo 4.3.2:
Considere la matriz  
5 −6 −6
A = −1 4 2


3 −6 −4
Halle los autovalores de A y sus respectivas multiplicidades algebraicas y geométricas.

Solución. Del Ejemplo 4.3.1, tenemos que los autovalores son

λ1 = 2 y λ2 = 1,

cuyas multiplicidades algebraicas son

ma(1) = 2 y ma(2) = 1.

También vimos que los autoespacios asociados de los mencionados autovalores son
      
 2
 2   3 
 
E(λ=2) = gen 1 , 0 y E(λ=1) = −1 .
gen 
    
   

0 1
 
3 

Por tanto, las multiplicidades geométricas son

mg(1) = 2 y mg(2) = 1.

Proposición 4.8. Si λ es un autovalor de una matriz A ∈ Mn×n (K), entonces

1. Existe al menos un autovector para la matriz A:

mg(λ) ≥ 1.

2. La multiplicidad geométrica es menor o igual a la multiplicidad algebraica:

mg(λ) ≤ ma(λ). (4.5)

3. Si ma(λ) = 1 entonces mg(λ) = 1.


136 CAPÍTULO 4. AUTOVALORES Y AUTOVECTORES

Ejemplo 4.3.3:
Considere la matriz  
1 1 0
A =  0 −1 0
 

−1 0 1
Halle los autovalores de A y sus respectivas multiplicidades algebraicas y geométricas.

Solución. El polinomio característico es

pA (λ) = |λI − A|

λ−1 −1 0

= 0

λ+1 0

λ−1

1 0

λ − 1 −1

= (λ − 1)
0 λ+1


= (λ − 1)(λ − 1)(λ + 1)
= (λ − 1)2 (λ + 1)

Luego, los autovalores son


λ1 = 1 y λ2 = −1,
cuyas multiplicidades algebraicas son

ma(1) = 2 y ma(−1) = 1.

Por la Proposición 4.8, tenemos que

mg(1) ∈ {1, 2} y mg(−1) = 1.

Calculemos los autovectores asociados a λ1 = 1:


    
0 −1 0 v1 0
(I − A)v = 0 −→ 0 2 0 v2  = 0
    

1 0 0 v3 0
(
v1 = 0
−→
v2 = 0

Se sigue que
     
v1 0 0
v2  =  0  = v3 0 . (4.6)
     

v3 v3 1
4.4. AUTOVECTORES Y AUTOVALORES DE OPERADORES LINEALES 137
 
0
Luego, el autovector L.I. asociado a λ1 = 1 es v = 0 y entonces
 

mg(1) = 1.

4.4. Autovectores y autovalores de Operadores Lineales


Sea V un espacio vectorial sobre K (reales o complejos). Un transformación lineal T : V → V
que parte de V y termina en si mismo es denominado operador lineal.

Definición 4.9. Sea T : V → V un operador lineal.

1. Un autovalor de T es un escalar λ ∈ K tal que existe un vector v ∈ V, v 6= 0 tal que

T (v) = λv (4.7)

2. Si λ es un autovalor de T , entonces el vector no nulo v ∈ V que satisface (4.7) es denomi-


nado autovector de T asociado a λ.

Sea B una base de V. Por las propiedades de matriz representativa tenemos

[T ]B→B [v]B = λ[v]B .

De este ultimo obtenemos la siguiente definición:

Definición 4.10. Sea V un espacio vectorial de dimensión finita y sea T : V → V un operador


lineal. El polinomio característico de T es definido como

pT (λ) = pA (λ) = det (λI − A) ,

donde A = [T ]B→B es la matriz representativa de T en una base B de V.

Ejemplo 4.4.1:

Halle el polinomio característico del operador lineal T : P1 [x] → P1 [x] definido por

T (a + bx) = (a + 2b) + (5a + 4b)x

Solución. Escojamos la base canónica B = {1, x}, tenemos que


(
T (1) = 1 + 5x
T (B) =
T (x) = 2 + 4x
138 CAPÍTULO 4. AUTOVALORES Y AUTOVECTORES

De aquí, la matriz representativa de T en la base canónica B es


!
1 2 ←− independiente
A = [T ]B→B =
5 4 ←− lineal
| {z }
Luego, el polinomio característico de T es T (B)

pT (λ) = pA (λ)

λ−1 −2
=

−5 λ − 4

= λ2 − 5λ − 6

Cálculo de autovectores para operadores lineales


• Escoger una base B de V y hallar la matriz representativa de T en relación a esta base

A = [T ]B→B

• Hallar el polinomio característico pT (λ) = pA (λ) = |λI − A|


• Hallar las soluciones (autovalores de A) λ1 , λ2 , ..., λn de la ecuación caracteristica:

|λI − A| = 0

• Para cada autovalor λi , resolver el sistema homogéneo

(λi I − A)[v]B = 0,

para encontrar el vector de coordenadas [v]B del autovector v 6= 0.


• Usar la base B y el vector de coordenadas [v]B para determinar el autovector v.

Ejemplo 4.4.2:
Calcule los autovalores, autovectores, multiplicidades algebraicas y geométricas del opera-
dor lineal T : P1 [x] → P1 [x] definido por

T (a + bx) = (a + 2b) + (5a + 4b)x

Solución.
• Vimos en el ejemplo anterior que al escoger la base canónica B = {1, x}, se obtuvo que
!
1 2
A = [T ]B→B =
5 4
4.4. AUTOVECTORES Y AUTOVALORES DE OPERADORES LINEALES 139

• También vimos que



λ − 1 −2

pT (λ) =
= λ2 − 5λ − 6 = (λ − 6)(λ + 1)
−5 λ − 4

• Los autovalores son λ1 = 6 y λ2 = −1, cuyas multiplicidades algebraicas son ma(6) = 1 y


ma(−1) = 1.
!
v
• Para λ1 = 6, hallemos el [v]B = 1 .
v2
! ! !
6 − 1 −2 v1 0
(6I − A)[v]B = 0 −→ =
−5 6 − 4 v2 0
! ! !
5 −2 v1 0
−→ =
−5 2 v2 0

2v2
Al resolver el sistema, obtenemos 5v1 − 2v2 = 0 y entonces v1 = 5
. Tomando v2 = 5, se
sigue que v1 = 2. Luego, ! !
v1 2
[v]B = =
v2 5
De modo que el autovector L.I. asociado a λ1 = 6 es

v = 2 + 5x

De aquí, la multiplicidad geométrica de λ1 = 6 es mg(6) = 1.


!
w1
• Para λ2 = −1, hallemos el [w]B = .
w2
! ! !
−1 − 1 −2 w1 0
(−I − A)[w]B = 0 −→ =
−5 −1 − 4 w2 0
! ! !
−2 −2 w1 0
−→ =
−5 −5 w2 0

Al resolver el sistema, obtenemos w1 + w2 = 0 y entonces w2 = −w1 . Tomando w1 = 1, se


sigue que w2 = −1. Luego, ! !
w1 1
[w]B = =
w2 −1
De modo que el autovector L.I. asociado a λ2 = −1 es

w = 1 − x.

De aquí, la multiplicidad geométrica de λ2 = −1 es mg(−1) = 1.


140 CAPÍTULO 4. AUTOVALORES Y AUTOVECTORES

Ejemplo 4.4.3:

Determine la transformación lineal T : P1 [x] → P1 [x] que satisface que λ1 = 2 es autovalor


con autovector x + 1 y que λ2 = 6 es autovalor con autovector x − 1.

Solución. Tenemos que

T (x + 1) = 2(x + 1) y T (x − 1) = 6(x − 1).

Del hecho que x + 1 y x − 1 no son paralelos, se tiene que B = {x + 1, x − 1} es L.I. Como


dim P1 [x] = 2, se tiene que B es una base de P1 [x]. Para todo ax + b ∈ P1 [x], existen c1 , c2 ∈ R
tales que

ax + b = c1 (x + 1) + c2 (x − 1)
= (c1 + c2 ) + (c1 − c2 )x

De aquí, (
c1 + c2 = a
c1 − c2 = b
Resolviendo ese sistema obtenemos que

a+b a−b
c1 = y c2 = .
2 2
Luego,
a+b a−b
ax + b = (x + 1) + (x − 1)
2 2
Aplicando T a ambos lados de la igualdad anterior, se obtiene que
!
a+b a−b
T (ax + b) = T (x + 1) + (x − 1)
2 2
a+b a−b
= T (x + 1) + T (x − 1)
2 2
a+b a−b
= · 2(x + 1) + · 6(x − 1)
2 2
= (a + b + 3a − 3b) + (a + b − 3a + 3b)x

Por tanto,
T (ax + b) = (4a − 2b) + (−2a + 4b)x.
4.5. EJERCICIOS PROPUESTOS: AUTOVALORES Y AUTOVECTORES 141

4.5. Ejercicios propuestos: Autovalores y autovectores


1. * Sea T : P2 [x] → P2 [x] el operador lineal definido por

T (ax2 + bx + c) = (a − c)x2 − bx + b + c.

Calcule su polinomio característico.

2. Sea T : R3 → R3 el operador lineal definido por

T (x, y, z) = (x − 2y + z; 2x − y − z; x + z).

Calcule su polinomio característico.

3. Sea T : P2 [x] → P2 [x] el operador lineal definido por

T (ax2 + bx + c) = (2a − b − c)x2 + (a + b + c)x + (−2a − b).

Calcule su polinomio característico.

4. Determine el polinomio característico del operador lineal T : R3 → R3 definida por

T (x, y, z)) = (x − y, z, y + z) .
!
1 2
5. Considere la matriz A =
5 4

a) Calcule los autovalores y autovectores de A.


b) Pruebe que el conjunto {v1 , v2 } de autovectores de A, es base de R2 .
c) Sea T : R2 → R2 la transformación lineal determinada por la matriz A. Determine la
matriz de T en la base {v1 , v2 }.
!
2 3
6. Considere la matriz A =
4 1

a) Calcule los autovalores y autovectores de A.


b) Pruebe que el conjunto {v1 , v2 } de autovectores de A, es base de R2 .
c) Sea T : R2 → R2 la transformación lineal determinada por la matriz A. Determine la
matriz de T en la base {v1 , v2 }.

7. Considere la matriz  
10 −7 −2
A =  2 −5 −4 
 

−5 20 13
142 CAPÍTULO 4. AUTOVALORES Y AUTOVECTORES

a) Calcule los autovalores y autovectores de A.


b) Pruebe que el conjunto {v1 , v2 , v3 } de autovectores de A, es base de R3 .
c) Sea T : R3 → R3 la transformación lineal determinada por la matriz A. Determine la
matriz de T en la base {v1 , v2 , v3 }.

8. Considere la matriz  
13 0 22
 4 2
A= 8 
−6 0 −10

a) Calcule los autovalores y autovectores de A.


b) Pruebe que el conjunto {v1 , v2 , v3 } de autovectores de A, es base de R3 .
c) Sea T : R3 → R3 la transformación lineal determinada por la matriz A. Determine la
matriz de T en la base {v1 , v2 , v3 }.

9. En cada una de las siguientes afirmaciones, determine si es verdadero o falso. Justificando


su respuesta.

a) * La transformación lineal T (x, y) = (2x + y, −3y) tiene como autovalores y autovec-


tores a: λ1 = 2, v1 = (1, 1), λ2 = −3, v2 = (1, −5)
! !
1 2 3
b) Dada la matriz A = , entonces el vector v = es autovector de A.
3 2 3
c) Sea A ∈ M2×2 (R) con autovalores λ1 y λ2 . Entonces, los autovalores de 3A son 3λ1 y
3λ2 .
d) Si la matriz A ∈ Mn×n (C), entonces todos sus autovalores son complejos.
e) Sea A ∈ Mn×n (R), entonces A y AT tienen los mismos autovalores.
f ) Sea A ∈ M2×2 (C), entonces A y Āt (transpuesta conjugada) tienen los mismos auto-
valores.
g) Sean A, B ∈ Mn×n (R) tal que AB = BA. Si v es autovector de A con autovalor λ y
Bv 6= 0V , entonces el vector Bv es autovector de A.
h) Sea A ∈ M2×2 (R) con autovalores λ1 y λ2 . Entonces, los autovalores de A − Id son
2λ1 y 2λ2 .
i) Sean λ1 , λ2 y λ3 son autovalores no nulos de una matriz A, con det(A) 6= 0. Entonces
los autovalores de A−1 son λ11 , λ12 y λ13 .
j) Si λ es un autovalor de una transformación lineal T con v su autovector asociado.
Entonces aλ + b es un autovalor de la transformación lineal R = aT + bId donde a y
b son constantes y Id es la transformación lineal identidad.
k) Sea T : R2 → R2 una transformación lineal cuyo autovalor λ1 = 4 con autovector
v1 = (1, 0) y autovalor λ2 = 2 con autovector v2 = (1, 1). Diga si es verdad que la
matriz que representa a T en la base canónica es
4.5. EJERCICIOS PROPUESTOS: AUTOVALORES Y AUTOVECTORES 143
!
4 −2
A=
0 4

10. * Determine la transformación lineal T : R2 → R2 , tal que λ1 = −1 es autovalor con


autovector v1 = (1, 0) y λ2 = 2 es autovalor con autovector v2 = (−1, 1)

11. Determine la trasformación lineal T : R3 → R3 , tales que λ1 = 1 es autovalor con autovector


v1 = (1, 0, −3) y λ2 = −3 es autovalor con autovectores v2 = (0, 1, 0) y v3 = (0, 0, 1)

12. Determine la trasformación lineal T : R3 → R3 , tales que λ1 = −3 es autovalor con


autovector v1 = (−1, 5, 0) ,λ2 = 2 es autovalor con autovector v2 = (1, 0, 0) y λ2 = −1 es
autovalor con autovector v3 = (0, 0, 1)

13. Sea A una matriz cuadrada de orden n × n y λ un autovalor de A con v su autovector


correspondiente.

a) Calcule Ak · v.
b) Si p(x) ∈ P3 [x], determine el valor de p(A) · v

14. Dada la transformación lineal T : R2 → R2 que satisface las siguientes condiciones:

a) λ1 = 1 es un autovalor de T cuyos autovectores asociados v1 = (y, −y) para y ∈ R no


nulo.
b) λ2 = 3 es un autovalor de T cuyos autovectores asociados v2 = (0, y) para y ∈ R no
nulo.

Determine explícitamente T (a, b)

15. Encuentre el polinomio característico, autovalores, autovectores, la multiplicidad algebraica


y geométrica para las transformaciones lineales.

a) T : R2 → R2 , T (x, y) = (x + y, x − y).
b) T : R2 → R2 , T (x.y) = (3x − y, 4x + 5y).
c) T : R3 → R3 , T (x, y, z) = (3x, x − y, 2x + y + z).
d) T : R3 → R3 , T (x, y, z) = (x + 2y − z, 3y + z, 4z).
e) T : R4 → R4 , T (x, y, z, w) = (2x, x + y, x − 3y − z, w).
f ) T : P1 [x] → P1 [x], T (ax + b) = (a + b)x + b.
g) T : P2 [x] → P2 [x], T (ax2 + bx + c) = ax2 + (b − c)x + (b + c).
h) T : P2 [x] → P2 [x], T (ax2 + bx + c) = (3a − 4c)x2 − bx + (2a − 3c).
! !
a b 2a + b 2b
i) T : M2×2 (R) → M2×2 (R), T = .
c d 2c 3d
144 CAPÍTULO 4. AUTOVALORES Y AUTOVECTORES
! !
a b a d
j) T : M2×2 (R) → M2×2 (R), T = .
c d b − c 2d

16. Para las siguientes matrices calcular el polinomio característico, los autovalores, autovec-
tores, multiplicidad algebraica y su multiplicidad geométrica.
   
1 0 0 5 −6 −6
a) A =  3 −3 1  f ) A =  −1 4 2 
  

−12 0 −3 3 −6 −4
 
  6 4 8
1 −1 4
g) A =  4 0 4 
 
b) A =

3 2 −1 
8 4 6
 
2 1 −1  
 
0 0 1
3 0 0 h) A =  0 1 0 
 

c) A =  3 0 1 
 
−1 0 2
10 −9 6 
0 1 5 9

  2 1 6 8
3 1 −1 i) A = 
 
0 0 0 3

d) A =  2 2 −1 
 
0 0 1 −2
2 2 0
−1 0 2 −2
 
 
1 −1 −1  4 4 −1 −2
j) A =  
 1 −1 0 
e) A =   4 8 4 −9
  

1 0 −1 4 5 1 −5
Capítulo
5
Matrices Semejantes y
Diagonalización
***

5.1. Matrices Semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145


5.2. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
5.2.1. Primer criterio de Diagonalización . . . . . . . . . . . . . . . . . . . . . . . 148
5.2.2. Segundo criterio de Diagonalización . . . . . . . . . . . . . . . . . . . . . . 150
5.2.3. Cálculo de la Matriz de paso . . . . . . . . . . . . . . . . . . . . . . . . . 151
5.3. Operadores lineales diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . 152
5.4. Ejercicios propuestos: Matrices Semejantes y Diagonalización . . . . . . . . . . . . 154
5.5. Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
5.6. Polinomio Minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
5.7. Tercer criterio de Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
5.8. Algoritmo en Octave/ MatLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
5.9. Ejercicios propuestos: Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . 163

Objetivo.
1. Comprender el concepto de matrices semejantes.
2. Determinar cuando un operador lineal o una matriz es diagonalizable

5.1. Matrices Semejantes


Definición 5.1. Dos matrices cuadradas A y B de n son llamadas semejantes (o similares)
cuando existe una matriz cuadrada invertible P de orden n tal que
P −1 AP = B.
La matriz P es denominada matriz de paso.

145
146 CAPÍTULO 5. MATRICES SEMEJANTES Y DIAGONALIZACIÓN

Observación 5.2. Como la matriz P es invertible, tenemos que

P −1 AP = B ⇐⇒ AP = P B

Ejemplo 5.1.1:
Considere las matrices
! !
1 2 −7 6
A= y B= .
−2 3 −14 11
!
2 −1
Verifique que A y B son semejantes con matriz de paso P = .
−1 1

Solución. Por un lado, tenemos


! ! !
1 2 2 −1 0 1
AP = = .
−2 3 −1 1 −7 5

Por otro lado, ! ! !


2 −1 −7 6 0 1
PB = = .
−1 1 −14 11 −7 5
Comparando ambas expresiones obtenemos que AP = P B. Luego, por la observación anterior
tenemos que P −1 AP = B. Por tanto, A y B son semejantes.

Proposición 5.3. Sean A y B son dos matrices cuadradas en Mn×n (K), donde K es el sistema de
números reales o complejos. Si A y B son semejantes, entonces valen las siguientes propiedades

1. Los determinantes de A y B coinciden:

det(A) = det(B).

2. Las trazas de A y B coinciden:

traza(A) = traza(B).

3. Si P −1 AP = B, entonces
P −1 An P = B n , ∀n ∈ N

4. Los polinomios característicos de A y B coinciden:

pA (λ) = pB (λ).

5. Las matrices A y B poseen los mismos autovalores.


5.2. DIAGONALIZACIÓN 147

Ejemplo 5.1.2:
Considere las matrices
! !
1 2 −7 6
A= y B= .
−2 3 −14 11

Del ejemplo anterior se tiene que A y B son semejantes. Verifique que A y B tienen el
mismo polinomio característico.

Solución. Calculando sus polinomios característicos obtenemos que

pA (λ) = λ2 − (1 + 3)λ + (1 · 3 − 2(−2)) = λ2 − 4λ + 7

y
pB (λ) = λ2 − (−7 + 11)λ + ((−7) · 11 − 6(−14)) = λ2 − 4λ + 7.
Es decir,
pA (λ) = pB (λ) = λ2 − 4λ + 7.

5.2. Diagonalización
Definición 5.4. Una matriz cuadrada A ∈ Mn×n (K) es diagonalizable sobre K cuando A es
semejante a una matriz diagonal
···
 
c1 0 0
 0 c2

··· 0 
D=
 .. .. .. ,
.. 
. . . .
0 0 · · · cn

donde c1 , c2 , ..., cn ∈ K. Osea cuando existe una matriz cuadrada P ∈ Mn×n (K) invertible tal que

P −1 AP = D.

Observación 5.5. Por las propiedades de matrices semejantes tenemos que A y D tiene el
mismo polinomio característico

λ − c1

0 ··· 0

0
λ − c2 · · · 0

pA (λ) = pD (λ) = ..
.. .. ..
.

. . .



0 0 · · · λ − cn

= (λ − c1 )(λ − c2 ) . . . (λ − cn ),

y por tanto c1 , c2 , . . . , cn son los autovalores de A.


148 CAPÍTULO 5. MATRICES SEMEJANTES Y DIAGONALIZACIÓN

5.2.1. Primer criterio de Diagonalización


Veamos un primer criterio para determinar cuando una matriz es diagonalizable.

Teorema 5.6. Una matriz cuadrada A ∈ Mn×n (K) de orden n es diagonalizable si, y solamente
si, tiene n autovectores linealmente independientes en Kn .

Corolario 5.7. Si A ∈ Mn×n (K) es una matriz cuadrada con n autovalores distintos en K,
entonces A es diagonalizable.

Ejemplo 5.2.1:
!
1 1
Determine si la matriz A = es diagonalizable sobre R.
−2 4

Solución. El polinomio característico es



λ − 1 −1

pA (λ) = = λ2 − 5λ + 6 = (λ − 3)(λ − 2).

2 λ−4

Resolviendo pa (λ) = 0, obtenemos que los autovalores de A son

λ1 = 3 y λ2 = 2,

los cuales son diferentes. Por el Corolario anterior se sigue que A es diagonalizable.

Ejemplo 5.2.2:
!
4 −1
Determine si la matriz A = es diagonalizable sobre R.
0 4

Solución. El polinomio característico es



λ−4
1
pA (λ) =
= λ2 − 8λ + 16 = (λ − 4)2 .
0 λ−4

Resolviendo pA (λ) = 0, obtenemos que el único autovalor de A es

λ1 = 4

Además, su multiplicidad algebraica es ma(4) = 2.


Calculemos el autovector asociado a λ1 = 4. Resolvamos
! ! !
0 1 v1 0
(4I − A)v = 0 −→ = .
0 0 v2 0
5.2. DIAGONALIZACIÓN 149

De aquí, v2 = 0. Luego, ! ! !
v1 v 1
= 1 = v1 .
v2 0 0
El autovector L.I. asociado a λ1 = 4 es
!
1
v= .
0

Es decir, solo tiene un autovector linealmente independiente. Por tanto, A no es diagonalizable.

Ejemplo 5.2.3:
Considere la matriz  
1 −1 4
A = 3 2 −1


2 1 −1
Determine si la matriz es diagonalizable sobre R.

Solución. El polinomio característico es




λ−1 1 −4

pA (λ) = |λI − A| =
−3 λ − 2 1

−2 −1 λ + 1




λ−3 0 λ−3

F1 +F3
=

−3 λ − 2 1

−2 −1 λ + 1



λ−3 0 0
C3 −C1

=
−3 λ − 2 4

−2 −1 λ + 3



λ−2 4
= (λ − 3)
−1 λ + 3

= (λ − 3)(λ2 + λ − 2)
= (λ − 3)(λ + 2)(λ − 1)

Resolviendo pA (λ) = 0, obtenemos que los autovalores de A son

λ1 = 3, λ2 = −2 y λ3 = 1.

Como estos tres autovalores son distintos, se sigue del Teorema 5.6 que A es diagonalizable.
150 CAPÍTULO 5. MATRICES SEMEJANTES Y DIAGONALIZACIÓN

5.2.2. Segundo criterio de Diagonalización


Un segundo criterio para determinar que una matriz es diagonalizable es mediante la compa-
ración de las multiplicidades algebraicas y geométricas:

Teorema 5.8. Sea A ∈ Mn×n (K) una matriz con polinomio característico

pA (λ) = (λ − λ1 )r1 (λ − λ2 )r2 · · · (λ − λk )rk ,

donde λ1 , λ2 , ..., λk ∈ K son los autovalores de A distintos dos a dos. Entonces

A es diagonalizable sobre K ⇐⇒ ma(λi ) = mg(λi ) = ri , ∀i = 1, 2, ..., k.

Ejemplo 5.2.4:
Considere la matriz  
a −1 0
A = 0 3 0


0 0 −5
Hallar el valor de a de modo que λ = 3 sea un autovalor de A de multiplicidad algebraica
2. ¿La matriz A es diagonalizable sobre R?. Justifique su respuesta.

Solución. El polinomio característico es



λ−a 1
0
pA (λ) = |λI − A| = 0 λ−3
0

0 0 λ+5
= (λ − a)(λ − 3)(λ + 5).

Para que ma(3) = 2, se debe tener que a = 3. Luego,


 
3 −1 0
A = 0 3

0 y pA (λ) = (λ − 3)2 (λ + 5).
0 0 −5

De aquí, los autovalores son


λ1 = 3 y λ2 = −5,
cuyas multiplicidades algebraicas son

ma(3) = 2 y ma(−5) = 1.

Por la Proposición 4.8, tenemos que


mg(−5) = 1.
5.2. DIAGONALIZACIÓN 151

Calculemos los autovectores asociados a λ1 = 3.


    
0 −1 0 v1 0
(3I − A)v = 0 −→ 0 0 0 v2  = 0
    

0 0 8 v3 0
(
v2 = 0
−→
v3 = 0

Se sigue que
     
v1 v1 1
v2  =  0  = v1 0 . (5.1)
     

v3 0 0

Luego, el autovector L.I. asociado a λ1 = 3 es


 
1
v= 0 y mg(3) = 1.
 

Es decir,
ma(3) = 2 6= 1 = mg(3) y ma(−5) = 1 = mg(−5).
Por tanto, A no es diagonalizable sobre R.

Ejemplo 5.2.5:
 
−1 −3 −9
Determine si la matriz A =  0 5 18 
 es diagonalizable sobre R.

0 −2 −7

Solución.

5.2.3. Cálculo de la Matriz de paso


Sea A ∈ Mn×n (K) una matriz diagonalizable. Los pasos para hallar la matriz de paso son:

1. Hallar su polinomio característico pA (λ) = det(λI − A).

2. Hallar las soluciones (autovalores de A) λ1 , λ2 , ..., λk de la ecuación característica: pA (λ) = 0.

3. Hallar los autovectores linealmente independientes de A asociados a cada autovalor λi ,


mediante el sistema homogéneo (λi I − A)v = 0.
152 CAPÍTULO 5. MATRICES SEMEJANTES Y DIAGONALIZACIÓN

4. Colocar los n autovectores v1 , v2 , ..., vn ∈ Kn en las columnas de una matriz:

P = (v1 v2 · · · vn )

5. La matriz definida en el anterior paso satisface


···
 
λ1 0 0
 0 λ2

··· 0
P −1 AP = D = 

 .. .. .. .. 
 . . . .

0 0 · · · λn

Ejemplo 5.2.6:
Para la matriz  
−8 9 −27
A =  3 −2 9 
 

3 −3 10
su polinomio característico es pA (λ) = λ3 − 3λ + 2 . Halle sus autovalores, autovectores y
determine si es diagonalizable sobre R, si lo es, halle su matriz diagonal D y la matriz de
paso P tal que P −1 AP = D.

Solución.

Ejemplo 5.2.7:
 
3 2 4
Determine si la matriz A = 2 0 2

 es diagonalizable sobre R sabiendo que su polinomio
4 2 3
característico es pA (λ) = λ3 − 6λ2 − 15λ − 8. En caso afirmativo, halle su matriz diagonal
D y la matriz de paso P tal que P −1 AP = D.

Solución.

5.3. Operadores lineales diagonalizables


Sea V un espacio vectorial sobre K de dimensión finita. Un operador lineal T : V → V llamado
diagonalizable cuando existe una base B tal que la matriz representativa [T ]B→B tiene la forma
diagonal, es decir,
λ1 0 · · · 0
 

 0 λ2 · · · 0 
 
[T ]B→B =  ..
 .. . . .
 . . . .. 

0 0 · · · λn
5.3. OPERADORES LINEALES DIAGONALIZABLES 153

con λ1 , λ2 , ..., λn ∈ K
Ejemplo 5.3.1:

Determine si el operador lineal T : P1 [x] → P1 [x] dado por

T (a + bx) = −3b + (−a + 2b)x

es diagonalizable. Caso afirmativo, obtenga una base B, de modo que [T ]B→B es diagonal.

Solución.
• La matriz representativa de T en la base canónica Bc = {1, x} es
!
0 −3
A = [T ]Bc →Bc =
−1 2

• El polinomio característico es

λ 3
pT (λ) = |λI − A| = = λ2 − 2λ − 3 = (λ − 3)(λ + 1).

1 λ−2

• Los autovalores de A son


λ1 = 3 y λ2 = −1.
!
v1
• Para λ1 = 3, hallemos [v]Bc =
v2
! ! !
3 3 v1 0
(3I − A)[v]Bc = 0 −→ =
1 1 v2 0
Se sigue que v1 + v2 = 0 y entonces v2 = −v1 . Tomando v1 = 1, se tiene que v2 = −1.
Luego, !
1
[v]Bc = .
−1
El autovector asociado a λ1 = 3 es v = 1 − x
!
w1
• Para λ2 = −1, hallemos [w]Bc =
w2
! ! !
−1 3 w1 0
(−I − A)[w]Bc = 0 −→ =
1 −3 w2 0
Se sigue que w1 − 3w2 = 0 y entonces w1 = 3w2 . Tomando w2 = 1, se tiene que w1 = 3.
Luego, !
3
[w]Bc = .
1
El autovector asociado a λ2 = −1 es w = 3 + x
154 CAPÍTULO 5. MATRICES SEMEJANTES Y DIAGONALIZACIÓN

• La base conformada por los autovectores B = {1 − x, 3 + x} es la que satisface que


!
3 0
[T ]B→B = .
0 −1

5.4. Ejercicios propuestos: Matrices Semejantes y Diago-


nalización
1. Sean A, B y C matrices en Mn×n (R). Muestre que:

a) Si A es semejante a B y B es semejante a C, entonces A es semejante a C.


b) Si A es semejante a B, entonces sus determinantes son iguales.
c) Si A es semejante a B, entonces Ak es semejante a B k para todo k ∈ Z.

2. Sean A, B y C matrices en Mn×n (R). Muestre que, si A − λId es semejante a B − λId,


y B − λId es semejante a C − λId, entonces la matriz A − λId es semejante a la matriz
C − λId donde λ ∈ R.

3. Suponga que P −1 AP = D. Muestre que para todo entero k, se tiene Ak = P Dk P −1 (Esto


da un modo fácil de calcular la potencia de una matriz diagonalizable).

4. Considere la matriz  
a −1 0
 0 3
A= 0 

0 0 −5
Hallar el valor de a tal que λ = 3 sea un autovalor de A de multiplicidad algebraica 2. ¿La
matriz A es diagonalizable sobre R? Justifique su respuesta. Caso afirmativo, encontrar P
tal que P −1 AP = D

5. Considere  
3 −8 2
A = 0 a + 1 1
 

0 3−a 3
una matriz tal que λ = 4 es un autovalor con multiplicidad algebraica 2. Halle el valor de a.
¿La matriz A es diagonalizable sobre R? Justifique su respuesta. Caso afirmativo, encontrar
P tal que P −1 AP = D

6. Para la matriz  
−8 9 −27
A =  3 −2 9 
 

3 −3 10
5.4. EJERCICIOS PROPUESTOS: MATRICES SEMEJANTES Y DIAGONALIZACIÓN 155

su polinomio característico es p (λ) = λ3 − 3λ + 2 . Halle sus autovalores, autovectores y


determine si es diagonalizable sobre los reales, si lo es, halle su matriz diagonal y la base
donde ocurra dicha matriz.

7. Para la matriz  
4 −1 1
A= 0 1 3 
 

0 2 2

su polinomio característico es p (λ) = λ3 −7λ2 +8λ+16 . Halle sus autovalores, autovectores


y determine si es diagonalizable sobre los reales, si lo es, halle su matriz diagonal y la base
donde ocurra dicha matriz.

8. *Dada la transformación lineal T : R3 → R3 definida por

T (x, y, z) = (−3x + 4y + 4z, −2y, x − y − 3z)

cuyo polinomio característico es p(λ) = λ3 + 8λ2 + 17λ + 10. Halle sus autovalores, auto-
vectores y determine si es diagonalizable sobre los reales.

9. Dado la transformación lineal T : P2 [x] → P2 [x] definida por

T (a + bx + cx2 ) = (4a + b) x2 − bx + 2c

Determine si es diagonalizable sobre los reales y calcule D = P −1 AP.

10. Halle la potencia n-ésima de las siguientes matrices


   
0 −1 0 −1 −1 −1
a)  1 0 1 

 b)  −1 −1 −1 


0 −1 0 −1 −1 −1
!
3 a
11. Para la matriz calcular los valores de los parámetros a y b para que el vector
−1 b
!
−1
sea un autovector asociado al autovalor λ = 1. ¿Cual es el otro autovalor?
1
!
a b
12. Sea la matriz A = . Determinar todos los valores de a, b y c para los cuales A es
0 c
diagonalizable sobre R.

13. Determine si T : P2 [x] → P2 [x] definido por

T (ax2 + bx + c) = (2a − b + 3c)x2 + (3a − 2b + 3c)x − a − b + 6c

es diagonalizable sobre R.
156 CAPÍTULO 5. MATRICES SEMEJANTES Y DIAGONALIZACIÓN

14. Sea A ∈ M3×3 (R) la matriz de una transformación lineal T en las bases canónicas. Si λ1 = 0,
λ2 = 1 y λ3 = 2 son los autovalores de T .

a) Determine si T es diagonalizable sobre R.


b) Determine det(A · AT )

15. Para cada item, determine si es posible obtener una base B, de modo que la matriz repre-
sentativa [T ]B→B de transformación lineal T es diagonal:

a) T : R2 → R2 , T (x, y) = (2x + y, x − y).


b) T : R3 → R3 , T (x, y, z) = (x, x + 2y, x + 2y + 3z).
c) T : R3 → R3 , T (x, y, z) = (x + y, z + y, x + z).
d) T : P2 [x] → P2 [x], T (ax2 + bx + c) = (a + 2b + 3c)x2 + bx + (2a + b + 2c).
e) T : P2 [x] → P2 [x], T (ax2 + bx + c) = ax2 − cx + b.

16. Considere una transformación lineal T : P1 [x] → P1 [x], dada por

T (ax + b) = −3bx + (−a + 2b).

a) Calcule los autovalores y autovectores de AT .


b) Determine si T es diagonalizable sobre R. Si lo es, encuentre una matriz de paso P
tal que P −1 AT P = D.

17. Considere una transformación lineal T : P1 [x] → P1 [x] dada por

T (ax + b) = (−5a + 6b)x + (−3a + 4b).

a) Calcule los autovalores y autovectores de AT .


b) Determine si T es diagonalizable sobre R. Si lo es, encuentre una matriz P tal que
P −1 AT P = D.

18. Dada la transformación lineal T : M2×2 (R) → M2×2 (R) definida por:
! !
a b 2a + b 2b
T =
c d 2c 3d

la transformación lineal T es diagonalizable sobre R? Justifique su respuesta.

19. * Dada la transformación lineal T : M2×2 (R) → M2×2 (R), definida por
! !
a b 4a a + 4b
T =
c d b + 2c b + 4c + 3d

determine si es diagonalizable sobre R


5.4. EJERCICIOS PROPUESTOS: MATRICES SEMEJANTES Y DIAGONALIZACIÓN 157

20. * Determine si la afirmación es verdadera o falsa: Sean los autovalores


! λ1 = −1! y λ2 = 3
2 0
de la matriz A, con sus correspondientes autovectores v1 = y v2 = . Si A es
−1 1
diagonalizable sobre R, entonces
!
−1 0
A=
2 3

21. Para los siguientes casos determine si la matriz A dada es diagonalizable sobre R. Si lo es,
encuentre una matriz P tal que P −1 AP = D.
!  
−2 −2 0 1 1
a) A =
−5 1 e) A =  1 0 1 
 

  1 1 0
1 1 −2  
b) A =  −1 2 1 
  −2 −2 0
f ) A =  −5 1 0 
 
0 1 −1
0 0 2
 
2 1 0 
1 2 3

 0 0 1 
c) A =  
 0 −1 2 
g) A =  
0 0 0 0 0 2
   
2 1 0 1 2 −1
d) A =  0 1 −1 

 h) A =  1 0

1 

0 2 4 4 −4 5

22. * Dada la matriz  


8 −2 2
A =  −2 5 4 
 

2 4 5
con polinomio característico p(λ) = λ3 − 18λ2 + 81λ. Determine si A es diagonalizable
sobre R, en caso de serlo halle una matriz diagonal D y una matriz no singular P , tal que
D = P −1 AP

23. Considere la matriz !


0 −1
A= .
1 0

a) Determine si A es diagonalizable sobre R.


b) Determine si A es diagonalizable sobre C.

24. Considere la matriz  


3 −4 0
A = 4 3 0.

1 −1 −2
158 CAPÍTULO 5. MATRICES SEMEJANTES Y DIAGONALIZACIÓN

a) Determine si A es diagonalizable sobre R.


b) Determine si A es diagonalizable sobre C.

5.5. Teorema de Cayley-Hamilton


Teorema 5.9. Sea A ∈ Mn×n (K) una matriz cuadrada y sea pA (λ) su respectivo polinomio
característico, entonces
pA (A) = 0

Ejemplo 5.5.1:
Use el teorema de Cayley-Hamilton, para hallar la matriz inversa de
 
0 1 −2
A = 0 0 2.

1 −3 3

Solución. El polinomio característico de A es dado por




λ −1 2

pA (λ) =

0 λ −2

−1 3 λ − 3



λ −2 −1 2
= λ −

3 λ−3 λ −2

= λ(λ2 − 3λ + 6) − (2 − 2λ)
= λ3 − 3λ2 + 8λ − 2

Por el teorema de Cayley-Hamilton, tenemos que

pA (A) = A3 − 3A2 + 8A − 2I = 0

Luego,
A3 − 3A2 + 8A = 2I
Factorizando la matriz A por la derecha:

(A2 − 3A + 8I)A = 2I

De aquí,
1 2
(A − 3A + 8I) A = I
|2 {z }
A−1
5.6. POLINOMIO MINIMAL 159

Como     
0 1 −2 0 1 −2 −2 6 −4
2
A = 0 0

2  0 0

2  =  2 −6 6 
 
,
1 −3 3 1 −3 3 3 −8 1
se sigue que
1 2
A−1 = (A − 3A + 8I)
2      
−2 6 −4 0 1 −2 1 0 0
1 
=  2 −6 6  − 3 0 0 2 + 8 0 1 0
   
2
3 −8 1 1 −3 3 0 0 1
 
6 3 2
1
= 2 2 0

2
0 1 0

5.6. Polinomio Minimal


El polinomio minimal de una matriz cuadrada A ∈ Mn×n (K) es el polinomio mónico mA (λ)
de menor grado tal que
mA (A) = 0.

Propiedades. Sea A ∈ Mn×n (K) una matriz cuadrada.

1. El polinomio minimal es un divisor del polinomio característico.

2. Los polinomios característico y minimal de A tienen las misma raíces.

3. Si pA (λ) = (λ − λ1 )r1 (λ − λ2 )rk ...(λ − λk )rk , entonces

mA (λ) = (λ − λ1 )n1 (λ − λ2 )nk · · · (λ − λk )nk ,

donde n1 ≤ r1 , n2 ≤ r2 , . . ., nk ≤ rk .

Ejemplo 5.6.1:
Considere la matriz  
5 −6 −6
A = −1 4 2


3 −6 −4
cuyo polinomio característico es pA (λ) = (λ−2)2 (λ−1). Halle el polinomio minimal mA (λ).
160 CAPÍTULO 5. MATRICES SEMEJANTES Y DIAGONALIZACIÓN

Solución. El polinomio minimal mA (λ) solo puede ser igual a una de las siguientes posibilidades:

(λ − 2)(λ − 1) ó (λ − 2)2 (λ − 1).

Para determinar cual de estos es el polinomio minimal debemos ver cual es el que tiene menor
grado y a su vez se anula al evaluar en la matriz A.
Evaluemos el primero:
  
3 −6 −6 4 −6 −6
(A − 2I)(A − I) = −1 2 2  −1 3 2
 

3 −6 −6 3 −6 −5
 
0 0 0
= 0 0 0 .
 

0 0 0

El segundo polinomio también se anula al evaluar en A, ya que coincide con el polinomio


característico pA (λ) y se anula por el teorema de Cayley-Hamilton.
Escogemos el primero porque es el de menor grado. Por tanto,

mA (λ) = (λ − 2)(λ − 1).

5.7. Tercer criterio de Diagonalización


Un tercer criterio para determinar si una matriz es diagonalizable es dado por los polinomios
minimales:
Teorema 5.10. Sea A ∈ Mn×n (K) con polinomio característico

pA (λ) = (λ − λ1 )r1 (λ − λ2 )r2 · · · (λ − λk )rk ,

donde λ1 , λ2 , ..., λk son autovalores de A dos a dos distintos. Entonces, A es diagonalizable sobre
K si, y solamente si, el polinomio minimal de A es dado por

mA (λ) = (λ − λ1 )(λ − λ2 ) · · · (λ − λk )

Ejemplo 5.7.1:
Considere la matriz  
5 −6 −6
A = −1 4 2


3 −6 −4
Determine si A es diagonalizable.
5.8. ALGORITMO EN OCTAVE/ MATLAB 161

Solución. Vimos en el ejemplo anterior que su polinomio característico es


pA (λ) = (λ − 2)2 (λ − 1).
También vimos que su polinomio minimal es
mA (λ) = (λ − 2)(λ − 1).
Por el teorema anterior, concluimos que A es diagonalizable.

5.8. Algoritmo en Octave/ MatLab


#### Diagonalizable solo para autovalores enteros
disp ( ' Asegurese que los autovalores sean enteros ') ;
disp ( ' - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - ') ;
a = input ( ' Ingrese la matriz cuadrada : ') , [m , n ]= size ( a ) ;
if m == n
disp ( ' Autovalores ') ;
k = sort ( eig ( a ) ) ;
k = round ( k ) ;
b =[]; b (1) = k (1 ,1) ;
i =1;
for j =2: n
if k (j ,1) ~= k (j -1 ,1)
i = i +1;
b ( i ) = k (j ,1) ;
endif
endfor
disp ( b ) ;
m = size ( b ) (2) ;
p = eye ( n ) ;
for l =1: m
p = p *( a - b ( l ) * eye ( n ) ) ;
endfor
format rat
p;
if p == zeros ( n )
disp ( 'A si es diagonalizable ')
else disp ( 'A no es diagonalizable ')
endif
else disp ( ' Su matriz A no es cuadrada !! ')
disp ( ' - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - ') ;
disp ( ' Cambie por una matriz cuadrada !!! ')
endif
162 CAPÍTULO 5. MATRICES SEMEJANTES Y DIAGONALIZACIÓN

En el algoritmo arriba se usó el tercer criterio para determinar si una matriz es diagonalizable,
con la única condición que los autovalores sean previamente números enteros. Veamos algunos
ejemplos a seguir.
>> diagonalizable
Asegurese que los autovalores sean enteros
------------------------------------------
Ingrese la matriz cuadrada: [5 -6 -6;-1 4 2;3 -6 -4]
a =

5 -6 -6
-1 4 2
3 -6 -4

Autovalores
1 2
A si es diagonalizable

>> diagonalizable
Asegurese que los autovalores sean enteros
------------------------------------------
Ingrese la matriz cuadrada: [3 0 1;1 3 0;0 0 3]
a =

3 0 1
1 3 0
0 0 3

Autovalores
3
A no es diagonalizable

>> diagonalizable
Asegurese que los autovalores sean enteros
------------------------------------------
Ingrese la matriz cuadrada: [2 3 4;1 -2 3]
a =

2 3 4
1 -2 3

Su matriz A no es cuadrada!!
------------------------------------------
Cambie por una matriz cuadrada!!!
5.9. EJERCICIOS PROPUESTOS: TEOREMA DE CAYLEY-HAMILTON 163

>> diagonalizable
Asegurese que los autovalores sean enteros
------------------------------------------
Ingrese la matriz cuadrada: [2 1 0 0 ;0 2 0 0; 0 0 1 1; 0 0 -2 4]
a =

2 1 0 0
0 2 0 0
0 0 1 1
0 0 -2 4

Autovalores
2 3
A no es diagonalizable

5.9. Ejercicios propuestos: Teorema de Cayley-Hamilton


1. Calcule las inversas de las matrices dadas usando el teorema de Cayley-Hamilton.
!  
−2 −2 3 −7 −5
a) A =
−5 1 e) A =  2 4 3 
 
1 2 2
 
1 2 2
 
−1 0 1
b) A =  0 2 1 
 
f ) A =  2 −1 3 
 
−1 2 2 1 1 1
 
2 −1 3
!
2 −1
c) A = g) A =  4

1 6 

5 −2
1 5 3
   
0 1 0 1 −1 0
d) A =  0 0 1  h) A =  −1 2 −1 
   
1 −3 3 0 −1 1

2. Sea A una matriz 2 × 2 tal que su inversa dada por el teorema de Cayley-Hamilton cumple la
igualdad 5A−1 +2I +A = 0. Demuestre que el polinomio característico de A es pA (λ) = λ2 +2λ+5.

3. Sea A ∈ M2×2 (R) una matriz cuadrada de orden 2 cuyo polinomio característico es pA (λ) = λ2 −λ.
Demuestre que A147 = A.

4. Sea A ∈ M3×3 (R) una matriz cuadrada cuya inversa se obtiene usando el teorema de Cayley-
Hamilton como A−1 = 41 (A2 − A). Demuestre que det(A) = 4.

5. Mediante el teorema de Cayley-Hamilton determine la inversa de la matriz de la transformación


dada con respecto a la base dada.
164 CAPÍTULO 5. MATRICES SEMEJANTES Y DIAGONALIZACIÓN

a) T : P1 [x] → P1 [x], definida por T (ax + b) = (2a − b)x + 4a + 5b con base B = {x − 1, x + 1},
b) T : R3 → R3 , definida por T (x, y, z) = (x+y−z, y−z, x−3z) con base B = {(1, 0, 1), (1, −1, 0), (−1, 2, −1

6. Sea A ∈ M3×3 (R) una matriz cuyo polinomio característico es pA (λ) = λ3 − 1. Halle la matriz
inversa A−1 .

7. Encuentre todas las posibilidades para polinomio minimal de la matriz A ∈ M5×5 (R) con polino-
mio característico:

a) pA (λ) = (λ − 3)3 (λ − 2)2


b) pA (λ) = (λ − 1)2 (λ − 2)2 (λ − 3)
c) pA (λ) = (λ + 7)(λ + 1)(λ + 2)(λ − 4)(λ − 5)
d) pA (λ) = (λ + 1)5

8. Encuentre el polinomio minimal de las siguientes matrices. Determine también si son diagonali-
zables usando el criterio de polinomios minimales.
 
2 −1 3
a) A = 0 2 0
 
0 1 7
 
2 −1 −3
b) A = −42 8 39 
 
14 −2 −11
 
2 −1 −3
c) A = −18 8 27 
 
6 −2 −7
 
2 1 0 0
0 2 0 0
d) A = 
 
0 0 1 1

0 0 −2 4
 
5 2 0 0
0 5 2 0
e) A = 
 
0 0 5 2

0 0 0 5

9. Hallar el polinomio minimal del operador lineal T : P2 [x] → P2 [x] definido por

T (a + bx + cx2 ) = b + 2cx

10. Halle el polinomio minimal del operador lineal T : P3 [x] → P3 [x] definido por

p(2x) − p(x)
T (p(x)) =
x
Capítulo
6
Forma Canónica de Jordan
***

6.1. Teorema de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166


6.2. Forma Canónica de Jordan (Caso n = 2) . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
6.2.1. Subcasos: Diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
6.2.2. Subcaso: No diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
6.3. Forma Canónica de Jordan (Caso n = 3) . . . . . . . . . . . . . . . . . . . . . . . . . . 171
6.4. Ejercicios Propuestos: Forma canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . 186

Objetivo.

1. Identificar la forma canónica de Jordan que posee una matriz.

2. Aprender a construir la matriz de paso que permite obtener la forma canónica de Jordan.

Introducción
El gran interés de estudiar diagonalización fue trabajar con matrices que sean lo más sencillas posibles
(como, por ejemplo, matrices diagonales). Sin embargo, vimos que no siempre es posible diagonalizar
una matriz. Una pregunta natural que surge es: ¿cuál es la matriz más sencilla asociada a una matriz
que no es diagonalizable?. Una respuesta a esta interrongante es dada por la forma canónica de Jordan.

165
166 CAPÍTULO 6. FORMA CANÓNICA DE JORDAN

6.1. Teorema de Jordan


Sea A ∈ Mn×n (R) y supogamos que los polinomios característico y minimal de A, respectivamente,
se descomponen como un producto de factores primos lineales

pA (λ) = (λ − λ1 )r1 ...(λ − λk )rk y mA (λ) = (λ − λ1 )n1 ...(λ − λk )nk

donde λ1 , ..., λk son autovalores distintos de A. Entonces, existe una matriz invertible P ∈ Mn×n (R) tal
que  
A1
−1

 A2 

P AP =  
.. 
 . 

Ak
formada por bloques diagonales Aj de orden rj , para j = 1, ..., k, dadas por
 
J1 (λj )

 J2 (λj ) 

Aj =  .. 

 . 

Jsj (λj )

donde sj = mg(λj ) es la multiplicidad geométrica de λj y cada bloque de Jordan Ji (λj ) es de la forma

···
 
λj 1 0 0 0

 0 λj 1 ··· 0 0 


 0 0 λj ··· 0 0 

Ji (λj ) =  .. .. .. .. .. ..

 . . . . . .


 
 0 0 0 · · · λj 1 
0 0 0 ··· 0 λj

valiendo las siguientes propiedades:

1. El primer bloque de Jordan J1 (λj ) es una matriz de orden nj , mientras que los otros bloques
Ji (λj ) tienen orden ≤ nj .

2. La suma de los ordenes de todos los Ji (λj ) es igual a la multiplicidad algebraica rj = ma(λj ) del
autovalor λj .

3. El número total de bloques Ji (λj ) es sj = mg(λj ).

Definición 6.1. La matriz del teorema anterior dada por


 
A1

 A2 

J = .. ,

 . 

Ak

es denominada forma canónica de Jordan de la matriz A.


6.1. TEOREMA DE JORDAN 167

Ejemplo 6.1.1:

Suponga que los polinomios característico y minimal de una matriz A son respectivamente,

pA (λ) = (λ − 2)4 (λ − 3)3 y mA (λ) = (λ − 2)2 (λ − 3)2 .

Halle las posibles formas canónicas de Jordan de A.

Solución. Usando el teorema anterior, obtenemos que la forma canónica de Jordan de A es una de las
siguientes
   
2 1 2 1
 0 2   0 2 
   
2 1 2
   
   
   

 0 2 
 ó 
 2 


 3 1 


 3 1 

0 3 0 3
   
   
3 3

Ejemplo 6.1.2:

Determine todas las matrices en la forma canónica de Jordan de la matriz A cuyos polinomios
característico y minimal son respectivamente,

pA (λ) = (λ − 2)3 (λ − 3)4 (λ − 1) y mA (λ) = (λ − 2)2 (λ − 3)2 (λ − 1)

Solución. Usando el Teorema anterior, obtenemos que la forma canónica de Jordan de A es una de las
siguientes
   
2 1 2 1
 0 2   0 2 
   
2 2
   
   
   
 3 1   3 1 
  ó  

 3 


 3 


 3 


 3 1


3
   
 3   
1 1

Ejemplo 6.1.3:

Determine todas las matrices en la forma canónica de Jordan de la matriz A cuyo polinomio
característico es

pA (λ) = (λ − 2)2 (λ + 1)λ2


168 CAPÍTULO 6. FORMA CANÓNICA DE JORDAN

Solución. Como el polinomio minimal mA (λ) tiene los mismos factores lineales de pA (λ) y ademas como
su grado es menor o igual al grado de pA (λ), se tiene las siguientes posibilidades para su polinomio
minimal:
a) mA (λ) = (λ − 2)(λ + 1)λ
b) mA (λ) = (λ − 2)2 (λ + 1)λ
c) mA (λ) = (λ − 2)(λ + 1)λ2
d) mA (λ) = pA (λ) = (λ − 2)2 (λ + 1)λ2

Usando el Teorema de Jordan en cada uno de los casos mencionados, obtenemos

a) mA (λ) = (λ − 2)(λ + 1)λ c) mA (λ) = (λ − 2)(λ + 1)λ2


   
2 2

 2 


 2 

−1 −1
   
   
   
 0   0 1 
0 0

b) mA (λ) = (λ − 2)2 (λ + 1)λ d) mA (λ) = (λ − 2)2 (λ + 1)λ2


   
2 1 2 1

 2 


 2 

−1 −1
   
   
   
 0   0 1 
0 0

6.2. Forma Canónica de Jordan (Caso n = 2)


Sea A ∈ M2×2 (R). Explicaremos como hallar la matriz de paso P del Teorema de Jordan en los
siguientes casos según la forma que tenga el polinomio característico:
1. pA (λ) = (λ − λ1 )(λ − λ2 ), λ1 6= λ2 .
2. pA (λ) = (λ − λ1 )2 .

6.2.1. Subcasos: Diagonalizables


Caso 1: pA (λ) = (λ − λ1 )(λ − λ2 ), λ1 6= λ2 .

En este caso la matriz A es diagonalizable y su forma canónica de Jordan es


!
λ1 0
J=
0 λ2
El procedimiento para hallar P es el siguiente:
6.2. FORMA CANÓNICA DE JORDAN (CASO N = 2) 169

• Por cada autovalor λi , calcule su único autovector vi .

• La matriz de paso es P = (v1 v2 ).

• Se concluye que
P −1 AP = J

Ejemplo 6.2.1:

Determine la forma canónica de Jordan J de la matriz


!
1 4
A=
2 3

y halle la matriz de paso P tal que P −1 AP = J.

Caso 2: pA (λ) = (λ − λ1 )2

Tenemos dos subcasos según la multiplicidad geométrica del autovalor λ1 :

Subcaso 2.1: Cuando mg(λ1 ) = 2.

En este subcaso la matriz A es diagonalizable. Luego, su polinomio minimal es mA (λ) = λ − λ1 . Es


decir, !
λ1 0
A = λ1 I =
0 λ1
En este caso P es la matriz identidad.
Ejemplo 6.2.2:

Matrices que cumplen el subcaso 2.1 solo pueden ser la matrices diagonales con los mismos
elementos en su diagonal, como por ejemplo:
! ! !
7 0 −3 0 31 0
, ,
0 7 0 −3 0 31

las cuales ya están directamente en su forma canónica de Jordan.

6.2.2. Subcaso: No diagonalizable


Caso 2: pA (λ) = (λ − λ1 )2

Subcaso 2.2: Cuando mg(λ1 ) = 1.

Por el teorema de Jordan, tenemos un bloque de Jordan para λ1 . De aquí, el primer bloque de Jordan
tiene orden n1 = 2 y asi el polinomio minimal de A es mA (λ) = (λ − λ1 )2 . Osea, A no es diagonalizable
y !
λ1 1
J=
0 λ1
170 CAPÍTULO 6. FORMA CANÓNICA DE JORDAN

El procedimiento para hallar P es el siguiente:


• Hallar el autovector v asociado a λ1 .

• Hallar un autovector generalizado w para v, es decir, resolver

(A − λ1 I)w = v.

• La matriz de paso es P = (v w).

• Se concluye que
P −1 AP = J

Ejemplo 6.2.3:

Determine al forma canónica de Jordan J de la matriz


!
1 1
A=
−1 3

y halle la matriz de paso P tal que P −1 AP = J.

Solución.
• El polinomio característico es

λ−1 −1
pA (λ) = |λI − A| = = λ2 − 4λ + 4 = (λ − 2)2

1 λ−3

El autovalor es λ1 = 2.

• Hallemos autovector(es) para λ1 = 2.


! ! !
1 −1 v1 0
(2I − A)v = 0 −→ =
1 −1 v2 0

Tenemos que v1 − v2 = 0. Tomando v2 = 1, se tiene que v1 = 1.


El autovector L.I. asociado a λ1 = 2 es !
1
v= .
1

• Hallemos el autovector generalizado w para v, es decir, resolvamos


! ! !
1 −1 w1 1
(A − 2I)w = v −→ (2I − A)w = −v −→ =− .
1 −1 w2 1

Se sigue que w1 − w2 = −1. Tomando w2 = 0, se tiene w1 = −1.


El autovector generalizado es !
−1
w=
0
6.3. FORMA CANÓNICA DE JORDAN (CASO N = 3) 171

• La matriz de paso es !
1 −1
P = (v w) =
1 0

• La forma canónica de Jordan de A es


!
−1 2 1
P AP = J =
0 2

En resumen:

Autovalores Matriz de paso P Vectores columnas de P P −1 AP!


  v1 autovector para λ1 λ1 0
λ1 6= λ2 (reales) v1 v2
v2 autovector para λ2 0 λ2
!
λ1 = λ2 (reales) λ1 0
I (identidad) e1 , e2 (base canónica)
mg(λ1 ) = 2 0 λ1
!
λ1 = λ2 (reales)   v autovector para λ1 λ1 1
v w
mg(λ1 ) = 1 w autovector generalizado para v 0 λ1
λ1 = a + ib !
  v = w1 + iw2 autovector para λ1 a b
λ2 = a − ib w1 w2
w1 = Re(v), w2 = Im(v) −b a
(complejos)

6.3. Forma Canónica de Jordan (Caso n = 3)


Sea A ∈ M3×3 (R). Explicaremos como hallar la matriz de paso P del Teorema de Jordan en los
siguientes casos según la forma que tenga el polinomio característico:

1. pA (λ) = (λ − λ1 )(λ − λ2 )(λ − λ3 ), λi 6= λj , ∀i 6= j.

2. pA (λ) = (λ − λ1 )2 (λ − λ2 ), λ1 6= λ2 .

3. pA (λ) = (λ − λ1 )3 .

En cada uno de los casos que analizaremos, usaremos el Teorema de Jordan y el siguiente resultado
sobre diagonalización para ver cuando la matriz A es diagonalizable o no.

Proposición 6.2. Sea A ∈ Mn×n (R) con polinomio característico

pA (λ) = (λ − λ1 )r1 (λ − λ2 )r2 · · · (λ − λk )rk ,

donde λ1 , λ2 , ..., λk son autovalores de A dos a dos distintos. Entonces, A es diagonalizable si, y sola-
mente si, el polinomio minimal de A es dado por

mA (λ) = (λ − λ1 )(λ − λ2 ) · · · (λ − λk )
172 CAPÍTULO 6. FORMA CANÓNICA DE JORDAN

Caso 1: pA (λ) = (λ − λ1 )(λ − λ2 )(λ − λ3 ), λi 6= λj , ∀i 6= j.

En este caso su polinomio minimal es mA (λ) = pA (λ). Por lo tanto A es diagonalizable y


 
λ1 0 0
J =  0 λ2 0  .
 
0 0 λ3
El procedimiento para hallar P es el siguiente:
• Por cada autovalor λi , calcule su único autovector vi .
• La matriz de paso es P = (v1 v2 v3 ).
• Se concluye que
P −1 AP = J

Ejemplo 6.3.1:

Determine la forma canónica de Jordan J de la matriz


 
−4 1 1
A =  1 5 −1
 
0 1 −3

y halle la matriz de paso P tal que P −1 AP = J, sabiendo que el polinomio característico de A


es pA (λ) = (λ − 5)(λ + 4)(λ + 3).

Solución.
• Hallemos un autovector para λ1 = 5.
    
−9 1 1 v1 0
(A − 5I)v = 0 −→  1 0 −1 v2  = 0
    
0 1 −8 v3 0
Usando eliminación Gauss-Jordan:
   
−9 1 1 0 0 1 1 0
 1 0 −1 0  F1 + 9F2  1 0 −1 0 
   
−−−−−−→
0 1 −8 0 0 1 −8 0
 
1 0 −1 0
F3 −F1 

−−−−−→  0 1 −8 0 

F1 ↔F2
0 0 0 0
     
( v1 v3 1
v1 − v3 = 0
Se sigue que ⇒ v2  = 8v3  = v3 8
     
v2 − 8v3 = 0
v3 v 1
  3
1
El autovector asociado a λ1 = 5 es v = 8.
 
1
6.3. FORMA CANÓNICA DE JORDAN (CASO N = 3) 173

• Hallemos el autovector asociado a λ2 = −4.


    
0 1 1 w1 0
(A + 4I)w = 0 −→ 1 9 −1 w2  = 0
    
0 1 1 w3 0

Usando eliminación Gauss-Jordan:


   
0 1 0 0 1 1 0
 F3 −F1 
1 9 −1 0 −−− −−−→ 1 0 −10 0 
 
  F −9F 
2 1
0 1 1 0 0 0 0 0
 
1 0 −10 0
F1 ↔ F2  0 1 1 0 
 
−−−−−→
0 0 0 0
     
( w1 10w3 10
w1 − 10w3 = 0
Se sigue que ⇒ w2  =  −w3  = w3 −1
     
w2 + w3 = 0
w3 w 1
 3
10
El autovector asociado a λ2 = −4 es w = −1.
 
1

• Hallemos el autovector asociado a λ3 = −3.


    
−1 1 1 z1 0
(A + 3I)w = 0 −→  1 8 −1 z2  = 0
    
0 1 0 z3 0

Usando eliminación Gauss-Jordan:


   
−1 1 0 −1 0 1 0
 F2 +F1 
 1 8 −1 0  −F−−−F
−−→  0 9 0 0 
 
1 3
0 1 0 0 0 1 0 0
 
1 0 −1 0
−F1 
−−−−−→  0 0 0 0 

F2 −9F3
0 1 0 0
     
( z1 z3 1
z1 − z3 = 0
Se sigue que ⇒ z2  =  0  = z3 0
     
z2 = 0
z3 z 1
3 
1
El autovector asociado a λ3 = −3 es w = 0.
 
1

• La matriz de paso es  
1 10 1
P = (v w z) = 8 −1 0
 
1 1 1
174 CAPÍTULO 6. FORMA CANÓNICA DE JORDAN

• La forma canónica de Jordan de A es


 
5 0 0
−1
P AP = J = 0 −4 0  .
 
0 0 −3

 
10 −7 −2
Ejemplo 6.3. A =  2 −5 −4, pA (λ) = (λ − 9)(λ − 6)(λ − 3)
 
−5 20 13
 
1 −1 4
Ejemplo 6.4. A = 3 2 −1, pA (λ) = (λ − 3)(λ − 1)(λ + 2)
 
2 1 −1
 
1 −1 4
Ejemplo 6.5. A = 3 2 −1, pA (λ) = (λ − 1)(λ + 2)(λ − 3)
 
2 1 −1
 
−4 1 1
Ejemplo 6.6. A =  1 5 −1, pA (λ) = (λ − 5)(λ + 4)(λ + 3)
 
0 1 −3

Caso 2: pA (λ) = (λ − λ1 )2 (λ − λ2 ), λ1 6= λ2 .
Tenemos dos subcasos según la multiplicidad geométrica del autovalor λ1 :
Subcaso 2.1: Cuando mg(λ1 ) = 2.
Por el Teorema de Jordan, tenemos dos bloques de Jordan para λ1 . De aqui, el primer bloque de
Jordan tiene orden n1 = 1 y asi el polinomio minimal de A es mA (λ) = (λ − λ1 )(λ − λ2 ). En otras
palabras, A es diagonalizable y
 
λ1 0 0
J =  0 λ1 0
 
0 0 λ2

El procedimiento para hallar P es el siguiente:

• Hallar dos autovectores v, w para λ1 que sean L.I.

• Hallar un único autovector z para λ2 .

• La matriz de paso es P = (v w z).

• Se concluye que
P −1 AP = J
6.3. FORMA CANÓNICA DE JORDAN (CASO N = 3) 175

Ejemplo 6.3.2:

Determine la forma canónica de Jordan J de la matriz


 
5 −6 −6
A = −1 4 2
 
3 −6 −4

y halle la matriz de paso P tal que P −1 AP = J, sabiendo que su polinomio característico es


pA (λ) = (λ − 2)2 (λ − 1).

Solución.

• Hallemos los autovectores de A asociados al autovalor λ1 = 2.


    
3 −6 −6 v1 0
(A − 2I)v = 0 −→ −1 2 2  v2  = 0
    
3 −6 −6 v3 0

Usando eliminación Gaussiana:


   
3 −6 −6 0 0 0 0 0
 F +3F2 
 −1 2 2 0  −F−1−+3F
−−−→  −1 2 2 0 
 
3 2
3 −6 −6 0 0 0 0 0

De aquí,

−v1 + 2v2 + 2v3 = 0 ⇒ v1 = 2v2 + 2v3


       
v1 2v2 + 2v3 2 2
⇒  v2  =  v2 = v 1 + v 3 0
       
 2 
v3 v3 0 1

Los autovectores L.I. asociados a λ1 = 2 son


   
2 2
v = 1 y w = 0
   
0 1

• Hallemos un autovector asociado a λ2 = 1.


    
4 −6 −6 z1 0
(A − I)z = 0 −→ −1 3 2  z2  = 0
    
3 −6 −5 z3 0
176 CAPÍTULO 6. FORMA CANÓNICA DE JORDAN

Usando eliminación Gauss-Jordan:


   
4 −6 −6 0 0 6 2 0
 F +4F2 
 −1 3 2 0  −F−1−+3F
−−−→  −1 3 2 0 
 
3 2
3 −6 −5 0 0 3 1 0
   
0 0 0 0 1 −3 −2 0
F1 −2F3 
−−−−−→  1 −3 −2 0  F1 ↔ F2  0 0 0 0 
  
−F2 −−−−−→
0 3 1 0 0 3 1 0
   
1 −3 −2 0 1 0 −2 0
F2 ↔ F3  0 3 1 0  F2 + F2  0 3 1 0 
   
−−−−−→ −−−−−→
0 0 0 0 0 0 0 0

Luego,
(
z1 − z3 = 0 z 1 = z3

3z2 + z3 = 0 z2 = − z33

Haciendo z3 = 3, se obtiene z1 = 3 y z2 = −1. Asi, un autovector asociado a λ2 = 1 es


 
3
z = −1
 
3

• La matriz de paso es  
2 2 3
P = (v w z) = 1 0 −1
 
0 1 3

• La foma canónica de Jordan de A es


 
2 0 0
P −1 AP = J = 0 2 0
 
0 0 1

 
5 −6 −6
Ejemplo 6.7. A = −1 4 2 , pA (λ) = (λ − 2)2 (λ − 1)
 
3 −6 −4
 
3 2 4
Ejemplo 6.8. A = 2 0 2, pA (λ) = (λ + 1)2 (λ − 8)
 
4 2 3
 
−8 9 −27
Ejemplo 6.9. A =  3 −2 9 , pA (λ) = (λ − 1)2 (λ + 2)
 
3 −3 10
6.3. FORMA CANÓNICA DE JORDAN (CASO N = 3) 177
 
4 −1 1
Ejemplo 6.10. A = 0 1 3, pA (λ) = (λ − 4)2 (λ + 1)
 
0 2 2
 
1 −2 2
Ejemplo 6.11. A = −2 1 −2, pA (λ) = (λ + 1)2 (λ − 5)
 
2 −2 1

Caso 2: pA (λ) = (λ − λ1 )2 (λ − λ2 ), λ1 6= λ2 .
Subcaso 2.2: Cuando mg(λ1 ) = 1.
Por el Teorema de Jordan, tenemos un único bloque de Jordan para λ1 cuyo orden es n1 = 2. De
aquí, el polinomio minimal de A es mA (λ) = (λ − λ1 )2 (λ − λ2 ). Osea, A no es diagonalizable y
 
λ1 1 0
J =  0 λ1 0 
 
0 0 λ2
El procedimiento para hallar P es el siguiente:
• Hallar un único autovector v para λ1 .
• Hallar un autovector generalizado w asociado a v, es decir, resolver

(A − λ1 I)w = v

• Hallar un único autovector z para λ2 .


• La matriz de paso es P = (v w z).
• Se concluye que
P −1 AP = J

Ejemplo 6.3.3:

Determine la forma canónica de Jordan J de la matriz


 
1 1 0
A =  0 −1 0
 
−1 0 1

Halle la matriz de paso P tal que P −1 AP = J. Justifique la validez de esta última igualdad.

Solución.
• El polinomio característico es

λ−1 −1 0

pA (λ) = det(λI − A) = 0 λ+1 0


λ−1

1 0

λ−1 −1
= (λ − 1) = (λ − 1)2 (λ + 1).

0 λ+1
178 CAPÍTULO 6. FORMA CANÓNICA DE JORDAN

• Hallemos autovectores para λ1 = 1.


    
0 1 0 v1 0
(A − I)v = 0 −→  0 −2 0 v2  = 0
    
−1 0 0 v3 0

Se sigue que
      
 v2 = 0 ( v1 0 0
 v1 = 0
−2v2 = 0 ⇒ ⇒ v2  =  0  = v3 0
     
 −v
 v2 = 0
1 = 0 v3 v3 1

Un autovector asociado a λ1 = 1 es  
0
v = 0
 
1

• Hallemos un autovector generalizado w asociado a v:


    
0 1 0 w1 0
(A − I)w = v −→  0 −2 0 w2  = 0
    
−1 0 0 w3 1

Se sigue que
    
 w2 = 0 ( w1 −1
 w1 = −1
−2w2 = 0 ⇒ ⇒ w2  =  0 
   
 −w
 w2 = 0
1 = 1 w3 w3

Por simplicidad tomemos w3 = 0. El autovector generalizado es


 
−1
w= 0 
 
0

• Hallemos un autovector para λ2 = −1:


    
2 1 0 z1 0
(A + I)z = 0 −→  0 0 0 z2  = 0
    
−1 0 2 z3 0

Se sigue que
( (
2z1 + z2 = 0 z2 = −2z1

−z1 + 2z3 = 0 z3 = z21

Tomando z1 = 2, tenemos z2 = −4 y z3 = 1. El autovector asociado a λ2 = −1 es


 
2
z = −4
 
1
6.3. FORMA CANÓNICA DE JORDAN (CASO N = 3) 179

• La matriz de paso es  
0 −1 2
P = (v w z) = 0 0 −4
 
1 0 1

• La forma canónica de Jordan es


 
1 1 0
−1
P AP = J = 0 1 0  (6.1)
 
0 0 −1

• Justificaremos la validez de la igualdad (6.1). Por un lado,


    
1 1 0 0 −1 2 0 −1 −2
AP =  0 −1 0 0 0 −4 = 0 0 4 .
    
−1 0 1 1 0 1 1 1 −1

Por otro lado,     


0 −1 2 1 1 0 0 −1 −2
P J = 0 0 −4 0 1 0  = 0 0 4 .
    
1 0 1 0 0 −1 1 1 −1
Los cuales son iguales y por tanto es válida la mencionada igualdad.
 
1 1 0
Ejemplo 6.12. A =  0 −1 0, pA (λ) = (λ − 1)2 (λ + 1)
 
−1 0 1
 
3 −1 0
Ejemplo 6.13. A = 0 3 0 , pA (λ) = (λ − 3)2 (λ + 5)
 
0 0 −5
 
3 1 −2
Ejemplo 6.14. A = −1 0 5 , pA (λ) = (λ − 2)2 (λ − 3)
 
−1 −1 4

Caso 3: pA (λ) = (λ − λ1 )3 .
Tenemos tres subcasos según la multiplicidad geométrica de λ1 .
Subcaso 3.1: Cuando mg(λ1 ) = 3.
Por el Teorema de Jordan, tenemos tres bloques de Jordan. De aqui, el primer bloque de Jordan es
de orden n1 = 1 y asi el polinomio minimal de A es mA (λ) = λ − λ1 . Es decir, A es diagonalizable y
 
λ1 0 0
A = λ1 I =  0 λ1 0 
 
0 0 λ1

En este caso P es la matriz identidad.


180 CAPÍTULO 6. FORMA CANÓNICA DE JORDAN

Ejemplo 6.3.4:

Matrices que cumplen el subcaso 3.1 solo pueden ser las matrices diagonales con los mismos
elementos en su diagonal, como por ejemplo:
     
3 0 0 −5 0 0 17 0 0
0 3 0 ,  0 −5 0  ,  0 17 0  ,
     
0 0 3 0 0 −5 0 0 17

las cuales ya están directamente en su forma canónica de Jordan.

Caso 3: pA (λ) = (λ − λ1 )3 .

Subcaso 3.2: Cuando mg(λ1 ) = 2.


Por el teorema de Jordan, tenemos dos bloques de Jordan para λ1 . De aqui, el primer bloque de
Jordan tiene orden n1 = 2 y asi el polinomio minimal de A es mA (λ) = (λ − λ1 )2 . Osea, A no es
diagonalizable y
 
λ1 1 0
J =  0 λ1 0 
 
0 0 λ1

El procedimiento para hallar P es el siguiente:

• Hallar dos autovectores v y w asociados a λ1 que sean L.I.

• Hallar un autovector generalizado z para av + bw, es decir,

(A − λ1 I)z = av + bw,

donde a y b deben ser escogidos apropiadamente para que este último sistema sea compatible
indeterminado.

• Hacer w1 = av + bw y w2 = z.

• Escogemos un tercer vector w3 solo de una de las siguientes opciones:

a) Si {v, w1 } es L.I., entonces hacemos w3 = v.


b) Si {w, w1 } es L.I., entonces hacemos w3 = w.

• La matriz de paso es P = (w1 w2 w3 ).

• Se concluye que
P −1 AP = J
6.3. FORMA CANÓNICA DE JORDAN (CASO N = 3) 181

Ejemplo 6.3.5:

Determine la forma canónica de Jordan J de la matriz


 
3 1 0
A = 0 3 0
 
0 4 3

y halle la matriz de paso P tal que P −1 AP = J. Justifique la validez de esta última igualdad.

Solución.

• El polinomio característico es

λ−3 −1 0

pA (λ) = det(λI − A) = 0 λ−3 0 = (λ − 3)3

−4 λ − 3

0

• Hallemos los autovectores asociados a λ1 = 3.


    
0 1 0 v1 0
(A − 3I)v = 0 −→ 0 0 0 v2  = 0
    
0 4 0 v3 0
     
v1 1 0
−→ v2 = 0 −→  0  = v1 0 + v3 0
     
v3 0 1

Luego, tenemos los siguientes autovectores L.I.


   
1 0
v = 0 , w = 0
   
0 1

• Hallemos el autovector generalizado z y los coeficientes a y b tales que

(A − 3I)z = av + bw,

el cual es equivalente a resolver el sistema lineal


        
0 1 0 z1 1 0 a
0 0 0 z2  = a 0 + b 0 = 0
        
0 4 0 z3 0 1 b

Resolviendo por eliminación Gauss-Jordan, se obtiene


   
0 1 0 a 0 1 0 a
 0 0 0 0  F3 − 4F1  0 0 0 0
   
−−−−−−→

0 4 0 b 0 0 0 b − 4a
182 CAPÍTULO 6. FORMA CANÓNICA DE JORDAN

• Tenemos que este sistema es compatible indeterminado cuando b−4a = 0. Escogemos, por ejemplo,
los valores
a = 1 y b = 4.
Luego, la última matriz aumentada seria
 
0 1 0 1
 0 0 0 0 ,
 
0 0 0 0
 
z1
De aqui, se obtiene que z2 = 1 y asi z =  1 . Escogemos, por simplicidad, los valores de z1 = 0
 
z3
y z3 = 0. Luego,  
0
z = 1
 
0
Escogemos los vectores
   
1 0
w1 = av + bw = v + 4w = 0 y w2 = z = 1
   
4 0
   
 1
 1 

Como {v, w1 } = 0 , 0 es L.I., entonces hacemos
   

 0 
4 
 
1
w3 = v = 0 .
 
0

• La matriz de paso P es dada por


 
1 0 1
P = (w1 w2 w3 ) = 0 1 0
 
4 0 0

• La forma canónica de Jordan es


 
3 1 0
P −1 AP = J = 0 3 0
 
0 0 3

• Verifiquemos la validez de esta igualdad. Por un lado, tenemos


    
3 1 0 1 0 1 3 1 3
AP = 0 3 0 0 1 0 =  0 3 0
    
0 4 3 4 0 0 12 4 0
6.3. FORMA CANÓNICA DE JORDAN (CASO N = 3) 183

Por otro lado,


    
1 0 1 3 1 0 3 1 3
P J = 0 1 0 0 3 0 =  0 3 0
    
4 0 0 0 0 3 12 4 0

Comparando vemos que se llega a la misma matriz. Por tanto, es valida la igualdad mencionada.

 
−1 −3 −9
Ejemplo 6.15. A =  0 5 18 , pA (λ) = (λ + 1)3
 
0 −2 −7
 
6 1 −2
Ejemplo 6.16. A = −1 4 2 , pA (λ) = (λ − 5)3
 
0 0 5
 
9 −1 −1
Ejemplo 6.17. A = 1 11 1 , pA (λ) = (λ − 10)3
 
0 0 10

Caso 3: pA (λ) = (λ − λ1 )3 .
Subcaso 3.3: Cuando mg(λ1 ) = 1.
Por el teorema de Jordan, tenemos un único bloque de Jordan para λ1 y su orden seria n1 = 3. De
aqui, el polinomio minimal de A es mA (λ) = (λ − λ1 )3 . Osea, A no es diagonalizable y
 
λ1 1 0
J =  0 λ1 1 
 
0 0 λ1

El procedimiento para hallar P es el siguiente:

• Hallar un único autovector v para λ1 .

• Hallar un autovector generalizado w para v, es decir,

(A − λ1 I)w = v

• Hallar un autovector generalizado z para w, es decir,

(A − λ1 I)z = w

• La matriz de paso es P = (v w z).

• Se concluye que
P −1 AP = J
184 CAPÍTULO 6. FORMA CANÓNICA DE JORDAN

Ejemplo 6.3.6:

Determine la forma canónica de Jordan J de la matriz


 
−5 −5 −9
A= 8 9 18 
 
−2 −3 −7

y halle la matriz de paso P tal que P −1 AP = J, sabiendo que su polinomio característico es


pA (λ) = (λ + 1)3 .

Solución.
• Hallemos los autovectores asociados a λ1 = −1.
    
−4 −5 −9 v1 0
(A + I)v = 0 −→  8 10 18  v2  = 0
    
−2 −3 −6 v3 0
Usando eliminación de Gauss-Jordan, se obtiene que
   
−4 −5 −9 0 −2 −3 −6 0
 F2 +2F1 
8 10 18 0  F ↔F  0

− − −−−→ 0 0 0 
 

1 3
−2 −3 −6 0 −4 −5 −9 0
   
2 3 6 0 2 0 −3 0
F3 −2F1   F1 −2F3 
−−−−→  0 0 0 0  − −−−−−→ 0 1 3 0 

−F1 F2 ↔F3
0 1 3 0 0 0 0 0
Se sigue que ( (
2v2 − 3v3 = 0 v1 = 3v23

v2 + 3v3 = 0 v2 = −3v3
Por simplicidad, al tomar v3 = 2 obtenemos v1 = 3 y v2 = −6. El autovector asociado a λ1 = −1
es  
3
v = −6 .
 
2
• Hallemos un autovector generalizado w asociado a v.
    
−4 −5 −9 w1 3
(A + I)w = v −→  8 10 18  w2  = −6
    
−2 −3 −6 w3 2
Usando eliminación de Gauss-Jordan, se obtiene que
   
−4 −5 −9 3 −2 −3 −6 2
 F2 +2F1 
 8 10 18 −6  F ↔F  0

− − −−−→ 0 0 0 
 
1 3
−2 −3 −6 2 −4 −5 −9 3
   
2 3 6 −2 2 0 −3 1
F3 −2F1   F1 −2F3 
−−−−→  0 0 0 0 −
−−−−−→ 0 1 3 −1 

−F1 F2 ↔F3

0 1 3 −1 0 0 0 0
6.3. FORMA CANÓNICA DE JORDAN (CASO N = 3) 185

Se sigue que ( (
2w2 − 3w3 = 1 w1 = 1+3w
2
3

w2 + 3w3 = −1 w2 = −1 − 3w3
Tomando, por simplicidad, w3 = 1 obtenemos que w1 = 2 y w2 = −4. El autovector generalizado
es  
2
w = −4 .
 
1

• Hallemos un autovector generalizado z asociado a w.


    
−4 −5 −9 z1 2
(A + I)z = w −→  8 10 18  z2  = −4
    
−2 −3 −6 z3 1

Usando eliminación de Gauss-Jordan, se obtiene que


   
−4 −5 −9 2 −2 −3 −6 1
 F +2F1 
 8 10 18 −4  −F−2−− → 0
−− 0 0 0 
 
1 ↔F3
−2 −3 −6 1 −4 −5 −9 2
   
2 3 6 −1 2 0 −3 −1
F3 −2F1   F1 −2F3 
−−−−→  0 0 0 0  −F−−− → 0 1
−− 3 0 

−F1 2 ↔F3
0 1 3 0 0 0 0 0

Se sigue que ( (
2z2 − 3z3 = −1 z1 = −1+3z
2
3

z2 + 3z3 = 0 z2 = −3z3
Tomando, por simplicidad, z3 = 1 obtenemos que z1 = 1 y z2 = −3. El autovector generalizado
es  
1
z = −3 .
 
1

• La matriz de paso es  
3 2 1
P = (v w z) = −6 −4 −3 .
 
2 1 1

• La forma canónica de Jordan es


 
−1 1 0
P −1 AP = J =  0 −1 1  .
 
0 0 −1

 
2 1 6
Ejemplo 6.18. A = 0 2 5, pA (λ) = (λ − 2)3
 
0 0 2
186 CAPÍTULO 6. FORMA CANÓNICA DE JORDAN
 
14 2 0
Ejemplo 6.19. A =  0 12 −4, pA (λ) = (λ − 12)3
 
1 1 10

En resumen:

Matriz de paso P Vectores columnas de P −1


Autovalores  P AP 
v1 autovector para λ1 λ1 0 0
λ1 , λ2 , λ3 (reales)  
v1 v2 v3 v2 autovector para λ2 0 λ2 0
 
dos a dos distintos
v3 autovector para λ3 0 0 λ3
 
λ1 0 0
λ1 = λ2 6= λ3 (reales)   v1 , v2 autovectores L.I. para λ1
v1 v2 v3 0 λ1 0
 
mg(λ1 ) = 2 v3 autovector para λ3
0 0 λ3
 
v autovector para λ1 λ1 1 0
λ1 = λ2 6= λ3 (reales)  
v w z w autovector generalizado para v 0 λ1 0
 
mg(λ1 ) = 1
z autovector para λ3 0 0 λ3
 
λ1 0 0
λ1 = λ2 = λ3 (reales)
I (identidad) e1 , e2 , e3 (base canónica) 0 λ1 0
 
mg(λ1 ) = 3
0 0 λ1
v, w autovectores L.I. para λ1
p1 = av + bw, p2 = z  
a, b son escogidos de modo que λ1 1 0
λ1 = λ2 = λ3 (reales)  
p1 p2 p3 (A − λ1 I)z = av + bw  0 λ1 0 
 
mg(λ1 ) = 2
sea compatible indeterminado 0 0 λ1
p3 = v cuando {p1 , v} es L.I. o
p3 = w cuando {p1 , w} es L.I.  
v autovector para λ1 λ1 1 0
λ1 = λ2 = λ3 (reales)  
v w z w autovector generalizado para v  0 λ1 1 
 
mg(λ1 ) = 1
z autovector generalizado para w 0 0 λ1
λ1 , λ2 (complejos)  
v = w1 + iw2 autovector para λ1 a b 0
λ1 = a + ib  
w1 w2 w3 w1 = Re(v), w2 = Im(v) −b a 0
 
λ2 = a − ib

w3 autovector para λ3 0 0 λ3
λ3 (número real)

6.4. Ejercicios Propuestos: Forma canónica de Jordan


1. Encuentre la forma canónica de Jordan de las siguientes matrices:
   
1 0 0 −1 −3 −9
a) A =  1 0 1  c) A =  0 5 18 
   
0 1 0 0 −2 −7

   
2 1 6 −5 0 1
b) A =  0 2 5  d) A =  1 −4 −1 
   
0 0 2 −1 0 −3
6.4. EJERCICIOS PROPUESTOS: FORMA CANÓNICA DE JORDAN 187
   
2 −4 1 5 4 3
e) A =  0 7 0  j) A =  −1 0 −3 
   
0 −5 2 1 −2 1
   
−1 1 9 −5/2 0 1/2
f ) A =  −1 −3 −4  k) A =  1/2 −2 −1/2 
   
0 0 3 −1/2 0 −3/2
   
3 1 −1 −2 1 −1
g) A =  2 2 −1  l) * A =  −1 −1 0 
   
2 2 0 0 1 −3
   
3 0 0 1 −1 0
h) A =  0 4 −1  m) A =  1 3 0 
   
0 1 2 2 0 −2
   
2 −1 1 3 1 0
i) A =  1 5 −2  n) A =  0 4 −1 
   
0 1 2 0 1 2

2. Determinar la forma canónica de Jordan de las transformaciones lineales

a) T : R3 → R3 , definida por T (x, y, z) = (3y + z, 2x − y − z, −2x − y − z),


b) T : P1 [x] → P1 [x], definida por T (ax + b) = (a − b)x + a + 3b,
c) T : P2 [x] → P2 [x], definida por T (ax2 + bx + c) = (−2a + c)x2 − bx − a,

3. Determine la matriz A cuyo polinomio característico es p(λ) = λ3 − 3λ2 + 4, para la matriz


 
1 3 1
P =  0 1 −3  ,
 
1 0 1

tales que J = P −1 AP y cuya última columna es un auto-vector de A.

4. Sea λ = 2 el único autovalor de una matriz A ∈ M2×2 con mg(2) = 1. Si v1 = (3 1)t es un


autovector y w1 = (−1 0)t un autovector generalizado, entonces
!
1 −9
A= .
1 −5

5. Determine la forma canónica de Jordan J de una matriz A en cada uno de los casos siguientes:

a) A tiene como único autovalor λ = 2 con autovectores asociados, v1 = (−1, 0, 1) y v2 =


(0, 1, 0).
b) A tiene como único autovalor λ = 1 con autovector asociado, v1 = (0, 0, 1).

6. Determine la forma canónica de Jordan J de una matriz A en cada uno de los casos siguientes:

a) A tiene como único autovalor λ = 3 con autovectores asociados, v1 = (0, 0, 1) y v2 = (1, 0, 0).
188 CAPÍTULO 6. FORMA CANÓNICA DE JORDAN

b) A tiene como único autovalor λ = 1 con autovector asociado, v1 = (1, 1, 0).

7. Para los siguientes problemas se da el polinomio característico de una matriz A. Escriba las
posibles formas canónicas de Jordán de A.

a) p(λ) = (λ + 1)2 (λ − 1)2 d) p(λ) = (λ − 1)2 (λ + 2)2


b) p(λ) = λ3 (λ + 5)2 e) p(λ) = (λ − 2)2 λ
c) p(λ) = (λ − 3)2 (λ + 10)2 f ) p(λ) = λ2 (λ − 3)2

8. Sea A una matriz 3 × 3 con autovalores λ1 , λ2 y λ3 , no necesariamente diferentes. Pruebe que:

a) det(A) = λ1 · λ2 · λ3 .
b) traza(A) = λ1 + λ2 + λ3 .

9. Sea A ∈ M6×6 (R) y λ = 3 autovalor de A con ma(3) = 5 y mg(3) = 2. Sabiendo que traza(A) = 10,
determine las posibles formas canónicas de Jordan de A.

10. Sea A ∈ M5×5 (R) y λ = 2 autovalor de A con ma(2) = 4 y mg(2) = 1. Sabiendo que la traza de
A es traza(A) = 1, calcule la forma canónica de Jordan de A.

11. Sea A una matriz cuyo polinomio característico y minimal son

pA (λ) = (λ − 2)3 (λ − 5)4 (λ + 3) y mA (λ) = (λ − 2)2 (λ − 5)3 (λ + 3).

Halle las multiplicidades geométricas de los autovalores de A.


Capítulo
7
Espacios con Producto Interno
***

7.1. Producto Interno (Real) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189


7.1.1. Formas Bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
7.2. Producto Interno Hermitiano (o Complejo) . . . . . . . . . . . . . . . . . . . . . . . . . 194
7.2.1. Forma Sesquilineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
7.2.2. Ejercicios Propuestos: Espacios con producto interno . . . . . . . . . . . . . . . . 196
7.3. Proceso de Gram-Schmidt y Proyección Ortogonal . . . . . . . . . . . . . . . . . . . . . 198
7.4. Proyección Ortogonal sobre vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
7.5. Proceso de Gram Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
7.6. Proyección Ortogonal sobre un subespacio H . . . . . . . . . . . . . . . . . . . . . . . . 200
7.6.1. Ejercicios propuestos: Gram-Schmidt y proyección . . . . . . . . . . . . . . . . . 201

Objetivo. Verificar, analizar y comentar las propiedades de un espacio de producto interno.

7.1. Producto Interno (Real)


Sea V un espacio vectorial sobre R. Un producto interno en V es una aplicación h , i : V × V → R
que satisface las siguientes condiciones

Simetría (Conmutatividad):

1) hu, vi = hv, ui, ∀u, v ∈ V.

Bilinealidad:

2) hu + u0 , vi = hu, vi + hu0 , vi, ∀u, u0 , v ∈ V.

3) hαu, vi = αhu, vi, ∀u, v ∈ V y ∀α ∈ R.

Positividad:

4) hv, vi ≥ 0, ∀v ∈ V

189
190 CAPÍTULO 7. ESPACIOS CON PRODUCTO INTERNO

5) hv, vi = 0 =⇒ v = 0

Ejemplo 7.1.1: Producto Interno Euclideano de Rn

Dados dos vectores

u = (x1 , x2 , x3 , · · · , xn ) ∈ Rn y v = (y1 , y2 , y3 , · · · , yn ) ∈ Rn .

Su producto interno es

hu, vi = x1 y1 + x2 y2 + x3 y3 + · · · + xn yn ∈ R

Ejemplo 7.1.2:

En R2 , defina para x = (x1 , x2 ), y = (y1 , y2 ) la aplicación

hx, yi = x1 y1 − x2 y1 − x1 y2 + 4x2 y2 .

Determine si h , i es un producto interno en R2 .

Solución. Veamos si cumple todas las condiciones:

(1) Sean x = (x1 , x2 ) y y = (y1 , y2 ) en R2 , tenemos

hx, yi = x1 y1 − x2 y1 − x1 y2 + 4x2 y2
= y1 x1 − y2 x1 − y1 x2 + 4y2 x2
= hy, xi

(2) Sean x = (x1 , x2 ), x0 = (x01 , x02 ) y y = (y1 , y2 ) en R2 .


Tenemos que x + x0 = (x1 + x01 , x2 + x02 ) y entonces

hx + x0 , yi = (x1 + x01 )y1 − (x2 + x02 )y1 − (x1 + x01 )y2


+4(x2 + x02 )y2
= x1 y1 + x01 y1 − x2 y1 − x02 y1 − x1 y2 − x01 y2
+4x2 y2 + 4x02 y2
= (x1 y1 − x2 y1 − x1 y2 + 4x2 y2 )
+(x01 y1 − x02 y1 − x01 y2 + 4x02 y2 )
= hx, yi + hx0 , yi

(3) Sean x = (x1 , x2 ) y y = (y1 , y2 ) en R2 y sea α ∈ R. Tenemos que

hαx, yi = αx1 y1 − αx2 y1 − αx1 y2 + 4αx2 y2


= α(x1 y1 − x2 y1 − x1 y2 + 4x2 y2 )
= αhx, yi
7.1. PRODUCTO INTERNO (REAL) 191

(4) Sea x = (x1 , x2 ) en R2 . Por completación de cuadrados, se tiene que

hx, xi = x1 x1 − x2 x1 − x1 x2 + 4x2 x2
= x21 − 2x1 x2 + 4x22
= x21 − 2x1 x2 + x22 − x22 + 4x22
= (x1 − x2 )2 + 3x22 ≥ 0

(5) Supongamos que x = (x1 , x2 ) cumple que hx, xi = 0. Por el item anterior se sigue que

(x1 − x2 )2 + 3x22 = 0

Luego,
x1 − x2 = 0 y x2 = 0
De aquí, x1 = 0 y x2 = 0. Por tanto,

x = (x1 , x2 ) = (0, 0).

Por consiguiente, h , i es un producto interno de R2 .

7.1.1. Formas Bilineales


Sea V un espacio vectorial sobre R. Una aplicación B : V × V → R es una forma bilineal cuando se
satisface

a) B(u + u0 , v) = B(u, v) + B(u0 , v)

b) B(u, v + v 0 ) = B(u, v) + B(u, v 0 )

c) B(αu, v) = αB(u, v)

d) B(u, αv) = αB(u, v)

Proposición 7.1. Todo producto interno real es una forma bilineal.

Observación 7.2. No toda forma bilineal es un producto interno real. Para que una forma bilineal sea
un producto interno debe satisfacer la simetría (propiedad (1)) y la positividad (propiedades (4) y (5)).

Ejemplo 7.1.3:

Determine si la siguiente forma bilineal

hx, yi = x1 y1 − x2 y1 − x1 y2 + x2 y2 ,

para todos x = (x1 , x2 ), y = (y1 , y2 ) ∈ R2 , es un producto interno en R2 .

Solución. Veamos si cumple las demás condiciones (1), (4) y (5) de producto interno:
192 CAPÍTULO 7. ESPACIOS CON PRODUCTO INTERNO

(1) Sean x = (x1 , x2 ) y y = (y1 , y2 ) en R2 , tenemos


hx, yi = x1 y1 − x2 y1 − x1 y2 + x2 y2
= y1 x1 − y2 x1 − y1 x2 + y2 x2
= hy, xi

(4) Sea x = (x1 , x2 ) en R2 . Por completación de cuadrados, se tiene que


hx, xi = x1 x1 − x2 x1 − x1 x2 + x2 x2
= x21 − 2x1 x2 + x22
= x21 − 2x1 x2 + x22 − x22 + x22
= (x1 − x2 )2 ≥ 0

(5) Supongamos que x = (x1 , x2 ) cumple que hx, xi = 0. Por el item anterior se sigue que
(x1 − x2 )2 = 0 =⇒ x1 − x2 = 0
De aquí, el conjunto de puntos {t(1, 1) : t ∈ R} satisfacen la condición hx, xi = 0.
En particular, el vector x = (1, 1) 6= (0, 0) satisface
h(1, 1), (1, 1)i = 0.
Es decir, no vale la propiedad (5).
Por tanto, h, i no es un producto interno.

Ejemplo 7.1.4:

Determine si la siguiente forma bilineal

hx, yi = x1 y1 − 2x2 y1 − 2x1 y2 + x2 y2 ,

para todos x = (x1 , x2 ), y = (y1 , y2 ) ∈ R2 , es un producto interno en R2 .

Solución. Veamos si cumple las demás condiciones (1), (4) y (5) de producto interno:
(1) Sean x = (x1 , x2 ) y y = (y1 , y2 ) en R2 , tenemos
hx, yi = x1 y1 − 2x2 y1 − 2x1 y2 + x2 y2
= y1 x1 − 2y2 x1 − 2y1 x2 + y2 x2
= hy, xi

(4) Sea x = (x1 , x2 ) en R2 . Por completación de cuadrados, se tiene que


hx, xi = x1 x1 − 2x2 x1 − 2x1 x2 + x2 x2
= x21 − 4x1 x2 + x22
= x21 − 4x1 x2 + 4x22 − 4x22 + x22
= (x1 − 2x2 )2 − 3x22 .
7.1. PRODUCTO INTERNO (REAL) 193

De aquí, vemos que no necesariamente es siempre no negativa. Osea que la propiedad (4) es falsa.
Para justificar dicha afirmación, debemos construir un contraejemplo:

hx, xi = (x1 − 2x2 )2 −3 x22 .


| {z } |{z}
0 1

Tenemos

x1 − 2x2 = 0 ∧ x2 = 1 =⇒ (x1 , x2 ) = (2, 1)

Es decir, x = (2, 1) es un vector en R2 tal que

h(2, 1), (2, 1)i = −3.

Esto justifica, el porque no vale la propiedad (4).

Por tanto, h, i no es un producto interno.

Ejemplo 7.1.5:

En R2 , considere la siguiente forma bilineal

B(x, y) = αx1 y1 + (α2 − 2)x1 y2 + αx2 y1 + βx2 y2 ,

para todos x = (x1 , x2 ), y = (y1 , y2 ) ∈ R2 . Determine para que valores de α y β se tiene que B
es un producto interno.

Ejemplo 7.1.6:

En P1 [x], considere la siguiente forma bilineal

ha1 + b1 x, a2 + b2 xi = a1 b1 + 3a1 b2 + 3a2 b1 + 8b1 b2 .

Determine si h, i es un producto interno en P1 [x].

Ejemplo 7.1.7:

En M2×2 (R), considere la siguiente forma bilineal


* ! !+
a1 b1 a b
, 2 2 = a1 a2 + 3a1 b2 + 3a2 b1 − 2b1 d2 − 2b2 c1 + 5b1 b2 + 3c1 c2 + 7d1 d2 .
c1 d1 c2 d2

Determine si h, i es un producto interno en M2×2 (R).


194 CAPÍTULO 7. ESPACIOS CON PRODUCTO INTERNO

Ejemplo 7.1.8:

En M2×2 (R), considere la siguiente forma bilineal


* ! !+
a1 b1 a b
, 2 2 = a1 a2 − 4a1 b2 − 4a2 b1 + 19b1 b2 + 3c1 c2 + 7d1 d2 .
c1 d1 c2 d2

Determine si h, i es un producto interno en M2×2 (R).

7.2. Producto Interno Hermitiano (o Complejo)


Sea V un espacio vectorial sobre C. Un producto interno hermitiano en V es una aplicación h , i :
V × V → C que satisface las siguientes condiciones

Hermiticidad

1) hu, vi = hv, ui, ∀u, v ∈ V.

Sesquilinealidad:

2) hu + u0 , vi = hu, vi + hu0 , vi, ∀u, u0 , v ∈ V.

3) hαu, vi = αhu, vi, ∀u, v ∈ V y ∀α ∈ C.

Positividad:

4) hv, vi ≥ 0, ∀v ∈ V

5) hv, vi = 0 =⇒ v = 0

Propiedades de números complejos


Sean z = a + ib, w = c + id ∈ C. Tenemos que

a) Re(z) = a y Im(z) = b

b) zw = ac − bd + (ad + bc)i

c) z = a − ib
z+z z−z
d) Re(z) = 2 y Im(z) = 2i

e) 2Re(zw) = zw + wz y 2iIm(zw) = zw − wz

f) z + w = z + w

g) zw = z w

h) z = z

i) El módulo de z esta definido como |z| = a2 + b2
7.2. PRODUCTO INTERNO HERMITIANO (O COMPLEJO) 195

j) zz = |z|2
k) Si α ∈ R entonces
|z + αw|2 = |z|2 + 2αRe(zw) + α2 |w|2

Ejemplo 7.2.1: Producto Interno Hermitiano en Cn

Dados dos vectores

u = (z1 , z2 , z3 , · · · , zn ) ∈ Cn y v = (w1 , w2 , w3 , · · · , wn ) ∈ Cn .

Su producto interno es

hu, vi = z1 w1 + z2 w2 + z3 w3 + · · · + zn wn ∈ C

7.2.1. Forma Sesquilineal


Sea V un espacio vectorial sobre C. Una aplicación B : V × V → C es una forma sesquilineal cuando
se satisface
a) B(u + u0 , v) = B(u, v) + B(u0 , v)
b) B(u, v + v 0 ) = B(u, v) + B(u, v 0 )
c) B(αu, v) = αB(u, v)
d) B(u, αv) = αB(u, v)
Proposición 7.3. Todo producto interno complejo es una forma sesquilineal.
Observación 7.4. No toda forma sesquilineal es un producto interno. Para que una forma sesquili-
neal sea un producto interno complejo debe satisfacer la hermiticidad (propiedad (1)) y la positividad
(propiedades (4) y (5)).

Ejemplo 7.2.2:

Dados z = (z1 , z2 ) y w = (w1 , w2 ) vectores en C2 . Determine si la siguiente forma sesquilineal


define un producto interno hermitiano en C2 .

hz, wi = z1 w1 − 2z1 w2 − 2z2 w1 + 7z2 w2 .

Solución. (P1) Veamos si vale la hermiticidad:


hw, zi = w1 z1 − 2w1 z2 − 2w2 z1 + 7w2 z2
= w1 z1 − 2w1 z2 − 2w2 z1 + 7w2 z2
= w1 z1 − 2w1 z2 − 2w2 z1 + 7w2 z2
= w1 z1 − 2w1 z2 − 2w2 z1 + 7w2 z2
= z1 w1 − 2z2 w1 − 2z1 w2 + 7z2 w2
= hz, wi
196 CAPÍTULO 7. ESPACIOS CON PRODUCTO INTERNO

(P4) Veamos si vale positividad:

hz, zi = z1 z1 − 2z1 z2 − 2z2 z1 + 7z2 z2


= |z1 |2 − 2 (z1 z2 + z2 z1 ) + 7|z2 |2
= |z1 |2 − 2 [2Re (z1 z2 )] + 7|z2 |2
= |z1 |2 − 4Re (z1 z2 ) + 7|z2 |2
= |z1 − 2z2 |2 − |2z2 |2 + 7|z2 |2
= |z1 − 2z2 |2 − 4|z2 |2 + 7|z2 |2
= |z1 − 2z2 |2 + 3|z2 |2 ≥ 0

(P5) Suponga que hz, zi = 0. Por el item anterior tenemos

|z1 − 2z2 |2 + 3|z2 |2 = 0

Luego,

|z1 − 2z2 | = 0 y |z2 | = 0 =⇒ z1 − 2z2 = 0 y z2 = 0

Osea, z1 = 0 y z2 = 0 y entonces z = (0, 0). Por tanto, h, i es un producto interno hermitiano.

7.2.2. Ejercicios Propuestos: Espacios con producto interno


1. Si x = (x1 , x2 ) y y = (y1 , y2 ) son vectores de R2 . Diga cuales de las siguientes aplicaciones
bilineales definen un producto interno real en R2 .

a) hx, yi = x1 y1 + 3x2 y2 − x1 y2 .
b) hx, yi = x1 y1 + x2 y2 + x1 y2 .
c) hx, yi = 2x1 y1 − x2 y2 + 12 x1 y2 .
d) hx, yi = 2x1 y1 + x2 y2 − x1 y2 − x2 y1 .
e) hx, yi = 2x1 y1 + 3x2 y1 − x2 y2 + 3x1 y2 .
f ) hx, yi = x1 y1 + x1 y2 + 2x2 y2 + x2 y1 .
g) hx, yi = x1 y1 + x1 y2 + x2 y2 + x2 y1 .

2. (Producto interno de Frobenius, caso real) Demuestre que la siguiente función bilineal definida en
el espacio de matrices Mn×n (R)
hA, Bi = traza(B t A)
es un producto interno.

3. (Producto interno de Frobenius, caso complejo) Demuestre que la siguiente función bilineal definida
en el espacio de matrices Mn×n (C)

hA, Bi = traza(B ∗ A),

donde A∗ = Āt , es un producto interno.


7.2. PRODUCTO INTERNO HERMITIANO (O COMPLEJO) 197

4. Sea A ∈ M2×2 (R) y considere la forma bilineal en R2 definida por

hx, yi = xt Ay,
" # " #
x1 y1
donde x = yy= . Demuestre que
x2 y2

a) Si hx, yi es un producto interno, entonces A = At , A11 > 0 y det(A) > 0,


b) Recíprocamente, si A = At , A11 > 0 y det(A) > 0, entonces hx, yi es un producto interno.

5. Dado el producto interno en R2 , para x = (x1 , x2 ) y y = (y1 , y2 )

hx, yi = 2x1 y1 + x2 y2 − x1 y2 − x2 y1 .

Resuelva los siguientes ítems.

a) Calcule la norma del vector v = (1, 1)


b) Calcule el ángulo formado por los vectores v1 = (1, 0) y v1 = (1, 2)
c) Determine el valor de α ∈ R para que los vectores (−1, 1) y (α, 2) sean ortogonales.

6. (Identidad de Parseval) Sea V un espacio vectorial con producto interno h·, ·i. Si B = {u1 , u2 , . . . , un }
es una base ortonormal, pruebe que se cumple la siguiente identidad,

kvk2 = hv, u1 i2 + · · · + hv, u1 i2 ,

para todo v ∈ V.

7. (Teorema de Pitágoras generalizado) Sea V un espacio vectorial con producto interno h·, ·i. Si
u1 , u2 , · · · , un ∈ V son vectores ortogonales, pruebe que se cumple la siguiente identidad,

ku1 + · · · + un k2 = ku1 k2 + · · · + kun k2 .

8. Determine si cada una de las formas bilineales definidas en C2 definen o no un producto interno
complejo.

a) hx, yi = 2x1 y¯1 + x2 y¯2 − x1 y¯2 − x2 y¯1 ,


b) hx, yi = x1 y¯1 − x2 y¯2 ,
c) hx, yi = x1 y¯1 + x2 y¯2 − x1 y¯2 − x2 ȳ2 .

9. En cada uno de los siguientes ejercicios determine el valor de los parámetros α y β para que la
forma bilineal dada sea un producto interno.

a) Forma bilineal en R2 definida por

B(x, y) = (1 − β)x1 y1 + x1 y2 − βx2 y1 + αx2 y2 ,

donde x = (x1 , x2 ) y y = (y1 , y2 ).


198 CAPÍTULO 7. ESPACIOS CON PRODUCTO INTERNO

b) Forma bilineal en R2 definida por

B(x, y) = x1 y1 − x1 y2 − x2 y1 + αx2 y2 ,

y donde x = (x1 , x2 ) y y = (y1 , y2 ).


c) Forma bilineal en R3 definida por

B(x, y) = αx1 y1 + βx1 y2 + βx2 y1 + βx2 y2 + (1 + β)x3 y3 ,

donde x = (x1 , x2 , x3 ) y y = (y1 , y2 , y3 ).


d) Forma bilineal en R2 definida por

B(x, y) = (1 − α)x1 y1 + x1 y2 − αx2 y1 + βx2 y2 ,

donde x = (x1 , x2 ) y y = (y1 , y2 ).


e) Forma bilineal en R2 definida por

B(x, y) = βx1 y1 − x1 y2 − x2 y1 + αx2 y2 ,

donde x = (x1 , x2 ) y y = (y1 , y2 ).

7.3. Proceso de Gram-Schmidt y Proyección Ortogonal


Objetivo.
Entender el proceso de Gran-Schmidt para la obtención de conjuntos ortogonales.

Encontrar la proyección ortogonal sobre un espacio vectorial.

Definición 7.5. Sea V un espacio vectorial con producto interno h , i. Dos vectores u y v son llamados
ortogonales respecto a h , i cuando hu, vi = 0

Definición 7.6. Sea V un espacio vectorial con producto interno h , i. La norma de un vector u ∈ V
asociada a h , i es definido como q
kuk = hu, ui

Propiedades:
1. kuk ≥ 0, ∀u ∈ V.

2. Si kuk = 0 entonces u = 0

3. kαuk = |α|kuk, ∀u ∈ V y α ∈ R.

4. Desigualdad de Cauchy-Schwarz: Para todo u, v ∈ V, se tiene que

|hu, vi| ≤ kukkvk.

5. Desigualdad triangular: Para todo u, v ∈ V, se tiene que

ku + vk ≤ kuk + kvk.
7.4. PROYECCIÓN ORTOGONAL SOBRE VECTORES 199

u+v
v

Definición 7.7. Un conjunto de vectores {v1 , v2 , v3 · · · , vn } de un espacio vectorial V, es ortogonal


cuando
hvi , vj i = 0, i 6= j

Proposición 7.8. Todo conjunto ortogonal es linealmente independiente.

Proposición 7.9. Si dim V = n y {v1 , v2 , v3 · · · , vn } es un conjunto ortogonal entonces {v1 , v2 , v3 · · · , vn }


es una base (ortogonal).

Definición 7.10. Un conjunto de vectores {v1 , v2 , v3 · · · , vn } de un espacio vectorial V es ortonormal


cuando es un conjunto ortogonal y cada uno es unitario, es decir,

i) hvi , vj i = 0, i 6= j
p
ii) kvi k = hvi , vi i = 1, i = 1, 2, 3, · · · , n

Observación 7.11. Cualquier base en Rn , puede ser convertida a una base ortogonal, de esto trata el
Proceso de Ortogonalización de Gram Schmidt que se verá a continuación

7.4. Proyección Ortogonal sobre vectores


Sea v1 , v2 ∈ V dos vectores linealmente independientes. La proyección ortogonal de v2 sobre v1 es
definido por
hv2 , v1 i
Proyv1 v2 = v1
kv1 k2

v2
v2 =⇒ v1
v1
Proyv1 v2

Propiedad: El vector v2 − Proyv1 v2 es ortogonal a v1 .


Definamos los siguientes par de vectores
200 CAPÍTULO 7. ESPACIOS CON PRODUCTO INTERNO

w1 = v 1
hv2 , v1 i
w2 = v2 − Proyv1 v2 = v2 − v1
kv1 k2
Como w1 = v1 , podemos escribir
hv2 , w1 i
w2 = v2 − w1
kw1 k2
Es decir,

w1 = v 1 (7.1)
hv2 , w1 i
w2 = v 2 − w1 (7.2)
kw1 k2
Los vectores w1 y w2 son ortogonales. Además, conforman los primeros pasos del procedimiento de
Gram-Schmidt que enunciaremos a seguir.

7.5. Proceso de Gram Schmidt


Sea {v1 , v2 , v3 · · · , vn } un conjunto L.I. de un espacio vectorial V.

Paso 1: w1 = v1
< v2 , w1 >
Paso 2: w2 = v2 − w1
||w1 ||2
< v3 , w1 > < v3 , w2 >
Paso 3: w3 = v3 − 2
w1 − w2
||w1 || ||w2 ||2
..
.
< vn , w1 > < vn , wn−1 >
Paso n: wn = vn − 2
w1 − · · · wn−1
||w1 || ||wn−1 ||2
de donde se obtiene que{w1 , w2 , w3 , · · · , wn } es un conjunto ortogonal de V.
También obtenemos el conjunto ortonormal
w1 w2 w3 wn
 
, , ,··· ,
||w1 || ||w2 || ||w3 || ||wn ||

7.6. Proyección Ortogonal sobre un subespacio H


Sea H un subespacio vectorial de V y sea {w1 , w2 , w3 , · · · , wn } una base ortogonal de H. La proyección
ortogonal de un vector v ∈ V sobre H es definido como

ProyH v = Proyw1 v + Proyw2 v + .... + Proywn v


hv, w1 i hv, w2 i hv, wn i
= w1 + w2 + ... + wn
kw1 k2 kw2 k2 kwn k2
Propiedades.
7.6. PROYECCIÓN ORTOGONAL SOBRE UN SUBESPACIO H 201

1. Todo vector z ∈ H es ortogonal a v − ProyH v.

2. ProyH v = 0 si, y solamente si, v ∈ H.

Definición 7.12. La distancia de v al subespacio vectorial H es:

d(v, H) = kv − ProyH (v)k

Sea {v1 , v2 , v3 · · · , vn } un conjunto L.I. de un espacio vectorial V. Podemos reescribir el proceso de


Gram-Schmidt como sigue

Paso 1 : w1 = v1
Paso 2 : w2 = v2 − Proyv1 v2
Paso 3 : w3 = v3 − Proy[v1 ,v2 ] v3
Paso 4 : w4 = v4 − Proy[v1 ,v2 ,v3 ] v4
..
.
Paso n : wn = vn − Proy[v1 ,v2 ,...,vn−1 ] vn ,

donde

[v1 , v2 ] = gen{v1 , v2 }
[v1 , v2 , v3 ] = gen{v1 , v2 , v3 }
..
.
[v1 , v2 , ..., vn−1 ] = gen{v1 , v2 , ..., vn−1 }

7.6.1. Ejercicios propuestos: Gram-Schmidt y proyección


1. Considere en R2 el producto interno dado por:

hx, yi = x1 y1 − 2x1 y2 − 2x2 y1 + 6x2 y2 .

Encuentre una base ortonormal de R2 con respecto a este producto interno. Sugerencia: tome
como base inicial la canónica.

2. Encuentre una base ortonormal a partir de las siguientes bases proporcionadas.

a) En R2 , tome B = {(1, 1)(2, −1)}


b) En C2 , tome B = {(1, i)(−1, i)}
c) En R3 , tome B = {(1, −1, 1)(1, 1, 0), (0, 1, 1)}
d) En C3 , tome B = {(1, i, 1)(0, 0, 1), (0, 1, i)}

3. En los siguientes ejercicios calcule una base ortonormal con el producto interno dado

a) H = {p(x) ∈ P2 [x]/ p(−1) = 0}, con producto interno


D E
a1 x2 + b1 x + c1 , a2 x2 + b2 x + c2 = 2a1 a2 + a1 b2 + b1 a2 + b1 b2 + c1 c2 .
202 CAPÍTULO 7. ESPACIOS CON PRODUCTO INTERNO

b) H = {p(x) ∈ P2 [x]/ p(1) = 0}, con producto interno


D E
a1 x2 + b1 x + c1 , a2 x2 + b2 x + c2 = a1 a2 + b1 b2 + c1 c2 .

4. En los siguientes problemas se da un espacio H y un vector v. Encuentre ProyH v con el producto


interno canónico.
a) H = {(x, y) ∈ R2 / x − y = 0} y v = (−1, 2)
b) H = {(x, y, z) ∈ R3 / ax − by + cz = 0} y v = (a, b, c)
c) H = {(x, y, z, t) ∈ R4 / x − y − z + t = 0, x − y + z + t = 0} y v = (1, 0, 1, 0)
d) H = {(x, y, z, t) ∈ R4 / 2x − y + z − t = 0} y v = (1, −1, 2, 0)
e) H = gen{(1, 2, 1), (1, 0, −1)}, v = (2, −3, 1)
f ) H = gen{(2, 3, 1), (−3, 1, 3)}, v = (1, −1, 2)
5. En los siguientes problemas se da un espacio H y un vector v. Encuentre ProyH v con el producto
interno dado.
a) H = {(x, y) ∈ R2 / 2x + y = 0}, v = (1, 1), con el producto interno h(x1 , x2 ), (y1 , y2 )i =
2x1 y1 + 3x2 y2 .
b) H = {(x, y) ∈ R2 / x − 3y = 0}, v = (1, −1), con el producto interno h(x1 , x2 ), (y1 , y2 )i =
x1 y1 + x2 y2 + x1 y2 + x1 y2 .
c) H = {(x, y, z) ∈ R3 / x−2y+3z = 0}, v = (1, 2, −1), con el producto interno h(x1 , x2 , x3 ), (y1 , y2 , y3 )i =
x1 y1 + x2 y2 + 2x3 y3 .
d) H = {p(x) ∈ P3 [x]/ p(−1) = 0}, v = x3 −1, con el producto interno a1 x3 + b1 x2 + c1 x + d1 , a2 x3 + b2 x2

a1 a2 + 3b1 b2 + c1 c2 + 2d1 d2 .
6. Encuentre la proyección ortogonal del vector v = (1, 0, 0) ∈ C3 sobre el subespacio vectorial H
dado por
H = {(x, y, z) ∈ C3 / x + iy − iz = 0}.

7. Use la ProyH v para calcular la distancia del vector (1, −1, 2) al plano H dado por la ecuación
x + y + z = 0.
8. Use la ProyH v para calcular la distancia del vector (−1, 0, −2, 1) al plano H dado por la ecuación
x − 2y − z − t = 0.
9. Considere el subespacio H = {(x, y, z, t)/ x + 2y − t = 0}
a) Calcule una base ortonormal de H,
b) Sea x = (−1, 0, 1, 2), calcule la distancia de x al subespacio H.
10. Determine la distancia del vector v = (3, 1, −2) al plano H = {(x, y, z) ∈ R3 / − x + y − z = 0}
usando el concepto de proyección.
11. Considere el subespacio H = {(x, y, z, t)/ x − y + z + t = 0}
a) Calcule una base ortonormal de H,
b) Sea x = (−2, −1, 1, 4), calcule la distancia de x al subespacio H.
Capítulo
8
Descomposición QR
***

8.0.1. Procedimiento para obtener la descomposición QR . . . . . . . . . . . . . . . . . 203


8.1. Algoritmo en Octave/ MatLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
8.2. Problema de Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
8.2.1. Definición del Problema de Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . 207
8.2.2. Por Ecuaciones Normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
8.2.3. Por Descomposición QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208

Objetivo. Usar el proceso de Gran-Schmidt para la obtención de la descomposición QR.

Definición 8.1. Sea A ∈ Mm×n (R). Una descomposición QR de A es una factorización

A = QR,

donde Q ∈ Mm×n (R) cumple que QT Q = In y R ∈ Mn×n (R) es una triangular superior y con números
positivos en la diagonal principal.

Definición 8.2. Una matriz A ∈ Mm×n (R), con m ≥ n, es de rango completo cuando rango(A) = n,
es decir, cuando sus n-columnas son linealmente independientes.

Teorema 8.3. Si A ∈ Mm×n (R) es una matriz de rango completo, entonces existe una descomposición
QR de A.

8.0.1. Procedimiento para obtener la descomposición QR


Identificar los vectores columnas de la matriz A, es decir,

A = (v1 v2 ... vn )

Aplicar el proceso de Gram-Schmidt a los vectores L.I. v1 , v2 , ..., vn .

I Calcular w1 = v1

203
204 CAPÍTULO 8. DESCOMPOSICIÓN QR

hv2 , w1 i hv2 , w1 i
I Calcular w2 = v2 − 2
w1 e identificar el valor de
kw1 k kw1 k
hv3 , w1 i hv3 , w2 i
I Calcular w3 = v3 − 2
w1 − w2
kw1 k kw2 k2
hv3 , w1 i hv3 , w2 i
Identificar los valores de y
kw1 k kw2 k
.. ..
. .
hvn , w1 i hvn , wn−1 i
I Calcularwn = vn − 2
w1 − · · · wn−1
kw1 k kwn−1 k2
hvn , w1 i hvn , w2 i hvn , wn−1 i
Identificar los valores de , , ...,
kw1 k kw2 k kwn−1 k
Calcular las normas: kw1 k, kw2 k, ...kwn k.

Normalizar los vectores w1 , w2 , ..., wn :


w1 w2 wn
u1 = , u2 = , ..., un =
kw1 k kw2 k kwn k

La matriz Q es dada por


Q = (u1 u2 ... un )

La matriz triangular superior R es dada por


hv2 ,w1 i hv3 ,w1 i hvn ,w1 i
 
kw1 k kw1 k kw1 k ··· kw1 k 
hv3 ,w2 i hvn ,w2 i 

 0
 kw2 k kw2 k ··· kw2 k 
hvn ,w3 i 
 
R=
 0 0 kw3 k ··· kw3 k 
 . .. .. .. 
 . ..
 . . . . . 

0 0 0 ··· kwn k

Ejemplo 8.0.1:

Encuentre la factorización QR de la siguiente matriz


 
0 1 1
A = 1 0 1
 
1 1 0

Solución.

Los vectores columnas de A son


     
0 1 1
v1 = 1 , v2 = 0 , v3 = 1
     
1 1 0
205

Por el proceso de Gram-Schmidt, tenemos

a) Primer vector:  
0
w1 = v1 = 1
 
1

b) Segundo vector:
  
* 1 1 +
0 1
      
1 1 0 1
hv2 , w1 i
w2 = v 2 − w = 0 − 1
   
1   2
kw1 k2 1
1 0
1
 

0
     
1 1 1/2
  1  
= 0 − 1 = −1/2

2
1 0 1

hv2 ,w1 i √1
Además, tenemos que kw1 k = 2
c) Tercer vector:

hv3 , w1 i hv3 , w2 i
w3 = v 3 − w1 − w2
kw1 k2 kw2 k2
       
* 0 1 + * 0 1/2 +
1 , 1 1 , −1/2 
            
0 1 0 1 1 1 1/2
= 1 − 1 − −1/2
     
  2
1/2 2
 
1
1 0 1
1 −1/2
   

0 1
       
0 1 1/2 −2/3
  1   1/2 
= 1 − 1 − −1/2 =  2/3 
  
2 3/2
1 0 1 2/3

Además, tenemos que


hv3 , w1 i hv3 , w2 i
= √1 y = √1
kw1 k 2 kw2 k 6

Las normas son dadas por


     
1 1/2 −2/3
√ √ √
kw1 k = 1 = 2, kw2 k = −1/2 = 26 , kw3 k =  2/3  = 26
     

0 1 2/3

Normalizando los vectores obtenidos:


206 CAPÍTULO 8. DESCOMPOSICIÓN QR
 √   √   √ 
1/√2 1/ √6 −1/√ 3
w1 w2 w3
u1 = = 1/ 2, u2 = = −1/√ 6, u3 = =  1/√3 
     
kw1 k kw2 k kw3 k
0 2/ 6 1/ 3

La matriz Q es dada por  


√1 √1 − √13
 12 6
− √16 √1

Q = (u1 u2 u3 ) = √ 
 2 3 
0 √2 √1
6 3

La matriz R es dada por

√
√1 √1

hv2 ,w1 i hv3 ,w1 i
 
kw1 k 2
kw1 k kw1 k  √2 2 
hv3 ,w2 i  6 √1 
 
R=
 0 kw2 k =
 0 2
kw2 k  √6 
0 0 kw3 k 2 3
0 0 3

8.1. Algoritmo en Octave/ MatLab


## DESCOMPOSICION QR USANDO GRAM SCHMIDT
a = input ( ' matriz a = ')
[m , n ]= size ( a ) ;
Q =[]; R = zeros ( n ) ;
v = a (: ,1) ;
u = v / norm ( v ) ;
Q (: ,1) = u ;
R (1 ,1) = norm ( v ) ;
for j =2: n
j;
s = zeros (m ,1) ;
for i =1: j -1
R (i , j ) = a (: , j ) '* Q (: , i ) ;
s = s + R (i , j ) * Q (: , i ) ;
endfor
v = a (: , j ) -s ;
Q (: , j ) = v / norm ( v ) ;
R (j , j ) = norm ( v ) ;
endfor
Q
R
8.2. PROBLEMA DE MÍNIMOS CUADRADOS 207

>> qrGramSmith

matriz a=[0 1 1;1 0 1;1 1 0]


a =

0 1 1
1 0 1
1 1 0

Q =

0.00000 0.81650 0.57735


0.70711 -0.40825 0.57735
0.70711 0.40825 -0.57735

R =

1.41421 0.70711 0.70711


0.00000 1.22474 0.40825
0.00000 0.00000 1.15470

8.2. Problema de Mínimos Cuadrados


Objetivo.
Comprender el método de mínimos cuadrados.
Usar la descomposición QR para resolver problemas de mínimos cuadrados.

8.2.1. Definición del Problema de Mínimos Cuadrados


Sea A ∈ Mm×n (R) con m > n y sea b ∈ Rm . Cuando no existe una solución del sistema lineal
AX = b (8.1)
lo que se puede intentar hacer es buscar un X0 de forma que el vector
r = AX0 − b
que se llama residuo, sea lo “más pequeño” posible. Lo grande o pequeño que sea r lo mediremos
mediante una norma. El problema de mínimos cuadrados consiste en encontrar X0 ∈ Rn para que
el vector residuo tenga la menor norma Euclideana posible.
Su formulación precisa sería la siguiente:
Problema de mínimos cuadrados: Dada una matriz A ∈ Mm×n (R) y un vector b ∈ Rm , encontrar
X0 ∈ Rn para que kAX0 − bk sea mínimo.
Definición 8.4. Sea X0 la solución del problema de mínimos cuadrados. El error de estimación es dado
por
ε = kAX0 − bk
208 CAPÍTULO 8. DESCOMPOSICIÓN QR

Observación 8.5. El valor de ε siempre es positivo estricto, ya que el sistema (8.1) es incompatible.

8.2.2. Por Ecuaciones Normales


La solución del problema de mínimos cuadrados por Ecuaciones Normales
Una forma de encontrar la solución al problema de mínimos cuadrados es resolviendo las ecuaciones
normales:

AT AX = AT b, (8.2)

el cual aparece al calcular el mínimo local de la función f (X) = kAX − bk. Que se sabe, por Cálculo en
Varias Variables, es equivalente a resolver el sistema
AT AX − AT b
∇f (X) = =0
kAX − bk

8.2.3. Por Descomposición QR


La solución del problema de mínimos cuadrados por Descomposición QR
Sea A = QR la descomposición QR de la matriz A. Sustituyendo en la ecuación normal (8.2),
obtenemos que

AT AX = AT b
(QR)T (QR)X = (QR)T b
RT QT Q RX = RT QT b
| {z }
I
RT RX = RT QT b

Como R es triangular superior y su diagonal tiene elementos positivos, se sigue que det(R) > 0. Luego,
R es invertible y también su transpuesta RT . De la ecuación anterior, se sigue que

RX = QT b (8.3)

Ejemplo 8.2.1:

Utilice la descomposición QR para encontrar la solución al problema de mínimos cuadrados


del sistema
2x + 3y = 7
2x + 4y = 3
x+y = 1

Solución.
Escribamos el sistema de manera matricial
   
2 3 ! 7
 x
2 4 = 3 (8.4)
  
y
1 1 1
| {z } | {z }
A b
8.2. PROBLEMA DE MÍNIMOS CUADRADOS 209

Las columnas de la matriz A son


   
2 3
v1 = 2 y v2 = 4
   
1 1

El proceso de Gram-Schmidt:

1. Primer vector:  
2
w1 = v1 = 2
 
1

2. Segundo vector:

hv2 , w1 i
w2 = v 2 − w1
kw1 k2
   
* 3 2 +
4 , 2
       
3 1 1 2
= 4 − 2
     
2
1 1
2
 

1
         
10
3 2 3 3 −1
  15      10   23 
= 4 − 2 = 4 −  3  =  3 
9 5
1 1 1 3 − 32

Además, tenemos que


hv2 , w1 i 15
= = 5.
kw1 k 3

Las normas son dadas por


   
2 −1
 3 

kw1 k = 2 = 3 y kw2 k =  23  = 1
 
−2

1
3

Normalizando los vectores obtenidos:


   
2
− 13
w1  32  w2
u1 = = y u2 = =  23 
 
kw1 k 3 kw2 k
1
3 − 23

La matriz Q es dada por  


2
− 13
 32 2
Q=

3 3 
1
3 − 23
210 CAPÍTULO 8. DESCOMPOSICIÓN QR

La matriz R es dado por


hv2 ,w1 i
! !
kw1 k kw1 k 3 5
R= =
0 kw2 k 0 1

Debemos resolver el sistema


RX = QT b
 
! !
2 2 1
! 7
3 5 x 3 3 3
= 3
 
0 1 y − 13 2
3 − 23
1
! ! !
3 5 x 7
=
0 1 y −1

Resolviendo el sistema obtenemos y = −1,


3x + 5y = 7 −→ 3x + 5(−1) = 7 −→ x = 4

La solución del problema de mínimos cuadrados es


! !
x 4
=
y −1

Ejemplo 8.2.2:

En un laboratorio de física se desea estimar la velocidad de disparo de un proyectil v0 y el valor


de la gravedad local g. Se realizaron cuatro lanzamientos hacia arriba desde una distancia de
y0 = 0,04 m. Los datos recolectados fueron:

t en segundos y en metros
0.31 0.51
0.34 0.61
0.37 0.70
0.38 0.75

Considere la ecuación
g
y = y0 + v 0 t + t 2 .
2
Use el método de mínimos cuadrados por ecuaciones normales para estimar v0 y g. Calcule
también el error de la estimación.

Solución.
Usando los datos en la ecuación dada obtenemos
g
0,51 = 0,04 + v0 (0,31) + (0,31)2
2
g
0,61 = 0,04 + v0 (0,34) + (0,34)2
2
g
0,70 = 0,04 + v0 (0,37) + (0,37)2
2
g
0,75 = 0,04 + v0 (0,38) + (0,38)2
2
8.2. PROBLEMA DE MÍNIMOS CUADRADOS 211

De aquí,

0,31v0 + 0,04805g = 0,47


0,34v0 + 0,0578g = 0,57
0,37v0 + 0,06845g = 0,66
0,38v0 + 0,0722g = 0,71

En su forma matricial    
0,31 0,04805 ! 0,47
0,34 0,0578  v 0,57
0
=
   
0,37 0,06845 g 0,66
  

0,38 0,0722 0,71


| {z } | {z }
A b

Resolvamos las ecuaciones normales:


!
v
A A 0
T
= AT b
g

Tenemos que
 
0,31 0,04805 !
0,31 0,34 0,37 0,38 0,34 0,0578 

AT A =

0,04805 0,0578 0,06845 0,0722 0,37 0,06845
 

0,38 0,0722
!
0,493 0,08731
=
0,08731 0,015548

y también
 
0,47 ! !
T 0,31 0,34 0,37 0,38 0,57
 0,8535
A b = =
0,04805 0,0578 0,06845 0,0722 0,66 0,15197

0,71

Así tenemos el sistema


! ! !
0,493 0,08731 v0 0,8535
= ,
0,08731 0,015548 g 0,15197
cuya solución es
! !−1 !
v0 0,493 0,08731 0,8535
=
g 0,08731 0,015548 0,15197
!
0,041599
=
9,540623
212 CAPÍTULO 8. DESCOMPOSICIÓN QR

El valor estimado de la velocidad inicial es v0 ≈ 0,041599 m/s y el valor estimado de la gravedad


es g ≈ 9,540623 m/s2 .

La ecuación del movimiento seria

y = 0,04 + 0,041599t + 4,7703115t2

=⇒

El error de la estimación está dado por

!
v0
ε = A − b

g
8.2. PROBLEMA DE MÍNIMOS CUADRADOS 213

Tenemos que
   
! 0,31 0,04805 ! 0,47
v0 0,34 0,0578  0,041599 0,57
A −b =  −
   
g 0,37 0,06845 9,540623 0,66
 

0,38 0,0722 0,71


     
0,47132 0,47 0,0013226
0,56559 0,57 −0,0044084
=  − = .
     
0,66845 0,66  0,0084472 
0,70464 0,71 −0,0053595

Luego, el error de la estimación es


 
0,0013226

−0,0044084
ε =   = 0,011012
 
 0,0084472 

−0,0053595

Resolviendo con Octave (o MatLab)

>> t=[0.31 0.34 0.37 0.38]’


t =

0.31000
0.34000
0.37000
0.38000

>> A=[t t.^2/2]


A =

0.310000 0.048050
0.340000 0.057800
0.370000 0.068450
0.380000 0.072200

>> b=[0.51 0.61 0.70 0.75]’-0.04


b =

0.47000
0.57000
0.66000
0.71000

>> C=A’*A
C =
214 CAPÍTULO 8. DESCOMPOSICIÓN QR

0.493000 0.087310
0.087310 0.015548

>> D=A’*b
D =

0.85350
0.15197

>> X=C^(-1)*D
X =

0.041599
9.540623

>> r=A*X-b
r =

0.0013226
-0.0044084
0.0084472
-0.0053595

>> error=norm(r)
error = 0.011012

Factorización QR y mínimos cuadrados


1. Encuentre la factorización QR de las siguientes matrices.

   
0 1 1 2 8 8
a) A =  1 0 1  d) A =  1 7 −1 
   
1 1 0 −2 −2 1
 
2 −1
 
1 1 3
 1 0 −1   2 4 
b) A = 
 
e) A = 
 
1 1 1 

−1 −1
 
 
1 1 5 0 1
 
1 1 1
 0 1 0 
c) A = 
 
0 0 1

 
0 0 1
8.2. PROBLEMA DE MÍNIMOS CUADRADOS 215

2. Resuelva el siguiente sistema por el método de mínimos cuadrados


x + 2y =2
2x + y =3
x − y =0

3. Dado el conjunto de puntos; (1, 1); (−1, 2); (2, 0) y (3, 1).
a) Plantee el sistema inconsistente relacionado a la recta de regresión lineal y calcule la facto-
rización QR de la matriz correspondiente.
b) Calcule la pendiente e intercepto de la recta de regresión lineal usando las matrices Q y R
del item a).
4. En un laboratorio de MRU se desea verificar la fórmula xf = x0 + v∆t. Para lo cual, se tomaron
los siguientes datos:
∆t ( seg.) 3 2 6
xf (metros) 4 3.5 6.5
Use la factorización QR para estimar la velocidad y posición inicial de dicho movimiento. Estime
el error de dicho cálculo.
5. En un laboratorio de física se desea estimar la velocidad de disparo de un proyectil v0 y el valor
de la gravedad local g. Se realizaron cuatro lanzamientos hacia arriba desde una distancia de
y0 = 1 m. Los datos recolectados fueron:

t en segundos y en metros
3.2 4.2
3.1 4
2.9 4.1
3.3 4.1

Usando la ecuación
g
y = y0 + v0 t + t2
2
use el método de mínimos cuadrados para estimar v0 y g. Calcule también el error de la estimación.
6. En un experimento de calorimetría se tiene m = 5 kg de un material y se considera la formula:
Tf = T0 + KQ.
1
donde T0 : temperatura inicial, Tf : temperatura final, Q : calor suministrado y K = mc . Si se
transfirió calor al cuerpo tomándose las siguientes lecturas,
Q Tf
40 cal 10◦ C
50 cal 20◦ C
40 cal 27◦ C
Estime el calor específico del material c así como su temperatura inicial T0 .
7. En cada caso calcule una matriz unitaria U tal que T = U ∗ AU sea triangular superior.
216 CAPÍTULO 8. DESCOMPOSICIÓN QR
!  
1 −1 0 1 4
a) A =
1 1 d) A =  3 −1 3 
 
2 −1 −2
 
−1/2 0 −1/2  
 √ 1 1 1
b) A =  2 2 1 0 

e) A =  1 1 1 
 
1/2 0 −3/2
1 1 1
   
3 0 −5 −2 0 0
c) A =  2 −2 0  f ) A =  1 −2 0 
   
1 0 −3 3 0 2
Capítulo
9
Teorema Espectral y Formas
Cuadráticas
***

9.1. Diagonalización Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217


9.2. Formas Cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
9.2.1. Clasificación de una forma cuadrática . . . . . . . . . . . . . . . . . . . . . . . . 223
9.3. Cónicas Inclinadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
9.3.1. Procedimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
9.4. Ejercicios propuestos: Diagonalización ortogonal y Formas cuadráticas . . . . . . . . . . 234

9.1. Diagonalización Ortogonal


Definición 9.1. Una matriz cuadrada P ∈ Mn×n (R) es llamada ortogonal cuando

P T P = In y P P T = In

Observaciones.
• Las columnas de una matriz ortogonal P son siempre vectores ortonormales en relación al producto
interno usual.

• Si P es una matriz ortogonal entonces det(P ) = ±1.

• Toda matriz ortogonal P es invertible y su inversa es P −1 = P T .

Definición 9.2. Se dice que una matriz A ∈ Mn×n (R) es diagonalizable ortogonalmente si existe una
matriz ortogonal P ∈ Mn×n (R) tal que

P T AP = D, (9.1)

donde D es una matriz diagonal.

217
218 CAPÍTULO 9. TEOREMA ESPECTRAL Y FORMAS CUADRÁTICAS

Proposición 9.3. Si A es una matriz diagonalizable ortogonalmente entonces A es simétrica.

Demostración. Como A es diagonalizable ortogonalmente, se sigue de (9.1) que A = P DP T . Luego,

AT = (P DP T )T = (P T )T DT P T = P DP T = A.

Por tanto, A es simétrica.


El siguiente resultado nos dice que es válida la reciproca de esta proposición.

Teorema 9.4 (Teorema Espectral). Si A ∈ Mn×n (R) es una matriz simétrica, entonces existe una
matriz ortogonal P ∈ Mn×n (R) tal que
 
λ1 0 ··· 0

0 λ2 ··· 0
P T AP = D = 
 
 .. .. .. ,
..  (9.2)
. . . .
0 0 · · · λn

donde λ1 , λ2 , . . . , λn son los autovalores de A.

Observación. La matriz ortogonal P tiene como columnas a una base ortonormal de autovectores
{u1 , u2 , ..., un } de la matriz A, donde cada autovector ui esta asociado al autovalor λi .
Ejemplo 9.1.1:

Encuentre la matriz ortogonal P que diagonaliza la siguiente matriz simétrica


!
−7 24
A= .
24 7

Solución.

• El polinomio característico:

λ+7 −24
pA (λ) = |λI − A| =

−24 λ−7


= λ2 − 49 − 242 = λ2 − 625 = (λ + 25)(λ − 25)

• Los autovalores son λ1 = −25 y λ2 = 25

• Autovector de λ1 = −25:
! ! !
−18 −24 v1 0
(−25I − A)v = 0 −→ =
−24 −32 v2 0
−→ −18v1 − 24v2 = 0
−→ 3v1 + 4v2 = 0
!
−4
El autovector L.I. asociado a λ1 = −25 es v =
3
9.1. DIAGONALIZACIÓN ORTOGONAL 219

• Autovector de λ2 = 25:
! ! !
32 −24 w1 0
(25I − A)v = 0 −→ =
−24 18 w2 0
−→ 32w1 − 24w2 = 0
−→ 4w1 − 3w2 = 0
!
3
El autovector L.I. asociado a λ2 = 25 es w =
4

• Los autovectores ortonormales son


! !
v −4/5 w 3/5
u1 = = y u2 = =
kvk 3/5 kwk 4/5

• La matriz ortogonal es !
− 45 3
5
P = (u1 u2 ) = 3 4
5 5

• Tenemos que !
T −25 0
P AP = D =
0 25

Ejemplo 9.1.2:

Encuentre la matriz ortogonal P que diagonaliza la siguiente matriz simétrica


 
5 4 2
A = 4 5 2 ,
 
2 2 2

sabiendo que su polinomio característico es pA (λ) = (λ − 1)2 (λ − 10).

Solución.

• Autovectores para λ1 = 1:
    
−4 −4 −2 x1 0
(I − A)v = 0 −→ −4 −4 −2 x2  = 0
    
−2 −2 −1 x3 0
−→ 2x1 + 2x2 + x3 = 0
−→ x3 = −2x1 − 2x2
     
x1 1 0
−→ x2  = v1  0  + v2  1 
     
x3 −2 −2
220 CAPÍTULO 9. TEOREMA ESPECTRAL Y FORMAS CUADRÁTICAS

Los autovectores L.I. asociados a λ1 = 1 son


   
1 0
v1 =  0  y v2 =  1  .
   
−2 −2

• Apliquemos el proceso de Gram-Schmidt a estos vectores:


 
1
a) Primer vector: w1 = v1 =  0 
 
−2
b) Segundo vector:
   
* 0 1 +
 1 , 0 
       
0 −2 −2 1
hv2 , w1 i
w2 = v 2 − w1 =  1 −  0 
   
  2
kw1 k2 1
−2 −2
 0 
 
−2

     
0 1 −4/5
  4  
=  1 −  0 = 1 

5
−2 −2 −2/5

• Se tiene que {w1 , w2 } es un conjunto ortogonal de autovectores asociados a λ1 = 1, cuyas normas


son:
√ √
45
kw1 k = 5 y kw2 k = 5

• Los autovectores ortonormales asociados a λ1 = 1 son


 √   √ 
1/ 5 −4/√ 45
w1 w2
u1 = kw =  0√  y u2 = =  5/ √45 
   
1k kw2 k
−2/ 5 −2/ 45

• Autovector asociado a λ2 = 10:


    
5 −4 −2 z1 0
(10I − A)z = 0 −→ −4 5 −2 z2  = 0
    
−2 −2 8 z3 0

Haciendo operaciones elementales obtenemos que

z1 − 2z3 = 0
z2 − 2z3 = 0
 
2
El autovector L.I. asociado a λ2 = 10 es z = 2
 
1
9.2. FORMAS CUADRÁTICAS 221

• El autovector ortonormal asociado a λ2 = 10 es


 
2/3
z
u3 = = 2/3
 
kzk
1/3

• La matriz ortogonal es  
√1 − √445 2
5 3
√5 2

P = (u1 u2  0
u3 ) =  
45 3
− √25 − √245 1
3

• Finalmente se concluye que  


1 0 0
P T AP = D = 0 1 0 
 
0 0 10

9.2. Formas Cuadráticas


Objetivo
1. Usar formas cuadráticas para obtener información sobre las secciones cónicas en R2 (círculos,
parábolas, elipses, hipérbolas)
2. Describir ciertas superficies, denominadas superficies cuadráticas, en R3
Definición 9.5. Sea A ∈ Mn×n (R) una matriz cuadrada simétrica. La función Q : Rn → R definida
por
Q(x) = xT Ax
  
a11 a12 · · · a1n x1
  a12
 a22 · · · a2n   x2 
 
= x1 x2 · · · xn 
 .. .. ..   ..  ,
..   
 . . . .  . 
a1n a2n · · · ann xn
es denominada forma cuadrática real en las variables x1 , x2 , ..., xn .
La matriz A es denominada matriz asociada a la forma cuadrática Q.

Ejemplo 9.2.1:
!
a b
Halle la forma cuadrática asociada a la matriz simétrica A =
b c

Solución. La forma cuadrática asociada es


! !
  a b x
Q(x, y) = x y
b c y
= ax2 + 2bxy + cy 2
222 CAPÍTULO 9. TEOREMA ESPECTRAL Y FORMAS CUADRÁTICAS

Ejemplo 9.2.2:
 
a b c
Halle la forma cuadrática asociada a la matriz simétrica A =  b d e 
 
c e f

Solución. La forma cuadrática asociada es


  
 a b c
 x
Q(x, y, z) = x y z  b d e  y 
  
c e f z
= ax2 + dy 2 + f z 2 + 2bxy + 2cxz + 2eyz

Ejemplo 9.2.3:

Obtenga la forma cuadrática asociada a la matriz


 
1 1 2
A = 1 −1 3
 
2 3 0

Solución. Su forma cuadrática asociada es


  
 1 1 2
 x
Q(x, y) = x y z 1 −1 3 y 
  
2 3 0 z
= x2 − y 2 + 2xy + 2xz + 6yz

Ejemplo 9.2.4:

Obtenga la matriz asociada a la forma cuadrática

Q(x, y) = 3x2 − y 2 + +2z 2 + 5xy − 6xz

Solución. Su matriz asociada es  


3 5/2 −3/2
A =  5/2 −1 0 
 
−3/2 0 −6
9.2. FORMAS CUADRÁTICAS 223

9.2.1. Clasificación de una forma cuadrática


Definición 9.6. Sea Q : Rn → R una forma cuadrática. Se dice que

1) Q es definida positiva si

Q(x) > 0, ∀x ∈ Rn − {0}.

2) Q es definida negativa si

Q(x) < 0, ∀x ∈ Rn − {0}.

3) Q es semi-definida positiva si

Q(x) ≥ 0, ∀x ∈ Rn .

4) Q es semi-definida negativa si

Q(x) ≤ 0, ∀x ∈ Rn .

5) Q es indefinida si existen x1 , x2 ∈ Rn − {0} tales que

Q(x1 ) < 0 y Q(x2 ) > 0.

Ejemplo 9.2.5:

Determine si la siguiente forma cuadrática

Q(x, y) = x2 + 6xy + 10y 2

es definida positiva.

Solución. Completando cuadrados tenemos

Q(x, y) = x2 + 6xy + 10y 2


= x2 + 2x(3y) + (3y)2 − (3y)2 + 10y 2
= (x + 3y)2 − 9y 2 + 10y 2
= (x + 3y)2 + y 2 ≥ 0.

Como

Q(x, y) = 0 ⇐⇒ x + 3y = 0 ∧ y = 0 ⇐⇒ x = 0 ∧ y = 0

se sigue que
Q(x, y) > 0, ∀(x, y) ∈ R2 − {(0, 0)}
Por tanto, Q es una forma cuadrática definida positiva.
224 CAPÍTULO 9. TEOREMA ESPECTRAL Y FORMAS CUADRÁTICAS

Ejemplo 9.2.6:

Determine si la siguiente forma cuadrática

Q(x, y, z) = −2x2 − 3y 2 − 2z 2 − 4xy + 2yz

es definida negativa.

Solución. Completando cuadrados tenemos


Q(x, y, z) = −2x2 − 4xy − 3y 2 − 2z 2 + 2yz
= −2(x2 + 2xy) − 3y 2 − 2z 2 + 2yz
h i
= −2 (x + y)2 − y 2 − 3y 2 − 2z 2 + 2yz
= −2(x + y)2 + 2y 2 − 3y 2 − 2z 2 + 2yz
= −2(x + y)2 − y 2 − 2z 2 + 2yz
= −2(x + y)2 − (y 2 − 2yz) − 2z 2
h i
= −2(x + y)2 − (y − z)2 − z 2 − 2z 2
= −2(x + y)2 − (y − z)2 + z 2 − 2z 2
= −2(x + y)2 − (y − z)2 − z 2 ≤ 0
Como
Q(x, y, z) = 0 ⇐⇒ x + y = 0, y − z = 0 ∧ z = 0
⇐⇒ x = 0, y = 0 ∧ z = 0
se sigue que
Q(x, y, z) < 0, ∀(x, y, z) ∈ R3 − {(0, 0, 0)}
Por tanto, Q es una forma cuadrática definida negativa.
Ejemplo 9.2.7:

Considere la forma cuadrática

Q(x, y, z) = x2 + 2y 2 + z 2 + 2xy − 2yz.

Determine que tipo de forma cuadrática es Q.

Solución. Completando cuadrados tenemos


Q(x, y) = x2 + 2y 2 + z 2 + 2xy − 2yz
= x2 + 2xy + 2y 2 + z 2 − 2yz
= [(x + y)2 − y 2 ] + 2y 2 + z 2 − 2yz
= (x + y)2 + y 2 + z 2 − 2yz
= (x + y)2 + y 2 − 2yz + z 2
= (x + y)2 + (y − z)2 − z 2 + z 2
= (x + y)2 + (y − z)2 ≥ 0
9.2. FORMAS CUADRÁTICAS 225

Tenemos que Q(x, y, z) = 0 es equivalente a


(
x+y = 0
,
y−z = 0

el cual es un sistema compatible indeterminado con conjunto solución

C.S. = {(−t, t, t) : t ∈ R}.

En particular, el vector (−1, 1, 1) satisface que

Q(−1, 1, 1) = (−1 + 1)2 + (1 − 1)2 = 0.

Por tanto, Q es una forma cuadrática semi-definida positiva.


Ejemplo 9.2.8:

Considere la forma cuadrática

Q(x, y, z) = x2 + 2y 2 + 2xy + 2yz.

Determine que tipo de forma cuadrática es Q.

Solución. Completando cuadrados tenemos

Q(x, y) = x2 + 2y 2 + 2xy + 2yz


= x2 + 2xy + 2y 2 + 2yz
= [(x + y)2 − y 2 ] + 2y 2 + 2yz
= (x + y)2 + y 2 + 2yz
= (x + y)2 + y 2 + 2yz
= (x + y)2 + (y + z)2 − z 2

Por un lado, haciendo


Q(x, y) = (x + y)2 + (y + z)2 − |{z}
z2
| {z } | {z }
0 0 1

obtenemos z = 1, y = −1, x = 1. Es decir, el vector (1, −1, 1) cumple que

Q(1, −1, 1) = −1 < 0.

Por otro lado, haciendo


Q(x, y) = (x + y)2 + (y + z)2 − |{z}
z2
| {z } | {z }
1 0 0

obtenemos z = 0, y = 0, x = 1. Es decir, el vector (1, 0, 0) cumple que

Q(1, 0, 0) = 1 > 0.

Por tanto, Q es una forma cuadrática indefinida.


Otra forma de conocer el tipo de una forma cuadrática es mediante los autovalores de su matriz
asociada.
226 CAPÍTULO 9. TEOREMA ESPECTRAL Y FORMAS CUADRÁTICAS

Teorema 9.7. Sea Q : Rn → R una forma cuadrática y sea A su matriz asociada. Suponga que
λ1 , λ2 , ..., λn ∈ R son los autovalores de A, entonces vale lo siguiente:

1. Si todos los autovalores son positivos λ1 > 0, λ2 > 0, ..., λn > 0, entonces Q es definida positiva.

2. Si todos los autovalores son negativos λ1 < 0, λ2 < 0, ..., λn < 0, entonces Q es definida negativa.

3. Si dos autovalores tiene signos contrarios λi < 0 y λj > 0, entonces Q es indefinida.

Ejemplo 9.2.9:

Considere la forma cuadrática

Q(x, y, z) = 5x2 + 3y 2 + z 2 + 2yz

Determine que tipo de forma cuadrática es Q.

Solución. Su matriz asociada es  


5 0 0
A = 0 3 1
 
0 1 1
El polinomio característico de A es

λ−5 0 0

pA (λ) = 0 λ − 3 −1


−1 λ − 2

0
= (λ − 5)(λ2 − 4λ + 2)
h i
= (λ − 5) (λ − 2)2 − 4 + 2
h i
= (λ − 5) (λ − 2)2 − 2
√ √
= (λ − 5)(λ − 2 − 2)(λ − 2 + 2)

Los autovalores de A son


√ √
λ1 = 5 > 0, λ2 = 2 + 2 > 0 y λ3 = 2 − 2>0

Se sigue que Q es una forma definida positiva.

9.3. Cónicas Inclinadas


Veremos como graficar una cónica cuando su ecuación es de la siguiente forma:

ax2 + bxy + cy 2 + dx + ey + f = 0. (9.3)

Observación 9.8. En el caso que b = 0, sabemos de la geometría analítica que se puede identificar a
que cónica corresponde por medio de las ecuaciones ordinarias.
9.3. CÓNICAS INCLINADAS 227

El caso que b 6= 0, se tratan de cónica rotadas o inclinadas, las cuales veremos a seguir el proceso
para hallar su gráfico.
Escribiendo (9.3), como

X T AX + B T X + f = 0, (9.4)
! ! !
x d a b/2
donde X = ,B= yA= es la matriz asociada a la forma cuadrática Q(x, y) =
y e b/2 c
ax2 + bxy + y 2 . Por el Teorema Espectral, existe una matriz P ortogonal tal que
!
T λ1 0
P AP = D =
0 λ2

Si hacemos el cambio de variable X 0 = P T X, obtenemos

X = P X0 y A = P DP T

Luego, por (9.4), tenemos

0 = X T AX + B T X + f
= X T P DP T X + B T X + f
= (P T X)T D(P T X) + B T X + f
T
= X 0 DX 0 + B T P X 0 + f

La ecuación
!
0 T 0 T 0 0 x0
(X ) DX + B P X + f = 0, X = (9.5)
y0

va tener la siguiente forma


2 2
λ1 (x0 ) + λ2 (y 0 ) + d1 x0 + e1 y 0 + f = 0,
la cual ya podemos graficar sobre el plano x0 y 0 .
La recta x0 tiene la misma dirección que el autovector u asociado al autovalor λ1 y la recta y 0 tiene
la misma dirección que el autovector v asociado al autovalor λ2 .
228 CAPÍTULO 9. TEOREMA ESPECTRAL Y FORMAS CUADRÁTICAS

9.3.1. Procedimiento
• De la ecuación

ax2 + bxy + cy 2 + dx + ey + f = 0 (9.6)

identificar la matriz !
a b/2
A=
b/2 c

• Hallar los autovalores λ1 y λ2 de A.

• Hallar los respectivos autovectores v y w asociados a λ1 y λ2 de modo que det(v w) > 0.


v w
• Calcular los vectores ortonormales u1 = kvk y u2 = kwk

• Definir la matriz ortogonal P = (u1 u2 ) tal que


!
T λ1 0
P AP = D =
0 λ2

• Hacer el cambio de variable ! !


x x0
=P
y y0

• Reemplazar en (9.6), para identificar la cónica a partir de la siguiente ecuación

λ1 (x0 )2 + λ2 (y 0 )2 + d1 x0 + e1 y 0 + f = 0 (9.7)

• Gráficar respectivamente eje x0 en la dirección del autovector u1 y el eje y 0 en la dirección del


autovector u2

• Hacer el gráfico de la ecuación (9.7) en el plano rotado x0 y 0 .

Ejemplo 9.3.1:

Determine el tipo de cónica y haga un esbozo del gráfico de la siguiente ecuación


√ √
3x2 + 2xy + 3y 2 − 2 2x + 2 2y − 2 = 0

Solución.

• Identificamos la matriz
!
3 1
A=
1 3
9.3. CÓNICAS INCLINADAS 229

• El polinomio característico es

λ−3 −1
pA (λ) = |λI − A| =

−1 λ−3


= (λ − 3)2 − 1
= (λ − 4)(λ − 2)

• Los autovalores son

λ1 = 4 y λ2 = 2.

• Autovector para λ1 = 4.
!
1 −1
(4I − A)v = 0 −→
−1 1
−→ v1 − v2 = 0
! ! !
v1 v2 1
−→ = = v2
v2 v2 1

El autovector asociado a λ1 = 4 es dado por


!
1
v=
1

• Autovector para λ2 = 2.
!
−1 −1
(2I − A)v = 0 −→
−1 −1
−→ −v1 − v2 = 0
! ! !
v1 −v2 −1
−→ = = v2
v2 v2 1

El autovector asociado a λ2 = 2 es dado por


!
−1
w=
1

Observe que !
1 −1
det =2>0
1 1

• Los vectores ortonormales son

√1 − √12
! !
v 2 w
u1 = kvk = √1
y u2 = kwk = √1
2 2
230 CAPÍTULO 9. TEOREMA ESPECTRAL Y FORMAS CUADRÁTICAS

• La matriz ortogonal
√1 − √12
!
P = (u1 u2 ) = 2
√1 √1
2 2

• Hacer el cambio de variable


√1 − √12 √1 x0 √1 y 0
! ! ! ! !
x x0 2 x0 2
− 2
=P = =
y y0 √1
2
√1
2
y0 √1 x0
2
+ √1 y 0
2

• Reemplazando en la ecuación inicial, obtenemos


√ √
0 = 3x2 + 2xy + 3y 2 − 2 2x + 2 2y − 2
√  1 1

= λ1 (x0 )2 + λ2 (y 0 )2 − 2 2 √ x0 − √ y 0
2 2
√  1 0 1 0

+2 2 √ x + √ y − 2
2 2
= 4(x ) + 2(y ) − 2x0 + 2y 0 + 2x0 + 2y 0 − 2
0 2 0 2

= 4(x0 )2 + 2(y 0 )2 + 4y 0 − 2

• Completando cuadrados

0 = 4(x0 )2 + 2(y 0 )2 + 4y 0 − 2
= 4(x0 )2 + 2[(y 0 )2 + 2y 0 ] − 2
= 4(x0 )2 + 2[(y 0 + 1)2 − 1] − 2
= 4(x0 )2 + 2(y 0 + 1)2 − 4

De aquí,
(y 0 + 1)2
(x0 )2 + =1
2
• El gráfico!corresponde a una elipse en el plano x0 y 0 , donde el eje x0 esta en la dirección de
1 1
!
√ −√
u1 = √12 y el eje y 0 esta en la dirección de u2 = √1 2
2 2

y x0
y0

x
9.3. CÓNICAS INCLINADAS 231

Ejemplo 9.3.2:

Determine el tipo de superficie de la siguiente ecuación


√ √
16x2 + 10y 2 + 10z 2 + 8xy − 8xz + 16yz + 180 5y + 180 5z + 450 = 0

Solución.
• Identificamos la matriz asociada a la parte cuadrática
 
16 4 −4
A =  4 10 8 
 
−4 8 10

• El polinomio característico es

λ − 16 −4 4

pA (λ) = |λI − A| = −4 λ − 10 −8


−8 λ − 10

4

λ − 16 0 4

= −4 λ − 18 −8

λ − 18 λ − 10

4

λ − 16 0 4

= −4 λ − 18 −8

λ−2

8 0

λ − 16 4
= (λ − 18)

8 λ−2


= (λ − 18)2 λ

• Los autovalores son

λ1 = 18 y λ2 = 0.

• Autovectores para λ1 = 18.


    
−2 4 −4 v1 0
(18I − A)v = 0 −→  4 −8 8  v2  = 0
    
−4 8 −8 v3 0
−→ v1 = 2v2 − 2v3
       
v1 2v2 − 2v3 2 −2
−→ v2  =  v2  = v2 1 + v3  0 
       
v3 v3 0 1
Los autovectores asociados a λ1 = 18 son dados por
   
2 −2
~v1 = 1 y ~v2 =  0  .
   
0 1
232 CAPÍTULO 9. TEOREMA ESPECTRAL Y FORMAS CUADRÁTICAS

• Apliquemos el proceso de Gram-Schmidt:


 
2
Paso 1: w1 = ~v1 = 1
 
0
Paso 2: El segundo vector es
   
* −2 2 +
 0  , 1
       
−2 1 0 2
h~v2 , w1 i
w2 = ~v2 − w1 =  0 − 1
   
kw1 k2 2 2

1 0
1


0
     
−2 2 −2/5
(−4)  
=  0 − 5 1 =  4/5 
   
1 0 1

• Normalizemos los vectores w1 y w2 :


 
− √25 − √245
 
w1 w2 √4
√1
 
u1 = = y u2 = =
  
kw1 k 5

kw2 k  45 
0 √5
45

• Autovector para λ2 = 0.
    
−16 −4 4 z1 0
(0 · I − A)z = 0 −→  −4 −10 −8  z2  = 0
    
4 −8 −10 z3 0
(
2z1 − z3 = 0
−→
z2 + z3 = 0
     
z1 z3 /2 1
z3  
−→ z2  =  −z3  = −2
   
2
z3 z3 2

El autovector asociado a λ2 = 0 es dado por


   
1
1
z  32 
z = −2 =⇒ u3 = = − 3 
 
kzk 2
2 3

• La matriz de paso ortogonal es


 
√2 − √245 1
3
 15
√4 − 32 

P = (u1 u2 u3 ) = √
 5 45 ,
0 √5 2
45 3
9.3. CÓNICAS INCLINADAS 233

la cual satisface que  


18 0 0
P T AP = D =  0 18 0
 
0 0 0

• Hacer el cambio de variable


     2x0 2y 0 z0

√2 − √245 1 √ − √ +
   
x x0  15 3
0
 x0   x0 5 45 3
√4 4y 0 2z 0 
y  = P y 0  = − 32 

    √
 5 45   y  = √ + √
 5 45
− 3 
z z0 0 √5 2
3
z0 5y 0
√ + 2z 0
45 45 3

• Reemplazando en la ecuación inicial, obtenemos


√ √
0 = 16x2 + 10y 2 + 10z 2 + 8xy − 8xz + 16yz + 180 5y + 180 5z + 450
√  x0 4y 0 2z 0
 √  5y 0 2z 0

= 18(x0 )2 + 18(y 0 )2 + 0(z 0 )2 + 180 5 √ + √ − + 180 5 √ + + 450
5 45 3 45 3
720y 0 360z 0 900y 0 360z 0
= 18(x0 )2 + 18(y 0 )2 + 180x0 + − + + + 450
3 3 3 3
= 18(x0 )2 + 18(y 0 )2 + 180x0 + 540y 0 + 450

• Completando cuadrados

0 = 18(x0 )2 + 18(y 0 )2 + 180x0 + 540y 0 + 450


= 18[(x0 )2 + 10x0 ] + 18[(y 0 )2 + 30y 0 ] + 450
= 18[(x0 + 5)2 − 25] + 18[(y 0 + 15)2 − 225] + 450
= 18(x0 + 5)2 −  + 18(y 0 + 15)2 − 4050 + 
450 450


De aquí,
(x0 + 5)2 + (y 0 + 15)2 = 152

• El gráfico corresponde a un cilindro circular de radio 15 en el espacio x0 y 0 z 0 , con eje z 0 .

z
z0

y0

x0
234 CAPÍTULO 9. TEOREMA ESPECTRAL Y FORMAS CUADRÁTICAS

9.4. Ejercicios propuestos: Diagonalización ortogonal y


Formas cuadráticas
1. Encuentre la matriz ortogonal P que diagonaliza la matriz simétrica dada. Después verifique que
P T AP = D es una matriz diagonal cuyas componentes son los autovalores de A.
!  
3 2 3 −2 4
a) A =
2 3 f ) A = −2 6 2
 

! 4 2 3
3 −1  
b) A = 5 1 1
−1 3
g) A = 1 5 1
 
1 1 5
!
3 4
c) A =
4 −3
 
−7 24 0 0
   24 7 0 0
1 −1 −1 h) A = 
 
 0 0 25 0 

d) A = −1 1 −1
 
0 0 0 25
−1 −1 1  
  4 1 1 0
6 −2 −1 1 4 1 0
i) A = 
 
e) A = −2 6 −1 1 1 4 0
  
−1 −1 5 0 0 0 6

2. En cada uno de los siguientes items determine que tipo de forma cuadrática se trata.

a) Q(x, y) = 4x2 + 2xy + 2y 2


b) Q(x, y) = x2 + 9y 2 + 6xy
c) Q(x, y) = x2 + 8y 2 + 6xy
d) Q(x, y, z) = 8x2 + 36yz − 6y 2 − 27z 2 − 24xy
e) Q(x, y, z) = 5x2 + 2xy + 5y 2 + 2xz + 2yz + 5z 2
f ) Q(x, y, z) = 25x2 + 20xy + 4xz + 22y 2 + 16yz + 16z 2

3. Determine el tipo de cónica y haga un esbozo del gráfico dado por las siguientes ecuaciones.

a) 3x2 + 2xy + 3y 2 − 2x = 0
b) 4x2 + 4xy + y 2 − x = 0
c) xy + x + y = 0
√ √
d) 4xy + 3y 2 + 2 5x + 4 5y = 0
e) x2 + xy + y 2 = 6
f ) x2 + 4xy + y 2 + 6x − 9y = 9
√ √
g) 5x2 + 6xy + 5y 2 + 12 2x − 4 2y = 6
√ √
h) 3x2 + 2xy + 3y 2 + 3 2x − 2 2y + 2 = 0
√ √
i) 7x2 − 12xy − 2y 2 + 8 5x − 4 5y + 5 = 0
9.4. EJERCICIOS PROPUESTOS: DIAGONALIZACIÓN ORTOGONAL Y FORMAS CUADRÁTICAS2

4. Determine el tipo de superficie en cada una de las siguientes ecuaciones:

a) 5x2 + 6y 2 + 7z 2 − 4xy − 4yz − 18x − 12y + 6z − 18 = 0


b) x2 − y 2 + 4xz + 4yz + 8x − 211z + 12 = 0
c) x2 − 2y 2 + z 2 + 4xy − 8xz − 4yz + 4x + 8y − 10z − 3 = 0
d) x2 + y 2 + z 2 − 2xy + 2xz − 2yz − 4x + 4y − 4z + 1 = 0
236 CAPÍTULO 9. TEOREMA ESPECTRAL Y FORMAS CUADRÁTICAS
Índice alfabético
***

Autoespacio asociado a un autovalor, 132 Forma cuadrática definida negativa, 223


Autovalor de un operador lineal, 137 Forma cuadrática definida positiva, 223
Autovalor de una matriz, 127 Forma cuadrática indefinida, 223
Autovector de un operador lienal, 137 Forma cuadrática semi-definida negativa, 223
Autovector de una matriz, 127 Forma cuadrática semi-definida positiva, 223
Formas bilineales, 191
Base, 59 Formas cuadráticas, 221
Base ortogonal, 199 Formas Sesquilineales, 195
Bloque de Jordan, 166
Imagen de una transformación lienal, 98
Cónicas inclinadas (rotadas), 227 Intersección de subespacios, 35
Combinación Lineal, 25 Inversa de una transformación lineal, 110
Combinación lineal, 25
Composición de transformaciones lineales, 92 Linealmente dependiente (L.D.), 51
Conjunto generado por vectores, 28 Linealmente independiente (L.I.), 51
Conjunto generador, 28
Matrices semejantes, 145
Conjunto generador de un espacio vectorial, 29 Matriz cambio de base, 71
Conjunto linealmente independiente (L.I.), 51 Matriz de paso, 145
Conjunto ortogonal, 199 Matriz ortogonal, 217
Conjunto ortonormal, 199 Matriz representativa de una transformación
lineal, 116
Descomposición QR, 203
Multiplicidad algebraica, 131
Diagonalización, 147
Multiplicidad geométrica, 134
Diagonalización ortogonal, 217
Dimensión, 61 Núcleo de una transformación lineal, 97
Norma asociada a un producto interno, 198
Ecuación característica, 128
Nulidad, 97
Ecuaciones normales, 208
Espacio de funciones, 13 Operador lineal, 137
Espacio de matrices, 12 Operadores lineales diagonalizables, 153
Espacio de polinomios de grado ≤ k, 12
Espacio Euclideano, 11 Polinomio característico, 128
Espacio Vectorial, 8 Polinomio característico de un operador lineal,
137
Forma canónica de Jordan, 166 Polinomio minimal, 159

237
238 ÍNDICE ALFABÉTICO

Problema de mínimos cuadrados, 207 Teorema de Cayley-Hamilton, 158


Proceso de Gram-Schmidt, 200 Teorema de Jordan, 166
Producto interno (real), 189 Teorema de la dimensión, 99
Producto Interno Hermitiano (o Complejo), 194 Teorema Espectral, 218
Proyección ortogonal de un vector sobre otro, Transformación Lineal, 81
199 Transformaciones lineales biyectivas, 110
Proyección ortogonal sobre subespacios, 200 Transformaciones lineales invertibles, 110
Rango, 98 Transformaciones lineales inyectivas, 106
Transformaciones lineales sobreyectivas, 108
Subespacio Vectorial, 17
Suma de subconjuntos, 38
Suma de subespacios, 39 Vector de coordenadas, 68
Suma directa, 42 Vectores ortogonales, 198
Bibliografía
***
[1] David C. Lay, Algebra lineal y sus aplicaciones, 5ta edición. Pearson México, 2016.

[2] S. Grossman and J. J. Flores G., Álgebra Lineal, 7ma edición. McGraw-Hill, 2012.

[3] Ben Noble, James W. Daniel, Álgebra Lineal Aplicada, Tercera edición. Prentice Hall, 1989.

[4] B. Kolman and D. R. Hill, Álgebra Lineal Aplicada, Octava edición. Pearson Prentice Hall,
2006.

[5] F. U. Coelho e M. L. Lourenço, Um Curso de Álgebra Linear, Editorial USP.

[6] H. P. Bueno, Álgebra Linear, Um segundo curso, Textos Universitários SBM.

239

También podría gustarte