0% encontró este documento útil (0 votos)
17 vistas29 páginas

Introducción a Matrices y Determinantes

Este documento introduce conceptos básicos sobre matrices, incluyendo definiciones de matriz, operaciones como suma y multiplicación de matrices, y tipos especiales de matrices como simétricas y triangulares. También presenta la noción de traspuesta de una matriz.

Cargado por

rostannazarena
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
17 vistas29 páginas

Introducción a Matrices y Determinantes

Este documento introduce conceptos básicos sobre matrices, incluyendo definiciones de matriz, operaciones como suma y multiplicación de matrices, y tipos especiales de matrices como simétricas y triangulares. También presenta la noción de traspuesta de una matriz.

Cargado por

rostannazarena
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Matrices y determinantes

Andrés Abella

10 de abril de 2023
Capı́tulo 1

Matrices y determinantes

Los temas de este capı́tulo tienen aplicaciones en diversas áreas de la matemática, en particular en las
transformaciones lineales que veremos más adelante. El final del capı́tulo contiene aplicaciones a sistemas
de ecuaciones. En lo que sigue k es un cuerpo arbitrario.

1.1. Matrices
Una matriz es una tabla de números, por ejemplo
 
√2 −3 1/5
2 0 −1

es una matriz 2 × 3 (tiene 2 filas y 3 columnas)1 . En general una matriz 2 × 3 tiene la forma
 
a b c
d e f
con a, b, . . . , f números arbitrarios. Para matrices de tamaño relativamente grande es preferible usar subı́ndi-
ces en vez de letras distintas. Por ejemplo, la matriz anterior se escribe
 
a11 a12 a13
a21 a22 a23
con aij ∈ k, para todo i = 1, 2, j = 1, 2, 3. Notar que en la notación aij , el ı́ndice i indica la fila y el ı́ndice
j la columna, en las cuales está el elemento. Generalizando el ejemplo anterior, dados dos enteros positivos
m y n, diremos que una matriz m × n es una tabla de números de la forma
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= . ..  ,
 
..
 .. . . 
am1 am2 · · · amn
en la cual los aij son elementos de k, para todo i = 1, . . . , m y j = 1, . . . , n. Observar que una matriz m × n
tiene m filas y n columnas. Los elementos aij se llaman los coeficientes o entradas de la matriz. En general
una matriz m × n la escribiremos de la forma A = (aij )m×n y cuando no dé lugar a confusión usaremos la
notación abreviada A = (aij ). Si A es una matriz m × n, entonces a diremos que m × n es el tamaño de A.
Al conjunto de las matrices m × n con coeficientes en k lo escribiremos Mm×n (k) o simplemente Mm×n .
1
Notar que 2 × 3 es solo una notación y no se refiere a un producto.

1
Observación 1.1.1. Si queremos formalizar la definición de matriz, podemos hacer lo siguiente. Para cada
entero positivo n, consideremos el conjunto In = {1, 2, . . . , n} y para cada par de enteros positivos m, n
consideremos el producto cartesiano Im × In . Notar que dada una matriz A = (aij )m×n , podemos definir
una función A : Im × In → k mediante A(i, j) = aij , para todo (i, j) ∈ Im × In . Recı́procamente, dada una
función A : Im × In → k, le podemos asociar una matriz A = (aij )m×n , definiendo aij = A(i, j), para todo
(i, j). Luego tenemos una correspondencia uno a uno entre matrices y funciones, y por lo tanto podemos
definir las matrices m × n como las funciones de Im × In en k. Como esta formalización no aporta nada
nuevo, en lo que sigue continuaremos pensando las matrices como tablas de números y no como funciones.
Una matriz columna es una matriz m × 1 y una matriz fila es una matriz 1 × n:
 
a11
 a21  
 ..  matriz columna; a11 a12 · · · a1n matriz fila.
 
 . 
am1

Decimos que dos matrices A = (aij )m×n y B = (bij )r×s son iguales y escribimos A = B si tienen la misma
cantidad de filas, la misma cantidad columnas y coinciden coeficiente a coeficiente, es decir, si m = r, n = s
y aij = bij , para todo i, j.
Una matriz se dice cuadrada si tiene el mismo número de filas que de columnas, es decir si es de la forma
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= . ..  .
 
..
 .. . . 
an1 an2 · · · ann

Para simplificar, al conjunto Mn×n (k) de matrices cuadradas n × n lo escribiremos Mn (k) o Mn . Si A ∈ Mn ,


entonces diremos que A es una matriz cuadrada de orden n. Si A = (aij ) es una matriz cuadrada de orden
n, entonces la diagonal principal de A es la n-upla (a11 , a22 , . . . , ann ). La matriz identidad In es la matriz
cuadrada de orden n que tiene el valor 1 en la diagonal principal y 0 en el resto
 
1 0 ··· 0
0 1 · · · 0
In =  . . . ,
 
 .. .. . . ... 

0 0 ··· 1

Si introducimos el sı́mbolo δij , llamado la delta de Kronecker, definido por


(
1 si i = j,
δij = ,
0 si i ̸= j

entonces In = (δij )n×n . Cuando no de lugar a confusión, escribiremos simplemente I en vez de In .


Hay ciertos tipos de matrices cuadradas que aparecen con frecuencia y reciben nombres particulares. Si
A = (aij ) es una matriz cuadrada, entonces decimos que A es
simétrica si aij = aji , para todo i, j (es simétrica respecto a la diagonal principal).

antisimétrica si aij = −aji , para todo i, j.

triangular superior si aij = 0, para todo i > j (las entradas abajo de la diagonal principal son nulas).

2
triangular inferior si aij = 0, para todo i < j (las entradas arriba de la diagonal principal son nulas).
diagonal si aij = 0, para todo i ̸= j (las entradas fuera de la diagonal principal son nulas).
Observación 1.1.2. En las matrices simétricas y en las antisimétricas importa el cuerpo k, dado que en un
cuerpo arbitrario puede ser a = −a, para todo a ∈ k (por ejemplo en el cuerpo k = {0, 1} formado por solo dos
elementos). En ese caso las matrices antisimétricas coinciden con las simétricas y aparecen complicaciones.
Por esa razón en los ejemplos con matrices simétricas o antisimétricas siempre impondremos que el cuerpo
sea R, aunque lo mismo valdrı́a en cuerpos donde no pase lo antes mencionado (por ejemplo, en Q o C). En
particular, notar que si A = (aij ) ∈ Mn (R) es antisimétrica, entonces vale aii = 0, para todo i = 1, . . . , n.
A continuación veremos operaciones que se pueden realizar con matrices y sus propiedades.

Trasposición. Si A ∈ Mm×n , entonces su traspuesta es la matriz At ∈ Mn×m obtenida intercambiando


las filas con las columnas de A, es decir, si A = (aij ), entonces At = (bij ) en que bij = aji , para todo i, j.
Los siguientes resultados son fáciles de verificar.
Para toda matriz A es (At )t = A.
Uma matriz A es simétrica si y solo si At = A.
Uma matriz A es antisimétrica si y solo si At = −A.
Uma matriz A es triangular superior si y solo si At es triangular inferior.

Suma y producto por un escalar. Las operaciones de suma y producto por un escalar que vimos en
R2 y R3 se generalizan naturalmente a kn = {(x1 , . . . , xn ) : x1 , . . . , xn ∈ k}, n entero positivo arbitrario,
definiendo
a(x1 , . . . , xn ) := (ax1 , . . . , axn ), (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
para todo a ∈ k, (x1 , . . . , xn ), (y1 , . . . , yn ) ∈ kn . A su vez estas operaciones las podemos generalizar a una
suma y producto por un escalar en Mm×n definiendo
   
a11 a12 · · · a1n ca11 ca12 · · · ca1n
 a21 a22 · · · a2n   ca21 ca22 · · · ca2n 
c . ..  =  .. ..  , c ∈ k;
   
. .. ..
 . . .   . . . 
am1 am2 · · · amn cam1 cam2 · · · camn
     
a11 a12 · · · a1n b11 b12 · · · b1n a11 + b11 a12 + b12 · · · a1n + b1n
 a21 a22 · · · a2n   b21 b22 · · · b2n   a21 + b21 a22 + b22 · · · a2n + b2n 
..  +  .. ..  =  .
     
 .. .. .. .. .. ..
 . . .   . . .   . . . 
am1 am2 · · · amn bm1 bm2 · · · bmn am1 + bm1 am2 + bm2 · · · amn + bmn
En notación abreviada, si A = (aij ) y B = (bij ) entonces cA = (dij ) y A + B = (eij ), siendo dij := caij y
eij := aij + bij , para todo i, j. La matriz nula de tamaño m × n es la matriz que tiene todas sus entradas
nulas. Usamos el sı́mbolo 0 para denotar a la matriz nula2 . Si A = (aij ) ∈ Mm×n , entonces su opuesta es la
matriz −A = (bij ) ∈ Mm×n , definida por bij := −aij , para todo i, j. Por ejemplo, en matrices 2 × 3 es
     
0 0 0 2 −3 0 −2 3 0
0= , − = .
0 0 0 −5 1 2 5 −1 −2
2
El uso del sı́mbolo 0 (el del número cero) para la matriz nula es un poco confuso al principio, pero es lo usual y resulta
cómodo en su uso. Observar que hay una matriz nula para cada tamaño m × n.

3
La prueba del siguiente resultado es directa y queda como ejercicio.
Proposición 1.1.3. La suma y el producto por un escalar verifican las siguientes propiedades.
1. A + B = B + A, para todo A, B ∈ Mm×n (conmutativa).
2. A + (B + C) = (A + B) + C, para todo A, B, C ∈ Mm×n (asociativa).
3. A + 0 = 0 + A = A, para todo A ∈ Mm×n (existencia de neutro).
4. A + (−A) = (−A) + A = 0, para todo A ∈ Mm×n (existencia de opuesto).
5. 1u = A, para todo A ∈ Mm×n .
6. c(A + B) = cA + cB, para todo c ∈ k, A, B ∈ Mm×n .
7. (b + c)A = bA + cA, para todo b, c ∈ k, A ∈ Mm×n .
8. b(cA) = (bc)A, para todo b, c ∈ k, A ∈ Mm×n .
Observaciones 1.1.4. 1. Las propiedades anteriores son las mismas que verifica R3 con la suma y el
producto por escalares.
2. Una n-upla (x1 , x2 , . . . , xn ) es esencialmente lo mismo que una matriz fila 1 × n, luego podemos
identificar kn con M1×n (k), y por lo tanto en kn valen también las propiedades anteriores.

Producto de matrices. Si A = (aij ) ∈ Mm×n y B = (bij ) ∈ Mn×p , entonces su producto es la matriz


AB = (cij ) ∈ Mm×p , en la cual el coeficiente cij está definido por
n
X
cij := ai1 b1j + ai2 b2j + · · · + ain bnj = aik bkj , (1.1)
k=1

para todo i = 1, . . . , m y j = 1, . . . , p. Para recordar esta fórmula, es útil armar el siguiente diagrama
 
· · · bij · · ·
 .. 
 . 
 · · · bnj · · ·
.. .. ..

 . .   . 
ai1 · · · ain  · · · cij · · ·
.. .. ..
   
. . .

El elemento cij se obtiene haciendo una especie de “producto escalar” del vector fila (ai1 , · · · , ain ) por el
vector columna (bij , · · · , bnj ). Notar que para poder multiplicar A por B, es necesario que el número de
columnas de A coincida con el de filas de B.
 
  0 2
1 2 3
Ejemplo 1.1.5. Si A = y B = 1 0, entonces su producto se calcula mediante
4 5 6
5 3
 
0 2
1 0   
17 11
5 3 ⇒ AB = .
    35 26
1 2 3 1×0+2×1+3×5 1×2+2×0+3×3
4 5 6 4×0+5×1+6×5 4×2+5×0+6×3

4
El siguiente ejemplo muestra varias particularidades del producto de matrices.
     
1 1 2 1 3 0
Ejemplo 1.1.6. Si consideramos las matrices A = ,B= yC= , entonces
−2 −2 6 3 5 4
   
8 4 0 0
AB = AC = , BA = .
−16 −8 0 0

Notar que

es AB ̸= BA, luego el producto de matrices no es conmutativo;

es BA = 0, pero AB ̸= 0;

es BA = 0, siendo A ̸= 0 y B ̸= 0.

es AB = AC, con A ̸= 0 y B ̸= C. Luego no vale la propiedad cancelativa del producto.

Proposición 1.1.7. Propiedades del producto de matrices.

1. A(BC) = (AB)C, para todo A ∈ Mm×n , B ∈ Mn×p , C ∈ Mp×q (asociativa).

2. A(B + C) = AB + AC, para todo A ∈ Mm×n , B ∈ Mn×p , C ∈ Mn×p (distributiva).

3. (A + B)C = AC + BC, para todo A ∈ Mm×n , B ∈ Mm×n , C ∈ Mn×p (distributiva).

4. AIn = Im A = A, para todo A ∈ Mm×n .

5. A0 = 0A = 0, para todo A ∈ Mm×n , siendo cada 0 una matriz nula de tamaño adecuado.

6. A(cB) = (cA)B = c(AB), para todo A ∈ Mm×n , B ∈ Mn×p y c ∈ k.

Dem. Todas estas propiedades se prueban de forma similar, ası́ que solo demostraremos la propiedad
asociativa dejando las otras pruebas como ejercicio.
Sean A = (aij ) ∈ Mm×n , B = (bij ) ∈ Mn×p y C = (cij ) ∈ Mp×q . Escribamos

AB = (xij ) ∈ Mm×p , (AB)C = (yij ) ∈ Mm×q , BC = (zij ) ∈ Mn×q , A(BC) = (tij ) ∈ Mm×q .

Luego aplicando reiteradamente la fórmula (1.1) obtenemos


p p n p X
n
!
X X X X
yij = xih chj = aik bkh chj = aik bkh chj ,
h=1 h=1 k=1 h=1 k=1
p p p p X p
!
X X X X
tij = aik zkj = aik bkh chj = aik bkh chj .
k=1 k=1 h=1 k=1 h=1
Pp Pp
Como el orden en que sumamos no altera el resultado, podemos intercambiar las sumatorias k=1 y h=1
y por lo tanto es yij = tij , para todo i, j, es decir (AB)C = A(BC).
Observaciones 1.1.8. 1. La propiedad asociativa permite escribir ABC = (AB)C = A(BC) y en general
escribir A1 · · · An para un producto de n matrices (que se puedan multiplicar).

2. El único caso en que dadas dos matrices A y B, podemos calcular A + B y AB, es cuando A y B son
dos matrices cuadradas del mismo orden.

5
3. El producto de matrices diagonales es particularmente simple
     
a11 0 · · · 0 b11 0 · · · 0 a11 b11 0 ··· 0
 0 a22 · · · 0   0 b22 · · · 0   0 a b
22 22 · ·· 0 
· = .
     
 .. .. .. .
..   ..
  . .
.. .. .
..   ..
  . .
.. .. ..
 . . . . . . 
0 0 · · · ann 0 0 · · · bnn 0 0 ··· ann bnn
Notar que en la fórmula anterior usamos un punto (·) para el producto, porque aquı́ queda más claro
que la yuxtaposición. Esa notación la seguiremos usando cuando resulte conveniente.
La siguiente proposición describe la relación entre la trasposición y las operaciones anteriores.
Proposición 1.1.9. Valen las siguientes propiedes.
1. (A + B)t = At + B t y (cA)t = cAt , para todo A, B ∈ Mm×n y c ∈ k.
2. (AB)t = B t At , para todo A ∈ Mm×n y B ∈ Mn×p .
Dem. Probaremos solo la tercera propiedad, dejando la prueba de las otras como ejercicio.
Sean A = (aij ) ∈ Mm×n y B = (bij ) ∈ Mn×p . Entonces At = (αij ) ∈ Mn×m y B t = (βij ) ∈ Mp×n , siendo
αij = aji y βij = bji , para todo i, j. Luego
n
X n
X n
X
t t
AB = (cij ), cij = aik bkj ; B A = (ηij ), ηij = βik αkj = bki ajk .
k=1 k=1 k=1

Entonces
n
X n
X
(AB)t = (γij ), γij = cji = ajk bki = bki ajk = ηij , ∀i, j ⇒ (AB)t = B t At .
k=1 k=1

Potencias. Si A ∈ Mn y k ∈ N, entonces definimos la potencia k-ésima Ak de A mediante: A0 = I (la


matriz identidad) y Ak+1 = Ak A, para todo k ∈ N. Es decir, A0 = I, A1 = A, A2 = AA, A3 = AAA, etc.
Las potencias de matrices verifican algunas de las propiedades de las potencias de los números reales, por
ejemplo, es fácil de probar que valen An Am = An+m y (An )m = Anm , para todo n, m ∈ N. Las propiedades
que involucran matrices distintas no suelen ser válidas, por ejemplo, en general es (AB)n ̸= An B n , aunque
si A y B conmutan, entonces vale (AB)n = An B n para todo n.

Invertibilidad. Decimos que una matriz cuadrada A ∈ Mn es invertible si existe una matriz B ∈ Mn tal
que AB = BA = I (la matriz identidad).
Proposición 1.1.10. Sea A ∈ Mn . Si existen B, C ∈ Mn tales que AB = CA = I, entonces B = C y por
lo tanto A es invertible.
Dem. La tesis se obtiene del cálculo siguiente: C = CI = C(AB) = (CA)B = IB = B.
Corolario 1.1.11. Si A ∈ Mn es invertible, entonces la matriz B ∈ Mn que verifica AB = BA = I es
única.
Dem. Si dos matrices B, C ∈ Mn verifican AB = BA = I y AC = CA = I, entonces es AB = CA = I y se
aplica la proposición anterior.
Por el corolario anterior, si A ∈ Mn es invertible entonces existe una única B ∈ Mn tal que AB = BA = I;
esta matriz B se llama la inversa de A y se escribe B = A−1 . Luego la inversa de A (en caso de existir)
queda caracterizada por ser la única matriz que verifica AA−1 = A−1 A = I.

6
Ejemplos 1.1.12. 1. La matriz identidad I verifica I 2 = I, luego I es invertible y I −1 = I.

2. La matriz nula 0 ∈ Mn verifica 0B = B0 = 0, para toda B ∈ Mn . Luego 0 no puede ser invertible.


Proposición 1.1.13. 1. Si A, B ∈ Mn son invertibles, entonces AB es invertible y (AB)−1 = B −1 A−1 .
−1
2. Si A es invertible, entonces A−1 es invertible y A−1 = A.
Dem. Si A, B ∈ Mn son invertibles, entonces

(AB) B −1 A−1 = ABB −1 A−1 = AIA−1 = AA−1 = I,




B −1 A−1 (AB) = B −1 A−1 AB = B −1 IB = B −1 B = I.




Esto prueba la primera afirmación. Para la segunda, la matriz A−1 verifica AA−1 = A−1 A = I; luego (por
definición) A−1 es invertible y su inversa es A.
Proposición 1.1.14. Supongamos que A ∈ Mn es invertible.
1. Si B, C ∈ Mn×p , entonces AB = C si y solo si B = A−1 C.

2. Si B, C ∈ Mp×n , entonces BA = C si y solo si B = CA−1 .


Dem. Para la primera equivalencia, multiplicando por la izquierda obtenemos

si AB = C ⇒ A−1 AB = A−1 C ⇒ IB = A−1 C ⇒ B = A−1 C,


si B = A−1 C ⇒ AB = AA−1 C ⇒ AB = IC ⇒ AB = C.

La prueba de la segunda equivalencia es análoga y queda como ejercicio.


El siguiente resultado es una aplicación directa de la proposición anterior y muestra que vale la propiedad
cancelativa del producto, con la condición de que la matriz que multiplica a ambos lados sea invertible.
Corolario 1.1.15. Supongamos que A ∈ Mn es invertible.
1. Si AB = 0 o BA = 0, entonces B = 0.

2. Si AB = AC o BA = CA, entonces B = C.
En lo anterior se entiende que B y C tienen tamaños adecuados para poder multiplicarse por A.
El siguiente resultado permite determinar si una matriz de orden 2 es invertible y hallar su inversa.

Proposición 1.1.16. Una matriz A = ac db es invertible si y solo si ad − bc ̸= 0. En caso afirmativo, la
inversa de A es  
−1 1 d −b
A = .
ad − bc −c a
Dem. Para lamatriz nula el resultado es obvio, ası́ que supondremos A ̸= 0. Definimos ∆ = ad − bc
d −b
y à = −c a . Operando obtenemos Aà = ÃA = ∆I, con A y à no nulas. Si ∆ = 0, entonces es
Aà = ÃA = 0 con à ̸= 0; luego el corolario 1.1.15 implica que A no es invertible. Si ∆ ̸= 0, entonces de
AÃ = ÃA = ∆I, deducimos    
A ∆−1 Ã = ∆−1 Ã A = I.

Luego A es invertible (por definición) y su inversa es ∆−1 Ã.


A continuación veremos un par de casos en los que es fácil determinar la invertibilidad.

7
Proposición 1.1.17. 1. Si una matriz tiene una fila o columna formada solo por ceros, entonces no es
invertible.

2. Una matriz diagonal es invertible si y solo si todas las entradas de la diagonal principal son no nulas.
En ese caso es  −1  −1 
a11 0 · · · 0 a11 0 ··· 0
 0 a22 · · · 0   0 a−1 · · · 0 
22
= ..  .
   
 .. .. ..   .. ..
 . . .   . . . 
0 0 · · · ann 0 0 · · · ann −1

Dem. Sean A, B ∈ Mn . Si A tiene una fila de ceros, entonces AB también tiene una fila de ceros y si B
tiene una columna de ceros, entonces AB también tiene una columna de ceros; luego en ninguno de estos
casos puede ser AB = I. La segunda afirmación se deduce de la anterior y de la fórmula para el producto
de matrices diagonales.
Pn
La traza. Si A = (aij ) ∈ Mn , entonces definimos su traza mediante tr(A) := i=1 aii . La siguiente
proposición resume las propiedades de la traza.

Proposición 1.1.18. Sean A, B ∈ Mn y c ∈ k. Valen las siguientes propiedades.

1. tr At = tr(A).


2. tr(A + B) = tr(A) + tr(B) y tr(cA) = c · tr(A).

3. tr(AB) = tr(BA).

4. Si P ∈ Mn es invertible, entonces tr P AP −1 = tr(A).




Dem. La prueba de las dos primeras propiedades es simple y queda como ejercicio. Consideremos P la tercera.
Sean A = (aij ) y B = (bij ). Entonces AB = (cij ) y BA = (dij ), siendo cij = nk=1 aik bkj y dij = nk=1 bik akj ,
P
para todo i, j. Luego
n
X n X
X n n
X n X
X n n X
X n
tr(AB) = cii = aik bki y tr(BA) = dii = bik aki = aki bik .
i=1 i=1 k=1 i=1 i=1 k=1 i=1 k=1

Si se intercambian los nombres de i con k en la última sumatoria, se obtiene tr(AB) = tr(BA). Para probar
la cuarta propiedad, escribimos Q = AP −1 y aplicamos la tercera propiedad

tr P AP −1 = tr(P Q) = tr(QP ) = tr AP −1 P = tr(A).


 

Observación 1.1.19. Notar que la propiedad 3 nos dice que vale tr(AB) = tr(BA), aun cuando AB ̸= BA.

8
1.2. Operaciones elementales
Se llaman operaciones elementales en una matriz a las siguientes.

Operación de tipo I : intercambiar dos filas o columnas.

Operación de tipo II : multiplicar una fila o columna por una constante no nula.

Operación de tipo III : sumarle a una fila o columna un múltiplo de otra fila o columna, respectivamente.

Se llaman matrices elementales de tipo I, II o III a las matrices que se obtienen aplicando las operaciones
elementales correspondientes a la matriz identidad.
 
1
 
1
 ..   ..

 . 
  .


0 · · · 1
 
1
   
 
Tipo I:  .
.. . . . ... 
p

 , 0 ̸= p ∈ k;
 ; Tipo II: 
  

1
 
1 · · · 0
   
 
.
 

 . ..   
 . . 

1 1
   
1 1
 ..   .. 

 . 


 . 


 1 ··· q 


 1 

.. .. .. . .
Tipo III:  o  , q ∈ k.
   
 . . 


 . . 

 1 


 q ··· 1 

 ..   .. 
 .   . 
1 1

Proposición 1.2.1. Realizar una operación elemental de tipo I, II o III en las filas (columnas) de una
matriz A, equivale a multiplicar a A por la izquierda (derecha) con una matriz elemental del mismo tipo.

Dem. La prueba es directa y queda como ejercicio.


   
1 2 3 1 0 0 0
1 1 1 0 0 1 0
Ejemplo 1.2.2. Sea A =  2 2 2 . Consideremos E1 = 0
  , matriz elemental de tipo I y
1 0 0
4 5 6 0 0 0 1
 
1 0 0
E2 = 0 1 −1, matriz elemental de tipo III. Si realizamos los productos E1 A y AE2 , obtenemos
0 0 1
   
1 2 3 1 2 1
2 2 2 1 1 0
E1 A = 
1
, AE2 =  .
1 1 2 2 0
4 5 6 4 5 1

Luego multiplicar del lado izquierdo por E1 equivale a intercambiar las filas 2 y 3, mientras que multiplicar
del lado derecho por E2 equivale a restarle a la columna 3 la columna 2.

9
Observación 1.2.3. Notar que la traspuesta de una matriz elemental, es una matriz elemental del mismo tipo.
Además, si realizar una operación elemental en las columnas de A corresponde a multiplicar por la derecha
a A con una cierta matriz elemental E, entonces realizar la misma operación en las filas de A corresponde
a multiplicar por la izquierda a A con E t .

Proposición 1.2.4. La inversa de una matriz elemental, es una matriz elemental del mismo tipo.

Dem. Para matrices de tipo I, si Mij es la matriz elemental correspondiente a la operación de intercambiar
la fila i con la j, entonces el producto Mij Mij lo que hace es intercambiar en Mij la fila i con la fila j y por
lo tanto Mij Mij = I, luego Mij es invertible y Mij−1 = Mij . La prueba para las matrices de los otros tipos
es similar y queda como ejercicio.

Equivalencia de matrices. Sean A, B ∈ Mm×n . Decimos que A es equivalente con B y escribimos


A ∼ B, si A se puede obtener realizando una serie de operaciones elementales en las filas y columnas de B.
De la proposición 1.2.1 se deduce que A ∼ B si y solo si existen matrices elementales E1 , . . . , Ek ∈ Mm y
F1 , . . . , Fh ∈ Mn tales que
A = Ek · · · E1 BF1 · · · Fh . (1.2)
Notar que si A se obtiene realizando operaciones elementales solo en las filas de B, entonces A ∼ B, dado
que si es A = Ek · · · E1 B, entonces vale A = Ek · · · E1 BF F −1 para toda matriz elemental F (que sea
multiplicable). Lo mismo sucede si A se obtiene realizando operaciones elementales en las columnas de B.

Proposición 1.2.5. La relación ∼ es de equivalencia en Mm×n , es decir verifica

A ∼ A, A ∼ B ⇒ B ∼ A, A ∼ B y B ∼ C ⇒ A ∼ C.

Dem. Ejercicio (para la primera propiedad tener en cuenta el comentario anterior, y para la segunda, tener
en cuenta que la inversa de una matriz elemental es también una matriz elemental).
Observación 1.2.6. Como las matrices elementales son invertibles, y el producto de matrices invertibles es
también una matriz invertible, entonces la fórmula (1.2) implica que la equivalencia de matrices preserva la
invertibilidad. Es decir, si A, B ∈ Mn son equivalentes, entonces A es invertible si y solo si B es invertible.
Una pregunta natural es, ¿cuál es la forma más simple que podemos obtener realizando operaciones elemen-
tales en las filas y columnas de una matriz arbitraria? La respuesta la da el siguiente teorema. Antes de
probarlo, notar que la única matriz equivalente a la matriz nula es ella misma, ası́ que el caso interesante es
cuando la matriz no es nula. La prueba del teorema requiere del lema siguiente.

Lema 1.2.7. Si A ∈ Mm×n es no nula (m, n ≥ 2), entonces existe B ∈ Mm−1,n−1 tal que3 A ∼ 10 B0 .


Dem. Sea A = (aij ). Como es A ̸= 0, entonces existen k, l tales que akl ̸= 0. Si intercambiamos la columna
1 con la columna l y luego intercambiamos la fila 1 con la fila k, obtenemos una matriz cuyo coeficiente en
el lugar (1, 1) es akl . Si ahora multiplicamos la primera fila o columna de esa matriz por a−1kl , obtenemos
una matriz C = (cij ), tal que c11 = 1 y A ∼ C. Ahora es claro que siendo c11 = 1, haciendo operaciones
elementales de tipo III se otiene una matriz como en la tesis.
Para cada terna de enteros m, n, r, con m, n ≥ 1 y 1 ≤ r ≤ mı́n{m, n}, definimos Φm,n = I0r 00 ∈ Mm×n ,

r
siendo Ir ∈ Mr la matriz identidad. En la definición anterior entendemos Φm,nm = ( Im 0 ) si n > m, Φn
m,n
=
In si m > n y Φ
 n,n
0 n = In .

3
Al escribir ( 10 B0 ) queremos decir que la fila de arriba está formada por un 1 en el primer lugar y luego el resto son ceros. Lo
mismo acurre con la primera columna.

10
Teorema 1.2.8. Si A ∈ Mm×n y A ̸= 0, entonces existe r, 1 ≤ r ≤ min{m, n}, tal que A ∼ Φm,n
r .

Dem. Haremos la prueba en etapas, considerando primero el caso m = n y luego los casos m ≥ n y m ≤ n.
I. Caso m = n. La prueba es por inducción en n. Para n = 1, es A = (a), con a ̸= 0, luego multiplicando
A por a−1 (operación elemental de tipo II) obtenemos A ∼ (1) = Φ11,1 .
Supongamos ahora que vale la tesis para matrices cuadradas de orden n − 1 (n ≥ 2) y sea A ̸= 0 unamatriz
cuadrada de orden n. Aplicando el lema 1.2.7 obtenemos que existe B ∈ Mn−1 tal que A ∼ 10 B0 . Si es
B = 0, entonces A ∼ Φn,n 1 . Si es B ̸= 0, entonces aplicando la hipótesis de inducción a B obtenemos que
n−1,n−1
. Entonces de A ∼ 0 B y B ∼ I0r 00 , deducimos A ∼ Φn,n
1 0
 
existe r, 1 ≤ r ≤ n − 1, tal que B ∼ Φr r+1 .

II. Caso m ≥ n. La prueba es por inducción en m. El caso m = n es lo que probamos en el caso anterior.
Supongamos ahora que vale la tesis para matrices de tamaño m × n con m ≥ n y sea A ̸= 0 una matriz de
tamaño (m + 1) × n. Consideremos A1 ∈ Mm×n la matriz formada por las primeras m filas de A.
Si A1 = 0, entonces A es una matriz de la forma A = B0 , siendo B ̸= 0 una matriz fila. Razonando como


en el lema 1.2.7 obtenemos B ∼ (1, 0, . . . , 0). Luego


     
0 ··· 0 0 0 ··· 0 1 0 ··· 0
 .. ..   .. .. ..  0 0 · · · 0
A=. . ∼ . . . ∼ . . ..  ,
   
 0 · · · 0  0 0 · · · 0  .. .. .
b1 · · · bn 1 0 ··· 0 0 0 ··· 0

entonces A ∼ Φ1m+1,n y se cumple la tesis.


Supongamos ahora A1 ̸= 0. Entonces aplicando a A1 la hipótesis de inducción obtenemos que existe r,
1 ≤ r ≤ min{m, n}, tal que A1 ∼ Φm,n
r . Esto implica que existen c1 , . . . , cn ∈ k tales que A ∼ C, siendo
 
1 ··· 0 0 ··· 0
 .. . . . .. .. 
. . .. . .
 
0 ··· 1 0 · · · 0 
 
C = 0 ··· 0
 0 ··· 0  .
 .. .. .. .. 
. . . .
 
0 ··· 0 0 ··· 0 
c1 · · · cr cr+1 · · · cn

Como en las primeras r filas de C hay unos en la diagonal, entonces realizando operaciones elementales de
tipo III en las filas obtenemos que A es equivalente a la matriz D obtenida poniendo c1 = · · · = cr = 0 en
la matriz C.
Si cr+1 = · · · = cn = 0, entonces A ∼ Φm+1,n
r . Si existe algún i ∈ {r + 1, . . . , n} tal que ci ̸= 0, entonces la
última fila de D es equivalente a la matriz F = (0, . . . , 0, 1, 0, . . . , 0) ∈ M1×n (el 1 está en el lugar r + 1).
Esto implica que A es equivalente a la matriz E obtenida cambiando la última fila de D por la fila F . Ahora
intercambiando en E la última fila con la fila r + 1 (operación elemental de tipo I), obtenemos A ∼ Φm+1,n r+1 .

II. Caso m ≤ n. Trasponiendo la matriz A ∈ Mm×n , obtenemos At ∈ Mn×m con n ≥ m y At ̸= 0. Luego


aplicando a At la parte anterior, obtenemos que existen matrices elementales E1 , . . . , Ek , F1 , . . . , Fh tales
que At = Ek · · · E1 Φn,m
r F1 · · · Fh , para cierto r tal que 1 ≤ r ≤ min{m, n}. Entonces

t n,m t t
A = (Ek · · · E1 Φn,m t t t t t m,n t t
r F1 · · · Fh ) = Fh · · · F1 (Φr ) E1 · · · Ek = Fh · · · F1 Φr E1 · · · Ek .

Como la traspuesta de una matriz elemental vuele a ser una matriz elemental, concluimos A ∼ Φm,n
r .

11
Nota: La relación de equivalencia ∼ parte al conjunto Mm×n en clases de equivalencia. El teorema anterior
nos dice que si h = min{m, n}, entonces hay a lo más hay h + 1 clases, que corresponden a la clase de
la matriz nula (que tiene un solo elemento) y a las clases de las matrices Φm,n r , para r = 1, . . . , h. Más
adelante, después de ver transformaciones lineales, probaremos que si r ̸= s, entonces Φm,n
r y Φm,n
s no son
equivalentes, por lo que hay exactamente h + 1 clases de equivalencia.
El teorema anterior tiene aplicaciones importantes. La primera es la siguiente.
Teorema 1.2.9. Una matriz es invertible si y solo si es producto de matrices elementales.
Dem. Para que una matriz A ∈ Mn sea invertible, tiene que ser no nula. Entonces sabemos que es A ∼ Φn,n r ,
para cierto 1 ≤ r ≤ n. Luego A es invertible si y solo si Φn,n r es invertible (observación 1.2.6); pero es claro
que Φn,n
r es invertible si y solo si r = n (si r < n, entonces en Φn,n
r hay una fila de ceros). Luego A es invertible
n,n
si y solo si A ∼ Φn = In . Esto equivale a que existen matrices elementales E1 , . . . , Ek , F1 , . . . , Fh ∈ Mn
tales que A = Ek · · · E1 In F1 · · · Fh , lo cual equivale a A = Ek · · · E1 F1 · · · Fh .
Corolario 1.2.10. Dos matrices A, B ∈ Mm×n son equivalentes si y solo si existen matrices invertibles
U, V ∈ Mn tales que A = U BV .
Observación 1.2.11. En la sección siguiente veremos una condición necesaria y suficiente para que una matriz
sea invertible y luego mostraremos cómo usar las transformaciones elementales para calcular la inversa.

1.3. Determinantes
En esta sección trabajaremos solo con matrices cuadradas.

Para motivar la definición, recordar que en la proposición 1.1.16 probamos que una matriz ac db es invertible
si y solo si ad − bc ̸= 0. Este número ad − bc es lo que se llama el determinante de la matriz.
En general, el determinante de una matriz cuadrada A ∈ Mn es un número que escribimos det(A) o |A| y
que para n = 1, 2, 3 se define por lo siguiente.

n = 1. Si A = (a), entonces det(a) := a.

a b
 a b
n = 2. Si A = c d , entonces c d := ad − bc.
 
a11 a12 a13
n = 3. Si A = a21 a22 a23 , entonces
a31 a32 a33
a11 a12 a13
a a a a a a
a21 a22 a23 := a11 22 23 − a12 21 23 + a13 21 22
a32 a33 a31 a33 a31 a32
a31 a32 a33
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 . (1.3)
Observación 1.3.1. Hay una manera de recordar la fórmula (1.3) llamada el método de Sarrus. Consiste en
construir una tabla repitiendo abajo las dos primeras filas de la matriz
a11 a12 a13
a21 a22 a23
a31 a32 a33 .
a11 a12 a13
a21 a22 a23

12
El determinante se obtiene sumando los productos de las diagonales que van de izquierda a derecha y luego
restando los productos de las diagonales que van de derecha a izquierda. El resultado queda

a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a13 a22 a31 − a23 a32 a11 − a33 a12 a21 ,

que claramente coincide con la fórmula (1.3). El método de Sarrus solo sirve para matrices 3 × 3 y no
recomendamos su aplicación. El método general que veremos más adelante es mucho más eficiente.
La fórmula general para el determinante de una matriz n × n se define recursivamente, generalizando el
método que usamos para definir la fórmula en el caso n = 3. Para la misma necesitamos introducir los
cofactores, que definimos a continuación.
Consideremos A = (aij ) una matriz de orden n. Para cada i, j = 1, . . . , n, sea Ãij la matriz de orden n − 1
obtenida suprimiendo la fila i y la columna
  j de A. El cofactor correspondiente al lugar (i, j) de la matriz
i+j
A es el número ∆ij (A) := (−1) det Ãij . En lo que sigue, para simplifcar la notación, cuando no genere
ambigüedad escribiremos ∆ij en vez de ∆ij (A).
 
a11 a12 a13
Por ejemplo, para una matriz A = a21 a22 a23  , los cofactores ∆11 , ∆12 , ∆13 y ∆21 , son
a31 a32 a33

a22 a23 a21 a23


∆11 = = a22 a33 − a23 a32 , ∆12 = − = −a21 a33 + a23 a31 ,
a32 a33 a31 a33
a21 a22 a12 a13
∆13 = = a21 a32 − a22 a31 , ∆21 = − = −a12 a33 + a13 a32 .
a31 a32 a32 a33

Notar que la fórmula (1.3) se puede escribir usando los cofactores:

a11 a12 a13


a21 a22 a23 = a11 ∆11 + a12 ∆12 + a13 ∆13 .
a31 a32 a33

Esa es la fórmula que vamos a generalizar. Si A = (aij ) ∈ Mn , entonces el determinante de A se define por
recurrencia mediante
n
X
det(A) := a1j ∆1j = a11 ∆11 + a12 ∆12 + · · · + a1n ∆1n . (1.4)
j=1

Esta fórmula escrita más explı́citamente queda

a11 a12 ··· a1n


a22 · · · a2n a21 · · · a2n a21 · · · a2,n−1
a21 a22 ··· a2n . .. − a .. .. + · · · + (−1)1+n a .. ..
.. .. .. = a11 .. . 12 . . 1n . . .
. . .
an2 · · · ann an1 · · · ann an1 · · · an,n−1
an1 an2 · · · ann

Si A es una matriz de orden n, entonces se dice que det(A) es un determinante de orden n. La fórmula anterior
nos dice que para calcular un determinante de orden n, tenemos que calcular n determinantes de orden n−1.
Luego, como sabemos calcular determinantes de orden 3, entonces podemos calcular determinantes de orden
4, sabiendo estos podemos calcular los de orden 5, y siguiendo ası́ podemos calcular determinantes de orden
n, para cualquier entero positivo n.
En general calcular determinantes requiere bastante esfuerzo, pero para las matrices diagonales es fácil.

13
Proposición 1.3.2. El determinante de una matriz es diagonal es el producto de los elementos de la diagonal
principal.
Dem. Sea A ∈ Mn una matriz diagonal. La prueba por inducción en n. El caso n = 1 es trivial. Supongamos
ahora que vale la tesis para matrices diagonales de orden n − 1, entonces
a11 0 · · · 0
a22 · · · 0
0 a22 · · · 0 .. .. ..
.. .. .. .. = a11 . . . + 0 + · · · + 0 = a11 (a22 · · · ann ) = a11 a22 · · · ann .
. . . .
0 ··· ann
0 0 ··· ann
Ejemplo 1.3.3. El determinante de la matriz identidad In vale 1, para todo n.
Observación 1.3.4. Existe una fórmula explı́cita para el determinante de una matriz n × n, que en el caso
n = 3 es la fórmula (1.3). Para quienes tengan conocimientos de permutaciones, la fórmula del determinante
de una matriz A = (aij ) ∈ Mn es
X
det(A) = sg(σ)a1σ(1) a2σ(2) · · · anσ(n) .
n∈Sn

En la fórmula anterior, Sn es el conjunto de todas las permutaciones de n elementos (pensadas como


biyecciones del conjunto {1, 2, . . . , n} en sı́ mismo) y sg(σ) = ±1 es el signo de la permutación σ. La fórmula
del determinante tiene n! (factorial de n) sumandos; por ejemplo, para una matriz 5 × 5 tiene 120 sumandos.
Como es de imaginar esta fórmula no es muy práctica para hacer cálculos y tampoco tiene demasiada utilidad
en la teorı́a, ası́ que no vamos a seguir más por esta lı́nea.
Observación 1.3.5. Al operar con determinantes hay que tener cuidado, porque el determinante no se com-
porta bien respecto a las operaciones de suma y producto por un escalar, es decir en general es

det(A + B) ̸= det(A) + det(B); det(cA) ̸= c det(A), c ∈ k.

A continuación veremos algunas propiedades de los determinantes, que en particular sirven para simplificar
los cálculos. En general las primeras pruebas van a ser por inducción, usando la fórmula (1.4).
Proposición 1.3.6. Si la matriz B se obtiene multiplicando una fila de una matriz A por una constante c,
entonces det(B) = c · det(A), es decir

a11 ··· a1n a11 ··· a1n


.. .. .. ..
. . . .
cai1 · · · cain = c ai1 · · · ain .
.. .. .. ..
. . . .
an1 ··· ann an1 · · · ann

Dem. Si n = 1, entonces es det(a11 ) = a11 , luego det(ca11 ) = ca11 = c det(a11 ). Sea ahora n ≥ 2. Supon-
gamos, razonando inductivamente, que se cumple la tesis para matrices de orden n − 1. Sea i la fila de la
matriz A = (aij ) ∈ Mn que aparece multiplicada por la constante c. Si i = 1, es

ca11 · · · ca1n a11 ··· a1n


.. .. .. ..
. . . .
ai1 ··· ain = ca11 ∆11 + · · · + ca1n ∆1n = c(a11 ∆11 + · · · + a1n ∆1n ) = c ai1 · · · ain .
.. .. .. ..
. . . .
an1 ··· ann an1 · · · ann

14
Supongamos ahora i ≥ 2. Aplicando la definición del determinante y la hipótesis inductiva, obtenemos

a11 ··· a1n a22 ··· a2n a21 ··· a2,n−1


.. .. .. .. .. ..
. . . . . .
cai1 · · · cain = a11 cai2 · · · cain + · · · + (−1)1+n a1n cai1 · · · cai,n−1
.. .. .. .. .. ..
. . . . . .
an1 ··· ann an2 · · · ann an1 · · · an,n−1
a22 ··· a2n a21 ··· a2,n−1
.. .. .. ..
. . . .
= a11 c ai2 ··· ain + · · · + (−1)1+n a1n c ai1 · · · ai,n−1
.. .. .. ..
. . . .
an2 · · · ann an1 · · · an,n−1
 
a22 ··· a2n a21 ··· a2,n−1 a11 · · · a1n
 .. .. .. ..  .. ..
 . . . .  . .
ain + · · · + (−1)1+n a1n ai1 · · ·
 
a11 ai2 · · ·
= c ai,n−1  = c ai1 · · · ain .

 .. .. .. ..  .. ..
 . . . .  . .
an2 · · · ann an1 · · · an,n−1 an1 · · · ann

Corolario 1.3.7. Si una matriz tiene una fila formada solo por ceros, entonces su determinante es nulo.

Dem. Tomar c = 0 en la proposición anterior.


El siguiente resultado se prueba de la misma forma que el anterior.

Proposición 1.3.8. El determinante es aditivo respecto a cada fila, es decir, para cada i = 1, . . . , n, vale

a11 ··· a1n a11 ··· a1n a11 ··· a1n


.. .. .. .. .. ..
. . . . . .
bi1 + ci1 · · · bin + cin = bi1 · · · bin + ci1 · · · cin .
.. .. .. .. .. ..
. . . . . .
an1 ··· ann an1 · · · ann an1 · · · ann

Dem. Ejercicio.
La prueba del siguiente teorema requiere cierto esfuerzo, pero el resultado es importante porque todo lo que
haremos a continuación requiere ese teorema.

Teorema 1.3.9. Si una matriz A = (aij ) ∈ Mn (n ≥ 2) tiene una fila i en la cual para algún j es aij = 1
y el resto de los elementos de la fila son nulos, entonces det(A) = ∆ij .

Dem. En el caso i = 1 tenemos

det(A) = 0 · ∆11 + · · · + 0 · ∆1,j−1 + 1 · ∆1j + 0 · ∆1,j+1 + · · · + 0 · ∆1n = ∆1j .

Luego la tesis vale para i = 1. De ahora en adelante asumiremos i ≥ 2.



a b
La prueba es por inducción en n. Para n = 2, es i = 2. Si A = 1 0 , entonces det(A) = −b = ∆21 y si
A = a0 1b , entonces det(A) = a = ∆22 . Luego la tesis vale para n = 2. Supongamos ahora que la matriz A

15
tiene orden n y que la tesis vale para matrices de orden n − 1. La matriz A ∈ Mn tiene la forma
 
a11 ··· a1,j−1 a1,j a1,j+1 · · · a1n
 a21
 ··· a2,j−1 a2,j a2,j+1 · · · a2n 
 .. .. .. .. .. 

 . . . . . 
 
ai−1,1 · · · ai−1,j−1 ai−1,j ai−1,j+1 · · · ai−1,n 
A= 
 0
 ··· 0 1 0 ··· 0  
ai+1,1
 · · · ai+1,j−1 ai+1,j ai+1,j+1 · · · ai+1,n 

 . .. .. .. .. 
 .. . . . . 
an,1 · · · an,j−1 an,j an,j+1 · · · an,n

Sea B ∈ Mn−1 la submatriz de A obtenida eliminando la fila i y la columna j


 
a11 ··· a1,j−1 a1,j+1 ··· a1n
 a21
 ··· a2,j−1 a2,j+1 ··· a2n  
 .. .. .. .. 
 . . . . 
 
B = ai−1,1 · · · ai−1,j−1 ai−1,j+1
 · · · ai−1,n 
.
ai+1,1 · · · ai+1,j−1 ai+1,j+1 · · · ai+1,n 
 
 .. .. .. .. 
 . . . . 
an,1 · · · an,j−1 an,j+1 ··· an,n

Lo que tenemos que probar es que vale det(A) = (−1)i+j det(B).


Aplicando la definición del determinante, obtenemos

det(A) = a11 ∆11 (A) + · · · + a1,j−1 ∆1,j−1 (A) + a1j ∆1j (A) + a1,j+1 ∆1,j+1 (A) + · · · + a1n ∆1n (A).

En el determinante que aparece en ∆1j (A) la fila i-ésima está formada solo por ceros, luego ∆1j (A) = 0.
Entonces aplicando la definición del determinante para B obtenemos

det(A) = a11 ∆11 (A) + · · · + a1,j−1 ∆1,j−1 (A) + a1,j+1 ∆1,j+1 (A) + · · · + a1n ∆1n (A),
det(B) = a11 ∆11 (B) + · · · + a1,j−1 ∆1,j−1 (B) + a1,j+1 ∆1,j (B) + · · · + a1n ∆1,n−1 (B).

Notar que en la primera fila de B, en el lugar j está el coeficiente a1,j+1 , en el lugar j + 1 está a1,j+2 y ası́
seguimos hasta llegar al lugar n − 1 donde está a1,n . Esa es la razón por la cual en det(B) hay una diferencia
entre los subı́ndices de los primeros j − 1 sumandos y los siguientes.
A continuación probaremos que vale
(
(−1)i+j ∆1k (B), 1≤k ≤j−1
∆1k (A) = . (1.5)
(−1)i+j ∆1,k−1 (B), j+1≤k ≤n

Luego es claro que esta fórmula junto con las dos de arriba, implican det(A) = (−1)i+j det(B).

16
La idea de la prueba es la siguiente. Empezamos describiendo4 los cofactores ∆1k (B) involucrados en (1.5).
a21 ··· a2,k−1 a2,k+1 ··· a2,j−1 a2,j+1 ··· a2n
∆1k (B) = (−1) k+1 .. .. .. .. .. .. , 1 ≤ k ≤ j − 1,
. . . . . .
an,1 · · · an,k−1 an,k+1 · · · an,j−1 an,j+1 · · · an,n
a21 ··· a2,j−1 a2,j+1 ··· a2,k−1 a2,k+1 ··· a2n
∆1,k−1 (B) = (−1) k .. .. .. .. .. .. , j + 1 ≤ k ≤ n − 1.
. . . . . .
an,1 · · · an,j−1 an,j+1 · · · an,k−1 an,k+1 · · · an,n
Tener en cuenta que los cofactores anteriores se obtienen eliminando la i-ésima fila de A, lo cual no estamos
explicitando. Ahora calculamos los cofactores de A, aplicando la hipótesis inductiva. Para 1 ≤ k ≤ j − 1, es
a21 ··· a2,k−1 a2,k+1 ··· a2,j−1 a2j a2,j+1 ··· a2n
.. .. .. .. .. .. ..
. . . . . . .
ai−1,1 · · · ai−1,k−1 ai−1,k+1 ··· ai−1,j−1 ai−1,j ai−1,j+1 · · · ai−1,n
∆1k (A) = (−1)k+1 0 ··· 0 0 ··· 0 1 0 ··· 0
ai+1,1 · · · ai+1,k−1 ai+1,k+1 ··· ai+1,j−1 ai+1,j ai+1,j+1 · · · ai+1,n
.. .. .. .. .. .. ..
. . . . . . .
an,1 ··· an,k−1 an,k+1 ··· an,j−1 an,j an,j+1 ··· an,n
a21 ··· a2,k−1 a2,k+1 ··· a2,j−1 a2,j+1 ··· a2n
= (−1) k+1
(−1) i−1+j−1 .. .. .. .. .. ..
. . . . . .
an,1 · · · an,k−1 an,k+1 · · · an,j−1 an,j+1 · · · an,n
= (−1)i+j ∆1k (B).
Respecto al cálculo anterior, en el primer determinante el coeficiente 1 se encuentra en la fila i − 1 (porque
habı́amos eliminado la primera fila) y en la columna j − 1 (porque habı́amos eliminado la columna k, y
es k < j), de ahı́ el factor (−1)i−1+j−1 . Notar también que el segundo determinante se obtiene eliminando
la i-ésima fila y la j-ésima columna del primero, pero no estamos explicitando la fila eliminada. Ahora
consideramos el caso j + 1 ≤ k ≤ n.
a21 ··· a2,j−1 a2,j a2,j+1 ··· a2,k−1 a2,k+1 ··· a2n
.. .. .. .. .. .. ..
. . . . . . .
ai−1,1 · · · ai−1,j−1 ai−1,j ai−1,j+1 · · · ai−1,k−1 ai−1,k+1 ··· ai−1,n
∆1k (A) = (−1)1+k 0 ··· 0 1 0 ··· 0 0 ··· 0
ai+1,1 · · · ai+1,j−1 ai+1,j ai+1,j+1 · · · ai+1,k−1 ai+1,k+1 ··· ai+1,n
.. .. .. .. .. .. ..
. . . . . . .
an,1 ··· an,j−1 an,j an,j+1 ··· an,k−1 an,k+1 ··· an,n
a21 ··· a2,j−1 a2,j+1 ··· a2,k−1 a2,k+1 ··· a2n
= (−1) 1+k
(−1) i+j−1 .. .. .. .. .. ..
. . . . . .
an,1 · · · an,j−1 an,j+1 · · · an,k−1 an,k+1 · · · an,n
= (−1)i+j ∆1,k−1 (B).
Este caso difiere del anterior en que en el primer determinante, el coeficiente 1 se encuentra en la fila i − 1
y la columna j, de ahı́ el factor (−1)i−1+j . Con esta última igualdad completamos la prueba.
4
Si nos ponemos muy formales, los casos ∆1,j−1 (B) y ∆1,j (B) hay que discutirlos por separado, porque no quedan bien
descritos por las fórmulas que presentamos. En ambos casos también vale (1.5) y se pueden hacer las pruebas como ejercicio.

17
Combinando la proposición anterior con la proposición 1.3.6 se obtiene el siguiente resultado.
Corolario 1.3.10. Si una matriz cuadrada A tiene una fila i en la cual todos los elementos son nulos salvo
eventualmente el aij , entonces det(A) = aij ∆ij .
Proposición 1.3.11. Sea A = (aij ) ∈ Mn . Para cada i = 1, . . . , n, el determinante de A se puede calcular
desarrollando a partir de la fila i:
n
X
det(A) = aij ∆ij = ai1 ∆i1 + ai2 ∆i2 + · · · + ain ∆in . (1.6)
j=1

Dem. La i-ésima fila de A se puede descomponer en


(ai1 , ai2 , . . . , ain ) = (ai1 , 0, . . . , 0) + (0, ai2 , 0, . . . , 0) + · · · + (0, 0, . . . , 0, ain ).
Luego, aplicando reiteradamente la proposición 1.3.8 en la fila i, obtenemos
a11 a12 ··· a1n a11 a12 ··· a1n a11 a12 ··· a1n a11 a12 ··· a1n
.. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . .
ai1 ai2 ··· ain = ai1 0 ··· 0 + 0 ai2 ··· 0 + ··· + 0 0 ··· ain .
.. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . .
an1 an2 · · · ann an1 an2 · · · ann an1 an2 · · · ann an1 an2 · · · ann
Finalmente la tesis se obtiene aplicando el corolario anterior en cada sumando de la fórmula de arriba.
Proposición 1.3.12. El determinante de una matriz triangular (superior o inferior) es el producto de los
elementos de la diagonal principal.
Dem. Sea A ∈ Mn una matriz triangular superior. Vamos a probar el resultado por inducción en n. Si
n = 1, el resultado es obvio. Supongamos ahora n > 1 y que el resultado vale para n − 1. Entonces aplicando
el corolario 1.3.10 en la última fila y la hipótesis inductiva, obtenemos
a11 a12 ··· a1,n−1 a1n
a11 a12 · · · a1,n−1
0 a22 ··· a2,n−1 a2n
.. .. .. .. .. 0 a22 · · · a2,n−1
. . . . . = ann .. .. .. .. = ann · (a11 · · · an−1,n−1 ) = a11 · · · ann .
. . . .
0 0 ··· an−1,n−1 an−1,n
0 0 ··· an−1,n−1
0 0 ··· 0 ann
Si A ∈ Mn es triangular inferior, entonces la prueba es la misma, pero aplicando el corolario 1.3.10 en la
primera fila.
Proposición 1.3.13. Si una matriz tiene dos filas iguales, entonces su determinante es nulo.
Dem. Sea A = (aij ) una matriz n × n. En el caso n = 2 es
a11 a12
= a11 a12 − a11 a12 = 0.
a11 a12
Supongamos ahora que es n ≥ 3. Razonando inductivamente, supongamos que vale la tesis para n − 1 y
que las filas i y j de A son iguales. Sea k una fila de A distinta de i y de j. Entonces desarrollando el
determinante de A a partir de la fila k obtenemos
det(A) = ak1 ∆k1 + ak2 ∆k2 + · · · + akn ∆kn .
Notar que cada cofactor ∆kl es nulo (1 ≤ l ≤ n), por ser (−1)k+l multiplicado por un determinante de una
matriz de orden n − 1 que tiene dos filas iguales. Luego det(A) = 0.

18
Corolario 1.3.14. Si la matriz B se obtiene de la matriz A intercambiando dos de sus filas, entonces
det(B) = − det(A).

Dem. Supongamos que B se obtiene de A = (aij ) intercambiando las filas i y j. Entonces

a11 ··· a1n a11 ··· a1n a11 ··· a1n


.. .. .. .. .. ..
. . . . . .
ai1 + aj1 · · · ain + ajn ai1 + aj1 · · · ain + ajn ai1 + aj1 · · · ain + ajn
0= .. .. = .. .. + .. ..
. . . . . .
ai1 + aj1 · · · ain + ajn ai1 ··· ain aj1 ··· ajn
.. .. .. .. .. ..
. . . . . .
an1 ··· ann an1 ··· ann an1 ··· ann
a11 ··· a1n a11 ··· a1n a11 ··· a1n a11 ··· a1n
.. .. .. .. .. .. .. ..
. . . . . . . .
ai1 ··· ain aj1 · · · ajn ai1 · · · ain aj1 · · · ajn
= ... .. + ..
. .
.. + ..
. .
.. + ..
. .
.. = 0 + det(B) + det(A) + 0.
.
ai1 ··· ain ai1 · · · ain aj1 · · · ajn aj1 · · · ajn
.. .. .. .. .. .. .. ..
. . . . . . . .
an1 · · · ann an1 · · · ann an1 · · · ann an1 · · · ann

Luego det(B) + det(A) = 0, lo cual implica la tesis.


Aplicando las proposiciones 1.3.13 y 1.3.6, se obtiene el siguiente.

Corolario 1.3.15. Si una matriz tiene una fila que es múltiplo de otra fila, entonces su determinante es
nulo.

Corolario 1.3.16. Si en una matriz le sumamos a una fila un múltiplo de otra fila, entonces su determinante
no varı́a.

Dem. Supongamos que a la fila i le sumamos un múltiplo de la fila j, entonces

a11 ··· a1n a11 ··· a1n a11 ··· a1n a11 ··· a1n
.. .. .. .. .. .. .. ..
. . . . . . . .
ai1 + caj1 · · · ain + cajn ai1 · · · ajn caj1 · · · cajn ai1 · · · ajn
.. .. = ... .. + .. .. = .. .. .
. . . . . . .
aj1 ··· ajn aj1 · · · ajn aj1 · · · ajn aj1 · · · ajn
.. .. .. .. .. .. .. ..
. . . . . . . .
an1 ··· ann an1 · · · ann an1 · · · ann an1 · · · ann

A continuación estudiaremos el comportamiento el determinante frente al producto y la trasposición de


matrices. Para ello necesitamos conocer los determinantes de las matrices elementales.

Proposición 1.3.17. Sea E una matriz elemental.

1. Si E es de tipo I, entonces det(E) = −1.

2. Si E es de tipo II y k es la constante que aparece en la diagonal de E, entonces det(E) = k.

19
3. Si E es de tipo III, entonces det(E) = 1.
Dem. Si E es de tipo I, entonces E se obtiene intercambiando dos filas de la matriz identidad I, luego
det(E) = − det(I) = −1. Las matrices de tipo II son matrices diagonales y las de tipo III son matrices
triangulares, luego en cada caso su determinante es el producto de los elementos de la diagonal principal.
Teorema 1.3.18. Para todo A, B ∈ Mn , vale det(AB) = det(A) det(B).
Dem. Haremos la prueba en etapas, discutiendo según la matriz A.
I. A es una matriz elemental. Discutimos según el tipo de la matriz elemental (recordar la proposición
1.3.17). Si A es de tipo I, entonces AB es una matriz que se obtiene de B intercambiando dos de sus filas,
luego
det(AB) = − det(B) = (−1) det(B) = det(A) det(B).
Si A es de tipo II y 0 ̸= k es la constante que aparece en la diagonal de A, entonces AB es una matriz que
se obtiene de B multiplicando una de sus filas por k, luego

det(AB) = k det(B) = det(A) det(B).

Si A es de tipo III, entonces AB es una matriz que se obtiene de B sumándole a una fila un múltiplo escalar
de otra fila. Como esto no afecta el determinante, deducimos

det(AB) = det(B) = 1 det(B) = det(A) det(B).

II. A es una matriz invertible. Como A es invertible, entonces el teorema 1.2.9 nos dice que existen
matrices elementales E1 , . . . , El ∈ Mn tales que A = E1 · · · El . Luego necesitamos probar que vale

det(E1 E2 · · · El B) = det(E1 E2 · · · El ) det(B).

La prueba es por inducción en la cantidad de factores l. Notar que el caso l = 1 es la parte anterior. A partir
de ahora asumimos l > 1 y que el resultado vale para l − 1. Entonces

det(E1 E2 · · · El B) = det E1 (E2 · · · El B) = det(E1 ) det(E2 · · · El B) = det(E1 ) det(E2 · · · El ) det(B)

= det E1 (E2 · · · El ) det(B) = det(E1 E2 · · · El ) det(B).

En la segunda igualdad aplicamos la parte I, en la tercera la hipótesis inductiva y en la cuarta aplicamos de


nuevo la parte I.
III. A es una matriz no invertible. Empezaremos probando que vale det(AB) = 0, para toda B ∈ Mn .
Si A = 0, entonces AB = 0 y por lo tanto det(AB) = 0. Si A ̸= 0, entonces existe 1 ≤ r ≤ n y matrices
invertibles U, V ∈ Mn tales que A = U Φn,n r V (teorema 1.2.8). Como A no es invertible, entonces es r < n y
por lo tanto la matriz Φn,nr tiene sus últimas n − r filas nulas. Esto implica que la matriz Φn,n
r V B también
n,n
tiene sus últimas n − r filas nulas y por lo tanto det(Φr V B) = 0. Como U es invertible, entonces aplicando
la parte II obtenemos

det(AB) = det(U Φn,n n,n


r V B) = det(U ) det(Φr V B) = det(U ) · 0 = 0.

Luego acabamos de probar que si A no es invertible, entonces det(AB) = 0, para toda B ∈ Mn . Luego
tomando B = I en det(AB) = 0, obtenemos det(A) = 0. Eso a su vez implica det(A) det(B) = 0 y por lo
tanto cuando A no es invertible, vale det(AB) = det(A) det(B) = 0, para toda B ∈ Mn .
Teorema 1.3.19. Una matriz A ∈ Mn es invertible si y solo si det(A) ̸= 0. En caso afirmativo,

det A−1 = det(A)−1 .




20
Dem. Si A ∈ Mn no es invertible, entonces en la prueba de la parte III del teorema anterior vimos que es
det(A) = 0. Si A ∈ Mn es invertible, entonces existe su inversa A−1 que verifica AA−1 = I. Luego

1 = det(I) = det AA−1 = det(A) det A−1 .


 

Esto implica det(A) ̸= 0 y det A−1 = det(A)−1 .




El siguiente resultado muestra que si A, B ∈ Mn verifican AB = I, entonces también verifican BA = I.


Corolario 1.3.20. Si A, B ∈ Mn verifican AB = I, entonces A y B son inversas entre sı́.
Dem. Es
det(A) det(B) = det(AB) = det(I) = 1 ⇒ det(A) ̸= 0 y det(B) ̸= 0.
Entonces A y B son invertibles. Luego multiplicando por A−1 en AB = I obtenemos B = A−1 .
Observación 1.3.21. Es unejercicio el probar que si A ∈ Mn es invertible, entonces su traspuesta A t también
−1 t t
lo es y vale At = A−1 . Aplicando esto deducimos que si At es invertible, entonces A = At también
 

lo es. Es decir, A es invertible si y solo si At es invertible.


Teorema 1.3.22. Para toda matriz cuadrada A, vale det At = det(A).


Dem. Si A no es invertible, entonces At tampoco lo es y por lo tanto det At = det(A) = 0.




Supongamos ahora que A es invertible. Entonces existen matrices elementales E1 , . . . , Ek ∈ Mn tales que
A = E1 · · · Ek y por lo tanto At = Ekt · · · E1t . Entonces aplicando reiteradamente el teorema 1.3.18, obtenemos

det(A) = det(E1 ) · · · det(Ek ); det At = det Ekt · · · det E1t .


  

Para completar la demostración, alcanza con probar que vale det E t = det(E) para toda matriz elemental


E, lo cual es inmediato (recordar la observación 1.2.3 y la proposición 1.3.17).


Como la trasposición intercambia las filas con las columnas, entonces el teorema anterior implica que todas
las propiedades que vimos para filas, valen también para columnas. Las resumimos en el siguiente teorema.
Teorema 1.3.23. Propiedades del determinante respecto a las columnas.
1. Si una matriz B se obtiene intercambiando un par de columnas de A, entonces det(B) = − det(A).

2. Si una matriz tiene una columna formada solo por ceros o tiene una columna que es múltiplo de otra
columna, entonces su determinante es nulo.

3. Si B se obtiene multiplicando una columna de A por una constante c, entonces det(B) = c det(A)

a11 ··· ca1j ··· a1n a11 · · · a1j ··· a1n


.. .. .. = c .. .. .. .
. . . . . .
an1 · · · canj ··· ann an1 · · · anj ··· ann

4. El determinante es aditivo respecto a cada columna

a11 ··· b1j + c1j ··· a1n a11 · · · b1j ··· a1n a11 · · · c1j ··· a1n
.. .. .. = .. .. .. + .. .. .. .
. . . . . . . . .
an1 · · · bnj + cnj ··· ann an1 · · · bnj ··· ann an1 · · · cnj ··· ann

5. Si en una matriz le sumamos a una columna un múltiplo escalar de otra columna, entonces su deter-
minante no varı́a.

21
6. Si A es tal que en una columna j todos los elementos son nulos salvo el aij , entonces det(A) = aij ∆ij .
7. Sea A = (aij ) ∈ Mn . Para cada j = 1, . . . , n, el determinante de A se puede calcular desarrollando a
partir de la columna j:
n
X
det(A) = aij ∆ij = a1j ∆1j + a2j ∆2j + · · · + anj ∆nj .
i=1

Observación 1.3.24. La técnica para calcular determinantes consiste en aplicar reiteradamente la propiedad
5 del teorema 1.3.23 (o la correspondiente en filas), hasta llegar al determinante de una matriz que tiene
solo un elemento no nulo en una fila o columna. Luego se reduce su orden mediante la propiedad 6 del
teorema 1.3.23 (o la correspondiente en filas), usando también las otras propiedades para ir simplificando
los cálculos. Reiterando este procedimiento se reduce el cálculo de un determinante de orden n, al cálculo
de uno de orden 2.
A continuación veremos ejemplos de cálculo de determinantes. En lo que sigue, si por ejemplo escribimos
F2 − F1 quiere decir que a la fila 2 le estamos restando la fila 1, análogamente C3 + 2C4 quiere decir que
a la columna 3 le estamos sumando la columna 4 multiplicada por 2. Notar que en las sumas o restas
anteriores siempre escribimos primero la fila o columna que es modificada. Solo vamos a aclarar, este tipo
de operaciones, identificar las otras queda a cargo del lector.
Ejemplo 1.3.25.
1 5 7 1 5 7
3 1
0 3 1 = 0 3 1 = = −33 + 8 = −25.
−8 −11
2 2 3 0 −8 −11
El primer paso fue F3 − 2F1 .
Ejemplo 1.3.26.
2 3 5 2 3 5 2 3 5 2 3 5 0 −1 11
6 10 4 = 2 3 5 2 = 20 3 5 2 = 20 1 2 −3 = 20 1 2 −3
50 20 30 50 20 30 5 2 3 5 2 3 5 2 3
0 −1 11
−1 11 −1 11
= 20 1 2 −3 = −20 = −40 = −1400.
−8 18 −4 9
0 −8 18
El tercer paso es F2 − F1 (para obtener a21 = 1), el cuarto F1 − 2F2 y el quinto F3 − 5F2 .
Ejemplo 1.3.27.
1 −2 1 3 1 −2 1 3
5 7 8 9 5 7 8 9
=6 = 0.
2 0 −2 4 1 0 −1 2
3 0 −3 6 1 0 −1 2
El determinante final es nulo por tener dos filas iguales.
Ejemplo 1.3.28.
2 1 0 1 0 5 2 5
5 2 5 0 0 1
−1 2 1 2 −1 2 1 2 −1 2
= = −(−1) −1 2 4 = −1 2 4 = = −12.
0 −1 2 4 0 −1 2 4 5 2
5 2 4 5 2 4
1 3 1 2 0 5 2 4
El primer paso es F1 + 2F2 y F4 + F2 (dos cambios al mismo tiempo), luego F1 − F3 .

22
Ejemplo 1.3.29.

2 9 5 7 2 9 5 7 −7 9 5 7 −7 37 5 7
37 5 7
4 2 3 2 4 2 3 2 2 2 3 2 2 −6 3 2
= = = = − −6 3 2
7 4 2 3 7 4 2 3 3 4 2 3 3 −8 2 3
−8 2 3
9 6 3 2 5 4 0 0 1 4 0 0 1 0 0 0
37 5 2 25 11 0
25 11
= − −6 3 −1 = − −6 3 −1 = (−1) = 279.
−14 5
−8 2 1 −14 5 0

El primer paso es F4 − F2 , luego C1 − C2 (para obtener a14 = 1), luego C2 − 4C1 , reducimos a orden 3,
C3 − C2 , F1 + 2F2 y F3 + F2 (dos cambios al mismo tiempo).

Método para hallar la matriz inversa. Sabemos que una matriz es invertible si y solo si su determinante
es distinto de cero. A continuación veremos un método para hallar su inversa.
Supongamos que A ∈ Mn es invertible. Sabemos que existen matrices elementales E1 , . . . , Es tales que
A−1 = E1 · · · Es . Por otro lado, si E1 , . . . , Er son matrices elementales, entonces A−1 A = I implica
A−1 (AE1 · · · Er ) = E1 · · · Er . Luego si elegimos E1 , . . . , Er de forma tal que AE1 · · · Er = I, entonces
A−1 = E1 · · · Er . Observar que multiplicar a A por la derecha por matrices elementales equivale a hacer
las operaciones elementales correspondientes en las columnas de A, por lo tanto si realizando ciertas ope-
raciones elementales en las columnas de una matriz A llegamos a la matriz identidad (AE1 · · · Er = I),
entonces realizando las mismas operaciones elementales en las columnas de la matriz identidad I obtenemos
A−1 = E1 · · · Er = IE1 · · · Er . De la misma forma, operar con las filas equivale a multiplicar por la izquierda,
y por lo tanto partiendo de la otra igualdad AA−1 = I, se obtiene un algoritmo análogo operando con filas
en vez de columnas.
Notar que cuando operamos con columnas partimos de A−1 A = I, pero cuando operamos con las filas
partimos de AA−1 = I. Por esa razón para hallar la inversa no podemos realizar operaciones elementales
con filas y columnas al mismo tiempo.
A continuación veremos algunos ejemplos donde estudiamos la invertibilidad de matrices y calculamos las
inversas. En lo que sigue, si por ejemplo escribimos F2 − F1 quiere decir que a la fila 2 le estamos restando la
fila 1, análogamente C3 + 2C4 quiere decir que a la columna 3 le estamos sumando la columna 4 multiplicada
por 2. Notar que en las sumas o restas anteriores siempre escribimos primero la fila o columna que es
modificada. Si escribimos F2 ↔ F3 , quiere decir que intercambiamos la fila 2 con la fila 3, y análogamente
para columnas.
 
2 3 1
Ejemplos 1.3.30. Sea A = −1 0 −1. Primero estudiamos su invertibilidad.
1 1 1

2 3 1 1 3 1
0 −1
−1 0 −1 = 0 0 −1 = = 1.
1 1
1 1 1 0 1 1

En el primer paso, a la primera columna le restamos la tercera. Como es det(A) = 1 = ̸ 0, entonces A es


invertible. Para calcular su inversa tenemos que elegir primero si operar con columnas o con filas. En este

23
caso elegimos las columnas.
2 1 3 1 0 0
−1−1 0 0 1 0
1 1 1 0 0 1
1 1 3 1 0 0
0 −1 0 0 1 0 C1 − C3
0 1 1 −1 0 1
1 1 2 1 0 0
0 −1 1 0 1 0 C2 − C3
0 1 0 −1 −1 1
1 0 2 1 0 −1
0 −1 1 0 1 0 C3 − C1
0 1 0 −1 −1 2
1 0 0 1 −2 −1
0 −1 1 0 1 0 C2 − 2C1
0 1 0 −1 1 2
1 0 0 1 −2 −3
0 0 1 0 1 1 C3 + C2
0 1 0 −1 1 3
 
1 −2 −3
Luego la inversa es A−1 =  0 1 1 .
−1 1 3
 
2 −2 1
Sea A = 2 −1 0. Dejamos como ejercicio verificar det(A) = −1, luego A es invertible. Hallaremos su
1 −2 1
inversa operando con las filas. Esta vez iremos más rápido, haciendo a veces más de una operación por paso.

2 −2 1 1 0 0
2 −1 0 0 1 0
1 −2 1 0 0 1
1 0 0 1 0 −1
2 −1 0 0 1 0 F1 − F3
1 −2 1 0 0 1
1 0 0 1 0 −1
−2 1 0 0 −1 0 (−1)F2
1 −2 1 0 0 1
1 0 0 1 0 −1
−2 1 0 0 −1 0 F3 + 2F2
−3 0 1 0 −2 1
1 0 0 1 0 −1
0 1 0 2 −1 −2 F2 + 2F1 y F3 + 3F1
0 0 1 3 −2 −2
 
1 0 −1
Luego la inversa es A−1 = 2 −1 −2.
3 −2 −2

24
 
3 1 1
Sea A = 2 3 2. Notar que vale det(A) = 6, luego A es invertible. Trabajaremos con columnas.
3 3 3

3 1 1 1 0 0
2 3 2 0 1 0
3 3 3 0 0 1
2 0 1 1 0 0
0 1 2 0 1 0 C1 − C3 y C2 − C3
0 0 3 −1 −1 1
1 0 1 1/2 0 0
1
0 1 2 0 1 0 2 C1
0 0 3 −1/2 −1 1
1 0 0 1/2 0 −1/2
0 1 2 0 1 0 C3 − C1
0 0 3 −1/2 −1 3/2
1 0 0 1/2 0 −1/6
0 1 0 0 1 −2/3 C3 − 2C2
0 0 3 −1/2 −1 7/6
1 0 0 1/2 0 −1/6
1
0 1 0 0 1 −2/3 3 C3
0 0 1 −1/2 −1 7/6
 
1/2 0 −1/6
Luego la inversa es A−1 = 0 1 −2/3.
−1/2 −1 7/6
Observación 1.3.31. Notar que en los ejemplos anteriores lo que hicimos primero fue transformar la matriz
A en una matriz triangular y luego llevarla a una forma diagonal. Es importante verificar que la matriz
hallada es realmente la matriz inversa (haciendo el producto), dado que es fácil cometer errores de cálculo.
Observación 1.3.32. Conviene remarcar que hay dos situaciones distintas.

1. Si queremos investigar si una matriz es invertible, entonces necesitamos ver si su determinante es cero
o no, y para calcularlo podemos usar operaciones elementales en sus filas y/o columnas.

2. Si ya sabemos que una matriz es invertible y queremos hallar su inversa, entonces aplicamos el algoritmo
de arriba, pero tenemos que elegir trabajar con filas o columnas, y no podemos mezclar.

Fórmula general de la matriz inversa. Para probar la fórmula necesitamos el siguiente resultado, el
cual tiene interés en sı́ mismo.

Lema 1.3.33. Si A ∈ Mn y definimos


 t  
∆11 ∆12 ··· ∆1n ∆11 ∆21 · · · ∆n1
 ∆21 ∆22 ··· ∆2n 

 ∆12 ∆22 · · ·
 ∆n2 
 =  . ..  =  .. ..  ,
 
.. ..
 .. . .   . . . 
∆n1 ∆n2 · · · ∆nn ∆1n ∆2n · · · ∆nn

entonces AÂ = ÂA = det(A)I.

25
Dem. Sea AÂ = (cij ). Entonces para todo i, j = 1, . . . , n, es
n
X
cij = aik ∆jk .
k=1

Luego cii = nk=1 aik ∆


P
Pik = det(A) (desarrollo a partir de la fila i), para todo i = 1, . . . , n. Por otro lado, si
i ̸= j, entonces cij = nk=1 aik ∆jk = 0, porque esta suma corresponde al desarrollo a partir de la fila i del
determinante de una matriz que tiene dos filas iguales (la i y la j). En conclusión es cij = det(A)δij y por
lo tanto AÂ = det(A)I. La prueba de ÂA = det(A)I es análoga, usando desarrollos por columnas.

Teorema 1.3.34. Si una matriz A ∈ Mn es invertible, entonces su matriz inversa se obtiene mediante
 t  
∆11 ∆12 · · · ∆1n ∆11 ∆21 · · · ∆n1
1   ∆21 ∆22 · · · ∆2n  1   ∆12 ∆22 · · · ∆n2 
 
A−1 =  .. .. .. = . .. ..  .
det(A)  . det(A)  ..
 
. .  . . 
∆n1 ∆n2 · · · ∆nn ∆1n ∆2n · · · ∆nn

Dem. Usando el lema


 anterior obtenemos
 AÂ = ÂA = det(A)I. Como A es invertible, es det(A) ̸= 0, luego
vale A det(A) Â = det(A) Â A = I, lo cual implica A−1 = det(A)−1 Â.
−1 −1

Observación 1.3.35. Lo interesante de este teorema es que nos da una descripción explı́cita de la inversa,
pero como método para invertir una matriz, el algoritmo que vimos antes es mucho más rápido (salvo para
matrices 2 × 2).

1.4. Aplicación a sistemas de ecuaciones


Consideremos un sistema de ecuaciones

 a11 x1 + · · · + a1n xn = b1

.. . (1.7)
 .
am1 x1 + · · · + amn xn = bm

Si definimos
     
a11 ··· a1n x1 b1
 .. ..  ∈ M
A= . m×n (k), X =  ...  ∈ Mn×1 (k), B =  ...  ∈ Mm×1 (k),
   
. 
am1 · · · amn xn bm

entonces el sistema (1.7) es equivalente a la ecuación matricial

AX = B. (1.8)

La ventaja de (1.8) es que tiene una sola incógnita (matricial). Para el estudio de (1.7) conviene considerar
el sistema homogéneo asociado: 
 a11 x1 + · · · + a1n xn = 0

.. (1.9)
 .
am1 x1 + · · · + amn xn = 0

y la correspondiente ecuación matricial


AX = 0. (1.10)

26
Recordar que el sistema homogéneo siempre admite la solución trivial x1 = · · · = xn = 0, por lo que siempre
es compatible. Lo que interesa en este caso es saber si admite alguna solución no trivial, es decir si es
indeterminado. Sea SB el conjunto de soluciones de la ecuación AX = B y S0 el conjunto de soluciones de
la ecuación AX = 0, es decir

SB = {X ∈ kn : AX = B}, S0 = {X ∈ kn : AX = 0},

Proposición 1.4.1. Propiedades de S0 y SB .

1. Si X1 ∈ S0 y c ∈ k, entonces cX1 ∈ S0 .

2. Si X1 , X2 ∈ SB , entonces X1 − X2 ∈ S0 .

3. Si X1 ∈ SB y X0 ∈ S0 , entonces X1 + X0 ∈ SB .

4. Si SB ̸= ∅ y X1 ∈ SB , entonces SB = {X1 + X : X ∈ S0 }.

Dem.

1. X1 ∈ S0 ⇒ A(cX1 ) = cAX1 = c0 = 0 ⇒ cX1 ∈ S0 .

2. X1 , X2 ∈ SB ⇒ A(X1 − X2 ) = AX1 − AX2 = B − B = 0 ⇒ X1 − X2 ∈ S0 .

3. X1 ∈ SB y X0 ∈ S0 ⇒ A(X1 + X0 ) = B + 0 = B ⇒ X1 + X0 ∈ SB .

4. La parte 3 implica {X1 + X : X ∈ S0 } ⊂ SB . Si X2 ∈ SB , entonces X2 = X1 + (X2 − X1 ), con


X2 − X1 ∈ S0 , luego SB ⊂ {X1 + X : X ∈ S0 }. Esto termina la prueba.

Observaciones 1.4.2. Respecto a la proposición anterior.

1. El sistema puede ser compatible o no, pero en caso de ser compatible, entonces la parte 4 nos dice que
es determinado si y solo si la única solución que admite el sistema homogéneo asociado es la trivial.
Esto depende solo de la matriz A y no de la columna de resultados B.

Los comentarios siguientes se refieren a cuando el cuerpo k es infinito (como es el caso de k = R).

2. La parte 1 nos dice que si el sistema homogéneo (1.9) admite alguna solución no trivial, entonces tiene
infinitas soluciones.

3. La parte 2 muestra que si el sistema no homogéneo admite más de una solución (es indeterminado),
entonces el sistema homogéneo asociado admite alguna solución no trivial y por lo tanto tiene infinitas
soluciones. Luego la parte 4 implica que el sistema no homogéneo también tiene infinitas soluciones.
Es decir, un sistema compatible indeterminado (homogéneo o no) siempre tiene infinitas soluciones.

Recordar que llamamos sistemas cuadrados a los que tienen tantas ecuaciones como variables. En ese caso
llamamos determinante del sistema al determinante de la matriz formada por sus coeficientes.

Proposición 1.4.3. Si en un sistema homogéneo hay más incógnitas que ecuaciones o hay la misma cantidad
pero el determinante del sistema es cero, entonces el sistema admite alguna solución no trivial.

Dem. Mantenemos las notaciones anteriores. Si A = 0, el resultado es obvio. Si A ̸= 0, entonces sabemos


que existen matrices invertibles U ∈ Mm y V ∈ Mn tales que A = U I0r 00 V , siendo 1 ≤ r ≤ mı́n{m, n}.
Si hay más incógnitas que ecuaciones, es decir, si n > m, entonces es r ≤ mı́n{m, n} = m < n. Por otro
lado, si es m = n y det(A) = 0, entonces A ∈ Mn no es invertible y por lo tanto es r < n (si fuese r = n,

27
Ir 0

valdrı́a A = U V y por lo tanto A serı́a invertible). Luego en cualquiera de los dos casos es A = U 0 0 V,
con 1 ≤ r < n. Sea  
0
 .. 
.
 
0 n
Y1 = 1 ∈ k .

 
 .. 
.
1
en el cual hay r ceros y n − r unos. Definimos Y0 = V −1 Y1 , de forma tal que Y1 = V Y0 . Entonces

AY0 = U I0r 00 V Y0 = U I0r 00 Y1 = B · 0 = 0.


 

Además notar que Y1 ̸= 0 implica Y0 ̸= 0. Luego Y0 es una solución no trivial del sistema.
Teniendo en cuenta la parte 1 de las observaciones 1.4.2, deducimos lo siguiente.
Corolario 1.4.4. Si en un sistema hay más incógnitas que ecuaciones o hay la misma cantidad pero el
determinante del sistema es cero, entonces el sistema es incompatible o compatible indeterminado.
El siguiente ejemplo muestra que se pueden dar cualquiera de las dos opciones anteriores.
Ejemplo 1.4.5. Consideremos los siguientes sistemas
 
 x+y+z = 1 x+y+z = 1  
x+y+z = 1 x+y+z = 1

x+y+z = 1 , x+y+z = 0 , , .
x+y+z = 1 x + y + z = −1
x+y+z = 1 x + y + z = −1
 

En los dos primeros casos el determinante del sistema es cero, pero el primero es compatible indeterminado y
el segundo es incompatible. En los casos tercero y cuarto hay más incógnitas que ecuaciones, pero el tercero
es indeterminado y el cuarto es incompatible.
Proposición 1.4.6. Si en un sistema hay la misma cantidad de ecuaciones que de incógnitas, entonces el
sistema es compatible determinado si y solo si su determinante es distinto de cero.
Dem. Mantenemos las notaciones anteriores. En el corolario anterior vimos que si det A = 0, entonces el
sistema es incompatible o compatible indeterminado. Por otro lado, si det(A) ̸= 0, entonces A es invertible
y por lo tanto AX = B implica X = A−1 B; luego en este caso el sistema es compatible determinado.
Corolario 1.4.7. Si en un sistema homogéneo hay la misma cantidad de ecuaciones que de incógnitas,
entonces el sistema admite alguna solución no trivial si y solo si su determinante es cero.
Los siguientes ejemplos muestran que si en un sistema hay menos incógnitas que ecuaciones, entonces no se
puede anticipar nada.
Ejemplos 1.4.8. Consideremos los siguientes sistemas
    
 x+y = 0  x+y = 0  x+y = 2  x+y = 2  x+y = 1
x−y = 0 , 2x + 2y = 0 , x−y = 0 , x−y = 0 , 2x + 2y = 2
2x + y = 0 3x + 3y = 0 2x + y = 3 2x + y = 1 3x + 3y = 3
    

Respecto a los dos primeros sistemas (homogénos), el primero es compatible determinado y el segundo
es compatible indeterminado. El tercer sistema es compatible determinado, el cuarto es incompatible y el
quinto es compatible indeterminado.

28

También podría gustarte