Introducción a Matrices y Determinantes
Introducción a Matrices y Determinantes
Andrés Abella
10 de abril de 2023
Capı́tulo 1
Matrices y determinantes
Los temas de este capı́tulo tienen aplicaciones en diversas áreas de la matemática, en particular en las
transformaciones lineales que veremos más adelante. El final del capı́tulo contiene aplicaciones a sistemas
de ecuaciones. En lo que sigue k es un cuerpo arbitrario.
1.1. Matrices
Una matriz es una tabla de números, por ejemplo
√2 −3 1/5
2 0 −1
es una matriz 2 × 3 (tiene 2 filas y 3 columnas)1 . En general una matriz 2 × 3 tiene la forma
a b c
d e f
con a, b, . . . , f números arbitrarios. Para matrices de tamaño relativamente grande es preferible usar subı́ndi-
ces en vez de letras distintas. Por ejemplo, la matriz anterior se escribe
a11 a12 a13
a21 a22 a23
con aij ∈ k, para todo i = 1, 2, j = 1, 2, 3. Notar que en la notación aij , el ı́ndice i indica la fila y el ı́ndice
j la columna, en las cuales está el elemento. Generalizando el ejemplo anterior, dados dos enteros positivos
m y n, diremos que una matriz m × n es una tabla de números de la forma
a11 a12 · · · a1n
a21 a22 · · · a2n
A= . .. ,
..
.. . .
am1 am2 · · · amn
en la cual los aij son elementos de k, para todo i = 1, . . . , m y j = 1, . . . , n. Observar que una matriz m × n
tiene m filas y n columnas. Los elementos aij se llaman los coeficientes o entradas de la matriz. En general
una matriz m × n la escribiremos de la forma A = (aij )m×n y cuando no dé lugar a confusión usaremos la
notación abreviada A = (aij ). Si A es una matriz m × n, entonces a diremos que m × n es el tamaño de A.
Al conjunto de las matrices m × n con coeficientes en k lo escribiremos Mm×n (k) o simplemente Mm×n .
1
Notar que 2 × 3 es solo una notación y no se refiere a un producto.
1
Observación 1.1.1. Si queremos formalizar la definición de matriz, podemos hacer lo siguiente. Para cada
entero positivo n, consideremos el conjunto In = {1, 2, . . . , n} y para cada par de enteros positivos m, n
consideremos el producto cartesiano Im × In . Notar que dada una matriz A = (aij )m×n , podemos definir
una función A : Im × In → k mediante A(i, j) = aij , para todo (i, j) ∈ Im × In . Recı́procamente, dada una
función A : Im × In → k, le podemos asociar una matriz A = (aij )m×n , definiendo aij = A(i, j), para todo
(i, j). Luego tenemos una correspondencia uno a uno entre matrices y funciones, y por lo tanto podemos
definir las matrices m × n como las funciones de Im × In en k. Como esta formalización no aporta nada
nuevo, en lo que sigue continuaremos pensando las matrices como tablas de números y no como funciones.
Una matriz columna es una matriz m × 1 y una matriz fila es una matriz 1 × n:
a11
a21
.. matriz columna; a11 a12 · · · a1n matriz fila.
.
am1
Decimos que dos matrices A = (aij )m×n y B = (bij )r×s son iguales y escribimos A = B si tienen la misma
cantidad de filas, la misma cantidad columnas y coinciden coeficiente a coeficiente, es decir, si m = r, n = s
y aij = bij , para todo i, j.
Una matriz se dice cuadrada si tiene el mismo número de filas que de columnas, es decir si es de la forma
a11 a12 · · · a1n
a21 a22 · · · a2n
A= . .. .
..
.. . .
an1 an2 · · · ann
triangular superior si aij = 0, para todo i > j (las entradas abajo de la diagonal principal son nulas).
2
triangular inferior si aij = 0, para todo i < j (las entradas arriba de la diagonal principal son nulas).
diagonal si aij = 0, para todo i ̸= j (las entradas fuera de la diagonal principal son nulas).
Observación 1.1.2. En las matrices simétricas y en las antisimétricas importa el cuerpo k, dado que en un
cuerpo arbitrario puede ser a = −a, para todo a ∈ k (por ejemplo en el cuerpo k = {0, 1} formado por solo dos
elementos). En ese caso las matrices antisimétricas coinciden con las simétricas y aparecen complicaciones.
Por esa razón en los ejemplos con matrices simétricas o antisimétricas siempre impondremos que el cuerpo
sea R, aunque lo mismo valdrı́a en cuerpos donde no pase lo antes mencionado (por ejemplo, en Q o C). En
particular, notar que si A = (aij ) ∈ Mn (R) es antisimétrica, entonces vale aii = 0, para todo i = 1, . . . , n.
A continuación veremos operaciones que se pueden realizar con matrices y sus propiedades.
Suma y producto por un escalar. Las operaciones de suma y producto por un escalar que vimos en
R2 y R3 se generalizan naturalmente a kn = {(x1 , . . . , xn ) : x1 , . . . , xn ∈ k}, n entero positivo arbitrario,
definiendo
a(x1 , . . . , xn ) := (ax1 , . . . , axn ), (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
para todo a ∈ k, (x1 , . . . , xn ), (y1 , . . . , yn ) ∈ kn . A su vez estas operaciones las podemos generalizar a una
suma y producto por un escalar en Mm×n definiendo
a11 a12 · · · a1n ca11 ca12 · · · ca1n
a21 a22 · · · a2n ca21 ca22 · · · ca2n
c . .. = .. .. , c ∈ k;
. .. ..
. . . . . .
am1 am2 · · · amn cam1 cam2 · · · camn
a11 a12 · · · a1n b11 b12 · · · b1n a11 + b11 a12 + b12 · · · a1n + b1n
a21 a22 · · · a2n b21 b22 · · · b2n a21 + b21 a22 + b22 · · · a2n + b2n
.. + .. .. = .
.. .. .. .. .. ..
. . . . . . . . .
am1 am2 · · · amn bm1 bm2 · · · bmn am1 + bm1 am2 + bm2 · · · amn + bmn
En notación abreviada, si A = (aij ) y B = (bij ) entonces cA = (dij ) y A + B = (eij ), siendo dij := caij y
eij := aij + bij , para todo i, j. La matriz nula de tamaño m × n es la matriz que tiene todas sus entradas
nulas. Usamos el sı́mbolo 0 para denotar a la matriz nula2 . Si A = (aij ) ∈ Mm×n , entonces su opuesta es la
matriz −A = (bij ) ∈ Mm×n , definida por bij := −aij , para todo i, j. Por ejemplo, en matrices 2 × 3 es
0 0 0 2 −3 0 −2 3 0
0= , − = .
0 0 0 −5 1 2 5 −1 −2
2
El uso del sı́mbolo 0 (el del número cero) para la matriz nula es un poco confuso al principio, pero es lo usual y resulta
cómodo en su uso. Observar que hay una matriz nula para cada tamaño m × n.
3
La prueba del siguiente resultado es directa y queda como ejercicio.
Proposición 1.1.3. La suma y el producto por un escalar verifican las siguientes propiedades.
1. A + B = B + A, para todo A, B ∈ Mm×n (conmutativa).
2. A + (B + C) = (A + B) + C, para todo A, B, C ∈ Mm×n (asociativa).
3. A + 0 = 0 + A = A, para todo A ∈ Mm×n (existencia de neutro).
4. A + (−A) = (−A) + A = 0, para todo A ∈ Mm×n (existencia de opuesto).
5. 1u = A, para todo A ∈ Mm×n .
6. c(A + B) = cA + cB, para todo c ∈ k, A, B ∈ Mm×n .
7. (b + c)A = bA + cA, para todo b, c ∈ k, A ∈ Mm×n .
8. b(cA) = (bc)A, para todo b, c ∈ k, A ∈ Mm×n .
Observaciones 1.1.4. 1. Las propiedades anteriores son las mismas que verifica R3 con la suma y el
producto por escalares.
2. Una n-upla (x1 , x2 , . . . , xn ) es esencialmente lo mismo que una matriz fila 1 × n, luego podemos
identificar kn con M1×n (k), y por lo tanto en kn valen también las propiedades anteriores.
para todo i = 1, . . . , m y j = 1, . . . , p. Para recordar esta fórmula, es útil armar el siguiente diagrama
· · · bij · · ·
..
.
· · · bnj · · ·
.. .. ..
. . .
ai1 · · · ain · · · cij · · ·
.. .. ..
. . .
El elemento cij se obtiene haciendo una especie de “producto escalar” del vector fila (ai1 , · · · , ain ) por el
vector columna (bij , · · · , bnj ). Notar que para poder multiplicar A por B, es necesario que el número de
columnas de A coincida con el de filas de B.
0 2
1 2 3
Ejemplo 1.1.5. Si A = y B = 1 0, entonces su producto se calcula mediante
4 5 6
5 3
0 2
1 0
17 11
5 3 ⇒ AB = .
35 26
1 2 3 1×0+2×1+3×5 1×2+2×0+3×3
4 5 6 4×0+5×1+6×5 4×2+5×0+6×3
4
El siguiente ejemplo muestra varias particularidades del producto de matrices.
1 1 2 1 3 0
Ejemplo 1.1.6. Si consideramos las matrices A = ,B= yC= , entonces
−2 −2 6 3 5 4
8 4 0 0
AB = AC = , BA = .
−16 −8 0 0
Notar que
es BA = 0, pero AB ̸= 0;
es BA = 0, siendo A ̸= 0 y B ̸= 0.
5. A0 = 0A = 0, para todo A ∈ Mm×n , siendo cada 0 una matriz nula de tamaño adecuado.
Dem. Todas estas propiedades se prueban de forma similar, ası́ que solo demostraremos la propiedad
asociativa dejando las otras pruebas como ejercicio.
Sean A = (aij ) ∈ Mm×n , B = (bij ) ∈ Mn×p y C = (cij ) ∈ Mp×q . Escribamos
AB = (xij ) ∈ Mm×p , (AB)C = (yij ) ∈ Mm×q , BC = (zij ) ∈ Mn×q , A(BC) = (tij ) ∈ Mm×q .
2. El único caso en que dadas dos matrices A y B, podemos calcular A + B y AB, es cuando A y B son
dos matrices cuadradas del mismo orden.
5
3. El producto de matrices diagonales es particularmente simple
a11 0 · · · 0 b11 0 · · · 0 a11 b11 0 ··· 0
0 a22 · · · 0 0 b22 · · · 0 0 a b
22 22 · ·· 0
· = .
.. .. .. .
.. ..
. .
.. .. .
.. ..
. .
.. .. ..
. . . . . .
0 0 · · · ann 0 0 · · · bnn 0 0 ··· ann bnn
Notar que en la fórmula anterior usamos un punto (·) para el producto, porque aquı́ queda más claro
que la yuxtaposición. Esa notación la seguiremos usando cuando resulte conveniente.
La siguiente proposición describe la relación entre la trasposición y las operaciones anteriores.
Proposición 1.1.9. Valen las siguientes propiedes.
1. (A + B)t = At + B t y (cA)t = cAt , para todo A, B ∈ Mm×n y c ∈ k.
2. (AB)t = B t At , para todo A ∈ Mm×n y B ∈ Mn×p .
Dem. Probaremos solo la tercera propiedad, dejando la prueba de las otras como ejercicio.
Sean A = (aij ) ∈ Mm×n y B = (bij ) ∈ Mn×p . Entonces At = (αij ) ∈ Mn×m y B t = (βij ) ∈ Mp×n , siendo
αij = aji y βij = bji , para todo i, j. Luego
n
X n
X n
X
t t
AB = (cij ), cij = aik bkj ; B A = (ηij ), ηij = βik αkj = bki ajk .
k=1 k=1 k=1
Entonces
n
X n
X
(AB)t = (γij ), γij = cji = ajk bki = bki ajk = ηij , ∀i, j ⇒ (AB)t = B t At .
k=1 k=1
Invertibilidad. Decimos que una matriz cuadrada A ∈ Mn es invertible si existe una matriz B ∈ Mn tal
que AB = BA = I (la matriz identidad).
Proposición 1.1.10. Sea A ∈ Mn . Si existen B, C ∈ Mn tales que AB = CA = I, entonces B = C y por
lo tanto A es invertible.
Dem. La tesis se obtiene del cálculo siguiente: C = CI = C(AB) = (CA)B = IB = B.
Corolario 1.1.11. Si A ∈ Mn es invertible, entonces la matriz B ∈ Mn que verifica AB = BA = I es
única.
Dem. Si dos matrices B, C ∈ Mn verifican AB = BA = I y AC = CA = I, entonces es AB = CA = I y se
aplica la proposición anterior.
Por el corolario anterior, si A ∈ Mn es invertible entonces existe una única B ∈ Mn tal que AB = BA = I;
esta matriz B se llama la inversa de A y se escribe B = A−1 . Luego la inversa de A (en caso de existir)
queda caracterizada por ser la única matriz que verifica AA−1 = A−1 A = I.
6
Ejemplos 1.1.12. 1. La matriz identidad I verifica I 2 = I, luego I es invertible y I −1 = I.
Esto prueba la primera afirmación. Para la segunda, la matriz A−1 verifica AA−1 = A−1 A = I; luego (por
definición) A−1 es invertible y su inversa es A.
Proposición 1.1.14. Supongamos que A ∈ Mn es invertible.
1. Si B, C ∈ Mn×p , entonces AB = C si y solo si B = A−1 C.
2. Si AB = AC o BA = CA, entonces B = C.
En lo anterior se entiende que B y C tienen tamaños adecuados para poder multiplicarse por A.
El siguiente resultado permite determinar si una matriz de orden 2 es invertible y hallar su inversa.
Proposición 1.1.16. Una matriz A = ac db es invertible si y solo si ad − bc ̸= 0. En caso afirmativo, la
inversa de A es
−1 1 d −b
A = .
ad − bc −c a
Dem. Para lamatriz nula el resultado es obvio, ası́ que supondremos A ̸= 0. Definimos ∆ = ad − bc
d −b
y à = −c a . Operando obtenemos Aà = ÃA = ∆I, con A y à no nulas. Si ∆ = 0, entonces es
Aà = ÃA = 0 con à ̸= 0; luego el corolario 1.1.15 implica que A no es invertible. Si ∆ ̸= 0, entonces de
AÃ = ÃA = ∆I, deducimos
A ∆−1 Ã = ∆−1 Ã A = I.
7
Proposición 1.1.17. 1. Si una matriz tiene una fila o columna formada solo por ceros, entonces no es
invertible.
2. Una matriz diagonal es invertible si y solo si todas las entradas de la diagonal principal son no nulas.
En ese caso es −1 −1
a11 0 · · · 0 a11 0 ··· 0
0 a22 · · · 0 0 a−1 · · · 0
22
= .. .
.. .. .. .. ..
. . . . . .
0 0 · · · ann 0 0 · · · ann −1
Dem. Sean A, B ∈ Mn . Si A tiene una fila de ceros, entonces AB también tiene una fila de ceros y si B
tiene una columna de ceros, entonces AB también tiene una columna de ceros; luego en ninguno de estos
casos puede ser AB = I. La segunda afirmación se deduce de la anterior y de la fórmula para el producto
de matrices diagonales.
Pn
La traza. Si A = (aij ) ∈ Mn , entonces definimos su traza mediante tr(A) := i=1 aii . La siguiente
proposición resume las propiedades de la traza.
1. tr At = tr(A).
3. tr(AB) = tr(BA).
Dem. La prueba de las dos primeras propiedades es simple y queda como ejercicio. Consideremos P la tercera.
Sean A = (aij ) y B = (bij ). Entonces AB = (cij ) y BA = (dij ), siendo cij = nk=1 aik bkj y dij = nk=1 bik akj ,
P
para todo i, j. Luego
n
X n X
X n n
X n X
X n n X
X n
tr(AB) = cii = aik bki y tr(BA) = dii = bik aki = aki bik .
i=1 i=1 k=1 i=1 i=1 k=1 i=1 k=1
Si se intercambian los nombres de i con k en la última sumatoria, se obtiene tr(AB) = tr(BA). Para probar
la cuarta propiedad, escribimos Q = AP −1 y aplicamos la tercera propiedad
Observación 1.1.19. Notar que la propiedad 3 nos dice que vale tr(AB) = tr(BA), aun cuando AB ̸= BA.
8
1.2. Operaciones elementales
Se llaman operaciones elementales en una matriz a las siguientes.
Operación de tipo II : multiplicar una fila o columna por una constante no nula.
Operación de tipo III : sumarle a una fila o columna un múltiplo de otra fila o columna, respectivamente.
Se llaman matrices elementales de tipo I, II o III a las matrices que se obtienen aplicando las operaciones
elementales correspondientes a la matriz identidad.
1
1
.. ..
.
.
0 · · · 1
1
Tipo I: .
.. . . . ...
p
, 0 ̸= p ∈ k;
; Tipo II:
1
1 · · · 0
.
. ..
. .
1 1
1 1
.. ..
.
.
1 ··· q
1
.. .. .. . .
Tipo III: o , q ∈ k.
. .
. .
1
q ··· 1
.. ..
. .
1 1
Proposición 1.2.1. Realizar una operación elemental de tipo I, II o III en las filas (columnas) de una
matriz A, equivale a multiplicar a A por la izquierda (derecha) con una matriz elemental del mismo tipo.
Luego multiplicar del lado izquierdo por E1 equivale a intercambiar las filas 2 y 3, mientras que multiplicar
del lado derecho por E2 equivale a restarle a la columna 3 la columna 2.
9
Observación 1.2.3. Notar que la traspuesta de una matriz elemental, es una matriz elemental del mismo tipo.
Además, si realizar una operación elemental en las columnas de A corresponde a multiplicar por la derecha
a A con una cierta matriz elemental E, entonces realizar la misma operación en las filas de A corresponde
a multiplicar por la izquierda a A con E t .
Proposición 1.2.4. La inversa de una matriz elemental, es una matriz elemental del mismo tipo.
Dem. Para matrices de tipo I, si Mij es la matriz elemental correspondiente a la operación de intercambiar
la fila i con la j, entonces el producto Mij Mij lo que hace es intercambiar en Mij la fila i con la fila j y por
lo tanto Mij Mij = I, luego Mij es invertible y Mij−1 = Mij . La prueba para las matrices de los otros tipos
es similar y queda como ejercicio.
A ∼ A, A ∼ B ⇒ B ∼ A, A ∼ B y B ∼ C ⇒ A ∼ C.
Dem. Ejercicio (para la primera propiedad tener en cuenta el comentario anterior, y para la segunda, tener
en cuenta que la inversa de una matriz elemental es también una matriz elemental).
Observación 1.2.6. Como las matrices elementales son invertibles, y el producto de matrices invertibles es
también una matriz invertible, entonces la fórmula (1.2) implica que la equivalencia de matrices preserva la
invertibilidad. Es decir, si A, B ∈ Mn son equivalentes, entonces A es invertible si y solo si B es invertible.
Una pregunta natural es, ¿cuál es la forma más simple que podemos obtener realizando operaciones elemen-
tales en las filas y columnas de una matriz arbitraria? La respuesta la da el siguiente teorema. Antes de
probarlo, notar que la única matriz equivalente a la matriz nula es ella misma, ası́ que el caso interesante es
cuando la matriz no es nula. La prueba del teorema requiere del lema siguiente.
Lema 1.2.7. Si A ∈ Mm×n es no nula (m, n ≥ 2), entonces existe B ∈ Mm−1,n−1 tal que3 A ∼ 10 B0 .
Dem. Sea A = (aij ). Como es A ̸= 0, entonces existen k, l tales que akl ̸= 0. Si intercambiamos la columna
1 con la columna l y luego intercambiamos la fila 1 con la fila k, obtenemos una matriz cuyo coeficiente en
el lugar (1, 1) es akl . Si ahora multiplicamos la primera fila o columna de esa matriz por a−1kl , obtenemos
una matriz C = (cij ), tal que c11 = 1 y A ∼ C. Ahora es claro que siendo c11 = 1, haciendo operaciones
elementales de tipo III se otiene una matriz como en la tesis.
Para cada terna de enteros m, n, r, con m, n ≥ 1 y 1 ≤ r ≤ mı́n{m, n}, definimos Φm,n = I0r 00 ∈ Mm×n ,
r
siendo Ir ∈ Mr la matriz identidad. En la definición anterior entendemos Φm,nm = ( Im 0 ) si n > m, Φn
m,n
=
In si m > n y Φ
n,n
0 n = In .
3
Al escribir ( 10 B0 ) queremos decir que la fila de arriba está formada por un 1 en el primer lugar y luego el resto son ceros. Lo
mismo acurre con la primera columna.
10
Teorema 1.2.8. Si A ∈ Mm×n y A ̸= 0, entonces existe r, 1 ≤ r ≤ min{m, n}, tal que A ∼ Φm,n
r .
Dem. Haremos la prueba en etapas, considerando primero el caso m = n y luego los casos m ≥ n y m ≤ n.
I. Caso m = n. La prueba es por inducción en n. Para n = 1, es A = (a), con a ̸= 0, luego multiplicando
A por a−1 (operación elemental de tipo II) obtenemos A ∼ (1) = Φ11,1 .
Supongamos ahora que vale la tesis para matrices cuadradas de orden n − 1 (n ≥ 2) y sea A ̸= 0 unamatriz
cuadrada de orden n. Aplicando el lema 1.2.7 obtenemos que existe B ∈ Mn−1 tal que A ∼ 10 B0 . Si es
B = 0, entonces A ∼ Φn,n 1 . Si es B ̸= 0, entonces aplicando la hipótesis de inducción a B obtenemos que
n−1,n−1
. Entonces de A ∼ 0 B y B ∼ I0r 00 , deducimos A ∼ Φn,n
1 0
existe r, 1 ≤ r ≤ n − 1, tal que B ∼ Φr r+1 .
II. Caso m ≥ n. La prueba es por inducción en m. El caso m = n es lo que probamos en el caso anterior.
Supongamos ahora que vale la tesis para matrices de tamaño m × n con m ≥ n y sea A ̸= 0 una matriz de
tamaño (m + 1) × n. Consideremos A1 ∈ Mm×n la matriz formada por las primeras m filas de A.
Si A1 = 0, entonces A es una matriz de la forma A = B0 , siendo B ̸= 0 una matriz fila. Razonando como
Como en las primeras r filas de C hay unos en la diagonal, entonces realizando operaciones elementales de
tipo III en las filas obtenemos que A es equivalente a la matriz D obtenida poniendo c1 = · · · = cr = 0 en
la matriz C.
Si cr+1 = · · · = cn = 0, entonces A ∼ Φm+1,n
r . Si existe algún i ∈ {r + 1, . . . , n} tal que ci ̸= 0, entonces la
última fila de D es equivalente a la matriz F = (0, . . . , 0, 1, 0, . . . , 0) ∈ M1×n (el 1 está en el lugar r + 1).
Esto implica que A es equivalente a la matriz E obtenida cambiando la última fila de D por la fila F . Ahora
intercambiando en E la última fila con la fila r + 1 (operación elemental de tipo I), obtenemos A ∼ Φm+1,n r+1 .
t n,m t t
A = (Ek · · · E1 Φn,m t t t t t m,n t t
r F1 · · · Fh ) = Fh · · · F1 (Φr ) E1 · · · Ek = Fh · · · F1 Φr E1 · · · Ek .
Como la traspuesta de una matriz elemental vuele a ser una matriz elemental, concluimos A ∼ Φm,n
r .
11
Nota: La relación de equivalencia ∼ parte al conjunto Mm×n en clases de equivalencia. El teorema anterior
nos dice que si h = min{m, n}, entonces hay a lo más hay h + 1 clases, que corresponden a la clase de
la matriz nula (que tiene un solo elemento) y a las clases de las matrices Φm,n r , para r = 1, . . . , h. Más
adelante, después de ver transformaciones lineales, probaremos que si r ̸= s, entonces Φm,n
r y Φm,n
s no son
equivalentes, por lo que hay exactamente h + 1 clases de equivalencia.
El teorema anterior tiene aplicaciones importantes. La primera es la siguiente.
Teorema 1.2.9. Una matriz es invertible si y solo si es producto de matrices elementales.
Dem. Para que una matriz A ∈ Mn sea invertible, tiene que ser no nula. Entonces sabemos que es A ∼ Φn,n r ,
para cierto 1 ≤ r ≤ n. Luego A es invertible si y solo si Φn,n r es invertible (observación 1.2.6); pero es claro
que Φn,n
r es invertible si y solo si r = n (si r < n, entonces en Φn,n
r hay una fila de ceros). Luego A es invertible
n,n
si y solo si A ∼ Φn = In . Esto equivale a que existen matrices elementales E1 , . . . , Ek , F1 , . . . , Fh ∈ Mn
tales que A = Ek · · · E1 In F1 · · · Fh , lo cual equivale a A = Ek · · · E1 F1 · · · Fh .
Corolario 1.2.10. Dos matrices A, B ∈ Mm×n son equivalentes si y solo si existen matrices invertibles
U, V ∈ Mn tales que A = U BV .
Observación 1.2.11. En la sección siguiente veremos una condición necesaria y suficiente para que una matriz
sea invertible y luego mostraremos cómo usar las transformaciones elementales para calcular la inversa.
1.3. Determinantes
En esta sección trabajaremos solo con matrices cuadradas.
Para motivar la definición, recordar que en la proposición 1.1.16 probamos que una matriz ac db es invertible
si y solo si ad − bc ̸= 0. Este número ad − bc es lo que se llama el determinante de la matriz.
En general, el determinante de una matriz cuadrada A ∈ Mn es un número que escribimos det(A) o |A| y
que para n = 1, 2, 3 se define por lo siguiente.
a b
a b
n = 2. Si A = c d , entonces c d := ad − bc.
a11 a12 a13
n = 3. Si A = a21 a22 a23 , entonces
a31 a32 a33
a11 a12 a13
a a a a a a
a21 a22 a23 := a11 22 23 − a12 21 23 + a13 21 22
a32 a33 a31 a33 a31 a32
a31 a32 a33
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 . (1.3)
Observación 1.3.1. Hay una manera de recordar la fórmula (1.3) llamada el método de Sarrus. Consiste en
construir una tabla repitiendo abajo las dos primeras filas de la matriz
a11 a12 a13
a21 a22 a23
a31 a32 a33 .
a11 a12 a13
a21 a22 a23
12
El determinante se obtiene sumando los productos de las diagonales que van de izquierda a derecha y luego
restando los productos de las diagonales que van de derecha a izquierda. El resultado queda
a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a13 a22 a31 − a23 a32 a11 − a33 a12 a21 ,
que claramente coincide con la fórmula (1.3). El método de Sarrus solo sirve para matrices 3 × 3 y no
recomendamos su aplicación. El método general que veremos más adelante es mucho más eficiente.
La fórmula general para el determinante de una matriz n × n se define recursivamente, generalizando el
método que usamos para definir la fórmula en el caso n = 3. Para la misma necesitamos introducir los
cofactores, que definimos a continuación.
Consideremos A = (aij ) una matriz de orden n. Para cada i, j = 1, . . . , n, sea Ãij la matriz de orden n − 1
obtenida suprimiendo la fila i y la columna
j de A. El cofactor correspondiente al lugar (i, j) de la matriz
i+j
A es el número ∆ij (A) := (−1) det Ãij . En lo que sigue, para simplifcar la notación, cuando no genere
ambigüedad escribiremos ∆ij en vez de ∆ij (A).
a11 a12 a13
Por ejemplo, para una matriz A = a21 a22 a23 , los cofactores ∆11 , ∆12 , ∆13 y ∆21 , son
a31 a32 a33
Esa es la fórmula que vamos a generalizar. Si A = (aij ) ∈ Mn , entonces el determinante de A se define por
recurrencia mediante
n
X
det(A) := a1j ∆1j = a11 ∆11 + a12 ∆12 + · · · + a1n ∆1n . (1.4)
j=1
Si A es una matriz de orden n, entonces se dice que det(A) es un determinante de orden n. La fórmula anterior
nos dice que para calcular un determinante de orden n, tenemos que calcular n determinantes de orden n−1.
Luego, como sabemos calcular determinantes de orden 3, entonces podemos calcular determinantes de orden
4, sabiendo estos podemos calcular los de orden 5, y siguiendo ası́ podemos calcular determinantes de orden
n, para cualquier entero positivo n.
En general calcular determinantes requiere bastante esfuerzo, pero para las matrices diagonales es fácil.
13
Proposición 1.3.2. El determinante de una matriz es diagonal es el producto de los elementos de la diagonal
principal.
Dem. Sea A ∈ Mn una matriz diagonal. La prueba por inducción en n. El caso n = 1 es trivial. Supongamos
ahora que vale la tesis para matrices diagonales de orden n − 1, entonces
a11 0 · · · 0
a22 · · · 0
0 a22 · · · 0 .. .. ..
.. .. .. .. = a11 . . . + 0 + · · · + 0 = a11 (a22 · · · ann ) = a11 a22 · · · ann .
. . . .
0 ··· ann
0 0 ··· ann
Ejemplo 1.3.3. El determinante de la matriz identidad In vale 1, para todo n.
Observación 1.3.4. Existe una fórmula explı́cita para el determinante de una matriz n × n, que en el caso
n = 3 es la fórmula (1.3). Para quienes tengan conocimientos de permutaciones, la fórmula del determinante
de una matriz A = (aij ) ∈ Mn es
X
det(A) = sg(σ)a1σ(1) a2σ(2) · · · anσ(n) .
n∈Sn
A continuación veremos algunas propiedades de los determinantes, que en particular sirven para simplificar
los cálculos. En general las primeras pruebas van a ser por inducción, usando la fórmula (1.4).
Proposición 1.3.6. Si la matriz B se obtiene multiplicando una fila de una matriz A por una constante c,
entonces det(B) = c · det(A), es decir
Dem. Si n = 1, entonces es det(a11 ) = a11 , luego det(ca11 ) = ca11 = c det(a11 ). Sea ahora n ≥ 2. Supon-
gamos, razonando inductivamente, que se cumple la tesis para matrices de orden n − 1. Sea i la fila de la
matriz A = (aij ) ∈ Mn que aparece multiplicada por la constante c. Si i = 1, es
14
Supongamos ahora i ≥ 2. Aplicando la definición del determinante y la hipótesis inductiva, obtenemos
Corolario 1.3.7. Si una matriz tiene una fila formada solo por ceros, entonces su determinante es nulo.
Proposición 1.3.8. El determinante es aditivo respecto a cada fila, es decir, para cada i = 1, . . . , n, vale
Dem. Ejercicio.
La prueba del siguiente teorema requiere cierto esfuerzo, pero el resultado es importante porque todo lo que
haremos a continuación requiere ese teorema.
Teorema 1.3.9. Si una matriz A = (aij ) ∈ Mn (n ≥ 2) tiene una fila i en la cual para algún j es aij = 1
y el resto de los elementos de la fila son nulos, entonces det(A) = ∆ij .
15
tiene orden n y que la tesis vale para matrices de orden n − 1. La matriz A ∈ Mn tiene la forma
a11 ··· a1,j−1 a1,j a1,j+1 · · · a1n
a21
··· a2,j−1 a2,j a2,j+1 · · · a2n
.. .. .. .. ..
. . . . .
ai−1,1 · · · ai−1,j−1 ai−1,j ai−1,j+1 · · · ai−1,n
A=
0
··· 0 1 0 ··· 0
ai+1,1
· · · ai+1,j−1 ai+1,j ai+1,j+1 · · · ai+1,n
. .. .. .. ..
.. . . . .
an,1 · · · an,j−1 an,j an,j+1 · · · an,n
det(A) = a11 ∆11 (A) + · · · + a1,j−1 ∆1,j−1 (A) + a1j ∆1j (A) + a1,j+1 ∆1,j+1 (A) + · · · + a1n ∆1n (A).
En el determinante que aparece en ∆1j (A) la fila i-ésima está formada solo por ceros, luego ∆1j (A) = 0.
Entonces aplicando la definición del determinante para B obtenemos
det(A) = a11 ∆11 (A) + · · · + a1,j−1 ∆1,j−1 (A) + a1,j+1 ∆1,j+1 (A) + · · · + a1n ∆1n (A),
det(B) = a11 ∆11 (B) + · · · + a1,j−1 ∆1,j−1 (B) + a1,j+1 ∆1,j (B) + · · · + a1n ∆1,n−1 (B).
Notar que en la primera fila de B, en el lugar j está el coeficiente a1,j+1 , en el lugar j + 1 está a1,j+2 y ası́
seguimos hasta llegar al lugar n − 1 donde está a1,n . Esa es la razón por la cual en det(B) hay una diferencia
entre los subı́ndices de los primeros j − 1 sumandos y los siguientes.
A continuación probaremos que vale
(
(−1)i+j ∆1k (B), 1≤k ≤j−1
∆1k (A) = . (1.5)
(−1)i+j ∆1,k−1 (B), j+1≤k ≤n
Luego es claro que esta fórmula junto con las dos de arriba, implican det(A) = (−1)i+j det(B).
16
La idea de la prueba es la siguiente. Empezamos describiendo4 los cofactores ∆1k (B) involucrados en (1.5).
a21 ··· a2,k−1 a2,k+1 ··· a2,j−1 a2,j+1 ··· a2n
∆1k (B) = (−1) k+1 .. .. .. .. .. .. , 1 ≤ k ≤ j − 1,
. . . . . .
an,1 · · · an,k−1 an,k+1 · · · an,j−1 an,j+1 · · · an,n
a21 ··· a2,j−1 a2,j+1 ··· a2,k−1 a2,k+1 ··· a2n
∆1,k−1 (B) = (−1) k .. .. .. .. .. .. , j + 1 ≤ k ≤ n − 1.
. . . . . .
an,1 · · · an,j−1 an,j+1 · · · an,k−1 an,k+1 · · · an,n
Tener en cuenta que los cofactores anteriores se obtienen eliminando la i-ésima fila de A, lo cual no estamos
explicitando. Ahora calculamos los cofactores de A, aplicando la hipótesis inductiva. Para 1 ≤ k ≤ j − 1, es
a21 ··· a2,k−1 a2,k+1 ··· a2,j−1 a2j a2,j+1 ··· a2n
.. .. .. .. .. .. ..
. . . . . . .
ai−1,1 · · · ai−1,k−1 ai−1,k+1 ··· ai−1,j−1 ai−1,j ai−1,j+1 · · · ai−1,n
∆1k (A) = (−1)k+1 0 ··· 0 0 ··· 0 1 0 ··· 0
ai+1,1 · · · ai+1,k−1 ai+1,k+1 ··· ai+1,j−1 ai+1,j ai+1,j+1 · · · ai+1,n
.. .. .. .. .. .. ..
. . . . . . .
an,1 ··· an,k−1 an,k+1 ··· an,j−1 an,j an,j+1 ··· an,n
a21 ··· a2,k−1 a2,k+1 ··· a2,j−1 a2,j+1 ··· a2n
= (−1) k+1
(−1) i−1+j−1 .. .. .. .. .. ..
. . . . . .
an,1 · · · an,k−1 an,k+1 · · · an,j−1 an,j+1 · · · an,n
= (−1)i+j ∆1k (B).
Respecto al cálculo anterior, en el primer determinante el coeficiente 1 se encuentra en la fila i − 1 (porque
habı́amos eliminado la primera fila) y en la columna j − 1 (porque habı́amos eliminado la columna k, y
es k < j), de ahı́ el factor (−1)i−1+j−1 . Notar también que el segundo determinante se obtiene eliminando
la i-ésima fila y la j-ésima columna del primero, pero no estamos explicitando la fila eliminada. Ahora
consideramos el caso j + 1 ≤ k ≤ n.
a21 ··· a2,j−1 a2,j a2,j+1 ··· a2,k−1 a2,k+1 ··· a2n
.. .. .. .. .. .. ..
. . . . . . .
ai−1,1 · · · ai−1,j−1 ai−1,j ai−1,j+1 · · · ai−1,k−1 ai−1,k+1 ··· ai−1,n
∆1k (A) = (−1)1+k 0 ··· 0 1 0 ··· 0 0 ··· 0
ai+1,1 · · · ai+1,j−1 ai+1,j ai+1,j+1 · · · ai+1,k−1 ai+1,k+1 ··· ai+1,n
.. .. .. .. .. .. ..
. . . . . . .
an,1 ··· an,j−1 an,j an,j+1 ··· an,k−1 an,k+1 ··· an,n
a21 ··· a2,j−1 a2,j+1 ··· a2,k−1 a2,k+1 ··· a2n
= (−1) 1+k
(−1) i+j−1 .. .. .. .. .. ..
. . . . . .
an,1 · · · an,j−1 an,j+1 · · · an,k−1 an,k+1 · · · an,n
= (−1)i+j ∆1,k−1 (B).
Este caso difiere del anterior en que en el primer determinante, el coeficiente 1 se encuentra en la fila i − 1
y la columna j, de ahı́ el factor (−1)i−1+j . Con esta última igualdad completamos la prueba.
4
Si nos ponemos muy formales, los casos ∆1,j−1 (B) y ∆1,j (B) hay que discutirlos por separado, porque no quedan bien
descritos por las fórmulas que presentamos. En ambos casos también vale (1.5) y se pueden hacer las pruebas como ejercicio.
17
Combinando la proposición anterior con la proposición 1.3.6 se obtiene el siguiente resultado.
Corolario 1.3.10. Si una matriz cuadrada A tiene una fila i en la cual todos los elementos son nulos salvo
eventualmente el aij , entonces det(A) = aij ∆ij .
Proposición 1.3.11. Sea A = (aij ) ∈ Mn . Para cada i = 1, . . . , n, el determinante de A se puede calcular
desarrollando a partir de la fila i:
n
X
det(A) = aij ∆ij = ai1 ∆i1 + ai2 ∆i2 + · · · + ain ∆in . (1.6)
j=1
18
Corolario 1.3.14. Si la matriz B se obtiene de la matriz A intercambiando dos de sus filas, entonces
det(B) = − det(A).
Corolario 1.3.15. Si una matriz tiene una fila que es múltiplo de otra fila, entonces su determinante es
nulo.
Corolario 1.3.16. Si en una matriz le sumamos a una fila un múltiplo de otra fila, entonces su determinante
no varı́a.
a11 ··· a1n a11 ··· a1n a11 ··· a1n a11 ··· a1n
.. .. .. .. .. .. .. ..
. . . . . . . .
ai1 + caj1 · · · ain + cajn ai1 · · · ajn caj1 · · · cajn ai1 · · · ajn
.. .. = ... .. + .. .. = .. .. .
. . . . . . .
aj1 ··· ajn aj1 · · · ajn aj1 · · · ajn aj1 · · · ajn
.. .. .. .. .. .. .. ..
. . . . . . . .
an1 ··· ann an1 · · · ann an1 · · · ann an1 · · · ann
19
3. Si E es de tipo III, entonces det(E) = 1.
Dem. Si E es de tipo I, entonces E se obtiene intercambiando dos filas de la matriz identidad I, luego
det(E) = − det(I) = −1. Las matrices de tipo II son matrices diagonales y las de tipo III son matrices
triangulares, luego en cada caso su determinante es el producto de los elementos de la diagonal principal.
Teorema 1.3.18. Para todo A, B ∈ Mn , vale det(AB) = det(A) det(B).
Dem. Haremos la prueba en etapas, discutiendo según la matriz A.
I. A es una matriz elemental. Discutimos según el tipo de la matriz elemental (recordar la proposición
1.3.17). Si A es de tipo I, entonces AB es una matriz que se obtiene de B intercambiando dos de sus filas,
luego
det(AB) = − det(B) = (−1) det(B) = det(A) det(B).
Si A es de tipo II y 0 ̸= k es la constante que aparece en la diagonal de A, entonces AB es una matriz que
se obtiene de B multiplicando una de sus filas por k, luego
Si A es de tipo III, entonces AB es una matriz que se obtiene de B sumándole a una fila un múltiplo escalar
de otra fila. Como esto no afecta el determinante, deducimos
II. A es una matriz invertible. Como A es invertible, entonces el teorema 1.2.9 nos dice que existen
matrices elementales E1 , . . . , El ∈ Mn tales que A = E1 · · · El . Luego necesitamos probar que vale
La prueba es por inducción en la cantidad de factores l. Notar que el caso l = 1 es la parte anterior. A partir
de ahora asumimos l > 1 y que el resultado vale para l − 1. Entonces
det(E1 E2 · · · El B) = det E1 (E2 · · · El B) = det(E1 ) det(E2 · · · El B) = det(E1 ) det(E2 · · · El ) det(B)
= det E1 (E2 · · · El ) det(B) = det(E1 E2 · · · El ) det(B).
Luego acabamos de probar que si A no es invertible, entonces det(AB) = 0, para toda B ∈ Mn . Luego
tomando B = I en det(AB) = 0, obtenemos det(A) = 0. Eso a su vez implica det(A) det(B) = 0 y por lo
tanto cuando A no es invertible, vale det(AB) = det(A) det(B) = 0, para toda B ∈ Mn .
Teorema 1.3.19. Una matriz A ∈ Mn es invertible si y solo si det(A) ̸= 0. En caso afirmativo,
20
Dem. Si A ∈ Mn no es invertible, entonces en la prueba de la parte III del teorema anterior vimos que es
det(A) = 0. Si A ∈ Mn es invertible, entonces existe su inversa A−1 que verifica AA−1 = I. Luego
Supongamos ahora que A es invertible. Entonces existen matrices elementales E1 , . . . , Ek ∈ Mn tales que
A = E1 · · · Ek y por lo tanto At = Ekt · · · E1t . Entonces aplicando reiteradamente el teorema 1.3.18, obtenemos
Para completar la demostración, alcanza con probar que vale det E t = det(E) para toda matriz elemental
2. Si una matriz tiene una columna formada solo por ceros o tiene una columna que es múltiplo de otra
columna, entonces su determinante es nulo.
3. Si B se obtiene multiplicando una columna de A por una constante c, entonces det(B) = c det(A)
a11 ··· b1j + c1j ··· a1n a11 · · · b1j ··· a1n a11 · · · c1j ··· a1n
.. .. .. = .. .. .. + .. .. .. .
. . . . . . . . .
an1 · · · bnj + cnj ··· ann an1 · · · bnj ··· ann an1 · · · cnj ··· ann
5. Si en una matriz le sumamos a una columna un múltiplo escalar de otra columna, entonces su deter-
minante no varı́a.
21
6. Si A es tal que en una columna j todos los elementos son nulos salvo el aij , entonces det(A) = aij ∆ij .
7. Sea A = (aij ) ∈ Mn . Para cada j = 1, . . . , n, el determinante de A se puede calcular desarrollando a
partir de la columna j:
n
X
det(A) = aij ∆ij = a1j ∆1j + a2j ∆2j + · · · + anj ∆nj .
i=1
Observación 1.3.24. La técnica para calcular determinantes consiste en aplicar reiteradamente la propiedad
5 del teorema 1.3.23 (o la correspondiente en filas), hasta llegar al determinante de una matriz que tiene
solo un elemento no nulo en una fila o columna. Luego se reduce su orden mediante la propiedad 6 del
teorema 1.3.23 (o la correspondiente en filas), usando también las otras propiedades para ir simplificando
los cálculos. Reiterando este procedimiento se reduce el cálculo de un determinante de orden n, al cálculo
de uno de orden 2.
A continuación veremos ejemplos de cálculo de determinantes. En lo que sigue, si por ejemplo escribimos
F2 − F1 quiere decir que a la fila 2 le estamos restando la fila 1, análogamente C3 + 2C4 quiere decir que
a la columna 3 le estamos sumando la columna 4 multiplicada por 2. Notar que en las sumas o restas
anteriores siempre escribimos primero la fila o columna que es modificada. Solo vamos a aclarar, este tipo
de operaciones, identificar las otras queda a cargo del lector.
Ejemplo 1.3.25.
1 5 7 1 5 7
3 1
0 3 1 = 0 3 1 = = −33 + 8 = −25.
−8 −11
2 2 3 0 −8 −11
El primer paso fue F3 − 2F1 .
Ejemplo 1.3.26.
2 3 5 2 3 5 2 3 5 2 3 5 0 −1 11
6 10 4 = 2 3 5 2 = 20 3 5 2 = 20 1 2 −3 = 20 1 2 −3
50 20 30 50 20 30 5 2 3 5 2 3 5 2 3
0 −1 11
−1 11 −1 11
= 20 1 2 −3 = −20 = −40 = −1400.
−8 18 −4 9
0 −8 18
El tercer paso es F2 − F1 (para obtener a21 = 1), el cuarto F1 − 2F2 y el quinto F3 − 5F2 .
Ejemplo 1.3.27.
1 −2 1 3 1 −2 1 3
5 7 8 9 5 7 8 9
=6 = 0.
2 0 −2 4 1 0 −1 2
3 0 −3 6 1 0 −1 2
El determinante final es nulo por tener dos filas iguales.
Ejemplo 1.3.28.
2 1 0 1 0 5 2 5
5 2 5 0 0 1
−1 2 1 2 −1 2 1 2 −1 2
= = −(−1) −1 2 4 = −1 2 4 = = −12.
0 −1 2 4 0 −1 2 4 5 2
5 2 4 5 2 4
1 3 1 2 0 5 2 4
El primer paso es F1 + 2F2 y F4 + F2 (dos cambios al mismo tiempo), luego F1 − F3 .
22
Ejemplo 1.3.29.
2 9 5 7 2 9 5 7 −7 9 5 7 −7 37 5 7
37 5 7
4 2 3 2 4 2 3 2 2 2 3 2 2 −6 3 2
= = = = − −6 3 2
7 4 2 3 7 4 2 3 3 4 2 3 3 −8 2 3
−8 2 3
9 6 3 2 5 4 0 0 1 4 0 0 1 0 0 0
37 5 2 25 11 0
25 11
= − −6 3 −1 = − −6 3 −1 = (−1) = 279.
−14 5
−8 2 1 −14 5 0
El primer paso es F4 − F2 , luego C1 − C2 (para obtener a14 = 1), luego C2 − 4C1 , reducimos a orden 3,
C3 − C2 , F1 + 2F2 y F3 + F2 (dos cambios al mismo tiempo).
Método para hallar la matriz inversa. Sabemos que una matriz es invertible si y solo si su determinante
es distinto de cero. A continuación veremos un método para hallar su inversa.
Supongamos que A ∈ Mn es invertible. Sabemos que existen matrices elementales E1 , . . . , Es tales que
A−1 = E1 · · · Es . Por otro lado, si E1 , . . . , Er son matrices elementales, entonces A−1 A = I implica
A−1 (AE1 · · · Er ) = E1 · · · Er . Luego si elegimos E1 , . . . , Er de forma tal que AE1 · · · Er = I, entonces
A−1 = E1 · · · Er . Observar que multiplicar a A por la derecha por matrices elementales equivale a hacer
las operaciones elementales correspondientes en las columnas de A, por lo tanto si realizando ciertas ope-
raciones elementales en las columnas de una matriz A llegamos a la matriz identidad (AE1 · · · Er = I),
entonces realizando las mismas operaciones elementales en las columnas de la matriz identidad I obtenemos
A−1 = E1 · · · Er = IE1 · · · Er . De la misma forma, operar con las filas equivale a multiplicar por la izquierda,
y por lo tanto partiendo de la otra igualdad AA−1 = I, se obtiene un algoritmo análogo operando con filas
en vez de columnas.
Notar que cuando operamos con columnas partimos de A−1 A = I, pero cuando operamos con las filas
partimos de AA−1 = I. Por esa razón para hallar la inversa no podemos realizar operaciones elementales
con filas y columnas al mismo tiempo.
A continuación veremos algunos ejemplos donde estudiamos la invertibilidad de matrices y calculamos las
inversas. En lo que sigue, si por ejemplo escribimos F2 − F1 quiere decir que a la fila 2 le estamos restando la
fila 1, análogamente C3 + 2C4 quiere decir que a la columna 3 le estamos sumando la columna 4 multiplicada
por 2. Notar que en las sumas o restas anteriores siempre escribimos primero la fila o columna que es
modificada. Si escribimos F2 ↔ F3 , quiere decir que intercambiamos la fila 2 con la fila 3, y análogamente
para columnas.
2 3 1
Ejemplos 1.3.30. Sea A = −1 0 −1. Primero estudiamos su invertibilidad.
1 1 1
2 3 1 1 3 1
0 −1
−1 0 −1 = 0 0 −1 = = 1.
1 1
1 1 1 0 1 1
23
caso elegimos las columnas.
2 1 3 1 0 0
−1−1 0 0 1 0
1 1 1 0 0 1
1 1 3 1 0 0
0 −1 0 0 1 0 C1 − C3
0 1 1 −1 0 1
1 1 2 1 0 0
0 −1 1 0 1 0 C2 − C3
0 1 0 −1 −1 1
1 0 2 1 0 −1
0 −1 1 0 1 0 C3 − C1
0 1 0 −1 −1 2
1 0 0 1 −2 −1
0 −1 1 0 1 0 C2 − 2C1
0 1 0 −1 1 2
1 0 0 1 −2 −3
0 0 1 0 1 1 C3 + C2
0 1 0 −1 1 3
1 −2 −3
Luego la inversa es A−1 = 0 1 1 .
−1 1 3
2 −2 1
Sea A = 2 −1 0. Dejamos como ejercicio verificar det(A) = −1, luego A es invertible. Hallaremos su
1 −2 1
inversa operando con las filas. Esta vez iremos más rápido, haciendo a veces más de una operación por paso.
2 −2 1 1 0 0
2 −1 0 0 1 0
1 −2 1 0 0 1
1 0 0 1 0 −1
2 −1 0 0 1 0 F1 − F3
1 −2 1 0 0 1
1 0 0 1 0 −1
−2 1 0 0 −1 0 (−1)F2
1 −2 1 0 0 1
1 0 0 1 0 −1
−2 1 0 0 −1 0 F3 + 2F2
−3 0 1 0 −2 1
1 0 0 1 0 −1
0 1 0 2 −1 −2 F2 + 2F1 y F3 + 3F1
0 0 1 3 −2 −2
1 0 −1
Luego la inversa es A−1 = 2 −1 −2.
3 −2 −2
24
3 1 1
Sea A = 2 3 2. Notar que vale det(A) = 6, luego A es invertible. Trabajaremos con columnas.
3 3 3
3 1 1 1 0 0
2 3 2 0 1 0
3 3 3 0 0 1
2 0 1 1 0 0
0 1 2 0 1 0 C1 − C3 y C2 − C3
0 0 3 −1 −1 1
1 0 1 1/2 0 0
1
0 1 2 0 1 0 2 C1
0 0 3 −1/2 −1 1
1 0 0 1/2 0 −1/2
0 1 2 0 1 0 C3 − C1
0 0 3 −1/2 −1 3/2
1 0 0 1/2 0 −1/6
0 1 0 0 1 −2/3 C3 − 2C2
0 0 3 −1/2 −1 7/6
1 0 0 1/2 0 −1/6
1
0 1 0 0 1 −2/3 3 C3
0 0 1 −1/2 −1 7/6
1/2 0 −1/6
Luego la inversa es A−1 = 0 1 −2/3.
−1/2 −1 7/6
Observación 1.3.31. Notar que en los ejemplos anteriores lo que hicimos primero fue transformar la matriz
A en una matriz triangular y luego llevarla a una forma diagonal. Es importante verificar que la matriz
hallada es realmente la matriz inversa (haciendo el producto), dado que es fácil cometer errores de cálculo.
Observación 1.3.32. Conviene remarcar que hay dos situaciones distintas.
1. Si queremos investigar si una matriz es invertible, entonces necesitamos ver si su determinante es cero
o no, y para calcularlo podemos usar operaciones elementales en sus filas y/o columnas.
2. Si ya sabemos que una matriz es invertible y queremos hallar su inversa, entonces aplicamos el algoritmo
de arriba, pero tenemos que elegir trabajar con filas o columnas, y no podemos mezclar.
Fórmula general de la matriz inversa. Para probar la fórmula necesitamos el siguiente resultado, el
cual tiene interés en sı́ mismo.
25
Dem. Sea AÂ = (cij ). Entonces para todo i, j = 1, . . . , n, es
n
X
cij = aik ∆jk .
k=1
Teorema 1.3.34. Si una matriz A ∈ Mn es invertible, entonces su matriz inversa se obtiene mediante
t
∆11 ∆12 · · · ∆1n ∆11 ∆21 · · · ∆n1
1 ∆21 ∆22 · · · ∆2n 1 ∆12 ∆22 · · · ∆n2
A−1 = .. .. .. = . .. .. .
det(A) . det(A) ..
. . . .
∆n1 ∆n2 · · · ∆nn ∆1n ∆2n · · · ∆nn
Observación 1.3.35. Lo interesante de este teorema es que nos da una descripción explı́cita de la inversa,
pero como método para invertir una matriz, el algoritmo que vimos antes es mucho más rápido (salvo para
matrices 2 × 2).
Si definimos
a11 ··· a1n x1 b1
.. .. ∈ M
A= . m×n (k), X = ... ∈ Mn×1 (k), B = ... ∈ Mm×1 (k),
.
am1 · · · amn xn bm
AX = B. (1.8)
La ventaja de (1.8) es que tiene una sola incógnita (matricial). Para el estudio de (1.7) conviene considerar
el sistema homogéneo asociado:
a11 x1 + · · · + a1n xn = 0
.. (1.9)
.
am1 x1 + · · · + amn xn = 0
26
Recordar que el sistema homogéneo siempre admite la solución trivial x1 = · · · = xn = 0, por lo que siempre
es compatible. Lo que interesa en este caso es saber si admite alguna solución no trivial, es decir si es
indeterminado. Sea SB el conjunto de soluciones de la ecuación AX = B y S0 el conjunto de soluciones de
la ecuación AX = 0, es decir
SB = {X ∈ kn : AX = B}, S0 = {X ∈ kn : AX = 0},
1. Si X1 ∈ S0 y c ∈ k, entonces cX1 ∈ S0 .
2. Si X1 , X2 ∈ SB , entonces X1 − X2 ∈ S0 .
3. Si X1 ∈ SB y X0 ∈ S0 , entonces X1 + X0 ∈ SB .
4. Si SB ̸= ∅ y X1 ∈ SB , entonces SB = {X1 + X : X ∈ S0 }.
Dem.
3. X1 ∈ SB y X0 ∈ S0 ⇒ A(X1 + X0 ) = B + 0 = B ⇒ X1 + X0 ∈ SB .
1. El sistema puede ser compatible o no, pero en caso de ser compatible, entonces la parte 4 nos dice que
es determinado si y solo si la única solución que admite el sistema homogéneo asociado es la trivial.
Esto depende solo de la matriz A y no de la columna de resultados B.
Los comentarios siguientes se refieren a cuando el cuerpo k es infinito (como es el caso de k = R).
2. La parte 1 nos dice que si el sistema homogéneo (1.9) admite alguna solución no trivial, entonces tiene
infinitas soluciones.
3. La parte 2 muestra que si el sistema no homogéneo admite más de una solución (es indeterminado),
entonces el sistema homogéneo asociado admite alguna solución no trivial y por lo tanto tiene infinitas
soluciones. Luego la parte 4 implica que el sistema no homogéneo también tiene infinitas soluciones.
Es decir, un sistema compatible indeterminado (homogéneo o no) siempre tiene infinitas soluciones.
Recordar que llamamos sistemas cuadrados a los que tienen tantas ecuaciones como variables. En ese caso
llamamos determinante del sistema al determinante de la matriz formada por sus coeficientes.
Proposición 1.4.3. Si en un sistema homogéneo hay más incógnitas que ecuaciones o hay la misma cantidad
pero el determinante del sistema es cero, entonces el sistema admite alguna solución no trivial.
27
Ir 0
valdrı́a A = U V y por lo tanto A serı́a invertible). Luego en cualquiera de los dos casos es A = U 0 0 V,
con 1 ≤ r < n. Sea
0
..
.
0 n
Y1 = 1 ∈ k .
..
.
1
en el cual hay r ceros y n − r unos. Definimos Y0 = V −1 Y1 , de forma tal que Y1 = V Y0 . Entonces
Además notar que Y1 ̸= 0 implica Y0 ̸= 0. Luego Y0 es una solución no trivial del sistema.
Teniendo en cuenta la parte 1 de las observaciones 1.4.2, deducimos lo siguiente.
Corolario 1.4.4. Si en un sistema hay más incógnitas que ecuaciones o hay la misma cantidad pero el
determinante del sistema es cero, entonces el sistema es incompatible o compatible indeterminado.
El siguiente ejemplo muestra que se pueden dar cualquiera de las dos opciones anteriores.
Ejemplo 1.4.5. Consideremos los siguientes sistemas
x+y+z = 1 x+y+z = 1
x+y+z = 1 x+y+z = 1
x+y+z = 1 , x+y+z = 0 , , .
x+y+z = 1 x + y + z = −1
x+y+z = 1 x + y + z = −1
En los dos primeros casos el determinante del sistema es cero, pero el primero es compatible indeterminado y
el segundo es incompatible. En los casos tercero y cuarto hay más incógnitas que ecuaciones, pero el tercero
es indeterminado y el cuarto es incompatible.
Proposición 1.4.6. Si en un sistema hay la misma cantidad de ecuaciones que de incógnitas, entonces el
sistema es compatible determinado si y solo si su determinante es distinto de cero.
Dem. Mantenemos las notaciones anteriores. En el corolario anterior vimos que si det A = 0, entonces el
sistema es incompatible o compatible indeterminado. Por otro lado, si det(A) ̸= 0, entonces A es invertible
y por lo tanto AX = B implica X = A−1 B; luego en este caso el sistema es compatible determinado.
Corolario 1.4.7. Si en un sistema homogéneo hay la misma cantidad de ecuaciones que de incógnitas,
entonces el sistema admite alguna solución no trivial si y solo si su determinante es cero.
Los siguientes ejemplos muestran que si en un sistema hay menos incógnitas que ecuaciones, entonces no se
puede anticipar nada.
Ejemplos 1.4.8. Consideremos los siguientes sistemas
x+y = 0 x+y = 0 x+y = 2 x+y = 2 x+y = 1
x−y = 0 , 2x + 2y = 0 , x−y = 0 , x−y = 0 , 2x + 2y = 2
2x + y = 0 3x + 3y = 0 2x + y = 3 2x + y = 1 3x + 3y = 3
Respecto a los dos primeros sistemas (homogénos), el primero es compatible determinado y el segundo
es compatible indeterminado. El tercer sistema es compatible determinado, el cuarto es incompatible y el
quinto es compatible indeterminado.
28