Linear Transformations for Students
Linear Transformations for Students
KELAS :2B
NIM:11190170000020
Unfortunately, no one can be told, what the Matrix is. You have to see it for
yourself. – Morpheus. Surprisingly apt words on the importance of understanding
matrix operations visually.
Hey everyone! If I had to choose just one topic that makes all of the others in
linear algebra start to click and which too often goes unlearned the first time a student
takes linear algebra, it would be this one: the idea of a linear transformation and its
relation to matrices.
For this video, I'm just going to focus on what these transformations look like in
the case of two dimensions and how they relate to the idea of matrix-vector
multiplication. In particular, I want to show you a way to think about matrix-vector
multiplication that doesn't rely on memorization. To start, let's just parse this term
“linear transformation”. “Transformation” is essentially a fancy word for “function”. It's
something that takes in inputs and spits out an output for each one. Specifically in the
context of linear algebra, we like to think about transformations that take in some vector
and spit out another vector. So why use the word “transformation” instead of “function”
if they mean the same thing? Well, it's to be suggestive of a certain way to visualize this
input-output relation. You see, a great way to understand functions of vectors is to use
movement. If a transformation takes some input vector to some output vector, we
imagine that input vector moving over to the output vector. Then to understand the
transformation as a whole, we might imagine watching every possible input vector
move over to its corresponding output vector. It gets really crowded to think about all of
the vectors all at once, each one is an arrow, So, as I mentioned last video, a nice trick is
to conceptualize each vector, not as an arrow, but as a single point: the point where its
tip sits. That way to think about a transformation taking every possible input vector to
some output vector, we watch every point in space moving to some other point.
In the case of transformations in two dimensions, to get a better feel for the
whole “shape” of the transformation, I like to do this with all of the points on an infinite
grid. I also sometimes like to keep a copy of the grid in the background, just to help
keep track of where everything ends up relative to where it starts. The effect for various
transformations, moving around all of the points in space, is, you've got to admit,
beautiful. It gives the feeling of squishing and morphing space itself. As you can
imagine, though arbitrary transformations can look pretty complicated, but luckily linear
algebra limits itself to a special type of transformation, ones that are easier to
understand, called “linear” transformations.
But, isn't it more fun to think about these columns as the transformed versions of
your basis vectors and to think about the results as the appropriate linear combination of
those vectors? Let's practice describing a few linear transformations with matrices. For
example, if we rotate all of space 90° counterclockwise then i-hat lands on the
coordinates (0, 1) and j-hat lands on the coordinates (-1, 0). So the matrix we end up
with has columns (0, 1), (-1, 0). To figure out what happens to any vector after 90°
rotation, you could just multiply its coordinates by this matrix. Here's a fun
transformation with a special name, called a “shear”. In it, i-hat remains fixed so the
first column of the matrix is (1, 0), but j-hat moves over to the coordinates (1,1) which
become the second column of the matrix. And, at the risk of being redundant here,
figuring out how a shear transforms a given vector comes down to multiplying this
matrix by that vector. Let's say we want to go the other way around, starting with the
matrix, say with columns (1, 2) and (3, 1), and we want to deduce what its
transformation looks like. Pause and take a moment to see if you can imagine it. One
way to do this is to first move i-hat to (1, 2). Then, move j-hat to (3, 1). Always moving
the rest of space in such a way that keeps grid lines parallel and evenly spaced. If the
vectors that i-hat and j-hat land on are linearly dependentwhich, if you recall from last
video, means that one is a scaled version of the other.
It means that the linear transformation squishes all of 2D space on to the line
where those two vectors sit, also known as the one-dimensional span of those two
linearly dependent vectors. To sum up, linear transformations are a way to move around
space such that the grid lines remain parallel and evenly spaced and such that the origin
remains fixed. Delightfully, these transformations can be described using only a handful
of numbers. The coordinates of where each basis vector lands. Matrices give us a
language to describe these transformations where the columns represent those
coordinates and matrix-vector multiplication is just a way to compute what that
transformation does to a given vector. The important take-away here is that, every time
you see a matrix, you can interpret it as a certain transformation of space. Once you
really digest this idea, you're in a great position to understand linear algebra deeply.
Almost all of the topics coming up, from matrix multiplication to determinant, change
of basis, eigenvalues, ... all of these will become easier to understand once you start
thinking about matrices as transformations of space. Most immediately, in the next
video I'll be talking about multiplying two matrices together. See you then!
TERJEMAHAN
Sayangnya, tidak ada yang tahu, apa Matriks itu. Anda harus melihatnya sendiri.
- Morpheus. Kata-kata yang sangat tepat tentang pentingnya memahami operasi matriks
secara visual.
Hai semuanya! Jika saya harus memilih hanya satu topik yang membuat semua
topik lain dalam aljabar linier mulai berbunyi klik dan yang terlalu sering tidak
dipelajari saat pertama kali seorang siswa mengambil aljabar linier, topiknya adalah
yang ini: gagasan transformasi linier dan hubungannya untuk matriks.
Untuk video ini, saya hanya akan fokus pada seperti apa transformasi ini dalam
kasus dua dimensi dan bagaimana kaitannya dengan gagasan perkalian matriks-vektor.
Secara khusus, saya ingin menunjukkan kepada Anda cara berpikir tentang perkalian
matriks-vektor yang tidak bergantung pada hafalan. Untuk memulai, mari kita parsing
istilah "transformasi linier" ini. "Transformasi" pada dasarnya adalah kata mewah untuk
"fungsi". Itu adalah sesuatu yang mengambil masukan dan mengeluarkan keluaran
untuk masing-masing. Khususnya dalam konteks aljabar linier, kami ingin memikirkan
tentang transformasi yang mengambil beberapa vektor dan mengeluarkan vektor lain.
Jadi mengapa menggunakan kata "transformasi" daripada "fungsi" jika artinya sama?
Nah, ini menjadi sugestif cara tertentu untuk memvisualisasikan hubungan input-output
ini. Soalnya, cara terbaik untuk memahami fungsi vektor adalah dengan menggunakan
gerakan. Jika sebuah transformasi mengambil beberapa vektor masukan ke beberapa
vektor keluaran, kita membayangkan bahwa vektor masukan bergerak ke vektor
keluaran. Kemudian untuk memahami transformasi secara keseluruhan, kita mungkin
membayangkan melihat setiap vektor masukan yang mungkin berpindah ke vektor
keluaran yang sesuai. Menjadi sangat ramai untuk memikirkan semua vektor sekaligus,
masing-masing adalah panah, Jadi, seperti yang saya sebutkan di video terakhir, trik
yang bagus adalah mengkonseptualisasikan setiap vektor, bukan sebagai panah, tetapi
sebagai satu titik: titik di mana ujungnya berada. Dengan cara berpikir tentang
transformasi yang mengambil setiap vektor input yang mungkin ke beberapa vektor
output, kita melihat setiap titik di ruang bergerak ke titik lain.
Secara visual, transformasi linier jika memiliki dua properti: semua garis harus
tetap berupa garis, tanpa melengkung, dan asal harus tetap pada tempatnya. Misalnya,
ini di sini tidak akan menjadi transformasi linier karena garis menjadi melengkung
semua dan yang ini di sini, meskipun menjaga garis lurus, bukan transformasi linier
karena memindahkan titik asal. Yang ini di sini memperbaiki asalnya dan mungkin
terlihat seperti itu membuat garis lurus, tetapi itu hanya karena saya hanya menunjukkan
garis kisi horizontal dan vertikal, ketika Anda melihat apa yang dilakukannya pada garis
diagonal, menjadi jelas bahwa itu tidak semua linier karena ternyata garis itu
melengkung.
Secara umum, Anda harus memikirkan transformasi linier sebagai menjaga garis
kisi sejajar dan berjarak merata. Beberapa transformasi linier mudah untuk dipikirkan,
seperti rotasi tentang asal. Yang lainnya sedikit lebih sulit untuk dijelaskan dengan kata-
kata. Jadi, menurut Anda, bagaimana Anda bisa menggambarkan transformasi ini secara
numerik? Jika Anda, katakanlah, memprogram beberapa animasi untuk membuat video
yang mengajarkan topik rumus apa yang Anda berikan pada komputer sehingga jika
Anda memberikan koordinat vektor, komputer dapat memberi Anda koordinat di mana
vektor itu mendarat? Ternyata Anda hanya perlu mencatat dimana dua vektor basis, i-
topi dan j-topi, masing-masing mendarat. dan yang lainnya akan mengikuti dari situ.
Sebagai contoh, perhatikan vektor v dengan koordinat (-1,2), artinya sama dengan -1
kali i-topi + 2 kali j-topi. Jika kita memainkan beberapa transformasi dan mengikuti di
mana ketiga vektor ini pergi, properti bahwa garis kisi tetap paralel dan berjarak merata
memiliki konsekuensi yang sangat penting: tempat di mana v akan menjadi -1 kali
vektor di mana i-topi mendarat ditambah 2 kali vektor tempat j-topi mendarat. Dengan
kata lain, ini dimulai sebagai kombinasi linier tertentu dari i-topi dan j-topi dan berakhir
dengan kombinasi linier yang sama di mana kedua vektor tersebut mendarat. Ini berarti
Anda dapat menyimpulkan ke mana v harus pergi hanya berdasarkan ke mana i-topi dan
j-topi masing-masing mendarat. Inilah mengapa saya suka menyimpan salinan grid asli
di latar belakang; untuk transformasi yang ditunjukkan di sini kita dapat membaca
bahwa i-topi mendarat pada koordinat (1, -2). dan j-topi mendarat pada sumbu x di atas
koordinat (3, 0). Artinya vektor yang diwakili oleh (-1) i-topi + 2 kali j-topi berakhir
pada (-1) kali vektor (1, -2) + 2 kali vektor (3, 0). Menjumlahkan semua itu, Anda dapat
menyimpulkan bahwa itu harus mendarat di vektor (5, 2). Ini adalah poin yang bagus
untuk berhenti sejenak dan merenungkan, karena ini sangat penting. Sekarang,
mengingat bahwa saya benar-benar menunjukkan kepada Anda transformasi penuh,
Anda bisa saja melihat untuk melihat v memiliki koordinat (5, 2), tetapi bagian
kerennya di sini adalah ini memberi kita teknik untuk menyimpulkan di mana setiap
vektor mendarat , asalkan kita punya catatan dimana i-topi dan j-topi masing-masing
mendarat, tanpa perlu menyaksikan transformasi itu sendiri. Tuliskan vektor dengan
koordinat yang lebih umum x dan y, dan itu akan mendarat pada x kali vektor di mana i-
topi mendarat (1, -2), ditambah y dikali vektor tempat j-topi mendarat (3, 0). Dengan
melakukan penjumlahan tersebut, Anda akan melihat bahwa jumlahnya jatuh pada (1x +
3y, -2x + 0y). Saya memberi Anda vektor apa pun, dan Anda dapat memberi tahu saya
di mana vektor itu mendarat menggunakan rumus ini.
Semua yang dikatakan di sini adalah bahwa transformasi linier dua dimensi
sepenuhnya dijelaskan hanya dengan empat angka: dua koordinat tempat i-topi
mendarat dan dua koordinat tempat j-topi mendarat. Bukankah itu keren? Adalah umum
untuk mengemas koordinat ini menjadi kotak angka dua kali dua, yang disebut matriks
dua kali dua, di mana Anda dapat menafsirkan kolom sebagai dua vektor khusus di
mana i-topi dan j-topi masing-masing mendarat. Jika Anda diberi matriks dua-dua yang
menjelaskan transformasi linier dan beberapa vektor tertentu dan Anda ingin tahu di
mana transformasi linier itu mengambil vektor itu, Anda dapat mengambil koordinat
vektor, mengalikannya dengan kolom matriks yang sesuai, lalu tambahkan bersama apa
yang Anda dapatkan. Ini sesuai dengan gagasan untuk menambahkan versi berskala dari
vektor basis baru kita. Mari kita lihat seperti apa ini dalam kasus paling umum di mana
matriks Anda memiliki entri a, b, c, d dan ingat, matriks ini hanyalah cara mengemas
informasi yang diperlukan untuk mendeskripsikan transformasi linier. Ingatlah selalu
untuk menafsirkan kolom pertama, (a, c), sebagai tempat di mana vektor basis pertama
mendarat dan kolom kedua, (b, d), adalah tempat di mana vektor basis kedua mendarat.
Ketika kita menerapkan transformasi ini ke beberapa vektor (x, y), apa yang Anda
dapatkan? Nah, itu akan menjadi x kali (a, c) ditambah y kali (b, d). Gabungkan ini,
Anda mendapatkan vektor (ax + by, cx + dy). Anda bahkan dapat mendefinisikan ini
sebagai perkalian matriks-vektor ketika Anda meletakkan matriks di sebelah kiri vektor
seolah-olah itu adalah sebuah fungsi. Kemudian, Anda dapat membuat siswa sekolah
menengah menghafal ini, tanpa menunjukkan kepada mereka bagian penting yang
membuatnya terasa intuitif.
"Eigenvectors and eigenvalues" is one of those topics that a lot of students find
particularly unintuitive. Questions like "why are we doing this" and "what does this
actually mean" are too often left just floating away in an unanswered sea of
computations. And as I put out the videos of the series, a lot of you have commented
about looking forward to visualizing this topic in particular. I suspect that the reason for
this is not so much that eigen-things are particularly complicated or poorly explained. In
fact, it's comparatively straightforward and I think most books do a fine job explaining
it. The issue is that it only really make sense if you have a solid visual understanding for
many of the topics that precede it. Most important here is that you know how to think
about matrices as linear transformations, but you also need to be comfortable with
things like determinants, linear systems of equations and change of basis. Confusion
about eigen stuffs usually has more to do with a shaky foundation in one of these topics
than it does with eigenvectors and eigenvalues themselves.
To start, consider some linear transformation in two dimensions, like the one
shown here. It moves the basis vector i-hat to the coordinates (3, 0) and j-hat to (1, 2),
so it's represented with a matrix, whose columns are (3, 0) and (1, 2). Focus in on what
it does to one particular vector and think about the span of that vector, the line passing
through its origin and its tip. Most vectors are going to get knocked off their span during
the transformation. I mean, it would seem pretty coincidental if the place where the
vector landed also happens to be somewhere on that line. But some special vectors do
remain on their own span, meaning the effect that the matrix has on such a vector is just
to stretch it or squish it, like a scalar. For this specific example, the basis vector i-hat is
one such special vector. The span of i-hat is the x-axis, and from the first column of the
matrix, we can see that i-hat moves over to 3 times itself, still on that x axis. What's
more, because of the way linear transformations work, any other vector on the x-axis is
also just stretched by a factor of 3 and hence remains on its own span. A slightly
sneakier vector that remains on its own span during this transformation is (-1, 1), it ends
up getting stretched by a factor of 2. And again, linearity is going to imply that any
other vector on the diagonal line spanned by this guy is just going to get stretched out
by a factor of 2. And for this transformation, those are all the vectors with this special
property of staying on their span. Those on the x-axis getting stretched out by a factor of
3 and those on this diagonal line getting stretched by a factor of 2. Any other vector is
going to get rotated somewhat during the transformation, knocked off the line that it
spans.
As you might have guessed by now, these special vectors are called the
"eigenvectors" of the transformation, and each eigenvector has associated with it, what's
called an "eigenvalue", which is just the factor by which it stretched or squashed during
the transformation. Of course, there's nothing special about stretching vs. squishing or
the fact that these eigenvalues happen to be positive. In another example, you could
have an eigenvector with eigenvalue -1/2, meaning that the vector gets flipped and
squished by a factor of 1/2. But the important part here is that it stays on the line that it
spans out without getting rotated off of it. For a glimpse of why this might be a useful
thing to think about, consider some three-dimensional rotation. If you can find an
eigenvector for that rotation, a vector that remains on its own span, what you have
found is the axis of rotation. And it's much easier to think about a 3-D rotation in terms
of some axis of rotation and an angle by which is rotating, rather than thinking about the
full 3-by-3 matrix associated with that transformation. In this case, by the way, the
corresponding eigenvalue would have to be 1, since rotations never stretch or squish
anything, so the length of the vector would remain the same. This pattern shows up a lot
in linear algebra.
Symbolically, here's what the idea of an eigenvector looks like. A is the matrix
representing some transformation, with v as the eigenvector, and λ is a number, namely
the corresponding eigenvalue. What this expression is saying is that the matrix-vector
product - A times v gives the same result as just scaling the eigenvector v by some value
λ. So finding the eigenvectors and their eigenvalues of a matrix A comes down to
finding the values of v and λ that make this expression true. It's a little awkward to work
with at first, because that left hand side represents matrix-vector multiplication, but the
right hand side here is scalar-vector multiplication. So let's start by rewriting that right
hand side as some kind of matrix-vector multiplication, using a matrix, which has the
effect of scaling any vector by a factor of λ. The columns of such a matrix will represent
what happens to each basis vector, and each basis vector is simply times λ, so this
matrix will have the number λ down the diagonal with 0's everywhere else.
The common way to write this guy is to factor that λ out and write it as λ times I,
where I is the identity matrix with 1's down the diagonal. With both sides looking like
matrix-vector multiplication, we can subtract off that right hand side and factor out the
v. So what we now have is a new matrix - A minus λ times the identity, and we're
looking for a vector v, such that this new matrix times v gives the zero vector. Now this
will always be true if v itself is the zero vector, but that's boring. What we want is a
non-zero eigenvector. And if you watched Chapters 5 and 6, you'll know that the only
way it's possible for the product of a matrix with a non-zero vector to become zero is if
the transformation associated with that matrix squishes space into a lower dimension.
And that squishification corresponds to a zero determinant for the matrix.
To be concrete, let's say your matrix a has columns (2, 1) and (2, 3), and think
about subtracting off a variable amount λ from each diagonal entry. Now imagine
tweaking λ, turning a knob to change its value. As that value of λ changes, the matrix
itself changes, and so the determinant of the matrix changes. The goal here is to find a
value of λ that will make this determinant zero, meaning the tweaked transformation
squishes space into a lower dimension. In this case, the sweet spot comes when λ equals
1. Of course, if we have chosen some other matrix, the eigenvalue might not necessarily
be 1, the sweet spot might be hit some other value of λ. So this is kind of a lot, but let's
unravel what this is saying. When λ equals 1, the matrix A minus λ times the identity
squishes space onto a line. That means there's a non-zero vector v, such that A minus λ
times the identity times v equals the zero vector. And remember, the reason we care
about that is because it means A times v equals λ times v, which you can read off as
saying that the vector v is an eigenvector of A, staying on its own span during the
transformation A. In this example, the corresponding eigenvalue is 1, so v would
actually just a fixed in place.
Pause and ponder if you need to make sure that line of reasoning feels good.
This is the kind of thing I mentioned in the introduction, if you didn't have a solid grasp
of determinants and why they relate to linear systems of equations having non-zero
solutions, an expression like this would feel completely out of the blue. To see this in
action, let's revisit the example from the start with the matrix whose columns are (3, 0)
and (1, 2). To find if a value λ is an eigenvalue, subtracted from the diagonals of this
matrix and compute the determinant. Doing this, we get a certain quadratic polynomial
in λ, (3-λ)(2-λ). Since λ can only be an eigenvalue if this determinant happens to be
zero, you can conclude that the only possible eigenvalues are λ equals 2 and λ equals 3.
To figure out what the eigenvectors are that actually have one of these eigenvalues, say
λ equals 2, plug in that value of λ to the matrix and then solve for which vectors this
diagonally altered matrix sends to 0.
If you computed this the way you would any other linear system, you'd see that
the solutions are all the vectors on the diagonal line spanned by (-1, 1). This
corresponds to the fact that the unaltered matrix [(3, 0), (1, 2)] has the effect of
stretching all those vectors by a factor of 2. Now, a 2-D transformation doesn't have to
have eigenvectors. For example, consider a rotation by 90 degrees. This doesn't have
any eigenvectors, since it rotates every vector off of its own span. If you actually try
computing the eigenvalues of a rotation like this, notice what happens. Its matrix has
columns (0, 1) and (-1, 0), subtract off λ from the diagonal elements and look for when
the determinant is 0. In this case, you get the polynomial λ^2+1, the only roots of that
polynomial are the imaginary numbers i and -i. The fact that there are no real number
solutions indicates that there are no eigenvectors.
Another pretty interesting example worth holding in the back of your mind is a
shear. This fixes i-hat in place and moves j-hat one over, so its matrix has columns (1,
0) and (1, 1). All of the vectors on the x-axis are eigenvectors with eigenvalue 1, since
they remain fixed in place. In fact, these are the only eigenvectors. When you subtract
off λ from the diagonals and compute the determinant, what you get is (1-λ)^2, and the
only root of this expression is λ equals 1. This lines up with what we see geometrically
that all of the eigenvectors have eigenvalue 1. Keep in mind though, it's also possible to
have just one eigenvalue, but with more than just a line full of eigenvectors. A simple
example is a matrix that scales everything by 2, the only eigenvalue is 2, but every
vector in the plane gets to be an eigenvector with that eigenvalue.
Now is another good time to pause and ponder some of this before I move on to
the last topic. I want to finish off here with the idea of an eigenbasis, which relies
heavily on ideas from the last video. Take a look at what happens if our basis vectors
just so happened to be eigenvectors. For example, maybe i-hat is scaled by -1 and j-hat
is scaled by 2. Writing their new coordinates as the columns of a matrix, notice that
those scalar multiples -1 and 2, which are the eigenvalues of i-hat and j-hat, sit on the
diagonal of our matrix and every other entry is a 0. Anytime a matrix has 0's
everywhere other than the diagonal, it's called, reasonably enough, a diagonal matrix.
And the way to interpret this is that all the basis vectors are eigenvectors, with
the diagonal entries of this matrix being their eigenvalues. There are a lot of things that
make diagonal matrices much nicer to work with. One big one is that it's easier to
compute what will happen if you multiply this matrix by itself a whole bunch of times.
Since all one of these matrices does is scale each basis vector by some eigenvalue,
applying that matrix many times, say 100 times, is just going to correspond to scaling
each basis vector by the 100-th power of the corresponding eigenvalue. In contrast, try
computing the 100-th power of a non-diagonal matrix. Really, try it for a moment, it's a
nightmare. Of course, you will rarely be so lucky as to have your basis vectors also be
eigenvectors, but if your transformation has a lot of eigenvectors, like the one from the
start of this video, enough so that you can choose a set that spans the full space, then
you could change your coordinate system so that these eigenvectors are your basis
vectors.
I talked about change of basis last video, but I'll go through a super quick
reminder here of how to express a transformation currently written in our coordinate
system into a different system. Take the coordinates of the vectors that you want to use
as a new basis, which, in this case, means are two eigenvectors, that make those
coordinates the columns of a matrix, known as the change of basis matrix. When you
sandwich the original transformation putting the change of basis matrix on it's right and
the inverse of the change of basis matrix on its left, the result will be a matrix
representing that same transformation, but from the perspective of the new basis vectors
coordinate system.
The whole point of doing this with eigenvectors is that this new matrix is
guaranteed to be diagonal with its corresponding eigenvalues down that diagonal. This
is because it represents working in a coordinate system where what happens to the basis
vectors is that they get scaled during the transformation. A set of basis vectors, which
are also eigenvectors, is called, again, reasonably enough, an "eigenbasis". So if, for
example, you needed to compute the 100-th power of this matrix, it would be much
easier to change to an eigenbasis, compute the 100-th power in that system, then convert
back to our standard system. You can't do this with all transformations. A shear, for
example, doesn't have enough eigenvectors to span the full space. But if you can find an
eigenbasis, it makes matrix operations really lovely.
For those of you willing to work through a pretty neat puzzle to see what this
looks like in action and how it can be used to produce some surprising results, I'll leave
up a prompt here on the screen. It takes a bit of work, but I think you'll enjoy it. The
next and final video of this series is going to be on abstract vector spaces. See you then!
TERJEMAHAN
Vektor eigen dan nilai eigen | Bab 14, Inti dari aljabar linier
"Vektor eigen dan nilai eigen" adalah salah satu topik yang menurut banyak
siswa sangat tidak intuitif. Pertanyaan seperti "mengapa kita melakukan ini" dan "apa
artinya sebenarnya" terlalu sering dibiarkan mengambang begitu saja dalam lautan
komputasi yang tak terjawab. Dan saat saya mengeluarkan video dari serial ini, banyak
dari Anda telah berkomentar tentang melihat ke depan untuk memvisualisasikan topik
ini secara khusus. Saya menduga bahwa alasan untuk ini bukanlah karena eigen-things
sangat rumit atau tidak dapat dijelaskan dengan baik. Faktanya, ini relatif mudah dan
saya pikir sebagian besar buku menjelaskannya dengan baik. Masalahnya adalah itu
hanya benar-benar masuk akal jika Anda memiliki pemahaman visual yang kuat untuk
banyak topik sebelumnya. Yang terpenting di sini adalah Anda mengetahui cara
menganggap matriks sebagai transformasi linier, tetapi Anda juga harus memahami hal-
hal seperti determinan, sistem persamaan linier, dan perubahan basis. Kebingungan
tentang barang eigen biasanya lebih berkaitan dengan fondasi yang goyah dalam salah
satu topik ini daripada dengan vektor eigen dan nilai eigen itu sendiri.
Dengan transformasi linier apa pun yang dijelaskan oleh matriks, Anda dapat
memahami apa yang dilakukannya dengan membaca kolom matriks ini sebagai titik
pendaratan untuk vektor basis. Tetapi seringkali cara yang lebih baik untuk memahami
apa yang sebenarnya dilakukan transformasi linier, yang tidak terlalu bergantung pada
sistem koordinat khusus Anda, adalah dengan mencari vektor eigen dan nilai eigen.
Saya tidak akan membahas detail lengkap tentang metode untuk menghitung vektor
eigen dan nilai eigen di sini, tetapi saya akan mencoba memberikan gambaran umum
tentang ide komputasi yang paling penting untuk pemahaman konseptual.
Secara simbolis, inilah ide dari vektor eigen. A adalah matriks yang
merepresentasikan suatu transformasi, dengan v sebagai vektor eigen, dan λ adalah
angka, yaitu nilai eigen yang bersesuaian. Apa yang dikatakan ekspresi ini adalah
bahwa perkalian matriks-vektor - A kali v memberikan hasil yang sama seperti
menskalakan vektor eigen v dengan beberapa nilai . Jadi mencari vektor eigen dan nilai
eigennya dari matriks A turun untuk mencari nilai v dan λ yang membuat pernyataan ini
menjadi benar. Agak canggung untuk mengerjakannya pada awalnya, karena ruas kiri
itu mewakili perkalian matriks-vektor, tetapi ruas kanan di sini adalah perkalian skalar-
vektor. Jadi mari kita mulai dengan menulis ulang sisi kanan itu sebagai semacam
perkalian matriks-vektor, menggunakan matriks, yang memiliki efek penskalaan vektor
apa pun dengan faktor λ. Kolom-kolom dari matriks tersebut akan merepresentasikan
apa yang terjadi pada setiap vektor basis, dan setiap vektor basis dikalikan dengan λ,
sehingga matriks ini akan memiliki bilangan λ di bawah diagonal dengan 0 di tempat
lain.
Cara yang umum untuk menulis orang ini adalah dengan memfaktorkan λ itu
dan menuliskannya sebagai λ kali I, di mana I adalah matriks identitas dengan 1 di
bawah diagonal. Dengan kedua sisi tampak seperti perkalian matriks-vektor, kita dapat
mengurangi sisi kanan tersebut dan memfaktorkan v. Jadi yang kita miliki sekarang
adalah matriks baru - A dikurangi λ dikalikan identitas, dan kita mencari vektor v,
sehingga matriks baru dikali v memberikan vektor nol. Sekarang ini akan selalu benar
jika v itu sendiri adalah vektor nol, tapi itu membosankan. Yang kita inginkan adalah
vektor eigen bukan nol. Dan jika Anda melihat Bab 5 dan 6, Anda akan tahu bahwa
satu-satunya cara untuk produk matriks dengan vektor bukan nol menjadi nol adalah
jika transformasi yang terkait dengan matriks tersebut memadatkan ruang menjadi
dimensi yang lebih rendah. Dan squishification itu sesuai dengan determinan nol untuk
matriks.
Untuk menjadi konkret, misalkan matriks Anda memiliki kolom (2, 1) dan (2,
3), dan pikirkan tentang mengurangkan jumlah variabel λ dari setiap entri diagonal.
Sekarang bayangkan mengubah λ, memutar kenop untuk mengubah nilainya. Ketika
nilai berubah, matriks itu sendiri berubah, dan determinan matriks berubah. Tujuannya
di sini adalah untuk menemukan nilai λ yang akan menjadikan determinan ini nol, yang
berarti transformasi tweak memadatkan ruang ke dimensi yang lebih rendah. Dalam
kasus ini, sweet spot muncul ketika λ sama dengan 1. Tentu saja, jika kita memilih
matriks lain, nilai eigen mungkin belum tentu menjadi 1, sweet spot mungkin terkena
beberapa nilai lain dari λ. Jadi ini agak banyak, tapi mari kita uraikan apa yang
dikatakan ini. Ketika λ sama dengan 1, matriks A dikurangi λ dikalikan identitas
memadatkan spasi ke dalam sebuah garis. Artinya ada vektor bukan nol v, sehingga A
dikurangi λ dikali identitas dikali v sama dengan vektor nol. Dan ingat, alasan kita
peduli adalah karena itu berarti A dikali v sama dengan λ kali v, yang dapat dibaca
sebagai mengatakan bahwa vektor v adalah vektor eigen dari A, tetap pada rentangnya
sendiri selama transformasi A. Dalam hal ini contoh, nilai eigen yang sesuai adalah 1,
jadi v sebenarnya hanya tetap di tempat.
Berhentilah dan renungkan jika Anda perlu memastikan bahwa alur penalaran
itu terasa nyaman. Ini adalah jenis hal yang saya sebutkan dalam pendahuluan, jika
Anda tidak memiliki pemahaman yang kuat tentang determinan dan mengapa mereka
berhubungan dengan sistem persamaan linier yang memiliki solusi bukan-nol, ekspresi
seperti ini akan terasa tiba-tiba. Untuk melihat ini beraksi, mari kita lihat kembali
contoh dari awal dengan matriks yang kolomnya adalah (3, 0) dan (1, 2). Untuk
mengetahui apakah suatu nilai λ adalah nilai eigen, dikurangi diagonal matriks ini dan
hitung determinannya. Dengan melakukan ini, kita mendapatkan polinomial kuadrat
tertentu di λ, (3-λ) (2-λ). Karena λ hanya dapat menjadi nilai eigen jika determinan ini
ternyata nol, Anda dapat menyimpulkan bahwa satu-satunya nilai eigen yang mungkin
adalah λ sama dengan 2 dan λ sama dengan 3. Untuk mencari tahu apa vektor eigen
yang sebenarnya memiliki salah satu dari nilai eigen ini, katakanlah λ sama dengan 2,
masukkan nilai λ itu ke matriks dan kemudian selesaikan vektor mana yang dikirim
matriks yang diubah secara diagonal ini menjadi 0.
Jika Anda menghitungnya dengan cara yang Anda lakukan pada sistem linier
lainnya, Anda akan melihat bahwa semua solusinya adalah vektor garis diagonal yang
direntang oleh (-1, 1). Ini sesuai dengan fakta bahwa matriks tak berubah [(3, 0), (1, 2)]
memiliki efek meregangkan semua vektor tersebut dengan faktor 2. Sekarang,
transformasi 2-D tidak harus memiliki vektor eigen . Misalnya, pertimbangkan rotasi
sebesar 90 derajat. Ini tidak memiliki vektor eigen, karena ia memutar setiap vektor dari
rentangnya sendiri. Jika Anda benar-benar mencoba menghitung nilai eigen dari rotasi
seperti ini, perhatikan apa yang terjadi. Matriksnya memiliki kolom (0, 1) dan (-1, 0),
kurangi λ dari elemen diagonal dan cari saat determinannya 0. Dalam hal ini, Anda
mendapatkan polinomial λ ^ 2 + 1, satu-satunya akar dari polinomial itu adalah bilangan
imajiner i dan -i. Fakta bahwa tidak ada solusi bilangan real menunjukkan bahwa tidak
ada vektor eigen.
Contoh lain yang cukup menarik yang layak diingat adalah gunting. Ini
memperbaiki i-topi di tempatnya dan memindahkan j-topi satu, jadi matriksnya
memiliki kolom (1, 0) dan (1, 1). Semua vektor pada sumbu x adalah vektor eigen
dengan nilai eigen 1, karena vektor tersebut tetap pada tempatnya. Faktanya, ini adalah
satu-satunya vektor eigen. Ketika Anda mengurangi λ dari diagonal dan menghitung
determinannya, yang Anda dapatkan adalah (1-λ) ^ 2, dan satu-satunya akar dari
ekspresi ini adalah λ sama dengan 1. Ini sejalan dengan apa yang kita lihat secara
geometris bahwa semua vektor eigen have eigenvalue 1. Perlu diingat, juga mungkin
untuk memiliki hanya satu eigenvalue, tetapi dengan lebih dari satu baris yang penuh
dengan vektor eigen. Contoh sederhananya adalah matriks yang menskalakan semuanya
dengan 2, satu-satunya nilai eigen adalah 2, tetapi setiap vektor pada bidang menjadi
vektor eigen dengan nilai eigen tersebut.
Sekarang adalah waktu yang tepat untuk berhenti sejenak dan merenungkan
beberapa hal ini sebelum saya beralih ke topik terakhir. Saya ingin mengakhiri di sini
dengan ide tentang eigenbasis, yang sangat bergantung pada ide-ide dari video terakhir.
Lihatlah apa yang terjadi jika vektor basis kita kebetulan adalah vektor eigen. Misalnya,
mungkin i-topi diskalakan -1 dan j-topi diskalakan 2. Tulis koordinat barunya sebagai
kolom matriks, perhatikan bahwa skalar mengalikan -1 dan 2, yang merupakan nilai
eigen dari i-topi dan j-topi, duduk di diagonal matriks kita dan setiap entri lainnya
adalah 0. Kapan saja sebuah matriks memiliki 0 di mana-mana selain diagonal, itu
disebut, secara wajar, matriks diagonal.
Dan cara untuk menafsirkannya adalah bahwa semua vektor basis adalah vektor
eigen, dengan entri diagonal matriks ini menjadi nilai eigennya. Ada banyak hal yang
membuat matriks diagonal jauh lebih bagus untuk dikerjakan. Satu hal besar adalah
lebih mudah untuk menghitung apa yang akan terjadi jika Anda mengalikan matriks ini
dengan dirinya sendiri berkali-kali. Karena semua salah satu matriks ini adalah
menskalakan setiap vektor basis dengan beberapa nilai eigen, menerapkan matriks itu
berkali-kali, katakanlah 100 kali, hanya akan sesuai dengan penskalaan setiap vektor
basis dengan pangkat ke-100 dari nilai eigen yang sesuai. Sebaliknya, coba hitung
pangkat ke-100 dari matriks non-diagonal. Sungguh, coba sebentar, itu mimpi buruk.
Tentu saja, Anda jarang seberuntung itu karena vektor basis Anda juga merupakan
vektor eigen, tetapi jika transformasi Anda memiliki banyak vektor eigen, seperti yang
ada di awal video ini, cukup sehingga Anda dapat memilih himpunan yang mencakup
ruang penuh, maka Anda dapat mengubah sistem koordinat Anda sehingga vektor eigen
ini adalah vektor basis Anda.
Saya berbicara tentang perubahan basis video terakhir, tetapi saya akan
membahas pengingat yang sangat cepat di sini tentang cara mengekspresikan
transformasi yang saat ini ditulis dalam sistem koordinat kami menjadi sistem yang
berbeda. Ambil koordinat vektor yang ingin digunakan sebagai basis baru, yang dalam
hal ini berarti dua vektor eigen, yang membuat koordinat tersebut menjadi kolom-kolom
matriks, yang dikenal sebagai matriks perubahan basis. Ketika Anda mengapit
transformasi asli dengan meletakkan matriks perubahan basis di kanannya dan
kebalikan dari perubahan matriks basis di sebelah kirinya, hasilnya adalah matriks yang
merepresentasikan transformasi yang sama, tetapi dari perspektif sistem koordinat
vektor basis baru .
Inti dari melakukan ini dengan vektor eigen adalah bahwa matriks baru ini
dijamin diagonal dengan nilai eigen yang sesuai di bawah diagonal itu. Ini karena ini
merepresentasikan kerja dalam sistem koordinat di mana apa yang terjadi pada vektor
basis adalah bahwa mereka diskalakan selama transformasi. Sekumpulan vektor basis,
yang juga merupakan vektor eigen, disebut, sekali lagi, cukup masuk akal, sebagai
"basis eigen". Jadi, jika, misalnya, Anda perlu menghitung pangkat ke-100 dari matriks
ini, akan jauh lebih mudah untuk mengubah ke basis-e, menghitung daya ke-100 dalam
sistem itu, lalu mengonversi kembali ke sistem standar kami. Anda tidak dapat
melakukan ini dengan semua transformasi. Sebuah geser, misalnya, tidak memiliki
vektor eigen yang cukup untuk menjangkau seluruh ruang. Tetapi jika Anda dapat
menemukan eigenbasis, itu membuat operasi matriks menjadi sangat bagus.
Bagi Anda yang ingin mengerjakan teka-teki yang cukup rapi untuk melihat
seperti apa ini dalam tindakan dan bagaimana ini dapat digunakan untuk menghasilkan
beberapa hasil yang mengejutkan, saya akan meninggalkan prompt di sini di layar. Ini
membutuhkan sedikit usaha, tetapi saya pikir Anda akan menikmatinya. Video
berikutnya dan terakhir dari seri ini akan berada pada ruang vektor abstrak. Sampai
jumpa!