Yıl: 2014-1
Sayı: 98
Bu bölümde, vektörler arasındaki fonksiyonlarla ilgileneceğiz. Tabii ki her türlü fonksiyon değil; lineer yapıyı koruyan fonksiyonlar. Bu çalışmaları yapınca, daha önceden bahsettiğimiz vektör uzaylarının benzer olmaları kavramını da tanıtabileceğiz.
Tanım 15. $V$ ve $W$ vektör uzayları ve $ f: V \rightarrow W $ fonksiyonu verilsin. Eğer her $v_{1}, v_{2} \in V$ ve $r \in \mathbb{R}$ için
- $\quad f\left(v_{1}+v_{2}\right)=f\left(v_{1}\right)+f\left(v_{2}\right)$
- $\quad f\left(r v_{1}\right)=r f\left(v_{1}\right)$
oluyorsa, $f$ bir lineer dönüşümdür.
Örnekleme geçmeden önce lineer dönüşümlerin kolayca kanıtlanan bir özelliğinden bahsedelim.
Önerme 8. Her lineer dönüşüm $0_{V}$ vektörünü $0_{W}$ vektörüne gönderir.
Kanıt: Her $r \in \mathbb{R}$ için $f(r v)=r f(v)$ olduğunu biliyoruz. Eğer $r=0$ alırsak $f\left(0_{V}\right)=f(0 v)=0 f(v)=$ $0_{W}$ olduğu görülür. (Bu kanıtta $v$’yi $V$’den herhangi bir vektör olarak alabiliriz.)
Örnek 2. Verilen herhangi iki vektör uzayı arasında bariz lineer dönüşüm vardır: bu fonksiyon, ilk uzayın her elemanını ikincisinin $0$-vektörüne gönderir. Bunun lineer bir dönüşüm olduğu oldukça açık. Bunun üzerine çok durmayacağız, ama bariz dönüşüm dediğimizde bunu kastettiğimiz bilinmesi gerekli.
Örnek 3. Bir öncekine benzer bir dönüşüm de bir vektör uzayından kendisine giden, her vektörü kendisine götüren birim dönüşüm. Bu dönüşümün de lineer olduğunu görmek oldukça kolay.
Örnek 4. Şimdi bariz olmayan lineer dönüşüm örneklerine başlayalım. $\mathbb{R}^{3}$’ten $\mathbb{R}^{2}$’ye şöyle tanımlanan dönüşüme bakalım:
$$ \begin{pmatrix} x \\ y \\ z \\ \end{pmatrix} \xrightarrow{} \begin{pmatrix} x+y \\ y-z \\ \end{pmatrix} .
$$
Bu verilen dönüşümün lineer olduğu öncekiler kadar açık değil. Öyle olduğunu kontrol etmek için $\mathbf{v_1} = \begin{pmatrix} x_1 \\ y_1 \\ z_1 \\ \end{pmatrix}$, $\mathbf{v_2} = \begin{pmatrix} x_2 \\ y_2 \\ z_2 \\ \end{pmatrix}$ ve $r \in \mathbb{R}$ alalım;
$$ \begin{split} f\left(v_{1}+v_{2}\right)& =f\left(v_{1}\right)+f\left(v_{2}\right) \\ f\left(r v_{1}\right)&=r f\left(v_{1}\right)\end{split}$$ olduğunu gösterelim.
$$\begin{split}
f\left(v_{1}+v_{2}\right) & =\begin{pmatrix} (x_1+x_2) + (y_1+y_2) \\ (y_1+y_2) \ – \ (z_1+z_2) \end{pmatrix} \\
&=\begin{pmatrix} (x_1+y_1) + (x_2+y_2) \\ (y_1-z_1) + (y_2-z_2) \end{pmatrix}\\
&=f\left(v_{1}\right)+f\left(v_{2}\right)
\end{split}$$
Benzer biçimde $$f(rv_1) = \begin{pmatrix} rx_1+ry_1 \\ ry_1-rz_1 \end{pmatrix} = rf(v_1) \ .$$
Yani bu $f$, lineer bir dönüşümdür.
Örnek 5. Bu örnekte de bir izdüşüm fonksiyonuna bakalım. Yani, mesela, $\mathbb{R}^{n}$ vektör uzayından alınan bir vektörü ilk koordinatına gönderen fonksiyon (Diğer koordinatlarına gönderen fonksiyonlara da izdüşüm diyeceğiz; gerekmediği sürece hangi koordinata olduğunu özellikle söylemeyeceğiz.) Bu fonksiyona $\pi$ diyelim. Bu fonksiyonun $\mathbb{R}^{n}$ ile $\mathbb{R}$ arasında lineer bir dönüşüm olduğunun kontrolü bir önceki örnekteki gibi yapılabilir.
Örnek 6. Bu örnek çok önemli! Aslında daha da fazlası: Bu örnek sonlu boyutlu uzaylar arasındaki lineer dönüşümlerin bir prototipi.
İlk olarak bir $a \in \mathbb{R}^{m}$ için $\mathbb{R}^{m}$’den $\mathbb{R}$’ye giden bir fonksiyon tanımlayalım; bu fonksiyonu $f_{a}$ ile gösterelim. Şimdi bir $v \in \mathbb{R}^{m}$ alalım ve
$$a=
\begin{pmatrix} a_1 \\ a_2 \\ \vdots \\ a_m \end{pmatrix} \quad \text { ve } \quad v= \begin{pmatrix} v_1 \\ v_2 \\ \vdots \\ v_m \end{pmatrix} $$
olarak yazalım. Bu durumda
$$
f_{a}(v)=a_{1} v_{1}+a_{2} v_{2}+\cdots+a_{m} v_{m}
$$
olarak tanımlayacağız. Gerçel sayıların çarpmasının özelliklerini kullanarak bu dönüşümün lineer olduğunu göstermek zor değil. Bu dönüşüme, $a$ ile iç çarpım denir.
Standart tabanın elemanlarını $e_{i}$ ile gösterdiğimizi hatırlayıp, Örnek 5’teki ilk koordinata izdüşüm fonksiyonunun $f_{e_{1}}$ olduğuna dikkat edelim.
İç çarpım fonksiyonlarını bir araya koyarak $\mathbb{R}^{m}$’den $\mathbb{R}^{n}$’ye giden lineer dönüşümler de tanımlayabiliriz. Satırları $a_{1}, \ldots, a_{n}$ olarak verilen $n \times m$ boyutlu $A$ matrisi için
$$
f_{A}(v)=\begin{pmatrix} f{a_1}(v) \\ f{a_2}(v) \\ \vdots \\ f{a_n}(v) \end{pmatrix}
$$
şeklinde tanımlanan fonksiyon da bariz olarak lineer bir dönüşümdür. Daha sonra matris çarpımını tanımladığımızda, bunun $A$ ile $v$’nin çarpımı olduğunu göreceğiz.
Daha sonra görüleceklerden bir diğeri de $\mathbb{R}^{m}$’den $\mathbb{R}^{n}$’ye giden bütün lineer dönüşümlerin bir $A$ matrisi için $f_{A}$ şeklinde verildiği. Bundan önceki bütün örneklerin bu şekilde verildiğine de dikkat edin.
Örnek 7. Şimdi de $\mathbb{R}^{n}$’den başka bir vektör uzayı üstünde verilen bir dönüşüme bakalım. Sürekli fonksiyonlar uzayının $\cos x$ ve $\sin x$ ile gerilen altuzayına bakalım. Daha önceden bu iki fonksiyonun lineer bağımsız olduğundan bahsetmiştik; yani iki boyutlu bir uzayla uğraşacağız ve bu uzayın her elemanı; $r, s \in \mathbb{R}$ olmak üzere $$r \cos x+s \sin x$$ olarak yazılır. Lineer bağımsızlıktan bu yazımın sadece tek bir şekilde yapılabileceğini biliyoruz. Şu fonksiyonu tanımlayalım:
$$
f \mapsto f^{\prime}
$$
(Burada $f^{\prime}$ notasyonu ile $f$ ‘in türevini kastediyoruz.)
Elimizdeki uzayda bu dönüşüm şunu yapıyor:
$$
r \cos x+s \sin x \mapsto-r \sin x+s \cos x \ .
$$
Yani bu dönüşüm bizim uzayımızdan kendisine gidiyor. Dönüşümün lineerliği türevin özelliklerinden hemencecik görülüyor.
İşin aslı $r \cos x+s \sin x$ elemanını $\begin{pmatrix}r\\ s \end{pmatrix}$ gibi görerek, elimizdeki uzayı $\mathbb{R}^{2}$ gibi düşünebiliriz. Bu durumda da fonksiyon
$$
\begin{pmatrix}r\\ s \end{pmatrix} \xrightarrow{} \begin{pmatrix} s \\ -r \end{pmatrix}$$ olarak düşünülebilir.
Bu son yazdığımız fonksiyon da
$$
A=\begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix} $$ matrisi ile verilen $f_{A}$ fonksiyonu olur.
Kanıtını vermeden şu sonucu da kaydetmekte fayda var.
Önerme 9. Verilen $V$ ve $W$ vektör uzayları arasındaki bir $f$ dönüşümü için aşağıdakiler denktir:
- $\quad f$ lineerdir.
- $\quad V$’den alınan her $v_{1}, \ldots, v_{n}$ ve $r_{1}, \ldots, r_{n}$ için $$f\left(r_{1} v_{1}+\cdots+r_{n} v_{n}\right)=r_{1} f\left(v_{1}\right)+\cdots+r_{n} f\left(v_{n}\right)$$ olur.
Bu önermeyi kullanıp lineer fonksiyonların tabanları nereye gönderdikleriyle belirlendiklerini gösterelim.
Önerme 10. $V$ ve $W$ vektör uzayları, $V$’nin bir $\{v_1, \ldots, v_n\} $ tabanı ve $W$’nun bir $\{w_1, \ldots, w_n\} $ altkümesi verilsin. O zaman her $i$ için $f\left(v_{i}\right)=w_{i}$ olacak şekilde bir ve yalnız bir tane $f: V \rightarrow W$ lineer dönüşümü vardır.
Kanıt: Alınan bir $v=r_{1} v_{1}+\cdots+r_{n} v_{n} \in V$ vektörünü $W$’daki $r_{1} w_{1}+\cdots+r_{n} w_{n}$ vektörüne gönderdiğimiz dönüşümün bir önceki önermeden lineer olduğu açık.
Aslında her $i$ için $f\left(v_{i}\right)=w_{i}$ olacak şekilde sadece bir tane $f$ olabileceği de bariz. $\quad \square$
Tanım 16. Bir $f: V \rightarrow \mathbb{R}^{n}$ fonksiyonu verilsin. Bu durumda her $v \in V$ için
$$
f(v)=\left(f_{1}(v), \ldots, f_{n}(v)\right)$$
olacak şekilde $f_{i}: V \rightarrow \mathbb{R}$ fonksiyonları vardır. Bu $f_{i}$’lere $f$’nin koordinat fonksiyonları denir.
Yukarıdaki tanımdaki gibi verilen bir fonksiyon lineerdir ancak ve ancak her koordinat fonksiyonu lineerse. Yani fonksiyonların lineerliğini koordinat koordinat kontrol edebiliriz.
Önerme 11. Eğer $f: V_{1} \rightarrow V_{2}$ ve $g: V_{2} \rightarrow V_{3}$ lineer dönüşümlerse, $g \circ f$ de lineer dönüşümdür.
Kanıt: Verilen $v, w \in V_{1}$ ve $r \in \mathbb{R}$ için
$$g(f(v+w))=g(f(v))+g(f(w))$$ ve
$$g(f(r v))=r g(f(v))$$ olduğunu göstermemiz gerekiyor. İlkine bakalım:
$$
\begin{aligned}
g(f(v+w)) & =g(f(v)+f(w)) \\
&=g(f(v))+g(f(w)) .
\end{aligned}$$ Diğeri de şöyle:
$$
g(f(r v))=g(r f(v))=r g(f(v)) . \qquad \qquad \square
$$
Görüntü Kümesi ve Çekirdek
Bir $f: V \rightarrow W$ lineer dönüşümü alalım. Bu dönüşümün görüntü kümesi $W$’nun $v \in V$ olmak üzere $f(v)$ şeklindeki elemanlarından oluşan altkümesidir; bu kümeyi $\operatorname{Im} f$ şeklinde göstereceğiz. İlk olarak bu kümenin $W$’nun bir altuzayı olduğunu kanıtlayacağız.
Önerme 12. Her lineer $f: V \rightarrow W$ dönüşümünün görüntü kümesi $W$’nun bir altuzayıdır.
Kanıt: Göstermemiz gereken, verilen $v_{1}, v_{2} \in V$ ve $r \in \mathbb{R}$ için $f\left(v_{1}\right)+f\left(v_{2}\right)$ ve $r f\left(v_{1}\right)$ vektörlerinin de görüntü kümesinde olduğu. Bu da lineerlikten açık. $\quad \square$
Tanım 17. Bir $f: V \rightarrow W$ lineer dönüşümünün çekirdeği, $V$’nin $f$ tarafından $0_{W}$ ‘ya gönderilen elemanlarından oluşan kümedir ve $ \operatorname{ker} f$ şeklinde gösterilir. (Bu gösterimin sebebi İngilizce kernel kelimesi.)
Görüntü kümesine benzer biçimde, $f$ dönüşümünün çekirdeği $V$’nin altuzayıdır.
Önerme 13. Her lineer $f: V \rightarrow W$ dönüşümünün çekirdeği $V$’nin bir altuzayıdır.
Kanıt: $f\left(0_{V}\right)=0_{W}$ olduğundan $0_{V} \in \operatorname{ker} f$ olur. $V$’den $f\left(v_{1}\right)=f\left(v_{2}\right)=0_{W}$ olacak şekilde $v_{1}$, $v_{2}$ vektörlerini ve $r \in \mathbb{R}$ alalım. Şimdi $$
f\left(v_{1}+v_{2}\right)=f\left(v_{1}\right)+f\left(v_{2}\right)=0_{W}+0_{W}=0_{W}
$$ olduğu için $v_{1}+v_{2}$ de çekirdektedir. Benzer biçimde, $f\left(r v_{1}\right)=r f\left(v_{1}\right)=r 0_{W}=0_{W}$ olduğu için $r v_{1}$ de çekirdektedir. $\quad \square$
Örnek 8. İlk örneklerimizden birinin görüntü uzayını ve çekirdeğini bulalım. Şöyle verilen dönüşüme bakalım:
$$\begin{split} f : \mathbb{R}^3 \; & \rightarrow \quad \mathbb{R}^2 \\
\begin{pmatrix} x \\ y \\ z \end{pmatrix} & \mapsto \begin{pmatrix} x-y \\ y-z \end{pmatrix} \end{split}$$
Burada $Im~f$’nin elemanları, $x, y, z \in \mathbb{R}$ olmak üzere
$$
\begin{pmatrix} x-y \\ y-z \end{pmatrix}$$ şeklindeki vektörler.
Biz $Im~f$’nin bütün $\mathbb{R}^{2}$ olduğunu iddia ediyoruz. Bunu göstermek için keyfi olarak alınan $a$ ve $b$ gerçel sayıları için $x=a$, $y=0$ ve $z=-b$ olarak tanımladığımızda
$$
\begin{pmatrix} a \\ b \end{pmatrix}=\begin{pmatrix} x-y \\ y-z \end{pmatrix}$$ olduğu açık. Yani
$$
\begin{aligned} \begin{pmatrix} a \\ b \end{pmatrix} = f \begin{pmatrix} x \\ y \\ z \end{pmatrix} \end{aligned}
$$
Şimdi de $f$’nin çekirdeğine bakalım. Çekirdek de şu küme olacak:
\[ \left\{ \begin{pmatrix} x \\ y \\ z \end{pmatrix} : x-y=y-z=0 \right\} \]
Yani çekirdeğin elemanları $x=y=z$ olacak şekildeki bütün
$$
\begin{pmatrix} x \\ y \\ z \end{pmatrix}
$$
üçlüleri. Bu da çekirdeğin elemanlarının $x \in \mathbb{R}$ olmak üzere
$$
\begin{pmatrix} x \\ x \\ x \end{pmatrix}
$$
şeklinde olması demek.
Bir lineer dönüşümün çekirdeğini incelemek, birebirliği kontrol etmeyi çok kolaylaştırır.
Önerme 14. Bir $f: V \rightarrow W$ lineer dönüşümü verilsin. O zaman $f$ birebirdir ancak ve ancak $ \operatorname{ker} f$’nin tek elemanı $0_{V}$ vektörüyse.
Kanıt: Eğer $f$ birebirse $0_{W}$’ya sadece $0_{V}$ vektörü gönderilebilir. Yani çekirdek sadece $0_{V}$’den oluşur. Tersine $ \operatorname{ker} f=\{0_V\}$ olduğunu varsayalım. Bu durumda eğer $x, y \in V$ vektörlerini $f$ aynı vektöre gönderiyorsa (yani $f(x)=f(y)$ ise) $x-y \in \operatorname{ker} f$ olur. Bu da $x-y=0_{V}$, dolayısıyla $x=y$ demek olduğu için $f$’nin birebir olduğunu göstermiş oluruz. $\quad \square$
Aslında daha fazlasını da kanıtlayabiliriz.
Önerme 15. Eğer $f: V \rightarrow W$ lineer dönüşümü birebirse lineer bağımsızlığını korur; yani eğer $v_{1}, \ldots, v_{n} \in V$ lineer bağımsızsa $f\left(v_{1}\right), \ldots, f\left(v_{n}\right)$ de lineer bağımsızdır.
Kanıt: Diyelim ki $
r_{1} f\left(v_{1}\right)+\cdots+r_{n} f\left(v_{n}\right)=0_{W} $ olacak şekilde $r_{1}, \ldots, r_{n} \in \mathbb{R}$ olsun. Bu $
f\left(r_{1} v_{1}+\cdots+r_{n} v_{n}\right)=0_{W}
$ demek. Birebirlikten dolayı da $
r_{1} v_{1}+\cdots+r_{n} v_{n}=0_{V}
$ olur. Yani $v_{1}, \ldots, v_{n}$ lineer bağımsız olduğu için $r_{1}=\cdots=r_{n}=0$ olur. Bu da $f\left(v_{1}\right), \ldots, f\left(v_{n}\right)$ lineer bağımsız demek. $\quad \square$
Tersi için birebirliğe gerek yok.
Önerme 16. Her $f: V \rightarrow W$ lineer dönüşümü ve lineer bağımsız $f\left(v_{1}\right), \ldots, f\left(v_{n}\right)$ için $v_{1}, \ldots, v_{n}$ de lineer bağımsızdır.
Kanıt: Eğer $r_{1} v_{1}+\cdots+r_{n} v_{n}=0_{V}$ ise $r_{1} f\left(v_{1}\right)+$ $\cdots+r_{n} f\left(v_{n}\right)=0_{W}$. Yani $r_{1}=\cdots=r_{n}=0$. Bu da $v_{1}, \ldots, v_{n}$ de lineer bağımsız demek. $\quad \square$
Bunu kullanarak da boyutlarla ilgili bir eşitlik kanıtlayabiliriz.
Teorem 7. Bir $f: V \rightarrow W$ lineer fonksiyonu verilsin. O zaman
$$
\operatorname{dim}(V)=\operatorname{dim} \operatorname{ker} f+\operatorname{dim} \operatorname{Im} f
$$ olur.
Kanıt: Sırasıyla
$$
B_1 = \{v_1, \ldots, v_m\} \quad \text{ ve } \quad B_{2} = \{ f(v_{1}’), \ldots, f(v_{n}’) \}
$$
$ \operatorname{ker} f$ ve $\operatorname{Im} f$ uzaylarının tabanları olsun. Biz $B = \{ v_{1}, \ldots, v_{m}\} \cup \{ v_{1}^{\prime}, \ldots, v_{n}^{\prime}\}$ kümesinin $V$’nin bir tabanı olduğunu göstereceğiz. İlk olarak $B$ ‘nin lineer bağımsız olduğunu gösterelim. Diyelim ki $r_{1}, \ldots, r_{m+n} \in \mathbb{R}$ olmak üzere
$$r_{1} v_{1}+\cdots+r_{m} v_{m}+r_{m+1} v_{1}^{\prime}+\cdots+r_{m+n} v_{n}^{\prime}=0_{V}$$
olsun. Bu eşitliğe $f$ uygularsak
$$
r_{m+1} f\left(v_{1}^{\prime}\right)+\cdots+r_{m+n} f\left(v_{n}^{\prime}\right)=0_{W},
$$
ve $f\left(v_{1}^{\prime}\right), \ldots, f\left(v_{n}^{\prime}\right)$ lineer bağımsız olduğu için
$$
r_{m+1}=\cdots=r_{m+n}=0
$$
olmak zorunda. Yani
$$
r_{1} v_{1}+\cdots+r_{m} v_{m}=0_{V} .
$$
Şimdi de, varsayımdan dolayı, $v_{1}, \ldots, v_{m}$ lineer bağımsız olduğu için $r_{1}=\cdots=r_{m}=0$ olduğu görülür. Yani $B$ lineer bağımsız.
Sıra $V$’nin $B$ ile gerildiğini göstermekte. Bunun için bir $v \in V$ alalım. $B_{2}$’nin taban olduğu kullanılarak
$$
f(v)=r_{m+1} f\left(v_{1}^{\prime}\right)+\cdots+r_{m+n} f\left(v_{n}^{\prime}\right)
$$
olarak yazalım. Demek ki
$$
v-\left(r_{m+1} v_{1}^{\prime}+\cdots+r_{m+n} v_{n}^{\prime}\right) \in \operatorname{ker} f .
$$
Şimdi $B_{1}$’in $ \operatorname{ker} f$’nin tabanı olduğu kullanılarak
$$v-\left(r_{m+1} v_{1}^{\prime}+\cdots+r_{m+n} v_{n}^{\prime}\right)=r_{1} v_{1}+\cdots+r_{m} v_{m}$$ olacak şekilde $r_{1}, \ldots, r_{m} \in \mathbb{R}$ bulabiliriz. Bu da $$v=r_{1} v_{1}+\cdots+r_{m} v_{m}+r_{m+1} v_{1}^{\prime}+\cdots+r_{m+n} v_{n}^{\prime}$$ demek. Yani $V$, $B$ ile gerilir ve $B$ bir taban oluşturur. $\quad \square$
Bu teoremin Teorem 6‘yı andırdığına dikkat edelim. Aslında doğru şekilde bakıldığında hakikaten de aynı şeyi söylüyorlar. Bunu açıklamak için ilk olarak lineer dönüşümlerin matrislerle ifadesini anlatmamız gerekli.
Lineer Fonksiyonların Matrislerle Gösterimi
İleriki kısımlarda, bütün sonlu boyutlu uzayların aslında $\mathbb{R}^{n}$ ‘gibi’ olduğunu göreceğiz. Bu sebepten burada sadece $\mathbb{R}^{n}$’ler üzerindeki lineer dönüşümlere bakacağız.
Örnek 6‘yı hatırlayalım: verilen $n \times m$ boyutlu bir matris için $\mathbb{R}^{m}$’den $\mathbb{R}^{n}$’ye giden bir lineer dönüşüm üretmiştik. Burada bunun tersini yapıp her lineer dönüşümün o şekilde ifade edilebileceğini göstereceğiz.
İlk olarak $\mathbb{R}^{m}$’nin standart $\{e_1, \ldots, e_m\}$ tabanını alalım ve benzer biçimde $\mathbb{R}^{n}$’nin de standart tabanını alalım; ama birbirine karıştırmamak için o tabanın elemanlarını $e_{1}^{\prime}, \ldots, e_{n}^{\prime}$ ile göstereceğiz. Bir $f: \mathbb{R}^{m} \rightarrow \mathbb{R}^{n}$ lineer dönüşümü verilsin. Her $i \in\{1, \ldots, m\}$ için
$$
f\left(e_{i}\right)=r_{i 1} e_{1}^{\prime}+r_{i 2} e_{2}^{\prime}+\cdots+r_{i n} e_{n}^{\prime}
$$
olacak şekilde $r_{i 1}, r_{i 2}, \ldots, r_{i n} \in \mathbb{R}$ alalım. Bu durumda, $\mathbb{R}^{m}$’den bir $v=s_{1} e_{1}+\cdots+s_{m} e_{m}$ vektörü aldığımızda
$$f(v) = \left(\sum_{i=1}^{m} s_{i} r_{i1}\right) e_{1}^{\prime} + \cdots + \left(\sum_{i=1}^{m} s_{i} r_{in}\right) e_{n}^{\prime}$$
olur. Bu aslında
$$\begin{aligned} f \begin{pmatrix} s_1 \\ s_2 \\ \vdots \\ s_m \end{pmatrix} = \begin{pmatrix} \sum_{i=1}^{m} s_{i} r_{i1} \\ \sum_{i=1}^{m} s_{i} r_{i2}\\ \vdots \\ \sum_{i=1}^{m} s_{i} r_{in} \end{pmatrix} \end{aligned} $$
demek. Yani eğer
$$A= \begin{pmatrix} r_{11} & r_{21} & \dots & r_{m1} \\ r_{12} & r_{22} & \dots & r_{m2} \\ \vdots & \vdots & \ddots & \vdots \\ r_{1n} & r_{2n} & \dots & r_{mn} \end{pmatrix}$$
olarak alırsak, $f=f_{A}$ olduğunu görürüz (burada $f_{A}$ ile ne kastedildiğini hatırlamak için Örnek 6‘ya bakabilirsiniz.)
Bulduğumuz bu matrise $f$’ye iliştirilen matris diyeceğiz ve ($A$ yerine) $M_{f}$ ile göstereceğiz.
İşin aslı, bunu yapmak için standart tabanlarla çalışmamıza hiç gerek yoktu; $\mathbb{R}^{m}$ ve $\mathbb{R}^{n}$’nin herhangi tabanlarını alsaydık da $n \times m$ boyutlu bir matris elde ederdik. Bunu daha ileride taban değiştirme kavramından bahsederken yapacağız.
Hatta daha da ileri gidip herhangi iki (sonlu boyutlu) vektör uzayıyla çalışırken de bu vektör uzaylarının birer tabanını sabitleyip bu iki vektör uzayı arasındaki lineer dönüşümleri matrislerle ifade edebiliriz.
Örnek 9. Şu lineer dönüşüme bakalım:
$$\begin{aligned}
f\;:\; \mathbb{R}^{3} \; & \rightarrow \quad \mathbb{R}^{2} \\ \begin{pmatrix} x \\ y \\ z \\ \end{pmatrix} & \mapsto \begin{pmatrix} -3y + z \\ x – 2z \\ \end{pmatrix} \end{aligned}$$
Sırasıyla $e_{1}$, $e_{2}$, $e_{3}$ vektörlerinin $f$ ile hangi vektörlere gönderildiğine bakalım.
$$ f(e_1) = \begin{pmatrix} 0 \\ 1 \end{pmatrix}, \quad f(e_2) = \begin{pmatrix} -3 \\ 0 \end{pmatrix}, \quad f(e_3) = \begin{pmatrix} 1 \\ -2 \end{pmatrix} $$ Yani
$$f(e_1) = e^{\prime}_2, \quad f(e_2) = -3e^{\prime}_1, \quad f(e_3) = e^{\prime}_1 – 2e^{\prime}_2.$$
Bu durumda, $f$ fonksiyonuna iliştirilen matris aşağıdaki gibi olur:
$$ M_f = \begin{pmatrix} 0 & -3 & 1 \\ 1 & 0 & -2 \end{pmatrix}.$$
Matris Çarpımı
Peki iki lineer dönüşümün bileşkesini aldığımızda ne olur? Bunu anlamak için $f: \mathbb{R}^{m} \rightarrow \mathbb{R}^{n}$ ve $g: \mathbb{R}^{n} \rightarrow \mathbb{R}^{p}$ lineer dönüşümlerini alalım. Önerme 11’e baktığımızda $g \circ f$’nin de $\mathbb{R}^{m}$’den $\mathbb{R}^{p}$’ye giden lineer bir dönüşüm olduğunu görürüz. Demek ki $p \times m$ boyutlu $M_{g \circ f}$ matrisi var. Bunu kullanarak matris çarpımını tanımlayabiliriz. Bunun için yine Örnek 6‘daki notasyonu kullanacağız.
Tanım 18. Boyutları sırasıyla $p \times n$ ve $n \times m$ olan $A$ ve $B$ matrisleri verilsin. Bu matrislerin çarpımı $M_{f_{A} \circ f_{B}}$ matrisi olarak tanımlanır ve $A B$ olarak gösterilir.
Şimdi bu matrisi daha açık olarak yazmaya çalışalım; $A$ ve $B$’nin girdileri şöyle olsun:
$$A= \begin{pmatrix} s_{11} & s_{21} & \dots & s_{m1} \\ s_{12} & s_{22} & \dots & s_{m2} \\ \vdots & \vdots & \ddots & \vdots \\ s_{1n} & s_{2n} & \dots & s_{mn} \end{pmatrix} \qquad \quad B= \begin{pmatrix} r_{11} & r_{21} & \dots & r_{m1} \\ r_{12} & r_{22} & \dots & r_{m2} \\ \vdots & \vdots & \ddots & \vdots \\ r_{1n} & r_{2n} & \dots & r_{mn} \end{pmatrix}$$
Daha önceki gibi $\mathbb{R}^{m}$ ve $\mathbb{R}^{n}$’nin tabanları olarak $\{e_{1}, \ldots, e_{m}\}$ ve $\left\{ e_{1}^{\prime}, \ldots, e_{n}^{\prime} \right\}$ alalım ve $\mathbb{R}^{p}$’nin standart tabanını da $\{e_{1}^{\prime\prime}, \ldots, e_{p}^{\prime\prime}\}$ olarak gösterelim. Çarpım matrisinin girdilerini anlamak için $\left(f_{A} \circ f_{B}\right)\left(e_{i}\right)$ vektörünü $e_{k}^{\prime \prime}$’ler cinsinden yazmamız gerekiyor. Tanım gereği
$$
f_{B}\left(e_{i}\right)=r_{i 1} e_{1}^{\prime}+r_{i 2} e_{2}^{\prime}+\cdots+r_{i n} e_{n}^{\prime}
$$
olur. Şimdi de buna $f_{A}$ uyguladığımızda şunu elde ederiz:
$$
f_{A}\left(f_{B}\left(e_{i}\right)\right)=\sum_{j=1}^{n} r_{i j} f_{A}\left(e_{j}^{\prime}\right) .
$$
Yine tanım olarak
$$
f_{A}\left(e_{j}^{\prime}\right)=s_{j 1} e_{1}^{\prime \prime}+s_{j 2} e_{2}^{\prime \prime}+\cdots+s_{j p} e_{p}^{\prime \prime}
$$
olduğunu biliyoruz. Bunların hepsini bir araya koyarak şunu elde ederiz:
$$ \begin{aligned}
f_{A}\left(f_{B}\left(e_{i}\right)\right) & =\sum_{j=1}^{n} r_{i j} \sum_{k=1}^{p} s_{j k} e_{k}^{\prime \prime} \\
&=\sum_{k=1}^{p}\left(\sum_{j=1}^{n} r_{i j} s_{j k}\right) e_{k}^{\prime \prime} .
\end{aligned}$$
Kısacası $A B$ matrisinin $i$ ‘inci satır ve $k$ ‘inci sütunundaki girdi $\sum_{j=1}^{n} r_{i j} s_{j k}$ gerçel sayısıdır.
Bu noktada daha önceden matris çarpımı tanımını görenlerin o tanımı buradakiyle karşılaştırması gerekiyor.
Şimdi lineer dönüşümlerle matrisler arasında bulduğumuz birebir eşlemeyi kullanıp çeşitli uzayların boyutları ve matrislerin mertebeleri arasinda ilişkiler bulalım. İlk olarak matrislerin verdiği homojen sistemlerin çözüm uzayıyla lineer dönüşümlerin görüntü uzayı ve çekirdeğini karşılaştıralım.
Verilen bir $f: \mathbb{R}^{m} \rightarrow \mathbb{R}^{n}$ lineer dönüşümüne iliştirilen matris
$$M_f= \begin{pmatrix} r_{11} & r_{21} & \dots & r_{m1} \\ r_{12} & r_{22} & \dots & r_{m2} \\ \vdots & \vdots & \ddots & \vdots \\ r_{1n} & r_{2n} & \dots & r_{mn} \end{pmatrix}$$
olsun. Bu matrisin verdiği homojen lineer denklem sisteminin çözüm uzayını elemanları her $j$ için $r_{1 j} x_{1}+r_{2 j} x_{2}+\cdots+r_{m j} x_{m}=0$ olacak şekildeki
$$\begin{pmatrix} x_1 \\ x_2\\ \vdots \\ x_m \end{pmatrix}$$
vektörleri. Bu elemanların oluşturduğu küme $ \operatorname{ker} f$’den başka bir şey değil. Bu bilgiyi Teorem 6 ve Teorem 7 ile birleştirip şu sonucu elde ederiz.
Teorem 8. Bir $f: \mathbb{R}^{m} \rightarrow \mathbb{R}^{n}$ lineer dönüşümü ve $r$ tamsayısı için aşağıdakiler denktir:
- $\quad M_f$‘in mertebesi $r$’dir.
- $\quad M_f$‘in verdiği homojen lineer sistemin çözüm uzayının boyutu $m-r$’dir.
- $\quad dim$ $ \operatorname{ker} f=m-r$.
- $\quad dim$ $Im$ $f=r$.
İzomorfizmalar
Burada yine genel vektör uzaylarında dönüp, birebir ve örten olan lineer dönüşümlere bakacağız. Vektör uzayları ve lineer dönüşümleri kısa bir süre için kenara bırakıp, genel olarak herhangi iki küme arasındaki fonksiyonlar hakkında şu hatırlatmayı yapalım: Eğer $f: X \rightarrow Y$ birebir ve örten bir fonksiyonsa $g \circ f=I_{X}$ ve $f \circ g=I_{Y}$ olacak şekilde bir $g: Y \rightarrow X$ fonksiyonu vardır (burada $I_{X}$ ve $I_{Y}$ ile $X$ ve $Y$ üzerindeki birim fonksiyonları gösteriyoruz). Bu $g$’ye $f$’nin tersi denir ve genelde $f^{-1}$ şeklinde gösterilir.
Tanım 19. Birebir ve örten lineer dönüşümlere izomorfizma denir. Eğer $V$ ile $W$ vektör uzayları arasında bir izomorfizma varsa $V$ ile $W$ izomorfiktir denir.
Önerme 17: Eğer $f: V \rightarrow W$ bir izomorfizmaysa, $f^{-1}$ de izomorfizmadır.
Kanıt: Ters fonksiyonun da birebir ve örten olduğu açık olduğundan bir tek $f^{-1}$ dönüşümünün lineer olduğunu göstermek yeterli. Bunun için $w_{1}, w_{2} \in$ $W$ ve $r \in \mathbb{R}$ alalım. Örtenlikten dolayı $f\left(v_{1}\right)=w_{1}$ ve $f\left(v_{2}\right)=w_{2}$ olacak şekilde $v_{1}, v_{2} \in V$ vardır. Şimdi $w_{1}+w_{2}=f\left(v_{1}+v_{2}\right)$ olduğundan
$$
f^{-1}\left(w_{1}+w_{2}\right)=v_{1}+v_{2}=f^{-1}\left(w_{1}\right)+f^{-1}\left(w_{2}\right) $$ elde ederiz.
Benzer biçimde $f^{-1}\left(r w_{1}\right)=r v_{1}$ olduğu da görülür. $\quad \square$
Bu önermeyi ve daha önceden kanıtladığımız ‘lineer fonksiyonların bileşkeleri de lineer fonksiyondur’ sonucunu kullanarak, izomorfik olmak kavramının vektör uzayları kümesi üzerinde bir denklik bağıntısı verdiği sonucunu çıkartabiliriz. Bu sebepten şu andan itibaren birbirine izomorfik olan uzayları birbirinden ayırt etmeyeceğiz, çünkü bir uzayda yapabildiğimiz her şeyi ona izomorfik olan bir uzaya taşıyabiliriz. Bir sonraki adım olarak $n$ boyutlu her uzayın $\mathbb{R}^{n}$’ye izomorfik olduğunu göstereceğiz; böylece sadece $\mathbb{R}^{n}$ üzerinde çalışmak yeterli olacak.
Önerme 18. Eğer $V$, $n$ boyutlu bir uzaysa $\mathbb{R}^{n}$’ye izomorfiktir.
Kanıt: $V$’nin bir $\{v_{1}, \ldots, v_{n}\}$ tabanını alalım. Önerme 10‘dan dolayı her $i$ için $v_{i}$’yi $e_{i}$’ye gönderen tek bir $f$ lineer fonksiyonu vardır. Bu fonksiyonun birebir ve örten olduğunu gösterelim.
Birebirlik için bir $v \in \operatorname{ker} f$ alalım ve $$v=r_{1} v_{1}+\cdots+r_{n} v_{n}$$ şeklinde yazalım. Yani $f(v)=r_{1} f\left(v_{1}\right)+\cdots+r_{n}\left(v_{n}\right)=r_{1} e_{1}+\cdots+r_{n} e_{n}=0$. Demek ki $e_{i}$’lerin lineer bağımsız olmasından dolayı, bütün $r_{i}$’lerin $0$ olması lazım.
Örtenlik için de $\mathbb{R}^{n}$’den bir $r_{1} e_{1}+\cdots+r_{n} e_{n}$ alalım. Bu durumda $$ f\left(r_{1} v_{1}+\cdots+r_{n} v_{n}\right)=r_{1} e_{1}+\cdots+r_{n} e_{n} $$ olduğu açık. $\quad \square $
Bu önermenin tersi de Teorem 7‘den dolayı doğru. Yani iki (sonlu boyutlu) vektör uzayının izomorfik olması için gerek-yeter koşul boyutlarının aynı olması. Bunu kaydedelim.
Sonuç 2. İki vektör uzayı izomorfiktir ancak ve ancak boyutları aynıysa.
Örnek 10. Mesela $V$, fonksiyonlar uzayının $\cos x$ ve $\sin x$ ile gerilen altuzayı olsun. Daha önceden $V$’nin bu geren kümesinin bir taban verdiğini görmüştük; yani $V$ iki boyutludur. Peki $\mathbb{R}^{2}$’ye hangi dönüşümle izomorfiktir? Önerme 18‘in kanıtına bakarsak, sadece $\cos x$’i $e_{1}$ ve $\sin x$’i $e_{2}$’ye göndermek yeterli. Yani artık $V$’nin $a \cos x+b \sin x$ gibi bir vektörünü gördüğümüzde bu vektörü $\mathbb{R}^{2}$’deki $ \begin{pmatrix}
a \\ b \end{pmatrix}$ gibi düşüneceğiz.
Örneğin yine daha önceden bahsettiğimiz $V$ üzerindeki $f \mapsto f^{\prime}$ lineer fonksiyonuna bakalım. Bu fonksiyon $a \cos x+b \sin x$ vektörünü $ b \sin x-a \cos x$ vektörüne gönderiyor. Bunu $\mathbb{R}^{2}$’ye taşıdığımızda $\begin{pmatrix}a \\ b \end{pmatrix}$ vektörünü $\begin{pmatrix}b \\ -a \end{pmatrix}$ vektörüne gönderen fonksiyonu elde ederiz.
Bu lineer fonksiyona iliştirilen matris $
\begin{pmatrix}
0 & 1 \\
-1 & 0
\end{pmatrix}
$ olur.
Örnek 11. $\mathbb{R}^{2}$’nin içinde $0$’dan geçen bir doğru alalım; mesela $y=3 x$. Bu doğru $\mathbb{R}^{2}$’nin altuzayıdır ve -başka bir çok aday arasından- $\begin{pmatrix}
1 \\
3
\end{pmatrix}$ vektörüyle gerilir. Bu doğru $\begin{pmatrix} a \\ 3a \end{pmatrix} $ vektörünü $a$’ya gönderen lineer fonksiyon aracılığıyla $\mathbb{R}$’ye izomorfiktir.
Bu örnekte dikkat edilmesi gereken bir nokta var. Bu izomorfizma aslında $\mathbb{R}^{2}$’nin $\mathbb{R}$’ye izdüşüm fonksiyonunun elimizdeki doğruya kısıtlamasıdır. Ama tabii ki o haliyle birebir bir fonksiyon olmuyor. Yani hem birebirlik hem de örtenlik fonksiyonların hangi kümeler arasında tanımlı olduğuna bağlı kavramlar.
Eğer $f: \mathbb{R}^{m} \rightarrow \mathbb{R}^{n}$ bir izomorfizmaysa, $m=n$ olmak zorunda olduğuna dikkat edelim. Yani izomorfizmalara iliştirilen matrislerin kare matris olması gerekli. Şimdi Teorem 8‘in bir sonucunu şöyle kaydedelim.
Önerme 19. Bir $f: \mathbb{R}^{m} \rightarrow \mathbb{R}^{m}$ lineer dönüşümü için aşağıdakiler denktir:
- $\quad f$ bir izomorfizmadır.
- $\quad M_f$ tekil değildir.
- $\quad M_f$‘nin mertebesi $m$’dir
- $\quad M_f$‘nin verdiği homojen lineer sistemin çözüm uzayının boyutu $0$’dır.
- $\quad dim$ $ \operatorname{ker} f=0$.
- $\quad dim$ $Im$ $f=m$
Gauss Hamleleri ve Matris Çarpımı
Bir matrise uygulanan Gauss hamlelerinin aslında o matrisi (soldan) bir takım matrislerle çarpmayla verildiğini göstereceğiz. Bunun için şu matrisleri tanımlayalım.
Tanım 20. Birim matrise tek bir Gauss hamlesi uygulayarak elde edilen matrisleri şöyle göstereceğiz:
- $\quad I_m$’nin $i$’inci satırının $r \neq 0$ ile çarparak elde edilen matrisi $M_{i}(r)$ şeklinde göstereceğiz.
- $\quad I_{m}$’nin $i$’inci ve $j$’inci satırlarını yerini değiştirerek elde edilen matrisi $P_{i j}$ şeklinde göstereceğiz.
- $\quad I_{m}$’nin $j$’inci satırına $i$’inci satırının $r$ katını ekleyerek elde edilen matrisi $C_{i j}(r)$ şeklinde göstereceğiz.
Bu matrislere elementer matrisler diyeceğiz.
Bu tanımdaki notasyonlarda $m$’yi görmezlikten geldiğimize dikkat edelim, ama bunun bir karmaşaya yol açacağını zannetmiyoruz.
Önsav 6. Verilen $m \times n$’lik bir $A$ matrisinden bir Gauss hamlesiyle elde edilen matris, $A$’nın söz konusu Gauss hamlesine tekabül eden matrisle soldan çarpılmasıyla elde edilen matristir. Yani, mesela, $A$’nın $i$’inci ve $j$’inci satırlarının yerini değistirmekle elde edilen matris $P_{i j} A$’dır.
Kanıt: İddiamızı kanıtlamak için sadece söz konusu çarpma işlemlerini yapmak yeterli. $A$’nın satırları sırasıyla $\vec{a}_1, \vec{a}_2, \ldots, \vec{a}_m$ olsun. Biz burada sadece $M_{i}(r) A$ çarpımını yapacağız:
$$M_{i}(r) A= \begin{pmatrix} 1 & 0 & \dots & 0 & \dots & 0 \\ 0 & 1 & \dots & 0 & \dots & 0 \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ 0 & 0 & \dots & r & \dots & 0 \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ 0 & 0 & \dots & 0 & \dots & 1 \end{pmatrix} \begin{pmatrix} \vec{a}_1 \\ \vec{a}_2 \\ \vdots \\ \vec{a}_i \\ \vdots \\ \vec{a}_m \end{pmatrix} = \begin{pmatrix} \vec{a}_1 \\ \vec{a}_2 \\ \vdots \\ r \vec{a}_i \\ \vdots \\ \vec{a}_m \end{pmatrix}$$
Bu çarpma sonunda elde ettiğimiz matris tam olarak $A$’nın $i$’inci satırını $r$ ile çarparak elde edilen matris.
Diğerleri de benzer şekilde kanıtlanabilir. $\quad \square$
Bu önsav kullanılarak her matrisi indirgenmiş eşelon forma getirmek için elementer matrislerle birkaç sefer çarpmak yeter.
Sonuç 3. Verilen $A$ matrisi için $B_{k} B_{k-1} \cdots B_{1} A$ indirgenmiş eşelon formda olacak şekilde $B_{1}, \ldots, B_{k}$ elementer matrisleri vardır.
Örnek 12. Mesela şu matrise bakalım:
$$
A=\begin{pmatrix}
1 & -2 & 1 & 3 \\
0 & 2 & -2 & 0 \\
-4 & 0 & 4 & 1
\end{pmatrix}\ . $$
Bu matrisi indirgenmiş eşelon forma getirmek için kullandığımız Gauss hamlelerini sırasıyla şu matrislerle ifade edebiliriz:
$$C_{13}(4), \,M_{2}(1 / 2),\, C_{23}(8),\, M_{3}(1 / 13),\, C_{21}(2),\, C_{31}(-1) \ .$$
Yani $$
C_{31}(-1) C_{21}(2) M_{3}(1 / 13) C_{23}(8) M_{2}(1 / 2) C_{13}(4) A $$ çarpımının
$$
\begin{pmatrix}
1 & 0 & -1 & 0 \\
0 & 1 & -1 & 0 \\
0 & 0 & 0 & 1
\end{pmatrix}$$ matrisine eşit olduğunu görürüz.
Kare Matrisleri
Şimdi kare matrislere odaklanalım. Bu matrislere tekabül eden lineer dönüşümler $\mathbb{R}^{n}$’den kendisine gider.
Tanım 21. Kare bir matrisin köşegeni, $a_{i i}$ şeklindeki girdilerden oluşan vektördür. Köşegen girdileri dışındaki bütün girdileri $0$ olan bir kare matrise köşegen matris denir.
Köşegeni sadece $1$’lerden oluşan köşegen matrisin -daha önceden de sık sık karşımıza çıkan- birim matris olduğuna dikkat edelim. Bu matrisi daha önceden $I_{n}$ şeklinde göstermiştik. Birim matrise iliştirilen lineer dönüşümün birim dönüşüm olduğuna da dikkat edelim. Bunu kullanarak, bir izomorfizmaya iliştirilen matrislerin tersinir olduğunu söyleyebiliriz: Yani kare bir $A$ matrisinin verdiği lineer fonksiyon bir izomorfizmadır ancak ve ancak $A B=I_{n}$ ve $B A=I_{n}$ olacak şekilde bir $B$ matrisi vardır. Peki tersinir her matrisin verdiği lineer dönüşüm izomorfizma mıdır? Evet, çünkü çarpma lineer dönüşümlerin bileşkesine tekabül eder.
Yani Önerme 19‘a bir koşul daha ekleyebiliriz:
Önerme 20. Bir $f: \mathbb{R}^{n} \rightarrow \mathbb{R}^{n}$ lineer dönüşümü için aşağıdakiler denktir:
- $\quad f$ bir izomorfizmadır.
- $\quad M_{f}$ tekil değildir.
- $\quad M_{f}$‘nin mertebesi $n$’dir.
- $\quad M_{f}$‘nin verdiği homojen lineer sistemin çözüm uzayının boyutu $0$’dır.
- $\quad \operatorname{dim} \operatorname{ker} f=0$.
- $\quad \operatorname{dim} \operatorname{Im} f=n$.
- $\quad M_{f}$ tersinirdir.
Şu soru da sorulabilir: Tersinir bir matrisin tersi tek midir? Mesela sağdan ve soldan farklı tersleri olabilir mi? Bakalım: $A B_{1}=I_{n}$ ve $B_{2} A=I_{n}$ olsun. Bu da şu demek: $f_{A} \circ f_{B_{1}}=I d_{n}$ ve $f_{B_{2}} \circ f_{A}=I d_{n}$. Şimdi keyfi bir $v \in \mathbb{R}^{n}$ alalım ve $f_{B_{1}}$ ve $f_{B_{2}}$’nin $v$’yi aynı vektöre götürdüğünü gösterelim:
$$\begin{aligned}
f_{B_{2}}(v) &= f_{B_{2}}(f_{A}(f_{B_{1}}(v))) \\
&= (f_{B_{2}} \circ f_{A})(f_{B_{1}}(v)) \\
&= f_{B_{1}}(v)
\end{aligned}.$$ Demek ki $f_{B_{1}}=f_{B_{2}}$; bu da $B_{1}=B_{2}$ demek. Yani verilen tersinir $A$ matrisinin tersi tekmiş; bu tersi $A^{-1}$ ile göstereceğiz.
Önerme 21. Tersinir $A$, $B$ matrislerinin çarpımı da tersinirdir ve
$$(A B)^{-1}=B^{-1} A^{-1}$$ olur.
Kanıt: Bunu göstermek için sadece $A B$ ile $B^{-1} A^{-1}$ matrislerini iki taraftan çarpıp $I_{n}$ elde ettiğimizi göstermek yeterli.
$$\begin{split} A B B^{-1} A^{-1}& =A I_{n} A^{-1}=A A^{-1}=I_{n}, \\ B^{-1} A^{-1} A B&=B^{-1} I_{n} B=B^{-1} B=I_{n}\end{split} \qquad \square$$
Peki tersinir olduğunu bildiğimiz bir matrisin tersini nasıl hesaplarız? Bunun için bir kez daha Önerme 20‘ye başvuracağız. O önermeye göre bir matrisin tersinir olması tekil olmamasına denk. Bu da Sonuç 1‘den dolayı, verilen matrise birkaç kez Gauss hamlesi uygulayarak birim matrisin elde edilebilmesi demektir. Şimdi bir de Sonuç 3‘ü kullanırsak şunu elde ederiz: Eğer $A$ tersinirse
$$ B_{k} B_{k-1} \cdots B_{1} A=I_{n} $$
olacak şekilde $B_{1}, \ldots, B_{k}$ elementer matrisleri vardır. O halde eğer $n \times n$’lik bir $A$ matrisi tersinirse, $A^{-1}$ sonlu tane elementer matrisin çarpımı olarak yazılabilir. Özet olarak, pratikte tersinir olduğunu bildiğimiz bir matrisin tersini bulmak için, o matrisi hangi Gauss hamleleriyle indirgenmiş eşelon forma getirdiğimizi takip ederiz ve o hamlelere tekabül eden elementer matrislerleri (doğru sırayla) çarptığımızda verilen matrisin tersini buluruz. Buna bir örnek üzerinde bakalım.
Örnek 13. Şu matrise bakalım:
$$ A= \begin{pmatrix}
2 & -2 & 4 \\
1 & 1 & 0 \\
4 & 0 & 1\end{pmatrix}$$
Bu matrisi indirgenmiş eşelon forma getirdiğimizde $I_{3}$ elde ediyoruz ve bunu yapmak için sırasıyla şu matrisleri kullanıyoruz
$$
\begin{gathered}
M_{1}(1 / 2), C_{12}(-1), M_{2}(1 / 2), C_{13}(-4), \
C_{23}(-4), M_{3}(-1 / 3), C_{21}(1), C_{31}(-1), C_{32}(1) .
\end{gathered}
$$
Yani $$C_{32}(1) C_{31}(-1) C_{21}(1) M_{3}(-1 / 3) C_{23}(-4) C_{13}(-4) M_{2}(1 / 2) C_{12}(-1) M_{1}(1 / 2) A$$ çarpımı $I_{3}$’e eşit. Bu da $A^{-1}$’in şu çarpıma eşit olması demek: $$C_{32}(1) C_{31}(-1) C_{21}(1) M_{3}(-1 / 3) C_{23}(-4) C_{13}(-4) M_{2}(1 / 2) C_{12}(-1) M_{1}(1 / 2) \ .$$ Bu çarpmaları yaptığımızda şu matrisi elde ederiz:
$$
A^{-1}= \begin{pmatrix}
-1 / 12 & -1 / 6 & 1 / 3 \\
1 / 12 & 7 / 6 & -1 / 3 \\
1 / 3 & 2 / 3 & -1 / 3
\end{pmatrix} .
$$
Bu yol daha kolay gözükse de bir sürü matrisi, çarpmak gerektiği için aslında çok da pratik bir yol değil. Şimdi tersi hesaplamanın daha güzel bir yolunu gösterelim. Yukarıdaki çarpımı hesaplamak demek, o elementer matrislerin tekabül ettiği Gauss hamlelerini birim matrise uygulamak demek. Yani tersini bulmaya çalıştığımız matrisi indirgenmiş eşelon forma getirirken, paralel olarak aynı işlemleri birim matrise uygularsak, birim matrisi söz konusu matrisin tersine dönüştürmüş oluruz. Bu tekniği elimizdeki örneğe uygulayalım.
$$ \begin{aligned}
& \left(\begin{array}{rrr|rrr} \hphantom{-}2 & -2 & 4 & \hphantom{-}1 & \hphantom{-}0 & \hphantom{-}0 \\ 1 & 1 & 0 & 0 & 1 & 0 \\ 4 & 0 & \hphantom{-}1 & 0 & 0 & 1 \end{array}\right) \\
& \quad \quad \quad \quad \quad \quad \downarrow{\frac{1}{2} \rho_{1}} \\
& \left(\begin{array}{rrr|rrr} \hphantom{-}1 & -1 & \hphantom{-}2 & \hphantom{-}\frac{1}{2} & \hphantom{-}0 & \hphantom{-}0 \\ 1 & 1 & 0 & 0 & 1 & 0 \\ 4 & 0 & 1 & 0 & 0 & 1 \end{array}\right) \\
& \quad \quad \quad \quad \quad \downarrow{-1 \rho_{1} + \rho_{2}} \\
& \left(\begin{array}{rrr|rrr} \hphantom{-}1 & -1 & 2 & 1 & \hphantom{-}0 & \hphantom{-}0 \\ 0 & 2 & -2 & -\frac{1}{2} & 1 & 0 \\ 4 & 0 & 1 & 0 & 0 & 1 \end{array}\right) \\
& \quad \quad \quad \quad \quad \quad \downarrow{\frac{1}{2} \rho_{2}} \\
& \left(\begin{array}{rrr|rrr} \hphantom{-}1 & -1 & 2 & \frac{1}{2} & \hphantom{-}0 & \hphantom{-}0 \\ 0 & 1 & -1 & -\frac{1}{4} & \frac{1}{2} & 0 \\ 4 & 0 & 1 & 0 & 0 & 1 \end{array}\right) \\
& \quad \quad \quad \quad \quad \downarrow{-4 \rho_{1} + \rho_{3}} \\
& \left(\begin{array}{rrr|rrr} \hphantom{-}1 & -1 & 2 & \frac{1}{2} & \hphantom{-}0 & \hphantom{-}0 \\ 0 & 1 & -1 & -\frac{1}{4} & \frac{1}{2} & 0 \\ 0 & 4 & -7 & -2 & 0 & 1 \end{array}\right) \\
& \quad \quad \quad \quad \quad \downarrow{-4 \rho_{2} + \rho_{3}} \\
& \left(\begin{array}{rrr|rrr} \hphantom{-}1 & -1 & 2 & \frac{1}{2} & 0 & \hphantom{-}0 \\ 0 & 1 & -1 & -\frac{1}{4} & \frac{1}{2} & 0 \\ 0 & 0 & -3 & -1 & -2 & 1 \end{array}\right) \\
& \quad \quad \quad \quad \quad \quad\downarrow{-\frac{1}{3} \rho_{3}} \\
& \left(\begin{array}{rrr|rrr} \hphantom{-}1 & -1 & 2 & \frac{1}{2} & \hphantom{-}0 & 0 \\ 0 & 1 & -1 & -\frac{1}{4} & \frac{1}{2} & 0 \\ 0 & 0 & 1 & \frac{1}{3} & \frac{2}{3} & -\frac{1}{3} \end{array}\right) \\
& \quad \quad \quad \quad \quad \downarrow{\rho_{2} + \rho_{1}} \\
& \left(\begin{array}{rrr|rrr} \hphantom{-}1 & \hphantom{-}0 & 1 & \frac{1}{4} & \hphantom{-}\frac{1}{2} & 0 \\ 0 & 1 & -1 & -\frac{1}{4} & \frac{1}{2} & 0 \\ 0 & 0 & 1 & \frac{1}{3} & \frac{2}{3} & -\frac{1}{3} \end{array}\right) \\
& \quad \quad \quad\quad \quad \downarrow{-1 \rho_{3} + \rho_{1}} \\
& \left(\begin{array}{rrr|rrr} \hphantom{-}1 & \hphantom{-}0 & \hphantom{-}0 & -\frac{1}{12} & -\frac{1}{6} & -\frac{1}{3} \\ 0 & 1 & 0 & \frac{1}{12} & \frac{7}{6} & -\frac{1}{3} \\ 0 & 0 & 1 & \frac{1}{3} & \frac{2}{3} & \frac{1}{3} \end{array}\right) \\
& \quad \quad \quad\quad \quad \downarrow{ \rho_{3} + \rho_{2}} \\
& \left(\begin{array}{rrr|rrr} \hphantom{-}1 & \hphantom{-}0 & \hphantom{-}0 & -\frac{1}{12} & -\frac{1}{6} & \frac{1}{3} \\ 0 & 1 & 0 & \frac{1}{12} & \frac{7}{6} & -\frac{1}{3} \\ 0 & 0 & 1 & \frac{1}{3} & \frac{2}{3} & \frac{1}{3} \end{array}\right) \end{aligned} $$
Bu tekniği kullanarak, $2 \times 2$’lik matrislerin terslerini bulmak için genel bir formül verelim. İlk olarak $2 \times 2$ ‘lik matrislerin hangilerinin tersinir olduğunu bulalım. Bir
$$
A=\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}$$ matrisi alalım. Bu matrisin tersinir olmamasının tek sebebi ikinci satırın ilkinin bir skaler katı olması. Yani bir $r \in \mathbb{R}$ için
$$
c=r a \quad \text { ve } \quad d=r b
$$
olması. Bu da $a d-b c$’nin $0$ olmasına denk. Sonuç olarak $A$’nın tersinir olması için gerek ve yeter koşul $a d-b c \neq 0$ olması. Öyle olduğunu varsayıp $A^{-1}$’i bulalım. Hem $a$, hem de $c$’nin $0$ olması imkansız, gerekirse satırların yerini değiştirip $a \neq 0$ olduğunu varsayabiliriz.
$$ \begin{aligned}
&\quad\quad \left(\begin{array}{cc|cc} a & b & 1 & 0 \\ c & d & 0 & 1 \end{array}\right) \\
& \quad \quad\quad \downarrow-\frac{c}{a} \rho_{1}+\rho_{2} \\
& \quad \left(\begin{array}{cc|cc} a & b & 1 & 0 \\ 0 & \frac{ad-bc}{a} & -\frac{c}{a} & 1 \end{array}\right) \\
&\quad \quad\quad\downarrow \frac{a}{ad-bc} \rho_{2} \\
& \quad\left(\begin{array}{cc|cc} a & b & \vphantom{\frac{bc}{ad}} \hphantom{+\frac{bc}{ad}\,\,} 1 \hphantom{+\frac{bc}{ad}} & 0 \\ 0 & 1 & -\frac{c}{ad-bc} & \frac{a}{ad-bc} \end{array}\right) \\
&\quad\quad\quad\downarrow -b \rho_{2}+\rho_{1} \\
& \quad\left(\begin{array}{cc|cc} a & 0 & 1+\frac{bc}{ad-bc} & -\frac{ab}{ad-bc} \\ 0 & 1 & -\frac{c}{ad-bc} & \frac{a}{ad-bc} \end{array}\right) \\
& \quad\quad\quad\downarrow \frac{1}{a} \rho_{1} \\
& \quad\left(\begin{array}{cc|cc} 1 & 0 & \hphantom{1\,\,} \frac{d}{ad-bc}\hphantom{+\,} & -\frac{b}{ad-bc} \\ 0 & 1 & -\frac{c}{ad-bc} & \frac{a}{ad-bc} \end{array}\right) \end{aligned} $$
Durumu şöyle özetleyelim:
Sonuç 4. Verilen $2 \times 2$’lik bir $A= \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ matrisi tersinirdir ancak ve ancak $a d-c b \neq 0$ olur. Tersinir olduğu durumda
$$ A^{-1}=\frac{1}{a d-b c} \begin{pmatrix}
d & -b \\
-c & a
\end{pmatrix}$$ olur.
Taban Değişimi
Her lineer dönüşüme bir matris iliştirirken bunu $\mathbb{R}^{n}$’nin standart tabanına göre yapmıştık, ama işin aslı herhangi bir tabanla da aynı işlemleri yapabilirdik. Bu durumda tabii ki aynı matrisi elde etmezdik, ama yine de hangi tabanı kullandığımız verildiğinde lineer fonksiyonun ne olduğunu söyleyebiliriz. Hatta bu bahsettiğimizi yapmak için $\mathbb{R}^{n}$’ler arasındaki lineer fonksiyonlardan daha fazlasına da bakabiliriz, fakat sonlu boyutlu her uzayın bir $\mathbb{R}^{n}$’ye izomorfik olduğunu kanıtladığımız için öyle yapmayacağız.
Tanım 22. Verilen $m$, $n$ için sırasıyla $\mathbb{R}^{n}$’nin ve $\mathbb{R}^{m}$’nin birer tabanını sabitleyelim; bunları
$$
B_{1}=\{w_{1}, \ldots, w_{n}\} \quad \text { ve } \quad B_{2}=\{v_{1}, \ldots, v_{m}\}
$$
olarak yazalım. Bir de lineer $f: \mathbb{R}^{n} \rightarrow \mathbb{R}^{m}$ dönüşümünü alalım. Her $j=1, \ldots, n$ için
$$
f\left(w_{j}\right)=a_{1 j} v_{1}+\cdots+a_{m j} v_{m}
$$
yazalım. Bu durumda $f$’ye $\left(B_{1}, B_{2}\right)$ tabanlarına göre iliştirilen matris
$$M_{f, B_{1}, B_{2}}:=\left(a_{i j}\right)_{i, j} $$ olarak tanımlanır.
Eğer $B_{1}$ ve $B_{2}$’yi standart tabanlar olarak alırsak, daha önceden tanımladığımız $M_{f}$’yi elde ederiz.
Örnek 14. Şu lineer dönüşüme bakalım:
$$ \begin{aligned} f\; :\; \mathbb{R}^{3} \;& \rightarrow \quad \mathbb{R}^{2} \\
\begin{pmatrix}
x \\
y \\
z
\end{pmatrix} & \mapsto \begin{pmatrix}
x+y \\
y-z
\end{pmatrix} .
\end{aligned}
$$
Sırayla şu tabanları sabitleyelim:
$$ B_{1}:=\left\{\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix},\begin{pmatrix} 1 \\ 2 \\ 0 \end{pmatrix},\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}\right\}, \quad \quad B_{2}:=\left\{\begin{pmatrix} 1 \\ 0 \end{pmatrix},\begin{pmatrix} 1 \\ 1 \end{pmatrix}\right\}. $$
$B_{1}$ tabanındaki vektörlerin $f$ altındaki görüntülerine bakalım:
$$
\begin{gathered}f \begin{pmatrix}
1 \\
0 \\
0
\end{pmatrix}=1 \begin{pmatrix}
1 \\
0
\end{pmatrix}+0 \begin{pmatrix}
1 \\
1
\end{pmatrix}\\
f \begin{pmatrix}
1 \\
2 \\
0
\end{pmatrix}=1 \begin{pmatrix}
1 \\
0
\end{pmatrix}+2 \begin{pmatrix}
1 \\
1
\end{pmatrix} \\
\hphantom{(-)}f \begin{pmatrix}
1 \\
2 \\
3
\end{pmatrix}=4 \begin{pmatrix}
1 \\
0
\end{pmatrix}+(-1) \begin{pmatrix}
1 \\
1
\end{pmatrix}
\end{gathered}
$$
Bu durumda
$$
M_{f, B_{1}, B_{2}}= \begin{pmatrix}
1 & 1 & 4 \\
0 & 2 & -1
\end{pmatrix} $$ olur.
Bir kere de standart tabana göre $f$’ye tekabül eden matrisi hesaplarsak,
$$M_{f}=\begin{pmatrix}
1 & 1 & 0 \\
0 & 1 & -1
\end{pmatrix}
$$ olduğunu görürüz. Peki bu iki matris arasındaki ilişki nedir?
Bu ilişkiyi anlamak için daha önceden tanımladığımız bir vektörün verilen bir matrise göre koordinatları kavramını hatırlamak lazım (Tanım 7):
Bir $V$ vektör uzayı ve bu uzayın bir
$$ B=\{v_{1}, \ldots, v_{n}\} $$ tabanı verilsin. Alınan $v \in V$’yi
$$v=b_{1} v_{1}+\cdots+b_{n} v_{n}$$ olarak yazarsak, $\left(b_{1}, \ldots, b_{n}\right)$’ye $v$’nin $B$’ye göre koordinatları deriz. Tabanı değiştirdiğimizde koordinatların nasıl değiştiğine bakalım. Bu amaçla bir de $B=\{v_{1}^{\prime}, \ldots, v_{n}^{\prime}\}$ tabanını alalım. Yukarıdaki $v$’nin $B^{\prime}$’ye göre koordinatları da $\left(b_{1}^{\prime}, \ldots, b_{n}^{\prime}\right)$ olsun. Amacımız
$$
\vec{b}=\left(b_{1}, \ldots, b_{n}\right)\quad \text{ ve } \quad \vec{b}^{\prime}=\left(b_{1}^{\prime}, \ldots, b_{n}^{\prime}\right)
$$ arasında bir ilişki bulmak.
Bunun için birim fonksiyona $\left(B, B^{\prime}\right)$’ye göre iliştirilen matrise bakalım:
$$
\begin{gathered} M_{Id, B, B’}=(a_{ij})_{i,j}\ ; \\ Id(v_j)=v_j=a_{1j}v_1’+a_{2j}v_2’+\cdots+a_{nj}v_n’ \ . \end{gathered}
$$
İddiamız şu:
$$
\big(\vec{b}^{\prime}\big)^{t}=M_{I d, B, B^{\prime}} \vec{b}^{t}
$$
Şimdi $v$’yi iki farklı şekilde yazalım. İlk olarak
$$
b_{1}^{\prime} v_{1}^{\prime}+\cdots+b_{n}^{\prime} v_{n}^{\prime}=v
$$
Aynı zamanda
$$ \begin{aligned} v & = b_{1} v_{1} + \cdots + b_{n} v_{n} \\ & = b_{1} \operatorname{Id}(v_{1}) + \cdots + b_{n} \operatorname{Id}(v_{n}) \\ & = b_{1}\left(\sum_{i=1}^{n} a_{i1} v_{i}’\right) + \cdots + b_{n}\left(\sum_{i=1}^{n} a_{in} v_{i}’\right) \\ & = \left(\sum_{j=1}^{n} b_{j} a_{1j}\right) v_{1}’ + \cdots + \left(\sum_{j=1}^{n} b_{j} a_{nj}\right) v_{n}’ \end{aligned}$$
Yani her $i=1, \ldots, n$ için $b_{i}^{\prime}=\sum_{j=1}^{n} a_{i j} b_{j}$. Bu da tam olarak
$$
\big(\vec{b}^{\prime}\big)^{t}=M_{I d, B, B^{\prime}} \vec{b}^{t}
$$
demektir. Bir yandan da -aynen standart tabanla yazdığımız durumdaki gibi- $M_{I d, B, B^{\prime}}$ matrisi bir izomorfizmaya karşılık geldiği için tersinir bir matristir ve tersi $M_{I d, B^{\prime}, B}$ ‘dir. Yani yukarıdakinin tersine
$$\vec{b}^{t}=M_{I d, B^{\prime}, B}\big(\vec{b}^{\prime}\big)^{t} $$ olur.
Şimdi de başladığımız soruya dönelim:
$$ f: \mathbb{R}^{n} \rightarrow \mathbb{R}^{m} $$
lineer dönüşümü, $\mathbb{R}^{n}$’nin $B_{1}, B_{1}^{\prime}$ ve $\mathbb{R}^{m}$’nin $B_{2}$ ve $B_{2}^{\prime}$ tabanları verilmiş olsun. Amacımız $M_{f, B_{1}, B_{1}^{\prime}}$ ve $M_{f, B_{2}, B_{2}^{\prime}}$ arasında bir ilişki bulmak.
Keyfi bir $v \in V$ alalım. Bu $v$’nin $B_{1}$ ve $B_{1}^{\prime}$’e göre koordinatları $ \vec{b}_{1}$ ve $ \vec{b}_{1}^{\prime}$ olsun. Bu durumda $f(v)$’nin $B_{2}$ ve $B_{2}^{\prime}$ tabanlarına göre koordinatları $M_{f, B_{1}, B_{2}} \vec{b}_{1}^{t}$ ve $M{f, B_{1}^{\prime}, B_{2}^{\prime}}\big(\overrightarrow{b_{1}^{\prime}}\big)^{t}$ olur. Bunlardan ilkini $B_{2}^{\prime}$ tabanına göre yazarsak $M_{I d, B_{2}, B_{2}^{\prime}} M_{f, B_{1}, B_{2}} \vec{b}_{1}^{t}$ elde ederiz. Yani şu eşitlik var:
$$
M_{I d, B_{2}, B_{2}^{\prime}} M_{f, B_{1}, B_{2}} \vec{b}_{1}^{t} =M{f, B_{1}^{\prime}, B_{2}^{\prime}}\big(\vec{b}_{1}^{\prime}\big)^{t} =M{f, B_{1}^{\prime}, B_{2}^{\prime}} M_{I d, B_{1}, B_{1}^{\prime}} \vec{b}_{1}^{t} .$$
Bu her $\vec{b}_{1}$ için doğru olduğundan
$$
M_{I d, B_{2}, B_{2}^{\prime}} M_{f, B_{1}, B_{2}}=M_{f, B_{1}^{\prime}, B_{2}^{\prime}} M_{I d, B_{1}, B_{1}^{\prime}} $$ elde ederiz. Yani
$$
M_{f, B_{1}^{\prime}, B_{2}^{\prime}}=M_{I d, B_{2}, B_{2}^{\prime}} M_{f, B_{1}, B_{2}} M_{I d, B_{1}^{\prime}, B_{1}} $$ olur.
Bunu şöyle özetleyelim.
Teorem 9. Verilen $f: \mathbb{R}^{n} \rightarrow \mathbb{R}^{m}$ lineer dönüşümü, $\mathbb{R}^{n}$’nin $B_{1}$, $B_{1}^{\prime}$ ve $\mathbb{R}^{m}$’nin $B_{2}$, $B_{2}^{\prime}$ tabanları için
$$M_{f, B_{1}^{\prime}, B_{2}^{\prime}}=P M_{f, B_{1}, B_{2}} Q$$
olacak şekilde tersinir $m \times m$’lik $P$ ve $n \times n$’lik $Q$ matrisleri vardır.
Bunun tanım ve görüntü uzaylarının boyutu aynı olan lineer fonksiyonlar için şu sonucu var.
Sonuç 5. Lineer bir $f: \mathbb{R}^{n} \rightarrow \mathbb{R}^{n}$ dönüşümü ve $\mathbb{R}^{n}$’nin $B$, $B^{\prime}$ tabanları verilsin. O zaman
$$ M_{f, B^{\prime}, B^{\prime}}=P M_{f, B, B} P^{-1} $$
olacak şekilde tersinir $n \times n$’lik bir $P$ matrisi vardır.
Yukarıdaki örnekte bunları irdeleyelim:
Örnek 15. Yeniden şu fonksiyona bakalım:
$$
\begin{aligned}
f\; :\; \mathbb{R}^{3}\; & \rightarrow \quad \mathbb{R}^{2} \\
\begin{pmatrix}
x \\
y \\
z
\end{pmatrix} & \mapsto \begin{pmatrix}
x+y \\
y-z
\end{pmatrix} .
\end{aligned}
$$
Bu fonksiyonun standart tabanlara göre matrisinin
$$
M_{f}=\begin{pmatrix}
1 & 1 & 0 \\
0 & 1 & -1
\end{pmatrix}
$$ olduğunu görmüştük. O örnekte verilen $B_{1}$ ve $B_{2}$ tabanlarına göre iliştirilen matrisi de
$$
M_{f, B_{1}, B_{2}}=\begin{pmatrix}
1 & 1 & 4 \\
0 & 2 & -1
\end{pmatrix}
$$ olarak hesaplamıştık.
Şimdi de $M_{I d, S_{2}, B_{2}}$ ve $M_{I d, B_{1}, S_{1}}$ matrislerini hesaplayalım.
$$
v_{1}=\begin{pmatrix}
1 \\
0 \\
0
\end{pmatrix}, \quad v_{2}=\begin{pmatrix}
1 \\
2 \\
0
\end{pmatrix}, \quad v_{3}=\begin{pmatrix}
1 \\
2 \\
3
\end{pmatrix}
$$ ve
$$
w_{1}=\begin{pmatrix}
1 \\
0
\end{pmatrix}, \quad w_{2}=\begin{pmatrix}
1 \\
1
\end{pmatrix}
$$ olsun. Bu durumda
$$
\begin{aligned}
& v_{1}=1 e_{1}+0 e_{2}+0 e_{3}, \\
& v_{2}=1 e_{1}+2 e_{2}+0 e_{3}, \\
& v_{3}=1 e_{1}+2 e_{2}+3 e_{3}
\end{aligned}
$$ elde ederiz. Yani
$$
M_{I d, B_{1}, S_{1}}=\begin{pmatrix}
1 & 1 & 1 \\
0 & 2 & 2 \\
0 & 0 & 3
\end{pmatrix}
$$ olduğunu görürüz.
Benzer biçimde $$ e_{1}=1 w_{1}+0 w_{2}, \quad e_{2}=(-1) w_{1}+1 w_{2} . $$ Yani
$$
M_{I d, S_{2}, B_{2}}=\begin{pmatrix}
1 & -1 \\
0 & 1
\end{pmatrix}
$$ Şimdi
$$
M_{f, B_{1}, B_{2}}=M_{I d, S_{2}, B_{2}} M_{f} M_{I d, B_{1}, S_{1}}
$$
olduğunu görmek kolay.
Bu sayımızda kapak konusu burada bitiyor. MD 2014-II’de determinantlarla devam edeceğiz.
Not: Bu yazı Matematik Dünyası Dergisi arşivinden siteye eklenmiştir. Yazı ilk olarak derginin 2014 yılı 1. sayısında yer almıştır. Matematik Dünyası arşivi titiz bir çalışma ile çevrim içi platformlarda yeni okuyucularıyla buluşuyor. Bu yazıyı burada okunabilir hale getiren arşiv ekibi üyesi Mehmet Yurtsever‘e ve tüm gönüllü arşiv ekibimize teşekkür ediyoruz. Yazıyı PDF olarak okumak için PDF arşivine buradan ulaşabilirsiniz.