Jordan Formu

Yıl: 2014-3

Sayı: 100

2014-II’deki Lineer Cebir kısmının sonunda simetrik gerçel katsayılı matrislerin köşegen matrislere benzer olduğunu göstermiştik.

Bunu yaptıktan sonra da örneklerle her matrisin köşegen bir matrise benzer olmadığından bahsetmiştik. Bu kısımda amacımız her matrisin köşegen bir matris ve sıfırgüçlü diyeceğimiz özel tür bir matrisin toplamı olarak yazılabileceğini göstermek.

Aynen 2014-II’deki gibi burada da kare matrislerle uğraşmak yerine verilen sonlu boyutlu bir $V$ vektör uzayından kendisine giden lineer fonksiyonlarla çalışacağız. Yapacağımız şeylerin birçoğu $V$’nin sonlu boyutlu olmadığı durumlarda da geçerli ama bunun üzerinde çok fazla durmayacağız.

Sıfırgüçlü Dönüşüm ve Matrisler

Verilen bir $f: V \rightarrow V$ lineer fonksiyonunu üstüste uygulayabiliriz. Yani bir $v \in V$ için

$$
f(v),\, f(f(v)),\, f(f(f(v))), \ldots
$$

değerlerini bulabiliriz. Bu fonksiyonun $i$ kere uygulanmış halini $f^{i}$ ile göstereceğiz. Aynı şekilde kare bir $A$ matrisinin $i$’inci kuvvetini de alabiliriz. $f$’ye $V$’nin sabitlenmiş bir tabanına göre iliştirilen bir matrisi düşündüğümüzde bu ikisi aynı işleme tekabül eder. Yani eğer $B$, $V$’nin bir tabanıysa her $v \in V$ için $b \in \mathbb{R}^{\operatorname{dim}(V)}$, $v$’nin $B$’ye göre koordinatları olmak üzere

$$
f^{i}(v)=\left(M_{f, B, B}\right)^{i} b
$$

olur.

Başlıkta adı geçen sıfırgüçlü matrisler, belirli bir kuvveti $0$ olanlar. Titiz tanımı yapmadan önce şu önermeye bakalım. Bu önerme bu bölümün geri kalanında yapacağımız her şeyin temelini oluşturuyor.

Önerme 9. Bir $f: V \rightarrow V$ lineer dönüşümü verilsin.

  1. Her $i \geq 0$ için $$ \operatorname{Im} f^{i+1} \leq \operatorname{Im} f^{i} \quad \text{ ve } \quad \operatorname{ker} f^{i} \leq \operatorname{ker} f^{i+1} $$ olur. (Burada ve aşağıda $f^{0}$’ı birim fonksiyon olarak alıyoruz.)
  2. Her $i \geq k$ için

$$\operatorname{Im} f^{i}=\operatorname{Im} f^{k} \quad \text{ ve } \quad \operatorname{ker} f^{i}=\operatorname{ker} f^{k} $$

olacak şekilde bir $k \in \mathbb{N}$ vardır. Hatta bu $k$, her $j<k$ için

$$ \operatorname{Im} f^{j+1} \lneq \operatorname{Im} f^{j} \quad \text{ ve } \quad \operatorname{ker} f^{j} \lneq \operatorname{ker} f^{j+1} $$

olacak şekilde seçilebilir.

Kanıt. Bir $v \in \operatorname{Im} f^{i+1}$ alalım. Bu $v=f^{i+1}(w)$ olacak şekilde bir $w \in V$ olması demek. Yani $f^{i+1}(w)=f^{i}(f(w))$ olduğundan $v \in \operatorname{Im} f^{i}$ olur.

Çekirdek için benzer kanıtı yapmak amacıyla $v \in$ $\operatorname{ker} f^{i}$ alalım. Demek ki $f^{i}(v)=0$ ve bu eşitliğe bir kez daha $f$ uygularsak $f^{i+1}(v)=0$ elde ederiz. Yani $v \in \operatorname{ker} f^{i+1}$ olur.

İkinci kısım için burada geçen bütün uzayların sonlu boyutlu bir uzayın altuzayları olduğuna dikkat edelim. Yani mesela $\operatorname{Im} f^{i}$’lerin boyutlarının sürekli düşmesine imkân yok. Benzer biçimde $\operatorname{ker} f^{i}$’lerin boyutlarının sürekli artmaları da mümkün değil.

Son kısım için eğer $\operatorname{Im} f^{j+1}=\operatorname{Im} f^{j}$ ise aynısının $j$’den büyük bütün $i$’ler için de doğru olacağına dikkat edelim. Benzeri çekirdekler için de geçerli. Bu durumda göstermemiz gereken görüntü uzayları ve çekirdeklerin aynı noktadan sonra eşitlenmeye başladıkları. Bu da 2014-I’deki Teorem 7’den dolayı doğru: Her $g: V \rightarrow W$ lineer dönüşümü için

$$
\operatorname{dim} V=\operatorname{dim} \operatorname{ker} g+\operatorname{dim} \operatorname{Im} g . \quad \square
$$

Örnek 14. Matrislerle verilen çeşitli lineer fonksiyon örneklerine bakalım. İlk olarak şu matrisle verilen $f: \mathbb{R}^{3} \rightarrow \mathbb{R}^{3}$ fonksiyonuna bakalım:

$$
A=\left(\begin{array}{rrr}
1 & 0 & 0 \\
-1 & 0 & 0 \\
0 & -1 & 0
\end{array}\right) \ .
$$

Yani

$$
f\left(\begin{array}{l}
x \\
y \\
z
\end{array}\right)=\left(\begin{array}{r}
x \\
-x \\
-y
\end{array}\right) \ .
$$

$f$’yi yinelediğimizde ne elde ettiğimizi görmek için $A$’nın kuvvetlerine baktığımızda $A^{2}$ ile $A^{3}$’ün aynı olduğunu görürüz:

$$
A^{2}=A^{3}=\left(\begin{array}{rrr}
1 & 0 & 0 \\
-1 & 0 & 0 \\
1 & 0 & 0
\end{array}\right) \ .
$$

Yani

$$
f^{2}\left(\begin{array}{l}
x \\
y \\
z
\end{array}\right)=f^{3}\left(\begin{array}{l}
x \\
y \\
z
\end{array}\right)=\left(\begin{array}{r}
x \\
-x \\
x
\end{array}\right)
$$

olur.

Bu fonksiyonların görüntü uzaylarına ve çekirdeklerine bakalım:

$$
\begin{split}
\operatorname{Im} f \hphantom{^2}&= \Bigg\{ \left(\begin{array}{r}
a \\
-a \\
b
\end{array}\right): a, b \in \mathbb{R} \Bigg\}, \\
\operatorname{Im} f^{2}&=\operatorname{Im} f^{3}= \Bigg\{\left(\begin{array}{r}
a \\
-a \\
a
\end{array}\right): a \in \mathbb{R} \Bigg\}, \\
\operatorname{ker} f \hphantom{^2}&=\Bigg\{ \left(\begin{array}{c}
0 \\
0 \\
a
\end{array}\right): a \in \mathbb{R} \Bigg\}, \\
\operatorname{ker} f^{2}&=\operatorname{ker} f^{3}= \Bigg\{ \left(\begin{array}{c}
0 \\
a \\
b
\end{array}\right): a, b \in \mathbb{R} \Bigg\} \ .
\end{split}
$$

Tam da Önerme 9’da kanıtladığımız gibi

$$
\operatorname{Im} f^{3}=\operatorname{Im} f^{2} \leq \operatorname{Im} f
$$

ve

$$
\operatorname{ker} f \leq \operatorname{ker} f^{2}=\operatorname{ker} f^{3} \ .
$$

Yani Önerme 9’daki $k$ bu örnekte $2$ oluyor.

Yukarıdaki önermede bulduğumuz $k$’nın en fazla $V$’nin boyutu olduğunu görmek kolay. Yani görüntü uzayları ve çekirdekler en fazla $\operatorname{dim} V$ adımdan sonra sabitlenmeye başlıyor.

Önsav 4. Bir $f: V \rightarrow V$ lineer fonksiyonu verilsin ve $\operatorname{dim} V=n$ olsun. O zaman

$$
f: \operatorname{Im} f^{n} \rightarrow \operatorname{Im} f^{n}
$$

fonksiyonu birebirdir.

Kanıt. $\operatorname{Im} f^{n}$’e kısıtlandığında $f$ fonksiyonu örtendir ve iki tarafın da boyutu aynı olduğu için bir kez daha 2014-I’deki Teorem 7’den dolayı, bu fonksiyonun çekirdeği $0$ boyutlu olmalı. Yani $f$’nin $\operatorname{Im} f^{n}$’e kısıtlaması birebir olur. $\quad \square$

Bu önsavın sonucu olarak şunu elde ederiz.

Teorem 5. $n$ boyutlu bir $V$ uzayı üzerinde verilen bir $f: V \rightarrow V$ lineer fonksiyonu için

$$
V=\operatorname{Im} f^{n} \oplus \operatorname{ker} f^{n}
$$

olur.

Kanıt. $V$ üzerinde tanımlı $f^{n}$ dönüşümünün görüntü uzayı $\operatorname{Im} f^{n}$ ve çekirdeği de $\operatorname{ker} f^{n}$ olduğu için Teorem 3 kullanılarak $V$’nin bu iki uzayın dış direkt toplamı olduğu sonucu çıkartılabilir ama bizim amacımız $V$’nin bu iki uzayın iç direkt toplamı olduğunu göstermek. Bunun için de tek gereken

$$
\operatorname{Im} f^{n} \cap \operatorname{ker} f^{n}={0}
$$

olduğunu göstermek. Bu amaçla $v \in \operatorname{Im} f^{n} \cap \operatorname{ker} f^{n}$ alalım. Yani $v=f^{n}(w)$ olacak şekilde bir $w \in V$ var. Aynı zamanda $f^{n}(v)=f^{2 n}(w)=0$ olur. Yani $w \in \operatorname{ker} f^{2 n}$. Şimdi $ \operatorname{ker} f^{2 n}=\operatorname{ker} f^{n}$ olduğundan $w \in \operatorname{ker} f^{n}$ ve $v=f^{n}(w)=0$ olmalı. $\quad \square$

Tanım 11. Verilen bir $f: V \rightarrow V$ için $ \operatorname{ker} f^{n}=V$ oluyorsa $f$’ye sıfırgüçlü denir.

Bu tanıma göre $f$’nin $n$’inci kuvveti $0$-fonksiyonu oluyorsa sıfırgüçlü olur. Dikkat edilmesi gereken $f$’nin daha küçük bir kuvvetinin $0$-olabileceği; eğer $k$ bu kuvvetlerin en küçüğüyse $f$, $k$’ıncı dereceden sıfırgüçlüdür denir.

Eğer $n \times n$’lik bir matrisin belirlediği lineer dönüşüm sıfirgüçlü oluyorsa, o matrise de sıfırgüçlü denir. Bu tanımın $\mathbb{R}^{n}$’nin sabitlediğimiz herhangi bir tabanından bağımsız olduğuna da dikkat çekelim. Yani aslında bu matrisi bir dönüşüm gibi düşünmemize gerek yok; sadece matris olarak kuvvetlerini aldığımızda bir noktada sıfır matrisini elde ediyorsak elimizdeki matris sıfırgüçlü olur.

Örnek 15. Şu matrisle verilen lineer dönüşüme bakalım:

$$
A=\left(\begin{array}{rrr}
0 & 0 & 0 \\
-1 & 0 & 0 \\
0 & -2 & 0
\end{array}\right) \ .
$$

$A$’nın kuvvetlerini hesapladığımızda

$$
A^{2}=\left(\begin{array}{lll}
0 & 0 & 0 \\
0 & 0 & 0 \\
2 & 0 & 0
\end{array}\right) \quad \text{ve} \quad
A^{3}=\left(\begin{array}{lll}
0 & 0 & 0 \\
0 & 0 & 0 \\
0 & 0 & 0
\end{array}\right) $$

olduğunu görürüz. Yani $A$ derecesi $3$ olan sıfırgüçlü bir matristir.

Önsav 5. Sonlu boyutlu bir $V$ uzayı üzerinde tanımlı sıfırgüçlü $f: V \rightarrow V$ lineer dönüşümü ve $V$’nin

$$
\begin{aligned}
v_{1}, f\left(v_{1}\right),& \ldots, f^{k_{1}-1}\left(v_{1}\right), \\
v_{2}, f\left(v_{2}\right),& \ldots, f^{k_{2}-1}\left(v_{2}\right), \\
& \;\; \vdots \\
v_{m}, f\left(v_{m}\right),& \ldots, f^{k_{m}-1}\left(v_{m}\right)
\end{aligned}
$$

formunda bir tabanı verilmiş olsun. Eğer her $i$ için $v_{i}, f\left(v_{i}\right), \ldots, f^{k_{i}-1}\left(v_{i}\right), f^{k_{i}}\left(v_{i}\right)$ lineer bağımlıysa $f$’nin sıfırgüçlülük derecesi

$$
k=\max \{ k_{1}, \ldots, k_{m} \}
$$

olur.

Kanıt. İlk olarak $f$’nin $k$’dan daha küçük dereceden sıfırgüçlü olamayacağına dikkat edelim; öteki türlü $f^{k-1}\left(v_{i}\right)$’lerden en az biri sıfır olacağından taban elemanı olamazlardı.

Sıfırgüçlülük derecesinin $k$ olduğunu göstermek için $V_{i}$, $v_{1}, f\left(v_{1}\right), \ldots, f^{k_{1}-1}\left(v_{1}\right)$ ile gerilen uzay olarak alalım. Bu uzayın $k_{i}$ boyutlu olduğuna ve varsayımdan dolayı $f$’nin bu uzayı kendisine gönderdiğine dikkat edelim. Önsav 4’ten dolayı

$$
f: \operatorname{Im} f^{k_{i}} \cap V_{i} \rightarrow \operatorname{Im} f^{k_{i}} \cap V_{i}
$$

fonksiyonu birebir olur. Sıfırgüçlü lineer fonksiyonların sıfır olmayan uzaylar üzerinde izomorfizma olması imkansız olduğundan $\operatorname{Im} f^{k_{i}} \cap V_{i}$ sıfır uzayı olmalı. Bu da $f^{k_{i}}$’nin $V_{i}$ üzerinde sıfır olduğunu söylüyor. Her $i$ için $k_{i} \leq k$ olduğundan $f^{k}$ her $V_{i}$ üzerinde sıfır olur. Bu durumda da $f$’nin sıfırgüçlülük derecesi tam olarak $k$ olmalıdır. $\quad \square$

Bu önsavın kanıtından şu kısmı kendi başına kenara ayırmakta fayda var.

Önsav 6. Bir önceki önsavdaki gibi $V$, $f$ ve $V$’nin oradaki gibi bir tabanı verilsin. O zaman her $i$ için $0 \leq j_{i}<k_{i}$ ise $f^{j_{i}}\left(v_{i}\right) \neq 0$ ve $f^{k_{i}}\left(v_{i}\right)=0$ olur.

Verilen bir $V$ vektör uzayının yukarıdaki önsavlardaki gibi tabanlarına geçici olarak özel taban diyelim. Bu kavramın $f$’ye bağlı bir kavram olduğuna dikkat edelim. Son önsavı kullanarak $f$ lineer dönüşümünün özel bir tabana göre verilen matrisi şu şekilde olur:

$$
A=\left(\begin{array}{c:c:c:c:c}
A_{1} & 0 & 0 & \cdots & 0 \\
\hdashline 0 & A_{2} & 0 & \cdots & 0 \\
\hdashline 0 & 0 & \ddots & \ddots & \vdots \\
\hdashline 0 & 0 & \ddots & \ddots & 0 \\
\hdashline 0 & 0 & \cdots & 0 & A_{m}
\end{array}\right)
$$

Bu matriste $0$ girdileri doğru büyüklükteki $0$-matrisleri ve $A_{i}$ matrisi $k_{i} \times k_{i}$’lik

$$
\left(\begin{array}{ccccc}
0 & 0 & 0 & \cdots & 0 \\
1 & 0 & 0 & \cdots & 0 \\
0 & 1 & 0 & \cdots & 0 \\
\vdots & \vdots & \ddots & \ddots & \vdots \\
0 & 0 & \cdots & 1 & 0
\end{array}\right)
$$

matrisidir.

Yani eğer özel bir taban varsa, $f$’yi o tabana göre temsil eden matris oldukça basit.

Örnek 15’e bakalım. Oradaki $A$ matrisine tekabül eden lineer dönüşüm verilen bir

$$
\left(\begin{array}{l}
x \\
y \\
z
\end{array}\right)
$$

vektörünü

$$
\left(\begin{array}{c}
0 \\
-x \\
-2 y
\end{array}\right)
$$

vektörüne gönderiyor. Bu dönüşüm için özel bir taban bulalım. Mesela

$$
e_{1}=\left(\begin{array}{l}
1 \\
0 \\
0
\end{array}\right)
$$

vektörüyle başlayalım ve elimizdeki dönüşümün onu nereye gönderdiğine bakalım:

$$
e_{1} \mapsto\left(\begin{array}{r}
0 \\
-1 \\
0
\end{array}\right) \mapsto\left(\begin{array}{l}
0 \\
0 \\
2
\end{array}\right) \mapsto\left(\begin{array}{l}
0 \\
0 \\
0
\end{array}\right) \ .
$$

Bu durumda

$$
\left(\begin{array}{l}
1 \\
0 \\
0
\end{array}\right),\, \left(\begin{array}{r}
0 \\
-1 \\
0
\end{array}\right),\,\left(\begin{array}{l}
0 \\
0 \\
2
\end{array}\right)
$$

vektörleri $\mathbb{R}^{3}$’ün özel bir tabanını oluşturur ve elimizdeki dönüşümü bu tabana göre ifade eden matris

$$
\left(\begin{array}{lll}
0 & 0 & 0 \\
1 & 0 & 0 \\
0 & 1 & 0
\end{array}\right)
$$

olur.

Şimdi her sıfırgüçlü $f: V \rightarrow V$ için özel bir taban bulabileceğimizi gösterelim.

Teorem 6. Sonlu boyutlu bir $V$ uzayı üzerinde tanımlı sıfırgüçlü $f: V \rightarrow V$ lineer dönüşümünün özel bir tabanı vardır.

Kanıt. $f$’nin sıfırgüçlülük derecesi $k$ üzerine tümevarım yapacağız.

$k=1$ ise $V$’deki her vektör çekirdektedir. Bu durumda $V$’nin herhangi bir tabanı özel taban olacaktır.

Şimdi sıfırgüçlülük derecesi $k-1$ olan lineer dönüşümlerin özel tabanları olduğunu varsayalım. Bu varsayımı kullanabilmek için $f$’yi $\operatorname{Im} f$’ye kısıtladığımızda sıfırgüçlülük derecesi $k-1$ olan bir lineer dönüşüm elde ettiğimize dikkat edelim. Dolayısıyla $\operatorname{Im} f$’nin aşağıdaki gibi bir özel tabanını alabiliriz:

$$
\begin{aligned}
w_{1}, f\left(w_{1}\right),& \ldots, f^{k_{1}-1}\left(w_{1}\right), \\
w_{2}, f\left(w_{2}\right),& \ldots, f^{k_{2}-1}\left(w_{2}\right), \\
& \;\;\vdots \\
w_{m}, f\left(w_{m}\right),& \ldots, f^{k_{m}-1}\left(w_{m}\right) \ .
\end{aligned}
$$

Bu tabandaki

$$
f^{k_{1}-1}\left(w_{1}\right), f^{k_{2}-1}\left(w_{2}\right), \ldots, f^{k_{m}-1}\left(w_{m}\right)
$$

vektörleri Önsav 6’dan dolayı $\operatorname{ker} f \cap \operatorname{Im} f$’dedir; hatta bu uzayın bir tabanı olurlar. Bu vektörler lineer bağımsız olduğu için $\operatorname{ker} f$’nin bir tabanına tamamlanabilirler. Tabana tamamlayan vektörler $u_{1}, \ldots, u_{l}$ olsun.

$\operatorname{Im} f$ için yukarıda aldığımız özel tabana $u_{1}, \ldots, u_{l}$ vektörlerini eklediğimizde $\operatorname{Im} f+\operatorname{ker} f$ uzayını geren bir küme buluruz. Bu kümede

$$
l+\sum_{i=1}^{m} k_{i}
$$

eleman vardır. Şu boyut hesabına bakalım:

$$
\begin{aligned}
\operatorname{dim}(\operatorname{Im} f+\operatorname{ker} f) & = \operatorname{dim} \operatorname{Im} f+\operatorname{dim} \operatorname{ker} f -\operatorname{dim}(\operatorname{Im} f \cap \operatorname{ker} f) \\
& = \sum_{i=1}^{m} k_{i}+(m+l)-m \\
& = \sum_{i=1}^{m} k_{i}+l .
\end{aligned}
$$

Yani yukarıdaki geren kümede tam da

$$
\operatorname{Im} f+\operatorname{ker} f
$$

uzayının boyutu kadar eleman var olduğundan o küme $\operatorname{Im} f+\operatorname{ker} f$’nin bir tabanı olur.

Son adım olarak bu tabanı $V$’nin bir tabanına genişletelim. Her $i=1, \ldots, m$ için $f\left(v_{i}\right)=w_{i}$ olacak şekilde $v_{1}, \ldots, v_{m} \in V$ seçelim. Bu $v_{1}, \ldots, v_{m}$’yi $\operatorname{Im} f+\operatorname{ker} f$ için bulduğumuz tabana eklediğimizde $V$ için bir taban elde ettiğimizi göstereceğiz. Bu kümede tam olarak

$$
\sum_{i=1}^{m} k_{i}+l+m
$$

tane eleman var. Bu sayı $\operatorname{Im} f$ ile $\operatorname{ker} f$ ‘nin boyutlarının toplamı. Yani tam olarak $V$’nin boyutu. Demek ki ihtiyacımız olan bu vektörlerin lineer bağımsız olduğunu göstermek.

Bu vektörlerin bir lineer kombinasyonunu alalım. Eğer bu lineer kombinasyon sıfırı veriyorsa $f$ altındaki görüntüsü de sıfırı verir. $f$’nin lineerliğini kullanarak $\operatorname{Im} f+\operatorname{ker} f$’nin tabanının elemanlarının sıfıra eşit bir lineer kombinasyonunu elde ederiz. Bu kombinasyonda katsayıların aynı kaldığını ve çekirdekte olmayanlarının katsayılarının $0$ olması gerektiğini görürüz. Dolayısıyla başladığımız lineer kombinasyonda sadece $u_{i}$’ler ve $f^{k_{i}}\left(v_{i}\right)$’lerin katsayıları sıfırdan farklı olabilir. Ama bunlar $\operatorname{ker} f$’nin bir tabanı olduğu için lineer bağımsızdır. Sonuç olarak katsayıları sıfırdan farklı olamaz. Bu da kanıtı bitirir. $\square$

Sonuç 4. Her sıfırgüçlü matris, $A_{i}$’ler

$$
\left(\begin{array}{ccccc}
0 & 0 & 0 & \cdots & 0 \\
1 & 0 & 0 & \cdots & 0 \\
0 & 1 & 0 & \cdots & 0 \\
\vdots & \vdots & \ddots & \ddots & \vdots \\
0 & 0 & \cdots & 1 & 0
\end{array}\right)
$$

şeklinde olmak üzere

$$
\left(\begin{array}{c:c:c:c:c}
A_{1} & 0 & 0 & \cdots & 0 \\
\hdashline 0 & A_{2} & 0 & \cdots & 0 \\
\hdashline 0 & 0 & \ddots & \ddots & \vdots \\
\hdashline 0 & 0 & \ddots & \ddots & 0 \\
\hdashline 0 & 0 & \cdots & 0 & A_{m}
\end{array}\right)
$$

formunda bir matrise benzerdir.

Cayley-Hamilton Teoremi

Bu kısımda da bir $V$ vektör uzayından kendisine giden lineer dönüşümlerle ilgileneceğiz ama bir önceki kısımdaki gibi sadece sıfırgüçlü olanlara odaklanmayacağız. Yine $V$’nin sonlu boyutlu olduğunu varsayalım; $\operatorname{dim} V=n$ olsun.

İlk olarak $n \times n$’lik matrislere bakalım. 2014-II sayısındaki “Determinantlar” bölümünde bu matrislerin kümesinin bir vektör uzayı olduğundan bahsetmiştik ve bu uzayı $M_{n}$ ile göstermiştik. Bu uzayın boyutunun $n^{2}$ olduğunu görmek de kolay: Sadece bir girdisi $1$ ve diğerleri $0$ olan matrisler bu uzayın bir tabanı olur.

Dolayısıyla her $A$ kare matrisi için

$$
\{I_{n}, A, A^{2}, \ldots, A^{n^{2}} \}
$$

kümesi $M_{n}$ içinde lineer bağımlı bir küme olur. Bu da

$$
a_{0} I_{n}+a_{1} A+a_{2} A^{2}+\cdots+a_{n^{2}} A^{n^{2}}
$$

lineer kombinasyonu $0$-matrisine eşit olacak şekilde hepsi sıfır olmayan $a_{0}, a_{1}, \ldots, a_{n^{2}}$ gerçel sayılarının olması demek.

Bunu,

$$
a_{0}+a_{1} t+a_{2} t^{2}+\cdots+a_{n^{2}} t^{n^{2}}
$$

polinomunu $A$ matrisinde değerlendirdiğimizde $0$-matrisini elde etmek olarak ifade edebiliriz. $A$’da değerlendirildiğinde $0$-matrisini veren $0$-polinomu olmayan bütün polinomlar arasından en düşük dereceli olanlarına bakalım ve bunlar arasından da en büyük dereceli katsayısı $1$ olanlara odaklanalım. En azından bir tane böyle olduğu aşikar: Herhangi bir tanesini alıp her katsayıyı en büyük dereceli katsayıya bölerek böyle bir polinom elde ederiz.

Yukarıdaki yöntemle bulduğumuz bir polinoma $A$’nın bir minimal polinomu diyeceğiz. Yani $A$’da değerlendirildiğinde $0$-matrisini veren $0$-polinomu olmayan ve en büyük katsayısı $1$ olan polinomlar.

Aslında her $A$’nın minimal polinomu tektir: Diyelim ki $m_{1}(t)$ ve $m_{2}(t)$ böyle iki polinom olsun. Bu durumda bu polinomların dereceleri eşit olmalıdır ve $m_{1}(t)-m_{2}(t)$ polinomunun derecesi $m_{1}(t)$’nin derecesinden küçük olur. Aynı zamanda $m_{1}(t)-m_{2}(t)$ polinomu $A$’da değerlendirildiğinde $0$-matrisini verir. Demek ki $m_{1}(t)-m_{2}(t)$ polinomu $0$-polinomu olmalıdır. Yani $m_{1}(t)=m_{2}(t)$.

Matrislerle yaptığımız bu işlemleri lineer dönüşümlerle de yapabiliriz; bir lineer dönüşümün $k$’ıncı kuvvetini almak o dönüşümü üst üste $k$ kere uygulamakla elde edilen dönüşüm olarak yorumlanmalı. Bu şekilde aynen matrislerdeki gibi lineer dönüşümlerin minimal polinomlarından da bahsedebiliriz.

Örnek 16. Örnek 14’teki matrise bakalım:

$$
A=\left(\begin{array}{rrr}
1 & 0 & 0 \\
-1 & 0 & 0 \\
0 & -1 & 0
\end{array}\right)
$$

Bu matrisin karesiyle küpünün aynı olduğunu biliyoruz. Dolayısıyla $A$

$$
t^{3}-t^{2}
$$

polinomunda değerlendirildiğinde $0$-matrisini veriyor. Şu andaki bilgimizle $A$’yı değerlendirdiğimizde $0$-matrisini veren polinomların en küçük dereceli polinomun bu olduğunu kanıtlamak çok kolay değil ama aşağıda yaptıklarımızdan sonra $A$’nın minimal polinomunun bu olduğunu görmek oldukça kolay olacak.

Verilen bir dönüşümün minimal polinomunu bulmak için şu önsav oldukça faydalı olacak. Kanıtı zor değil ama biraz teknik; bu yüzden okura bırakmanın daha iyi olacağını düşünüyoruz.

Önsav 7. Başkatsayısı $1$ olan bir $p(t)$ polinomunun kökleri $\lambda_{1}, \ldots, \lambda_{k}$ olsun ve

$$
\left(t-\lambda_{1}\right)^{m_{1}} \cdots\left(t-\lambda_{k}\right)^{m_{k}}
$$

olarak çarpanlarına ayrılsın. O zaman her $f: V \rightarrow$ $V$ lineer dönüşümü için $p(f)$

$$
\left(f-\lambda_{1}\right)^{m_{1}} \circ \cdots \circ\left(f-\lambda_{k}\right)^{m_{k}}
$$

fonksiyonu olur. (Burada ve aşağıda $f-\lambda$ dönüşümü $v$’yi $f(v)-\lambda v$ ‘ye gönderen dönüşüm.)

Bir sonraki teorem meşhur Cayley-Hamilton Teoremi. Bu teoreme geçmeden önce kanıtta kullanmak üzere determinantla ilgili bir gözlem yapalım. Kare bir $A$ matrisi verilsin. MD 2014-II’nin 87’nci sayfasındaki Teorem 2’nin kanıtında tanımlanan $A_{i j}$’leri hatırlayalım: $A_{i j}$, $A$’nın $i$’inci satır ve $j$’inci sütununu çıkartılarak elde edilen matris. Yine aynı kanıttan, bir $i$ sabitlediğimizde $\operatorname{det} A$’nın

$$
\sum_{j=1}^{n}(-1)^{i+j} a_{i j} \operatorname{det} A_{i j}
$$

olduğu çıkıyor. (Aslında bu az çok determinantın tanımı.)

Bir de $k \neq i$ için

$$
\sum_{j=1}^{n}(-1)^{i+j} a_{i j} \operatorname{det} A_{k j}
$$

toplamına bakalım. Bu toplam da $A$’nın $i$’inci satırı yerine $k$’inci satırını yazarak elde edilen matrisin determinantı; yani bu toplam $0$ olmalı. Bu durumda eğer $\tilde{A}$, $i$’inci satır ve $j$’inci sütunundaki girdisi

$$
(-1)^{i+j} \operatorname{det} A_{i j}
$$

olan matris olarak tanımlanırsa

$$
A \tilde{A}=(\operatorname{det} A) I_{n}
$$

olur. Bunu aşağıdaki kanıtta kullanacağız.

Teorem 7 (Cayley-Hamilton). Her kare $A$ matrisi için $p_{A}(A)$ matrisi $0$-matrisi olur.

( $p_{A}$ ile $A$’nın karakteristik polinomunu gösterdiğimizi hatırlayalım; MD 2014-II, sayfa 98.)

Kanıt. Karakteristik polinomun

$$
p_{A}(t)=\operatorname{det}\left(A-t I_{n}\right)
$$

olarak tanımlandığını hatırlayalım ve

$$
p_{A}(t)=a_{n} t^{n}+a_{n-1} t^{n-1}+\cdots+a_{1} t+a_{0}
$$

olarak yazalım.

Şimdi $B=A-t I_{n}$ olsun ve teoremden önceki paragrafta $A$ yerine $B$ koyalım:

$$
\begin{aligned}
p_{A}(t) I_{n} & =B \tilde{B} \\
& =\left(A-t I_{n}\right) \tilde{B} \\
& =A \tilde{B}-t \tilde{B} .
\end{aligned}
$$

$\tilde{B}$’nin girdilerinin derecesi en fazla $n-1$ olan polinomlar olduğuna dikkat edelim ve $B_{0}, \ldots, B_{n-1}$, $n \times n$’lik matrisler olmak üzere

$$
\tilde{B}=B_{n-1} t^{n-1}+B_{n-2} t^{n-2}+\cdots+B_{1} t+B_{0}
$$

şeklinde yazalım.

Yukarıdaki eşitliklerden şunları elde ederiz.

$$
\begin{aligned}
a_{0} & = A B_{0} \\
a_{1} & = A B_{1}-B_{0} \\
& \vdots \\
a_{n-1} & = A B_{n-1}-B_{n-2} \\
a_{n} & = -B_{n-1}
\end{aligned}
$$

Bu eşitliklerden $k$’ıncısını soldan $A^{k}$ ile çarparak yeni eşitlikler elde edelim:

$$
\begin{aligned}
a_{0}= & A B_{0} \\
A a_{1}= & A^{2} B_{1}-A B_{0} \\
& \vdots \\
A^{n-1} a_{n-1}= & A^{n} B_{n-1}-A^{n-1} B_{n-2} \\
A^{n} a_{n}= & -A^{n} B_{n-1}
\end{aligned}
$$

Bu eşitliklerde sol tarafları topladığımızda $p_{A}(A)$ çıkıyor. Sağ tarafların toplamlarının $0$ olduğu da rahatlıkla görülüyor. Yani tam da istediğimiz gibi $p_{A}(A)$ sıfır matrisi oluyor. $\quad \square$

Bu teoremin bir sonucu olarak verilen bir kare matrisin minimal polinomunun aynı matrisin karakteristik polinomunu böldüğü sonucunu çıkartabiliriz. Yani minimal polinomun kökleri özdeğerler olur. Aşağıdaki sonuç her özdeğerin minimal polinomun kökü olduğunu söylüyor.

Sonuç 5. Kare bir $A$ matrisi verilsin ve $p_{A}(t)$’yi karmaşık sayılarda

$$
\left(t-\lambda_{1}\right)^{k_{1}}\left(t-\lambda_{2}\right)^{k_{2}} \cdots\left(t-\lambda_{m}\right)^{k_{m}}
$$

olarak çarpanlarına ayıralım. O zaman her $i \in$ ${1, \ldots, m}$ için $1 \leq l_{i} \leq k_{i}$ olmak üzere $A$’nın minimal polinomu

$$
\left(t-\lambda_{1}\right)^{l_{1}}\left(t-\lambda_{2}\right)^{l_{2}} \cdots\left(t-\lambda_{m}\right)^{l_{m}}
$$

şeklindedir.

Kanıt. Yukarıda da bahsettiğimiz gibi tek göstermemiz gereken $A$’nın her özdeğerinin minimal polinomunun bir kökü olduğunu göstermek. Diyelim ki $\lambda$, $A$’nın bir özdeğeri olsun ve $A v=\lambda v$ olacak şekilde bir $v \in \mathbb{R}^{n}$ alalım. Bu durumda her $i$ için $\lambda^{i}$ de $A^{i}$’nin bir özdeğeri olur.

Şimdi $m(t)=a_{0}+a_{1} t+\ldots a_{n} t^{n}$, $A$’nın minimal polinomu olmak üzere

$$
\begin{aligned}
m(A)(v) & =a_{0}+a_{1} A v+\cdots+a_{n} A^{n} v \\
& =a_{0}+a_{1} \lambda v+\cdots+a_{n} \lambda^{n} v \\
& =m(\lambda) v
\end{aligned}
$$

elde ederiz. Bu eşitliğin sol tarafı $0$-vektörü oluyor, çünkü $m(A)$ sıfır matrisi. Bu durumda $m(\lambda)=0$ olmalı. $\quad \square$

Elimizdeki bu sonuçla dönüp Örnek 16’ya bakalım. Oradaki $A$ matrisinin $t^{3}-t^{2}$ polinomunu sıfır yaptığını görmüştük. Bu polinomun $A$’nın karakteristik polinomu olduğuna da dikkat edelim. Yani yukarıdaki sonuca göre $A$’nın minimal polinomu ya

$$
t^{2}(t-1)=t^{3}-t^{2}
$$

olur ya da

$$
t(t-1)=t^{2}-t
$$

olur. Fakat $A$’nın ikinci polinomu sıfır yapmadığı açık. Yani $A$’nın minimal polinomu, daha önceden de iddia ettiğimiz gibi, $t^{3}-t^{2}$.

Bir başka sonuç da sıfırgüçlü matrislerin tek özdeğerleri $0$ olan matrislerle aynı olduğu.

Sonuç 6. Kare bir $A$ matrisin sıfırgüçlü olması için gerek ve yeter koşul $A$’nın tek özdeğerinin $0$ olmasıdır.

Kanıt. Bir matrisin sıfırgüçlü olması minimal polinomunun $t^{k}$ formunda olması demek. Yukarıdaki sonuçtan dolayı da bu $p_{A}$’nın $t^{n}$ olması demek. Tersine eğer $A$’nın tek özdeğeri sıfırsa karakteristik polinomu $t^{n}$ olur; yani minimal polinomunu, tek kökü $0$ olacağından $t^{k}$ şeklinde olur. $\quad \square$

Şimdi şu sonuç oldukça bariz:

Sonuç 7. Kare bir $A$ matrisi ve $\lambda \in \mathbb{R}$ verilsin. $\lambda$’nın $A$’nın tek özdeğeri olması için gerek ve yeter koşul $A-\lambda I_{n}$ matrisinin sıfırgüçlü olmasıdır.

Jordan Formu

Bu son bölümde amacımız her matrisin oldukça basit bir matrise benzer olduğunu göstermek. Şu anda iki durumu biliyoruz:

  1. Eğer tersinir $n \times n$’lik bir matrisin $n$ farklı özdeğeri varsa köşegen bir matrise benzerdir.
  2. Sıfırgüçlü bir matris, sıfır olmayan girdileri sadece köşegeninin altındaki çarpazda olan bir matrise benzerdir.

Yapacağımız, en basit şekilde bu ikisini birleştirmek olarak açıklanabilir.

Önsav 8. $A$ ve $B$, $n \times n$’lik matrisler, $\lambda \in \mathbb{R}$ olsun. $A$ ile $B-\lambda I_{n}$’nin benzer olması için gerek ve yeter koşul $A+\lambda I_{n}$ ile $B$’nin benzer olmasıdır.

Kanıt. Sadece bir yönü göstermek yeterli. Diyelim ki $A=P^{-1}\left(B-\lambda I_{n}\right) P$ olacak şekilde tersinir $P$ matrisi olsun. O zaman

$$
\begin{aligned}
A & =P^{-1} B P-P^{-1} \lambda I_{n} P \\
& =P^{-1} B P-P^{-1} P \lambda I_{n} \\
& =P^{-1} B P-\lambda I_{n}
\end{aligned}
$$

Yani

$$
A+\lambda I_{n}=P^{-1} B P
$$

olur ve $A+\lambda I_{n}$ ile $B$ benzerdir. $\quad \square$

Bu önsavı ve yukarıdaki sonucu kullanarak tek bir özdeğeri olan matrislerin benzer oldukları basit matrisleri bulalım. Eğer $\lambda$ kare bir $A$ matrisinin tek özdeğeriyse $A-\lambda I_{n}$ sıfırgüçlü olur. Sonuç 4’ten dolayı $A-\lambda I_{n}$, $B_{i}$’ler

$$
\left(\begin{array}{ccccc}
0 & 0 & 0 & \cdots & 0 \\
1 & 0 & 0 & \cdots & 0 \\
0 & 1 & 0 & \cdots & 0 \\
\vdots & \vdots & \ddots & \ddots & \vdots \\
0 & 0 & \cdots & 1 & 0
\end{array}\right)
$$

şeklinde olmak üzere

$$
\left(\begin{array}{c:c:c:c:c}
B_{1} & 0 & 0 & \cdots & 0 \\
\hdashline 0 & B_{2} & 0 & \cdots & 0 \\
\hdashline 0 & 0 & \ddots & \ddots & \vdots \\
\hdashline 0 & 0 & \ddots & \ddots & 0 \\
\hdashline 0 & 0 & \cdots & 0 & B_{m}
\end{array}\right)
$$

formunda bir matrise benzerdir. Şimdi de yukarıdaki önsavdan dolayı $A$, $A_{i}$’ler

$$
\left(\begin{array}{ccccc}
\lambda & 0 & 0 & \cdots & 0 \\
1 & \lambda & 0 & \cdots & 0 \\
0 & 1 & \lambda & \cdots & 0 \\
\vdots & \vdots & \ddots & \ddots & \vdots \\
0 & 0 & \cdots & 1 & \lambda
\end{array}\right)
$$

şeklinde olmak üzere

$$
\left(\begin{array}{c:c:c:c:c}
A_{1} & 0 & 0 & \cdots & 0 \\
\hdashline 0 & A_{2} & 0 & \cdots & 0 \\
\hdashline 0 & 0 & \ddots & \ddots & \vdots \\
\hdashline 0 & 0 & \ddots & \ddots & 0 \\
\hdashline 0 & 0 & \cdots & 0 & A_{m}
\end{array}\right)
$$

formunda bir matrise benzerdir. Yani $A$ köşegeninde $\lambda$’lar olan ve geri kalan girdileri köşegenin altındakiler hariç $0$ olan bir matrise benzerdir.

Yukarıdaki gibi olan $A_{i}$ matrislerine Jordan bloğu diyeceğiz. Nihai amacımız her kare matrisin yukarıdaki gibi Jordan bloklarından oluşan bir matrise benzer olduğunu göstermek. Bunu yaparken her özdeğerde ayrı ayrı çalışacağız. Bu son cümlenin ne demek olduğunu açıklamak için MD 2014-II’ün 101’inci sayfasındaki şu tanımı hatırlamamız gerekli.

Tanım 12. Verilen bir $f: V \rightarrow V$ lineer fonksiyonu için $f(W) \subseteq W$ özelliğini sağlayan $W$ altuzaylarına $f$ altında değişmez denir.

Herhangi bir $f: V \rightarrow V$ için en temel değişmez altuzaylar $\operatorname{ker} f$ ve $\operatorname{Im} f$’dir. Daha genel olarak her $k$ için $\operatorname{ker} f^{k}$ ve $\operatorname{Im} f^{k}$ de değişmez uzay olurlar.

Şu önsavın kanıtı oldukça basit.

Önsav 9. Bir $ f: V \rightarrow V$ ve $W \leq V$ verilsin. $W$’nun $f$ altında değişmez olması için gerek ve yeter koşul her $\lambda \in \mathbb{R}$ için $f-\lambda$ dönüşümü altında değişmez olmasıdır. ( $f-\lambda$ dönüşümünün $v$’yi $f(v)-\lambda v$’ye gönderen dönüşüm olduğunu hatırlayalım.)

Bu önsavın bizim için faydalı olacak sonucu şu.

Sonuç 8. Verilen bir $f: V \rightarrow V$ lineer dönüşümünün birbirinden farklı $\lambda_{1}$ ve $\lambda_{2}$ özdeğerleri verilsin. O zaman $\operatorname{ker}\left(f-\lambda_{1}\right)^{n}$ ve $\operatorname{Im}\left(f-\lambda_{1}\right)^{n}$ uzayları $f-\lambda_{2}$ altında değişmezdir.

Bu sonuçta geçen $\operatorname{ker}\left(f-\lambda_{1}\right)^{n}$ ve $\operatorname{Im}\left(f-\lambda_{1}\right)^{n}$ uzayları hakkında Teorem 5’i biliyoruz: $V$ bu iki uzayın (iç) direkt toplamı. Yani $V$’nin her elemanı $\operatorname{ker}\left(f-\lambda_{1}\right)^{n}$’nin bir elemanı ve $\operatorname{Im}(f-\lambda)^{n}$’nin bir elemanının toplamı olarak yazılır ve bu yazım tektir. Bu durumda $f$’nin $V$ üzerindeki etkisi bu iki uzay üzerindeki etkisi incelenerek anlaşılabilir. Bunu daha titiz olarak şöyle ifade edelim.

Önerme 10. Eğer $V$ bir $f: V \rightarrow V$ lineer dönüşümü için değişmez olan $W_{1}$ ve $W_{2}$ altuzaylarının direkt toplamıysa, $M_{f, B, B}$ aşağıdaki gibi olacak şekilde bir $B$ tabanı vardır:

$$
\left(\begin{array}{c:c}
A_{1} & 0 \\
\hdashline 0 & A_{2}
\end{array}\right) \ .
$$

Burada $A_{i}$, $\operatorname{dim} W_{i} \times \operatorname{dim} W_{i}$’lik bir matristir.

Kanıt. Eğer $B_{i}$, $W_{i}$’nin bir tabanıysa, $B=B_{1} \cup$ $B_{2}$ olarak alırsak $M_{f, B, B}$’nin istediğimiz şekilde olduğu açık. $\quad \square$

Yukarıdaki gibi matrislerin determinantlarıyla ilgili olan bir sonraki önsavın kanıtı oldukça kolay.

Önsav 10. Eğer

$$
A=\left(\begin{array}{c:c}
A_{1} & 0 \\
\hdashline 0 & A_{2}
\end{array}\right)
$$

ise $\operatorname{det} A=\operatorname{det} A_{1} \operatorname{det} A_{2}$ olur.

Bir sonraki önerme bizi daha önceden ifade ettiğimiz amacımıza neredeyse ulaştırıyor.

Önerme 11. Bir $f: V \rightarrow V$ lineer dönüşümünün karakteristik polinomu

$$
\left(t-\lambda_{1}\right)^{k_{1}}\left(t-\lambda_{2}\right)^{k_{2}} \cdots\left(t-\lambda_{m}\right)^{k_{m}}
$$

olsun. O zaman

$$
V=\operatorname{ker}\left(f-\lambda_{1}\right)^{n} \oplus \cdots \oplus \operatorname{ker}\left(f-\lambda_{m}\right)^{n}
$$

olur ve her $i$ için $\operatorname{ker}\left(f-\lambda_{i}\right)^{n}$’nin boyutu $k_{i}$’dir.

Kanıt. Diyelim ki

$$
V_{i}=\operatorname{ker}\left(f-\lambda_{1}\right)^{n} \oplus \cdots \oplus \operatorname{ker}\left(f-\lambda_{i}\right)^{n}
$$

olsun. Bu durumda, $\operatorname{ker}\left(f-\lambda_{i+1}\right)^{n} \cap V_{i}={0}$ olduğunu ve $\operatorname{dim}\left(\operatorname{ker}\left(f-\lambda_{i}\right)^{n}\right)=k_{i}$ olduğunu göstereceğiz. Eğer bunları gösterirsek,

$$
V_{i+1}=V_{i} \oplus \operatorname{ker}\left(f-\lambda_{i+1}\right)^{n}
$$

ve $\operatorname{dim} V_{i}=\sum_{j=1}^{i} k_{j}$ olur, tümevarımla kanıt tamamlanır.

Öncelikle $\operatorname{ker}\left(f-\lambda_{i+1}\right)^{n}$ ve $V_{i}$ uzayları $f$ altında değişmez uzaylardır. Dolayısıyla kesişimleri de $f$’nin bir değişmez uzayıdır. Diyelim ki $v \neq 0$ vektörü bu iki uzayın kesişiminde yer alsın. Öyleyse $f v=\lambda_{i+1} v$ olmalıdır. Öte yandan

$$
\left(f-\lambda_{1}\right)\left(f-\lambda_{2}\right) \ldots\left(f-\lambda_{i}\right),
$$

$V_{i}$ üzerinde sıfırgüçlüdür. Bu operatörü $v$’ye uygularsak $\left(\lambda_{i+1}-\lambda_{1}\right) \ldots\left(\lambda_{i+1}-\lambda_{i}\right) v=s v$ elde ederiz. Bu ifadedeki $s$ katsayısı sıfırdan farklı olacaktır. Ancak $\left(f-\lambda_{1}\right)\left(f-\lambda_{2}\right) \ldots\left(f-\lambda_{i}\right)$’nin sıfırgüçlü olması bize $s$’nin bir kuvvetinin, dolayısıyla kendisinin sıfır olduğunu verir, çelişki. Öyleyse kesişimde $0$’dan başka vektör bulunamaz.

Şimdi de $\operatorname{dim}\left(\operatorname{ker}\left(f-\lambda_{i}\right)^{n}\right)=k_{i}$ olduğunu gösterelim. Önerme 10’u kullanarak $f$’yi uygun bir tabana göre matrisi

$$
\left(\begin{array}{c:c:c:c:c}
B_{1} & 0 & 0 & \cdots & 0 \\
\hdashline 0 & B_{2} & 0 & \cdots & 0 \\
\hdashline 0 & 0 & \ddots & \ddots & \vdots \\
\hdashline 0 & 0 & \ddots & \ddots & 0 \\
\hdashline 0 & 0 & \cdots & 0 & B_{m}
\end{array}\right)
$$

olacak şekilde yazabiliriz. $f-\lambda_{i}$ operatörü $i$’inci blokta sıfırgüçlü olduğundan $\operatorname{det}\left(B_{i}-\lambda I\right)$ polinomu $\left(t-\lambda_{i}\right)$’nin bir kuvveti olmalıdır. Bu polinomların çarpımı karakteristik polinom olacağından $B_{i}$’nin $k_{i} \times k_{i}$’lik bir matris olması gerektiğini görürüz. Buradan da $\operatorname{dim}\left(\operatorname{ker}\left(f-\lambda_{i}\right)^{n}\right)=k_{i}$ çıkar. $\square$

Bu önermenin şu sonucu hem amaçladığımız teoremi kanıtlıyor hem de bu notları sonlandırıyor.

Sonuç 9. Her kare $A$ matrisi her bir $A_{i}$ bir Jordan bloğu olmak üzere

$$
\left(\begin{array}{c:c:c:c:c}
A_{1} & 0 & 0 & \cdots & 0 \\
\hdashline 0 & A_{2} & 0 & \cdots & 0 \\
\hdashline 0 & 0 & \ddots & \ddots & \vdots \\
\hdashline 0 & 0 & \ddots & \ddots & 0 \\
\hdashline 0 & 0 & \cdots & 0 & A_{m}
\end{array}\right)
$$

formunda bir matrise benzerdir. Hatta eğer $\lambda_{1}, \ldots, \lambda_{m}$, $A$’nın özdeğerleriyse her $i$ için $A_{i}$’nin köşegeni $\lambda_{i}$’lerden oluşur.

- Son sayıyı sipariş vermek için tıklayın. -Newspaper WordPress Theme

Son eklenen yazılar

Avrupa Matematiği: Pullardaki Tarih

Yazar: Robin Wilson The Open University (Çeviri: Olcay Coşkun) Yıl: 2023-4 Sayı: 118 Dünya çapındaki yüzlerce pulda matematiğin ve tarihinin bulunması şaşırtıcıdır. Portorož’daki 8ECM (8’inci Avrupa Matematik...

Matematik Tarihinin, Matematik Öğretimine Yansımaları

Yazarlar: Ali Bülbül, Nazan Sezen Yüksel Yıl: 2023-4 Sayı: 118 Matematiğin icat mı yoksa keşif mi olduğu sorusunun henüz net bir cevabı olmamakla birlikte, matematik hakkında...

Hiyeroglifteki Kesirler Etkinlik Planı

Yazar: Eda Aydemir Kayacan (edaaydemir@gmail.com) Yıl: 2023-1 Sayı: 115 Dünyanın birçok yerinde, kesirler konusu ilköğretim matematik müfredatlarında geniş yer tutmaktadır. Çoğu zaman kullanılan örneklerin günlük hayattan uzak...