Vektör Uzayları

Yıl: 2014-1

Sayı: 98

Bir önceki bölümde $\mathbb{R}^n$ kümesinin elemanlarını nasıl toplayacağımızı ve bir gerçel sayıyla nasıl çarpacağımızı görmüştük. Bu toplama ve skale ve skaler çarpmayı kullanarak $n$ değişkenli lineer denklem sistemlerinin çözüm kümelerini ifade etmiştik. Bu bölümde de o fikirleri genelleştirip birçok alanda işe yarayan teorik bir çerçeve geliştireceğiz. Vektör uzayı kavramı $\mathbb{R}^{n}$’ye genelleştirilerek daha önce kullandığımız ‘vektör’ kelimesi artık bir vektör uzayının elemanı anlamında kullanılacak. Lineer kombinasyon gibi kavramlar da bir vektör uzayının elemanları ile ilgili olacak.

Tanım 1. Bir vektör uzayı, $V$ bir küme, $$
+: V \times V \rightarrow V, \quad \cdot: \mathbb{R} \times V \rightarrow V $$ fonksiyonlar ve $0_{V} \in V$ olmak üzere aşağıdaki özellikleri sağlayan bir $\left(V,+, \cdot, 0_{V}\right)$ dörtlüsüdür:

  1. Her $v$ için $v+0_{V}=0_{V}+v=v$.
  2. Her $v, w, u \in V$ için $$v+(w+u)=(v+w)+u.$$
  3. Her $v$ için $v+w=w+v=0_{V}$ olacak şekilde bir $w \in V$ vardır.
  4. Her $v, w \in V$ için $v+w=w+v$.
  5. Her $r, s \in \mathbb{R}$ ve $v \in V$ için $$(r+s)\cdot v=r\cdot v +s\cdot v$$
  6. Her $r \in \mathbb{R}$ ve $v, w \in V$ için $$r\cdot (v+w)=r\cdot v +r\cdot w$$.
  7. Her $r, s \in \mathbb{R}$ ve $v \in V$ için $r \cdot(s \cdot v)=r s \cdot v$.
  8. Her $v \in V$ için $1 \cdot v=v$.

(Bu tanımda skaler çarpmayı gerçel sayı ile vektör arasına nokta koyarak gösterdik ama şimdiden sonra o noktayı kullanmayacağız ve sadece $r v$ yazacağız.)

Bu özelliklerin, $\mathbb{R}^{n}$’de $+$ ve $\cdot$ olarak bir önceki bölümde tanımladığımız vektör toplaması ve skaler çarpmayı aldığımızda sağlandığını kolaylıkla gösterebiliriz ama $\mathbb{R}^{n}$’de sağlanan pek çok başka özellik de var. Niye sadece bunları seçtik? Çünkü bu kadarı yeterli; yani sadece bu özellikleri kullanarak diğerlerinin sağlandığı gösterilebilir. Bu prensibe bir örnek olarak şunu kanıtlayalım.

Önerme 1. Bir $V$ vektör uzayı, $v \in V$ ve $r \in \mathbb{R}$ için aşağıdakiler doğrudur.

  1. $v+w=w+v=0_{V}$ özelliğini sağlayan sadece bir tane $w \in V$ vardır. (Bu özelliği sağlayan $w$ elemanına $v$’nin toplamaya göre tersi denir ve genelde $-v$ olarak yazılır.)
  2. $0 v=0_{V}$.
  3. $-(r v)=(-r) v$.

Kanıt: Birinciyi göstermek için $v+w=w+v=0_{V}$ ve $v+w^{\prime}=w^{\prime}+v=0_{V}$ olacak şekilde $w, w^{\prime} \in V$ alalım. Şimdi bu $w$ ve $w^{\prime}$ vektörlerinin eşitliğini şu şekilde görebiliriz:

$$
\begin{aligned}
w & =w+0_{V} \\
& =w+\left(v+w^{\prime}\right) \\
& =(w+v)+w^{\prime} \\
& =0_{V}+w^{\prime} \\
& =w^{\prime}
\end{aligned}
$$

İkincisi için $0 v=(0+0) v$ yazalım ve 5’inci özellikten $0 v=0 v+0 v$ çıkartalım. Son olarak da $0 v$ için 3’le verilen vektörü eşitliğin her iki tarafına ekleyerek istenen $0_{V}=0 v$ eşitliğini elde edelim.

Sonuncusu için $(-r) v+(r v)=0_{V}$ olduğunu göstereceğiz. Tanımdaki 5’inci özellikten dolayı $(-r) v+(r v)=(-r+r) v$ elde ederiz. Bir önceki özellikten dolayı da $(-r) v+(r v)=0_{V}$ olur. $\quad \square$

Yukarıda toplama ve çarpmanın iki farklı anlamı olduğuna dikkat edin. Bir tanesi iki gerçel sayının toplamı ve çarpmasıyken, diğeri vektörlerin toplamı ve bir vektörün bir gerçel sayıyla skaler çarpımı. Benzer biçimde sıfırın da iki anlamı var, ama $\mathbb{R}$’deki sıfır ve $V$’deki sıfırı farklı yazdık. Eğer çok karışık yaratacak bir durum yoksa $V$’nin sıfırını da $0$ olarak yazacağız.

Vektör uzayı tanımını pekiştirmek amacıyla, $\mathbb{R}^{n}$’den farklı örneklere bakalım. Bu örneklerin tamamı matematiğin pek çok alanında sıklıkla kullanılan yapılardır.

İlk olarak $\mathbb{R}^{3}$’ün şu altkümesine bakalım:

$$
V = \left\{\begin{pmatrix} x \\ y \\ z \\ \end{pmatrix} \in \mathbb{R}^{3} : 2x – y + z = 0 \right\} \ .
$$

Bu küme üzerinde tanımlayacağımız toplama ve skaler çarpma $\mathbb{R}^{3}$’ün toplama ve skaler çarpmasının bu kümeye kısıtlaması olacak. Yani verilen

$$
v=\left(\begin{array}{l}
v_{1} \\
v_{2} \\
v_{3}
\end{array}\right),\; w=\left(\begin{array}{l}
w_{1} \\
w_{2} \\
w_{3}
\end{array}\right) \in V
$$

için

$$
v+w=\left(\begin{array}{c}
v_{1}+w_{1} \\
v_{2}+w_{2} \\
v_{3}+w_{3}
\end{array}\right)\quad \text { ve }\quad r v=\left(\begin{array}{c}
r v_{1} \\
r v_{2} \\
r v_{3}
\end{array}\right)
$$

olarak tanımlanır.

Bu örnek yoluyla vektör uzayı tanımında iki tane gizli koşul olduğunu da görüyoruz. Şöyle ki, bu $V$ kümesi üzerindeki toplama ve skaler çarpma, $\mathbb{R}^{3}$ üzerindeki gibi tanımlandı fakat $V$’den iki eleman alındığında toplamının hala $V$’de olduğu çok açık değil. Benzer biçimde $V$’nin skaler çarpım altında da kapalı olduğunu göstermek gerekli. Bunları yapmak için

$$
v=\left(\begin{array}{c}
v_{1} \\
v_{2} \\
v_{3}
\end{array}\right), \;w=\left(\begin{array}{c}
w_{1} \\
w_{2} \\
w_{3}
\end{array}\right) \in V \text { ve } r \in \mathbb{R}
$$

alalım. Amacımız $v+w \in V$ ve $r v \in V$ olduğunu göstermek. Şimdiye kadar

$$
2 v_{1}-v_{2}+v_{3}=2 w_{1}-w_{2}+w_{3}=0
$$

olduğunu biliyoruz. Bu denklemleri toplayarak

$$
2 v_{1}-v_{2}+v_{3}+2 w_{1}-w_{2}+w_{3}=0
$$

elde ederiz. Yani

$$
2\left(v_{1}+w_{1}\right)-\left(v_{2}+w_{2}\right)+\left(v_{3}+w_{3}\right)=0 .
$$

Bu da $v+w \in V$ demek. Benzer biçimde $r v \in V$ olduğu da gösterilebilir.

Kontrol edilmesi gereken vektör uzayı koşullarından sadece ‘ters elemanın varlığı’ küçük bir açıklama gerektiriyor. Bunun sebebi diğer bütün koşulların zaten $\mathbb{R}^{3}$’ün her elemanında doğru olması. Fakat ters eleman koşulunda bir elemanın varlığından bahsediyoruz ve bu elemanın $\mathbb{R}^{3}$’te varlığını bilsek de $V$’de olduğunun bir garantisi yok. Bunu göstermek için bir

$$
v=\left(\begin{array}{l}
x \\
y \\
z
\end{array}\right) \in V
$$

alalım. Yani $2 x-y+z=0$. Bu elemanın tersinin

$$
\left(\begin{array}{c}
-x \\
-y \\
-z
\end{array}\right)
$$

olması gerekli. Bu da $2(-x)-(-y)+(-z)=0$ olması demek. Bu eşitliğin doğruluğu, sol tarafı $-(2 x-y+z)$ olduğu için, oldukça açık.

Şimdi de hiçbir $\mathbb{R}^{n}$ ile ilgili görünmeyen bir örnek üzerinde çalışalım. Bir $t$ değişkeni sabitleyelim ve verilen bir $d>0$ için $V_{d}$, $a_{0}, a_{1}, \ldots, a_{d} \in \mathbb{R}$ olmak üzere

$$
a_{0}+a_{1} t+a_{2} t^{2}+\cdots+a_{d} t^{d}
$$

biçimindeki ifadelerden oluşan küme olsun; yani derecesi en fazla $d$ olan polinomlar kümesi. Bu küme üzerinde toplama ve skaler çarpmayı, bildiğimiz polinom toplaması

$$
\left(a_{0}+a_{1} t+\cdots+a_{d} t^{d}\right)+\left(b_{0}+b_{1} t+\cdots+b_{d} t^{d}\right) =\left(a_{0}+b_{0}\right)+\left(a_{1}+b_{1}\right) t+\cdots+\left(a_{d}+b_{d}\right) t^{d}
$$

ve çarpması

$$r\left(a_{0}+a_{1} t+\cdots+a_{d} t^{d}\right)=r a_{0}+r a_{1} t+\cdots+r a_{d} t^{d}$$

olarak tanımlayalım. Sıfır vektörü olarak da -tabii ki- $0$ polinomunu alacağız. Şimdi her $d$ için $\left(V_{d},+, \cdot, 0\right)$ dörtlüsünün bir vektör uzayı olduğunu göstermek okuyucunun işi.

Aslında bu vektör uzayı $\mathbb{R}^{d+1}$’e benziyor. Bu vektör uzayından aldığımız $a_{0}+a_{1} t+\cdots+a_{d} t^{d}$ vektörünü $\mathbb{R}^{d+1}$’in

$$
\left(\begin{array}{c}
a_{0} \\
a_{1} \\
\vdots \\
a_{d}
\end{array}\right)
$$

elemanı gibi görebiliriz. Dikkat edilmesi gereken bu ‘eşlemeyle’ $V_{d}$’deki toplama ve skaler çarpmanın $\mathbb{R}^{d+1}$’deki toplama ve skaler çarpmaya karşılık geldiğidir. Şu anda bunun ne demek olduğunu bilmesek de bu iki vektör uzayı izomorfiktir; yani bunları aynı vektör uzayıymış gibi düşünebiliriz.

Bir önceki örneğe benzer, ama temelde çok farklı bir örnekle devam edelim. O örnekteki gibi $t$ bir değişken olsun ve $V$ bu kez bütün polinomların kümesi olsun; yani elemanlarının dereceleri üzerinde daha önceden olduğu gibi bir üst sınır olmasın. Toplama ve skaler çarpmayı da yine polinom toplaması ve çarpması olarak vereceğiz ve $0-$vektörü de yine sıfır polinomu olacak. Bir kez daha bu işlemlerle $V$’nin bir vektör uzayı olduğunu kontrol etmek kolay.

Ele aldığımız polinomların dereceleri üzerine genel bir sınır olmadığı için $V$, hiçbir $\mathbb{R}^{n}$’ye benzemiyor. Yine henüz bilmediğimiz bir kavramla açıklarsak: $V$, sonsuz boyutlu bir vektör uzayıdır. ‘Boyut’ kavramını öğrendiğimizde bunun üzerinde tekrar duracağız.

Sonsuz boyutlu bir vektör uzayı örneği daha verelim; bu uzay bir öncekinden de ‘büyük’ olacak. Kümemiz bütün $f: \mathbb{R} \rightarrow \mathbb{R}$ fonksiyonlarından oluşsun. Toplama olarak fonksiyon toplamasını alacağız; yani verilen $f, g$ fonksiyonları için $f+g$ fonksiyonunun bir $a$ gerçel sayısında alacağı değer $f(a)+g(a)$ olacak. Skaler çarpma da şöyle:

$$
(r f)(a)=r f(a).
$$

Yukarıda bu vektör uzayının, polinomlar vektör uzayından daha da büyük olduğunu söyledik. Bunu biraz açmaya çalışalım; söyleyeceklerimiz tam doğru değil ama taşlar doğru kavramları öğrendiğimizde yerine oturacak. Her polinomu $\mathbb{R}$’den $\mathbb{R}$’ye bir fonksiyon olarak görmek mümkün. Bu şekilde polinomlar uzayını fonksiyonlar uzayının bir parçası gibi görebiliriz, ama çok daha fazla fonksiyon var. Mesela trigonometrik fonksiyonlar, üstel fonksiyonlar, vs. Hatta pek çok da sürekli olmayan fonksiyon var. Aslında sürekli fonksiyonların oluşturduğu küme de yukarıdaki toplama ve skaler çarpmayla bir vektör uzayı haline geliyor ve o da, bütün fonksiyonlar uzayının küçük bir parçası oluyor. Doğrusu bütün fonksiyonlar uzayı, çok da faydalı bir uzay değil; genelde çalışılan fonksiyon uzayları, ‘sürekli’, ‘türevlenebilir’ vesaire gibi özellikler sağlayan fonksiyonların oluşturduğu uzaylardır.

Altuzaylar ve Geren Kümeler

Örneklerde olduğu gibi, bazı vektör uzayları daha büyük vektör uzaylarının altkümeleridir ve üzerinlerindeki işlemler içinde bulundukları uzayın işlemleridir. Şimdi bu durumu inceleyelim.

Tanım 2. Bir $V$ vektör uzayı ve $W \subseteq V$ verilsin. Eğer aşağıdaki özellikler sağlanıyorsa $W$, $V$’nin bir altuzayıdır:

  1. $0_{V} \in W$.
  2. Her $w_{1}, w_{2} \in W$ için $w_{1}+w_{2} \in W$.
  3. Her $w \in W$ ve $r \in \mathbb{R}$ için $r w \in W$.

Daha önce kanıtladığımız önermeden dolayı, her $w \in W$ için $-w=-1 w$ olur. Yani $W$, altuzay olduğunda ters alma işlemi altında da kapalıdır.

Altuzay olma bağıntısını $W \leq V$ şeklinde göstereceğiz.

Bir önceki bölümde örneklerin bir kısmı, diğerlerinin altuzayıydı. Yukarıda bahsettiğimiz gibi derecesi en fazla $d$ olan polinomlar uzayı, bütün polinomlar uzayının altuzayıdır. İlk örnekteki uzay da $\mathbb{R}^{3}$’ün altuzayıydı. Aslında o örnek, $\mathbb{R}^{3}$’ün bütün altuzaylarının bir prototipi; bunu da ileride irdeleyeceğiz. Sürekli fonksiyonlar uzayı da bütün fonksiyonlar uzayının bir altuzayıdır.

Tabii ki her vektör uzayı için bir de $\{0_{V}\}$ altuzayı var; buna aşikar altuzay diyeceğiz.

Yukarıdakilere ek olarak, elimizdeki altuzaylardan yenilerini üretme yolları da var. Bu yollardan ilki kesişim alma. Eğer $W_{1} \leq V$ ve $W_{2} \leq V$ ise $W_{1} \cap W_{2}$’nin de $V$’nin altuzayı olduğunu gösterelim. Sıfır vektörü, her ikisinde de olduğu için aynı zamanda kesişimdedir. Eğer $v_{1}, v_{2} \in W_{1} \cap W_{2}$ ise $v_{1}+v_{2} \in W_{1}$ ve $v_{1}+v_{2} \in W_{2}$; demek ki $v_{1}+v_{2} \in W_{1} \cap W_{2}$. Benzer biçimde skaler çarpma altında kapalılık da gösterilebilir.

Altuzaylarla çalışırken şu sonuç kolaylık sağlayacaktır.

Önerme 2. Bir $V$ vektör uzayı verilsin. Boş olmayan bir $W$ altkümesinin $V$’nin bir altuzayı olması için gerek ve yeter koşul her $r_{1}, r_{2} \in \mathbb{R}$ ve her $w_{1}, w_{2} \in W$ için $r_{1} w_{1}+r_{2} w_{2}$ vektörünün de $W$’da olmasıdır.

Kanıt: Eğer $W \leq V$ ise verilen her $r_{1}, r_{2} \in \mathbb{R}$ ve $w_{1}, w_{2} \in W$ için $r_{1} w_{1}$ ve $r_{2} w_{2}$ vektörleri de $W$’nun elemanıdır ve $W$ toplama altında da kapalı olduğu için $r_{1} w_{1}+r_{2} w_{2} \in W$ olur.

Öte yandan her $r_{1}, r_{2} \in \mathbb{R}$ ve her $w_{1}, w_{2} \in W$ için $r_{1} w_{1}+r_{2} w_{2} \in W$ olduğunu varsayalım. Bu durumda herhangi bir $w \in W$ için $0_{V}=0 w+0 w$ olduğundan $0_{V} \in W$’dur. Eğer $r \in \mathbb{R}$ ve $w_{1}, w_{2} \in$ $W$ ise $w_{1}+w_{2}=1 w_{1}+1 w_{2}$ ve $r w_{1}=r w_{1}+0 w_{2}$ olduğundan $W$ toplama ve skaler çarpma altında da kapalıdır. Yani $W$, $V$’nin bir altuzayıdır. $\quad \square$

Sırada lineer denklem sistemlerini çalışırken yaptığımız lineer kombinasyon tanımını genelleştirmek var. Bu tanım vektör uzaylarının teorisinde çok merkezi bir yer tutar.

Tanım 3. Bir $V$ vektör uzayı ve $v_{1}, \ldots, v_{n} \in V$ için $r_{1} v_{1}+\cdots+r_{n} v_{n}\left(r_{i} \in \mathbb{R}\right)$ şeklindeki vektörlere $v_{1}, \ldots, v_{n}$’nin bir lineer kombinasyonu denir.

Bir önceki önermenin kanıtını tümevarımla tekrar ederek şu da kolayca kanıtlanabilir.

Önerme 3. Bir $V$ vektör uzayı verilsin. Boş olmayan bir $W$ altkümesinin $V$’nin bir altuzayı olması için gerek ve yeter koşul $W$’nun lineer kombinasyonlar altında kapalı olmasıdır.

Verilen bir $V$ vektör uzayının bir $A$ altkümesini içeren en küçük altuzayını anlamaya çalışalım. Mesela ilk olarak, $A$’nın sadece tek bir elemandan oluştuğu duruma bakalım; $A$’nın içerdiği elemana $v$ diyelim. En azından her $r \in \mathbb{R}$ için $r v$, $A$’yı içeren en küçük altuzayda olmalı. Bunların dışında, toplamları da orada olmalı, ama dağılma özelliklerinden dolayı onlar da $r v$ formunda oluyor. Yani $A$’yı içeren en küçük altuzay şudur:

$$
\{r v: r \in \mathbb{R}\} .
$$

Peki ya $A$’nın iki elemanı varken? Ya da üç? Hatta sonsuz? Bütün bunlar bir sonraki tanımda.

Tanım 4. Bir $V$ vektör uzayının boş olmayan bir $A$ altkümesinin gerdiği altuzay, $V$’nin $A$’yı içeren en küçük altuzayı olarak tanımlanır ve $\langle A\rangle$ notasyonuyla gösterilir.

Burada şuna açıklık getirmek gerekiyor: $A$’yı içeren en küçük altuzayın varlığını nereden biliyoruz? Bu uzayı $V$’nin $A$’yı içeren bütün altuzaylarının kesişimi olarak da tanımlayabilirdik. O durumda da o kesişimin bir altuzay olduğunu kontrol etmek gerekir. Bunu yapmayı okuyucuya bırakıyoruz. (Bunu yapmak yukarıda iki altuzayın kesişiminin altuzay olduğunu göstermekten daha zor değil.) Bunu yapınca $A$’nın gerdiği altuzayın varlığını kanıtlamış oluyoruz.

Eğer $A$ sonlu bir kümeyse, $A$’nın gerdiği altuzay daha tanıdık bir uzay oluyor.

Önerme 4. Bir $V$ vektör uzayının

$$
A=\{v_{1}, \ldots, v_{n}\}
$$

kümesiyle gerilen altuzayının elemanları $v_{1}, \ldots, v_{n}$ vektörlerinin lineer kombinasyonlarıdır.

(Bu durumda $\langle A\rangle$ yerine $\left\langle v_{1}, \ldots, v_{n}\right\rangle$ notasyonunu kullanacağız. Bu gösterimin $\mathbb{R}^{n}$’dekiyle uyum içinde olduğuna dikkat edelim!)

Mesela $\mathbb{R}^{3}$’ü şu vektörlerle gerilen altuzayına bakalım:

$$
v=\left(\begin{array}{l}
1 \\
0 \\
0
\end{array}\right),\; w=\left(\begin{array}{l}
0 \\
1 \\
1
\end{array}\right) .
$$

Bu altuzayın elemanları $r, s \in \mathbb{R}$ olmak üzere

$$
r v+s w=r\left(\begin{array}{l}
1 \\
0 \\
0
\end{array}\right)+s\left(\begin{array}{l}
0 \\
1 \\
1
\end{array}\right)=\left(\begin{array}{l}
r \\
s \\
s
\end{array}\right)
$$

şeklindedir. Ancak

$$
\left(\begin{array}{l}
0 \\
1 \\
2
\end{array}\right)
$$

vektörü o altuzayda değildir; yani o altuzay bütün $\mathbb{R}^{3}$ değildir.

Şimdi de bu $v$, $w$ vektörlerine, o vektörlerin gerdiği altuzayda olmayan,

$$
u=\left(\begin{array}{l}
0 \\
1 \\
2
\end{array}\right)
$$

vektörünü ekleyelim. Bu üç vektörle gerilen altuzayın elemanları, $r, s, t \in \mathbb{R}$ olmak üzere

$$
r\left(\begin{array}{l}
1 \\
0 \\
0
\end{array}\right)+s\left(\begin{array}{l}
0 \\
1 \\
1
\end{array}\right)+t\left(\begin{array}{l}
0 \\
1 \\
2
\end{array}\right)=\left(\begin{array}{c}
r \\
s+t \\
s+2 t
\end{array}\right)
$$

şeklinde. Şimdi $\mathbb{R}^{3}$’teki her vektörün bu şekilde ifade edilebileceğini gösterelim. Keyfi bir

$$
\left(\begin{array}{l}
a \\
b \\
c
\end{array}\right)
$$

vektörü alalım. Bu durumda $r=a$ olarak seçmemiz gerekli ve $s$ ile $t$’yi $s+t=b$ ve $s+2 t=c$ olacak şekilde seçmeliyiz. Yani $t=c-b$ ve $s=2 b-c$ olmalı. Kısacası keyfi olarak aldığımız

$$
\left(\begin{array}{l}
a \\
b \\
c
\end{array}\right)
$$

vektörü

$$
a\left(\begin{array}{l}
1 \\
0 \\
0
\end{array}\right)+(2 b-c)\left(\begin{array}{l}
0 \\
1 \\
1
\end{array}\right)+(c-b)\left(\begin{array}{l}
0 \\
1 \\
2
\end{array}\right)
$$

olarak yazılabilir. Bu durumda $v$, $w$, $u$ vektörleriyle gerilen altuzay bütün $\mathbb{R}^{3}$’tür.

Yukarıdaki $v$, $w$ vektörlerine bu defa da $u$’dan başka bir vektör ekleyelim. Örneğin

$$
\left(\begin{array}{r}
5 \\
-2 \\
-2
\end{array}\right)
$$

Bu üç vektörle bütün $\mathbb{R}^{3}$’ü gerebilir miyiz? O altuzayın bir elemanını alalım:

$$
r\left(\begin{array}{l}
1 \\
0 \\
0
\end{array}\right)+s\left(\begin{array}{l}
0 \\
1 \\
1
\end{array}\right)+t\left(\begin{array}{r}
5 \\
-2 \\
-2
\end{array}\right)=\left(\begin{array}{c}
r+5 t \\
s-2 t \\
s-2 t
\end{array}\right) .
$$

Burada dikkat edilmesi gereken bu son vektörde son iki koordinatın aynı olduğu. Yani $\mathbb{R}^{3}$’ün her elemanı bu şekilde ifade edilemez.

Niçin böyle oldu? Çünkü eklediğimiz vektör aslında $v$ ve $w$ vektörlerinin lineer kombinasyonları şeklinde yazılıyor: $5 v-2 w$. Bu durumda da bu üçüncü vektörü eklemenin bir anlamı yok.

Şimdi de daha önce örnek olarak verdiğimiz bütün fonksiyonlar uzayının birkaç altuzayını gerelim.

İlk olarak, sabit $1$ fonksiyonuyla gerilen altuzaya bakalım. Bu uzayın elemanları tam olarak $r \, 1$ şeklindeki fonksiyonlar, yani bütün sabit fonksiyonlar.

Bir de $\mathbb{R}$’nin her elemanını kendisine gönderen fonksiyonla gerilen altuzaya bakalım. (Bu fonksiyona birim fonksiyon denir.) Bu altuzaydaki fonksiyonlar da bir $r \in \mathbb{R}$ için “$r$ ile çarpma” fonksiyonları oluyor.

Şimdi de sabit $1$ fonksiyonu ve birim fonksiyonla gerilen altuzaya bakalım. Bu uzayın elemanları da $r, s \in \mathbb{R}$ olmak üzere, $x \mapsto r+s x$ fonksiyonları olur.

Bunu bir adım daha öteye götürüp $x \mapsto x^{2}$ fonksiyonunu da eklersek, ikinci dereceden polinomların verdiği fonksiyonları elde ederiz. Daha da ileri gidip $x \mapsto x^{n}$ fonksiyonlarının hepsiyle gerilen altuzaya bakarsak, bütün polinom fonksiyonlarını elde ettiğimizi görürüz. Hala “boyut” kavramını bilmiyoruz, ama bu altuzayın sonsuz boyutlu oluşunun sonsuz tane elemanla gerilmesiyle ilgili olduğunu da burada ekleyelim.

Şimdi de daha başka sürekli fonksiyonlarla altuzaylar gerelim. Mesela $x \mapsto \sin x$ ve $x \mapsto \cos x$ fonksiyonlarıyla gerilen altuzay

$$
x \mapsto r \sin x+s \cos x
$$

şeklindeki fonksiyonlardan oluşan uzay olacaktır.

Peki son örnekteki altuzay tek bir elemanla gerilebilir mi? Cevap hayır, ama bu cevabı açıklayabilmek için yeni kavramlara ihtiyacımız var.

Lineer Bağımsızlık

Her altuzay için bir geren küme bulabiliriz; mesela altuzayın tamamını alabiliriz. Fakat bu son bahsettiğimiz küme çok büyük. Bizim istediğimiz, bir altuzayı en düşük sayıda elemanla germek. Burada ‘en düşük sayıda’ ne demek?

Tanım 5. Bir $V$ vektör uzayının $v_{1}, \ldots, v_{n}$ elemanları verilsin. Eğer en az biri $0$’dan farklı olan her $r_{1}, \ldots, r_{n} \in \mathbb{R}$ için $r_{1} v_{1}+\cdots+r_{n} v_{n} \neq 0$ ise, $v_{1}, \ldots, v_{n}$ lineer bağımsızdır denir. Aksi durumda $v_{1}, \ldots, v_{n}$ lineer bağımlıdır denir.

Lineer bağımsızlığın tanımını bu şekilde vermek daha kolay, ama pratikte verilen vektörlerin lineer bağımsızlığını göstermek için bu tanımın kontrapozitifini kullanırız. Yani verilen $v_{1}, \ldots, v_{n}$’nin lineer bağımsızlığını göstermek için bu vektörlerin sıfır vektörüne eşit bir lineer kombinasyonunu alırız ve bu lineer kombinasyondaki her katsayının $0$ olması gerektiğini gösteririz. (Bunun aşağıdaki örneklerden sonra daha açık olacağını ümit ediyoruz.)

Daha önce verdiğimiz örnekler üzerinden giderek, bu yeni kavramı biraz inceleyelim. Mesela

$$
\left(\begin{array}{l}
1 \\
0 \\
0
\end{array}\right),\;\left(\begin{array}{l}
0 \\
1 \\
1
\end{array}\right),\;\left(\begin{array}{l}
0 \\
1 \\
2
\end{array}\right)
$$

vektörlerinin $\mathbb{R}^{3}$’ü gerdiğini ama

$$
\left(\begin{array}{l}
1 \\
0 \\
0
\end{array}\right),\;\left(\begin{array}{l}
0 \\
1 \\
1
\end{array}\right),\;\left(\begin{array}{r}
5 \\
-2 \\
-2
\end{array}\right)
$$

vektörlerinin germediğini görmüştük. Bunun nedeni ikinci listedeki vektörlerin lineer bağımlı olması:

$$
-5\left(\begin{array}{l}
1 \\
0 \\
0
\end{array}\right)+2\left(\begin{array}{l}
0 \\
1 \\
1
\end{array}\right)+\left(\begin{array}{r}
5 \\
-2 \\
-2
\end{array}\right)=\left(\begin{array}{l}
0 \\
0 \\
0
\end{array}\right) \ .
$$

Bu durumda son vektör, ilk ikisinin lineer kombinasyonu olarak yazıldığı için bu üçünün lineer kombinasyonlarında aslında ona ihtiyaç yok. Şu anda tam bilmesek de sezgimiz $\mathbb{R}^{3}$ uzayının en az üç vektörle gerilmesi gerektiğini söylüyor.

Verilen bir $V$ vektör uzayında iki vektörün ne zaman lineer bağımlı olduğuna bakalım. Bu vektörlere $v$ ve $w$ diyelim. Bu vektörlerin lineer bağımlı olması $r v+s w=0$ olacak şekilde her ikisi birden $0$ olmayan $r, s \in \mathbb{R}$ olması demek. Diyelim ki $r \neq 0$ ($s$’nin $0$ olmadığı durum da simetrik biçimde ele alınır). Eğer yukarıdaki denklemde $v$’yi yalnız bırakırsak

$$v=\frac{-s}{r} w$$

elde ederiz. Bu $v=q w$ olacak şekilde bir $q \in \mathbb{R}$ olması demektir. Yani $v$’yi $w$’nun bir lineer kombinasyonu şeklinde yazabiliriz. Bunu daha geometrik olarak ” $v$, $0$ ve $w$’dan geçen doğru üstünde” şeklinde ifade edebiliriz.

Bunun daha genel haline bakalım: $v_{1}, \ldots, v_{n} \in V$ alalım ve hepsi birden $0$ olmayan $r_{1}, \ldots, r_{n} \in \mathbb{R}$ için

$$ r_{1} v_{1}+\cdots+r_{n} v_{n}=0 $$

olsun. Mesela $r_{n} \neq 0$ olsun. Bu durumda

$$
v_{n}=\frac{-r_{1}}{r_{n}} v_{1}+\frac{-r_{2}}{r_{n}} v_{2}+\cdots+\frac{-r_{n-1}}{r_{n}} v_{n-1}
$$

olur. Yani bu sefer de $v_{n}$ vektörlerini diğerleri cinsinden yazabildik. Tabii ki eğer $0$ olmayan katsayı $r_{i}$ olsaydı, $v_{i}$’yi diğerlerinin lineer kombinasyonu olarak yazabilirdik. Yani genel olarak şu doğru:

Önerme 5. Bir $V$ vektör uzayı ve $v_{1}, \ldots, v_{n} \in V$ alalım. O zaman $v_{1}, \ldots, v_{n}$ vektörlerinin lineer bağımlı olması için gerek ve yeter koşul en az bir $i \in\{1, \ldots, n\}$ için

$$
v_{i} \in\left\langle v_{1}, \ldots, v_{i-1}, v_{i+1}, \ldots, v_{n}\right\rangle
$$

olmasıdır.

Şimdi de fonksiyonlar uzayındaki $\sin$ ve $\cos$ fonksiyonlarına bakalım. Bu iki fonksiyonun lineer bağımlı olmaları için birinin diğerinin sıfır olmayan bir skaler katı olması lazım. Mesela sıfır olmayan bir $r$ gerçel sayısı için $\cos =r \sin$ olsun. Yani her $x \in \mathbb{R}$ için

$$
\cos x=r \sin x
$$

olmalı; mesela $x=0$ için $\cos 0=r \sin 0$ olur. Fakat bu $1=r\, 0=0$ demek, çelişki. Sonuç olarak bu fonksiyonlar lineer bağımsızdır.

Taban ve Boyut

Önceki iki bölümde temel iki kavramdan bahsettik: germek ve bağımsızlık. Bu iki kavramı optimize eden kümelerle uğraşacağız. Yani gereğinden fazla bağımlı olmayan kümeler ya da gereğinden küçük altuzay germeyen kümeler. Buradaki “gereği” kelimesi üzerinde çok durmadan, düzgün tanımı verelim.

Tanım 6. Bir $V$ vektör uzayı ve bu uzayın $B$ altkümesi verilsin. Eğer $B$ lineer bağımsızsa ve bütün $V$’yi geriyorsa, $B$’ye $V$’nin bir tabanı denir.

Bu noktada şuna da dikkat edelim: Bir $V$ vektör uzayından alınan her lineer bağımsız $v_{1}, \ldots, v_{n}$ vektörleri gerdikleri altuzayın bir tabanını oluştururlar.

İlk örnek olarak olarak $V=\mathbb{R}$ alalım. Bu durumda sıfır olmayan herhangi bir $\alpha$’dan oluşan tek elemanlı küme bir taban olur. Bu kümenin bütün $\mathbb{R}$’yi gerdiği belli, çünkü aldığımız herhangi bir $\beta$’yı $\frac{\beta}{\alpha} \alpha$ şeklinde yazabiliriz. Ayrıca herhangi bir vektör uzayından alınan bir eleman sıfır olmadığı sürece lineer bağımsızdır.

Şimdi genel olarak $V=\mathbb{R}^{n}$ durumuna bakalım. Bu vektör uzayının bir taban adayı olarak, aşağıdaki gibi tanımlanan $e_{1}, \ldots, e_{n}$ vektörlerinden oluşan kümeyi alalım:

$$
e_{1}=\left(\begin{array}{c}
1 \\
0 \\
0 \\
\vdots \\
0
\end{array}\right),\; e_{2}=\left(\begin{array}{c}
0 \\
1 \\
0 \\
\vdots \\
0
\end{array}\right), \cdots,\; e_{n}=\left(\begin{array}{c}
0 \\
0 \\
0 \\
\vdots \\
1
\end{array}\right) \ .
$$

Bu vektörlerin lineer kombinasyonuyla $\mathbb{R}^{n}$’den alınan herhangi bir elemanın yazılabileceği yine açık:

$$
\left(\begin{array}{c}
a_{1} \\
a_{2} \\
\vdots \\
a_{n}
\end{array}\right)=a_{1} e_{1}+a_{2} e_{2}+\cdots+a_{n} e_{n} \ .
$$

Bu vektörlerin lineer bağımsız olduğunu göstermek için de Önsav 1 kullanılacak. Bunu yapmak için $e_{i}$ vektörlerini satır vektörü gibi düşünüp

$$
A=\left(\begin{array}{c}
e_{1} \\
e_{2} \\
\vdots \\
e_{n}
\end{array}\right)
$$

matrisine bakalım. Şimdi bu matris eşelon formda (hatta indirgenmiş eşelon formda). Yani Önsav 1’den dolayı, bu satırlardan hiçbiri diğerlerinin lineer kombinasyonu şeklinde yazılamaz. Bu da tam olarak $e_{1}, \ldots, e_{n}$ vektörlerinin lineer bağımsız olması demek. Ama tabii ki $\mathbb{R}^{n}$’nin tek tabanı bu değil. Mesela $e_{1}$ vektörünü, $a \in \mathbb{R} \backslash\{0\}$ olmak üzere

$$
\left(\begin{array}{c}
a \\
0 \\
\vdots \\
0
\end{array}\right)
$$

vektörüyle değiştirirsek yine bir taban elde ederiz.

İşleri biraz daha karıştırıp, $f_{i}$’yi ilk $i$ girdisi $1$ diğerleri $0$ olan vektör olarak tanımlarsak, $\{f_{1}, \ldots, f_{n}\}$ kümesi yine bir taban olur.

Önerme 6. Bir $V$ vektör uzayı ve lineer bağımsız $v_{1}, \ldots, v_{n} \in V$ verilsin. Eğer $a_{1}, \ldots, a_{n}$, $b_{1}, \ldots, b_{n} \in \mathbb{R}$ için

$$
a_{1} v_{1}+\cdots+a_{n} v_{n}=b_{1} v_{1}+\cdots+b_{n} v_{n}
$$

oluyorsa her $i$ için $a_{i}=b_{i}$ olur.

Kanıt: Varsayımı $\left(a_{1}-b_{1}\right) v_{1}+\cdots+\left(a_{n}-b_{n}\right) v_{n}=0_{V}$ şeklinde yeniden yazalım. $v_{1}, \ldots, v_{n}$ vektörleri lineer bağımsız olduğundan her $i$ için $a_{i}-b_{i}=0$ olmalı. Yani tam istediğimiz gibi her $i$ için $a_{i}=b_{i}$ olur. $\quad \square$

Bu önermeden dolayı aşağıdaki tanım anlamlı oluyor.

Tanım 7. Verilen $V$ vektör uzayının bir tabanı $\{v_{1}, \ldots, v_{n}\}$ olsun. Ayrıca $v \in V$ alalım ve

$$
v=a_{1} v_{1}+\cdots+a_{n} v_{n}
$$

şeklinde yazalım. O zaman $\left(a_{1}, \ldots, a_{n}\right)$ $n$-lisine $v$’nin $\left(v_{1}, \ldots, v_{n}\right)$’ye göre koordinatları denir.

Eğer verilen bir vektör uzayın her iki tabanının aynı sayıda eleman içerdiğini gösterebilirsek herhangi bir tabanın eleman sayısına “boyut” diyebiliriz. Fakat bunu en genel haliyle yapmayacağız; kolaylık sağlaması için sadece ‘sonlu boyutlu’ uzaylarla çalışacağız.

Tanım 8. Sonlu elemanlı bir kümeyle gerilen vektör uzaylarına sonlu boyutlu adı verilir.

Mesela yukarıda $\mathbb{R}^{n}$’nin $n$ elemanlı tabanları olduğunu gördük; örnek olarak $\{e_{1}, \ldots, e_{n}\}$ kümesi $\mathbb{R}^{n}$’yi gerer.

Derecesi en fazla $d$ olan polinomlardan oluşan uzay $\{1, t, t^{2}, \ldots, t^{d}\}$ kümesiyle gerilir. Yani bu uzay da sonlu boyutludur. Fakat bütün polinomlar kümesinin sonlu elemanlı bir geren kümesini bilmiyoruz. Hatta yok. Bunu gösterelim. Bir $\{p_{1}, \ldots, p_{m}\}$ polinomlar kümesine bakalım. Bu kümenin elemanları polinom olduğu için derecelerinden bahsedebiliriz. Diyelim ki bu polinomların derecesi en fazla $d$ olsun. Bu kümenin elemanlarının lineer kombinasyonları $r_{1}, \ldots, r_{m} \in \mathbb{R}$ olmak üzere

$$
r_{1} p_{1}+\cdots+r_{m} p_{m}
$$

şeklindeki polinomlardır. Bu tür polinomların derecelerinin de en fazla $d$ olduğuna dikkat edelim. Demek ki bu polinomların lineer kombinasyonlarının derecesi en fazla $d$ olur. Bu da keyfi olarak seçilen bu $m$ elemanlı kümenin bütün polinomlar uzayını geremeyeceğini gösterir.

Şu andan itibaren sadece sonlu boyutlu vektör uzaylarına odaklanacağız.

Her iki tabanın aynı sayıda eleman içerdiğini göstermek için ilk adım, daha sonra da işimize yarayacak olan şu önsav:

Önsav 2 (Değiş Tokuş Önsavı – 1. İfade). Bir $V$ vektör uzayı, $X \subseteq V$ ve $v, w \in V$ alalım. Eğer $w \in\langle X \cup{v}\rangle \backslash\langle X\rangle$ ise $v \in\langle X \cup{w}\rangle$ olur.

Kanıt: $w \in\langle X \cup{v}\rangle$ olduğu için

$$
w=a_{1} v_{1}+a_{2} v_{2}+\cdots+a_{n} v_{n}+a_{n+1} v
$$

olacak şekilde $v_{1}, \ldots, v_{n} \in X$ ve $a_{1}, \ldots, a_{n+1} \in \mathbb{R}$ alabiliriz. Şimdi $w \notin\langle X\rangle$ olduğu için $a_{n+1} \neq 0$. Yukarıdaki eşitliğin her iki tarafını $a_{n+1}$’e böldüğümüzde

$$
\frac{1}{a_{n+1}} w=\frac{a_{1}}{a_{n+1}} v_{1}+\frac{a_{2}}{a_{n+1}} v_{2}+\cdots+\frac{a_{n}}{a_{n+1}} v_{n}+v
$$

elde ederiz. Bu da

$$
v=-\frac{a_{1}}{a_{n+1}} v_{1}-\frac{a_{2}}{a_{n+1}} v_{2}-\cdots-\frac{a_{n}}{a_{n+1}}v_n+\frac{1}{a_{n+1}} w
$$

demek. Yani $v \in\langle X \cup\{w\}\rangle$. $\quad \square$

Bu önsavı, biraz daha güçlü biçimde, şöyle ifade edebiliriz. (Kanıtı bir kez daha okuyucuya bırakıyoruz.)

Önsav 3 (Değiş Tokuş Önsavı – 2. İfade). Bir $V$ vektör uzayı, bu uzayın bir tabanı olan

$$
B=\{v_{1}, \ldots, v_{n}\}
$$

kümesi ve sıfır olmayan $v \in V$ verilsin. Eğer $v$’nin $\left(v_{1}, \ldots, v_{n}\right)$’e göre koordinatlarından $i$-ncisi sıfır değilse $B$’den $v_i$’yi çıkartıp yerine $w$’yu koymakla elde edilen küme de $V$’nin bir tabanıdır.

Bu önsavların sonuçlarını bir araya toplayalım.

Sonuçlar 1. Bir $V$ vektör uzayı verilsin.

  1. $B=\{v_{1}, \ldots, v_{n}\}$, $V$’nin bir tabanı ve $m>n$ olmak üzere, $w_{1}, \ldots, w_{m} \in V$ olsun. O zaman $w_{1}, \ldots, w_{m} \in V$ lineer bağımlıdır.
  2. $V$’nin sonlu $B$ ve $B^{\prime}$ tabanları verilsin. O zaman $|B|=\left|B^{\prime}\right|$ olur.
  3. Sonlu boyutlu bir vektör uzayının sonsuz tabanı yoktur.

Kanıt: İlk olarak birinci kısmı kanıtlayalım. Eğer $w_{i}$’lerden biri $0_{V}$ ise $w_{1}, \ldots, w_{m}$’in lineer bağımlı olduğu açık. O zaman hiçbir $w_{i}$’nin $0_{V}$ olmadığını varsayalım ve $w_{1}$’i bir $i \in \{1, \ldots, n\}$ için $a_{1 i} \neq 0$ olmak üzere

$$
w_{1}=a_{11} v_{1}+\cdots+a_{1 n} v_{n}
$$

şeklinde yazalım. Bu durumda da $B$’den $v_{i}$’yi çıkartıp $w_{1}$’i koyarak elde ettiğimiz $B_{1}$ kümesi de, Değiş Tokuş Önsavı’nın ikinci ifadesinden dolayı, bir taban olacaktır.

Şimdi eğer $w_{2}, \ldots, w_{n}$ vektörlerinden biri $\left\langle w_{1}\right\rangle$ altuzayındaysa yine $w_{1}, \ldots, w_{m}$ vektörlerinin lineer bağımlı olduğu ortaya çıkar. Yine öyle olmadığını varsayabiliriz. O zaman da Değiş Tokuş Önsavı’nı bir kez daha kullanarak $B_{1}$’deki $v_{i}$’lerden birini $w_{2}$ ile değiştirerek elde ettiğimiz $B_{2}$ kümesi de taban olur.

Bu şekilde devam ederek, ya bir noktada $w_{1}, \ldots, w_{n}$’ler arasında bir lineer bağıntı buluruz ya da $B_{n}=\{w_{1}, \ldots, w_{n}\}$ kümesinin bir taban olduğu ortaya çıkar. Ama $m>n$ olduğu için bu da $w_{n+1} \in\left\langle w_{1}, \ldots, w_{n}\right\rangle$ demek. Yani $w_{1}, \ldots, w_{n}$ her durumda lineer bağımlıdır.

Şimdi ikinci kısmın kanıtı kolay. Şöyle ki, $|B|=m$, $\left|B^{\prime}\right|=n$ olsun. İlk kısımdan dolayı eğer $m>n$ ise $B$’nin taban olamayacağı ortaya çıkar. Yani $m \leq n$’dir. Benzer biçimde de $n \leq m$ olur. Yani $m=n$.

Son kısım da ilkinden çıkıyor. Çünkü sonsuz bir taban olması, her $m$ için $m$’den daha fazla lineer bağımsiz eleman bulmak demektir, ama ilk kısımdan dolayı bir sonlu taban bulduktan sonra en fazla o tabanın eleman sayısı kadar lineer bağımsız vektör bulunur. $\quad \square$

Yukarıdaki sonuçların ikincisine dayanarak şu tanımı yapabiliriz.

Tanım 9. Bir $V$ vektör uzayının boyutu herhangi bir tabanının eleman sayısı olarak tanımlanır. Biz boyutu, İngilizce kaynaklarda kullanılan, $\operatorname{dim} V$ notasyonuyla göstereceğiz.

Daha önceden verdiğimiz vektör uzayı örneklerinin boyutlarının neler olduğunu anlamaya çalışalım. Mesela $\mathbb{R}^{n}$’nin $n$ elemanlı $\{e_{1}, \ldots, e_{n}\}$ tabanı var; yani boyutu $n$. Bu uzayın lineer denklem sistemleriyle verilen altuzaylarının boyutlarını biraz ileride inceleyeceğiz ama genel fikir, daha öncekilerden ‘bağımsız’ her denklem, boyutu bir düşürür. Tabii ki bu cümlede denklem sistemlerinin bağımsızlığı ile ne kastedildiği çok açık değil; ileride o da açık olacak.

Derecesi en fazla $d$ olan polinomlar uzayının bir tabanı $\{1, t, t^{2}, \ldots, t^{d}\}$ olduğu için boyutu $d+1$’dir. Benzer biçimde $\sin x$ ve $\cos x$ fonksiyonları lineer bağımsız olduğu için fonksiyonlar uzayının $\langle\sin x, \cos x\rangle$ altuzayı iki boyutludur.

Değiş Tokuş Önsavı’nın birkaç sonucundan daha -kanıtlamadan- bahsedelim.

Sonuçlar 2. Bir $V$ vektör uzayı, $W \leq V$ ve $V$’nin vektörlerinden oluşan $A=\{v_{1}, \ldots, v_{m}\}$ kümesi verilsin.

  1. Eğer $A$, $V$’yi geriyorsa, $A$’nın bir altkümesi $V$’nin bir tabanı olarak seçilebilir.
  2. Eğer $A$ lineer bağımsızsa, $A$’ya vektörler ekleyerek $V$’nin bir tabanı elde edilebilir.
  3. Eğer $\operatorname{dim} W=\operatorname{dim} V$ ise $W=V$ olur.

Lineer Sistemler ve Matrisler – Yeniden

Öğrendiğimiz vektör uzayı teknolojisini kullanarak, lineer denklem sistemleri hakkında yeni bilgiler elde edelim. Daha doğrusu, daha önceden sezgisel olarak söylediğimiz bazı şeyleri daha belirli şekilde söyleyelim.

Tanım 10. Verilen $m \times n$ boyutlu bir $A$ matrisi için satır uzayı, $\mathbb{R}^{n}$’nin $A$’nın satırlarıyla gerilen altuzayıdır. Biz bu uzayı $S(A)$ olarak göstereceğiz ve boyutuna da $A$’nın satır mertebesi diyeceğiz.

Satır mertebesinin, $A$’nın satırları arasından seçilmiş herhangi bir maksimal lineer bağımsız satır kümesinin eleman sayısı olduğuna dikkat edelim.

Önsav 4. Birbirine denk matrislerin satır uzayları aynıdır; dolayısıyla da satır mertebeleri aynıdır.

Kanıt: $B$ matrisi $A$ matrisinden Gauss hamleleriyle elde edilmiş olsun. İlk bölümde bu durumda $B$’nin satırlarının $A$’nın satırlarının lineer kombinasyonu şeklinde yazıldığından bahsetmiştik. Yani $S(B) \subseteq S(A)$ olur. Ama Gauss hamleleri tersinir olduğu için $A$ da $B$’den Gauss hamleleriyle elde edilir. Yani aynı zamanda $S(A) \subseteq S(B)$ olur. $\quad \square$

Daha önceden kanıtladığımız Önsav 1 kullanılarak, eşelon formdaki matrisler için daha fazlası da söylenebilir.

Önsav 5. Eşelon formdaki bir matrisin tamamıyla $0$ olmayan satırları, bu matrisin satır uzayının bir tabanıdır.

Yani satır uzayının bir tabanını bulmak için tek yapmamız gereken -bir önceki bölümdeki yöntemleri kullanarak- elimizdeki matrisi eşelon forma getirmek. Sonrasında bu elde ettiğimiz matrisin tamamen $0$ olmayan satırları, satır uzayının bir tabanı olacaktır.

Şimdiye kadar lineer denklem sistemlerinin sadece satırlarıyla uğraştık. Aslında benzer yöntemleri sütunlara da uygulayabilirdik. Şimdi bir süre bunu yapacağız, sonra da aslında çok da gerekli olmadığını göstereceğiz.

Tanım 11. Verilen $m \times n$ boyutlu bir matrisin sütun uzayı, $\mathbb{R}^{m}$’nin $A$’nın sütunlarıyla gerilen altuzayıdır; bu uzayı $T(A)$ ile göstereceğiz ve $T(A)$’nın boyutuna $A$’nın sütun mertebesi diyeceğiz.

Daha önceden satırlar için tanımladığımız Gauss hamlelerini sütunlar için de benzer biçimde tanımlayabiliriz ve yukarıdaki gibi bu hamlelerin sütun uzayını ve sütun denkliğini değiştirmediğini gösterebiliriz. Fakat bunu yapmak yerine bildiğimiz Gauss hamlelerinin sütun uzayındaki lineer bağıntıları değiştirmediğini göstereceğiz. Oradan da satır ve sütun mertebelerinin aslında aynı olduğu ortaya çıkacak. Ama ilk olarak sütun uzaylarının tabanlarını bulmaya çalışalım.

Bir örnek olarak, şu matrise bakalım

$$
A=\left(\begin{array}{rrr}
1 & 2 & 0 \\
4 & 0 & -3 \\
1 & -1 & 0
\end{array}\right) \ .
$$

Yapmak istediğimiz

$$
\left(\begin{array}{l}
1 \\
4 \\
1
\end{array}\right),\;\left(\begin{array}{r}
2 \\
0 \\
-1
\end{array}\right),\;\left(\begin{array}{r}
0 \\
-3 \\
0
\end{array}\right)
$$

vektörleriyle gerilen uzayı bulmak. Bizim bir önceki önsavdan bildiğimiz, bu vektörleri satırlarını oluşturduğu matrisin satır uzayının bir tabanını bulmak. O zaman o matrise bakalım

$$
B=\left(\begin{array}{rrr}
1 & 4 & 1 \\
2 & 0 & -1 \\
0 & -3 & 0
\end{array}\right)\ .
$$

Bu matrisi şu eşelon forma getirebiliriz

$$
\left(\begin{array}{rrr}
1 & 4 & 1 \\
0 & 3 & -1 \\
0 & 0 & -1
\end{array}\right) \ .
$$

Yani $S(B)$ bu son matrisin satırlarıyla gerilir. Ama aslında o satır vektörlerini yeniden sütuna çevirsek $T(A)$’yı gererler.

Bu örnekte yaptığımız oldukça genel. Bunu açıklamak için -daha sonra da sık sık kullanılacak- şu tanımı yapalım.

Tanım 12. Verilen $m \times n$ boyutlu bir $A$ matrisinin devriği, sütunları $A$’nın satırları olan $n \times m$ boyutlu matristir ve $A^{t}$ ile gösterilir. Daha titiz olmak gerekirse, eğer $A=\left(a_{i j}\right)$ ise $A^{t}=\left(a_{j i}\right)$ olur.

Yani yukarıdaki örnekte yaptığımız işlem ilk önce devriği alıp Gauss indirgemesi yaptıktan sonra yeniden devrik almak. Detaylarını vermeyeceğiz, ama bu yöntem sütun uzayı bulmak için her zaman işe yarar. Bu fikri kullanarak, sıradaki önermeyi kanıtlayacağız.

Önerme 7. Verilen bir $A$ matrisine uygulanan Gauss hamleleri $A$’nın sütun mertebesini değiştirmez.

Kanıt: Göstermemiz gereken Gauss hamlelerinin $A$’nın sütunları arasındaki lineer bağıntıları değiştirmediği. Yani eğer $v_{1}, \ldots, v_{n}$, $A$’nın sütunlarıysa ve

$$
r_{1} v_{1}+\cdots+r_{n} v_{n}=0
$$

şeklinde bir lineer bağımlılık varsa Gauss hamlelerinden sonra da aynı bağımlılığın devam ettiğini göstermek gerekir. Bu da tam olarak $A$ ile verilen homojen lineer denklemin çözümlerinin Gauss hamleleriyle değişmediğini göstermek demek ve biz bunu daha en başlarda göstermiştik. Bu da kanıtı bitirir. $\quad \square$

Eşelon forma getirmekten daha iyisini de yapabildiğimizi hatırlayalım: İndirgenmiş eşelon forma da getirebiliriz. Bunu kullanarak satır ve sütun mertebelerinin aynı olduğunu kanıtlayacağız.

Teorem 5. Verilen bir $A$ matrisinin sütun mertebesi satır mertebesine eşittir.

Kanıt: Gauss hamlelerini kullanarak $A$’yı indirgenmiş eşelon forma getirelim. Bu durumda satır mertebesi, tamamen $0$ olmayan satırların sayısı olmalı. Bunun da serbest olmayan değişkenlerin sayısı olduğu açık.

İndirgenmiş eşelon formdaki matrisin sütunlarına baktığımızda, serbest olmayan değişkenlere karşılık gelen sütunların, yukarıda $e_{i}$ olarak gösterdiğimiz vektörler olduğunu görürüz ve diğer sütunlar da bunların lineer kombinasyonu olarak yazılır. Yani sütun mertebesi de serbest olmayan değişkenlerin sayısına eşittir. Bu da tam olarak göstermek istediğimiz eşitliktir. $\quad \square$

Tanım 13. Bir matrisin mertebesi satır ya da sütun mertebelerinden biridir.

Verilen $m \times n$ boyutlu bir $A$ matrisine karşılık gelen satır (ya da sütun) uzayının boyutu en fazla $m$, $n$ sayılarından küçük olanı kadar olabilir. Peki ne zaman tam olarak o sayı olur? Mesela $m \leq n$ iken $A$’nın mertebesinin $m$ olması demek bütün satırlarının, $\mathbb{R}^{n}$’deki vektörler olarak düşünüldüğünde, lineer bağımsız olması demektir. Eğer $A$’yı indirgenmiş eşelon forma getirirsek, bu hiçbir satırın tamamıyla $0$ olmaması anlamına gelir.

Şimdi daha genel bir sonuç kanıtlayalım.

Teorem 6. Verilen $m \times n$ boyutlu bir $A$ matrisi için aşağıdakiler denktir:

$\quad$ (a) $A$’nın mertebesi $r$’dir.

$\quad$ (b) $A$ ile belirlenen homojen lineer denklem sisteminin çözüm uzayının boyutu $n-r$’dir.

Kanıt: İlk kısmın söylediği, $A$’yı eşelon forma getirdiğimizde $r$ tane değişkenin baş değişken olarak göründüğü. Yani $n-r$ tane serbest değişken var. Çözümler de bu değişkenlerin cinsinden yazıldığında çözüm uzayının boyutunun $n-r$ olduğu görülür. Tersine eğer $r$ tane baş değişken görünüyorsa, $A$’nın eşelon forma getirildiğinde tam olarak $r$ tane satırının lineer bağımsız olduğunu görmek de kolay. $\quad \square$

Kare matrisler için bu teoremin şu sonucunu kaydedelim.

Sonuç 1. Verilen $m \times m$’lik bir $A$ matrisi için aşağıdakiler denktir:

  1. $A$’nın mertebesi $m$’dir.
  2. $A$’nın satırları lineer bağımsızdır.
  3. $A$’nın sütunları lineer bağımsızdır.
  4. $A$ ile belirlenen homojen lineer sistemin çözüm uzayı $\mathbb{R}^{m}$’nin aşikar altuzayıdır.
  5. $A$, birim matrise denktir.

Tanım 14. Sonuç 1’deki denk ifadelerden herhangi birini sağlayan kare matrislere tekil olmayan matris denir.

Bu tanım, bir sonraki bölümde vektör uzayları arasındaki fonksiyonları incelerken daha anlamlı hale gelecek.

Yukarıda söylediklerimizi şu matriste inceleyerek özümsemeye çalışalım:

$$
\left(\begin{array}{rrrrr}
1 & 0 & 0 & -3 & 0 \\
-2 & 1 & 0 & 3 & 2 \\
1 & 0 & -1 & -4 & 6
\end{array}\right)\ .
$$

Bu matrisin indirgenmiş eşelon formu

$$
\left(\begin{array}{rrrrr}
1 & 0 & 0 & -3 & 0 \\
0 & 1 & 0 & -3 & 2 \\
0 & 0 & 1 & 1 & -6
\end{array}\right)
$$

matrisi oluyor. Buradan ilk olarak $A$’nın mertebesinin $3$ olduğu ortaya çıkıyor. Bir de $A$ ile belirlenen homojen lineer sistemin çözüm uzayına bakalım. Bunun için indirgenmiş formdaki matrisle belirlenen homojen lineer sisteme bakmak yeterli. Ona baktığımızda ilk üç sütunun tekabül ettiği değişkenlerin baş değişken olduğunu görürüz. Değişkenlere $x_{1}, x_{2}, \ldots, x_{5}$ dersek; $x_{4}, x_{5}$’in serbest olduğunu görürüz. Yani çözüm kümesi şu şekilde verilir:

$$
\left\{ r \begin{pmatrix} 3 \\ 3 \\ -1 \\ 1 \\ 0 \end{pmatrix} + s \begin{pmatrix} 0 \\ -2 \\ 6 \\ 0 \\ 1 \end{pmatrix}\, :\, r, s \in \mathbb{R} \right\} \ .
$$

Şimdi

$$
\left(\begin{array}{r}
3 \\
3 \\
-1 \\
1 \\
0
\end{array}\right) \quad \text { ve }\quad \left(\begin{array}{r}
0 \\
-2 \\
6 \\
0 \\
1
\end{array}\right)
$$

vektörlerinin lineer bağımsız olduğunu kontrol etmek kolay. Yani çözüm uzayının boyutu gerçekten de $5-3=2$.

Bir de yukarıdaki matrisin ilk üç satırından oluşan $3 \times 3$ matrise bakalım:

$$
\left(\begin{array}{rrr}
1 & 0 & 0 \\
-2 & 1 & 0 \\
1 & 0 & -1
\end{array}\right) \ .
$$

Buna karşılık gelen indirgenmiş eşelon formdaki matris de

$$
\left(\begin{array}{lll}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{array}\right)
$$

matrisi olur. Şimdi bu son matrisin belirlediği homojen lineer sistemin, hiç serbest değişkeni olmadığı için sadece tek bir çözümü olduğu açık. Yani çözüm uzayı $0$ boyutlu. Buradan da ilk başladığımız matrisin satırların (ya da sütunlarının) lineer bağımsız olduğu ortaya çıkar.

Önceki İçerik
Sonraki İçerik
- Son sayıyı sipariş vermek için tıklayın. -Newspaper WordPress Theme

Son eklenen yazılar

Avrupa Matematiği: Pullardaki Tarih

Yazar: Robin Wilson The Open University (Çeviri: Olcay Coşkun) Yıl: 2023-4 Sayı: 118 Dünya çapındaki yüzlerce pulda matematiğin ve tarihinin bulunması şaşırtıcıdır. Portorož’daki 8ECM (8’inci Avrupa Matematik...

Matematik Tarihinin, Matematik Öğretimine Yansımaları

Yazarlar: Ali Bülbül, Nazan Sezen Yüksel Yıl: 2023-4 Sayı: 118 Matematiğin icat mı yoksa keşif mi olduğu sorusunun henüz net bir cevabı olmamakla birlikte, matematik hakkında...

Hiyeroglifteki Kesirler Etkinlik Planı

Yazar: Eda Aydemir Kayacan (edaaydemir@gmail.com) Yıl: 2023-1 Sayı: 115 Dünyanın birçok yerinde, kesirler konusu ilköğretim matematik müfredatlarında geniş yer tutmaktadır. Çoğu zaman kullanılan örneklerin günlük hayattan uzak...