Udowodnij, że rząd iloczynu macierzy AB jest nie większy od rzędu każdej z macierzy A i B. Możesz posłużyć się związkiem pomiędzy rzędami macierzy i przekształceń liniowych.
Dziękuję za wszelką pomoc
Rzad iloczynu macierzy
-
- Użytkownik
- Posty: 6
- Rejestracja: 3 maja 2009, o 18:55
- Płeć: Mężczyzna
-
- Użytkownik
- Posty: 5356
- Rejestracja: 10 kwie 2009, o 10:22
- Płeć: Kobieta
- Lokalizacja: Gliwice
- Pomógł: 1381 razy
Rzad iloczynu macierzy
To jest tw Sylvestera (vide np Mostowski i Stark "Elementy algebry wyższej", str 335). Dowody są dwa, ale żaden nie korzysta z przekształceń liniowych.
Pierwszy jest bezpośrednią konsekwencją tw Cauchy'ego o minorach iloczynu macierzy.
Drugi jest elementarny (tylko dużo w nim szlaczków). Np aby pokazać, że dla \(\displaystyle{ A_{m\times n},\ B_{n\times s}}\) mamy \(\displaystyle{ rz(AB)\leq rz(A)}\) rozpatrujemy dwa przypadki:
1) rz(A)=m. Ponieważ macierz AB ma m wierszy, to z własności rzędu mamy w szczególności \(\displaystyle{ rz(AB)\leq m=rz(A)}\)
2) rz(A)=k<m. To w szczególności oznacza, że dowolnych k+1 wierszy (traktowanych jako wektory n-wymiarowe) macierzy A jest liniowo zależnych. Ideą jest pokazanie, że wówczas dowolnych k+1 wierszy macierzy AB też jest liniowo zależne.
Robi się to z definicji liniowej zależności (zaprzeczenie warunku na liniową niezależność) - tzn pokazuje się, że dla dowolnych k+1 wierszy macierzy AB, niech one się nazywają \(\displaystyle{ W_{i_1}(AB),W_{i_2}(AB),..., W_{i_{k+1}}(AB)}\) istnieją stałe \(\displaystyle{ \alpha_1,\alpha_2,...,\alpha_{k+1}}\) nie wszystkie równe 0 i takie, że \(\displaystyle{ \alpha_1W_{i_1}(AB)+\alpha_2W_{i_2}(AB)+\cdots+\alpha_{k+1} W_{i_{k+1}}(AB)=0}\).
Z definicji iloczynu macierzy wiersz j-ty macierzy AB ma postać
\(\displaystyle{ \left[\sum_{l=1}^n a_{j,l}b_{l,1},\ \sum_{l=1}^n a_{j,l}b_{l,2},\ ...,\ \sum_{l=1}^n a_{j,l}b_{l,s}\right]}\)
Weźmy na początek dowolną kombinację liniową dowolnych k+1 wierszy macierzy AB:
\(\displaystyle{ c_1W_{i_1}(AB)+c_2W_{i_2}(AB)+\cdots+c_{k+1} W_{i_{k+1}}(AB)=[0,0,...,0]}\).
gdzie wektor zerowy ma długość s (taką, jak długości wierszy macierzy AB, czyli ilość jej kolumn) oraz każdy wiersz ma taką postać, jak napisane wyżej. No to teraz wykonujemy te działania. Otrzymujemy po lewej stronie wektor długości s, który na każdej współrzędnej ma odpowiednie sumy. Z równości wektorów dostajemy układ s równań, w którym q-te równanie (czyli równanie dla q-tej współrzędnej kombinacji liniowej wierszy) ma postać:
\(\displaystyle{ \sum_{t=1}^{k+1}c_t\sum_{l=1}^n a_{t,l}b_{l,q}=0}\)
Teraz zmieniamy kolejność sumowania:
\(\displaystyle{ \sum_{l=1}^{n}\left(\sum_{t=1}^{k+1}c_t a_{t,l}\right)b_{l,q}=0}\)
Ponieważ \(\displaystyle{ \sum_{t=1}^{k+1}c_t a_{t,l}}\) jest l-tym elementem w kombinacji liniowej k+1 wierszy macierzy A (a wiemy, że te wiersze są liniowo zależne z założenia), to muszą istnieć takie stałe \(\displaystyle{ \alpha_1,\alpha_2,...,\alpha_{k+1}}\), nie wszystkie równe zero, że dla każdego l mamy \(\displaystyle{ \sum_{t=1}^{k+1}\alpha_t a_{t,l}=0}\). A to oznacza, że te same stałe zapewniają liniową zależność odpowiednich k+1 wierszy w macierzy AB.
Tak więc \(\displaystyle{ rz(AB)\leq k=rz(A)}\).
Dla udowodnienia drugiej nierówności przeprowadza się analogiczne rozumowanie dla macierzy B, rozpatrując tym razem jej kolumny.
Pozdrawiam.
Pierwszy jest bezpośrednią konsekwencją tw Cauchy'ego o minorach iloczynu macierzy.
Drugi jest elementarny (tylko dużo w nim szlaczków). Np aby pokazać, że dla \(\displaystyle{ A_{m\times n},\ B_{n\times s}}\) mamy \(\displaystyle{ rz(AB)\leq rz(A)}\) rozpatrujemy dwa przypadki:
1) rz(A)=m. Ponieważ macierz AB ma m wierszy, to z własności rzędu mamy w szczególności \(\displaystyle{ rz(AB)\leq m=rz(A)}\)
2) rz(A)=k<m. To w szczególności oznacza, że dowolnych k+1 wierszy (traktowanych jako wektory n-wymiarowe) macierzy A jest liniowo zależnych. Ideą jest pokazanie, że wówczas dowolnych k+1 wierszy macierzy AB też jest liniowo zależne.
Robi się to z definicji liniowej zależności (zaprzeczenie warunku na liniową niezależność) - tzn pokazuje się, że dla dowolnych k+1 wierszy macierzy AB, niech one się nazywają \(\displaystyle{ W_{i_1}(AB),W_{i_2}(AB),..., W_{i_{k+1}}(AB)}\) istnieją stałe \(\displaystyle{ \alpha_1,\alpha_2,...,\alpha_{k+1}}\) nie wszystkie równe 0 i takie, że \(\displaystyle{ \alpha_1W_{i_1}(AB)+\alpha_2W_{i_2}(AB)+\cdots+\alpha_{k+1} W_{i_{k+1}}(AB)=0}\).
Z definicji iloczynu macierzy wiersz j-ty macierzy AB ma postać
\(\displaystyle{ \left[\sum_{l=1}^n a_{j,l}b_{l,1},\ \sum_{l=1}^n a_{j,l}b_{l,2},\ ...,\ \sum_{l=1}^n a_{j,l}b_{l,s}\right]}\)
Weźmy na początek dowolną kombinację liniową dowolnych k+1 wierszy macierzy AB:
\(\displaystyle{ c_1W_{i_1}(AB)+c_2W_{i_2}(AB)+\cdots+c_{k+1} W_{i_{k+1}}(AB)=[0,0,...,0]}\).
gdzie wektor zerowy ma długość s (taką, jak długości wierszy macierzy AB, czyli ilość jej kolumn) oraz każdy wiersz ma taką postać, jak napisane wyżej. No to teraz wykonujemy te działania. Otrzymujemy po lewej stronie wektor długości s, który na każdej współrzędnej ma odpowiednie sumy. Z równości wektorów dostajemy układ s równań, w którym q-te równanie (czyli równanie dla q-tej współrzędnej kombinacji liniowej wierszy) ma postać:
\(\displaystyle{ \sum_{t=1}^{k+1}c_t\sum_{l=1}^n a_{t,l}b_{l,q}=0}\)
Teraz zmieniamy kolejność sumowania:
\(\displaystyle{ \sum_{l=1}^{n}\left(\sum_{t=1}^{k+1}c_t a_{t,l}\right)b_{l,q}=0}\)
Ponieważ \(\displaystyle{ \sum_{t=1}^{k+1}c_t a_{t,l}}\) jest l-tym elementem w kombinacji liniowej k+1 wierszy macierzy A (a wiemy, że te wiersze są liniowo zależne z założenia), to muszą istnieć takie stałe \(\displaystyle{ \alpha_1,\alpha_2,...,\alpha_{k+1}}\), nie wszystkie równe zero, że dla każdego l mamy \(\displaystyle{ \sum_{t=1}^{k+1}\alpha_t a_{t,l}=0}\). A to oznacza, że te same stałe zapewniają liniową zależność odpowiednich k+1 wierszy w macierzy AB.
Tak więc \(\displaystyle{ rz(AB)\leq k=rz(A)}\).
Dla udowodnienia drugiej nierówności przeprowadza się analogiczne rozumowanie dla macierzy B, rozpatrując tym razem jej kolumny.
Pozdrawiam.