szukanie zaawansowane
 [ Posty: 8 ] 
Autor Wiadomość
Mężczyzna
PostNapisane: 14 sie 2019, o 01:43 
Użytkownik

Posty: 1737
Lokalizacja: Sosnowiec
Obrotem elementarnym w przestrzeni \RR^n, gdzie n\geq 2 nazywamy złożenie obrotu w zakresie którychkolwiek dwóch współrzędnych z tożsamością w zakresie pozostałych współrzędnych. Uwaga - nie chodzi o zwyczajne składanie funkcji. Definicja tego składania jest opisana w książce Borsuka "Geometria analityczna wielowymiarowa". Dla obrotów elementarnych definicja sprowadza się do takiej:

Funkcję \xi:\RR^n\rightarrow\RR^n nazywamy obrotem elementarnym, gdy istnieje obrót r:\RR^2\rightarrow\RR^2 wokół punktu (0,0) oraz wskaźniki i,j\in\{1,\ldots,n\}, i<j takie, że
\xi(x)_k=\begin{cases}r(x_i,x_j)_1 & , k=i \\ r(x_i,x_j)_2 & , k=j \\ x_k & , k\in\{1,\ldots,n\}\setminus\{i,j\}\end{cases}
, gdzie dolny wskaźnik oznacza odpowiednią współrzędną danego wektora.

Zadanie brzmi:

Dana jest liczba naturalna n\geq 2 oraz (n+1) punktów p_0,\ldots, p_n \in \RR^n, gdzie p_m=(a_{m1},\ldots,a_{mn}) dla m=0,\ldots,n.

Przez V(p_0,\ldots,p_n) oznaczamy wyznacznik

\det\left|\begin{array}{cccc}1 & a_{01} & \ldots & a_{0n} \\ 1 & a_{11} & \ldots & a_{1n} \\ \vdots \\ 1 & a_{n1} & \ldots & a_{nn}\end{array}\right|

Udowodnić, że jeśli \xi:\RR^n\rightarrow\RR^n jest obrotem elementarnym, to V(p_0,\ldots,p_n)=V(\xi(p_0),\ldots,\xi(p_n)).
Góra
Mężczyzna
PostNapisane: 14 sie 2019, o 10:15 
Moderator
Avatar użytkownika

Posty: 8453
Lokalizacja: Wrocław
Jeśli oznaczymy dla m = 0, \ldots, n

\xi \begin{pmatrix} a_{m1} \\ \vdots \\ a_{mn} \end{pmatrix} = \begin{pmatrix} b_{m1} \\ \vdots \\ b_{mn} \end{pmatrix},

to

\begin{pmatrix} 1 & \overline{0}^{\top} \\ \overline{0} & m(\xi) \end{pmatrix} \cdot \begin{pmatrix} 1 & 1 & \ldots & 1 \\ a_{01} & a_{11} & \ldots & a_{n1} \\ \vdots & \vdots & \ddots & \vdots \\ a_{0n} & a_{1n} & \ldots & a_{nn} \end{pmatrix} = \begin{pmatrix} 1 & 1 & \ldots & 1 \\ b_{01} & b_{11} & \ldots & b_{n1} \\ \vdots & \vdots & \ddots & \vdots \\ b_{0n} & b_{1n} & \ldots & b_{nn} \end{pmatrix},

więc z twierdzenia Cauchy'ego

\det \begin{pmatrix} 1 & \overline{0}^{\top} \\ \overline{0} & m(\xi) \end{pmatrix} \cdot V(p_0, \ldots, p_n) = V(\xi(p_0), \ldots, \xi(p_n)).

Jednak z uwagi na to, że \xi jest obrotem elementarnym, mamy

\det \begin{pmatrix} 1 & \overline{0}^{\top} \\ \overline{0} & m(\xi) \end{pmatrix} = 1 \cdot \det m(\xi) = 1,

co kończy dowód. W ten sam sposób można tezę otrzymać nawet przy słabszym założeniu \det \xi = 1.
Góra
Mężczyzna
PostNapisane: 14 sie 2019, o 14:06 
Użytkownik

Posty: 1737
Lokalizacja: Sosnowiec
Dowód jak najbardziej zrozumiały, jednak pozostaje mi jeszcze kwestia udowodnienia, że macierz obrotu elementarnego ma wyznacznik 1. Potrafię udowodnić, że obrót elementarny jest izometrią i znam twierdzenie , że izometria jest funkcją afiniczną oraz jej macierz ma wyznacznik \pm 1. Jak wywnioskować, że jest to 1? Jakby się dało to chętnie zobaczyłbym też elementarny dowód (bez tego twierdzenia).
Góra
Mężczyzna
PostNapisane: 14 sie 2019, o 16:30 
Użytkownik
Avatar użytkownika

Posty: 710
Lokalizacja: somewhere
Wystarczy sprawdzić, że obrót r: \mathbb{R}^2 \rightarrow \mathbb{R}^2 wokół punktu (0,0) ma wyznacznik równy 1. To zaś jest oczywiste, bowiem obrót zachowuje orientację płaszczyzny (ewentualnie można popatrzeć na macierz obrotu) i tak jak zobaczyłeś, jest izometrią.
Góra
Mężczyzna
PostNapisane: 14 sie 2019, o 16:37 
Użytkownik

Posty: 1737
Lokalizacja: Sosnowiec
karolex123 napisał(a):
Wystarczy sprawdzić, że obrót r: \mathbb{R}^2 \rightarrow \mathbb{R}^2 wokół punktu (0,0) ma wyznacznik równy 1.

Dlaczego to wystarczy?
Góra
Mężczyzna
PostNapisane: 14 sie 2019, o 18:19 
Moderator
Avatar użytkownika

Posty: 8453
Lokalizacja: Wrocław
W bazie \mathcal{B} = (e_1, \ldots, e_n, e_i, e_j), gdzie w części z kropkami pomijamy e_i i e_j, macierz obrotu elementarnego takiego jak w Twoim pierwszym poście to:

m_{\mathcal{B}}(\xi) = \begin{pmatrix} 
1 & \ldots & 0 & 0 & 0 \\ 
\vdots & \ddots & \vdots & \vdots & \vdots \\ 
0 & \ldots & 1 & 0 & 0 \\ 
0 & \ldots & 0 & \cos \theta & - \sin \theta \\ 
0 & \ldots & 0 & \sin \theta & \cos \theta 
\end{pmatrix}

Łatwo pokazać (jakkolwiek - z definicji, z rozwinięcia Laplace'a, z faktu o wyznaczniku złożenia przekształceń liniowych - w takim sensie, jak w Twoim pierwszym poście...), że w takim razie

\det m_{\mathcal{B}}(\xi) = \det \begin{pmatrix} \cos \theta & - \sin \theta \\ \sin \theta & \cos \theta \end{pmatrix} = 1.

A ponieważ wyznacznik przekształcenia liniowego nie zależy od wyboru bazy, musi więc być \det m(\xi) = 1.

Właściwie liczenie macierzy \xi w bazie \mathcal{B} nie jest konieczne, żeby ten argument przeszedł - wszystko działa również dla m(\xi), ale wydaje mi się, że zmiana bazy delikatnie poprawia czytelność.
Góra
Mężczyzna
PostNapisane: 14 sie 2019, o 22:28 
Użytkownik

Posty: 1737
Lokalizacja: Sosnowiec
Udało mi się udowodnić pewne fakty odnośnie składania przekształceń liniowych (w tym innym sensie).

Mianowicie jeśli f:\RR^k\rightarrow\RR^k, g:\RR^l\rightarrow\RR^l są odwzorowaniami liniowymi o macierzach odpowiednio A,B, natomiast I,J\subseteq\{1,\ldots,k+l\} są takie, że |I|=k,|J|=l,I\cap J=\emptyset, to złożenie \xi:\RR^{k+l}\rightarrow\RR^{k+l} funkcji f w zakresie współrzędnych o wskaźnikach ze zbioru I oraz funkcji g w zakresie współrzędnych o wskaźnikach ze zbioru J, jest odwzorowaniem liniowym o macierzy C takiej, że po skreśleniu wierszy i kolumn o numerach w zbiorze J otrzymujemy macierz A, po skreśleniu wierszy i kolumn o numerach w zbiorze I otrzymujemy macierz B, a pozostałe miejsca w tej macierzy to zera.

Jedyne czego mi brakuje do szczęścia, a co domyślam się jest prawdą i zapewne szeroko znanym faktem, to że \det C=\det A\cdot \det B.

Dobrze myślę?
Góra
Mężczyzna
PostNapisane: 15 sie 2019, o 00:16 
Moderator
Avatar użytkownika

Posty: 8453
Lokalizacja: Wrocław
Tak.

Warto nieco uogólnić: załóżmy, że U, V są przestrzeniami liniowymi skończonego wymiaru nad ciałem K (na przykład K = \RR jeśli nie czujesz dowolnych ciał). Przypomnę, że sumę prostą U \oplus V definiujemy formalnie jako U \times V z działaniami

(u, v) + (u', v') = (u+u', v+v'), \qquad \qquad \alpha \cdot (u, v) = (\alpha u, \alpha v)

czyli tak żeby \RR^k \oplus \RR^l \cong \RR^{k+l}. ;)

Zwyczajowo zamiast (u, v) pisze się u+v, ale dla podkreślenia różnicy między tym plusem a dodawaniem (choć jest ona nieduża) ja będę pisać u \oplus v.

Załóżmy, że f : U \to U i g : V \to V są liniowe. Wtedy można naturalnie zdefiniować złożenie - takie jak u Ciebie - f \oplus g : U \oplus V \to U \oplus V jako

(f \oplus g)(u \oplus v) = f(u) \oplus g(v).

Jeśli teraz ustalimy dowolne bazy: \mathcal{B} = (b_1, \ldots, b_k) przestrzeni U i \mathcal{C} = (c_1, \ldots, c_l) przestrzeni V, to \mathcal{D} = (b_1, \ldots, b_k, c_1, \ldots, c_l) jest bazą U \oplus V i

m_{\mathcal{D}}(f \oplus g) = \begin{pmatrix} m_{\mathcal{B}}(f) & \mathbf{0} \\ \mathbf{0} & m_{\mathcal{C}}(g) \end{pmatrix}.


À propos drugiej części: chcemy pokazać, że

\det \begin{pmatrix} 
a_{11} & \ldots & a_{1k} & 0 & \ldots & 0 \\ 
\vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\
a_{k1} & \ldots & a_{kk}  & 0 & \ldots & 0 \\ 
0 & \ldots & 0 & b_{11} & \ldots & b_{1l} \\
\vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\
0 & \ldots & 0 & b_{l1} & \ldots & b_{ll}
\end{pmatrix} = \det \begin{pmatrix}
a_{11} & \ldots & a_{1k} \\ 
\vdots & \ddots & \vdots \\
a_{k1} & \ldots & a_{kk} 
\end{pmatrix} \cdot \, \det \begin{pmatrix}
b_{11} & \ldots & b_{1l} \\
\vdots & \ddots & \vdots \\
b_{l1} & \ldots & b_{ll}
\end{pmatrix}.

Jeśli bowiem opisana przez Ciebie macierz jest macierzą w bazie (e_1, \ldots, e_{k+l}), to w bazie ( e_i : i \in I ) ^\frown ( e_j : j \in J ) macierz tego samego przekształcenia będzie wyglądała tak jak po lewej stronie powyższej tożsamości. Innymi słowy: macierz, którą opisujesz, można sprowadzić do macierzy takiej jak powyżej, traktując jednocześnie jej kolumny i wiersze permutacją \pi^{-1}, gdzie

\pi = \begin{pmatrix} 1 & \ldots & k & k+1 & \ldots & k+l \\ i_1 & \ldots & i_k & j_1 & \ldots & j_l \end{pmatrix}

oraz I = \{ i_1, \ldots, i_k \} i J = \{ j_1, \ldots, j_l \} a ponadto i_1 < \ldots < i_k i j_1 < \ldots < j_l.

Teza jest prawdziwa nawet wtedy, gdy tylko w jednym z rogów są zera. Ja udowodnię powyższe korzystając tylko z zer w prawym górnym rogu, a tezę w drugim przypadku można otrzymać przez symetryczne rozumowanie (albo transponując macierz).

Oznaczmy wyrazy macierzy po lewej stronie przez c_{ij}, gdzie 1 \le i, j \le n=k+l. Z definicji:

\det \begin{pmatrix}
c_{11} & \ldots & c_{1n} \\ 
\vdots & \ddots & \vdots \\
c_{n1} & \ldots & c_{nn} 
\end{pmatrix} = \sum_{\sigma \in S_n} \mathrm{sgn}(\sigma) \prod_{i=1}^n c_{i \sigma(i)}.

Niech D oznacza zbiór takich permutacji \sigma \in S_n, że \sigma \big[ \{ 1, \ldots, k \} \big] = \{ 1, \ldots, k \} (zatem siłą rzeczy również \sigma \big[ \{ k+1, \ldots, k+l \} \big] = \{ k+1, \ldots, k+l \}). Zauważmy, że dla każdej permutacji \sigma \in S_n \setminus D istnieje 1 \le i_0 \le k takie, że \sigma(i_0) > k, a wtedy

\prod_{i=1}^n c_{i \sigma(i)} = 0,

bo c_{i_0 \sigma(i_0)} leży w prawym górnym rogu macierzy, a tam są zera. Zatem w istocie

\det \begin{pmatrix}
c_{11} & \ldots & c_{1n} \\ 
\vdots & \ddots & \vdots \\
c_{n1} & \ldots & c_{nn} 
\end{pmatrix} = \sum_{\sigma \in D} \mathrm{sgn}(\sigma) \prod_{i=1}^n c_{i \sigma(i)}.

Zauważmy, że każda permutacja \sigma \in D odpowiada wzajemnie jednoznacznie parze permutacji (\tau, \eta) \in S_k \times S_l, takiej że

\sigma(i) = \begin{cases} \tau(i) & \text{dla } 1 \le i \le k \\ k+\eta(i-k) & \text{dla } k+1 \le i \le k+l \end{cases}

Co więcej: nietrudno sprawdzić, że \mathrm{sgn}(\sigma) = \mathrm{sgn}(\tau) \, \mathrm{sgn}(\eta). Stąd

$ \begin{align*}
\sum_{\sigma \in D} \mathrm{sgn}(\sigma) \prod_{i=1}^n c_{i \sigma(i)} & = \sum_{(\tau, \eta) \in S_k \times S_l} \mathrm{sgn}(\tau) \, \mathrm{sgn}(\eta) \left( \prod_{i=1}^k a_{i \tau(i)} \cdot \prod_{j=1}^l b_{j \eta(j)} \right) \\
& = \left( \sum_{\tau \in S_k} \mathrm{sgn}(\tau) \prod_{i=1}^k a_{i \tau(i)} \right) \cdot \left( \sum_{\eta \in S_l} \mathrm{sgn}(\eta) \prod_{j=1}^l b_{j \eta(j)} \right)
\end{align*} $

a ostatnie wyrażenie równa się prawej stronie dowodzonej tożsamości wprost z definicji.
Góra
Utwórz nowy temat Odpowiedz w temacie  [ Posty: 8 ] 


 Zobacz podobne tematy
 Tytuł tematu   Autor   Odpowiedzi 
 Wykazać równość macierzy  lina0591  1
 Udowodnić równość znając przekształcenia liniowe  konstanty03  1
 Metoda wyznaczników dla 3 zmiennych  kubajunior  1
 równość macierzy  darek20  1
 Układy równań, metoda wyznaczników.  Marcinek665  1
 
Atom [Regulamin Forum] [Instrukcja LaTeX-a] [Poradnik] [F.A.Q.] [Reklama] [Kontakt]
Copyright (C) Karpatka.pl