Liniowa zależność wektorów
-
- Użytkownik
- Posty: 490
- Rejestracja: 11 sty 2011, o 19:54
- Płeć: Mężczyzna
- Podziękował: 261 razy
- Pomógł: 7 razy
Liniowa zależność wektorów
Witam,
definicja liniowej zależności wektorów mówi: Zbiór wektorów `X_1, X_2, ..., X_n` jest liniowo zależny jeśli współczynniki `a_1, a_2, ..., a_n` wśród których przynajmniej jeden nie jest zerowy istnieją i mamy:
`a_1X_1 + a_2 X_2 + ... + a_n X_n = 0`
Niby wszystko oczywiste ale mam kilka problemów, po pierwsze wektor zerowy z współczynnikiem różnym od zera -> \(\displaystyle{ 1 \cdot 0 = 0}\) mówi się, że jest to zbiór liniowo zależny podonie jak \(\displaystyle{ 0 \cdot X_1 + 0\cdot X_2 + 0\cdot X_3 + 1\cdot 0 = 0}\) (1) Tylko pytanie gdzie w \(\displaystyle{ 1 \cdot 0 = 0}\) jakaś zależność? Do tego w równaniu (1), gdyby pozostałe współczynniki nie były zerami to równość nie była by zachowana co łamie definicję "każdy zbiór zawierający wektor zerowy jest liniowo zależny" zgadza się?
definicja liniowej zależności wektorów mówi: Zbiór wektorów `X_1, X_2, ..., X_n` jest liniowo zależny jeśli współczynniki `a_1, a_2, ..., a_n` wśród których przynajmniej jeden nie jest zerowy istnieją i mamy:
`a_1X_1 + a_2 X_2 + ... + a_n X_n = 0`
Niby wszystko oczywiste ale mam kilka problemów, po pierwsze wektor zerowy z współczynnikiem różnym od zera -> \(\displaystyle{ 1 \cdot 0 = 0}\) mówi się, że jest to zbiór liniowo zależny podonie jak \(\displaystyle{ 0 \cdot X_1 + 0\cdot X_2 + 0\cdot X_3 + 1\cdot 0 = 0}\) (1) Tylko pytanie gdzie w \(\displaystyle{ 1 \cdot 0 = 0}\) jakaś zależność? Do tego w równaniu (1), gdyby pozostałe współczynniki nie były zerami to równość nie była by zachowana co łamie definicję "każdy zbiór zawierający wektor zerowy jest liniowo zależny" zgadza się?
-
- Użytkownik
- Posty: 609
- Rejestracja: 10 lis 2009, o 22:39
- Płeć: Mężczyzna
- Lokalizacja: Wrocław
- Pomógł: 135 razy
Re: Liniowa zależność wektorów
1. Nie "zbiór wektorów \(\displaystyle{ X_1,\dots,X_n}\)", lecz "układ wektorów \(\displaystyle{ X_1,\dots,X_n}\)" ("układ", tzn. "ciąg", ewentualnie "lista"). W ogóle \(\displaystyle{ X_1,\dots,X_n}\) w ścisłym sensie to nie jest zbiór. W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny. Zbiór to np. \(\displaystyle{ \{ X_1,\dots,X_n\}}\). I definiuje się, że zbiór wektorów jest liniowo niezależny, gdy każdy skończony układ wektorów z tego zbioru (parami różnych!) jest liniowo niezależny.
2. Masz problem z tym, że wektor zerowy jest liniowo zależny, ale przecież tak jest, bo spełniona jest definicja. Być może ta definicja w tym przypadku kłóci się z Twoją intuicją, ale przecież również w fizyce czasami pojęcia i twierdzenia są nieintuicyjne (w powierzchownym, naiwnym sensie). Intuicja czasami zawodzi, a z drugiej strony cała matematyka jest w jakimś stopniu konwencją. To, że wektor zerowy jest liniowo zależny, pasuje dobrze do dalszej definicji bazy przestrzeni liniowej i jej wymiaru. Dlatego przestrzeń zerowa ma wymiar zero, prosta rzeczywista wymiar jeden, płaszczyzna wymiar dwa itd.
Przynajmniej tu liniowa zależność wektora zerowego wynika wprost z definicji. A np. to, że \(\displaystyle{ 0!=1}\) jest dużo bardziej kwestią umowy, nie wynika z podstawowego wzoru na silnię (choć jest jednak uzasadnione).
2. Masz problem z tym, że wektor zerowy jest liniowo zależny, ale przecież tak jest, bo spełniona jest definicja. Być może ta definicja w tym przypadku kłóci się z Twoją intuicją, ale przecież również w fizyce czasami pojęcia i twierdzenia są nieintuicyjne (w powierzchownym, naiwnym sensie). Intuicja czasami zawodzi, a z drugiej strony cała matematyka jest w jakimś stopniu konwencją. To, że wektor zerowy jest liniowo zależny, pasuje dobrze do dalszej definicji bazy przestrzeni liniowej i jej wymiaru. Dlatego przestrzeń zerowa ma wymiar zero, prosta rzeczywista wymiar jeden, płaszczyzna wymiar dwa itd.
Przynajmniej tu liniowa zależność wektora zerowego wynika wprost z definicji. A np. to, że \(\displaystyle{ 0!=1}\) jest dużo bardziej kwestią umowy, nie wynika z podstawowego wzoru na silnię (choć jest jednak uzasadnione).
-
- Użytkownik
- Posty: 490
- Rejestracja: 11 sty 2011, o 19:54
- Płeć: Mężczyzna
- Podziękował: 261 razy
- Pomógł: 7 razy
Re: Liniowa zależność wektorów
W definicji którą można znaleźć np. tutaj
Kod: Zaznacz cały
https://en.wikipedia.org/wiki/Linear_independence
Hmm, a masz jakiś dowód na to? Nie znalazłem takiej definicji nigdzie.
Częściowo kupuję te argumentację ale wciąz mam problem z tym przykładem \(\displaystyle{ \displaystyle{ 1\cdot X_1 + 1\cdot X_2 + 0\cdot X_3 + 1\cdot 0 = 0}}\) jest to równanie które zawiera w sobie wektor zerowy (ostatni wyraz po stronie lewej), nie wszystkie współczynniki są równe 0 więc teretycznie powinno spełaniać definicję, która mówi o tym iż kazdy zbiór zawierający wektor 0 jest liniowo zalezny - takie stwierdzenie znajduję np. tutaj . Ale przecież te wktory które mają współczynniki nie zerowe nie muszę się sumować do zera tak więc `L \ne R` czyli lewa stronie nie bedzie równa prawej. Zgadza się?krl pisze: ↑18 lis 2020, o 06:46 2. Masz problem z tym, że wektor zerowy jest liniowo zależny, ale przecież tak jest, bo spełniona jest definicja. Być może ta definicja w tym przypadku kłóci się z Twoją intuicją, ale przecież również w fizyce czasami pojęcia i twierdzenia są nieintuicyjne (w powierzchownym, naiwnym sensie). Intuicja czasami zawodzi, a z drugiej strony cała matematyka jest w jakimś stopniu konwencją. To, że wektor zerowy jest liniowo zależny, pasuje dobrze do dalszej definicji bazy przestrzeni liniowej i jej wymiaru. Dlatego przestrzeń zerowa ma wymiar zero, prosta rzeczywista wymiar jeden, płaszczyzna wymiar dwa itd.
Przynajmniej tu liniowa zależność wektora zerowego wynika wprost z definicji. A np. to, że \(\displaystyle{ 0!=1}\) jest dużo bardziej kwestią umowy, nie wynika z podstawowego wzoru na silnię (choć jest jednak uzasadnione).
Jeszcze prostrzy przyklad \(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) -> \(\displaystyle{ [2,4] = k[1,3]}\) co jest oczysiwta nieprawa, czyli zbiór zawiera wektor zerowy ale jak pokaząłem nie jest liniowo zalezny, bo nie ma takiego `k` które pomnożone przez `[1,3]` da `[2,4]`
-
- Użytkownik
- Posty: 609
- Rejestracja: 10 lis 2009, o 22:39
- Płeć: Mężczyzna
- Lokalizacja: Wrocław
- Pomógł: 135 razy
Re: Liniowa zależność wektorów
Nie zrozumiałeś tego, co napisałem. Chodzi o to, że zapis: \(\displaystyle{ X_1,\dots,X_n}\) nie oznacza zbioru wektorów, lecz listę, układ, ciąg wektorów. W definicji z wkipedii, którą cytujesz, mowa jest natomiast o tym, kiedy zbiór wektorów jest liniowo zależny (więc i o tym, kiedy jest on liniowo niezależny). Dalej zresztą w podanym przez Ciebie linku w wikipedii podane jest też, kiedy układ (ciąg) wektorów jest liniowo niezależny, która to definicja w szczególnym przypadku daje, że jeśli w ciągu wektorów jakiś wektor się powtarza przynajmniej 2 razy, to ten ciąg wektorów jest liniowo zależny.Mondo pisze: ↑19 lis 2020, o 14:32W definicji którą można znaleźć np. tutajwyraznie mowa jest o zbiorze ang. "set" -> "a set of vectors is said to be linearly dependent if at least one..."Kod: Zaznacz cały
https://en.wikipedia.org/wiki/Linear_independence
Dodam, że ja też w dalszej części swojego postu powyżej definiuję, co to znaczy, że zbiór wektorów jest liniowo zależny/niezależny. Wskazana przez Ciebie definicja liniowo zależnego zbioru wektorów w linku w wikipedii jest niepoprawna (niedokładna), niezgodna z pełnym rozwinięciem tematu w dalszej części artykułu w wikipedii.
W tym zdaniu nie podaję definicji, tylko konsekwencję definicji. Definicji liniowej niezależności układu wektorów podanej przez Ciebie.
Przyjrzyjmy się drugiemu przykładowi:Mondo pisze: Częściowo kupuję te argumentację ale wciąz mam problem z tym przykładem \(\displaystyle{ \displaystyle{ 1\cdot X_1 + 1\cdot X_2 + 0\cdot X_3 + 1\cdot 0 = 0}}\) jest to równanie które zawiera w sobie wektor zerowy (ostatni wyraz po stronie lewej), nie wszystkie współczynniki są równe 0 więc teretycznie powinno spełaniać definicję, która mówi o tym iż kazdy zbiór zawierający wektor 0 jest liniowo zalezny - takie stwierdzenie znajduję np. tutaj . Ale przecież te wktory które mają współczynniki nie zerowe nie muszę się sumować do zera tak więc `L \ne R` czyli lewa stronie nie bedzie równa prawej. Zgadza się?
Jeszcze prostrzy przyklad \(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) -> \(\displaystyle{ [2,4] = k[1,3]}\) co jest oczysiwta nieprawa, czyli zbiór zawiera wektor zerowy ale jak pokaząłem nie jest liniowo zalezny, bo nie ma takiego `k` które pomnożone przez `[1,3]` da `[2,4]`
\(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) -> \(\displaystyle{ [2,4] = k[1,3]}\)
Ten zapis jest bez sensu, gdyż nie wiadomo, czym jest \(\displaystyle{ k}\). Ponadto nie jest prawdą, że \(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) (więc implikacja jest prawdziwa dla każdego \(\displaystyle{ k}\)). Naucz się wyrażać jasno.
Ale spróbujmy domyślić się, o co tu może chodzić:
Mamy oczywiście: \(\displaystyle{ 0\cdot[2,4] + 0\cdot[1,3] + 1\cdot[0,0] = 0}\), wiec zgodnie z definicją układ wektorów: \(\displaystyle{ [2,4],[1,3], [0,0] }\) jest liniowo zależny, podobnie jak zbiór wektorów \(\displaystyle{ \{[2,4],[1,3],[0,0]\}}\). Oczywiście, wektor \(\displaystyle{ [2,4]}\) nie jest liniową kombinacją wektora \(\displaystyle{ [1,3]}\), nie przeczy to w żaden sposób temu, że zbiór wektorów \(\displaystyle{ \{[2,4],[1,3],[0,0]\}}\) jest liniowo zależny.
Jeszcze raz podkreślę: "definicja" ze wstępu do artykułu w wikipedii:
"a set of vectors is said to be linearly dependent if at least one of the vectors in the set can be defined as a linear combination of the others"
jest literalnie fałszywa, gdyż nie stosuje się do liniowo zależnego zbioru złożonego wyłącznie z wektora zerowego. Chyba że przyjmiemy konwencję, ze wektor zerowy jest "pustą liniową kombinacją zerowej liczby wektorów".
-
- Użytkownik
- Posty: 490
- Rejestracja: 11 sty 2011, o 19:54
- Płeć: Mężczyzna
- Podziękował: 261 razy
- Pomógł: 7 razy
Re: Liniowa zależność wektorów
Nieprawdziwa raczej. Ale ok rozumie, faktycznie to nie jest najlepszy przykładkrl pisze: ↑19 lis 2020, o 18:16Przyjrzyjmy się drugiemu przykładowi:Mondo pisze: Częściowo kupuję te argumentację ale wciąz mam problem z tym przykładem \(\displaystyle{ \displaystyle{ 1\cdot X_1 + 1\cdot X_2 + 0\cdot X_3 + 1\cdot 0 = 0}}\) jest to równanie które zawiera w sobie wektor zerowy (ostatni wyraz po stronie lewej), nie wszystkie współczynniki są równe 0 więc teretycznie powinno spełaniać definicję, która mówi o tym iż kazdy zbiór zawierający wektor 0 jest liniowo zalezny - takie stwierdzenie znajduję np. tutaj . Ale przecież te wktory które mają współczynniki nie zerowe nie muszę się sumować do zera tak więc `L \ne R` czyli lewa stronie nie bedzie równa prawej. Zgadza się?
Jeszcze prostrzy przyklad \(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) -> \(\displaystyle{ [2,4] = k[1,3]}\) co jest oczysiwta nieprawa, czyli zbiór zawiera wektor zerowy ale jak pokaząłem nie jest liniowo zalezny, bo nie ma takiego `k` które pomnożone przez `[1,3]` da `[2,4]`
\(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) -> \(\displaystyle{ [2,4] = k[1,3]}\)
Ten zapis jest bez sensu, gdyż nie wiadomo, czym jest \(\displaystyle{ k}\). Ponadto nie jest prawdą, że \(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) (więc implikacja jest prawdziwa dla każdego \(\displaystyle{ k}\)). Naucz się wyrażać jasno.
No zgadzam się, ale chciałbym jeszcze dopytać o to:krl pisze: ↑19 lis 2020, o 18:16
Ale spróbujmy domyślić się, o co tu może chodzić:
Mamy oczywiście: \(\displaystyle{ 0\cdot[2,4] + 0\cdot[1,3] + 1\cdot[0,0] = 0}\), wiec zgodnie z definicją układ wektorów: \(\displaystyle{ [2,4],[1,3], [0,0] }\) jest liniowo zależny, podobnie jak zbiór wektorów \(\displaystyle{ \{[2,4],[1,3],[0,0]\}}\). Oczywiście, wektor \(\displaystyle{ [2,4]}\) nie jest liniową kombinacją wektora \(\displaystyle{ [1,3]}\), nie przeczy to w żaden sposób temu, że zbiór wektorów \(\displaystyle{ \{[2,4],[1,3],[0,0]\}}\) jest liniowo zależny.
Jeszcze raz podkreślę: "definicja" ze wstępu do artykułu w wikipedii:
"a set of vectors is said to be linearly dependent if at least one of the vectors in the set can be defined as a linear combination of the others"
jest literalnie fałszywa, gdyż nie stosuje się do liniowo zależnego zbioru złożonego wyłącznie z wektora zerowego. Chyba że przyjmiemy konwencję, ze wektor zerowy jest "pustą liniową kombinacją zerowej liczby wektorów".
Czy tutaj nie chodziło Ci właśnie o to, że jesli wektory są liniowo zależne to istnieje w śród nich taki, kóry można wyrazić na pomocą pozostałych, a nie taki który się powtarza?W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny.
-
- Użytkownik
- Posty: 609
- Rejestracja: 10 lis 2009, o 22:39
- Płeć: Mężczyzna
- Lokalizacja: Wrocław
- Pomógł: 135 razy
Re: Liniowa zależność wektorów
Prawdziwa. Nie rozumiesz. Implikacja, w której poprzednik jest fałszywy, jest prawdziwa.Mondo pisze: ↑20 lis 2020, o 13:29Nieprawdziwa raczej. Ale ok rozumie, faktycznie to nie jest najlepszy przykładkrl pisze: ↑19 lis 2020, o 18:16
Przyjrzyjmy się drugiemu przykładowi:
\(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) -> \(\displaystyle{ [2,4] = k[1,3]}\)
Ten zapis jest bez sensu, gdyż nie wiadomo, czym jest \(\displaystyle{ k}\). Ponadto nie jest prawdą, że \(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) (więc implikacja jest prawdziwa dla każdego \(\displaystyle{ k}\)). Naucz się wyrażać jasno.
Nie.mondo pisze: No zgadzam się, ale chciałbym jeszcze dopytać o to:Czy tutaj nie chodziło Ci właśnie o to, że jesli wektory są liniowo zależne to istnieje w śród nich taki, kóry można wyrazić na pomocą pozostałych, a nie taki który się powtarza?W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny.
-
- Użytkownik
- Posty: 490
- Rejestracja: 11 sty 2011, o 19:54
- Płeć: Mężczyzna
- Podziękował: 261 razy
- Pomógł: 7 razy
Re: Liniowa zależność wektorów
No to wezmy przykład `a_1[1,0] + a_2[1,0] + a_3[0,1] = 0 ` -> równani ma tylko jedno "trywialne" rozwiązanie `a_1 = a_2 = a_3 = 0` co dowodzi, że ten zbiór wektorów nie jest liniowo niezależny. ALe uwaga, przecież mamy w nim dwa razy wektor `[1,0]` więc zgodnie z tym co napisałeśkrl pisze:Nie.mondo pisze: No zgadzam się, ale chciałbym jeszcze dopytać o to:Czy tutaj nie chodziło Ci właśnie o to, że jesli wektory są liniowo zależne to istnieje w śród nich taki, kóry można wyrazić na pomocą pozostałych, a nie taki który się powtarza?W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny.
Zbiór powinien być liniowo zależny?W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny.
-
- Administrator
- Posty: 34240
- Rejestracja: 20 mar 2006, o 21:54
- Płeć: Mężczyzna
- Lokalizacja: Wrocław
- Podziękował: 3 razy
- Pomógł: 5203 razy
-
- Użytkownik
- Posty: 22207
- Rejestracja: 15 maja 2011, o 20:55
- Płeć: Mężczyzna
- Lokalizacja: Bydgoszcz
- Podziękował: 38 razy
- Pomógł: 3754 razy
Re: Liniowa zależność wektorów
Czy ty w ogóle cokolwiek policzyłęś, czy tylko obracasz się w świecie abstrakcji,, bez żadnych intuicji?Mondo pisze: ↑20 lis 2020, o 14:22
No to wezmy przykład `a_1[1,0] + a_2[1,0] + a_3[0,1] = 0 ` -> równani ma tylko jedno "trywialne" rozwiązanie `a_1 = a_2 = a_3 = 0` co dowodzi, że ten zbiór wektorów nie jest liniowo niezależny. ALe uwaga, przecież mamy w nim dwa razy wektor `[1,0]` więc zgodnie z tym co napisałeśZbiór powinien być liniowo zależny?W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny.
`a_1=1, a_2=-1, a_3=0` jest niezerowym rozwiązaniem rego równania, co dowodzi, że układ ten jest zależny. Natomiast zbiór \(\displaystyle{ \{[1,0],[1,0],[0,1]\}=\{[1,0],[0,1]\}}\) jest zbiorem liniowo niezależnym.
Ten pierwszy przykład pokazuje, że układ w którym dwa wektory sa takie same nie może być niezależny
-
- Użytkownik
- Posty: 490
- Rejestracja: 11 sty 2011, o 19:54
- Płeć: Mężczyzna
- Podziękował: 261 razy
- Pomógł: 7 razy
Re: Liniowa zależność wektorów
Faktycznie pomyliłem się i równanie z tego przykładu ma także nietrywialne rozwiązanie które podałeś (podobnie jak @Jan Kraszewski post wyżej) co wedle definicji pokazuje ze jest to równanie liniowo zależne. Piszesz o intuicji no właśnie to jest tutaj największy problem, żeby zrozumieć te definicję intuicyjnie - najprościej było by mysleć o tym w sposób o którym już pisałem czyli "równanie jest liniowo zależne jesli dowolny jego element można wyrazić jako liniową kombinację pozostałych " tylko to się łamie kiedy mamy tylko i wyłącznie zerowo wektor jak tutaj `1*[0,0] = [0,0]` zgodnie z definicją jest to układ liniowo zależny ale cięzko tutaj mówić o wyrażaniu wektora `[0,0]` za pomocą czegoś innego bo tego czegoś innego po prostu nie ma.a4karo pisze: ↑20 lis 2020, o 16:11Czy ty w ogóle cokolwiek policzyłęś, czy tylko obracasz się w świecie abstrakcji,, bez żadnych intuicji?Mondo pisze: ↑20 lis 2020, o 14:22
No to wezmy przykład `a_1[1,0] + a_2[1,0] + a_3[0,1] = 0 ` -> równani ma tylko jedno "trywialne" rozwiązanie `a_1 = a_2 = a_3 = 0` co dowodzi, że ten zbiór wektorów nie jest liniowo niezależny. ALe uwaga, przecież mamy w nim dwa razy wektor `[1,0]` więc zgodnie z tym co napisałeśZbiór powinien być liniowo zależny?W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny.
`a_1=1, a_2=-1, a_3=0` jest niezerowym rozwiązaniem rego równania, co dowodzi, że układ ten jest zależny. Natomiast zbiór \(\displaystyle{ \{[1,0],[1,0],[0,1]\}=\{[1,0],[0,1]\}}\) jest zbiorem liniowo niezależnym.
Ten pierwszy przykład pokazuje, że układ w którym dwa wektory sa takie same nie może być niezależny
Tutaj też się zastanawiam, czy jest sens mówić o zależności na zbiorze? Na powyższym przykładzie akurat łatwo widać, że dwa wektory nie są zalezne (nie da się zapisać jednego za pomocą drugiego, chyba że oba będą miały współczynniki = 0) ale na duzym zbiorze, bez zapisu jakiejś relacji pomiędzy nimi nie masz szans zobaczyć czy są jakieś zalezności. Zgadza się?Natomiast zbiór \(\displaystyle{ \{[1,0],[1,0],[0,1]\}=\{[1,0],[0,1]\}}\) jest zbiorem liniowo niezależnym.
Ostatnio zmieniony 20 lis 2020, o 22:05 przez Jan Kraszewski, łącznie zmieniany 1 raz.
Powód: Poprawa wiadomości: nietrywialne.
Powód: Poprawa wiadomości: nietrywialne.
-
- Użytkownik
- Posty: 22207
- Rejestracja: 15 maja 2011, o 20:55
- Płeć: Mężczyzna
- Lokalizacja: Bydgoszcz
- Podziękował: 38 razy
- Pomógł: 3754 razy
Re: Liniowa zależność wektorów
Przede wszystkim nie "równanie liniowo zależne" tylko układ.Mondo pisze: ↑20 lis 2020, o 22:01 Piszesz o intuicji no właśnie to jest tutaj największy problem, żeby zrozumieć te definicję intuicyjnie - najprościej było by mysleć o tym w sposób o którym już pisałem czyli "równanie jest liniowo zależne jesli dowolny jego element można wyrazić jako liniową kombinację pozostałych " tylko to się łamie kiedy mamy tylko i wyłącznie zerowo wektor jak tutaj `1*[0,0] = [0,0]` zgodnie z definicją jest to układ liniowo zależny ale cięzko tutaj mówić o wyrażaniu wektora `[0,0]` za pomocą czegoś innego bo tego czegoś innego po prostu nie ma.
Po drugie: o tym właśnie pisał wcześniej krl: Twoja definicja, że układ jest liniowo zależny gdy uda się jego element wyrazić jako kombinacja innych sypie się gdy mamy do czynienie z układem złożonym z jednego, zerowego elementu.
A definicja: układ \(\displaystyle{ w_1,\ldots, w_n}\) jest liniowo niezależny wtedy i tylko wtedy, gdy z równości \(\displaystyle{ a_1w_1+\dots+a_nw_n=0}\) wynika ,że \(\displaystyle{ a_1=a_2=\dots=a_n=0}\) nie ma tej ułomności. (Gdy już zdecydujesz się coś policzyć, to zobaczysz jak z tej wynika Twoja)
Nie zgadza się. Sprawdzenie niezależności układu wektorów sprowadza się do rozwiązania układu równań liniowych (albo nawet mniej: do policzenia rzędu pewnej macierzy). Ta teoria została rozpracowana jakieś dwieście lat temu.Tutaj też się zastanawiam, czy jest sens mówić o zależności na zbiorze? Na powyższym przykładzie akurat łatwo widać, że dwa wektory nie są zalezne (nie da się zapisać jednego za pomocą drugiego, chyba że oba będą miały współczynniki = 0) ale na duzym zbiorze, bez zapisu jakiejś relacji pomiędzy nimi nie masz szans zobaczyć czy są jakieś zalezności. Zgadza się?Natomiast zbiór \(\displaystyle{ \{[1,0],[1,0],[0,1]\}=\{[1,0],[0,1]\}}\) jest zbiorem liniowo niezależnym.
Ostatnio zmieniony 20 lis 2020, o 23:07 przez Jan Kraszewski, łącznie zmieniany 1 raz.
Powód: Poprawa wiadomości.
Powód: Poprawa wiadomości.
-
- Użytkownik
- Posty: 490
- Rejestracja: 11 sty 2011, o 19:54
- Płeć: Mężczyzna
- Podziękował: 261 razy
- Pomógł: 7 razy
Re: Liniowa zależność wektorów
Tak, dzieki że zwracasz uwagę na błędne sformułowania - mówimy tutaj o zalezności lub jej braku elementów (w tym przypadku wektorów) a nie całych równań czy czegokolwiek innego. Wydaje mi się, że pisałem o równaniu jako całości bo gdzieś podświadomie wiem, że współczynniki przy wektorach również grają rolę.a4karo pisze: ↑20 lis 2020, o 22:57 A definicja: układ \(\displaystyle{ w_1,\ldots, w_n}\) jest liniowo niezależny wtedy i tylko wtedy, gdy z równości \(\displaystyle{ a_1w_1+\dots+a_nw_n=0}\) wynika ,że \(\displaystyle{ a_1=a_2=\dots=a_n=0}\) nie ma tej ułomności. (Gdy już zdecydujesz się coś policzyć, to zobaczysz jak z tej wynika Twoja)
Mondo pisze: Tutaj też się zastanawiam, czy jest sens mówić o zależności na zbiorze? Na powyższym przykładzie akurat łatwo widać, że dwa wektory nie są zalezne (nie da się zapisać jednego za pomocą drugiego, chyba że oba będą miały współczynniki = 0) ale na duzym zbiorze, bez zapisu jakiejś relacji pomiędzy nimi nie masz szans zobaczyć czy są jakieś zalezności. Zgadza się?
Czyli to co ja napisałem
Podałeś razem z krl też ładnie różnicę pomiędzy układem, a zbiorem wektorów, ale w świetle tego definicja podana w książce którą czytam jest nieprawdziwa. Słowo "set" należało by zastąpić raczej "sequence", chociaż z drugiej strony `X_1, X_2, ..., X_n ` wskazuje na unikalnośc tych wektorów a wtedy definicja jest OK.bez zapisu jakiejś relacji pomiędzy nimi nie masz szans zobaczyć czy są jakieś zalezności
-
- Użytkownik
- Posty: 22207
- Rejestracja: 15 maja 2011, o 20:55
- Płeć: Mężczyzna
- Lokalizacja: Bydgoszcz
- Podziękował: 38 razy
- Pomógł: 3754 razy
Re: Liniowa zależność wektorów
W angielskim słowo "set" ma wiele znaczeń (podobnie jak w polskim).. To zbiór, zestaw, komplet... Gdyby autor książki chciał użyć tego słowa w sensie teoriomnogościowym, to napisałby "The set of vectors \(\displaystyle{ \{X_1,...,X_n\}}\)"
-
- Użytkownik
- Posty: 490
- Rejestracja: 11 sty 2011, o 19:54
- Płeć: Mężczyzna
- Podziękował: 261 razy
- Pomógł: 7 razy
Re: Liniowa zależność wektorów
a4karo, poszedłem dalej w moim studium algreby liniowej i natknałem się na teorię która mówi "`n+1` wektorów o wymiarze `n` jest zawsze liniwo zależna" i dowód przedstawia się następująco:
Niech `u_i = [u_{i1}, ..., u_{i,n}]` `(i = 1,..,n+1)` jeśli poszerzymy wymiar każdego z wektorów tak, że ostatni element będzie równy `0` to mamy `n+1` wektorów o wymiarze `n+1` liniowo zależnych na podtstawie faktu iż każdy układ wektorów który zawiera wektor zerowy jest liniowo zależny. I ta część powidzmy, że jest dla mnie jasna.
Natomiast idac dalej dowód mówi - jeśli teraz ograniczymy ilośc elementów z `n+1` do `n` (czyli znika nam ten ostatni zerowy element) to otrzymujemy `\lambda_1 u_{1i} + ... + \lambda_{n+1} u_{n+1,i} = 0` `(i = 1, ..., n)` co pokazuje, że `n+1` wektorów o wymiarze n jest zawsze liniowo zaleznych.
I tego właśnie nie widzę, bo w powyższym równaniu w jaki sposób zagwarantujemy, że nie wszystkie `\lambda` są zerami? Wygląda to tak jaby to twierdzenie zakładało, że ten dodatkowy `n+1` wiersz jest zerowy czyli `\lambda_{n+1} u_{n+1,i} = 0` `(i = 1, ..., n)`.
Do tego twierdzenie jest także wniosek, który mówi "Układ `n` jednorodnych równań o `n+1` niewiadomych zawsze ma nietrywialne rozwiązanie" i tutaj z kolei jako dowód podaje się `a_1X_1 + ... + a_{n+1}X_{n+1} = 0` jest spełniowy gdy istnieją `X_i` \(\displaystyle{ (i = 1, ..., n+1)}\) nie wszystkie zerami i takie `X` gwarantuje właśnie powyższa teoria.
Jak to rozumieć? Dziekuję.
Niech `u_i = [u_{i1}, ..., u_{i,n}]` `(i = 1,..,n+1)` jeśli poszerzymy wymiar każdego z wektorów tak, że ostatni element będzie równy `0` to mamy `n+1` wektorów o wymiarze `n+1` liniowo zależnych na podtstawie faktu iż każdy układ wektorów który zawiera wektor zerowy jest liniowo zależny. I ta część powidzmy, że jest dla mnie jasna.
Natomiast idac dalej dowód mówi - jeśli teraz ograniczymy ilośc elementów z `n+1` do `n` (czyli znika nam ten ostatni zerowy element) to otrzymujemy `\lambda_1 u_{1i} + ... + \lambda_{n+1} u_{n+1,i} = 0` `(i = 1, ..., n)` co pokazuje, że `n+1` wektorów o wymiarze n jest zawsze liniowo zaleznych.
I tego właśnie nie widzę, bo w powyższym równaniu w jaki sposób zagwarantujemy, że nie wszystkie `\lambda` są zerami? Wygląda to tak jaby to twierdzenie zakładało, że ten dodatkowy `n+1` wiersz jest zerowy czyli `\lambda_{n+1} u_{n+1,i} = 0` `(i = 1, ..., n)`.
Do tego twierdzenie jest także wniosek, który mówi "Układ `n` jednorodnych równań o `n+1` niewiadomych zawsze ma nietrywialne rozwiązanie" i tutaj z kolei jako dowód podaje się `a_1X_1 + ... + a_{n+1}X_{n+1} = 0` jest spełniowy gdy istnieją `X_i` \(\displaystyle{ (i = 1, ..., n+1)}\) nie wszystkie zerami i takie `X` gwarantuje właśnie powyższa teoria.
Jak to rozumieć? Dziekuję.
Ostatnio zmieniony 29 lis 2020, o 14:03 przez Jan Kraszewski, łącznie zmieniany 2 razy.
Powód: Poprawa wiadomości: nietrywialne.
Powód: Poprawa wiadomości: nietrywialne.