Liniowa zależność wektorów

Przestrzenie wektorowe, bazy, liniowa niezależność, macierze.... Formy kwadratowe, twierdzenia o klasyfikacji...
Mondo
Użytkownik
Użytkownik
Posty: 490
Rejestracja: 11 sty 2011, o 19:54
Płeć: Mężczyzna
Podziękował: 261 razy
Pomógł: 7 razy

Liniowa zależność wektorów

Post autor: Mondo »

Witam,

definicja liniowej zależności wektorów mówi: Zbiór wektorów `X_1, X_2, ..., X_n` jest liniowo zależny jeśli współczynniki `a_1, a_2, ..., a_n` wśród których przynajmniej jeden nie jest zerowy istnieją i mamy:
`a_1X_1 + a_2 X_2 + ... + a_n X_n = 0`
Niby wszystko oczywiste ale mam kilka problemów, po pierwsze wektor zerowy z współczynnikiem różnym od zera -> \(\displaystyle{ 1 \cdot 0 = 0}\) mówi się, że jest to zbiór liniowo zależny podonie jak \(\displaystyle{ 0 \cdot X_1 + 0\cdot X_2 + 0\cdot X_3 + 1\cdot 0 = 0}\) (1) Tylko pytanie gdzie w \(\displaystyle{ 1 \cdot 0 = 0}\) jakaś zależność? Do tego w równaniu (1), gdyby pozostałe współczynniki nie były zerami to równość nie była by zachowana co łamie definicję "każdy zbiór zawierający wektor zerowy jest liniowo zależny" zgadza się? :roll:
krl
Użytkownik
Użytkownik
Posty: 609
Rejestracja: 10 lis 2009, o 22:39
Płeć: Mężczyzna
Lokalizacja: Wrocław
Pomógł: 135 razy

Re: Liniowa zależność wektorów

Post autor: krl »

1. Nie "zbiór wektorów \(\displaystyle{ X_1,\dots,X_n}\)", lecz "układ wektorów \(\displaystyle{ X_1,\dots,X_n}\)" ("układ", tzn. "ciąg", ewentualnie "lista"). W ogóle \(\displaystyle{ X_1,\dots,X_n}\) w ścisłym sensie to nie jest zbiór. W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny. Zbiór to np. \(\displaystyle{ \{ X_1,\dots,X_n\}}\). I definiuje się, że zbiór wektorów jest liniowo niezależny, gdy każdy skończony układ wektorów z tego zbioru (parami różnych!) jest liniowo niezależny.
2. Masz problem z tym, że wektor zerowy jest liniowo zależny, ale przecież tak jest, bo spełniona jest definicja. Być może ta definicja w tym przypadku kłóci się z Twoją intuicją, ale przecież również w fizyce czasami pojęcia i twierdzenia są nieintuicyjne (w powierzchownym, naiwnym sensie). Intuicja czasami zawodzi, a z drugiej strony cała matematyka jest w jakimś stopniu konwencją. To, że wektor zerowy jest liniowo zależny, pasuje dobrze do dalszej definicji bazy przestrzeni liniowej i jej wymiaru. Dlatego przestrzeń zerowa ma wymiar zero, prosta rzeczywista wymiar jeden, płaszczyzna wymiar dwa itd.
Przynajmniej tu liniowa zależność wektora zerowego wynika wprost z definicji. A np. to, że \(\displaystyle{ 0!=1}\) jest dużo bardziej kwestią umowy, nie wynika z podstawowego wzoru na silnię (choć jest jednak uzasadnione).
Mondo
Użytkownik
Użytkownik
Posty: 490
Rejestracja: 11 sty 2011, o 19:54
Płeć: Mężczyzna
Podziękował: 261 razy
Pomógł: 7 razy

Re: Liniowa zależność wektorów

Post autor: Mondo »

krl pisze: 18 lis 2020, o 06:46 1. Nie "zbiór wektorów \(\displaystyle{ X_1,\dots,X_n}\)", lecz "układ wektorów \(\displaystyle{ X_1,\dots,X_n}\)"
W definicji którą można znaleźć np. tutaj

Kod: Zaznacz cały

https://en.wikipedia.org/wiki/Linear_independence
wyraznie mowa jest o zbiorze ang. "set" -> "a set of vectors is said to be linearly dependent if at least one..."
krl pisze: 18 lis 2020, o 06:46 W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny.
Hmm, a masz jakiś dowód na to? Nie znalazłem takiej definicji nigdzie.
krl pisze: 18 lis 2020, o 06:46 2. Masz problem z tym, że wektor zerowy jest liniowo zależny, ale przecież tak jest, bo spełniona jest definicja. Być może ta definicja w tym przypadku kłóci się z Twoją intuicją, ale przecież również w fizyce czasami pojęcia i twierdzenia są nieintuicyjne (w powierzchownym, naiwnym sensie). Intuicja czasami zawodzi, a z drugiej strony cała matematyka jest w jakimś stopniu konwencją. To, że wektor zerowy jest liniowo zależny, pasuje dobrze do dalszej definicji bazy przestrzeni liniowej i jej wymiaru. Dlatego przestrzeń zerowa ma wymiar zero, prosta rzeczywista wymiar jeden, płaszczyzna wymiar dwa itd.
Przynajmniej tu liniowa zależność wektora zerowego wynika wprost z definicji. A np. to, że \(\displaystyle{ 0!=1}\) jest dużo bardziej kwestią umowy, nie wynika z podstawowego wzoru na silnię (choć jest jednak uzasadnione).
Częściowo kupuję te argumentację ale wciąz mam problem z tym przykładem \(\displaystyle{ \displaystyle{ 1\cdot X_1 + 1\cdot X_2 + 0\cdot X_3 + 1\cdot 0 = 0}}\) jest to równanie które zawiera w sobie wektor zerowy (ostatni wyraz po stronie lewej), nie wszystkie współczynniki są równe 0 więc teretycznie powinno spełaniać definicję, która mówi o tym iż kazdy zbiór zawierający wektor 0 jest liniowo zalezny - takie stwierdzenie znajduję np. tutaj . Ale przecież te wktory które mają współczynniki nie zerowe nie muszę się sumować do zera tak więc `L \ne R` czyli lewa stronie nie bedzie równa prawej. Zgadza się?

Jeszcze prostrzy przyklad \(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) -> \(\displaystyle{ [2,4] = k[1,3]}\) co jest oczysiwta nieprawa, czyli zbiór zawiera wektor zerowy ale jak pokaząłem nie jest liniowo zalezny, bo nie ma takiego `k` które pomnożone przez `[1,3]` da `[2,4]`
krl
Użytkownik
Użytkownik
Posty: 609
Rejestracja: 10 lis 2009, o 22:39
Płeć: Mężczyzna
Lokalizacja: Wrocław
Pomógł: 135 razy

Re: Liniowa zależność wektorów

Post autor: krl »

Mondo pisze: 19 lis 2020, o 14:32
krl pisze: 18 lis 2020, o 06:46 1. Nie "zbiór wektorów \(\displaystyle{ X_1,\dots,X_n}\)", lecz "układ wektorów \(\displaystyle{ X_1,\dots,X_n}\)"
W definicji którą można znaleźć np. tutaj

Kod: Zaznacz cały

https://en.wikipedia.org/wiki/Linear_independence
wyraznie mowa jest o zbiorze ang. "set" -> "a set of vectors is said to be linearly dependent if at least one..."
Nie zrozumiałeś tego, co napisałem. Chodzi o to, że zapis: \(\displaystyle{ X_1,\dots,X_n}\) nie oznacza zbioru wektorów, lecz listę, układ, ciąg wektorów. W definicji z wkipedii, którą cytujesz, mowa jest natomiast o tym, kiedy zbiór wektorów jest liniowo zależny (więc i o tym, kiedy jest on liniowo niezależny). Dalej zresztą w podanym przez Ciebie linku w wikipedii podane jest też, kiedy układ (ciąg) wektorów jest liniowo niezależny, która to definicja w szczególnym przypadku daje, że jeśli w ciągu wektorów jakiś wektor się powtarza przynajmniej 2 razy, to ten ciąg wektorów jest liniowo zależny.
Dodam, że ja też w dalszej części swojego postu powyżej definiuję, co to znaczy, że zbiór wektorów jest liniowo zależny/niezależny. Wskazana przez Ciebie definicja liniowo zależnego zbioru wektorów w linku w wikipedii jest niepoprawna (niedokładna), niezgodna z pełnym rozwinięciem tematu w dalszej części artykułu w wikipedii.
Mondo pisze:
krl pisze: 18 lis 2020, o 06:46 W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten układ wektorów jest liniowo zależny.
Hmm, a masz jakiś dowód na to? Nie znalazłem takiej definicji nigdzie.
W tym zdaniu nie podaję definicji, tylko konsekwencję definicji. Definicji liniowej niezależności układu wektorów podanej przez Ciebie.
Mondo pisze: Częściowo kupuję te argumentację ale wciąz mam problem z tym przykładem \(\displaystyle{ \displaystyle{ 1\cdot X_1 + 1\cdot X_2 + 0\cdot X_3 + 1\cdot 0 = 0}}\) jest to równanie które zawiera w sobie wektor zerowy (ostatni wyraz po stronie lewej), nie wszystkie współczynniki są równe 0 więc teretycznie powinno spełaniać definicję, która mówi o tym iż kazdy zbiór zawierający wektor 0 jest liniowo zalezny - takie stwierdzenie znajduję np. tutaj . Ale przecież te wktory które mają współczynniki nie zerowe nie muszę się sumować do zera tak więc `L \ne R` czyli lewa stronie nie bedzie równa prawej. Zgadza się?

Jeszcze prostrzy przyklad \(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) -> \(\displaystyle{ [2,4] = k[1,3]}\) co jest oczysiwta nieprawa, czyli zbiór zawiera wektor zerowy ale jak pokaząłem nie jest liniowo zalezny, bo nie ma takiego `k` które pomnożone przez `[1,3]` da `[2,4]`
Przyjrzyjmy się drugiemu przykładowi:

\(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) -> \(\displaystyle{ [2,4] = k[1,3]}\)

Ten zapis jest bez sensu, gdyż nie wiadomo, czym jest \(\displaystyle{ k}\). Ponadto nie jest prawdą, że \(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) (więc implikacja jest prawdziwa dla każdego \(\displaystyle{ k}\)). Naucz się wyrażać jasno.

Ale spróbujmy domyślić się, o co tu może chodzić:

Mamy oczywiście: \(\displaystyle{ 0\cdot[2,4] + 0\cdot[1,3] + 1\cdot[0,0] = 0}\), wiec zgodnie z definicją układ wektorów: \(\displaystyle{ [2,4],[1,3], [0,0] }\) jest liniowo zależny, podobnie jak zbiór wektorów \(\displaystyle{ \{[2,4],[1,3],[0,0]\}}\). Oczywiście, wektor \(\displaystyle{ [2,4]}\) nie jest liniową kombinacją wektora \(\displaystyle{ [1,3]}\), nie przeczy to w żaden sposób temu, że zbiór wektorów \(\displaystyle{ \{[2,4],[1,3],[0,0]\}}\) jest liniowo zależny.
Jeszcze raz podkreślę: "definicja" ze wstępu do artykułu w wikipedii:

"a set of vectors is said to be linearly dependent if at least one of the vectors in the set can be defined as a linear combination of the others"

jest literalnie fałszywa, gdyż nie stosuje się do liniowo zależnego zbioru złożonego wyłącznie z wektora zerowego. Chyba że przyjmiemy konwencję, ze wektor zerowy jest "pustą liniową kombinacją zerowej liczby wektorów".
Mondo
Użytkownik
Użytkownik
Posty: 490
Rejestracja: 11 sty 2011, o 19:54
Płeć: Mężczyzna
Podziękował: 261 razy
Pomógł: 7 razy

Re: Liniowa zależność wektorów

Post autor: Mondo »

krl pisze: 19 lis 2020, o 18:16
Mondo pisze: Częściowo kupuję te argumentację ale wciąz mam problem z tym przykładem \(\displaystyle{ \displaystyle{ 1\cdot X_1 + 1\cdot X_2 + 0\cdot X_3 + 1\cdot 0 = 0}}\) jest to równanie które zawiera w sobie wektor zerowy (ostatni wyraz po stronie lewej), nie wszystkie współczynniki są równe 0 więc teretycznie powinno spełaniać definicję, która mówi o tym iż kazdy zbiór zawierający wektor 0 jest liniowo zalezny - takie stwierdzenie znajduję np. tutaj . Ale przecież te wktory które mają współczynniki nie zerowe nie muszę się sumować do zera tak więc `L \ne R` czyli lewa stronie nie bedzie równa prawej. Zgadza się?

Jeszcze prostrzy przyklad \(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) -> \(\displaystyle{ [2,4] = k[1,3]}\) co jest oczysiwta nieprawa, czyli zbiór zawiera wektor zerowy ale jak pokaząłem nie jest liniowo zalezny, bo nie ma takiego `k` które pomnożone przez `[1,3]` da `[2,4]`
Przyjrzyjmy się drugiemu przykładowi:

\(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) -> \(\displaystyle{ [2,4] = k[1,3]}\)

Ten zapis jest bez sensu, gdyż nie wiadomo, czym jest \(\displaystyle{ k}\). Ponadto nie jest prawdą, że \(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) (więc implikacja jest prawdziwa dla każdego \(\displaystyle{ k}\)). Naucz się wyrażać jasno.
Nieprawdziwa raczej. Ale ok rozumie, faktycznie to nie jest najlepszy przykład ;)
krl pisze: 19 lis 2020, o 18:16
Ale spróbujmy domyślić się, o co tu może chodzić:

Mamy oczywiście: \(\displaystyle{ 0\cdot[2,4] + 0\cdot[1,3] + 1\cdot[0,0] = 0}\), wiec zgodnie z definicją układ wektorów: \(\displaystyle{ [2,4],[1,3], [0,0] }\) jest liniowo zależny, podobnie jak zbiór wektorów \(\displaystyle{ \{[2,4],[1,3],[0,0]\}}\). Oczywiście, wektor \(\displaystyle{ [2,4]}\) nie jest liniową kombinacją wektora \(\displaystyle{ [1,3]}\), nie przeczy to w żaden sposób temu, że zbiór wektorów \(\displaystyle{ \{[2,4],[1,3],[0,0]\}}\) jest liniowo zależny.
Jeszcze raz podkreślę: "definicja" ze wstępu do artykułu w wikipedii:

"a set of vectors is said to be linearly dependent if at least one of the vectors in the set can be defined as a linear combination of the others"

jest literalnie fałszywa, gdyż nie stosuje się do liniowo zależnego zbioru złożonego wyłącznie z wektora zerowego. Chyba że przyjmiemy konwencję, ze wektor zerowy jest "pustą liniową kombinacją zerowej liczby wektorów".
No zgadzam się, ale chciałbym jeszcze dopytać o to:
W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny.
Czy tutaj nie chodziło Ci właśnie o to, że jesli wektory są liniowo zależne to istnieje w śród nich taki, kóry można wyrazić na pomocą pozostałych, a nie taki który się powtarza?
krl
Użytkownik
Użytkownik
Posty: 609
Rejestracja: 10 lis 2009, o 22:39
Płeć: Mężczyzna
Lokalizacja: Wrocław
Pomógł: 135 razy

Re: Liniowa zależność wektorów

Post autor: krl »

Mondo pisze: 20 lis 2020, o 13:29
krl pisze: 19 lis 2020, o 18:16
Przyjrzyjmy się drugiemu przykładowi:

\(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) -> \(\displaystyle{ [2,4] = k[1,3]}\)

Ten zapis jest bez sensu, gdyż nie wiadomo, czym jest \(\displaystyle{ k}\). Ponadto nie jest prawdą, że \(\displaystyle{ [2,4] + [1,3] + [0,0] = 0}\) (więc implikacja jest prawdziwa dla każdego \(\displaystyle{ k}\)). Naucz się wyrażać jasno.
Nieprawdziwa raczej. Ale ok rozumie, faktycznie to nie jest najlepszy przykład ;)
Prawdziwa. Nie rozumiesz. Implikacja, w której poprzednik jest fałszywy, jest prawdziwa.
mondo pisze: No zgadzam się, ale chciałbym jeszcze dopytać o to:
W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny.
Czy tutaj nie chodziło Ci właśnie o to, że jesli wektory są liniowo zależne to istnieje w śród nich taki, kóry można wyrazić na pomocą pozostałych, a nie taki który się powtarza?
Nie.
Mondo
Użytkownik
Użytkownik
Posty: 490
Rejestracja: 11 sty 2011, o 19:54
Płeć: Mężczyzna
Podziękował: 261 razy
Pomógł: 7 razy

Re: Liniowa zależność wektorów

Post autor: Mondo »

krl pisze:
mondo pisze: No zgadzam się, ale chciałbym jeszcze dopytać o to:
W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny.
Czy tutaj nie chodziło Ci właśnie o to, że jesli wektory są liniowo zależne to istnieje w śród nich taki, kóry można wyrazić na pomocą pozostałych, a nie taki który się powtarza?
Nie.
No to wezmy przykład `a_1[1,0] + a_2[1,0] + a_3[0,1] = 0 ` -> równani ma tylko jedno "trywialne" rozwiązanie `a_1 = a_2 = a_3 = 0` co dowodzi, że ten zbiór wektorów nie jest liniowo niezależny. ALe uwaga, przecież mamy w nim dwa razy wektor `[1,0]` więc zgodnie z tym co napisałeś
W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny.
Zbiór powinien być liniowo zależny? :roll:
Jan Kraszewski
Administrator
Administrator
Posty: 34240
Rejestracja: 20 mar 2006, o 21:54
Płeć: Mężczyzna
Lokalizacja: Wrocław
Podziękował: 3 razy
Pomógł: 5203 razy

Re: Liniowa zależność wektorów

Post autor: Jan Kraszewski »

Mondo pisze: 20 lis 2020, o 14:22No to wezmy przykład `a_1[1,0] + a_2[1,0] + a_3[0,1] = 0 ` -> równani ma tylko jedno "trywialne" rozwiązanie `a_1 = a_2 = a_3 = 0`
A co powiesz na \(\displaystyle{ a_1=1, a_2=-1, a_3=0}\) ?

JK
a4karo
Użytkownik
Użytkownik
Posty: 22207
Rejestracja: 15 maja 2011, o 20:55
Płeć: Mężczyzna
Lokalizacja: Bydgoszcz
Podziękował: 38 razy
Pomógł: 3754 razy

Re: Liniowa zależność wektorów

Post autor: a4karo »

Mondo pisze: 20 lis 2020, o 14:22

No to wezmy przykład `a_1[1,0] + a_2[1,0] + a_3[0,1] = 0 ` -> równani ma tylko jedno "trywialne" rozwiązanie `a_1 = a_2 = a_3 = 0` co dowodzi, że ten zbiór wektorów nie jest liniowo niezależny. ALe uwaga, przecież mamy w nim dwa razy wektor `[1,0]` więc zgodnie z tym co napisałeś
W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny.
Zbiór powinien być liniowo zależny? :roll:
Czy ty w ogóle cokolwiek policzyłęś, czy tylko obracasz się w świecie abstrakcji,, bez żadnych intuicji?

`a_1=1, a_2=-1, a_3=0` jest niezerowym rozwiązaniem rego równania, co dowodzi, że układ ten jest zależny. Natomiast zbiór \(\displaystyle{ \{[1,0],[1,0],[0,1]\}=\{[1,0],[0,1]\}}\) jest zbiorem liniowo niezależnym.

Ten pierwszy przykład pokazuje, że układ w którym dwa wektory sa takie same nie może być niezależny
Mondo
Użytkownik
Użytkownik
Posty: 490
Rejestracja: 11 sty 2011, o 19:54
Płeć: Mężczyzna
Podziękował: 261 razy
Pomógł: 7 razy

Re: Liniowa zależność wektorów

Post autor: Mondo »

a4karo pisze: 20 lis 2020, o 16:11
Mondo pisze: 20 lis 2020, o 14:22

No to wezmy przykład `a_1[1,0] + a_2[1,0] + a_3[0,1] = 0 ` -> równani ma tylko jedno "trywialne" rozwiązanie `a_1 = a_2 = a_3 = 0` co dowodzi, że ten zbiór wektorów nie jest liniowo niezależny. ALe uwaga, przecież mamy w nim dwa razy wektor `[1,0]` więc zgodnie z tym co napisałeś
W szczególności, jeśli w układzie wektorów jakiś wektor powtarza się dwa razy, to ten uklad wektorów jest liniowo zależny.
Zbiór powinien być liniowo zależny? :roll:
Czy ty w ogóle cokolwiek policzyłęś, czy tylko obracasz się w świecie abstrakcji,, bez żadnych intuicji?

`a_1=1, a_2=-1, a_3=0` jest niezerowym rozwiązaniem rego równania, co dowodzi, że układ ten jest zależny. Natomiast zbiór \(\displaystyle{ \{[1,0],[1,0],[0,1]\}=\{[1,0],[0,1]\}}\) jest zbiorem liniowo niezależnym.

Ten pierwszy przykład pokazuje, że układ w którym dwa wektory sa takie same nie może być niezależny
Faktycznie pomyliłem się i równanie z tego przykładu ma także nietrywialne rozwiązanie które podałeś (podobnie jak @Jan Kraszewski post wyżej) co wedle definicji pokazuje ze jest to równanie liniowo zależne. Piszesz o intuicji no właśnie to jest tutaj największy problem, żeby zrozumieć te definicję intuicyjnie - najprościej było by mysleć o tym w sposób o którym już pisałem czyli "równanie jest liniowo zależne jesli dowolny jego element można wyrazić jako liniową kombinację pozostałych " tylko to się łamie kiedy mamy tylko i wyłącznie zerowo wektor jak tutaj `1*[0,0] = [0,0]` zgodnie z definicją jest to układ liniowo zależny ale cięzko tutaj mówić o wyrażaniu wektora `[0,0]` za pomocą czegoś innego bo tego czegoś innego po prostu nie ma.
Natomiast zbiór \(\displaystyle{ \{[1,0],[1,0],[0,1]\}=\{[1,0],[0,1]\}}\) jest zbiorem liniowo niezależnym.
Tutaj też się zastanawiam, czy jest sens mówić o zależności na zbiorze? Na powyższym przykładzie akurat łatwo widać, że dwa wektory nie są zalezne (nie da się zapisać jednego za pomocą drugiego, chyba że oba będą miały współczynniki = 0) ale na duzym zbiorze, bez zapisu jakiejś relacji pomiędzy nimi nie masz szans zobaczyć czy są jakieś zalezności. Zgadza się?
Ostatnio zmieniony 20 lis 2020, o 22:05 przez Jan Kraszewski, łącznie zmieniany 1 raz.
Powód: Poprawa wiadomości: nietrywialne.
a4karo
Użytkownik
Użytkownik
Posty: 22207
Rejestracja: 15 maja 2011, o 20:55
Płeć: Mężczyzna
Lokalizacja: Bydgoszcz
Podziękował: 38 razy
Pomógł: 3754 razy

Re: Liniowa zależność wektorów

Post autor: a4karo »

Mondo pisze: 20 lis 2020, o 22:01 Piszesz o intuicji no właśnie to jest tutaj największy problem, żeby zrozumieć te definicję intuicyjnie - najprościej było by mysleć o tym w sposób o którym już pisałem czyli "równanie jest liniowo zależne jesli dowolny jego element można wyrazić jako liniową kombinację pozostałych " tylko to się łamie kiedy mamy tylko i wyłącznie zerowo wektor jak tutaj `1*[0,0] = [0,0]` zgodnie z definicją jest to układ liniowo zależny ale cięzko tutaj mówić o wyrażaniu wektora `[0,0]` za pomocą czegoś innego bo tego czegoś innego po prostu nie ma.
Przede wszystkim nie "równanie liniowo zależne" tylko układ.

Po drugie: o tym właśnie pisał wcześniej krl: Twoja definicja, że układ jest liniowo zależny gdy uda się jego element wyrazić jako kombinacja innych sypie się gdy mamy do czynienie z układem złożonym z jednego, zerowego elementu.

A definicja: układ \(\displaystyle{ w_1,\ldots, w_n}\) jest liniowo niezależny wtedy i tylko wtedy, gdy z równości \(\displaystyle{ a_1w_1+\dots+a_nw_n=0}\) wynika ,że \(\displaystyle{ a_1=a_2=\dots=a_n=0}\) nie ma tej ułomności. (Gdy już zdecydujesz się coś policzyć, to zobaczysz jak z tej wynika Twoja)
Natomiast zbiór \(\displaystyle{ \{[1,0],[1,0],[0,1]\}=\{[1,0],[0,1]\}}\) jest zbiorem liniowo niezależnym.
Tutaj też się zastanawiam, czy jest sens mówić o zależności na zbiorze? Na powyższym przykładzie akurat łatwo widać, że dwa wektory nie są zalezne (nie da się zapisać jednego za pomocą drugiego, chyba że oba będą miały współczynniki = 0) ale na duzym zbiorze, bez zapisu jakiejś relacji pomiędzy nimi nie masz szans zobaczyć czy są jakieś zalezności. Zgadza się?
Nie zgadza się. Sprawdzenie niezależności układu wektorów sprowadza się do rozwiązania układu równań liniowych (albo nawet mniej: do policzenia rzędu pewnej macierzy). Ta teoria została rozpracowana jakieś dwieście lat temu.
Ostatnio zmieniony 20 lis 2020, o 23:07 przez Jan Kraszewski, łącznie zmieniany 1 raz.
Powód: Poprawa wiadomości.
Mondo
Użytkownik
Użytkownik
Posty: 490
Rejestracja: 11 sty 2011, o 19:54
Płeć: Mężczyzna
Podziękował: 261 razy
Pomógł: 7 razy

Re: Liniowa zależność wektorów

Post autor: Mondo »

a4karo pisze: 20 lis 2020, o 22:57 Przede wszystkim nie "równanie liniowo zależne" tylko układ.
a4karo pisze: 20 lis 2020, o 22:57 A definicja: układ \(\displaystyle{ w_1,\ldots, w_n}\) jest liniowo niezależny wtedy i tylko wtedy, gdy z równości \(\displaystyle{ a_1w_1+\dots+a_nw_n=0}\) wynika ,że \(\displaystyle{ a_1=a_2=\dots=a_n=0}\) nie ma tej ułomności. (Gdy już zdecydujesz się coś policzyć, to zobaczysz jak z tej wynika Twoja)
Tak, dzieki że zwracasz uwagę na błędne sformułowania - mówimy tutaj o zalezności lub jej braku elementów (w tym przypadku wektorów) a nie całych równań czy czegokolwiek innego. Wydaje mi się, że pisałem o równaniu jako całości bo gdzieś podświadomie wiem, że współczynniki przy wektorach również grają rolę.
Mondo pisze: Tutaj też się zastanawiam, czy jest sens mówić o zależności na zbiorze? Na powyższym przykładzie akurat łatwo widać, że dwa wektory nie są zalezne (nie da się zapisać jednego za pomocą drugiego, chyba że oba będą miały współczynniki = 0) ale na duzym zbiorze, bez zapisu jakiejś relacji pomiędzy nimi nie masz szans zobaczyć czy są jakieś zalezności. Zgadza się?
a4karo pisze: 20 lis 2020, o 22:57 Nie zgadza się. Sprawdzenie niezależności układu wektorów sprowadza się do rozwiązania układu równań liniowych (albo nawet mniej: do policzenia rzędu pewnej macierzy). Ta teoria została rozpracowana jakieś dwieście lat temu.
Czyli to co ja napisałem
bez zapisu jakiejś relacji pomiędzy nimi nie masz szans zobaczyć czy są jakieś zalezności
Podałeś razem z krl też ładnie różnicę pomiędzy układem, a zbiorem wektorów, ale w świetle tego definicja podana w książce którą czytam jest nieprawdziwa. Słowo "set" należało by zastąpić raczej "sequence", chociaż z drugiej strony `X_1, X_2, ..., X_n ` wskazuje na unikalnośc tych wektorów a wtedy definicja jest OK.
a4karo
Użytkownik
Użytkownik
Posty: 22207
Rejestracja: 15 maja 2011, o 20:55
Płeć: Mężczyzna
Lokalizacja: Bydgoszcz
Podziękował: 38 razy
Pomógł: 3754 razy

Re: Liniowa zależność wektorów

Post autor: a4karo »

W angielskim słowo "set" ma wiele znaczeń (podobnie jak w polskim).. To zbiór, zestaw, komplet... Gdyby autor książki chciał użyć tego słowa w sensie teoriomnogościowym, to napisałby "The set of vectors \(\displaystyle{ \{X_1,...,X_n\}}\)"
Mondo
Użytkownik
Użytkownik
Posty: 490
Rejestracja: 11 sty 2011, o 19:54
Płeć: Mężczyzna
Podziękował: 261 razy
Pomógł: 7 razy

Re: Liniowa zależność wektorów

Post autor: Mondo »

a4karo, poszedłem dalej w moim studium algreby liniowej i natknałem się na teorię która mówi "`n+1` wektorów o wymiarze `n` jest zawsze liniwo zależna" i dowód przedstawia się następująco:

Niech `u_i = [u_{i1}, ..., u_{i,n}]` `(i = 1,..,n+1)` jeśli poszerzymy wymiar każdego z wektorów tak, że ostatni element będzie równy `0` to mamy `n+1` wektorów o wymiarze `n+1` liniowo zależnych na podtstawie faktu iż każdy układ wektorów który zawiera wektor zerowy jest liniowo zależny. I ta część powidzmy, że jest dla mnie jasna.
Natomiast idac dalej dowód mówi - jeśli teraz ograniczymy ilośc elementów z `n+1` do `n` (czyli znika nam ten ostatni zerowy element) to otrzymujemy `\lambda_1 u_{1i} + ... + \lambda_{n+1} u_{n+1,i} = 0` `(i = 1, ..., n)` co pokazuje, że `n+1` wektorów o wymiarze n jest zawsze liniowo zaleznych.
I tego właśnie nie widzę, bo w powyższym równaniu w jaki sposób zagwarantujemy, że nie wszystkie `\lambda` są zerami? Wygląda to tak jaby to twierdzenie zakładało, że ten dodatkowy `n+1` wiersz jest zerowy czyli `\lambda_{n+1} u_{n+1,i} = 0` `(i = 1, ..., n)`.

Do tego twierdzenie jest także wniosek, który mówi "Układ `n` jednorodnych równań o `n+1` niewiadomych zawsze ma nietrywialne rozwiązanie" i tutaj z kolei jako dowód podaje się `a_1X_1 + ... + a_{n+1}X_{n+1} = 0` jest spełniowy gdy istnieją `X_i` \(\displaystyle{ (i = 1, ..., n+1)}\) nie wszystkie zerami i takie `X` gwarantuje właśnie powyższa teoria.

Jak to rozumieć? Dziekuję.
Ostatnio zmieniony 29 lis 2020, o 14:03 przez Jan Kraszewski, łącznie zmieniany 2 razy.
Powód: Poprawa wiadomości: nietrywialne.
ODPOWIEDZ