Matrike
ZdravaPamet, pravzaprav matrika pove, kam se preslikajo bazni vektorji prostora V v prostor U. S tem vsaki matriki v danih urejenih bazah predpisemo neko linearno preslikavo. Pravzaprav ju kar identificiramo. To nima nobene veze z obsegom realnih ali kompleksnih stevil, ampak velja cisto v splosnem. Prav tako je tisto o deljenju cisto upraviceno: deljenje v realnih stevilih je mnozenje z inverzom (definicija). Inverz matrike pa je inverzna preslikava (ce obstaja) in ni zaradi tega, ker ni "inverz stevila" nic manj "inverzna".
-
- Prispevkov: 2842
- Pridružen: 16.8.2004 19:41
Nisem govoril o nobenem obsegu razen, če misliš na definicijo matrike.
Definicija pravi: matrika A dimenzije \(m\times n\)je preslikava iz prostora \(F^{n}\) v \({F}^{m}\), kjer je \(F\) obseg kompleksnih ali realnih števil.
To je definicija. Kaj pa za sabo potegne, pa je zelo bogato. Ne morem sprejeti, da bi se šli splošno deljenje matrik. Množenje z inverzi predstavlja nekaj več, kot samo računanje z matrikami, sam produkt matrike A z eno inverzno B (B^{-1}) pomeni več, kot zapis A/B.
Poleg tega pa poglej teli enačbi:
\(BX=A\)
\(YB=A\)
B naj bo dimenzije \(n \times n\), njen rang pa n. Imamo rešitvi
\(X=B^{-1}A\)
in
\(Y=AB^{-1}\)
Deljenja v tem primeru sploh ne moreš vpeljati tako kot pri številih, enolično. Ko A delim z B z leve dobim X in ko A delim z B z desne dobim Y. Se pravi je pomembno s katere smeri delimo, kot je že rekel Aniviller. Rešitvi pa ni nujno da sta enaki, čeprav v rešitvah venomer delimo A z B. Moral bi pisati recimo A/B in B\A, da bi ločil oba načina deljenja.
Definicija pravi: matrika A dimenzije \(m\times n\)je preslikava iz prostora \(F^{n}\) v \({F}^{m}\), kjer je \(F\) obseg kompleksnih ali realnih števil.
To je definicija. Kaj pa za sabo potegne, pa je zelo bogato. Ne morem sprejeti, da bi se šli splošno deljenje matrik. Množenje z inverzi predstavlja nekaj več, kot samo računanje z matrikami, sam produkt matrike A z eno inverzno B (B^{-1}) pomeni več, kot zapis A/B.
Poleg tega pa poglej teli enačbi:
\(BX=A\)
\(YB=A\)
B naj bo dimenzije \(n \times n\), njen rang pa n. Imamo rešitvi
\(X=B^{-1}A\)
in
\(Y=AB^{-1}\)
Deljenja v tem primeru sploh ne moreš vpeljati tako kot pri številih, enolično. Ko A delim z B z leve dobim X in ko A delim z B z desne dobim Y. Se pravi je pomembno s katere smeri delimo, kot je že rekel Aniviller. Rešitvi pa ni nujno da sta enaki, čeprav v rešitvah venomer delimo A z B. Moral bi pisati recimo A/B in B\A, da bi ločil oba načina deljenja.
V realnih številih je množenje z inverzom z leve in desne enako. Pri matrikah torej ni in zato zapis za deljenje ni enoličen.kren napisal/-a:Prav tako je tisto o deljenju cisto upraviceno: deljenje v realnih stevilih je mnozenje z inverzom (definicija). Inverz matrike pa je inverzna preslikava (ce obstaja) in ni zaradi tega, ker ni "inverz stevila" nic manj "inverzna".
ne pa ne, preslikava iz F^n v F^m je samo poseben primer. definicija je bolj splosna, za cisto poljuben obseg (evo wikipedia: klik ). je pa res, da je vsak vektorski prostor z dimenzijo 'n' nad obsegom F izomorfen prostoru F^n. recimo tudi ce mas pa hruske pa jabolka (kot abstraktne entitete) namesto stevilk lahko zapises matriko kako preslikas ene v druge, pa za to ne rabis F^n.Definicija pravi: matrika A dimenzije mxn je preslikava iz prostora F^{n} v {F}^{m}, kjer je F obseg kompleksnih ali realnih števil.
To je definicija.
no sej ce govorimo o preslikavah vektorskih prostorov, pol je najbrz jasno da moramo predpostaviti vektorske prostore. in ce govorimo o vektorskih prostorih, pol je najbrz jasno da je vektorski prostor vedno vektorski prostor nad nekim obsegom. implicitno jih tako ze skozi predpostavljamo.Nisem govoril o nobenem obsegu razen, če misliš na definicijo matrike.
Je pa res zapis A/B za matrike dvoumen, saj se ne ve iz katere strani se mnozi z inverzom. sej zato se ga pa ne uporablja. razen ce ti pojmujes za deljenje samo tisto, kar je enolicno doloceno z zapisom X/Y. to je pa pol samo nepotrebno obracanje besed.
-
- Prispevkov: 2842
- Pridružen: 16.8.2004 19:41
Se strinjam s prvim. Samo vseeno imam v glavi prav to definicijo matrike s standardnimi prostori. Izomorfni prostori so pa itak glavna zadeva za matrike kot so koordinatni vektor ipd.
Kot vem je definicija deljenja po zgledu števil neodvisna od tega s katere strani pomnožiš inverz. Ali se pač motim? Zakaj bi izumljali deljenje matrik, ko bi bilo potrebno postaviti prav posebna pravila tega deljenja, ko je pa množenje tako smiselna nekomutativna operacija.
Kot vem je definicija deljenja po zgledu števil neodvisna od tega s katere strani pomnožiš inverz. Ali se pač motim? Zakaj bi izumljali deljenje matrik, ko bi bilo potrebno postaviti prav posebna pravila tega deljenja, ko je pa množenje tako smiselna nekomutativna operacija.
-
- Prispevkov: 2842
- Pridružen: 16.8.2004 19:41
Diagonalna matrika je zelo preprosta, težko boš našel lepšo med kvadratnimi matrikami. Poglej identiteto, ona je diagonalna, ali ni lepa? Množenje z diagonalnimi je sila enostavno. Računanje determinant, računanje inverzov še lažje. Endomorfizmi, če so diagonalizabilni, se dajo napisati kar z diagonalno matriko ipd.
1.) diagonalne matrike so zelo enostavne za racunat.
2.) ponavadi te zanimajo lastne vrednosti kot resitve enacbe (npr. lastna nihanja sklopljenih nihal, lastne osi ploskve drugega reda, lastne osi vztrajnostnega momenta,...) nasploh se veliko fizikalnih problemov prevede na problem lastnih vrednosti. Med drugim na tem sloni cela kvantna mehanika, analiza obnasanja diferencialne enacbe okrog singularne tocke. V vseh primerih imajo lastne vrednosti nek specificen fizikalni pomen ki si ga je enostavno predstavljat in o problemu ogromno pove.
3.) matrika v smereh lastnih vrednosti vektor zgolj raztegne za lastno vrednost v tisti smeri.
4.) z iskanjem lastnih funkcij najdemo cele ortogonalne sisteme po katerih potem lahko razvijemo karkoli (spet povezava na kvantno mehaniko, fourierovo analizo, ...)
2.) ponavadi te zanimajo lastne vrednosti kot resitve enacbe (npr. lastna nihanja sklopljenih nihal, lastne osi ploskve drugega reda, lastne osi vztrajnostnega momenta,...) nasploh se veliko fizikalnih problemov prevede na problem lastnih vrednosti. Med drugim na tem sloni cela kvantna mehanika, analiza obnasanja diferencialne enacbe okrog singularne tocke. V vseh primerih imajo lastne vrednosti nek specificen fizikalni pomen ki si ga je enostavno predstavljat in o problemu ogromno pove.
3.) matrika v smereh lastnih vrednosti vektor zgolj raztegne za lastno vrednost v tisti smeri.
4.) z iskanjem lastnih funkcij najdemo cele ortogonalne sisteme po katerih potem lahko razvijemo karkoli (spet povezava na kvantno mehaniko, fourierovo analizo, ...)
Tako je, neki matriki ustrezajo natančno določene lastne vrednosti. Tudi podobne matrike imajo enake l. vrednosti (recimo tiste ki pripadajo istemu endomorfizmu, itd.)
Lahko pa jih poljubno vstavimo v diagonalno matriko, vendar moramo potem pri prehodni matriki, ki je sestavljena iz lastnih vektorjev, paziti na vrstni red stolpcev (v istem vrstnem redu morajo biti potem razvrščeni l. vektorji za posamezno l. vrednost, kot so l. vrednosti v diagonalni matriki).
Lahko pa jih poljubno vstavimo v diagonalno matriko, vendar moramo potem pri prehodni matriki, ki je sestavljena iz lastnih vektorjev, paziti na vrstni red stolpcev (v istem vrstnem redu morajo biti potem razvrščeni l. vektorji za posamezno l. vrednost, kot so l. vrednosti v diagonalni matriki).
Dokaz je zelo enostaven. Izhajamo iz definicije, da je možno neko (kvadratno) matriko \(A\) diagonalizirati, če obstajata diagonalna matrika \(D\) in obrnljiva matrika \(P\), tako da velja:Mafijec napisal/-a:Ok tnx. Zakaj pa imajo diagonalne matrike enako determinanto kot pa prave matrike?
\(A = PDP^{-1}\)
oz.
\(D = P^{-1}AP\).
Vemo, da za poljubni kvadratni matriki \(X\) in \(Y\) enakih dimenzij velja:
\(det(XY)=det(X)det(Y)\)
in iz tega za poljubne kvadratne matrike \(X\), \(Y\) in \(Z\) enakih dimenzij:
\(det(XYZ)=det(X)det(Y)det(Z)\).
Torej:
\(det(A)=det(PDP^{-1})=det(P)det(D)det(P^{-1})\).
Vemo še:
\(PP^{-1}=I \Rightarrow det(PP^{-1})=det(I)=1=det(P)det(P^{-1})\).
Ko slednje uporabimo v predprejšnji zvezi (skoraj odveč je pripomniti, da so determinante števila in je torej njihov produkt komutativen), sledi:
\(det(A)=det(D)\).
Mimogrede: Poleg enake determinante, imata matriki \(A\) in \(D\) še enako sled in enak rang.
Determinanto diagonalne matrike lahko izračunamo tudi tako, da pomnožimo med seboj diagonalne člene takšne matrike. Ker dobimo z diagonalizacijo matrike \(A\) diagonalno matriko \(D\), ki ima na diagonali lastne vrednosti matrike A, to res drži.Se pravi determinanta je produkt lastnih vrednosti?