Pozdravljeni.
Bi mi lahko dali kakšen namig, na kakšen način naj se lotim naloge?
Najlepša hvala.
Se opravičujem za slabo sliko.
Lp.
eva
Deformacije
Re: Deformacije
Smer vlakna je vektor med dvema tockama, ki sta diferencialno blizu. Pa poimenujmo zmoteno polje:
\(\vec{g}(\vec{r})=\vec{r}+\vec{u}(\vec{r})\)
Smer vlakna je vektor med dvema tockama, ki sta diferencialno blizu. Prej je bilo to kar \(\frac{(\vec{r}+\vec{a}dt)-\vec{r}}{dt}=\vec{a}\) (predstavljaj si: gres iz tocke P v smeri a za razdaljo dt). Po deformaciji moramo pa vstavit novi tocki:
\(\frac{g(\vec{r}+\vec{a}dt)-g(\vec{r})}{dt}=\frac{g(\vec{r})+(\vec{a}\nabla) g(\vec{r})dt-g(\vec{r})}{dt}=(\vec{a}\nabla)\vec{g}(\vec{r})\)
Uporabili smo Taylorjev razvoj za vektorske funkcije (adt je neskoncno majhen odmik od izhodisca).
Ce te moti nabla operator, lahko zgornje napises tudi kot
\(a_x\frac{\partial \vec{g}}{\partial x}+a_y\frac{\partial \vec{g}}{\partial y}+a_z\frac{\partial \vec{g}}{\partial z}\)
(tukaj se bolje vidi Taylorjeva struktura - odmik krat odvod po tisti spremeljivki).
Zdaj uporabis kaj je g:
\((\vec{a}\nabla)\vec{g}(\vec{r})=(\vec{a}\nabla)\vec{r}+(\vec{a}\nabla)\vec{u}(\vec{r})=\vec{a}+(\vec{a}\nabla)\vec{u}(\vec{r})\)
Celo vmesno izpeljavo bi se dalo izpustit ce preberes iz zapiskov kako se to racuna (ponavadi se celo uvede tenzor odmika in se s tistim naprej racuna - za spremembo kota je tisto mogoce celo bolj standardno).
Drugace pa zdaj izracunas obe smeri po premiku (pazi, nista vec nujno normirana) in racunas skalarni produkt. Torej,
\(\vec{a}'\cdot\vec{b}'=(\vec{a}+(\vec{a}\nabla)\vec{u}(\vec{r}))\cdot(\vec{b}+(\vec{b}\nabla)\vec{u}(\vec{r}))=\)
\(\vec{a}\cdot(\vec{b}\nabla)\vec{u}(\vec{r})+\vec{b}\cdot(\vec{a}\nabla)\vec{u}(\vec{r})+(\vec{a}\nabla)\vec{u}(\vec{r})\cdot(\vec{b}\nabla)\vec{u}(\vec{r})\)
Zadnji clen se izpusca ce so odmiki majhni.
\(\vec{g}(\vec{r})=\vec{r}+\vec{u}(\vec{r})\)
Smer vlakna je vektor med dvema tockama, ki sta diferencialno blizu. Prej je bilo to kar \(\frac{(\vec{r}+\vec{a}dt)-\vec{r}}{dt}=\vec{a}\) (predstavljaj si: gres iz tocke P v smeri a za razdaljo dt). Po deformaciji moramo pa vstavit novi tocki:
\(\frac{g(\vec{r}+\vec{a}dt)-g(\vec{r})}{dt}=\frac{g(\vec{r})+(\vec{a}\nabla) g(\vec{r})dt-g(\vec{r})}{dt}=(\vec{a}\nabla)\vec{g}(\vec{r})\)
Uporabili smo Taylorjev razvoj za vektorske funkcije (adt je neskoncno majhen odmik od izhodisca).
Ce te moti nabla operator, lahko zgornje napises tudi kot
\(a_x\frac{\partial \vec{g}}{\partial x}+a_y\frac{\partial \vec{g}}{\partial y}+a_z\frac{\partial \vec{g}}{\partial z}\)
(tukaj se bolje vidi Taylorjeva struktura - odmik krat odvod po tisti spremeljivki).
Zdaj uporabis kaj je g:
\((\vec{a}\nabla)\vec{g}(\vec{r})=(\vec{a}\nabla)\vec{r}+(\vec{a}\nabla)\vec{u}(\vec{r})=\vec{a}+(\vec{a}\nabla)\vec{u}(\vec{r})\)
Celo vmesno izpeljavo bi se dalo izpustit ce preberes iz zapiskov kako se to racuna (ponavadi se celo uvede tenzor odmika in se s tistim naprej racuna - za spremembo kota je tisto mogoce celo bolj standardno).
Drugace pa zdaj izracunas obe smeri po premiku (pazi, nista vec nujno normirana) in racunas skalarni produkt. Torej,
\(\vec{a}'\cdot\vec{b}'=(\vec{a}+(\vec{a}\nabla)\vec{u}(\vec{r}))\cdot(\vec{b}+(\vec{b}\nabla)\vec{u}(\vec{r}))=\)
\(\vec{a}\cdot(\vec{b}\nabla)\vec{u}(\vec{r})+\vec{b}\cdot(\vec{a}\nabla)\vec{u}(\vec{r})+(\vec{a}\nabla)\vec{u}(\vec{r})\cdot(\vec{b}\nabla)\vec{u}(\vec{r})\)
Zadnji clen se izpusca ce so odmiki majhni.
Re: Deformacije
Uh, najlepša hvala!
Bi pa še samo vprašala, če je to kakšen poseben zapis, ko nabla predstavlja matriko? Ne pomeni nabla pri vektorju divergence (skalar)?
Lp
Bi pa še samo vprašala, če je to kakšen poseben zapis, ko nabla predstavlja matriko? Ne pomeni nabla pri vektorju divergence (skalar)?
Lp
Re: Deformacije
Sama nabla je vedno isto - vektor odvodov. Razlikuje se pa kako jo mnozis s stvarjo ki jo hoces odvajat. V tem primeru si lahko predstavljas na dva nacina. Eden je, da najprej nablo skalarno mnozis z leve z vektorjem a (z leve zato, ker noces a-ja odvajat ampak tisto na desni). Tako je \((\vec{a}\nabla)\) skalarni operator - po domace povedano, odvod v smeri a.
Lahko pa najprej delujes na desno: tam pa na vsako komponento deluje kot gradient. Se pravi za vsako komponento g-ja dobis tri komponente gradienta. In potem sele gradient vsake komponente pomnozis skalarno z a.
Po komponentah:
\((\vec{a}\nabla)\vec{g}=\underbrace{(\sum_i a_i \nabla_i)}_{\text{skalar}} \underbrace{g_j}_{\text{vektor}}=\text{vektor}\)
Lahko pa (\(\otimes\) ponavadi oznacuje da to ni divergenca (skalarni produkt) ampak da mnozis vsakega z vsakim - tenzorski produkt, ki da matriko - obdrzis oba razlicna indeksa).
\(\vec{a}(\nabla\otimes\vec{g})=\sum_i\underbrace{a_i}_{\text{vektor}}\underbrace{(\nabla_i g_j)}_{\text{matrika}}=\text{vektor}\)
Vsota po i je v tem primeru del mnozenja vektorja z matriko (navajeni smo matrika*vektor in je vektor stolpec, v tem primeru je pac obratno in je vektor vrstica).
Obe interpretaciji sta popolnoma enakovredni, le da je druga v tem primeru bolj uporabna - ce zracunas matriko \(\nabla\otimes \vec{g}\) potem ni treba se enkrat odvodov racunat ko zamenjas a z b.
\(G_{ij}=\nabla_i g_j\) je gradient vektorja in je matrika. Ce si predstavljas da vzames nek fiksen j (ena komponenta), pa dobis navaden gradient ene komponente. Divergenca je pa cisto nekaj drugega: \(\nabla\cdot \vec{g}=\sum_i\nabla_i g_i\) (cisto kot zanimivost, dobis jo lahko tudi kot sled gradienta).
Lahko pa najprej delujes na desno: tam pa na vsako komponento deluje kot gradient. Se pravi za vsako komponento g-ja dobis tri komponente gradienta. In potem sele gradient vsake komponente pomnozis skalarno z a.
Po komponentah:
\((\vec{a}\nabla)\vec{g}=\underbrace{(\sum_i a_i \nabla_i)}_{\text{skalar}} \underbrace{g_j}_{\text{vektor}}=\text{vektor}\)
Lahko pa (\(\otimes\) ponavadi oznacuje da to ni divergenca (skalarni produkt) ampak da mnozis vsakega z vsakim - tenzorski produkt, ki da matriko - obdrzis oba razlicna indeksa).
\(\vec{a}(\nabla\otimes\vec{g})=\sum_i\underbrace{a_i}_{\text{vektor}}\underbrace{(\nabla_i g_j)}_{\text{matrika}}=\text{vektor}\)
Vsota po i je v tem primeru del mnozenja vektorja z matriko (navajeni smo matrika*vektor in je vektor stolpec, v tem primeru je pac obratno in je vektor vrstica).
Obe interpretaciji sta popolnoma enakovredni, le da je druga v tem primeru bolj uporabna - ce zracunas matriko \(\nabla\otimes \vec{g}\) potem ni treba se enkrat odvodov racunat ko zamenjas a z b.
\(G_{ij}=\nabla_i g_j\) je gradient vektorja in je matrika. Ce si predstavljas da vzames nek fiksen j (ena komponenta), pa dobis navaden gradient ene komponente. Divergenca je pa cisto nekaj drugega: \(\nabla\cdot \vec{g}=\sum_i\nabla_i g_i\) (cisto kot zanimivost, dobis jo lahko tudi kot sled gradienta).
Re: Deformacije
Sedaj pa imam novo vprašanje glede naloge. Asistent jo je rešil na spodaj opisan način, ker pa rezultata nisem dobila istega, me zanima zakaj je to sploh tako izračunano..in kaj je sploh ok...
gama(jo vzame kar kot kot v rd)\(=2*\vec{a}^T*\vec{L'}*\vec{b}\), pri čemer je L' simetrični del matrike \((\nabla)\vec{u}(\vec{r})\) oz.
\(\vec{J}=(\nabla)\vec{u}(\vec{r})\)
\(\vec{L'}=1/2*(\vec{J}+\vec{J}^T)\)
Hvala za pomoč & zgornjo razlago.
gama(jo vzame kar kot kot v rd)\(=2*\vec{a}^T*\vec{L'}*\vec{b}\), pri čemer je L' simetrični del matrike \((\nabla)\vec{u}(\vec{r})\) oz.
\(\vec{J}=(\nabla)\vec{u}(\vec{r})\)
\(\vec{L'}=1/2*(\vec{J}+\vec{J}^T)\)
Hvala za pomoč & zgornjo razlago.