Članki

11.1: A- Jacobians, Inverses of Matricks in Eigenvalues ​​- Matematika


V tem dodatku zberemo nekaj rezultatov o jakobcih in obratnih in lastnih vrednostih matric (2 krat 2 ), ki se v gradivu večkrat uporabljajo.

Najprej upoštevamo Taylorjevo razširitev vektorsko vrednotene funkcije dveh spremenljivk, označeno na naslednji način:

[H (x, y) = začetek {pmatrix} {f (x, y)} {g (x, y)} konec {pmatrix}, (x, y) in mathbb {R} ^ 2, oznaka {A.1} ]

Natančneje, Taylor bomo morali razširiti take funkcije z drugim redom:

[H (x_ {0} + h, y_ {0} + k) = H (x_ {0}, y_ {0}) + DH (x_ {0}, y_ {0}) začetek {pmatrix} { h} {k} end {pmatrix} + mathcal {O} (2). oznaka {A.2} ]

Taylorjeva razširitev skalarne funkcije ene spremenljivke bi morala biti na tej ravni znana večini študentov. Mogoče je manj poznavanja Taylorjeve razširitve vektorsko ovrednotene funkcije vektorske spremenljivke. Za izračun tega pa Taylor samo razširi vsako komponento funkcije (ki je skalarna funkcija vektorske spremenljivke) v vsako spremenljivko in zadrži drugo spremenljivko, ki je fiksna za razširitev v tej spremenljivki, nato pa zberemo rezultate za vsaka komponenta v matrično obliko.

Izvedba tega postopka za komponento (f (x, y) ) enačbe ref {A.1} daje:

[ začetek {poravnava} f (x_ {0} + h, y_ {0} + k) & = f (x_ {0}, y_ {0} + k) + frac { delno f} { delno x} (x_ {0}, y_ {0} + k) h + mathcal {O} (h ^ 2) [4pt] & = f (x_ {0}, y_ {0}) + frac { delno f} { delno y} (x_ {0}, y_ {0}) k + mathcal {O} (k ^ 2) + frac { delno f} { delno x} (x_ {0}, y_ {0}) h + mathcal {O} (hk) + mathcal {O} (h ^ 2). label {A.3} end {align} ]

Isti postopek lahko uporabimo za (g (x, y) ). Ponovna kombinacija izrazov v vektorski izraz za enačbo ref {A.1} daje:

[H (x_ {0} + h, y_ {0} + k) = začetek {pmatrix} {f (x_ {0}, y_ {0})} {g (x_ {0}, y_ { 0})} end {pmatrix} + začetek {pmatrix} { frac { delno f} { delno x} (x_ {0}, y_ {0})} in { frac { delno f} { delno y} (x_ {0}, y_ {0})} { frac { delno g} { delno x} (x_ {0}, y_ {0})} in { frac { delno g} { delno y} (x_ {0}, y_ {0})} end {pmatrix} začetek {pmatrix} {h} {k} end {pmatrix} + mathcal {O} (2 ), label {A.4} ]

Zato je jakobijan enačbe ref {A.1} pri ((x_ {0}, y_ {0}) ):

[ začetek {pmatrix} { frac { delno f} { delno x} (x_ {0}, y_ {0})} & { frac { delno f} { delno y} (x_ {0 }, y_ {0})} { frac { delno g} { delno x} (x_ {0}, y_ {0})} & { frac { delno g} { delno y} ( x_ {0}, y_ {0})} end {pmatrix}, label {A.5} ]

ki je (2 krat 2 ) matrika realnih števil.

Izračunati bomo morali obratno tovrstne matrike, pa tudi njene lastne vrednosti.

Označujemo splošno (2 krat 2 ) matriko realnih števil:

[A = začetek {pmatrix} {a} & {b} {c} & {d} konec {pmatrix}, a, b, c, d v mathbb {R}. oznaka {A.6} ]

Preprosto je preveriti, ali je inverzna vrednost A dana z:

[A ^ {- 1} = frac {1} {ad-bc} begin {pmatrix} {d} & {- b} {-c} & {a} end {pmatrix}. oznaka {A.7} ]

Naj ( mathbb {I} ) označuje matriko identitete (2 krat 2 ). Potem so lastne vrednosti A rešitve karakteristične enačbe:

[det (A - lambda mathbb {I}) = 0. oznaka {A.8} ]

kjer je "det" zapis za determinanto matrike. To je kvadratna enačba v ( lambda ), ki ima dve rešitvi:

[ lambda_ {1,2} = frac {tr A} {2} pm frac {1} {2} sqrt {(tr A) ^ 2-4det A}, oznaka {A.9} ]

kjer smo uporabili zapis:

(tr A equiv sled A = a + d ), (det A equiv determinanta A = ad-bc ).


Funkcije matric

Logaritem A ∈ ℂ n×n je katera koli matrica X tako, da e X = A. Kot smo videli v izrek 1.27, kateri koli nesingular A ima neskončno veliko logaritmov. V tem poglavju A ∈ ℂ n×n domneva se, da nima lastnih vrednosti na es - in "log" vedno označuje glavni logaritem, kar spomnimo iz teorema 1.31, je edinstveni logaritem, katerega spekter leži v pasu < z : - π & lt Im (z) & lt π>.

Pomembnost matričnega logaritma lahko pripišemo temu, da je inverzna funkcija eksponentne matrike, in to intimno razmerje vodi v tesne povezave med teorijo in računskimi metodami za obe funkciji.

To poglavje je organizirano na naslednji način. Začnemo z razvojem nekaterih osnovnih lastnosti logaritma, vključno s pogoji, pod katerimi se formula formule izdelka (Pr) = dnevnik (B) + dnevnik (C) drži. Nato upoštevamo Fréchetov odvod in pogojenost. Izpeljane so razširitve Mercatorjeve in Gregoryjeve serije ter razložene različne lastnosti diagonalnih Padéjevih aproksimantov na logaritem. Dve različici metode inverznega skaliranja in kvadriranja sta razviti do podrobnosti, ena z uporabo Schurjevega obrazca in druga, ki deluje s polnimi matricami. Nato je izpeljan Schur-Parlettov algoritem, ki uporablja inverzno skaliranje in kvadrat na diagonalnih blokih, skupaj s posebno formulo za bloke 2 × 2. Nato je predstavljen numerični eksperiment, ki primerja štiri različne metode. Na koncu je opisan algoritem za ocenjevanje Fréchetovega derivata.

Začnemo z integralnim izrazom za logaritem.

Izrek 11.1 (Richter). Za A ∈ ℂ n×n brez lastnih vrednosti ℝ -,

log (A) = ∫ 0 1 (A - I) [t (A - I) + I] - 1 d t. (11.1)

Dokaz. Dovolj je dokazati rezultat za diagonalizacijo A, po teoremu 1.20, zato je dovolj, da pokažemo ta dnevnik x = ʃ0 1 (x − 1) [t(x - 1) + l] -1 dt za x ∈ ℂ ležeč ℝ - ta zadnja enakost je takojšnja.


DOLOČENE DOLOČITVE

Mitchel Weissbluth, Atomi in molekule, 1978

11.1 Matrični elementi - Splošno

V oddelku 8.4 smo videli, da večelektronske valovne funkcije ψ (λ1, λ2,…, ΛN) mora biti antisimetrična glede na izmenjavo koordinat (vesolja in spina) katerih koli dveh elektronov. Antisimetričnost je mogoče zagotoviti z izražanjem valovne funkcije v obliki Slaterjevih determinant, kot v (8.4-13). Za lažji izračun različnih fizikalnih veličin bomo potrebovali izraze za matrične elemente operaterjev, če bodo valovne funkcije zapisane v determinantni obliki.

Razmislite o dvoelektronskem sistemu in pustite

V ψkjaz), k je oznaka, ki identificira določeno spin orbitalo, tj. enoelektronska funkcija, ki je odvisna tako od prostora kot od koordinat vrtenja, indeks i je elektronska oznaka. Zapis se lahko s pisanjem skrajša

Predpostavlja se tudi, da za kateri koli dve spin orbitali, kot je ψk in ψl

To ima takojšnjo posledico

kjer je ψjaz in ψj so katere koli determinantne funkcije (11.1-1) - (11.1-3).

Predpostavimo zdaj, da imamo vsoto enoelektronskih operaterjev

kje f1 in f2 imajo enako funkcionalno odvisnost, vendar f1 deluje samo na spin orbitali, ki jo zaseda elektron 1, in sicer ψ (λ1) in f2 deluje samo na ψ (λ2). Ker so spremenljivke integracije navidezne spremenljivke, lahko pišemo

Zato je glede na razmerje med ortonormalnostjo (11.1-5)

z analognimi izrazi za 〈ψ2|F| ψ2〉 In 〈ψ3|F| ψ3〉. Za elemente, ki niso diagonalni

Dvoelektronski operater g12 deluje na obeh ψ (λ1) in ψ (λ2), kot na primer v primeru elektronskega kulonovega odbijalca e 2 /r12. Za tipičen diagonalni element

in za elemente, ki niso diagonalni

Te rezultate za poseben primer determinatorjev Slaterja (11.1-1) - (11.1-3) lahko posplošimo na determinante poljubne dimenzije. Tako naj

Upoštevati moramo tudi vrstni red, v katerem so orbitale prikazane v (11.1-12) in (11.1-13), ker bo zamenjava dveh stolpcev (ali vrstic) spremenila predznak determinantne valovne funkcije. Kot že napisano, je naročilo

Za element diagonalne matrike F,

v katerem je argument ak in podpis na f so bili izpuščeni, saj bodo odslej poljubni (glej na primer (11.1-7)). Matrični element 〈B|F|B〉 Ima enako obliko glede na b orbitale. Za nediagonalni matrični element

če A in B se razlikujejo za več kot en par orbital in

če je a k ≠ b l, toda ostale orbitale v B so enaki tistim v A. Znak plus se pojavi, kadar je za premikanje znaka potrebno sodo število izmenjav bl orbitalno v kta položaj ali, z drugimi besedami, kadar je pariteta permutacije celo znak minus, se pojavi kot posledica permutacije neparne paritete. Primeri (11.1-18) so navedeni v (11.1-9a) in (11.1-9c). Opaziti je mogoče tudi, da za enoelektronske operaterje, kot so (11.1-14), preproste funkcije izdelka in determinantne funkcije dajejo enake matrične elemente.

Diagonalni matrični elementi G so

in za elemente, ki niso diagonalni, imamo primere:

Če A in B se razlikujejo za več kot dva pari spinovih orbital,

Če A in B razlikujejo za en par orbital, npr. a k ≠ b l,

Enako pravilo kot v (11.1-18) velja za znaka ± v (11.1-21) in (11.1-22). Primeri diagonalnih in zunaj diagonalnih elementov so navedeni v (11.1-10) in (11.1-11).

Zdaj se bo domnevalo, da je splošna vrtljiva orbitala ajaz) je sestavljen iz produkta prostorske funkcije φa(rjaz) in vrtilno funkcijo ζjaz a (ms). Slednja je vedno bodisi α ali β spin funkcija, odvisno od tega, ali ms je +1/2 ali −½. Tako

v katero je bila vstavljena ortonormalnost vrtljivih funkcij.

Če a, b, c, in d so spin orbitale oblike (11,1-23), postane splošni matrični element dvoelektronskega operaterja

Band Matrix

A pasovna matrika je redka matrica, katere elementi, ki se razlikujejo od nič, se pojavljajo samo na glavni diagonali in na nič ali več diagonalah na obeh straneh glavne diagonale.

Ilustracija

Diagonalna matrika je pasovna matrika

Hessenbergova matrika je pasovna matrika

Strižna matrica je pasovna matrika

Dvodimenzionalni prikaz pasovne matrike

Jordanski blok je pasovna matrika


Matematika 130 Linearna algebra

    Opis tečaja. Matematika 130 je pogoj za matematiko in fiziko ter je zelo priporočljiva za smer drugih ved, zlasti za računalništvo. Teme vključujejo sisteme linearnih enačb in njihovih rešitev, matrike in matrične algebre, inverzne matrične determinante in permutacije realne n-dimenzionalne vektorske prostore, abstraktne vektorske prostore in njihove aksiome, linearne transformacije notranjih produktov (pikčasti izdelki), pravokotnost, navzkrižne produkte in njihove podprostori geometrijskih aplikacij, linearna neodvisnost, osnove za vektorske prostore, dimenzija, lastni vektorji matričnega ranga, lastne vrednosti, diagonalizacija matrike. Razpravljali bomo o nekaterih aplikacijah linearne algebre, kot so računalniška grafika, Kirchoff-ovi in ​​rsquosovi zakoni, linearna regresija (najmanjši kvadrati), Fourierjevi nizi ali diferencialne enačbe.
    Glej tudi Clark & ​​rsquos Akademski katalog.

    Prof. R. Broker. Četrtek 4: 00 & ndash5: 00 in po dogovoru. Soba BP 345
    Prof. E. Joyce. MWF 10: 00 in ndash 10: 50, MWF 1: 00 & ndash 2: 00. Soba BP 322
    K. Schultz. Pouk v ponedeljek od 8.00 do 10.00. Soba BP 316
    Redni razredni sestanki, 14 tednov, 42 ur
    Dve večerni kolokviji in zaključni izpit, 6 ur
    Branje besedila in priprave na pouk, 4 ure na teden, 56 ur
    Izvajanje tedenskih domačih nalog, 56 ur
    Sestanek z mentorji ali v študijskih skupinah, spremenljivka 4 do 12 ur
    Pregled za vmesni čas in finale, 12 ur
  • Študentom omogočiti dobro razumevanje pojmov in metod linearne algebre, ki so podrobno opisani v učnem načrtu.
  • Študentom pomaga razviti sposobnost reševanja problemov z uporabo linearne algebre.
  • Za povezavo linearne algebre z drugimi področji znotraj in zunaj matematike.
  • Razviti abstraktno in kritično sklepanje s preučevanjem logičnih dokazov in aksiomatske metode, ki se uporablja za linearno algebro.
  • Znanje o naravnem svetu in človeških kulturah in družbah, vključno s temeljnim disciplinskim znanjem in sposobnostjo uporabe različnih načinov spoznavanja sveta v številnih dimenzijah. Študenti bodo
    • razviti razumevanje linearne algebre, temeljnega področja matematike
    • razviti razumevanje uporabe linearne algebre v matematiki, naravoslovju in družboslovju
    • razviti oceno medsebojnega delovanja linearne algebre z drugimi polji
    • biti sposoben uporabljati koncepte in metode, opisane v predmetniku
    • pridobijo komunikacijske in organizacijske sposobnosti, vključno z učinkovito pisno komunikacijo pri svojih tedenskih nalogah
    • biti sposoben slediti zapletenim logičnim argumentom in razviti skromne logične argumente
    • začeti zavezanost vseživljenjskemu učenju, zavedajoč se, da področja matematike, matematičnega modeliranja in aplikacij hitro napredujejo
    • se naučijo upravljati s svojim učenjem in razvojem, vključno z upravljanjem časa, prednostnih nalog in napredka
    • prepoznati ponavljajoče se teme in splošna načela, ki imajo široko uporabo v matematiki zunaj področij, na katerih so predstavljene
    • razumeti temeljno medsebojno delovanje med teorijo in uporabo v linearni algebri
    • biti sposoben reševati probleme s pomočjo linearne algebre
    • svoje znanje uporabijo za reševanje resničnih problemov

    Besedilo in predavanja bodo predstavili koncepte, metode, aplikacije in logične argumente, ki jih bodo študentje vadili in reševali probleme pri dnevnih nalogah, preizkušali pa jih bodo na kvizih, vmesnih tečajih in zaključnem delu.

    Zmagali smo & rsquot pokrivali vse spodaj naštete teme v isti globini. Nekatere teme so temeljne in jih podrobno pokrivamo, druge pa navajajo nadaljnje smeri študija linearne algebre in jih obravnavamo kot ankete. Poleg spodaj naštetih tem bomo razpravljali tudi o nekaterih aplikacijah linearne algebre za druge dele matematike in statistike ter za fizične in družbene vede.

      Matrice. Dodajanje matrike in skalarno množenje. Množenje matric. Matrična algebra. Matrične inverze. Moči matrike. Transponirane in simetrične matrike. Vektorji: njihovo seštevanje, odštevanje in množenje s skalarji (tj. Realna števila). Grafična interpretacija teh vektorskih operacij Razvijanje geometrijskega vpogleda. Notranji izdelki in norme v Rn: notranji produkti vektorjev (imenovani tudi pikčasti izdelki), norma vektorja (imenovana tudi dolžina), enotni vektorji. Uporaba notranjih izdelkov v Ljubljani Rn: črte, ravnine v R 3 ter proge in hiperravnine v R n .
      Matrične inverze. Osnovne matrice. Uvod v determinante, 2x2 in 3x3 determinante, površine trikotnikov in paralelogramov v ravnini, prostornine paralelepipedov, jakobci Karakteristične lastnosti in konstrukcije determinant, kofaktorji, diagonalne in trikotne matrike. Več lastnosti determinant, algoritem za ocenjevanje determinant, determinante produktov, inverzne in transponirane, pravilo Cramer & rsquos. Permutacije in determinante. Navzkrižni izdelki.
      Rang matrike. Rang in sistemi linearnih enačb. Doseg.
      Polja. Vektorski prostori, njihova aksiomatska opredelitev. Lastnosti vektorskih prostorov, ki izhajajo iz aksiomov. Podprostori vektorskih prostorov. Linearni razpon.
      Linearna neodvisnost. Linearne kombinacije in osnova. Razpon in neodvisnost. Baze. Koordinate. Dimenzija. Osnova in dimenzija v R n .
      Linearne transformacije. Linearne transformacije in matrike. Nekaj ​​linearnih transformacij ravnine R 2 Razpon in ničelni prostor. Koordinate. Sestava in kategorije. Sprememba osnove in podobnosti.
      Lastne vrednosti, lastni vektorji in lastni prostori. Vrtenja in zapletene lastne vrednosti. Diagonalizirane kvadratne matrice.
      Moči matric. Sistemi diferenčnih enačb. Linearne diferencialne enačbe.
      Notranji izdelki. Norma in notranji izdelki v Cn in abstraktni notranji prostori izdelkov. Cauchy & rsquos neenakost. Pravokotnost. Pravokotne matrice. Gram-Schmidtov postopek ortnormalizacije
      Pravokotna diagonalizacija simetričnih matric. Kvadratne oblike.
      Neposredna vsota dveh podprostorov. Pravokotna dopolnila. Projekcije. Karakteristične projekcije in pravokotne projekcije. Pravokotna projekcija na obseg matrike. Zmanjšanje razdalje do podprostora. Prilagajanje funkcij podatkom: približek najmanjših kvadratov.
      Kompleksna števila. Kratek tečaj Dave & rsquos o kompleksnih številkah. Kompleksni vektorski prostori. Kompleksne matrike. Kompleksni notranji prostori izdelkov. Hermitijanski konjugati. Enotna diagonalizacija in normalne matrike. Spektralna razgradnja.
    • Linearne transformacije. Definicija linearne transformacije L: V & rarr W iz domene V v kodenski prostor W. Kdaj V& nbsp = W, L imenujemo tudi linearni operator na V.
    • Primeri L: R n & rarr R m . Linearni operaterji vklopljeni R 2 vključno z rotacijami in odsevi, dilatacijami in kontrakcijami, strižnimi transformacijami, projekcijami, identitetnimi in ničelnimi transformacijami
    • Ničelni prostor (jedro) in obseg (slika) transformacije ter njihove dimenzije, ničnost in rang transformacije
    • Dimenzijski izrek: rand plus ničnost je enak dimenziji domene
    • Matrična predstavitev linearne transformacije med končnimi dimenzionalnimi vektorskimi prostori z določenimi bazami
    • Operacije na linearnih transformacijah V & rarr W. Vektorski prostor vseh linearnih transformacij V & rarr W. Sestava linearnih transformacij
    • Ustrezne matrične operacije, zlasti množenje matric, ustreza sestavi linearnih transformacij. Moči kvadratnih matric. Matrične operacije v Matlabu
    • Invertibilnost in izomorfizmi. Nepromenljivost dimenzije pri izomorfizmu. Inverzne matrike
    • Sprememba koordinatne matrike med dvema različnima bazama vektorskega prostora. Podobne matrice.
    • Dvojni prostori.
    • [Matrična predstavitev za kompleksna števila in druga za kvaternione. Zgodovinska opomba o kvaternionih.]
    • Elementarne operacije vrstic in osnovne matrike.
    • Uvrstitev matrike (uvrstitev vrstice) in njene dvojine (uvrstitev stolpca).
    • Algoritem za invertiranje matrike. Matrična inverzija v Matlabu
    • Sistemi linearnih enačb v smislu matrik. Matrika koeficientov in razširjena matrica. Homogene in nehomogene enačbe. Prostor rešitev, doslednost in nedoslednost sistemov.
    • Zmanjšana oblika vrstnega ešalona, ​​metoda izločanja (včasih imenovana Gaussova izločitev ali Gauss-Jordanova redukcija)
    • 2x2 determinante reda 2. Večlinearnost. Inverzno matriki 2x2. Podpisana površina ravninskega paralelograma, površina trikotnika.
    • nxn determinante. Razširitev kofaktorja
    • Računalniške determinante v Matlabu
    • Lastnosti determinant. Transpozicija, učinek osnovnih vrstnih operacij, večlinearnost. Determinante izdelkov, inverzne in transponirane. Cramer & rsquos pravilo za reševanje n enačbe v n neznanke.
    • Podpisana prostornina paralelepipeda v 3-prostoru
    • [Izbirna tema: permutacije in inverzije permutacij parne in lihe permutacije]
    • [Izbirna tema: navzkrižni izdelki v R 3 ]
    • Lastni prostor linearnega operatorja je podprostor, v katerem operater deluje kot množenje s konstanto, imenovano lastna vrednost (imenovana tudi značilna vrednost). Vektorji v lastnem prostoru so imenovani lastni vektorji za to lastno vrednost.
    • Geometrijska interpretacija lastnih vektorjev in lastnih vrednosti. Fiksne točke in 1-lastni prostor. Projekcije in njihov 0-lastni prostor. Odsevi imajo & ndash1-lastni prostor.
    • Vprašanje diagonalizacije.
    • Značilni polinom.
    • Kompleksne lastne vrednosti in rotacije.
    • Algoritem za računanje lastnih vrednosti in lastnih vektorjev
    • Notranji izdelki za realne in kompleksne vektorske prostore (za realne vektorske prostore se notranji izdelki imenujejo tudi pikčasti ali skalarni izdelki) in norme (imenovane tudi dolžine ali absolutne vrednosti). Notranji prostori izdelkov. Vektorji v Matlab.
    • Neenakost trikotnika in neenakost Cauchy-Schwarz, druge lastnosti notranjih izdelkov
    • Kot med dvema vektorjema
    • Ortogonalnost vektorjev ("pravokotni" in "normalni" sta drugi besedi za "pravokotni")
    • Enotni vektorji in standardni enotni vektorji v Ljubljani R n
    • Ortonormalna osnova

    Zapiski s predavanj, kvizi, testi, domače naloge

    • Nekaj ​​nalog
      1. Vaje od 1.1 do 1.7 na strani 53 in težave od 1.1 do 1.6 na strani 55.
      2. Težave od 1.8 do 1.14 na strani 57.
      3. Težave od 2.1 do 2.8 na strani 86.
      4. Vaje od 3.1 do 3.8, 3.11 na strani 125. (Upoštevajte, da gre za vaje in ne za težave.)
      5. Vaje od 4.1 do 4.6, stran 144.
      6. Težave od 5.1 do 5.7, stran 170.
      7. Različni problemi iz 6. in 7. poglavja (različne naloge v različnih oddelkih)

      : strukture izrek in dokazov, sintetični in analitični dokazi, logični simboli in dobro napisani dokazi
    • Malo o sklopih


    Zakaj narediti tako?

    To se morda zdi čuden in zapleten način množenja, vendar je nujen!

    Lahko vam dam primer iz resničnega življenja, da ponazorim, zakaj matrice množimo na ta način.

    Primer: Lokalna trgovina prodaja 3 vrste pite.

    • Jabolčne pite stanejo $3 vsak
    • Češnjeve pite stanejo $4 vsak
    • Pite z borovnicami stanejo $2 vsak

    In tole so prodali v 4 dneh:

    Zdaj pa pomisli na to. vrednost prodaje za ponedeljek se izračuna tako:

    V resnici gre torej za "pikčast izdelek" cen in tega, koliko jih je bilo prodanih:

    ($3, $4, $2) • (13, 8, 6) = $3×13 + $4×8 + $2×6
    = $83

    Mi tekmo cena na koliko prodanih, pomnožite potem vsak vsota rezultat.

    • Prodaja v ponedeljek je bila: Apple pita: $3×13=$39, Češnjeve pite: $4×8=$32in borovničeve pite: $2×6=$12. Skupaj je to 39 $ + 32 $ + 12 $ = $83
    • In za torek: $3×9 +$4×7 + $2×4 =$63
    • In za sredo: $3×7 +$4×4 + $2×0 =$37
    • In za četrtek: $3×15 +$4×6 + $2×3 =$75

    Zato je pomembno, da vsako ceno prilagodite vsaki količini.

    Zdaj veste, zakaj uporabljamo "pikčast izdelek".

    In tukaj je celoten rezultat v obliki matrice:

    Prodali so $83 pite v ponedeljek, $63 v torek itd.

    (Te vrednosti lahko vstavite v Matrični kalkulator, da preverite, ali delujejo.)


    Pododdelek 5.6.2 Stohastične matrike in stabilno stanje

    V tem pododdelku obravnavamo predstavitev diferenčnih enačb verjetnosti, na primer primer Red Box. Takšni sistemi se imenujejo Markovske verige. Najpomembnejši rezultat v tem poglavju je Perron-Frobeniusov izrek, ki opisuje dolgoročno obnašanje Markove verige.

    Definicija

    je stohastično če so vsi njeni vnosi nenegativni, vnosi vsakega stolpca pa v

    Matrica je pozitivno če so vsi njegovi vnosi pozitivna števila.

    Pozitivna stohastična matrica je stohastična matrika, katere vnosi so pozitivna števila. Zlasti noben vnos ni enak nič. Na primer, prva matrika spodaj je pozitivna stohastična matrica, druga pa ni:

    Opomba

    Splošneje a redno stohastična matrika je stohastična matrika

    Spodnji Perron-Frobeniusov izrek velja tudi za pravilne stohastične matrike.

    Primer

    Nadaljujemo s primerom Red Box, matriko

    je pozitivna stohastična matrika. Dejstvo, da stolpci seštejejo do

    pravi, da je treba vrniti vse filme, najete v določenem kiosku nekaj drugi kiosk (ne pozabite, da vsaka stranka naslednji dan vrne svoj film). Na primer, v prvem stolpcu piše:

    Od filmov, najetih v kiosku

    30% bo vrnjenotokiosk1 30% bo vrnjenotokiosk2 40% bo vrnjenotokiosk3.

    saj so vsi filmi vrnjeni v enega od treh kioskov.

    predstavlja spremembo stanja iz enega dne v drugega:

    To pravi, da skupaj število izvodov Prognosis Negative v treh kioskih se ne spreminja iz dneva v dan, kot pričakujemo.

    Dejstvo, da so vnosi vektorjev

    vsota na isto število je posledica dejstva, da stolpci stohastične matrike seštejejo do

    biti stohastična matrica, naj

    Nato vsota vnosov

    je enak vsoti vnosov

    Izračun dolgoročnega vedenja diferenčne enačbe se izkaže kot problem lastne vrednosti. Lastne vrednosti stohastičnih matric imajo zelo posebne lastnosti.

    biti stohastična matrika. Nato:

    je (dejanska ali zapletena) lastna vrednost

    Dokaz

    je stohastičen, potem je vrstice od

    Ampak množenje matrike z vektorjem

    imajo enak značilni polinom:

    torej je tudi lastna vrednost

    Vnos te vektorske enačbe je

    z največjo absolutno vrednostjo, torej

    kjer velja zadnja enakost, ker

    Pravzaprav za pozitivno stohastična matrika

    je (dejanska ali zapletena) lastna vrednost

    -avgeni prostor stohastične matrike je zelo pomemben.

    Definicija

    A ravnotežje stohastične matrike

    tako, da so vnosi pozitivno in seštevek do

    Izrek Perron – Frobenius opisuje dolgoročno obnašanje diferenčne enačbe, predstavljene s stohastično matrico. Njen dokaz presega obseg tega besedila.

    Perron – Frobeniusov izrek

    biti pozitivna stohastična matrika. Potem

    priznava edinstven vektor stabilnega stanja

    z vnosi, ki se seštejejo na neko število

    Prevod: Izrek Perron – Frobenius daje naslednje trditve:

    - lastni prostor ob večkratnem množenju z

    Pomisliti je treba na vektor stabilnega stanja

    kot vektor odstotkov. Na primer, če so filmi danes razdeljeni glede na te odstotke, bodo imeli enako distribucijo jutri, od

    In ne glede na začetno distribucijo filmov bo dolgoročna distribucija vedno vektor stabilnega stanja.

    ali je skupno število stvari v modelu sistema. Skupno število se ne spremeni, zato se mora približati dolgoročno stanje sistema

    ker je vsebovan v

    -eigenspace in vnosi

    Recept 1: Izračunajte vektor stabilnega stanja

    biti pozitivna stohastična matrika. Tu je opisano, kako izračunati vektor stabilnega stanja

    z vsoto vnosov

    Zgornji recept je primeren za ročne izračune, vendar ne izkorišča dejstva, da

    je stohastična matrika. V praksi je na splošno hitreje računalnik izračunati vektor ustaljenega stanja na naslednji način:

    Recept 2: Računalniško približajte vektor ustaljenega stanja

    biti pozitivna stohastična matrika. Tu je opis, kako približati vektor stabilnega stanja

    Primer (A
    Primer

    Če nadaljujemo s primerom Rdečega polja, lahko izrecno ponazorimo Perron-Frobeniusov izrek. Matrica

    ima značilen polinom

    je v absolutni vrednosti strogo večja od ostalih lastnih vrednosti in ima algebraično (torej geometrično) množino

    Izračunamo lastne vektorje za lastne vrednosti

    nujno ima pozitivne vnose, je vektor v stanju ravnotežja

    Ponavljanje množenja z

    kar je lastni vektor z lastno vrednostjo

    , kot ga zagotavlja Perron – Frobeniusov izrek.

    Kaj pravijo zgornji izračuni o številu kopij Prognosis Negative v kioskih Atlanta Red Box? Recimo, da se kioski začnejo s 100 kopijami filma z

    je vektor, ki opisuje to stanje. Potem jih bo

    filmi v kioskih naslednji dan,

    dan za tem itd. Pustili smo

    (Seveda ni smiselno delno število filmov, ki so tukaj prikazani decimalni znaki, ki ponazarjajo konvergenco.) Vektor v stanju dinamičnega ravnovesja pravi, da bodo filmi sčasoma razdeljeni v kioske glede na odstotke.

    38.888888% 33.333333% 27.777778%

    kar se strinja z zgornjo tabelo. Poleg tega je ta porazdelitev neodvisen začetka distribucije filmov v kioskih.

    Zdaj se obrnemo na vizualizacijo dinamike (tj. Ponavljajočega se množenja z) matrike

    Ta matrica je diagonalizacijska, ki jo imamo

    -koordinata nespremenjena, lestvica

    Večkratno množenje z

    -koordinira zelo majhno, zato "posrka vse vektorje v

    vendar glede na koordinatni sistem, ki ga določajo stolpci

    "Posrka vse vektorje v

    -eigenspace ", brez spreminjanja vsote vnosov vektorjev.

    Kliknite "pomnoži", da pomnožite barvne točke z

    na desni. Upoštevajte, da so na obeh straneh vsi vektorji "posrkani v

    -eigenspace "(zelena črta). (Spremenili smo

    tako da imajo vektorji približno enako velikost na desni in levi. "Skok", ki se zgodi, ko pritisnete "pomnoži", je negacija

    -eigenspace, ki ni animiran.)

    Slika pozitivne stohastične matrike je vedno enaka, ne glede na to, ali jo je mogoče diagonalizirati ali ne: vsi vektorji so "posrkani v

    -eigenspace, " kar je vrstica, ne da bi spremenili vsoto vnosov vektorjev. To je geometrijska vsebina Perron-Frobeniusovega izreka.


    Matrični kalkulator

    Matrika je v matematičnem kontekstu pravokotna matrika števil, simbolov ali izrazov, razporejenih v vrstice in stolpce. Matrice se pogosto uporabljajo na znanstvenih področjih, kot so fizika, računalniška grafika, teorija verjetnosti, statistika, računanje, numerična analiza in še več.

    Dimenzije matrike, A, so običajno označeni kot m & # 215 n. To pomeni da A ima m vrstice in n stolpci. Ko se sklicuje na določeno vrednost v matriki, imenovano element, se pogosto uporablja spremenljivka z dvema indeksoma za označevanje vsakega elementa glede na njihov položaj v matriki. Na primer, dano ai, j, kje i = 1 in j = 3, a1,3 je vrednost elementa v prvi vrstici in tretjem stolpcu dane matrike.

    Matrične operacije, kot so seštevanje, množenje, odštevanje itd., So podobne tistim, ki jih je večina ljudi verjetno navajena videti v osnovni aritmetiki in algebri, vendar se v nekaterih pogledih razlikujejo in so podvržene določenim omejitvam. Spodaj so opisani postopki matrike, ki jih lahko izvaja ta kalkulator.

    Dodajanje matrice

    Dodajanje matric je mogoče izvajati samo na matricah enake velikosti. To pomeni, da lahko matrike dodajate le, če sta obe matriki m & # 215 n. Lahko na primer dodate dve ali več 3 × 3, 1 × 2, ali 5 × 4 matrice. Ne morete dodati 2 × 3 in a 3 × 2 matrika, a 4 × 4 in a 3 × 3itd. Število vrstic in stolpcev vseh dodanih matric se mora natančno ujemati.

    Če so matrike enake velikosti, se dodajanje matric izvede z dodajanjem ustreznih elementov v matrike. Na primer, glede na dve matriki, A in B, z elementi ai, j, in bi, j, matrice se dodajo tako, da se doda vsak element, nato pa se rezultat postavi v novo matriko, C, v ustreznem položaju v matriki:

    V zgornjih matricah a1,1 = 1 a1,2 = 2 b1,1 = 5 b1,2 = 6 itd. Za pridobitev dodamo ustrezne elemente ci, j. Dodajanje vrednosti v ustrezne vrstice in stolpce:

    a1,1 + b1,1 = 1 + 5 = 6 = c1,1
    a1,2 + b1,2 = 2 + 6 = 8 = c1,2
    a2,1 + b2,1 = 3 + 7 = 10 = c2,1
    a2,2 + b2,2 = 4 + 8 = 12 = c2,2

    Tako matrika C je:

    Odštevanje matrike

    Odštevanje matrike se izvaja na enak način kot zgoraj opisano dodajanje matrice, z izjemo, da se vrednosti odštejejo in ne seštevajo. Če je potrebno, glejte zgornje informacije in primere za opis zapisov, uporabljenih v spodnjem primeru. Tako kot dodajanje matric morajo biti tudi matrice, ki jih odštejemo, enake velikosti. Če so matrike enake velikosti, se odštevanje matric izvede z odštevanjem elementov v ustreznih vrsticah in stolpcih:

    Tako matrika C je:

    Množenje matric

    Skalarno množenje:

    Matrike lahko pomnožimo s skalarno vrednostjo tako, da pomnožimo vsak element v matriki s skalarjem. Na primer, glede na matriko A in skalar c:

    Izdelek izdelka c in A je:

    Množenje matrike-matrike:

    Množenje dveh (ali več) matric je bolj vključeno kot množenje s skalarjem. Če želite pomnožiti dve matriki, se mora število stolpcev v prvi matrici ujemati s številom vrstic v drugi matrici. Na primer, lahko pomnožite a 2 × 3 matriko z a 3 × 4 matriko, vendar ne a 2 × 3 matriko z a 4 × 3.

    Upoštevajte, da pri množenju matric: A & # 215 B ni nujno enako B & # 215 A. Pravzaprav samo zato A lahko pomnožimo z B to ne pomeni B lahko pomnožimo z A.

    Če so matrike pravilnih velikosti in jih je mogoče pomnožiti, se matrike pomnožijo tako, da se izvede tako imenovani pikčasti izdelek. Dot produkt vključuje množenje ustreznih elementov v vrstici prve matrike s stolpci druge matrike in seštevanje rezultata, kar ima za posledico eno vrednost. Dot izdelek lahko izvedemo samo na zaporedjih enake dolžine. Zato se mora število stolpcev v prvi matrici ujemati s številom vrstic druge.

    Izdelek pike nato postane vrednost v ustrezni vrstici in stolpcu nove matrike, C. Na primer, iz zgornjega odseka matric, ki jih je mogoče pomnožiti, je modra vrstica v A se pomnoži z modrim stolpcem v B za določitev vrednosti v prvem stolpcu prve vrstice matrike C. To se imenuje pikčasti zmnožek vrstice 1 A in stolpec 1 B:

    Dot izdelek se izvede za vsako vrstico A in vsak stolpec B dokler niso vse kombinacije obeh popolne, da bi našli vrednost ustreznih elementov v matriki C. Na primer, ko izvedete pikčast zmnožek v vrstici 1 od A in stolpec 1 B, rezultat bo c1,1 matrike C. Dot izdelek v vrstici 1 od A in stolpec 2 B bo c1,2 matrike C, in tako naprej, kot je prikazano v spodnjem primeru:

    Pri množenju dveh matrik bo v tem primeru nastala matrica enako število vrstic kot prva matrika A, in enako število stolpcev kot druga matrica, B. Od A je 2 × 3 in B je 3 × 4, C bo a 2 × 4 matriko. Barve tukaj lahko pomagajo določiti najprej, ali je mogoče pomnožiti dve matriki, in drugič, dimenzije nastale matrice. Next, we can determine the element values of C by performing the dot products of each row and column, as shown below:

    Below, the calculation of the dot product for each row and column of C is shown:

    c1,1 = 1࡫ + 2࡭ + 1ࡧ = 20
    c1,2 = 1࡬ + 2࡮ + 1ࡧ = 23
    c1,3 = 1ࡧ + 2ࡧ + 1ࡧ = 4
    c1,4 = 1ࡧ + 2ࡧ + 1ࡧ = 4
    c2,1 = 3࡫ + 4࡭ + 1ࡧ = 44
    c2,2 = 3࡬ + 4࡮ + 1ࡧ = 51
    c2,3 = 3ࡧ + 4ࡧ + 1ࡧ = 8
    c2,4 = 3ࡧ + 4ࡧ + 1ࡧ = 8

    Power of a matrix

    For the intents of this calculator, "power of a matrix" means to raise a given matrix to a given power. For example, when using the calculator, "Power of 2" for a given matrix, A, means A 2. Exponents for matrices function in the same way as they normally do in math, except that matrix multiplication rules also apply, so only square matrices (matrices with an equal number of rows and columns) can be raised to a power. This is because a non-square matrix, A, cannot be multiplied by itself. A × A in this case is not possible to compute. Refer to the matrix multiplication section, if necessary, for a refresher on how to multiply matrices. Given:

    A raised to the power of 2 is:

    As with exponents in other mathematical contexts, A 3, would equal A × A × A, A 4 would equal A × A × A × A, in tako naprej.

    Transpose of a matrix

    The transpose of a matrix, typically indicated with a "T" as an exponent, is an operation that flips a matrix over its diagonal. This results in switching the row and column indices of a matrix, meaning that aij in matrix A, becomes aji v A T. If necessary, refer above for description of the notation used.

    An m × n matrix, transposed, would therefore become an n × m matrix, as shown in the examples below:

    Determinant of a matrix

    The determinant of a matrix is a value that can be computed from the elements of a square matrix. It is used in linear algebra, calculus, and other mathematical contexts. For example, the determinant can be used to compute the inverse of a matrix or to solve a system of linear equations.

    There are a number of methods and formulas for calculating the determinant of a matrix. The Leibniz formula and the Laplace formula are two commonly used formulas.

    Determinant of a 2 × 2 matrix:

    The determinant of a 2 × 2 matrix can be calculated using the Leibniz formula, which involves some basic arithmetic. Given matrix A:

    Determinant za A using the Leibniz formula is:

    Note that taking the determinant is typically indicated with "| |" surrounding the given matrix. Given:

    Determinant of a 3 × 3 matrix:

    One way to calculate the determinant of a 3 × 3 matrix is through the use of the Laplace formula. Both the Laplace formula and the Leibniz formula can be represented mathematically, but involve the use of notations and concepts that won't be discussed here. Below is an example of how to use the Laplace formula to compute the determinant of a 3 × 3 matrix:

    From this point, we can use the Leibniz formula for a 2 × 2 matrix to calculate the determinant of the 2 × 2 matrices, and since scalar multiplication of a matrix just involves multiplying all values of the matrix by the scalar, we can multiply the determinant of the 2 × 2 by the scalar as follows:

    This can further be simplified to:

    | A | = aei + bfg + cdh - ceg - bdi - afh

    This is the Leibniz formula for a 3 × 3 matriko.

    Determinant of a 4 × 4 matrix and higher:

    The determinant of a 4 × 4 matrix and higher can be computed in much the same way as that of a 3 × 3, using the Laplace formula or the Leibniz formula. As with the example above with 3 × 3 matrices, you may notice a pattern that essentially allows you to "reduce" the given matrix into a scalar multiplied by the determinant of a matrix of reduced dimensions, i.e. a 4 × 4 being reduced to a series of scalars multiplied by 3 × 3 matrices, where each subsequent pair of scalar × reduced matrix has alternating positive and negative signs (i.e. they are added or subtracted).

    The process involves cycling through each element in the first row of the matrix. Eventually, we will end up with an expression in which each element in the first row will be multiplied by a lower-dimension (than the original) matrix. The elements of the lower-dimension matrix is determined by blocking out the row and column that the chosen scalar are a part of, and having the remaining elements comprise the lower dimension matrix. Refer to the example below for clarification.

    Here, we first choose element a. The elements in blue are the scalar, a, and the elements that will be part of the 3 × 3 matrix we need to find the determinant of:

    Next, we choose element b:

    Continuing in the same manner for elements c in d, and alternating the sign (+ - + - . ) of each term:

    We continue the process as we would a 3 × 3 matrix (shown above), until we have reduced the 4 × 4 matrix to a scalar multiplied by a 2 × 2 matrix, which we can calculate the determinant of using Leibniz's formula. As can be seen, this gets tedious very quickly, but is a method that can be used for n × n matrices once you have an understanding of the pattern. There are other ways to compute the determinant of a matrix which can be more efficient, but require an understanding of other mathematical concepts and notations.

    Inverse of a matrix

    The inverse of a matrix A je označena kot A -1, kje A -1 is the inverse of A if the following is true:

    A×A -1 = A -1 ×A = I, where jaz is the identity matrix

    The identity matrix is a square matrix with "1" across its diagonal, and "0" everywhere else. The identity matrix is the matrix equivalent of the number "1." For example, the number 1 multiplied by any number n enako n. The same is true of an identity matrix multiplied by a matrix of the same size: A × I = A. Note that an identity matrix can have any square dimensions. For example, all of the matrices below are identity matrices. From left to right respectively, the matrices below are a 2 × 2, 3 × 3, in 4 × 4 identity matrix:

    The n × n identity matrix is thus:

    Inverse of a 2 × 2 matrix:

    To invert a 2 × 2 matrix, the following equation can be used:

    If you were to test that this is in fact the inverse of A you would find that both:

    are equal to the identity matrix:

    Inverse of a 3 × 3 matrix:

    The inverse of a 3 × 3 matrix is more tedious to compute. An equation for doing so is provided below, but will not be computed. Given:

    A=ei-fh B=-(di-fg) C=dh-eg D=-(bi-ch) E=ai-cg F=-(ah-bg) G=bf-ce H=-(af-cd) jaz=ae-bd

    4 × 4 and larger get increasingly more complicated, and there are other methods for computing them.


    STAT 542: MULTIVARIATE STATISTICAL ANALYSIS: CLASSICAL THEORY AND RECENT DEVELOPMENTS

    Prereq: STAT 581-582 plus linear algebra and matrix theory. In particular, familiarity with hypothesis testing, decision theory, and invariance. BIOSTAT/STAT 533 (univariate linear models) is also helpful.

    The first 3/4 of the course will concentrate on "classical" multivariate analysis, i.e, distribution theory and statistical inference based on the multivariate normal distribution. The last 1/4 will cover special topics of interest to the instructor and/or requested by the class. There will be several homework assignments. Time permitting, each registered student will report on a topic of interest to her/him.

    Topics include (as time permits):

    0. Brief review of matrix algebra and the multivariate normal distribution: pdf, marginal and conditional distributions, covariance matrix, correlations and partial correlations.

    1. The Wishart distribution: definition and properties, distribution of the sample covariance matrix, marginal and conditional distributions.

    2. Estimation and testing: likelihood inference and invariance. Hotelling's T^2 test, multivariate linear models and MANOVA, testing independence, Bartlett's tests for equality of covariance matrices. The James-Stein estimator for the mean vector, the Stein estimator for the covariance matrix.

    3. Distributions derived from the Wishart distribution and their role in hypothesis testing: eigenvalues, principle components, canonical correlations. Jacobians of multivariate distributions. Stein’s integral representation of the density of a maximal invariant statistic.

    4. Group symmetry in estimation and testing (the Copenhagen theory.)

    5. Multivariate probability inequalities and their applications to the power of multivariate tests and multiparameter confidence intervals.

    6. Lattice conditional independence models and their applications to missing data problems and "seemingly unrelated regression" models.

    Anderson, T. W. (2003). An Introduction to Multivariate Statistical Analysis (3rd ed). Wiley, New York.

    Andersson, S. A. (1999). An Introduction to Multivariate Statistical Analysis, Lecture Notes, Indiana University.

    Bilodeau, M. and Brenner, D. (1999). Theory of Multivariate Statistics. Springer, New York.

    Eaton, M. L. (1983). Multivariate Statistics. Wiley, New York.

    Eaton, M. L. (1989). Group Invariance Applications in Statistics. IMS-ASA.

    Lehmann, E. L. and Romano, J. P. (2005). Testing Statistical Hypotheses, 3nd ed. Wiley, New York.

    Muirhead, R. J. (1982). Aspects of Multivariate Statistical Theory. Wiley, New York.

    Seber, G. A. F. (1984). Multivariate Observations. Wiley, New York.

    Anderson, T. W. and Perlman, M. D. (1993). Parameter consistency of invariant tests for MANOVA and related multivariate hypotheses. Statistics and Probability: A Raghu Raj Bahadur Festschrift (J.K. Ghosh, S.K. Mitra, K.R. Parthasarathy, B.L.S. Prakasa Rao, eds.), 37-62. Wiley Eastern Ltd.

    Andersson, S. A. (1990). The lattice structure of orthogonal linear models and orthogonal variance component models. Scand. J. Statist. 17 287-319.

    Andersson, S. A., Brons, H. K., and Tolver Jensen, S. (1983). Distribution of eigenvalues in multivariate statistical analysis. Ann. Statist. 11 392-415.

    Andersson, S. A. and Klein, T. (2010) On Riesz and Wishart distributions associated with decomposable undirected graphs. J. Multivariate Analysis 101 789-810.

    Andersson, S. A. and Madsen, J. (1998). Symmetry and lattice conditional independence in a multivariate normal distribution. Ann. Statist. 26 525-572.

    Andersson, S. A. and Perlman, M. D. (1991). Lattice-ordered conditional independence models for missing data. Statistics and Probability Letters 12 465-486.

    Andersson, S. A. and Perlman, M. D. (1993). Lattice models for conditional independence in a multivariate normal distribution. Ann. Statist. 21 1318-1358.

    Andersson, S. A. and Perlman, M. D. (1994). Normal linear models with lattice conditional independence restrictions. V Multivariate Analysis and its Applications (T.W. Anderson, K.T. Fang, I. Olkin,eds.), IMS Lecture Notes-Monograph Series Zv. 24 97-110.

    Andersson, S. A. and Perlman, M. D. (1998). Normal linear regression models with recursive graphical Markov structure. J. Multivariate Analysis 66 133-187.

    Andersson, S. A. and Wojnar, G. G. (2004). Wishart distributions on homogeneous cones. J. Theoret. Prob. 17 781-818.

    Daniels, M. J. and Kass, R. E. (2001). Shrinkage estimators for covariance matrices. Biometrija 57 1173-1184.

    Das Gupta, S., Anderson, T. W., and Mudholkar, G. S. (1964). Monotonicity of the power functions of some tests of the multivariate linear hpothesis. Ann. Math. Statist. 35 200-205.

    Drton, M., Andersson, S. A., and Perlman, M. D. (2005). Lattice conditional independence models for seemingly unrelated regression models with missing data. J. Multivariate Analysis 97 385-411.

    Joe, H. (2006). Generating random correlation matrices based on partial correlations. J. Multivariate Analysis 97 2177-2189.

    Also see http://ms.mcmaster.ca/canty/seminars/Joe_vinecorr_print.pdf

    Kiefer, J. and Schwartz, R. (1965). Admissible Bayes character of T2-, R2-, and other fully invariant tests for classical multivariate normal problems. Ann. Math. Statist. 36 747-770.

    Ledet-Jensen, J. (1991). A large deviation-type approximation for the “Box class” of likelihood ratio criteria. J. Amer. Statist. Izr. 86 437-440.

    Madsen, J. (2000). Invariant normal models with recursive graphical Markov structure. Ann. Statist. 28

    Marden, J. I. and Perlman, M. D. (1980). Invariant tests for means with covariates. Ann. Statist. 8 825-63.

    Okamoto, M. (1973). Distinctiveness of the eigenvalues of a quadratic form in a multivariate sample. Ann. Statist. 1 763-754.

    Perlman, M. D. (1980a). Unbiasedness of the likelihood ratio tests for equality of several covariance matrices and equality of several multivariate normal populations. Ann. Statist. 8 247-263.

    Perlman, M. D. (1980b). Unbiasedness of multivariate tests: recent results. Proceedings of the Fifth International Symposium on Multivariate Analysis (P.R. Krishnaiah, ed.), 413-432. [Also see Anderson (2003) Section 8.10.2.]

    Perlman, M. D. and Olkin, I. (1980). Unbiasedness of invariant tests for MANOVA and other multivariate problems. Annals of Statistics 8 1326-1341.

    Perlman, M. D. (1987). Group symmetry covariance models. (Discussion of "A Review of Multivariate Analysis" by Mark Schervish.) Statistična znanost 2, 421-425.

    Perlman, M. D. (1990). T.W. Anderson's theorem on the integral of a symmetric unimodal function over a symmetric convex set and its applications in probability and statistics. The Collected Papers of T.W. Anderson: 1943-1985 (G. Styan, ed.), Vol. 2 1627-1641. J. Wiley & Sons, New York.

    Schwartz, R. (1967). Admissible tests in multivariate analysis of variance. Ann. Statist. 38, 698-710. [Also see Anderson (2003) Section 8.10.1.]

    Stein, C. (1956). The admissibility of Hotelling’s T2-test. Ann. Math. Statist. 27 616-623.

    Tolver Jensen, S. (1988). Covariance hypotheses which are linear in both the covariance and the inverse covariance. Ann. Statist. 16 302-322.


    Summarize the whole data set. In this example, summarize_all() generates a long-term mean of the data.

    Filter out just the January values, and get a long-term mean of those:

    Summarize the data by groups, in this case by months. First rearrange the data, and then summarize:

    Note that grouped data set looks almost exactly like the ungrouped one, except when listed, it includes the mention of the grouping variable (i.e., Groups: mon [12] ).

    Calculate annual averages of each variable, using the aggregate() function from the stats package.


    11.1: A- Jacobians, Inverses of Matrices, and Eigenvalues - Mathematics

    Course Coordinator: Dr Adrian Koerber

    Course Timetable

    The full timetable of all activities for this course can be accessed from Course Planner.

    Course Learning Outcomes
    1. Demonstrate understanding of basic concepts in linear algebra, relating to matrices, vector spaces and eigenvectors.
    2. Demonstrate understanding of basic concepts in calculus, relating to functions, differentiation and integration.
    3. Employ methods related to these concepts in a variety of applications.
    4. Apply logical thinking to problem-solving in context.
    5. Use appropriate technology to aid problem-solving.
    6. Demonstrate skills in writing mathematics.
    University Graduate Attributes

    This course will provide students with an opportunity to develop the Graduate Attribute(s) specified below:

    University Graduate Attribute Course Learning Outcome(s)
    Knowledge and understanding of the content and techniques of a chosen discipline at advanced levels that are internationally recognised. vse
    The ability to locate, analyse, evaluate and synthesise information from a wide variety of sources in a planned and timely manner. 3,4
    An ability to apply effective, creative and innovative solutions, both independently and cooperatively, to current and future problems. 1,2,3,4,5
    A proficiency in the appropriate use of contemporary technologies. 5
    A commitment to continuous learning and the capacity to maintain intellectual curiosity throughout life. vse

    Required Resources
    Priporočeni viri
    1. Lay: Linear Algebra and its Applications 4. izdaja (Addison Wesley Longman)
    2. Stewart: Račun 7th ed. (international ed.) (Brooks/Cole)
    Spletno učenje

    This course also makes use of online assessment software for mathematics called Maple TA, which we use to provide students with instantaneous formative feedback.

    Learning & Teaching Modes
    Workload

    The information below is provided as a guide to assist students in engaging appropriately with the course requirements.


    Dejavnost Količina Workload hours
    Predavanja 48 72
    Tutorials 11 22
    Assignments 11 55
    Mid Semester Test 1 6
    Skupaj 156
    Learning Activities Summary

    In Mathematics IA the two topics of algebra and calculus detailed below are taught in parallel, with two lectures a week on each. The tutorials are a combination of algebra and calculus topics, pertaining to the previous week's lectures.

    Lecture Outline


    Algebra

    • Matrices and Linear Equations (8 lectures)
      • Algebraic properties of matrices.
      • Systems of linear equations, coefficient and augmented matrices. Row operations.
      • Gauss-Jordan reduction. Solution set.
      • Linear combnations of vectors. Inverse matrix, elementary matrices, application to linear systems.
      • Definition and properties. Computation. Adjoint.
      • Convex sets, systems of linear inequalities.
      • Optimization of a linear functional on a convex set: geometric and algebraic methods.
      • Aplikacije.
      • Definicija. Linear independence, subspaces, basis.
      • Definitions and calculation: characteristic equation, trace, determinant, multiplicity.
      • Similar matrices, diagonalization. Aplikacije.
      • Functions (6 lectures)
        • Real and irrational numbers. Decimal expansions, intervals.
        • Domain, range, graph of a function. Polynomial, rational, modulus, step, trig functions, odd and even functions.
        • Combining functions, 1-1 and monotonic functions, inverse functions including inverse trig functions.
        • Areas, summation notation. Upper and lower sums, area under a curve.
        • Properties of the definite integral. Fundamental Theorem of Calculus.
        • Revision of differentiation, derivatives of inverse functions.
        • Logarithm as area under a curve. Lastnosti.
        • Exponential function as inverse of logarithm, properties. Other exponential and log functions. Hyperbolic functions.
        • Substitution, integration by parts, partial fractions.
        • Trig integrals, reduction formulae. Use of Matlab in evaluation of integrals.
        • Riemann sums, trapezoidal and Simpson's rules.

        Tutorial 1: Matrices and linear equations. Real numbers, domain and range of functions.

        Tutorial 2: Gauss-Jordan elimination. Linear combinations of vectors. Composition of functions, 1-1 functions.
        Tutorial 3: Systems of equations. Inverse functions. Exponential functions.
        Tutorial 4: Inverse matrices. Summation, upper and lower sums.
        Tutorial 5: Determinants. Definite integrals, average value.
        Tutorial 6: Convex sets, optimization. Antiderivatives, Fundamental Theorem of Calculus.
        Tutorial 7: Optimization. Linear dependence and independence. Differentiation of inverse functions.
        Tutorial 8: Linear dependence, span, subspace. Log, exponential and hyperbolic functions.
        Tutorial 9: Basis and dimension. Integration.
        Tutorial 10: Eigenvalues and eigenvectors. Integration by parts, reduction formulae.
        Tutorial 11: Eigenvalues and eigenvectors. Tirigonometric integrals.
        Tutorial 12: Diagonalization, Markov processes. Numerical integration.
        (Note: This tutorial is not an actual class, but is a set of typical problems with solutions provided.)

        Note: Precise tutorial content may vary due to the vagaries of public holidays.