Matrici Simpletice. Matrici Hamiltoniene

Cuprins

Capitolul 1

MATRICI.

Matrici. Generalități.

Clase speciale de matrici.

Proprietăți topologice ale mulțimii. M(n;R).

Elemente de analiză spectrală pentru matrici.

Matrici reale simetrice.

Teorema lui Jordan de descompunere a matricilor.

Funcții matriceale

Capitolul 2

MATRICI HAMILTONIENE. MATRICI SIMPLECTICE.

Capitolul 3

STRUCTURI POISSON, SISTEME HAMILTON-POISSON ȘI INTEGRATORI POISSON PE RN

bibliografie

Pagini 39

=== Matrici Simpletice. Matrici Hamiltoniene ===

Cuprins

Capitolul 1

MATRICI.

Matrici. Generalități.

Clase speciale de matrici.

Proprietăți topologice ale mulțimii. M(n;R).

Elemente de analiză spectrală pentru matrici.

Matrici reale simetrice.

Teorema lui Jordan de descompunere a matricilor.

Funcții matriceale

Capitolul 2

MATRICI HAMILTONIENE. MATRICI SIMPLECTICE.

Capitolul 3

STRUCTURI POISSON, SISTEME HAMILTON-POISSON ȘI INTEGRATORI POISSON PE RN

CAPITOLUL I

MATRICI

Matrici. Generalități.

În cele ce urmează, K va fi un corp comutativ.

Def.1.1.1. Fie K un corp comutativ și m,n două numere nenule. Notăm cu M = {1,2,3,…,m} și N = {1,2,3,…,n} și fie MxN produsul lor cartezian.

Se numește matrice de tip (m,n) peste corpul K.

Notăm A(i,j) = aij unde 1≤i≤m , 1≤j≤n.

Spunem că elementele [ai1, ai2, ai3, … ,ain], unde 1≤i≤m definesc linia de rang i a matricei.

Analog elementele (scrise pe verticală):

A =

unde 1≤j≤n, formează coloana de rang j a matricei.

Observăm că fiecărei matrici A coloana de tipul (m,n) cu elementele din corpul K i se poate asocia un tablou cu m linii și n coloane în care sunt așezate valorile funcției A:

A =

Reciproc, un astfel de tablou cu m linii și n coloane de elemente din corpul K determină în mod unic o matrice A.

A : M × N → K A(i,j) = aij

În concluzie putem scrie o matrice A sub formă de tablou, sau condensat

A =

Mulțimea tuturor matricilor cu m linii și n coloane având elemente din corpul K o notăm cu M(m,n;K).

Dacă m=n, atunci o matrice din M(m,n;K) = M(n;K) o vom numi matrice pătratică.

Def.1.1.2. Vom definii pe mulțimea M(m,n;K) o operație algebrică internă și anume adunarea matricilor și o operație algebrică externă, cea de înmulțire a unei matrici cu un scalar din corpul K.

Fie A,B M(m,n;K). Atunci:

Def.1.1.3. Fie A M(m,n;K) și B M(n,p;K). Vom definii o nouă matrice C M(m,n;K) ale cărei componente vor fi:

1≤i≤m , 1≤k≤p

Matricea C astfel obținută este unic determinată și se numește produsul matricilor A și B, ea notându-se: C=AB

Def.1.1.4. Pe mulțimea M(n;K) vom definii o operație internă și anume croșetul matricilor.

Fie A,B M(n;K).

Definim matricea :

C=AB – BA

care este unic determinată și se notează:

C=[A , B]

ea numindu-se croșetul matricilor A și B.

Observații:

Mulțimea M(n;K) împreună cu operațiile de adunare și înmulțire a matricilor formează un inel necomutativ.

Elementul neutru la adunare este matricea nulă

A=

iar la înmulțire este matricea unitate

A=

Mulțimea M(m,n;K) împreună cu operațiile de adunare și înmulțire cu scalar formează un spațiu vectorial finit dimensional peste corpul K, de dimensiune: dimK M(m,n;K) = mn.

Mulțimea M(n;K) împreună cu operațiile de adunare, înmulțire și croșet formează o algebră Lie.

Clase speciale de matrici.

Vom distinge în continuare mai multe tipuri de matrici.

Matrici linie:

A =

Matrici coloana:

A =

Matrici superior triunghiulare:

A =

Matrici inferioare triunghiulare:

A =

Matrici diagonale:

A =

Def.1.2.1. Transpusa unei matrici A M(m,n;K), A = este matricea notată:

At M(m,n;K), At =

Def.1.2.2. O matrice A M(m,n;K) se numește simetrică dacă At = A. Vom nota prin S(n;K) mulțimea matricilor simetrice cu coeficienții în K.

Def.1.2.3. O matrice A M(m,n;K) se numește antisimetrică dacă At = -A. Vom nota prin A(n;K) mulțimea matricilor antisimetrice cu coeficienții în K.

Def.1.2.4. O matrice A M(m,n;K) se numește nesingulară dacă det A ≠ 0. Vom nota prin GL(n;K) mulțimea matricilor nesingulare cu coeficienții în K.

Def.1.2.5. O matrice A M(m,n;K) se numește ortogonală dacă At . A = In. Vom nota prin O(n;K) mulțimea matricilor ortogonale.

Def.1.2.6. O matrice A M(m,n;K) se numește special ortogonală dacă

Vom nota prin SO(n;K) mulțimea matricilor special ortogonale.

Proprietăți topologice ale mulțimii M(n;R).

În acest paragraf, vom structura spațiul vectorial (M(n;R),+,·) ca spațiu vectorial euclidian, după care vom studia unele proprietăți, unde mulțimea M(n;R) va fi privită ca spațiu vectorial normat.

Definim aplicația:

(·,·): (A,B) M(n;R) × M(n;R) → (A,B) = Trace(AB) R

Vom demonstra că aplicația (·,·) este un produs scalar pe mulțimea M(n;R).

Demonstrație:

(·,·) este un produs scalar pe M(n;R) dacă oricare ar fi A, B, C M(n;R) si λR avem:

P1. (A+B,C) = (A,C) + (B,C)

P2. (A,B)=(B,A)

P3. (λ A,B)= λ(A,B)

P4. (A,A)≥0 și (A,A)=0 dacă și numai dacă A=On

Aceste condiții se verifică imediat ținând cont de proprietățile urmei și deci (·,·) este un produs scalar pe mulțimea M(n;R).

Din cele de mai sus și din faptul că produsul scalar (·,·) este degenerat avem că spațiul vectorial (M(n;R),+,·, (·,·)) este un spațiu vectorial euclidian.

Cu ajutorul acestui produs scalar putem structura M(n;R) ca un spațiu vectorial normat astfel:

Fie aplicația

Demonstrăm că această aplicație este o normă matriceală pe M(n;R), deci oricare ar fi A, B M(n;R) avem că:

Demonstrație:

Avem succesiv că:

N1. și dacă și numai dacă A=On

N2. , ,

În adevăr avem:

Sau echivalent:

N3. oricare ar fi A, B M(n;R) (1)

Pentru început vom arăta că :

oricare ar fi A, B M(n;R) (2)

În adevăr, oricare ar fi avem că:

Dacă atunci (2) este satisfăcută.

Dacă luăm , iar inegalitatea de mai sus devine

sau echivalent cu (2).

Putem trece acum să demonstrăm inegalitatea (1).

Avem succesiv:

sau echivalent cu (1).

Pentru a demonstra că această normă este o normă matriceală demonstrăm că:

, A, B M(n;R)

În adevăr avem succesiv, via inegalitatea lui Cauchy – Buniakovsky

sau echivalent:

Norma matriceală introdusă anterior se numește norma Frobenius. Această normă nu este unica normă care se poate introduce pe mulțimea M(n;R). Să observăm că dacă privim o matrice A ca operator atunci cu ajutorul normelor vectoriale din Rn putem obține norme matriceale pe mulțimea M(n;R).

O matrice A poate fi văzută si astfel:

În conformitate cu notațiile de mai sus, definim norma lui A astfel:

Astfel definită, avem că:

este o normă matriceală.

Cum spațiul vectorial (M(n;R),+,·) este finit dimensional avem că el este izomorf cu Rp, unde p = n2.

Din observația anterioară avem că pentru a demonstra echivalența oricăror două norme pe M(n;R) este suficient să demonstrăm că orice două norme vectoriale pe Rp sunt echivalente.

Aceasta o vom demonstra mai jos, ținând cont că relația de echivalență a normelor vectoriale este o relație de echivalență.

Teorema 1.3.1. Orice normă pe Rp este echivalentă cu norma euclidiană.

Demonstrație:

Fie N : Rp → R+ o normă pe Rp.

Deoarece N este continuă pe Rp, rezultă că N este continuă pe mulțimea compactă:

Rezultă că există astfel încât:

Deoarece N nu se anulează pe X0 putem alege m1 = N(x0).

Atunci pentru orice cu , avem că:

ceea ce implică

,

Pe de altă parte

unde

Deci, am obținut că:

ceea ce arată că:

Elemente de analiză spectrală pentru matrici.

Def.1.4.1. Fie A M(n;K). Un vector propriu al matricei A este o matrice coloană v:

v =

v1, v2, v3, …, vn K

astfel încât Av=λv, unde λ K, se numește valoarea proprie a lui A asociată vectorului propriu v.

Observația 1.4.1. Condiția ca v să fie vector propriu a lui A cu valoarea proprie λ se poate scrie sub forma echivalentă:

Deci, vectorii proprii v asociați valorii proprii λ, împreuna cu vectorul nul se notează Vλ și este un subspațiu vectorial al lui Kn, adică:

Pe de altă parte ecuația

în necunoscuta v este un sistem liniar și deci are soluția nenulă (pentru că v este vector propriu și deci nenul) daca și numai dacă

Def.1.4.2. Polinomul:

se numește polinomul caracteristic al matricei A.

Dacă K=C atunci valorile proprii ale lui A (spectrul lui A) sunt cele n rădăcini ale polinomului caracteristic al lui A.

Observația 1.4.2. În cazul când M=C polinomul caracteristic are cel puțin o rădăcină, deci orice matrice A M(n;C) are cel puțin o valoare proprie complexă.

Def.1.4.3. Fie A și B M(n;K). Spunem că A și B sunt similare dacă există o matrice S GK(n;K) astfel încât să avem S-1AS=B.

Observația 1.4.3. Din definiția anterioară avem că evident dacă A și B sunt două matrici similare, atunci ele au același polinom caracteristic și deci aceleași valori proprii.

Def.1.4.4. Vom spune că matricea A M(n;K) este diagonalizată peste K dacă ea este similară cu o matrice diagonală D.

Def.1.4.4. Vom spune că matricea A M(n;K) este triangularizabilă superior peste K dacă ea este similară cu o matrice triunghiulară superior T.

Proprietatea 1.4.1. Fie A M(n;K). Atunci:

detA= λ1 ·λ2 ·… ·λn

TraceA= λ1 + λ2 + …+ λn

Demonstrație:

Știm că valorile proprii ale matricei A sunt rădăcinile polinomului caracteristic.

Rezultă că:

(*)

Alegând în egalitatea (*) λ=0 obținem:

(1)

Dar

(2)

Din (1) și (2) obținem că:

Demonstrăm egalitatea din enunț pentru cazul n=3, cazul general demonstrându-se analog.

Din (*) avem că:

Pe de altă parte:

unde sunt complemenții algebrici ai elementelor primei linii ale matricii

Singurul termen din suma de mai sus care conține este:

Identificând coeficientul lui din dezvoltările anterioare, obținem că:

Dar prin definiție

Din (*) și relațiile lui Viette obținem că

Proprietatea 1.4.2: Fie A M(n;R) și . Atunci:

, oricare ar fi A N*

, unde p R[x] și prin p(A) înțelegem polinomul corespunzător lui A

Demonstrație:

Fie și v vectorul corespunzător. Din definiția vectorilor și valorilor proprii avem:

Înmulțind la stânga cu A obținem:

Continuând procedeul de mai sus, prin inducție matematică obținem că:

Adică

Fie p R[x] .

Atunci

Procedând analog ca și în cazul (i) avem că din rezultă:

oricare ar fi .

Înmulțind relația de mai sus cu și adunând termen cu termen pentru obținem:

Ceea ce reprezintă:

Deci

Din avem că

Dar

Deci

Proprietatea 1.4.3: (Cayley – Hamilton)

Fie A M(n;R). Dacă p R[x] este polinomul caracteristic al matricei A, atunci

Demonstrație:

Pentru a ne ușura calculele vom considera cazul n=3, cazul general tratându-se analog.

Fie matricea adjunctă matricei. Din construcția inversei matricei avem că:

(*)

Dar și fiecare element al matricei este un determinant de ordinul doi care va fi un polinom în λ de grad cel mult doi.

De exemplu de pe poziția (2,2) al matricei este:

Ordonând după puterile lui λ fiecare element al matricei obținem:

Unde B1, B2, B3 M(n;R) nu depind de λ.

Din relația anterioară și relația (*) avem că:

În relația anterioară, înmulțind cu obținem

Fie

Identificând coeficienții obținem

(**)

Dar .

Înlocuind relațiile (**) în relația anterioară obținem succesiv:

Deci .

Proprietatea 1.4.4:

Două matrici similare au același polinom caracteristic, deci aceleași valori proprii.

Dacă A, B M(n;K) atunci AB și BA au aceleași valori proprii.

Demonstrație:

Fie A, B M(n;K) astfel încât există GL(n;K) cu B=S -1·A·S și

polinoamele caracteristice ale lui A respectiv B.

Fie ; mulțimea valorilor proprii ale matricelor AB, respectiv BA (spectrul acestora).

Dacă rezultă că există un vector propriu asociat v astfel încât:

Înmulțind de la stânga la dreapta relația anterioară cu B avem:

Deci și un vector propriu asociat lui este

Deoarece a fost ales arbitrar obținem. În mod analog avem că și astfel din cele două incluziuni obținem .

Proprietatea 1.4.5.(Gershgorin):

Dacă A M(n;C) cu atunci fiecare valoare proprie a matricei A aparține unui dintre discurile

Demonstrație: Fie adică o valoare proprie a matricei. Atunci sistemul liniar în necunoscutele v1,…,vn:

are soluția nenulă.

Dintre numerele vi alegem pe cel mai mare în modul; fie acesta vk. Avem atunci succesiv

sau echivalent:

Proprietatea 1.4.6:

Fie A M(n;K) și valori proprii distincte ale lui A cu vectorii proprii corespunzători . Să se arate că vectorii sunt liniari independenți.

Demonstrație: Vom face demonstrația prin inducție matematică după p.

Dacă p=1 proprietatea este evident adevărată.

Să presupunem că ea este adevărată pentru orice și să demonstrăm că este adevărată și pentru k=p.

Fie deci

(*)

Înmulțind la stânga cu A în relația anterioară obținem:

Sau

(**)

Înmulțind relația (*) cu și adunând-o cu (**) obținem:

Conform ipotezei de inducție avem din relația anterioară că:

Și din * obținem că:

Deci sunt liniari independenți.

Proprietatea 1.4.7:

Dacă λ este o valoare proprie a matricei A având multiplicitatea k atunci .

Demonstrație:

Fie și o bază în și.

Din bază în avem că:

Și deci în baza matricea A are forma:

Din cele de mai sus avem că polinomul caracteristic al lui A are forma:

și deci

Dar cum am obținut că:

Proprietatea 1.4.8:

Dacă A M(n;K) atunci A este diagonalizabilă dacă și numai dacă are n vectori proprii liniari independenți în Kn.

Demonstrație:

„”Presupunem deci că A are n vectori proprii liniari independenți în Kn, să zicem și să desemnăm cu valorile proprii corespunzătoare. Definim acum matricea S ca fiind de tip ale cărei coloane sunt adică .

Avem deci că GL(n;K) pentru că sunt liniar independenți.

Din cele de mai sus și din faptul că GL(n;K) avem că:

adică A este diagonalizabilă.

„”reciproc

Fie A diagonalizabilă unde:

și

Atunci AS=SD

Aceasta implică: dacă este coloana „i” a lui S avem:

Avi=coloana „i” a lui SD=λivi

Adică sunt vectorii proprii ai lui A cu valorile proprii.

Deoarece sunt coloanele unei matrici inversabile (S) ele sunt liniar independente în Kn.

Proprietatea 1.4.9:

Fie A M(n;C). Atunci A este diagonalizabilă dacă și numai dacă are n valori proprii distincte.

Demonstrație:

Fie valorile proprii distincte ale lui A. Atunci am demonstrat anterior că vectorii proprii corespunzători sunt liniar independenți și deci matricea A este diagonalizabilă, via propoziției anterioare.

Proprietatea 1.4.10:

Fie A M(n;R). Atunci A este diagonalizabilă dacă și numai dacă toate valorile proprii sunt reale iar subspațiile proprii corespunzătoare au dimensiuni egale cu multiplicitățile valorilor proprii.

Demonstrație:

„” Fie o bază în care matricea A are forma diagonală, adică:

unde are multiplicitatea , …, are multiplicitatea și sau echivalent:

Avem atunci:

Și deci subspațiul propriu conține vectorii proprii

rezultă că:

pe de altă parte rezultă că:

proprietate demonstrată anterior. Din cele de mai sus obținem:

În mod analog se arată că:

„” Fie rădăcinile polinomului caracteristic al matricei A, cu multiplicitățile, astfel încât și

Considerăm vectorii proprii aleși astfel încât primii formează o bază a lui , … ultimii formează o bază a lui . Vom arăta că ei sunt liniari independenți. În adevăr, fie:

Desemnăm prin suma primilor termeni din expresia de mai sus, … , și prin suma ultimilor termeni.

Deci

(*)

Obținem astfel vectorii care satisfac egalitatea de mai sus. Ei trebuie să fie toți nuli pentru că dacă q dintre ei ar fi nenuli și restul nuli, atunci acești q vectori corespunzători la valori proprii distincte ar fi liniar independenți, ceea ce ar contrazice (*). Deci , ceea ce ar conduce mai departe la:

pentru că sunt respectiv baze în . Deoarece rezultă că este o bază în. În această bază matricea A are evident forma diagonală. Mai precis avem:

Matrici reale simetrice

Proprietatea 1.5.1:

Fie A S(n;R). Atunci avem că:

Toate valorile proprii ale lui A sunt reale.

Vectorii proprii corespunzători la valori proprii distincte sunt ortogonali.

Demonstrație:

Fie , deci există v nenul un vector propriu corespunzător, adică:

sau echivalent:

luând conjugarea complexă obținem:

(*)

Înmulțind la dreapta cu v obținem:

Pe de altă parte avem:

(ultima egalitate verificându-se prin calcul direct)

Deci avem că

Dar evident și deci via relația (*) avem că și astfel obținem că .

Fie v,w doi vectori proprii corespunzători valorilor proprii distincte și .

Deci

Avem atunci

(1)

Pe de altă parte:

(2)

și deci înlocuind (1) în (2) obținem:

sau echivalent:

Dar cum rezultă că adică

Proprietatea 1.5.2:(Teorema lui Schur)

Fie A S(n;R). Atunci există o matrice ortogonală U astfel încât UtAU este o matrice triunghiulară superior.

Demonstrație:

Vom face demonstrația prin inducție după n.

Pentru n=1 A este evident triunghiulară.

Fie deci n >1.

Atunci există un vector propriu v1 al lui A cu valoarea proprie (aici intervine faptul că A este simetrică). Putem alege v1 unitar (adică ). Adăugăm acum (n-1) vectori care împreună cu v1 să formeze a bază a lui Rn. Aplicând procedeul de ortonormalizare a lui Gramm-Schimtd obținem o bază ortonormată a lui Rn.

Fie

Avem atunci

Dar

Avem atunci:

Aplicând acum ipoteza de inducție rezultă că există U1 ortogonală astfel încât:

unde este triunghiulară superior.

Fie

Se verifică ușor că:

Dacă definim acum

atunci U este ortogonală ca produs de matrici ortogonale și mai mult:

care este evident superior triunghiulară.

Proprietatea 1.5.3(Teorema spectrală)

Fie A S(n;R). Există atunci o matrice ortogonală U astfel încât este o matrice diagonală.

Demonstrație:

Din propoziția anterioară există o matrice ortogonală U astfel încât:

unde T este matrice triunghiulară superior.

Dar

și cum T este triunghiulară superior rezultă că este triunghiulară inferior și ele deci pot fi egale doar atunci când T este diagonală.

Proprietatea 1.5.4:

O matrice A S(n;R) este pozitiv definită dacă și numai dacă toate valorile proprii ale matricii A sunt pozitive.

Demonstrație:

Din teorema spectrală avem asigurată existența unei matrice ortogonale S astfel încât:

Unde sunt valorile proprii ale matricei A.

Definim acum matricea coloană:

Avem atunci:

Rezultă că:

dacă și numai dacă

Proprietatea 1.5.5:

Fie A S(n;R) pozitiv definită. Arătați că există B M(n;R) astfel încât .

Demonstrație:

Din propozițiile anterioare avem că există o matrice S ortogonală astfel încât:

unde sunt valorile proprii ale lui A.

Fie

Rezultă că

Definim acum

și avem atunci

Proprietatea 1.5.6:

Fie A M(n;R). Arătați că AAt S(n;R) și pozitiv definită.

Demonstrație:

Avem

și deci

AAt S(n;R)

Pe de ală parte pentru avem:

Rezultă că AAt este pozitiv definită.

Proprietatea 1.5.7:

Fie A S(n;R). Atunci A este pozitiv definită dacă și numai dacă există B M(n;R) nesingulară astfel încât A=BtB.

Demonstrație:

„” Să presupunem că A=BtB, B nesingulară.

Atunci

Dacă rezultă (pentru că B nesingulară este inversabilă) deci:

adică BtB este pozitiv definită.

„” Presupunem că A este pozitiv definită. Atunci avem că toate valorile ei proprii sunt pozitive și mai mult există o matrice S ortogonală astfel încât:

unde sunt valorile proprii ale matricei A.

Definim atunci

și avem

Luând

obținem

A=BtB

unde B este inversabilă deoarece și S sunt inversabile.

Proprietatea 1.5.8: (Teorema de descompunere polară)

Fie A GL(n;R).. Atunci există matricile P, Q astfel încât A=PQ, unde P S(n;R). este pozitiv definită iar Q este o matrice ortogonală.

Demonstrație:

Vrem ca să aibă loc relația A=PQ unde Q o să fie ortogonală iar P simetrică și pozitiv definită.

Rezultă că:

Luăm unde P este evident pozitiv definită pentru că este pozitiv definită și mai mult avem:

deci

pentru că dacă rezultă că sau echivalent

adică

ceea ce contrazice ipoteza.

Deci P este o matrice simetrică și pozitiv definită. Dar A=PQ

Sau echivalent

Avem atunci:

dar cum

avem

și deci

deci Q este o matrice ortogonală.

Rezultă că:

A=PQ

unde este ortogonală.

Proprietatea 1.5.9:

Fie A o matrice antisimetrică. Să se arate că A2 S(n;R) și A2 nu este pozitiv definită.

Demonstrație:

Avem succesiv:

Proprietatea 1.5.10:

Să se arate că:

Valorile proprii ale unei matrici antisimetrice sunt pur imaginare.

Dacă matricea A M(n;R) este antisimetrică atunci matricea este nesingulară.

Condiția are loc dacă și numai dacă A este o matrice antisimetrică.

Demonstrație:

Dacă

Atunci avem evident că

Dar este negativ definită deci

Rezultă că valorile proprii ale matricei A sunt pur imaginare.

Dacă

rezultă că

ceea ce din (i) este absurd.

Deci

sau echivalent este inversabilă.

Fie

Avem atunci

Rezultă că

dacă și numai dacă

sau echivalent

Teorema lui Jordan de descompunere a matricilor

În acest paragraf vom prezenta o demonstrație scurtă a descompunerii Jordan a unui operator vectorial finit dimensional peste C. Demonstrația este bazată pe un algoritm care presupune cunoașterea acestei descompuneri a operatorului A restricționat la un subspațiu invariant de o dimensiune mai mică cu o unitate decât a spațiului.

Fie A un operator liniar pe spațiul vectorial finit dimensional V peste C.

Reamintim că un subspațiu al lui V se numește ciclic dacă este de forma

Unde și

Acest subspațiu este A invariant și are dimensiunea m. Aceasta rezultă imediat din faptul că pentru anumiți r :

și

Aplicând în relația anterioară obținem că:

Ideea demonstrației este următoarea:

Argumentul folosit în teorema poate fi redus la două cazuri. Într-unul din ele este presupusa existența unui vector g din afara spațiului n-1 dimensional A-invariant, F al lui V astfel încât Ag=0. În acest caz și soluția urmează pe baza ipotezei de inducție matematică asupra lui F. Cazul dificil este atunci când nu există un vector g cu proprietățile de mai sus. Urmează ca unul din subspațiile ciclice ale restricției lui A la F este înlocuit printr-un subspațiu ciclic al lui A în V care este mai mare cu o dimensiune, dar păstrează celelalte subspații ciclice neschimbate.

Observația 1.6.1

Presupunem cu și , unde H este un subspațiu A-invariant al lui V și

Fie și

Atunci:

cu și

Acesta urmează imediat din faptul că dacă o combinație liniară de vectori aparține lui H aceeași combinație liniară de vectori aparține de semeni lui H.

Teorema de descompunere a lui Jordan

Fie un spațiu vectorial finit dimensional peste C și A un operator liniar pe V. Atunci V poate fi scris ca o sumă directă de subspații ciclice.

Demonstrație:

Vom demonstra teorema prin inducție matematică după dimensiunea lui V. Descompunerea cerută este trivială dacă dimV =1. Presupunem că descompunerea are loc pentru subspații de dimensiune n-1.

Fie dimV = n. Pentru început presupunem că A este singular. Atunci R(A), rangul lui A are dimensiunea cel mult n-a. Fie F un subspațiu n-1 dimensional al lui V care conține pe R(A). Deoarece , din ipoteza de inducție avem că F se poate scrie ca o sumă directă de subspații ciclice:

Scrierea în sumă directă este aleasă astfel încât:

Definim mulțimea . Fie . Presupunem că Ag este de forma:

(1)

unde dacă

și

unde

Pentru a verifica (1) observăm că . Deci Ag este o combinație liniară de vectori de forma , , . Pentru vectorii sunt din AF. Dacă , atunci din și din descompunerea binomială obținem că este de forma:

deci toți vectorii aparțin lui AF și deci (1) are loc.

Fie

unde h este dat în (1).

Deoarece și de relația (1) avem că:

(2)

Dacă , atunci este ciclic și deci .

Presupunem că

Fie p cel mai mare număr întreg j din relația (2) pentru care

Atunci pentru

(3)

Definim

Subspațiul H este A-invariant și deoarece avem că aplicând observația făcută înaintea teoremei relativ la și egalitatea (3) obținem că:

Deci

Deoarece

Aceasta completează demonstrația teoremei sub presupunerea că A este singular. Pentru cazul general fie o valoare proprie a lui A. Atunci este singular și din rezultatul anterior aplicat lui rezultă că V este o sumă directă de subspații ciclice a lui A.

Observația 1.6.2:

Această demonstrație arată cum se extinde o formă Jordan a unui operator A de pe un subspațiu n-a dimensional, A-invariant, F, la un subspațiu n dimensional A-invariant care-l conține pe F.

De observat că demonstrația teoremei este valabilă de asemenea dacă înlocuim scalarii complecși cu numere din orice corp algebric închis.

CAPITOLUL II

MATRICI HAMILTONIENE. MATRICI SIMPLETICE:

Vom desemna în tot ceea ce urmează prin J matricea de tip definită prin:

Câteva proprietăți ale ei sunt date în propoziția următoare:

Propoziția 2.1:

Au loc următoarele relații:

deci J este antisimetrică

deci J este ortogonală

Demonstrație:

Cum avem că

Rezultă din (ii)

Definiția 2.1:

O matrice se numește Hamiltoniană dacă ea îndeplinește următoarea condiție

Propoziția 2.2:

Următoarele afirmații sunt echivalente:

A este Hamiltoniană

,

Demonstrație:

(i) (ii) Avem

și atunci

este echivalentă cu:

Deci

și

sau echivalent (i) (ii)

(ii) (iii)

Deoarece

avem că

Este echivalentă cu

Și deci (ii) (iii)

Propoziția 2.3:

Fie A,B Hamiltoniene și . Atunci avem:

A+B este Hamiltoniană.

αA este Hamiltoniană.

[A,B] este hamiltoniană.

Demonstrație:

(i) și (ii) se obțin ușor printr-un calcul direct.

(iii) Fie

Avem atunci:

și

și deci via Propoziția 2.2., [A,B] este Hamiltoniană.

Vom nota prin mulțimea matricilor Hamiltoniene de tip cu coeficienți reali.

Avem atunci:

Propoziția 2.4:

are o structură canonică de algebra Lie.

Propoziția 2.5.:

Polinomul caracteristic al unei matrici Hamiltoniene reale este un polinom de grad par. Prin urmare dacă este o valoare proprie atunci sunt de asemenea valori proprii.

Demonstrație:

Fie A o matrice Hamiltoniană și polinomul său caracteristic. Avem atunci succesiv:

Deci

Cum polinomul p are coeficienți reali:

Definiția 2.1:

O matrice se numește simpletică dacă

Vom desemna prin mulțimea matricilor simpletice de tip .

Propoziția 2.6:

Fie . Atunci avem:

A este nesingulară și

Demonstrație:

deci:

și deci

sau:

de unde

Pe de altă parte:

și

și atunci

Dacă atunci din relația de mai sus deducem că:

deci

adică:

Celelalte afirmații se stabilesc în mod analog.

Observația 2.1:

Din cele de mai sus avem că este un grup; mai mult este chiar un grup Lie. Vom arăta mai târziu că algebra Lie este chiar .

Propoziția 2.7:

Dacă λ este o valoare a matricii atunci sunt de asemenea valori proprii ale matricei A.

Demonstrație:

Fie și polinomul său caracteristic.

Atunci avem succesiv:

Prin urmare:

Pe de altă parte, deoarece p este un polinom cu coeficienți reali:

de unde obținem rezultatul din enunț.

Observația 2.2:

Deoarece determinantul unei matrici este produsul tuturor valorilor proprii, avem că orice matrice are determinantul egal cu 1.

Propoziția 2.8:

Să se arate că dacă A este Hamiltoniană atunci este simpletică pentru orice .

Demonstrație:

Fie

Atunci

Pe de altă parte:

(pentru că A este Hamiltoniană)

constant

și cum

avem că

Adică exp(At) este simpletică pentru orice .

Propoziția 2.9:

Dacă exp(At) este simpletică pentru orice t, atunci A este Hamiltoniană.

Demonstrație:

Dacă exp(At) este simpletică pentru orice t avem că:

Înmulțind la dreapta cu și la stânga cu deducem că:

de unde rezultă că A este Hamiltoniană.

Din propozițiile 2.8 și 2.9 deducem că are loc:

Propoziția 2.10

Matricea A este Hamiltoniană dacă și numai dacă exp(At) este simpletică pentru orice , ceea ce înseamnă că algebra Lie a grupului matricelor simpletice este formată din matricele Hamiltoniene, adică:

.

CAPITOLUL II

STRUCTURI POISSON, SISTEME HAMILTON-POISSON ȘI INTEGRATORI POISSON PE RN

În acest capitol vom prezenta câteva aspecte din teoria structurilor Piosson și a sistemelor Hamilton-Poisson de pe Rn și vom dezvolta câteva puncte din teoria integratorilor Poisson pe Rn.

Structuri Poisson pe Rn.

Fie spațiul funcțiilor de clasă definite pe Rn și cu valori reale.

Definiția 3.1:

Se numește structură Poisson pe Rn orice aplicație:

Care satisface următoarele condiții:

(P1) este R-liniară

(P2) este asimetrică, adică:

, ;

(P3) verifică regula lui Leibnitz, adică:

, ;

(P4) verifică identitatea lui Jacobi, adică:

, ;

Exemplul 3.1:

Un calcul lung dar direct ne arată că relația:

,

definește o structură Poisson pe Rn

Exemplul 3.2:

Relația

,

Definește o structură Poisson pe R3. În adevăr, condițiile (P1)-(P3) se pot verifica imediat. Noi vom verifica doar condiția (P4). Pentru început să observăm că relația se poate pune sub forma echivalentă:

, unde

, și

Avem atunci suucesiv:

Deoarece:

pentru orice i=1,2,3, prima linie este 0. Termenul din a doua linie se reduce cu termenul ce conține din a treia linie, deoarece:

Rezultă că termenii liniilor 2 și 3 se reduc în perechi și deci (P4) este verificată.

Definiția 3.2:

O aplicație R-liniară

Se numește derivare dacă verifică următoarea identitate:

Propoziția 3.1:

Fie D o derivare pe. Atunci pentru orice și pentru orice avem:

Demonstrație:

În adevăr, D fiind o derivare, rezultă că D este un câmp de vectori pe Rn și deci

sau echivalent:

Propoziția 3.2:

Orice structură Poisson pe Rn se poate scrie sub forma:

(3.1)

pentru orice

Demonstrație:

Pentru fixat, aplicația:

este o derivare și atunci via Prop. 3.1, ea poate fi scrisă sub forma:

Punând în relația de mai sus , obținem:

Pe de altă parte, pentru f fixat aplicația:

este o derivare și atunci via Prop. 3.1, ea poate fi scrisă sub forma:

Punând în relația de mai sus obținem:

Prin urmare avem:

(convenția de însumare a lui Einstein)

adică relația cerută.

Fie acum matricea definită prin:

Atunci relația (3.1) se poate pune sub forma echivalentă:

(3.2)

Am obținut deci:

Propoziția 3.3:

Orice structură Poisson pe Rn se poate scrie sub forma (3.2) sau echivalent, orice structură Poisson pe Rn este complet determinată de matricea via relația (3.1)

Observația 3.1:

Pentru exemplul 3.1 avem:

Iar pentru exemplul 3.2 avem:

Propoziția 3.4:

Orice matrice antisimetrică determină o structură Poisson Rn via relația (3.2).

Demonstrație:

Fie ,

Atunci avem succesiv:

(P1) Biliniaritatea se verifică fără nici o dificultate.

(P2) Antisimetria este o consecință imediată a faptului că matricea este antisimetrică.

(P3) Pentru orice avem succesiv:

(P4) Pentru orice să notăm cu S respectiv următoarele expresii:

Avem atunci:

Să observăm acum că dacă , , atunci luând în considerare faptul că este antisimetrică, coeficientul termenului fixat din expresia lui S este:

care după un calcul simplu se arată că este egal cu zero. Dacă r=s și t=v, atunci coeficientul termenului din expresia lui S este:

care este din nou egal cu zero și deci identitatea lui Jacobi este verificată.

Propoziția 3.5:

Pe Rn identitatea lui Jacobi este verificată dacă și numai dacă ea este verificată pe funcțiile de coordonate.

Demonstrație:

Implicația „” este evidentă. Pentru cealaltă implicație să observăm că din regula lui Leibniz avem:

Scriind și celelalte două relații și luând ultimii doi termeni din fiecare, prin însumare obținem:

Din primul și al patrulea termen avem că aceștia doi se anulează. Analog termenul doi și cinci, trei și șase. Rezultă deci că toată suma este egală cu zero. Prin urmare identitatea lui Jacobi se reduce la:

de unde obținem rezultatul dorit.

Această propoziție ne permite să dăm o demonstrație directă la următoarea proprietate care va avea un rol fundamental în tot ceea ce urmează:

Propoziția 3.6:

Fie G o algebră Lie finit dimensională și duala ei. Atunci există pe două structuri Poisson canonice numite structuri Lie-Poisson.

Demonstrație:

Fie o bază fixată în G și baza duală corespunzătoare, adică:

Dacă sunt constantele de structură ale lui G relativ la baza fixată, adică:

(3.3)

sunt structuri Poisson pe . În adevăr relațiile (3.3) se pot scrie sub forma echivalentă:

(3.4) unde

Din scrierea matriceală (3.4) condițiile (P1)-(P4) sunt verificate. Condiția (P4) este verificată (conform Propr. 3.5) dacă și numai dacă ea este verificată pe funcțiile de coordonate, iar această ultimă proprietate este evident adevărată dacă ținem cont că:

Exemplul 3.3:

Să considerăm algebra Lie 3-dimensională. Dacă este baza canonică a lui R3, adică:

atunci un calcul simplu ne arată că avem următorul tabel:

și prin urmare structurile Lie-Poisson de pe sunt determinate respectiv de matricile:

și

Rezultă că structura Poisson de la Exemplul 3.2 este de fapt structura Lie-Poisson de pe duala algebrei Lie .

Vom arăta acum că în cazul particular R3 se poate construi în mod canonic o structură Poisson care este foarte utilă în aplicații. Mai precis avem:

Propoziția 3.7:

Fie . Atunci relația:

definește o structură Poisson pe R3.

Demonstrație:

Pentru început să observăm că expresia de mai sus se poate pune sub forma echivalentă:

unde

Condițiile (P1),(P2) din definiția structurii Poisson se verifică fără nici o dificultate. Noi vom verifica condițiile (P3) și (P4)

(P3) Avem succesiv

(P4) Pentru verificarea identității lui Jacobi ne putem mărginii la verificarea ei pe funcții de coordonate (vezi Propr. 3.5). Avem atunci:

Bibliografie

Belman, Introduction to Matrix Analysis, 2nd ed., McGraw-Hill, New Zork 1970.

M. Hirsch și S. Smale, Differential Equations, Dynamical Systems and Linear Algebra, Academic Press, 1974

M. Puta, Algebra Liniara. Probleme. Prima ediție 2000, Editura Mirton, A doua ediție 2003, Editura Mirton.

M. Puta, Calcul Matricial. Probleme, Editura Mirton, 2004.

D.J.S. Robinson, A Course in Linear Algebra with Applications, Word Scientific 1991.

Similar Posts