Endomorfisme Nilpotente. Forma Canonica Jordan
Capitolul 1
NOȚIUNI INTRODUCTIVE
§ 1.1. Spații vectoriale
În cele ce urmează (K, +, ּ) va reprezenta un corp comutativ, ale cărui elemente le vom numi scalari și V o mulțime nevidă, ale cărui elemente le vom numi vectori, pe care vom defini:
o lege de compoziție internă, notată aditiv și numită adunarea
vectorilor: ,,+’’ : V V V
(v1, v2) v1+v2 V;
– o lege de compoziție externă, notată multiplicativ și numită
înmulțirea vectorilor cu scalari din K :
,, ּ’’: K V V
(, v) v.
În raport cu aceste operații, (V, +, ּ) se numește spațiu vectorial peste corpul K dacă sunt îndeplinite condițiile:
1) (V, +) grup abelian;
2) i) și , ,
ii) și , ,
iii) și , ,
iv) , .
Observația 1.1.1. i) În definiția de mai sus nu trebuie să se confunde operația de adunare a scalarilor din corpul K cu operația de adunare a vectorilor din V chiar dacă sunt notate la fel. De asemenea nu trebuie să se facă confuzie între înmulțirea din corpul K și înmulțirea cu scalari definită mai sus.
Propoziția 1.1.2. Dacă V este un spațiu vectorial peste corpul K, atunci:
i) Pentru orice vector avem că
ii) Pentru orice scalar avem că
iii) Pentru orice vector , .
iv) Pentru orice scalar , .
v) Pentru orice scalar și orice vector avem că dacă și numai dacă sau .
Demonstrație.
i) Fie atunci , deci
ii) , deci
iii) Din proprietatea i) avem . Deci
Deci , de unde rezultă că .
iv) ,.
v) Fie și astfel ca .
Dacă sau afirmația este adevărată. Presupunem . Atunci și avem că Deci . Dacă și atunci rezultă pentru că dacă am presupune și ar rezulta deci contradicție.
Observația 1.1.3. Fie V un spațiu vectorial peste corpul K și v1, v2 = V atunci definim diferența celor doi vectori astfel:
Scăderea vectorilor nu mai este nici comutativă și nici asociativă.
Subspații vectoriale
Fie V un subspațiu vectorial peste un corp comutativ K și o mulțime nevidă.
Definiția 1.1.4. V ‘se numește subspațiu vectorial al lui V dacă V ‘ are structură de K – spațiu vectorial în raport cu operațiile definite pe V și notăm V ‘ V. (Deci V ‘ V dacă și numai dacă sunt îndeplinite condițiile:
i)
ii) .)
Propoziția 1.1.5. Fie V’V cu V ‘. Atunci condiția necesară și suficientă ca V’ să fie subspațiu vectorial al lui V este ca:
.
Demonstrație.
,,’’ Presupunem că . Atunci este grup abelian. Fie atunci și Din ipoteză avem că , . Dacă luăm și rezultă că .
,,” Dacă se consideră și atunci avem că , , deci V’ este parte stabilă în raport cu adunarea vectorilor ,,+’’.
Dacă se consideră arbitrar, și , atunci ,
Dacă se consideră arbitrar, atunci și .
Exemple de subspații vectoriale
1) Fie V un K – spațiu vectorial și vectorul nul. Atunci V’ este subspațiu vectorial al lui V numit subspațiul nul.
2) Fie Mn(K) – K – spațiu vectorial al matricelor pătratice de ordin n cu
coeficienți în K. Vom considera mulțimile:
M(K)
mulțimea matricelor pătratice de ordin n simetrice peste corpul K și
M (K)
mulțimea matricelor pătratice de ordin n antisimetrice peste corpul K.
Cum Mn(K) , M(K) , M (K) , deducem că aceste mulțimi sunt nevide (am notat cu O matricea nulă) iar M(K) și M (K) sunt spații vectoriale ale spațiului vectorial Mn(K) .
3) Fie funcție spațiu vectorial peste .
mulțimea funcțiilor pare și
mulțimea funcțiilor impare.
Cum , este și funcție pară și impară, rezultă că și .
și sunt subspații ale spațiului vectorial .
4) este subspațiu vectorial pentru .
Operații cu subspații vectoriale
Fie un – spațiu vectorial și subspații ale lui , cu .
Propoziția 1.1.6.
Mulțimea este un subspațiu vectorial al lui V.
ii) În general reuniunea a două sau a mai multor subspații ale lui V nu este subspațiu vectorial al lui V.
Demonstrație. i) Fie și atunci și . Rezultă atunci că , deci .
ii) Pentru a justifica această afirmație vom da un contraexemplu. Fie și vom considera drept subspații
Avem că sunt mulțimi nevide și că .
Mulțimea conține toate elementele din care are primele trei componente sau ultimele trei componente nule. Demonstrăm că nu este subspațiu vectorial în . Fie și , dar dacă
Propoziția 1.1.7. Fie V un K – spațiu vectorial , fixat, , Considerând un sistem de q vectori arbitrar aleși din V, atunci mulțimea:
este subspațiu vectorial al lui V, numit subspațiu generat de sistemul de vectori S, S numindu-se sistem de generatori pentru .
Demonstrație. este mulțime nevidă pentru că . Este evidentă și incluziunea .
Fie acum și , vectori din . Atunci avem că
Observația 1.1.8. Orice element din se numește combinație liniară atașată lui S, iar elementele lui S se numesc generatori ai spațiului .
Definiția 1.1.9. Fie V un K – spațiu vectorial și cu . Se numește suma subspațiilor Vi , subspațiul notat sau și generat de reuniunea celor n subspații ale lui V .
Deci avem relația:
.
Propoziția 1.1.10. Fie V un K – spațiu vectorial și cu , . Atunci
Demonstrație. Fie Cum vectorul nul se găsește în fiecare subspațiu vectorial Vi, , avem că , deci
Fie deci . Atunci
, pentru că cu . Deci .
Deoarece și sunt subspații vectoriale, pentru a arăta egalitatea din enunț trebuie să demonstrăm egalitatea lor doar ca mulțimi.
Deoarece elementele lui sunt combinații liniare cu toți coeficienții 1 de elemente din , avem că .
Reciproc, fie , deci este o combinație liniară arbitrară de elemente din , adică astfel încât pentru orice și cu proprietatea că .
Deoarece , rezultă că, după o eventuală reordonare a vectorilor există cu și astfel ca și unde deci .
Cum , rezultă că și cu , deci avem că .
Propoziția 1.1.11. Fie și două subspații vectoriale ale – spațiului vectorial V și fie . Descompunerea este unică dacă și numai dacă .
Demonstrație. Fie două descompuneri ale vectorului v. Deoarece și vectorul . Dar cum
rezultă că și , adică unicitatea descompunerii.
Reciproc, presupunem că descompunerea este unică. Dacă ar rezulta că orice vector nenul ar avea două descompuneri distincte:.
Definiția 1.1.12. Fie și două subspații vectoriale ale – spațiului vectorial V. Dacă , atunci suma se numește sumă directă și se notează cu . Dacă în plus atunci spațiile și se numesc suplimentare.
Dependență și independență liniară
Fie V un spațiu vectorial peste corpul comutativ K și S o submulțime de elemente din V.
Definiția 1.1.13. Mulțimea S se numește liniar dependentă dacă există o mulțime finită de elemente distincte din S,,,…,și scalarii cel puțin unul diferit de zero, astfel încât .
Definiția 1.1.14. Mulțimea S se zice liniar independentă dacă nu este liniar dependentă, adică dacă pentru orice submulțime finită a sa, relația , implică ca unică posibilitate. (Deci putem spune că orice subsistem finit al său este liniar independent).
Exemple.
Fie , atunci v este liniar independent.
{0} este o mulțime liniar dependentă.
3) Dacă S este submulțime de vectori și , atunci S este liniar dependentă. Dacă în S există un vector care se poate exprima ca o combinație liniară de alți vectori din S, atunci S este liniar dependentă.
Propoziția 1.1.15. Fie V un K – spațiu vectorial, o mulțime liniar independentă și subspațiul lui V generat de S. Atunci orice mulțime de r+1 elemente din este liniar dependentă.
Demonstrație. Fie , vectori arbitrari care se găsesc în .
Relația conduce la :. Cum sunt liniari independenți rezultă că , relație echivalentă cu următorul sistem omogen:
– – – – – – – – – – – – – – – – – –
care are r ecuații și r+1 necunoscute, deci admite și soluții nebanale. Rezultă atunci că scalarii nu sunt toți nuli, deci vectorii sunt liniar dependenți.
Observația 1.1.16. Orice subsistem al unui sistem de vectori liniari independenți este liniar independent.
§ 1.2. Bază și dimensiune
Fie V un spațiu vectorial peste corpul comutativ K.
Definiția 1.2.1. O mulțime B de vectori din V se numește bază pentru V, dacă B este o mulțime de vectori liniar independenți și formează sistem de generatori pentru V.
Propoziția 1.2.2. Orice spațiu vectorial diferit de spațiul nul admite cel puțin o bază.
Demonstrație. Fie V un spațiu vectorial peste un corp comutativ K, V diferit de spațiul nul și fie S un sistem de generator al său. În S se găsesc și vectori nenuli (pentru că V este spațiu nenul), deci putem spune că în S există vectori liniar independenți. Fie I mulțimea tuturor sistemelor liniar independente de vectori din S, care din cele spuse mai sus este o mulțime nevidă. Pentru aceasta fie o parte total ordonată de elemente și fie . Arătăm că este un sistem liniar independent adică arătăm că orice subsistem finit al său este liniar independent. Fie astfel încât . Cum este total ordonată există cu astfel ca , deci și cum este liniar independentă rezultă că și este sistem liniar independent. Fie un element maximal al lui și arătăm că X este o bază în V. Știm că X este un sistem liniar independent și demonstrăm că este și sistem de generatori pentru V. Pentru aceasta arătăm că . Fie . Notez , atunci avem că sistemul este liniar dependent datorită faptului că X este maximal în S. Deci există , nu toți nuli, astfel încât .
Avem pentru că altfel și cum X este liniar independent rezultă și . Cum și K este corp există , deci , deci . Rezultă că , deci , demonstrând astfel că .
Consecință. Fie V un K – spațiu vectorial nenul. Atunci, din orice sisem de generatori se poate extrage o bază.
Propoziția 1.2.3. (Steinitz). Fie V un K – spațiu vectorial un sistem liniar independent de vectori din V, și un sistem de generatori ai lui V. Atunci și după o eventuală renumerotare a vectorilor se obține că .
Demonstrație. Inducție după r. Pentru r=1, cum este un sistem de generatori ai lui V rezultă că există , astfel încât . Deoarece este liniar independent rezultă , deci cel puțin unul dintre scalarii este nenul. Renumerotând eventual termenii putem presupune că și obținem:
Deci avem că , de unde rezultă că .
Presupunem afirmația adevărată pentru . Atunci avem și există o renumerotare a vectorilor astfel încât
.
Se observă că , pentru că, în caz contrar am avea ceea ce contrazice faptul că este un sistem de vectori liniar independenți.
Din rezultă că astfel încât
.
Cum cel puțin un , cu este nenul (pentru că altfel ar rezulta liniar independenți) putem presupune că , după o eventuală renumerotare a termenilor. Obținem atunci că:
,
de unde rezultă că .
Observația 1.2.4. Propoziția 1.2.3., mai poartă denumirea de “Teorema schimbului”.
Definiția 1.2.5. Se numește dimensiune a spațiului vectorial V numărul de vectori dintr-o bază și se notează .
Propoziția 1.10. Fie V un spațiu vectorial finit dimensional, B și B’ două baze ale sale. Atunci B și B’ au același număr de elemente.
Demonstrație. Fie n numărul de elemente ale lui B și n’ numărul de elemente din B’. Rezultă că, dacă B este liniar independentă și generează V , cum B’ este formată din vectori liniar independenți, avem că . Analog raționăm și pentru B’, de unde rezultă . Deci avem că .
Propoziția 1.2.7. Fie v un spațiu vectorial peste corpul comutativ K, astfel încât
dimkV = n. Atunci sunt adevărate afirmațiile:
i) Orice mulțime de vectori liniar independenți poate fi completată la o bază a spațiului vectorial V.
ii) Orice mulțime formată din n vectori liniar independenți este o bază a lui V.
Demonstrație. i) Fie o mulțime liniar independentă. Atunci avem că T este și sistem de generatori, rezultă și deci T este bază, fie . În acest caz astfel încât este liniar independent . Dacă , atunci T’ este o bază a lui V ce conține pe T, iar dacă reluăm raționamentul și deci T poate fi completată la o bază din V.
ii) Fie mulțime liniar independependentă și generează V , cum B’ este formată din vectori liniar independenți, avem că . Analog raționăm și pentru B’, de unde rezultă . Deci avem că .
Propoziția 1.2.7. Fie v un spațiu vectorial peste corpul comutativ K, astfel încât
dimkV = n. Atunci sunt adevărate afirmațiile:
i) Orice mulțime de vectori liniar independenți poate fi completată la o bază a spațiului vectorial V.
ii) Orice mulțime formată din n vectori liniar independenți este o bază a lui V.
Demonstrație. i) Fie o mulțime liniar independentă. Atunci avem că T este și sistem de generatori, rezultă și deci T este bază, fie . În acest caz astfel încât este liniar independent . Dacă , atunci T’ este o bază a lui V ce conține pe T, iar dacă reluăm raționamentul și deci T poate fi completată la o bază din V.
ii) Fie mulțime liniar independentă. Din i) rezultă că B poate fi completată la o bază din V, iar baza trebuie să aibă n element, deci .
Observația 1.2.8. În cele ce urmează vom înțelege prin bază într-un spațiu vectorial finit dimensional, o mulțime finită, ordonată, liniar independentă, care generează spațiul dat.
Propoziția 1.2.9. Fie V un spațiu vectorial peste un corp comutativ K, dimkV = n și fie o bază în V, atunci orice vector admite o exprimare unică de forma (numită descompunerea lui v după vectorii bazei).
Demonstrație. Deoarece rezultă că orice vector poate fi scris ca o combinație liniară de vectori ai bazei, deci .
Presupunem că ar fi o altă scriere în baza B, atunci avem:
și cum sunt liniar independenți rezultă că , deci .
Definiția 1.2.10. Elementele găsite mai sus se numesc coordonatele vectorului v în raport cu baza B, iar bijecția , definită prin se numește sistem de coordonate. Datorită acestei bijecții identificăm uneori un vector cu sistemul de coordonate corespunzător într-o bază dată.
Fie o matrice. Vom nota cu coloanele (liniile) matricei A. Notăm cu , despre care știm că sunt spații vectoriale și că , .Deci are sens să vorbim de subspațiul vectorial al lui generat de elementele (respectiv de elementele ) și pe care –l notăm (respectiv ).
Propoziția 1.2.11. (Kronecker). Cu notațiile de mai sus avem că deci putem spune că este egal cu numărul maxim de coloane (linii) care sunt liniar independente.
Demonstrație. Fie . Vom presupune că , deci și atunci vom găsi un minor de ordin nenul.
Știind că rangul unei matrice nu se schimbă dacă permutăm liniile (coloanele) între ele, vom presupune că submatricea lui A:
are .
Demonstrăm că este un sistem de vectori liniar independenți în subspațiul .
Fie deci egalitatea:
.
De aici rezultă că și deoarece , din regula lui Cramer rezultă că .
Demonstrăm că este un sistem de generatori pentru subspațiul . Pentru aceasta vom arăta că orice cu este o combinație liniară de .
Fie matricea pătratică de ordin :
,
cu i arbitrar, .
Dacă avem că , pentru că are două linii egale.
Dacă avem , pentru că , deci ,.
Fie acum d complementul algebric al lui în matricea și complementul algebric al lui cu . Dezvoltând după ultima linie avem .
Cum , atunci avem că:
.
De aici rezultă că , unde nu depinde de i .
Analog se arată și .
Definiția 1.2.12. Fie V un K – spațiu vectorial de dimensiune n și baza în V.
Dacă , atunci
, , .
Acestor relații li se atașează matricea:
numită matricea de trecere de la vectorii la vectorii .
Facem observația că putem identifica vectorul cu coloana din matricea , iar această matrice are rangul egal cu numărul maxim al vectorilor coloană liniar independenți.
Propoziția 1.2.13. Fie sistemul omogen de ecuații liniare
cu coeficienți într-un corp comutativ K. Să se arate că mulțimea soluțiilor acestui sistem formează un subspațiu vectorial al spațiului Kn de dimensiune n – r , unde r este rangul matricei sistemului.
Demonstrație. Fie S mulțimea soluțiilor sistemului omogen dat. Este clar că .
Fie , .
Deci avem că , .
Deoarece rezultă că
, deci S este subspațiu vectorial al lui Kn.
Fie , unde este matricea sistemului. Presupunem că:
.
Aplicăm regula lui Cramer, sistemului:
Obțimem soluțiile:
, unde se obține din înlocuind coloana (i) din matricea sistemului (**) cu coloana formată din termenii liberi ai sistemului (**), deci putem scrie că:
,
cu , și astfel soluția generală a sistemului este:
, iar rămân arbitrari.
Fie matricea
ale cărei linii le obținem astfel: pentru prima linie dau necunoscutei valoarea 1 și celorlalte valoarea 0, pentru a doua linie dau necunoscutei valoarea 1 și celorlalte valoarea 0 ș.a.m.d.
Liniile acestei matrice reprezintă soluții ale sistemului omogen, ele sunt în număr de n – r și sunt liniar independente deoarece rangul matricei B este n – r . Dacă notăm liniile matricei B prin
se observă că soluția generală a sistemului omogen se scrie sub forma:
.
Cele n – r soluții formează o bază a subspațiului S, iar un astfel de sistem de n – r soluții se numește sistem fundamental de soluții al sistemului omogen dat.
§ 1.3. Schimbarea bazei
Fie V un spațiu vectorial peste corpul K, . Fie și două baze în V.
În continuare vom vedea cum se modifică coordonatele în baza B ale unui vector atunci când se schimbă baza B cu baza B’.
Notăm cu matricea pătratică ale cărei coloane sunt coordonatele vectorilor bazei B’ în raport cu baza B (adică matricea de trecere de la baza B la baza B’ ).
Vom nota cu respectiv , coordonatele vectorului în raport cu baza B respectiv B’. Deci avem:
și cu .
Rezultă atunci că
.
Deci avem că cu .
Aceste relații caracterizează transformarea coordonatelor la o schimbare a bazei. Matriceal putem scrie
, unde , .
Propoziția 1.3.1. Fie V un spațiu vectorial peste corpul comutativ K, cu . Fie o bază lui V. Mulțimea
este o altă bază a spațiului V, dacă și numai dacă , unde este o matrice oarecare.
Demonstrație. Relațiile (*) pot fi scrise matriceal astfel:
.
Presupunem că , deci matricea C este inversabilă, atunci există C-1 și înmulțind la stânga cu relația (**) obținem:
.
Din această relație rezultă că este o combinație liniară de și cum orice este combinație liniară de rezultă că x este combinație liniară de , deci B’ formează sistem de generatori. Mai trebuie arătat că B’ este și sistem de vectori liniar independenți. Pentru aceasta fie astfel încât: , deci putem scrie că
.
Cum sunt liniar independenți rezultă că și cum C este inversabilă rezultă că , deci .
Reciproc, să presupunem că B’ este bază în V și vom arăta că matricea C este inversabilă.
Cum B’ este bază în V rezultă că
unde .
Demonstrez că
,
deci
și pentru ,
de aici rezultă că . Analog arătăm că , deci matricea C este inversabilă.
§ 1.4. Aplicații liniare
Definiția 1.4.1. Fie V și W două spații vectoriale peste corpul comutativ K. O funcție se numește aplicație liniară sau morfism de spații vectoriale, dacă T este morfism de grupuri, adică
și mai satisface în plus condiția:
.
Observația 1.4.2. 1) Dacă se consideră corpul K structurat ca spațiu vectorial peste K, atunci o aplicație liniară se numește formă liniară.
2) Din faptul că T este morfism de grupuri, rezultă că și
.
Propoziția 1.4.3. este aplicație liniară dacă și numai dacă .
Demonstrație. Deoarece T este aplicație liniară, rezultă
.
Reciproc. Luând rezultă și luând , rezultă .
Definiția 1.4.4. Fie o aplicație liniară. Ea este injectivă dacă T este funcție injectivă, surjectivă, dacă T este funcție surjectivă și bijectivă, dacă T este funcție bijectivă. O aplicație liniară bijectivă se numește izomorfism de spații vectoriale.
Propoziția1.4.5. Fie o aplicație liniară. Atunci:
i) .
ii) Dacă U este un subspațiu vectorial al lui V, atunci T(U) este un subspațiu vectorial al lui W.
iii) Dacă vectorii sunt liniar dependenți, atunci sunt liniar dependenți.
iv) Dacă sunt liniar independenți și T este injectivă, atunci sunt liniar independenți.
v) Dacă și sunt liniar independenți, atunci sunt liniar independenți.
vi) Dacă , cu surjectivă, atunci , unde .
vii) Dacă și cu , atunci T este surjectivă.
viii) Cu notațiile de la punctul vii) pentru T este izomorfism, M este bază a lui V dacă și numai dacă N este bază a lui W.
Demonstrație.
i) În relația putem lua și rezultă .
ii) Fie și , azunci există astfel ca , . Deci , deci .
iii) Fie nu toți nuli astfel ca: . Rezultă atunci că deci sunt liniar independenți.
iv) Presupunem că cu , . Atunci vom avea că . Cum T este injectivă, rezultă că , deci (pentru că sunt liniar independenți). Am demonstrat astfel că sunt liniar independenți.
v) Dacă .
vi) Fie . Din T surjectivă, rezultă că există astfel ca . Cum , rezultă că putem găsi scalarii nu toți nuli astfel ca . Deci
deci , adică avem că .
vii) Fie astfel ca
,
unde , .
viii) Rezultă din iv) și vi).
Rezultă din v) și vii).
Propoziția 1.4.6. Fie V și W două spații vectoriale peste K, o bază în V și , n vectori arbitrari din W. Atunci:
i) Există o aplicație liniară care satisface .
ii) Dacă vectorii sunt liniar independenți, atunci aplicația T de mai sus este injectivă.
Demonstrație. i) Fie , . Vom defini astfel:.
Din unicitatea scalarilor , rezultă că T este bine definită (deci este funcție) și are proprietatea că , .
Vom demonstra că T este aplicație liniară.
Fie , . Atunci , cu . Rezultă că
.
Presupunem că există astfel încât . Avem că
.
ii) Fie , , vectori oarecare din V. Avem că , . Presupunem că . Rezultă atunci că și cum sunt liniar independenți avem că , deci , , adică .
Nucleu și imagine
Fie V și W două spații vectoriale peste corpul comutativ K, iar o aplicație liniară.
Definiția 1.4.7. i) Mulțimea se numește nucleul lui T.
ii) Mulțimea se numește imaginea lui V prin T.
Propoziția 1.4.8. Fie . Atunci avem că:
Nucleul lui T este un subspațiu vectorial al lui V.
Imaginea lui V prin T este un subspațiu vectorial al lui W.
Demonstrație. a) Fie , atunci și . Rezultă că , deci .
b) Fie . Avem că există astfel încât și , iar pentru orice , .
Observația 1.4.9.
se numește rangul lui T.
se numește defectul lui T.
Propoziția 1.4.10. Fie o aplicație liniară. Sunt echivalente afirmațiile:
T este injectivă;
Demonstrație. a) b). Fie ,. Cum și T injectivă rezultă că , fals. Deci .
b) a). Fie rezultă că . Cum avem , adică .
Propoziția 1.4.11. Fie o aplicație liniară. Dacă V este un K – spațiu vectorial finit dimensional, atunci și spațiul vectorial este finit dimensional și avem că:
.
Demonstrație. Vom nota cu și cu .
Dacă atunci rezultă că T este injectivă, deci este bijecție. Vom avea atunci că . Presupunem și fie bază în pe care o vom completa la o bază din . Fie un element arbitrar. Rezultă că există astfel încât și scalarii au proprietatea că . Deci
.
Dar cum rezultă că , deci , deci vectorii generează subspațiul vectorial .
Demonstrăm că acești vectori sunt și liniar independenți. Fie scalarii astfel că . Rezultă atunci că , deci și vom putea scrie acest element funcție de baza din , adică există scalarii cu proprietatea că .
Rezultă clar că , deci și .
§ 1.5. Matricea unei aplicații liniare
Fie V și W două spații vectoriale peste același corpul comutativ K, cu și și vom considera o aplicație liniară.
Propoziția 1.5.1. Dacă este o bază a lui V iar este o bază a lui W, atunci există o unică matrice astfel încât . Dacă elementul , , este dus în cu , atunci , .
Notând și obținem scrierea matriceală pentru aplicația liniară T.
Demonstrație. Se știe că T este unic determinată de valorile . Dar cum , , cu , iar matricea are ca elemente pe coloane coordonatele vectorilor în baza , care sunt unic determinate.
Fie . Rezultă:
.
Dar , deci , , relații echivalente cu scrierea matriceală .
Matricea A se numește matricea asociată aplicației liniare T în raport cu perechea de baze considerate.
Fie V un spațiu vectorial de dimensiune n și o transformare liniară. Dacă fixăm baze diferite în V, atunci transformării T i se asociază matrici pătratice diferite. Vom vedea în cele ce urmează care este legătura între aceste matrici și care este condiția necesară și suficientă ca transformarea liniară T să fie bijectivă.
Propoziția 1.5.2. Fie o aplicație liniară, și , două baze în V. Fie A matricea atașată aplicației T în raport cu prima bază și B matricea atașată aplicației T în raport cu a doua bază, atunci există L matrice nesingulară astfel încât (matricea L fiind matricea de trecerea de la prima bază la a doua bază). Deci A și B reprezintă aceeași aplicație liniară dacă există L matrice nesingulară astfel încât .
Demonstrație. Fie matricea de trecere de la prima bază la a doua, adică:
, .
Fie A matricea atașată aplicației liniare T în raport cu prima bază, adică:
,
și B matricea atașată lui T în raport cu a doua bază, adică:
.
.
.
Deci sau matriceal , de unde deoarece matricea L este inversabilă, rezultă .
Propoziția 1.5.3. Fie V un spațiu vectorial, de dimensiune n peste corpul K, și , baze în V, iar o aplicație liniară. Atunci T este aplicație liniară bijectivă (automorfism) dacă și numai dacă matricea asociată lui T în raport cu bazele date este inversabilă.
Demonstrație. Fie matricea asociată lui T în raport cu bazele date, adică:
.
Am arătat că T-1 este tot o aplicație bijectivă și fie matricea asociată lui T-1 în bazele și .
Atunci vom avea relațiile:
, .
Cum rezultă că:
.
Se obțin relațiile:
, . (*)
Analog, avem:
, de unde deducem relațiile:
, . (**)
Din relațiile (*) și (**) rezultă că inversa matricei A este matricea B.
Reciproc. Dacă matricea A este inversabilă, fie inversa ei. Atunci există relațiile (*) și (**) și definim o aplicație liniară prin
, .
Atunci se extinde în mod unic la o aplicație liniară pe V, datorită faptului că , sunt baze în V.
Definiția 1.5.4. Matricele se numesc asemenea dacă există matricea nesingulară astfel încât .
Relația de asemănare este o relație de echivalență. Clasa de echivalență a lui A este formată din toate matricele care reprezintă aceeași aplicație liniară în baze diferite.
Observația 1.5.5. 1) Dacă L este nesingulară, atunci matricele B și A au același rang, se numește rangul aplicației liniare T. Deci .
Fie o aplicație liniară cu .
Fie bază în V și matricea asociată aplicației liniare T în raport cu baza B. Notăm această matrice cu .
Propoziția 1.5.6. Oricare ar fi , și bază în V avem:
1) ;
2) ;
3) .
Demonstrație. Presupunem că . deci ; .
1) .
2)
.
3) .
Propoziția 1.5.7. Fie V un spațiu vectorial de dimensiune n peste corpul comutativ K .
Atunci avem că .
Demonstrație. Fie bază în V și definim:
, .
Fie , , atunci avem:
.
,
deci este morfism de spații vectoriale.
Bijectivitatea rezultă din faptul că matricea atașată unei aplicații liniare într-o bază dată este unică.
§ 1.6. Vectori și valori proprii
Definiția 1.6.1. Un vector se numește vector propriu al aplicației liniare T dacă există astfel că . Scalarul se numește valoarea proprie a lui T corespunzătoare vectorului propriu . Mulțimea tuturor valorilor proprii ale lui T poartă numele de spectrul lui T, notat S(T).
Observația 1.6.2. Fie aplicația liniară identică , . Atunci relația se poate scrie și astfel:
Propoziția 1.6.3. Dacă x este un vector propriu al lui T , atunci oricare ar fi , vectorul este propriu.
Demonstrație. este vector propriu . Rezultă că există astfel ca . Fie , atunci , deci este vector propriu.
Definiția 1.6.4. Fie și un subspațiu vectorial al lui V. se numește subspațiu T – invariant al lui V, dacă și numai dacă .
Propoziția 1.6.5. Fie o aplicație liniară. Atunci:
a) Unui vector propriu al lui T îi corespunde o singură valoare proprie.
b) Vectorii proprii corespunzători la valori proprii distincte sunt liniar independenți.
c) Mulțimea valoare proprie, este un subspațiu vectorial în V invariant față de T.
Demonstrație. a) Considerăm x un vector propriu corespunzător valorii proprii , deci . Presupunem că există astfel ca . Rezultă atunci că , deci , de unde avem că (pentru că ), contradicție, deci .
b) Fie vectori proprii ai lui T corespunzători valorilor proprii distincte . Demonstrăm prin inducție după . Pentru avem , deci este liniar independent. Presupunem afirmația adevărată pentru vectori și demonstrăm pentru vectori.
Relația (1) cu implică
, deci (2) ,
de unde rezultă că dacă înmulțim relația (1) cu și o scădem din relația (2) avem: care împreună cu ipoteza de inducție implică . Din relația (1) rezultă că , deci .
c) Fie și . Atunci avem
.
Deci , de unde rezultă că .
Fie atunci , deci rezultând că este invariant față de T.
Subspațiulpoate fi finit sau infinit dimensional și se numește subspațiul propriu atașat lui sau subspațiul vectorilor proprii corespunzător valorii proprii .
Propoziția 1.6.6. Subspațiile proprii corespunzătoare la valori proprii distincte au intersecția formată doar din vectorul nul, deci pentru .
Demonstrație. Fie valori proprii distincte, iar și subspații proprii corespunzătoare. Dacă rezultă că există , astfel că și adică și . Vom vedea că , deci și cum rezultă fals.
Polinom caracteristic
Definiția 1.6.7. Fie , matrice pătratică de ordin n cu coeficienți în K, corp comutativ, . Dacă există astfel încât , atunci X se numește vector propriu al matricei A, iar se numește valoare proprie pentru matricea A.
Fie matricea unitate de ordin n, , atunci cu notațiile de mai sus ecuația matriceală devine care este echivalentă cu sistemul liniar și omogen:
,
care are soluții nebanale dacă și numai dacă .
Definiția 1.6.8. Polinomul se numește polinom caracteristic al matricei A, iar ecuația , se numește ecuația caracteristică a matricei A.
Propoziția 1.6.9. Două matrice asemenea au același polinom caracteristic.
Demonstrație. Fie matrice asemenea. Atunci există nesingulară astfel încât . Atunci
.
Fie acum V un K – spațiu vectorial cu și o aplicație liniară, bază în V și matricea asociată aplicației liniare T în baza B. Considerăm , un vector propriu pentru T și valoarea proprie asociată. Fie coordonatele vectorului x în raport cu baza B, atunci relația se va scrie matriceal adică . Deci un vector propriu pentru T admite ca sistem de coordonate, în raport cu baza B, o soluție nebanală a sistemului liniar omogen de ecuații cu coeficienți în K și necunoscute , sistem determinat de ecuația matriceală: cu matricea unitate de ordin n. Deci pentru a avea și soluții nebanale, matricea acestui sistem trebuie să fie singulară, adică , adică să fie valoare proprie pentru matricea A.
Dacă vom considera o altă bază a spațiului vectorial V și matricea asociată aplicației liniare T în raport cu baza , atunci A și sunt matrice asemenea și au același polinom caracteristic, deci aceleași valori proprii.
Din cele de mai sus rezultă că putem defini polinomul caracteristic al aplicației liniare T ca fiind , care este invariant la schimbarea bazei. Mai mult, rădăcinile sale fiind și ele invariante la schimbări de baze, atunci putem găsi valorile proprii ale unei matrice asociate aplicației liniare într-o bază aleasă arbitrar.
Definiția 1.6.10. Fie și ecuația sa caracteristică. Atunci mulțimea , rădăcinile distincte ale ecuației caracteristicese numește spectrul lui A, care este invariant la schimbări de baze.
Observația 1.6.11.
1) Fie aplicație liniară, . Atunci pentru T avem următorii invarianți: , și unde , cu A matricea asociată lui T într-o bază oarecare.
2) În cazul , și ecuația caracteristică, se poate întâmpla ca această ecuație să nu aibă toate rădăcinile reale și atunci valorile proprii ale matricei A se găsesc în , iar vectorii proprii corespunzători în complexificatul lui .
Propoziția 1.6.12. Fie o matrice pătratică cu coeficienți în corpul comutativ K, atunci polinomul ei caracteristic are expresia:
, unde reprezintă suma minorilor principali de ordin i ai matricei .
Demonstrație. Fie matricea dată în ipoteză. Vom descompune în determinanți:
.
Descompunem apoi pe și în determinanți fixând prima coloană.
și
Se observă că poate apărea pe diagonala principală în n moduri.
De aici rezultând că are coeficientul format din suma minorilor principali de ordin n-1 din care sunt în număr de . Deci va avea coeficientul:
.
Tot din dezvoltarea lui și se observă că va apărea pe diagonala principală în moduri, deci va avea coeficientul format din suma tuturor minorilor principali de ordin n-2 din matricea care sunt în număr de . Deci coeficientul lui va fi:
.
Analog avem că coeficientul lui va fi format din suma tuturor minorilor principali de ordin n-1 din matricea în număr de .
Termenul liber este deoarece , iar va avea coeficientul urma lui A, adică . ( și se numește urma matricei A).
Consecință.
i) Dacă , atunci .
ii) Dacă , atunci .
Demonstrație. Este imediată, deoarece, pentru , și pentru , .
Fie V un spațiu vectorial peste corpul K, , o bază în V, o aplicație liniară și A matricea atașată lui T în baza B, .
Fie un polinom cu coeficienți în K.
, acestuia i se poate atașa polinomul sau polinomul , unde este identitatea, , , iar este matricea unitate de ordin n.
Teorema 1.6.13.(Cayley – Hamilton). Dacă este polinomul caracteristic al matricei A, atunci .
Demonstrație. Dacă , atunci avem că:
(1) , unde este adjuncta matricei C, iar matricea unitate de ordin n.
Fie și polinomul său caracteristic. Din egalitatea (1) avem:
(2) .
Matricea este o matrice de polinoame de grad n-1 (din modul de determinare), adică avem că
,
unde , .
Fie acum , , atunci egalitatea (2) devine:
,
sau echivalent, ordonând după puterile lui :
.
Identificând coeficienții din cei doi membri, rezultă:
(3)
Amplificând la stânga cu prima egalitate, cu a doua egalitate,… cu A penultima și cu ultima egalitate, iar apoi adunând membru cu membru, obținem:
,
deci .
Consecința 1.6.14. Dacă este un endomorfism, iar este polinomul său caracteristic, atunci .
Consecința 1.6.14. Orice polinom în A, de grad mai mare sau egal cu n, unde n este ordinul matricei A, poate fi exprimat printr-un polinom de grad n-1.
Demonstrație. Fie polinomul caracteristic atașat matricei A. Din teorema Cayley – Hamilton avem:
(1)
Dacă înmulțim relația (1) cu A avem: , iar A se exprimă din nou cu ajutorul relației (1) rezultând astfel că putem exprima cu ajutorul puterilor . Rezultă că puterile , se exprimă cu ajutorul puterilor .
§ 1.7. Forma diagonală
În cele ce urmează, V va fi un K – spațiu vectorial de dimensiune n și o aplicație liniară. Se pune problema găsirii unei baze în V în raport cu care matricea asociată aplicației liniare să aibă o formă cât mai simplă. Mai întâi vom da următoarea definiție:
Definiția 1.7.1. Fie o aplicație liniară, endomorfism, cu . T este endomorfism diagonalizabil, dacă există o bază în V în raport cu care matricea atașată lui T să fie diagonală, adică o matrice de forma:
, cu , .
Observația 1.7.2. Știm că, în baze diferite, aplicației liniare T îi corespund matrice diferite, matrice care sunt asemenea. În cazul în care T este diagonalizabil, matricele din clasa de asemănare corespunzătoare transformării liniare T se numesc matrice diagonalizabile.
Propoziția 1.7.3. Fie o aplicație liniară (endomorfism). Atunci el este endomorfism diagonalizabil dacă și numai dacă există o bază a spațiului V formată din vectori proprii ai lui T.
Demonstrație. Presupunem că T este diagonalizabil. Atunci există o bază a spațiului V față de care matricea acestui endomorfism are forma diagonală:
.
Deci , pentru orice , baza fiind constituită din vectori proprii ai endomorfismului T.
Pentru a demonstra reciproca vom considera o bază în V formată din vectori proprii ai lui T, adică , . Atunci matricea lui A în această bază este:
,
cu nu neapărat distincte, .
Observația 1.7.4. Putem formula această propoziție în limbaj matriceal, astfel: “Condiția necesară și suficientă ca matricea aplicației liniare într-o bază dată să poată fi redusă la forma diagonală este ca ea să admită n vectori proprii liniar independenți”.
Propoziția 1.7.5. Dimensiunea unui subspațiu propriu al aplicației liniare este cel mult egală cu ordinul de multiplicitate al valorii proprii corespunzătoare.
Demonstrație. Vom considera o valoare proprie de ordin de multiplicitate p și subspațiul propriu corespunzător. Vom nota cu și o bază a acestui subspațiu propriu pe care o vom completa la o bază a spațiului V de forma . Din cele de mai sus avem că , (pentru că ei sunt vectori proprii corespunzători valorii proprii , ) și cu . Deci matricea aplicației T în această bază este:
astfel că polinomul caracteristic al lui T este de forma:
,
unde este un determinant de ordin n – t.
Dacă atunci , iar dacă rezultă . Deci avem .
Propoziția 1.7.6. Fie cu o aplicație liniară. T este endomorfism diagonalizabil dacă și numai dacă polinomul său caracteristic are toate rădăcinile în corpul comutativ peste care a fost considerat V, iar dimensiunea fiecărui subspațiu propriu este egală cu ordinul de multiplicitate al valorii proprii corespunzătoare.
Demonstrație. Presupunem că este diagonalizabil. Atunci există o bază în V formată din vectori proprii pentru T față de care matricea asociată lui T este diagonală.
Fie , adică , sunt valorile proprii ale lui T de multiplicități cu . Putem presupune că, fără a restrânge generalitatea, primii vectori din baza corespund lui , următorii lui , etc. Atunci avem că vectorii aparțin subspațiului propriu corespunzător valorii proprii , ceea ce înseamnă că numărul lor , este mai mic sau cel puțin egal cu . Deci și avem că . Rezultă atunci că . Analog vom demonstra că , .
Reciproc. Presupunem că , . Atunci fie , cu o mulțime de valori din V astfel încât primii vectori constituie o bază în , următorii să constituie o bază în ș.a.m.d. Prin inducție după p se arată că B este o bază a lui V. Față de această bază matricea transformării liniare este:
adică o matrice diagonală.
Consecință.
Fie V un spațiu vectorial cu și și endomorfism diagonalizabil. Atunci, avem că:
.
Procedeu:
1) Considerăm o bază în V și determinăm matricea a lui T în această bază.
2) Determinăm valorile proprii ale lui T și verificăm care dintre ele se găsesc în corpul K.
3) Aflăm apoi câte valori proprii există și care este ordinul lor de multiplicitate. Presupunem că avem q valori proprii distincte cu cu ordinele de multiplicitate . Calculăm apoi rangul fiecărei matrice cu . Dacă rangul fiecărei matrice este , , atunci T este diagonalizabil. (În caz contrar T nu este diagonalizabil și oprim procedeul).
4) Vom rezolva apoi cele q sistme omogene cu . Un sistem fundemental de soluții al unui astfel de sistem reprezintă baza în subspațiul propriu . Deci matricea lui T în raport cu baza formată din vectorii proprii astfel găsiți are pe diagonală valorile proprii
Dacă este matricea diagonală astfel găsită mai sus și este matricea de trecere de la baza inițială la baza formată din vectorii proprii, atunci .
Capitolul 2
ENDOMORFISME NILPOTENTE
Definiția 2.1. se numește endomorfism nilpotent dacă există un număr natural astfel încât , adică este element nilpotent al inelului
Propoziția 2.2. Orice endomorfism nilpotent are ca valoare proprie elementul nul al spațiului V.
Demonstrație. Fie astfel încât . Cum .
Definiția 2.3. Un element este regulat dacă este inversabil atât la dreapta cât și la stânga; deci dacă există un element astfel încât .
Un endomorfism care nu este regulat se numește singular.
Teorema 2.4. Dacă V este finit – dimensional peste K, atunci este inversabil dacă și numai dacă termenul constant al polinomului minimal pentru T nu este 0.
Demonstrație. Fie , polinomul minimal al lui T peste K. (Este polinomul de grad cel mai mic astfel încât . El divide polimomul caracteristic al lui T).
Dacă , dat fiind că , obținem că:
.
Așadar,
se comportă ca fiind inversa lui T, de unde rezultă că T este inversabil.
Pe de altă parte, presupunem că T este inversabil, cu toate că . Așadar,
.
Înmulțind la dreapta, relația de mai sus, cu rezultă că , astfel că T satisface polinomul . Deoarece gradul lui este mai mic decât gradul lui , rezultă că presupunerea este greșită. Prin urmare, și cealaltă parte a teoremei este demonstrată.
Corolarul 2.5. Dacă V este finit – dimensional peste K și este inversabil, atunci poate fi scris ca o expresie polinomială funcție de T cu coeficienți din K.
Demonstrație. Deoarece T este inversabil, avem că cu . Dar atunci
.
Corolarul 2.6. Dacă V este finit – dimensional peste K șieste singular, atunci există , , astfel încât .
Demonstrație. Deoarece T nu este regulat, termenul constant al polinomului minimal trebuie să fie 0. Acesta este, , de unde . Dacă , atunci (deoarece gradul lui este mai mic decât gradul lui ) și .
Lema 2.7. Dacă este invariant față de T, atunci T induce o transformare liniară pe , definită prin . Dacă T satisface relația polinomială , atunci și satisface aceeași relație. Dacă este polinomul minimal pentru peste K și dacă este polinomul minimal pentru T, atunci.
Demonstrație. Fie . Elementele lui sunt clasele . Știind că , definim. Pentru a verifica dacă are toate proprietățile unei transformări liniare pe verificăm mai întâi dacă este bine definit pe .
Presupunem că , unde . Trebuie să arătăm că . Deoarece , trebuie sa fie în W, și deoarece W este invariant față de T, trebuie, de asemenea să fie W. Prin urmare, de unde rezultă că. Acum știm că definește o transformare liniară pe . ( este spațiul factor)
Dacă , atunci .
Similar, pentru orice . Prin urmare, pentru orice polinom , . Pentru orice cu , deoarece este transformarea zero pe , .
Fie polinomul minimal peste K, verificat de . Dacă pentru, atunci . Dacă este polinomul minimal pentru T peste K, atunci , de unde rezultă că ; în consecință, .
Teorema 2.8. Dacă are toate rădăcinile caracteristice în K, atunci există o bază a lui V în care matricea lui T este triungiulară.
Demonstrație. Demonstrarea se face prin inducție după dimensiunea lui V peste K. Dacă , atunci fiecare element din este un scalar, si deci teorema este adevărată.
Presupunem că teorema este adevărată pentru toate spațiile vectoriale peste K cu dimensiunea n – 1, și fie V de dimensiune n peste K.
Transformarea liniară T peste V are toate rădăcinile caracteristice în K; fie o rădăcină caracteristică a lui T. Atunci există un vector nenul în V astfel încât . Fie ; W este un subspațiu unidimensional a lui V, și este invariant față de T. Fie ; atunci . T produce o transformare liniară pe al cărui polinom minimal peste K divide polinomul minimal al lui T peste K. Aceste rădăcini ale polinomului minimal al lui , fiind rădăcinile polinomului minimal al lui T, trebuie să fie în K. Transformarea liniară satisface ipoteza teoremei. Deoarece este (n – 1) – dimensional peste K, după ipoteza de inducție, există o bază a lui V peste K astfel încât
.
Fie elementele lui V și clasele lor din spațiul factor .
Atunci formează o bază a lui V. Deoarece și
trebuie să fie în W. Astfel este un multiplu al lui , să spunem, deci . Similar, , de unde. Baza a lui V peste K ne dă o bază unde fiecare este o combinație liniară a lui și predecesorii lui sunt baza. Deci, matricea lui T în această bază este triunghiulară. Aceasta completează inducția și demonstrează teorema.
Vom reformula Teorema 2.8. , pentru matrice. Presupunem că matricea are toate rădăcinile caracteristice în K. A definește o transformare liniară T pe a cărei matrice în baza
, ,…,,
este exact A. Rădăcinile caracteristice ale lui T sunt toate în K, iar din Teorema 2.8., există o bază a lui în care matricea lui T este triunghiulară.
Lema 2.9. Dacă unde fiecare subspațiu este de dimensiune ni și este invariant față de , o bază din V poate fi găsită astfel încât matricea lui T în această bază este de forma
unde fiecare Ai este o matrice de tip ni ni și este matricea transformării liniare indus prin T pe Vi.
Demonstrație. Alegem o bază a lui V după cum urmează: este o bază al lui , este o bază a lui , și așa mai departe. Deoarece fiecare este invariant în T, deci este o combinație liniară de , și este unica combinație liniară. Așadar, matricea de T în baza astfel aleasă este de forma dorită. Astfel, fiecare Ai este o matrice de Ti,.
Lema 2.10. Dacă este nilpotent, atunci , unde este inversabil dacă .
Demonstrație. Dacă S este nilpotent și, un calcul simplu arată că
,
dacă . Dacă , , S trebuie să satisfacă relația . Rezultă că pentru în K, este inversabil. (Știm că suma dintre un inversabil și un nilpotent este element inversabil)
Notație. indică matricea
,
unde toate valori sunt 0 cu excepția celor de pe diagonala principală, care au valoarea 1.
Fie R un inel comutativ și unitar. se numește nilpotent dacă există astfel încât . Fie element inversabil. Atunci este inversabil.
Demonstrație. Presupunem r impar.
.
Definiția 2.11. Dacă este nilpotent, atunci r se numește indice de nilpotență pentru T dacă dar.
Teorema 2.12. Dacă este nilpotent, de indicede nilpotență n1, atunci găsim o bază în V astfel încât matricea lui T în această bază are următoarea formă
,
unde și unde .
Demonstrație.
Deoarece dar , putem găsi un vector astfel încât . Vrem ca vectorii să fie liniar independenți peste K. Pentru aceasta, presupunem că unde; fie primul element nenul, astfel încât:
.
Deoarece , rezultă că, este inversabil, și deci . Deoarece , aceasta contrazice faptul că . Astfel, nici un nenul nu există și s – a arătat că sunt liniar independent peste K.
Fie subspațiu al lui V, dat prin . este invariant față de T, și în baza de mai sus, transformarea liniară indusă de T pe V1 are ca matrice pe . Ș.a.m.d.
Lema 2.13. Există un subspațiu W al lui V, invariant față de T, astfel încât .
Demonstrație. Fie W un subspațiu al lui V, de cea mai mare dimensiune posibilă, astfel încât:
1) ;
2) W este invariant în T.
Vrem să arătăm că . Presupunem că nu este adevărat. Atunci există un element astfel încât . Deoarece , atunci există k, număr întreg, , astfel încât și astfel încât pentru . Astfel, , unde și unde . Dar atunci. Deoarece și V1 și W sunt invarianți față de T, și . Deoarece , avem că, rezultând că . pentru orice . Astfel, . Fie , atunci, și deoarece W este invariant față de T, rezultă că pentru orice . Pe de altă parte, dacă , , altfel trebuie să cadă în , contazicând alegerea lui k.
Fie W1 un subspațiu al lui V generat de W și. Deoarece, și cum , dimensiunea lui W1 trebuie să fie mai mare decât cea a lui W. Mai mult chiar, deoarece și deoarece W este invariant față de T, W1 trebuie să fie invariant față de T. După mărimea maximă a lui W, trebuie să existe un element de forma în , unde . Nu toate elementele pot fi 0. Pe de altă parte am avea , contradicție. Fie primul element nenul , atunci. Deoarece , conform Lemei 2.11., este inversabilă și inversa lui, R, este polinomială în T. Cu toate acestea W și V1 sunt invariante față de R. Totuși, din cele de mai sus, , forțând . Deoarece acest lucru este imposibil; cu toate că . Pentru că , , lema este demonstrată.
Vom termina acum demonstrația Teoremei 2.12.
Din Lema 2.13., avem unde W este invariant față de T. Folosind baza a lui V1 și orice altă bază din W ca o bază a lui V, din Lema 2.9., matricea lui T în această bază este de forma
,
unde A2 este matricea lui T2, transformarea liniară indusă în W de T. Deoarece , pentru . Repetând discuția folosită pentru T pe V pentru T2 pe W putem descompune W la fel cum am descompus pe V (sau, invocând o inducție după dimensiunea vectorului spațiu implicat). Continuând în acest fel, obținem o bază a lui V în care matricea lui V are următoarea formă
.
Faptul că este clar, pentru că mărimea matricei este unde .
Definiția 2.14. Numerele întregi se numesc invarianții lui T.
Definiția 2.15. Dacă este nilpotent, subspațiul M al lui V, de dimensiune m, care este invariant față de T, se numește ciclic față de T dacă
1., ;
2. Există un element astfel încât formează o bază în M.
Lema 2.16. Dacă M, de dimensiune m, este ciclic față de T, atunci dimensiunea lui Tk(M ) este m-k pentru orice .
Demonstrație. O bază a lui Tk(M) ne este furnizată luând imaginea oricărei baze a lui M în Tk . Folosind baza a lui M duce la o bază ,a lui Tk(M). Deoarece această bază are m-k elemente, lema este demonstrată.
Teorema 2.11. ne spune că fiind dat un endomorfism nilpotent putem să găsim numerele întregi și subspațiile ale lui V ciclice față de T și de dimensiuni , astfel încât .
Este posibil să găsim alte numere întregi și subspațiile ale lui V, ciclice față de T și de dimensiuni astfel încât . Arătăm că s=r și , ,…,. Presupunem că există un prim număr întreg i astfel încât . Putem presupune că .
Se consideră. Pe de altă parte, deoarece ,. Deoarece, , … , (din Lema 2.16.), . Pe de altă parte, deoarece și deoarece pentru ,. Astfel
.
Alegându-l pe i, , rezultă că
.
Oricum, aceasta contrazice ceea ce am demonstrat mai înainte, și anume:
, deoarece .
Astfel, există un unic set de numere întregi astfel încât V este suma directă a subspațiilor , ciclice față de T de dimensiune n1, n2, …,nr. Echivalent, am arătat că invarianții de T sunt unici.
Matriceal, am demonstrat că dacă și , atunci matricele
și
sunt asemenea dacă și , ,…,.
Teorema 2.17. Două transformări liniare nilpotente sunt asemenea dacă și numai dacă au aceeași invarianți.
Demonstrație. Am demonstrat că dacă două transformari liniare nilpotente au invarianți diferiți, atunci ele nu pot fi identice având respectiv matricele
și
care nu pot fi asemenea.
Pe de altă parte, dacă două transformări nilpotente S și T au aceeași invarianți , din Teorema 2.12., există bazele și din V astfel încât matricea lui S în și matricea lui T în sunt egale cu
.
Dar dacă A este transformarea liniară definită pe V prin , atunci , de unde S și T sunt asemenea.
Exemplu
Fie definit pe față de baza , , . Fie , , . În baza matricea lui T este
,
și astfel invarianții lui T sunt 2, 1. Dacă A este matricea de schimbare a bazei, adică
,
avem că
.
Remarcă. Invarianții lui T determină o partiție a lui n. În schimb, orice partiție a lui n, , , determină invarianții transformării liniare nilpotente:
.
Deci numărul claselor de asemănare a matricelor nilptente de ordin este p(n), numărul de partiții a lui n.
Definiția 2.18. Dacă , urma lui T, este urma lui , unde este matricea T într-o bază oarecare V,
proprietățile urmei: și .
Lema 2.19. Dacă atunci este suma rădăcinilor caracteristice ale lui T (folosind fiecare rădăcină caracteristică de câte ori este ordinul ei de multiplicitate).
Dacă T este nilpotent atunci toate rădăcinile sale caracteristice sunt nule, deci . Dar dacă T este nilpotent , atunci la fel sunt și ; astfel, pentru toți .
Ce putem spune dacă pentru , atunci rezultă că T este nilpotent? În această generalitate răspunsul este negativ, pentu că în cazul în care K este un câmp de caracteristică 2, atunci matricea unitate
în are urma 0 (deoarece 1+1=0), cu toate că matricea unitate nu este nilpotentă. Dacă caracteristica lui K este zero, rezultatul rămâne adevărat.
Lema 2.20. Dacă K este un câmp de caracteristică zero, și dacă este astfel încât pentru orice atunci T este nilpotent.
Demonstrație. Deoarece , T satisface relația polinomială . Din , luând urmele ambelor părți ale rezultatelor și rezultă că
.
Presupunând că pentru , avem . Dacă , , de unde . Dar caracteristica lui F este 0, așadar, , deci rezultă că . Deoarece termenul liber al polinomului minimal T este 0, T este singular și deci 0 este o rădăcină caracteristică a lui T.
Putem considera că T, fiind o matrice din și de asemenea ca matrice în , unde F este o prelungire a lui K , care conține toate rădăcinile caracteristice ale lui T. În , din Teorema2.8., putem aduce pe T la forma triunghiulară, și pentru că 0 este o rădăcină caracteristică a lui T, putem avea următoarea formă
, unde
este o matrice ( „*” reprezintă părți ale matricei care nu ne interesează în mod deosebit). Acum
unde . Astfel, este o matrice cu proprietatea că pentru orice . Fie folosind inducția după n, fie repetând argumentul folosit pentru T, pentru că sunt rădăcinile caracteristice pentru , avem că . Astfel, când T este adus la forma triunghiulară, toate elementele de pe diagonala principală sunt 0, deci T este nilpotent.
Lema 2.21. Dacă F este de caracteristică 0 și dacă S și T sunt în astfel încât comută cu S, atunci este nilpotent.
Demonstrație. Pentru orice , calculăm . Acum . Deoarece comută cu S, termenul poate fi scris sub forma . Dacă
, observăm că . Prin urmare . Lema anterioară ne spune acum că trebuie să fie nilpotent.
Capitolul 3
FORMA CANONICĂ JORDAN
Forma canonică Jordan rezolvă problema alegerii bazei unui spațiu vectorial, astfel încât matricea asociată unui endomorfism (operator liniar) al spațiului să aibă o formă cât mai simplă.
Dacă vectorii proprii ai endomorfismului pot forma o bază, în această bază matricea endomorfismului este diagonală. Endomorfismul se zice atunci că este de structură simplă sau diagonalizabil.
Dacă însă spațiile proprii ale endomorfismului au dimensiunea mai mică decât ordinul de multiplicitate al valorii proprii respective, deci vectorii proprii independenți sunt insuficienți pentru o bază, matricea endomorfismului nu se mai poate diagonaliza. Dar se poate găsi o bază astfel încât matricea să aibă pe diagonală elemente diferite de zero, pe o paralelă la diagonală imediat deasupra ei să aibă unu sau zero, restul de elemente fiind toate zero. Este cea mai simplă formă ce se poate obține pentru matricele nediagonalizabile. Se numește forma canonică Jordan.
Definiția 3.1. Se numește celulă Jordan superioară de ordin r, matricea:
.
Se numește bloc Jordan corespunzător valorii o matrice de forma
,
unde sunt celule Jordan de dimensiune cu .
Se numește matrice redusă Jordan sau de formă Jordan, o matrice J de ordin n având pe diagonala principală blocuri Jordan, deci este de forma
cu .
Exemplu
; ; =
sunt celule Jordan de ordin 1, 2 respectiv 3.
;
sunt blocuri Jordan de ordin 3 și 4.
Matricea
unde
și
este o martice redusă Jordan.
Determinarea formei canonice Jordan o face teorema lui Jordan la care vom ajunge în final.
Definiția 3.2. Se numește endomorfism nilpotent un endomorfism liniar astfel încât există un cu un=0 – operatorul nul (este de fapt definiția cunoscută a unui element nilpotent într-un inel).
Definiția 3.3. Se numește indice de nilpotență numărul astfel încât uq+1=0 dar (deci cel mai mic număr natural având proprietatea cerută).
Exemplu
Fie care în baza canonică are matricea . Se observă că u2=0. Indicele de nilpotență este 2.
Forma canonică a matricei unui endomorfism nilpotent care ne interesează de fapt, se găsește mai ușor. Pentru a ajunge la ea, se vor demonstra mai întâi proprietățile următoare:
Lema 3.4. Fie u:V V cu uq+1=0, . Notăm Ni=Ker ui, atunci:
a) și incluziunea este strictă.
b) pentru toți i=1,…,q.
Demonstrație. Să observăm mai întâi că într-adevăr pentru că ca nucleu, iar deci și V.
a) Fie deci . Dar adică și deci . Incluziunea este strictă: presupunem că astfel încât .
Pentru orice ,. Deci adică , de unde pentru Atunci contrar ipotezei.
b) Fie deci , rezultă adică și deci .
Lema 3.5. Fie u:V V cu uq+1=0, , (deci un endomorfism nilpotent de indice ), Ni, i=1,…,q și un subspațiu al lui V astfel încât. Atunci:
a).
b) este injectivă .
Demonstrație. a) Fie . Atunci și deci și există astfel încât De aici și și există astfel încât . De aici și adică și , rezultă deci și atunci pentru , adică are loc a).
b) Fie subspațiu al lui V astfel încât , deci adică și . Dar ca subspațiu al lui V, deci . Atunci și u este injectiv.
Lema 3.6. Fie cu și . Atunci:
Există subspații vectoriale ale lui V astfel încât .
este injectiv.
Demonstrație. Se știe că (v.lema 3.1). Se poate lua deci ca fiind un complementar oarecare al lui în . Poate fi generat, de exemplu, de vectorii ce completează o bază a lui la una a lui .
Există deci astfel încât . Subspațiul pentru că (v. Lema 1,b)) și , este deci parte a lui . Să observăm că toți vectorii bazei lui își au imaginile prin în imagini care sunt și liniar independente în , deoarece u este injectiv (v.lema 2,b)).
În plus, conform lemei 2,a) și relației (suma este directă). Deci este conținut în și nu are comun cu decât pe , iar . Se poate găsi atunci în un complementar al lui în care să conțină pe , adică . Există deci astfel încât . Ca să-l obținem, completăm o bază a lui până la o bază în cu imaginile prin ale tuturor vectorilor bazei lui de care vorbeam mai sus, vectori independenți care sunt în și nu sunt în , imagini la care se mai adaugă, dacă este nevoie și alți vectori independenți pentru a ajunge la numărul cerut de dimensiunea lui . Vectorii ce completează baza lui până la una în îl vor genera pe . Se merge așa din aproape în aproape. Pentru un , există un subspațiu , astfel încât , acest fiind complementar al lui în care conține pe .
Un asemenea subspațiu există pentru că și și sumei directe găsită în pasul precedent. Deci .
b) Din cele de mai sus se vede că u duce pe în este și injectiv conform Lemei 2,b).
Observația 3.7. Dacă cu i=1,…,q atunci .
Se poate demonstra acum teorema care stabilește forma canonică pentru matricea unui operator nilpotent.
Teorema 3.8. – de formă canonică pentru operatori nilpotenți.
Fie V un spațiu vectorial de dimensiune n peste un corp comutativ K și operator liniar nilpotent cu și deci de indice de nilpotență . Atunci există o bază în V în care matricea lui u este de forma: unde apare de ori,…,respectiv de ori cu , pentru orice .
Demonstrație. Se construiesc subspațiile Yi din lema 3.6., cunoscute de fapt prin câte o bază a lor și cum , se obține o bază în V reunind bazele din . Fie o bază în considerat de dimensiune r1. Cum acești vectori sunt liniari independenți și cum u aplică injectiv pe în , atunci și imaginile lor vor fi liniar independente, deci vor fi primii vectori ai unei baze în , bază ce se completează cu vectori liniar independenți până la dimensiunea lui (vezi Lema 3). Altfel spus, există o bază în de forma: cu , pentru (r2 este dimensiunea lui Yq).
Pornind de la vectorii , se deduce la fel că există în o bază astfel încât pentru .
Din aproape în aproape, în final se poate găsi o bază a lui astfel încât pentru , adică primii vectori ai ei sunt imaginile prin u ale vectorilor bazei din iar , pentru deoarece . Se scriu vectorii bazei de mai sus în tabloul următor:
Baza căutată în V se va obține prin reuniunea bazelor din , luând vectorii din tabloul de mai sus coloană după coloană și începând de jos în sus cum arată săgețile, adică:
.
Se constată că vectorii ultimei linii din tablou sunt din , deci au imaginile egale cu (dau coloane nule în matrice). Numărul lor este egal cu dim Ker u = numărul vectorilor proprii pentru u.
Pe scurt, dacă se notează vectorii bazei din V cu
, , … , , cum sau , matricea endomorfismului în baza de mai sus are un șir de unu deasupra diagonalei principale întrerupt de coloane în întregime nule, iar în rest numai zero. Coloanele nule marchează celulele, deci sunt în total un număr de celule egal cu dimKer u = numărul vectorilor proprii ai lui u (pentru singura valoare proprie ).
Mai în detaliu se observă că vectorii fiecărei coloane din primele r1 generează câte un subspațiu de dimensiune q+1 invariant în raport cu u. Vectorii fiecăreia dintre coloanele generează o celulă Jq+1(0). Există asemenea celule. Să stabilim un mod de a le număra. Se știe că dimYq+1=dimNq+1-dimNq. Cum acestea sunt niște nuclee (Ni=Ker ui), adică fiecare este spațiu de soluții pentru un sistem omogen, dimensiunea fiecăruia, egală cu numărul de parametrii, va fi n-rg ui. Deci
scris și r1=rang uq-2rang uq+1+rang uq+2.
Dacă ne referim la subspațiul generat de , matricea restricției lui u va fi Jq(0) și există
p2=r2-r1=(dimNq-dimNq-1)-(dimNq+1-dimNq)=
=2dimNq-dimNq-1–dimNq+1=2(n-rang uq)-(n-rang uq-1)-(n-rang uq+1)=
=rang uq-1-2rang uq+rang uq+1
asemenea celule ș.a.m.d.
În general există un număr de celule de ordin i egal cu rang ui-1-2rang ui+rang ui+1=pi.
Deci există o bază în care matricea asociată este un șir de celule în număr egal cu dimKer u de ordine respectiv q+1,q,…,1 repetându-se fiecare de un număr de ori precizat mai sus.
Cu cele demonstrate mai sus este rezolvată complet problema formei canonice pentru matricea operatorilor nilpotenți.
Toate rezultatele vor folosi în cele ce urmează pentru a ajunge la forma canonică Jordan a matricei unui endomorfism oarecare.
Teorema 3.9. – de descompunere în operatori nilpotenți.
Fie f:VV un endomorfism al spațiului vectorial V de dimensiune finită n peste un corp comutativ algebric închis K. Fie polinomul lui caracteristic unde sunt rădăcinile distincte ale lui iar ordinele lor de multiplicitate.
Fie ; j=1,…,p. Atunci:
1) V este o sumă directă de subspații Vj, care sunt invariante față de f.
2) dimVj=rj ,
Demonstrație. 1) Pentru a demonstra că suma este directă, se va arăta că:
a)
b)
Demonstrația teoremei, va fi împărțită în patru părți.
I. Se va demonstra că sunt invariante față de f, adică pentru orice Evident ca nuclee sunt subspații.
Se știe că: .
Fie ,
atunci pentru că deci invariant pentru
II. Se demonstrează că V este sumă de , deci 1,a).
Se fac mai întâi următoarele notații:
.
Mai în detaliu:
………………………………………………………..
(lipsește un factor).
Atunci ; j=1,…,p, deci , j=1,…,p; se menționează în plus că operatorul nul-conform teoremei Cayley-Hamilton.
Deoarece sunt prime între ele cum se vede din expresiile lor, se știe din teoria polinoamelor că există , astfel încât sau pentru endomorfismul f: – egalitate de endomorfisme. Astfel , aplicând egalitatea de endomorfisme de mai sus, rezultă cu , Se arată că . În adevăr, , adică și .
III. În această a treia parte se arată că , Cum este invariant față de f, acesta se poate restrânge la . Există o bază în în care restricția are o matrice triunghiulară având pe diagonală peste tot pe . Polinomul caracteristic al restricției este atunci , unde . Se știe că și cum , , deci , adică .
IV. În această ultimă parte se demonstrează afirmațiile rămase din enunț: 1,b) și 2.
Se știe că: .
Atunci, .
Cum
Apoi cum , prin reducere la absurd (criteriul de diagonalizare), se arată că ,
Observația 3.10.
Observăm că operatorul este operator nilpotent de indice . Deoarece
Cu această observație se justifică denumirea de teoremă care pune în evidență p operatori nilpotenți lucrând fiecare în subspațiile invariante .
Observația 3.11.
Se observă că este egal cu subspațiul propriu al lui corespunzător valorii proprii .
Așadar, ca nucleu este subspațiu al lui deci . Fie . Atunci . La fel , deci =.
Dimensiunea lui este egală deci cu numărul vectorilor proprii independenți ce corespund valorii proprii ai operatorului .
Teorema 2 determină deci p subspații invariante față de în spațiul V. Alegând ca bază în V reuniunea bazelor din , matricea lui în această bază va fi cvasidiagonală, având pe diagonală p submatrici în general nule, fiecare de ordin r1,r2,…, respectiv rp.
Cum sunt subspații invariante față de , problema formei canonice a matricei luipoate fi rezolvată mai ușor lucrând în pentru restricția lui la acest subspațiu.
Teorema 3.12. – teorema lui Jordan.
Fie V un spațiu vectorial de dimensiune finită peste corpul comutativ K algebric închis și un operator liniar .Atunci există o bază în V în raport cu care matricea lui f este de forma:
unde fiecare Ji este o celulă Jordan.
Demonstrație. Se aplică Teorema 3.9. de descompunere, deci . În baza aleasă prin reunirea bazelor din , matricea operatorului devine cvasidiagonală. Fie restricția lui la care în baza de mai sus a lui este definită de submatricea de ordin de pe locul pe diagonală.
Observăm că unde este operatorul nilpotent pe cunoscut.
Aplicând Teorema 3.8. de formă canonică pentru operatorii nilpotenți, găsim o nouă bază în astfel încât matricea lui să aibă forma canonică cunoscută. În aceeași bază nouă în , ca sumă dintre și , operatorul va avea matricea cu peste tot pe diagonală, deasupra diagonalei unu sau zero și în rest numai zerouri, adică un bloc Jordan cu un număr de celule egal cu numărul vectorilor proprii independenți ai lui corespunzători valorii proprii . Dacă reunim acum toate bazele noi din subspațiile , obținem o bază a lui , bază în care matricea lui are forma cerută în enunț.
Pentru aceeași valoare s-a obținut un bloc Jordan cu un număr de celule egal cu numărul vectorilor proprii independenți ai luicorespunzător valorii proprii . Numărul total s al celulelor Jordan este dat de numărul total de vectori proprii independenți ai operatorului f, celule cuprinse în blocuri Jordan distincte.
Definiția 3.13. Se cunoaște sub numele de caracteristica lui Segre pentru un morfism f, tabloul
Fiecare paranteză din tablou este atașată unei valori proprii și conține dimensiunile (în ordine descrescătoare) celulelor Jordan corespunzătoare acelei valori proprii; parantezele atașate valorilor proprii sunt așezate în ordine descrescătoare a ordinelor de multiplicitate ale valorilor proprii (fiecare paranteză conține un număr de elemente egal cu numărul vectorilor proprii independenți ai lui f corespunzător valorii proprii considerate).
Dacă pentru un endomorfism se cunosc valorile proprii și caracteristica lui Segre, se poate obține imediat forma redusă Jordan, ordinea celulelor fiind cea din convenția de mai sus.
S-a rezolvat deci problema determinării formei canonice Jordan. Pentru calculul efectiv, se procedează astfel:
1) Considerăm o bază în spațiul vectorial V și determinăm matricea a aplicației liniare f în această bază. Se determină polinomul caracteristic, valorile proprii și ordinele lor de multiplicitate .
2) Se calculează numărul de celule Jodan corespunzător fiecărei valori proprii distincte , care este egal cu , cât și numărul lor ( reprezintă numărul celulelor Jordan de ordin i corespunzătoare valorii proprii ), ,
3) Se determină o bază în V. Deoarece restricțiile lui la sunt injective avem că sunt liniar independenți în și se completează la o bază în . Baza în se obține prin reunirea bazelor din .
4) Se găsește matricea aplicației liniare față de baza de la punctul 3), care este un bloc Jordan cu atâtea celule Jordan, câți vectori proprii liniar independenți are corespunzători valorii proprii .
5) Reunind bazele din subspațiile , obținem baza față de care matricea asociată aplicației liniare f are forma canonică Jordan.
Exemple
1) Fie care în baza are matricea .
Să se găsească forma Jordan a matricei operatorului f și baza în care are această formă.
Rezolvare:
Pasul unu:
Polinomul caracteristic este ; și .
Pentru , se determină un singur subspațiu invariant .
Baza din rămâne .
Pasul doi:
3) are matricea
.
4) , . Cum deducem că f are doi vectori proprii independenți pentru valoarea triplă .
. Cum este matricea nulă, deducem că pentru că , . Dimensiunea lui . Atunci ; iar . Dimensiunea lui este 1=3-2; este un complementar oarecare al lui în . Poate avea ca bază vectorul notat pentru că acesta aparține lui , dar nu aparține lui deci poate completa o bază a lui până la o bază a lui .
Se caută acum printr-o bază a lui care conține doi vectori. Primul vector din baza lui este obligatoriu . Dacă îl calculăm, . El trebuie completat cu încă un vector până la o bază a lui . Fie pentru că și este liniar independent cu . Tabloul din Teorema 3.8. are atunci două coloane:
Luând vectorii pe coloană de jos în sus, reunim bazele din , și obținem o bază în și anume . În această bază are matricea pentru că dar și pentru că și .
Cele două coloane complete de zerouri delimitează două submatrici.
5) – 6) În aceeași fază, f are matricea:
,
cu două celule Jordan. Matricea , unde ne duce de la baza la baza .
2) Fie care în baza , are matricea:
.
Rezolvare:
Pasul unu:
1) ; , ; , .
2) unde = iar o bază în este ; ; (sistem fundamental de soluții); , iar o bază în este ; .
3) O bază în este , iar matricea lui f în această bază este . Cum , prin calcule se găsește
cu două matrici de ordin trei și de ordin doi diferite de matricea nulă așezate pe diagonală.
4) Se găsesc:, de matricea și
de matrice .
5)Pentru calculăm
, , pentru că având ca matrice, matricea nulă, . Din Teorema 3.8., și . Căutăm pe prin baza lui de un vector ales din și să nu aparțină lui . Fie . Căutăm acum pe de dimensiune doi ca acel complementar al lui în care conține pe . Îl găsim prin baza sa din doi vectori din care primul este obligatoriu . Prin calcul, .Îl complementăm cu un vector din independent de el, de exemplu . Tabloul din Teorema 3.8. este:
Cum , baza a lui este aceea în care are .
Se procedează acum în mod asemănător cu ; , , ; . Atunci și este determinat de un vector din baza care nu trebuie să aparțină lui , deci ; de dimensiune 1 este determinat printr-un singur vector din bază care este obligatoriu . Calculând , obținem . Tabloul Teoremei 3.8. , este:
Cum , o bază căutată este iar are în această bază matricea pentru că , , iar .
6) are în baza matricea:
,
cu o singură celulă Jordan.
, are în baza matricea:
,
cu două celule Jordan.
7) În baza din , f are matricea:
redusă Jordan cu două blocuri: , și cu trei celule Jordan.
Bibliografie:
Ion D. Ion, Nicolae Radu, Algebra, Editura Didactică și Pedagogică, București, 1981.
Ion D. Ion, Nicolae Radu, Niță C., Popescu D., Probleme de algebră, Editura Didactică și Pedagogică, București, 1981.
Serge Lang, Introduction to Linear Algebra, Springer – Verlag, 1993.
Năstăsescu C., Niță C.,Vraciu C., Bazele algebrei, Editura Academiei, București, 1986.
Mihaela Răduică, Curs de algebră liniară, Brașov, 1992.
Eugenia Rădescu, Algebră liniară, Editura “Universitaria”, Craiova, 1997.
Flaut C., Lecții de algebră liniară, Ovidius University Press, Constanța, 2000.
Hernstein I.N., Topics in algebra, John Wiley and Sons, New-York, 1975.
Copyright Notice
© Licențiada.org respectă drepturile de proprietate intelectuală și așteaptă ca toți utilizatorii să facă același lucru. Dacă consideri că un conținut de pe site încalcă drepturile tale de autor, te rugăm să trimiți o notificare DMCA.
Acest articol: Endomorfisme Nilpotente. Forma Canonica Jordan (ID: 149092)
Dacă considerați că acest conținut vă încalcă drepturile de autor, vă rugăm să depuneți o cerere pe pagina noastră Copyright Takedown.
