Recunoasterea Fetelor din Multimi Aglomerate Folosind Tehnologiile Biometrice Mixte
Extracția și selecția caracteristicilor (feature extraction and selection) unor forme vizuale reprezintă două etape importante privind reușita și performanțele procesului de recunoaștere sau identificare a formei (pattern recognition) respective (fig. 1.1.1.)
Fig. 1.1. Extragerea și selecția caracteristicilor dintr-o imagine video
Pentru o corectă implementare a recunoașterii, regiunile obținute în urma procesului de segmentare a imaginii video de intrare trebuie reprezentate într-o forma concisă, eliminând informațiile redundante și reținând informațiile necesare recunoașterii formelor/obiectelor de interes.
Alegerea unei modalități adecvate de descriere este esențială pentru reușita procesului de recunoaștere a formei. De asemenea, un principiu fundamental care supervizează construcția descriptorilor formei este principiul invarianței acestora la diferite tipuri de transformări liniare sau neliniare aplicate formei de interes.
Astfel, se dorește invarianța setului de descriptori utilizat la punctul de start, scalare, translație, reflexie și rotație
Experiența practică demonstrează că aspectul cel mai important pentru recunoașterea unei forme îl reprezintă selecția caracteristicilor/proprietăților,respectiv a descriptorilor utilizați.
Selecția caractersiticilor este un proces de compresie de date și poate fi asimilat cu o transformare liniară sau neliniară, de la spatiul inițial al observațiilor presupus n-dimensionale, la un spațiu cu mai puține dimensiuni, m (m<<n).
O asemenea transformare conduce la conservarea informației și permite elaborarea unor algoritmi de calcul în timp real, întrucât există algoritmi eficienți din punct de vedere al timpului de calcul și a resurselor de memorie necesare doar în spații cu dimensiuni reduse.
În cazul unei singure clase de forme, selecția caracteristicilor se consideră optimă dacă realizează o reducere a dimensionalității împreună cu conservarea informației originale majoritare.
În cazul prezenței mai multor clase de forme, eficiența selecției caracteristicilor este dată în special de posibilitatea separabilității claselor, care depinde în special de repartiția claselor dar și de clasificatorul selectat.
2.1. Interpolarea cubică
Interpolarea este metoda de estimare a unei valori aplicata intr-o locatie fara masuratori,care se bazeaza pe valorile masurate in punctele vecine.
Procedeul consta in gasirea unei functii f(x,y) pentru a reprezenta oata suprafata valorilor z associate cu puncte(x,y) dispuse regulat, functia efectuand o predictie a valorilor z pentru alte pozitii dispuse regulat.
Redimenisonarea fetei detectate ca imagine pentru compararea fortata a aceleiasi dimensiuni cu imaginea de test s-a realizat folosind metodologia interpolarii cubice.
Aceasta a presupus abordarea unor tehnici de aproximare predefinite, bazate pe functia splin.
S-a propus ca aplicatia, dupa aplicarea interpolarii sa realizeze:
-afisarea fetei adaugate intro scala gri
– salvarea intrun fisier de tip text a fetelor antrenate
-scrierea etichetelor a fetelor antrenate intrun fisier text pentru incarcari si detectari ulterioare
Fig.2.1. Raster rezultat in urma estimarii unor valori cunoscute
Grafica imleplementata pe tehnica de calcul trebuie sa indeplineasca conditii de aspect regulat, neted, fara discontinuitati, oscilatii sau bucle intre punctele de masura.
Pentru a permite proiectarea interactive a formelor, metoda presupune ca modificarea pozitiei unui punct de control sa aiba un efect local pentru a schimba aspectul formei curbelor numai in vecinatatea restransa a acelui punct.
Una din conditii este ca ecuatiile analitice descrise de curbe sa fie cat mai simple, de forma polinomiala de grad redus, intrucat o asemenea curba nu va putea sa acopere tot setul de control al formei definite.
Una din solutiile adoptate este aceea de separare a setului de puncte de control in subgrupe de puncte si construirea unor curbe de nivel redus pentru fiecare subgrupa. Curba cautata va rezulta din asamblarea acestor curbe elementare (portiuni de curba) si deci ea nu va fi descrisa de o ecuatie unica pe intregul domeniu de definitie. Aspectul neted al curbei rezultate va fi obtinut prin impunerea conditiilor de continuitate si derivabilitate functiei asociate, in punctele de jonctiune a doua portiuni de curba.
Construind in acest mod curbe de interpolare, utilizand curbe descrise de functii polinomiale de grad 3 se obtine curba spline cubica naturala. Dezavantajul acesteia este controlul global pe care il exercita fiecare punct de control asupra curbei. Determinarea acestei curbe avand n+1 puncte de control necesita rezolvarea unui sistem liniar de 4*n ecuatii cu 4*n necunoscute. Acest sistem furnizeaza coeficientii functiilor polinomiale de grad 3 asociate celor n portiuni de curba care definesc curba de interpolare.
O alta metoda pentru constructia unei curbe de interpolare spline cubica utilizeaza un set de curbe SPLINE DE BAZA. Curba de interpolare se obtine ca o combinatie liniara (suma ponderata) a acestora. Si in acest caz se obtine o curba de interpolare asupra careia fiecare punct de control exercita o influenta globala.
Asigurarea controlului local asupra unei curbe spline cubice de interpolare nu poate fi obtinuta decat renuntand la unele conditii asupra curbei. Renuntand la cerinta ca curba sa treaca prin punctele de control conduce la obtinerea unor curbe de aproximare numite CURBE B-SPLINE CUBICE (figura 2.2.). Pentru reprezentarea acestui tip de curba se utilizeaza o forma parametrica.
Fiind date n+1 puncte de control, P0, …,Pn, vom diviza intervalul [0,n] al parametrului u in n subintervale [ui, ui+1], cu 0 <= t <= 1 si t(0)=ui si t(1)=ui+1. Pentru fiecare subinterval avem, in expresia matriceala:
figura 2.2. Reprezentare grafica a functiei splin cubice
2.2. Metode de selecție a caracteristicilor
Dimensiunea spațiului caracteristicilor influentează în măsură mare eficiența și performanțele algoritmilor de clasificare .
Astfel, o serie de algoritmi de clasificare eficienți în spații cu puține dimensiuni devin nepractici în spații cu mai multe dimensiuni.
De aceea am căutat implementarea unor transformari care să ierarhizeze importanța caracteristicilor în spațiul transformat și să permită astfel, micșorarea dimensiunii acestuia prin eliminarea celor mai puțin semnificative , păstrand în același timp informația esențială în vederea clasificării.
Pentru aceasta am selectat acele caracteristici care conțin cea mai mare cantitate de informatie despre forma respectivă.
Aplicarea transformărilor asupra datelor obținută în urma fazei de extragere a caracteristicilor și reținerea numai a celor semnificative se numește selecția caracteristicilor (feature selection).
2.3. Analiza componentelor principale
Analiza componentelor principale este o metodă standard de analiză a datelor care permite detectarea celor mai marcante tendințe ale unei mulțimi de date.
Fie X un nor de date din spatial . Componentele principale ale acesei mulțimi sunt direcțiile din de-a lungul căroră alungirea norului este cea mai semnificativă. Cunoașterea acestor direcții poate servi atât în scopuri de clasificare cât și pentru determinarea celor mai importante caracteristici ale norului de puncte analizat .
PCA reduce dimensiunea respectiv numărul de variabile al unui set de date.
Fig. 2.3. Variantă de reprezentare a proiecției utilizând PCA
În figură este reprezentată o rețea într-un subspațiu bidimensional. PCA este utilizată pentru a vizualiza aceste date prin reducerea dimensionalitatea datelor. Cele trei variabile sunt reduse la un număr mai mic, de două variabile noi componente principale numite (PC). Folosind PCA, putem identifica planul bidimensional care descrie optim mai varianța datelor.
Selecția folosind PCA rotește spațiul de date original, încât axele de coordonate ale noului punct au cea mai mare variație a datelor într-o anumită direcție. Axele sau noile variabile sunt denumite componente principale și sunt ordonate de variație. Prima componentă, PC 1, reprezintă direcția cu cea mai mare varianța a datelor. Direcția PC 2, reprezintă cea mai mare a varianță ortogonală ce a rămas după prima componentă. Reprezentarea permite obținerea numărului necesar de componente care acoperă un spațiu și a cantității dorite de varianță.
Cele mai multe transformări utilizate pentru selecția caracteristicilor sunt cele liniare, în timp ce transformările neliniare au o complexitate mai ridicată, sunt mai greu de implementat, dar pot avea o eficiență mai ridicată, exprimând mai bine dependența dintre formele observate, datele primare observate și caracteristicile selectate ale acestor forme.
Transformata Karhunen-Loéve (Principal Component Analysis PCA) este o metodă liniară de selecție a caracteristicilor. Fie X un vector aleator n-dimensional. Se caută o transformare ortogonală care să permită reprezentarea optimă a vectorului X în raport cu criteriul erorii medii pătratice minime.
Proiectând norul pe direcțiile date de componentele sale principale, efectul imediat este o compresie a informației conținută în mulțimea respectivă.
Conform referinței [2], determinarea componentelor principale ale norului de date X se reduce la determinarea valorilor vectorilor/valorilor proprii ai matricei de dispersie a mulțimii de date analizată. Caracterul liniar al metodei standard PCA (realizată prin proiecția liniară a datelor analizate pe componentele/direcțiile principale) determină o serie de neajunsuri majore în prelucrarea datelor de intrare reale .
În consecință, în prezent au fost dezvoltate o serie de generalizări neliniare ale variantei clasice, un exemplu fiind algoritmul Kernel PCA a carui structură este prezentată în [1].
In EigenObjectRecognizer.cs si in Anexa se gaseste codul sursa folosit pentru recunoasterea fiecarui obiect prin metoda PCA (Principle Components Analysis)
2.4. Estimarea prin segmentare cu prag
Metoda de evaluare a fost de a estima poziția subiectului prin determinarea centrului de vizare al imaginii împărțite de prin prag optim [13].Segmentarea imaginii inițiale a fost efectuată cu pragul optim, care se aplică un algoritm de centrul de greutate.
Textura complexă și contrastul imaginii a redus apariția de segmentare și resturi de produs.
S-a folosit soluția de filtrare și un algoritmul de tip centroid pentru calibrare a pragului de discriminare al subiectului [20].
În continuare este prezentat schematic algoritmul descris.
Fig.2.5. Structura algoritmului propus
Pe imaginea inițială s-a realizat o segmentare cu prag optim asupra căreia s-a aplicat un algoritm de centroid. Textura complexă a imaginii și contrastul redus au condus la apariția unor artefacte de segmentare pentru a căror eliminare a fost aleasă soluția aplicării unui filtru morfologic.
2.5. Algoritmul Viola-Jones
Am inserat clasificatorii HAAR LIKE în cascadă conform modelului următor model, aplicând în ordine acești clasificatori până la epuizarea acestora și la obținerea unei fețe din imaginea analizată.
Procedeul permite să se afle și dacă un clasificator folosit nu are elemente de validitate.
Algoritmul Viola Jones permite obținerea de rezultate cu acuratețea de până la 95% pentru detecția fetelor umane, aceasta implicând numai 200 de clasificatori simpli.
Prelucrarea se poate face folosind un calculator cu performanțe medii, instalat cu un procesor de 2GHZ care poate prelucra astfel cca. 5 frame-uri de imagini pe secundă.
Fig.2.6. Schema algoritmului Viola-Jones
Algoritmul specific utilizat în cadrul aplicaței este acela folosind detecția centroidului feței, având structura din fig 2.5. și fiind descris de ecuațiile din fig.2.1., unde S este pragul utilizat pentru discriminarea pupilei.
, (2.1.)
Fig.2.8.2. Algoritm de centroid implementat pentru determinarea centrului de imagine
2.6. Fuziunea spatiilor de culoare
Fuziunea culorilor este realizata la nivel de fuziune a datelor brute prin combinarea acestora. Culorile RGB apartinand aceleiasi clase se concateneaza sub forma unui vector de date. Urmeaza extragerea de caracteristici prin transformari PCA, si clasificarea acestora pentru obtinerea unor decizii.
Fig.1.1 Schema bloc de clasificare a imaginilor color utilizand fuziunea culorilor RGB
2.7. Citirea imaginilor
Baza de date folosită și algoritmul sunt proprii. Procedeul imaginat, presupune pentru prima parte din algoritm, parcurgerea efectivă și prelucrarea unor imagini de test din cadrul bazei de date predefinite. Urmează extragerea unor vectori de trăsături ce vor fi utilizați ulterior în procesul de antrenare. Se setează fișierul cale de la care se pornește parcurgerea fiecărui fișier din conținutul acestui. Se vor parcurge imaginile pe rând ,fiecare imagine va fi citită și încărcată într-o variabilă .
Acest proces va avea loc pentru fiecare fișier ce conține imagini.
5/49 conținând 552 imagini de dimensiuni 90×120 pixeli, o parte a acesteia fiind reprezentată în figura 1.2.
Pentru transmisiunile video cea mai importantă consecință dată de proprietatea de acoperire rapidă este posibilitatea adaptării flexibile a ratei de transmisiune la conținutul imaginii ,cu o foarte scăzută rată pentru încă o scenă sau pentru o parte cât mai largă din imagine pentru o acuratețe dată ,în cazul mișcării.
Figura 1.2 Selecție cu fotografii din cadrul bazei de date folosite
Baza de date, a fost realizată personal si conține un număr de 552 de fotografii in format JPEG, respectiv fotografii a 46 subiecți,bărbati și femei, tineri si vârstnici, de diferite etnii.
Fiecarui subiect i s-au cerut sa simuleze mai multe stari emotionale, care au fost etichetate in cadrul bazei de date de forma x.y.JPEG, respectiv numarul subiectului fotografiat si pozitia in care a fost fotografiat acesta.
Baza de date reflecta variatii ale unor expresii faciale ale subiectilor ca normal/neutru, vesel, trist si stari intermediare acestora.
Astfel, subiecții au fost fotografiati in urmatoarele poziții, numerotate:
1.normal, din față, cu ochii deschiși;
2.normal, din față, cu ochii inchiși;
3.normal, din lateral, cu fața la stanga,privirea inainte,ochii deschiși;
4.normal, din lateral, cu fața la stanga,privirea inainte,ochii deschiși;
5.fericit, bucuros, zâmbind;
6.trist, posomorât;
7.mirat, surprins;
8.dezgust,scârbă,lehamite;
9.mânios, încruntat;
10.cu ochelari;
11.cu șapcă, pălărie, basma (capul acoperit);
12.cu ochelari, și capul acoperit.
Baza de date a fost repartizata in 2 parti: de antrenare si de test.
Fiecare subiect din cei 46 are 3 imagini de antrenare si 3 de test, care au fost reprezentate cu 3i/3t in Raport.
Fotografiile au fost realizate ziua în condiții de iluminare normală, pe fundal uniform deschis la culoare, cu o cameră foto tip Samsung WB 100, fără filtru liniar.
Imaginile realizate au fost transpuse in format 90×120 pixeli (verticală x orizontală) folosind Photo Paint, realizându-se un număr total de 552 fotografii.
3. Descrierea aplicației
3.1. Arhitectura aplicației
Fig. 3.4. Schema bloc a arhitecturii aplicației
3.2. Detalii folosite la implementare
Clasificatorii lucrează pe subimagini de 24*24 pixeli folosind doar unul din cele 3 canale de culori (RGB).
Detectarea se face prin mișcarea clasificatorilor deasupra imaginii și scalarea clasificatorilor cu un pas de 1.25.
Am folosit o rețea gata antrenată : haarcascade_frontalface_alt.xml.
Am scris codul sursă în C# pe baza framework-ului ACCORD. NET.
3.3. Detecția feței unei persoane
Capturile următoare surprind recunoașterea feței unei persoane extrasă de pe un fundal specific mulțime aglomerată.
Achiziția imaginilor se face cu o cameră simplă web, fără performanțe.
Fig.3. 1. Interfața folosind imagini video achiziționate de la o camera web
Aplicatia a fost realizata pornind de la libraria de clasificatori HAAR implementata folosind tehnologia interpolarii cubice prin funcții predefinite splin.
Programul ruleaza independent si necesită instalarea Microsoft Visual Studio 2013 (free), fiind realiyat in limbajul de programare C Sharp.
Considerentele principale care au stat la baza alegerii acestuia a fost viteza de prelucrare faorte rapida, catre timp real, si meniul accesibil de operare/programare.
Pasi de programare:
1. Declararea tuturor variabilelor, obiectelor si vectorilor de imagine
Image<Bgr, Byte> currentFrame; //** Cadrul curent al imaginii faciale
Capture grabber; //** variabila care pastreaza imaginea captata
HaarCascade face; //** clasificatorul pentru facial
HaarCascade eye; //** clasificatorul pentru ochi
-Definirea tipului de font
MCvFont font = new MCvFont(FONT.CV_FONT_HERSHEY_TRIPLEX, 0.5d, 0.5d); //** tipul de font si dimensiune ce o sa fie afisat deasupra imaginii
-definirea imaginilor rezultate dupa detectie precum si aceea ce urmeaza a fi inregistrata in baza de date
Image<Gray, byte> result, TrainedFace = null; //** imaginea rezultat si imaginea ce urmeaza a fi captata si inregistrata in baza de date
Image<Gray, byte> gray = null; //** sunt stocate diferentele de gri ale imaginiii
-generarea unui vector cu toate imgaginile adaugate
List<Image<Gray, byte>> trainingImages = new List<Image<Gray, byte>>(); //** un vector cu toate imaginile (subiecti) care urmeaza a fi adaugate in baza de date
-generare vector pentru etichetare subiecti
List<string> labels= new List<string>(); //** vector pentru etichetarea persoanelor
List<string> NamePersons = new List<string>(); //** vector cu numele persoanelor
int ContTrain, NumLabels, t; //** contoare pentru numarul de persoane care urmeaza a fi salvate (ContTrain), pentru etichete (NumLabels), pentru fiecare fata detectata se trece la pasul urmator (t)
string name, names = null; //** variabile de tip string (sir de caractere) pentru salvarea numelui si a numelor persoanelor.
2. Incarcarea clasificatorului pentru detectie frontala a fetei si ochilor de tip Haar Cascade
//** incarcare clasificator pentru detectie frontala a fetei
face = new HaarCascade("haarcascade_frontalface_default.xml");
//eye = new HaarCascade("haarcascade_eye.xml");
-incarcarea fetelor deja existente si etichetarea fiecareia dintre ele
– definire mesaje din box:Nu exista nimic salvat (binar) in baza de date, va rog sa adaugati cel putin un subiect cu caracteristici faciale", "Incarcarea fetelor si antrenarea lor", MessageBoxButtons.OK, MessageBoxIcon.Exclamation);
– initializare camera pentru captare (deschiderea camerei)
– initializare contor de antrenare al fetelor
– obtinerea unui cadru gri de la dispozitivul de captare (Camera)
– initializarea detectorului facial Emgu pentru procesarea imaginilor
3. Definirea actiunii pentru fiecare element detectat
4. Redimensiunea fetei detectate ca imagine pentru compararea fortata a aceleiasi dimensiuni cu imaginea de test folosind interpolare cubica.
-afisarea fetei adaugate intro scala gri
– salvarea intrun fisier de tip text a fetelor antrenate
-scrierea etichetelor a fetelor antrenate intrun fisier text pentru incarcari si detectari ulterioare
-predefinire mesaje box : " a fost detectata si adaugata.", "Trainingul a fost efectuat cu succes", "Activatia dectarea fetei mai intai.", "Trainingul a esuat.",
5. Obtinem cadrul curent de la dispozitivul de captare
– convertim imaginea obtinuta la scala gri
-folosind Detectorul facial MCvAvgComp definim actiunea pentru fiecare element rezultat in urma clasificarii HAAR prin trasarea (reprezentarea) fetei detectate in canalul 0 al culorii gri folosind culoarea albastra.
-se face apel la Clasa TermCriteria care se foloseste la recunoasterea imaginilor antrenate cu un numar maxim de antrenari (variabila maxIteration).
-se defineste obiectul de recunoastere al vectorului facial comun
-trasam cate o eticheta pentru fiecare fata detectata si recunoscuta.
– stabilim numarului de fete detectate in scena
-setam regiunea de interes a fetei
– sunt concatenate numele persoanelor recunoscute si afisarea lor
6. Afisarea fetelor procesate si recunoscute
– eliberarea listei (vectorului) de nume
4.2. Specificații ale programului informatic
Aplicatia poate fi accesata din C:\Users\boss\Desktop\FaceRecProOV\bin\Debug
In C:\Users\boss\Desktop\FaceRecProOV\bin\Debug\TrainedFaces se gasesc imaginile rezultate dupa detectie precum si cele ce urmeaza a fi inregistrata in baza de date
In EigenObjectRecognizer.cs se gaseste codul sursa folosit pentru recunoasterea fiecarui obiect prin metoda PCA (Principle Components Analysis)
In Main Form.cs din Anexa se gaseste codul sursa al intregii aplicatii
In Resources sunt prevazute posibilitati de inserare a unor imagini/baze de date format .gif
Aplicatia functioneaza foarte bine pentru urmatoarele resurse: processor dual core 2x 2.4Gz,
Ram 2 G. O calitate foarte buna a imaginilor achizitionate depinde de folosirea unei camera web de calitate.
Conditiile de iluminare in care s-au realizat experimentele arata ca aceasta nu este critica, insa performante de recunoastere superioare se pot obtine cu o iluminare buna a subiectilor.
Detectia si recunoasterea acestora presupun achizitia de imagini fixe, ceea ce din punct de vedere militar impune luarea unor masuri tehnice ex. puncte de control access au zone special amenajate.
4. Rezultate obtinute
In cadrul cercetarilor am realizat mai multe experimente:
1.Am introdus si analizat imagini achizitionate cu camera web
2. Am introdus fotografii din cele doua baze de date personale.
De mentionat faptul ca aplicatia permite recunoasterea fetelor persoanelor din fotografii, cu conditia etichetarii prealabile a acestora (actiuni politienesti)
Detectia si recunoasterea persoanelor in cadrul sistemelor militare de supraveghere a obiectivelor/accesului in acestea, perimetre cu acces restrictionat
Experiențele efectuate pe categorii de fețe, altele decât umane precum și pe obiecte de fundal de diferite nuanțe, forme și mărimi au demonstrat o bună selectivitate a algoritmului ADABOOST la recunoașterea feței umane.
Aplicația nu creează confuzii între clase de fețe și permite o buna implementare pentru recunoașterea feței umane.
Figura 4.1. Captura de ecran cu eticheta unei persoane recunoscute din baza de date
Figura 4.2. Captura de ecran cu imaginea achizitionata in baza de date a subiectului nr. 6
Figura 4.3. Captura de imagine video recunoscuta dupa antrenare cu numele subiectului
Figura 4.4. Captura de ecran 3 subiecti detectati din baza de date
din multimi aglomerate si localizarea lor
Figura 4.5. Captura de ecran 4 subiecti detectati din baza de date
din multimi aglomerate si localizarea lor
Figura 4.6. Captura de ecran 2 subiecti detectati din baza de date
din multimi aglomerate si localizarea lor
Figura 4.7. Captura de ecran 1 subiect detectat din baza de date
din multimi aglomerate si localizarea lui
Figura 4.8. Captura de ecran 2 subiecti detectati din baza de date din multimi aglomerate si localizarea lor pe fundal intunecat si miscarea subiectilor
O contribuție deosebita realizata prin aplicația software este cea a recunoasterii emotiilor faciale simulate de catre subiectul care le simuleaza. Aplicatia permite detectia a 6 astfel de stari inclusive detectia subiectilor care poarta ochelari prin recunoasterea trasaturilor feței medii și inferioare ale acestora.
Figura 4.9. Captura de ecran cu subiectul nr 24 din baza de date recunoscut in 6 stari faciale: cu ochelari, incruntat/maniat, trist,surprins, vesel. Iluminare: semiintuneric
5. Concluzii
1. Metoda implementând algoritmul Viola-Jones și clasificatori predefiniți în framework-ul ACCORD.NET în cadrul unui sistem informatic permit un timp de prelucrare real.
Rata de recunoaștere este de peste 95% și se permite detecția a peste 6060 layere.
2. Aplicația folosind permite depistarea fețelor orientate cu ungiuri mai mari de până la 60 grade față de poziția normal, frontal de achiziție a imaginii video, față de alte aplicații ce oferă rezultate pentru orientarea feței până la maxim 30 grade față de poziția frontală.
3. Rezultatele demonstrează că nu se creează confuzii la recunoaștere între clase de persoane, facându-se o foarte bună separare între achiziția și prelucrarea datelor de la subiecți umani, animale sau obiecte de pe fundal.
4. Detecția și recunoașterea feței se efectueaza în timp real, nu se fac întârzieri datorate prelucrării matematice ca de ex. la Matlab, și se obțin rezultate net superioare față de acesta.
5. Fundalul de pe care se poate face recunoașterea feței se observă că este iluminat normal sau intunecat și este variat ca și componență a culorilor, respective aglomerat din punct de vedere al obiectelor înconjurătoare.
6. Aplicația informatica permite prelucrarea datelor stocate sub formă de fotografii în format .jpg, .png sau .bmp dar și a imaginilor în timp real furnizate de o cameră video.
7. Comparația și rezultatele practice obținute conduc la recomandarea programului informatic pentru aplicații de supraveghere militare ce presupun detecția persoanelor în mulțimi aglomerate, manifestații sportive, cultural, religioase, detecția persoanelor date în consemn la frontieră, a persoanelor suspecte sau urmărite ce fac obiectul acțiunilor militare sau Poliției.
8. Prelucrarea imaginilor este un domeniu complex și foarte dinamic, cu numeroase aplicații în diverse domeniul militar. Optimizări ulterioare ale aplicației pot permite extragerea informațiilor utile din imagine și pot îmbunătăți procesul de extragere și analiză.
9. Rezultatele pot urmări găsirea unui algoritm ce poate efectua în paralel și o căutare a întregii imagini dintr-o bază de date.
10. Aceste date vor putea fi utilizate în aplicații militare pentru depistarea persoanelor ce fac obiectul misiunilor Jandarmeriei sau Poliției, precum și a celor date în consemn la frontieră în mulțimi aglomerate.
Contribuții personale
1. Realizarea a două baze de date, cu fotografii și imagini video
2. Realizarea unei aplicații informatice pentru detectia si recunoașterea fețelor umane, achiziționate în mulțimi aglomerate, pe fundal variat și cu iluminare medie, care să răspundă cerințelor de a fi implementate pe un terminal portabil
3. Implementarea unor algoritmi robuști, și clasificatori recunoscuți pentru eficacitatea acestora în cadrul aplicației experimentale
4. Propunerea procedeului de segmentare cu prag și de determinare a centroidului imaginii în cadrul unor cercetări viitoare
5. Prezentarea comparativă a rezultatelor unor experiențe și optimizarea celei ce prezintă cele mai bune rezultate
Performante realizate
1. Realizarea unei recunosteri a fetelor persoanelor din imagini fixe in timp real
2. Implementarea pe un terminal portabil disponibil pentru aplicatii operative
3. Obtinerea unei rate de recunoastere de 100%
4. Afisarea similitudinilor fetelor subiectilor cu altii din baza de date
5. Creearea de oportunitati pentru implementare in diferite aplicatii militare
Bibliografie
[1] C.Bishop: Neural Networks for Pattern Recognition, Oxford Press London, 1995
[2] EDomany: Models of neural networks, Adisson-Wesley Publishing Co., 1995
[3] D dumitrescu, C.Hariton: Retele neuronale.Teorie si aplicatii,Editura Teora, Bucuresti,1996
[4] J.D.Goldberg: Genetic Algoritms in Search, Optimization and Machine Learning, Adisson-Wesley, New York,1989
[5] V.Neagoe: Teoria recunoasterii formelor, Editura Academiei Romane, Bucuresti,1992
[6] V.Neagoe s.a.- Recunoasterea formelor si retele nerale. Algoritmi fundamentali, Editura Matrix Rom, Bucuresti,1998
[7] D.White: A genetic Algorithm for Searching Topology and Weight Spaces in Neural Network Design, Dissertation at the University of Maryland, 1993
[8] V.E. Neagoe and A.C. Mugioiu, "A fully neural approach to color facial
image recognition", Proc. of the World Automation Congress, 2008 (WAC
2008), International Symposium on Soft Computing in Industry
[9] http://www.victorneagoe.com/university/prai/lab3a.pdf
[10] drd. Marian Dorin PÎRLOAGĂ, gl.bg.(r.), prof.univ.dr.ing.Emil CREȚU, col.(r.), prof.univ.dr.ing. Ciprian RĂCUCIU, Analysis and implementation methods of pattern recognition applications using video The International Conference Strategies, technologies, military applications, simulation and resources, 13-14 nov. 2014, Vol.2 pp204-216, ISSN 2285-8415, ISSN-L 2285-8318
[11] drd. Marian Dorin PÎRLOAGĂ, gl.bg.(r.),prof.univ.dr.ing. Emil CREȚU, col.(r.), prof.univ.dr.ing. Ciprian RĂCUCIU, Optimization of biometric technologies for military applications using the recognition of faces, The International Conference Strategies, technologies, military applications, simulation and resources, 13-14 nov. 2014, Vol.2 pp216-228, ISSN 2285-8415, ISSN-L 2285-8318
[14] Mircea Petic, Inga Țițchiev, Grigorii Horoș, the International Conference on Microelectronics and Computer Science, Chisinau, Republic of Moldova, October 22-25, 2014
[15] I. Dzițac, G. Moldovan, Sisteme distribuite modele informatice, Editura Universității Agora, Oradea, 2006, 146 p.
[16] I. Țițchiev, M. Petic, V. Macari, Posibilități de procesare paralelă ale imaginilor prin intermediul funcțiilor OPENCV, Conferința internațională științifico-practică ”Dezvoltarea inovațională din Republica Moldova: problemele naționale și tendințele globale”, 7-8 noiembrie, pp.589-591, 2013, ISBN 978-9975-4266-0-2.
[17] T. Pavlidis, Algorithms for Graphics and Image Processing, Computer Science Press, 1982.
[18] Gary Bradski and Adrian Kaehler, Learning OpenCV, O’Reilly Media, 2008, pp 524-526
[19] R. Laganière. Computer Vision Application Programming Cookbook. BIRMINGHAM –
MUMBAI. First published: May 2011. ISBN 978-1-849513-24-1
[20]C.G. Vasile, “Iris recognizing. General prezentation and applications, results obtained with an experimental model”, The XXXII Communication Session of Institute for Advanced Technologies, Bucharest, 2004[21] X.K. Wang, X. Mao, C.D. Căleanu,"Nonlinear Shape-Texture Manifold Learning", IEICE Transactions on Information and Systems, vol. E93-D, no. 7, pag. 2016-2019, Iulie 2010.
Copyright Notice
© Licențiada.org respectă drepturile de proprietate intelectuală și așteaptă ca toți utilizatorii să facă același lucru. Dacă consideri că un conținut de pe site încalcă drepturile tale de autor, te rugăm să trimiți o notificare DMCA.
Acest articol: Recunoasterea Fetelor din Multimi Aglomerate Folosind Tehnologiile Biometrice Mixte (ID: 163341)
Dacă considerați că acest conținut vă încalcă drepturile de autor, vă rugăm să depuneți o cerere pe pagina noastră Copyright Takedown.
