Retele Neuronale Aplicate In Modelarea Testelor DE Personalitate
CUPRINS
CAP. 0 Introducere
CAP. 1 Psihologia cognitivă
CAP. 2 Contribuția I. A. la modelarea gândirii
Paradigma logico-simbolică
Paradigma conexionistă
CAP. 3 Personalitatea
Trăsătura personală
Importanța testelor în studiul personalității
Cerințe fundamentale ce țin de construcția și validarea testelor de personalitate
Chestionarul 16pF
CAP. 4 Structura unei rețele neuronale
Noțiuni introductive
Câteva noțiuni ce caracterizează o rețea
CAP. 5 Tipuri de instruire a rețelelor neuronale
Învățarea supervizată
Învățarea nesupervizată
Învățarea hebbiană.
Paradigmele instruirii
CAP. 6 Instruire prin minimizarea erorilor pătratice.
Algoritmul Widrow-Hoff (Regula Delta).
CAP. 7 Algoritmul de propagare înapoi a erorii .
(Back-propagation)
Scurt istoric al metodei
Funcția de învățare
Etapele algoritmului pentru o rețea cu un strat ascuns
CAP. 8 Semnificația nodurilor în rețeaua care implementează
testul 16pF
CAP. 9 Prezentarea semnificației factorilor de personalitate
CAP. 10 Etapele implementării rețelei neuronale
Bibliografie
=== RETLAST ===
REȚELE NEURONALE APLICATE
ÎN MODELAREA TESTELOR DE PERSONALITATE
CUPRINS
CAP. 0 Introducere
CAP. 1 Psihologia cognitivă
CAP. 2 Contribuția I. A. la modelarea gândirii
Paradigma logico-simbolică
Paradigma conexionistă
CAP. 3 Personalitatea
Trăsătura personală
Importanța testelor în studiul personalității
Cerințe fundamentale ce țin de construcția și validarea testelor de personalitate
Chestionarul 16pF
CAP. 4 Structura unei rețele neuronale
Noțiuni introductive
Câteva noțiuni ce caracterizează o rețea
CAP. 5 Tipuri de instruire a rețelelor neuronale
Învățarea supervizată
Învățarea nesupervizată
Învățarea hebbiană.
Paradigmele instruirii
CAP. 6 Instruire prin minimizarea erorilor pătratice.
Algoritmul Widrow-Hoff (Regula Delta).
CAP. 7 Algoritmul de propagare înapoi a erorii .
(Back-propagation)
Scurt istoric al metodei
Funcția de învățare
Etapele algoritmului pentru o rețea cu un strat ascuns
CAP. 8 Semnificația nodurilor în rețeaua care implementează
testul 16pF
CAP. 9 Prezentarea semnificației factorilor de personalitate
CAP. 10 Etapele implementării rețelei neuronale
INTRODUCERE
Lucrarea “Rețele neuronale aplicate în modelarea testelor de personalitate” se dorește a fi o prezentare teoretică a unor aspecte privind aplicarea rețelelor neuronale în psihologie. Domeniul rețelelor neuronale artificiale oferă o alternativă demnă de luat în considerare într-o situație de blocaj a programarea algoritmică și a metodelor logico-matematice clasice.
Primul capitol al lucrării este o introducere în psihologia cognitivă ca știință ce abordează un studiu detaliat al sistemul cognitiv uman, al tuturor fenomenelor psihice și comportamentale din perspectiva fenomenelor psihice, câteva tendințe și direcții de orientare în acest domeniu .
În cel de-al doilea capitol am prezentat contribuția Inteligenței Artificiale în acest domeniu de o arie foarte largă care include mai multe științe numite științe cognitive. Am făcut o prezentare cronologică a realizărilor în domeniu I. A. din perspectiva celor două direcții majore de dezvoltare : paradigma logico-simbolică respectiv paradigma conexionistă .
Pe parcursul întregii lucrări am oferit ca exemplificare a problemelor teoretice din domeniul rețelelor neuronale (o parte restrânsă la domeniul strict de aplicabilitate în problema de față) un model de implementare pentru o rețea neuronală cu trei nivele folosind un algoritm de învățare supervizată .
Capitolul 3 și respectiv Capitolul 8 tratează probleme de psihologie a problemei pentru care am implementat rețeaua, mai precis a testului de personalitate 16pF . Am făcut acest studiu cu scopul prezentării semnificației nodurilor rețelei, cât și pentru a da posibilitatea de a vedea rezultatele pe care aceasta le furnizează utilizatorului chiar dacă acesta nu este neapărat un psiholog . Interpretarea lor însă nu poate fi făcută decât de psiholog .
Alături de rețeaua care reprezintă principalul scop al lucrării voi folosi testul 16pF implementat în limbaj C++ prin programul PSI1 care va fi prezentat în completarea acestei lucrări . Acest program poate furniza și date de antrenare pentru rețeaua neuronală, date ce vor fi memorate în fișierul de antrenare după ce o anumită persoană a răspuns la cele 184 de întrebări ale testului .
Foaia de profil, pe care o furnizează acest program, vine de asemenea în sprijinul psihologului care interpretează rezultatele rețelei, aducând informații noi și făcând precizări acolo unde datele furnizate de rețea sunt neclare sau incomplete .
Scopul lucrării este pe lângă acela de prezentare a unor noțiuni teoretice de rețele neuronale, să ofere unui psiholog un instrument practic de diagnosticare a unei personalități . După prelucrarea datelor de intrare, rețeaua furnizează profilul de personalitate al individului testat încadrându-l într-o categorie de normalitate și diagnosticând manifestări psihopatologice ale individului. Datele de ieșire pot fi interpretate .
Sunt doar câteva exemple de utilizare a facilităților oferite de calculator în domeniul complex pe care ni-l oferă psihologia și o parte infimă din psihologia cognitivă. Tendințele în acest domeniu urmăresc realizarea unei variante artificiale a sistemului cognitiv uman în ansamblul arhitecturii și funcțiilor pe care le îndeplinește, dar există încă numeroase aspecte pe care cercetătorii ce se ocupă cu studiul acestor aspecte nu le-au putut încă lămuri .
CAP 1 : PSIHOLOGIA COGNITIVA
Suntem obișnuiți să vedem lucrurile din punctul de vedere al manifestării lor exterioare, a ceea ce se întâmplă în realitatea imediată și mai puțin a felului în care ele sunt percepute de către creierul uman, respectiv modul de prelucrare al lor. Procesele de cunoaștere și de prelucrare a informațiilor în creierul nostru ne sunt străine pentru că nu le conștientizăm în momentul în care ele au loc și ne este suficient rezultatul acestor prelucrări controlate de intelectul propriu fiecăruia, de memoria și gândirea proprie asupra cărora își pune pregnant amprenta inteligența. Chiar și în informatică, în general suntem obișnuiți să ne formăm un mod de gândire algoritmică ce presupune un model matematic, logic sau lingvistic al problemei pe care o rezolvăm.
Reprezentarea este o reflectare într-un mediu intern a realității exterioare, proprii fiecăruia.
Psihologia cognitivă își propune să analizeze tocmai această latură a gândirii umane, a sistemului cognitiv uman ca sistem de prelucrare a informației, adică intr-un limbaj mai apropiat de cel informatic studiază procesările la care e supusă informația între input-ul senzorial și output-ul motor sau comportamental. Contribuția în acest domeniu al psihologiei cognitive o au diverse științe ca psihologia, filozofia, inteligența artificială, lingvistica, antropologia, neuroștiințele. Deși nu avem de-a face cu o știință cognitivă unificată ci un corp de discipline care interacționează, apar tot mai vădite tendințe de unificare.
Psihologia cognitiv are spre deosebire de psihologia clasică un caracter cumulativ caracterizat de o analiză detaliată, în profunzime a proceselor psihice. Construirea unor Sisteme expert, a unor sisteme de inteligență artificială, a unor modele cognitive valide și relevante psihologic impuse de nevoia de a explica comportamentul uman.
Din această perspectivă s-a impus ca o necesitate existența unei științe specifice care să facă o analiză de detaliu, în profunzime a proceselor psihice cognitive, impun un aparat conceptual mult mai detaliat decât cel oferit de psihologia clasică. Această necesitate e determinată de:
abordarea de către specialiștii în Inteligență Artificială a unor probleme de modelare si construcție a sistemelor artificiale inteligente capabile să realizeze performanțe cognitive similare cu ale subiectului uman.
descoperiri de ultimă oră în domeniul neuroștiințelor cum ar fi neurotransmițătorii, neuromodulatori, neurohormoni, a sinapselor electrice, sau utilizarea unor metodologii de înaltă performanță în domeniul clinic cum sunt tomografie computerizată magnoencefalografia etc.
Tendințele în I. A. au urmat câteva direcții majore:
experimentul ca metodă de producere și validare de noi cunoștiințe;
modelare-formalizare-simulare pe calculator ;
Modelul este o construcție teoretică ce specifică componentele suficiente ale unui mecanism, care generează
output-uri specifice în urma procesării unor input-uri specifice.
Ulterior aceste procesări odată specificate sunt formalizate, adică transpuse într-un model logico-matematic sau de programare. Dacă modelarea și formalizarea au fost corecte atunci calculatorul va simula procesul respectiv, adică va avea aceleași performanțe ca și subiectul uman.
3. nu în ultimul rând contribuie la analiza modului în care personalitatea umană procesează informația ; cercetările asupra procesării informației oferă spre exemplu informații mult mai complexe în studiul unor cazuri clinice de depresii, anxietăți, fobii schizofrenia etc.(psihoterapia cognitivă realizată prin programarea interfeței om-calculator ). Un alt exemplu de utilizare a metodei de studiu al procesării informației ar fi cercetările efectuate asupra luării deciziilor, a reprezentării cunoștințelor sau a rezolvării de probleme, cercetări asupra unor strategii rezolutive și asupra memoriei de lucru.
Trebuie să remarc faptul că, comportamentul uman în toată complexitatea sa, precum și multe fenomene psihice interne nu este reductibil la procesarea informației, componenta cognitivă nu epuizează complexitatea fenomenelor psihice. Există unele aspecte cum ar fi influența contingențelor ( a întăririlor pozitive sau negative) asupra comportamentului, expresivitatea emoțiilor, tendințe (motivația în general), relațiile interpersonale care nu pot fi surprinse în structuri și prelucrări cognitive. În consecință psihologia cognitivă nu se substituie psihologiei în totalitate, dar contribui alături de celelalte științe cognitive la acoperirea unor arii cât mai largi, cu tendința de a o acoperi în întregime.
CAP. 2: CONTRIBUȚIA INTELIGENȚEI ARTIFICIALE
ÎN MODELAREA GÂNDIRII
În această ramură de cercetare Inteligența Artificială are o influență substanțială atât la nivel conceptual, cât și la nivelul implementării anumitor concepte teoretice pe calculator.
Cercetările în Inteligență Artificială au determinat, într-o altă ordine de idei, două direcții de cercetare diferite care ulterior au evoluat divergent constituind modele dominante ale procesării informației având ca model comportamentul uman respectiv modul de funcționare al sistemului nervos uman.
Cele două direcții care s-au conturat încă de la începutul cercetărilor în Inteligența artificialã sunt :
paradigma logico-simbolică, folosind o reprezentare simbolică a unei mulțimi de elemente structurate sub forma de expresii logice, arbori de decizie, reguli de producție sau rețele semantice respectiv
paradigma conexionistă, aceasta din urmă introducând un nou concept de calcul, calcul neuronal.
Paradigma simbolică clasică
După cum se cunoaște, în logica simbolică, propozițiile sunt reprezentate prin variabile propoziționale sau funcții propoziționale. Apariția lingvisticii teoretice și a gramaticilor generative ( N. Chomsky) au impus tot mai pregnant ideea conceperii gândirii ca manipulare de simboluri. Calculatorul, luat ca model în înțelegerea sistemului cognitiv uman, funcționa la momentul respectiv pe baza manipulării simbolurilor cu ajutorul regulilor.
Presupunerea de baza în paradigma clasic-simbolică este așadar următoarea: cunoștințele și implicit stările de lucruri corespunzătoare, sunt reprezentate prin simboluri sau structuri simbolice. Un simbol este o reprezentare ce denotă obiecte sau stări de lucruri și se supune unor reguli de combinare. Expresiile lingvistice, conceptele, judecățile sau imaginile sunt reprezentări simbolice. Pentru a putea opera cu cunoștințe, calculatorul trebuie să recurgă la transpunerea lor într-un limbaj de programare.
Un fenomen similar are loc și în cazul creierului uman care pentru a putea opera cu cunoștiințe le codifică în expresii simbolice, pe care le manipulează după anumite reguli.
După exprimarea lui A. Newell și H. A. Simon sistemul cognitiv uman la fel ca și calculatorul sunt sisteme fizico-simbolice, idee care a favorizat simularea pe calculator a multor procese cognitive și construirea sistemelor artificiale inteligente. Pentru a exemplifica voi aminti câteva din cele mai importante realizări cum ar fi: teoria ACT a lui J. L. Anderson sau modelul SOAR a lui A. Newel .
Paradigma conexionistă
Istoric:
Cunoscută și sub numele de “paradigma procesărilor paralele distribuite” sau “ modelare neuronală ” teoria conexionistă s-a dezvoltat mai ales în ultimii cincisprezece ani. Ea pornește de la ideea că activitatea cognitivă poate fi explicată pe baza unor modele de inspirație neuronală.
Primele tentative în acest sens au aparținut americanilor Pitts McCullogh (1943) care au modelat activitatea neuronală prin aplicarea unei algebre booleene. Astfel apare primul model de neuron rezultat din colaborarea unui neurofiziolog cu un matematician. Ei au arătat că rețelele de neuroni
formali (modele simplificate ale neuronilor biologici) pot realiza calcule logice. Acest model în mare acceptat și astăzi presupune că neuronul funcționează ca un dispozitiv simplu, ale cărui intrări sunt ponderate. Ponderile pozitive sunt excitatoare iar cele negative inhibitoare. Dacă excitația totală, adică suma ponderată a intrărilor, depășește un anumit prag, atunci neuronul este activat și emite un semnal de ieșire.
Progrese realizate în neurobiologie și psihologie au determinat apariția unor modele matematice ale învățării. Un astfel de model a fost propus în 1949 de către D. O. Hebb și a reprezentat punctul de plecare în modelarea capacității de învățare pentru rețelele neuronale artificiale. Hebb a propus un mecanism calitativ ce descrie procesul prin care conexiunile sinaptice sunt modificate pentru a reflecta mecanismul de învățare realizat de neuronii interconectați atunci când aceștia sunt influențați de anumiți stimuli.
Ideea de construire a unui neuron artificial a fost preluată de F. Rosenblatt (1958) care a construit o rețea neuronalã cu două niveluri numită perceptron, destinată să facă distincție între două impulsuri senzoriale diferite. Acesta era “ un model probabilistic pentru memorarea și organizarea informației în creier ”.
Un alt model de neuron, cunoscut ca ADALINE (ADAptive LInear Neuron ) a fost propus de către B. Widrow la începutul anilor ’60. O rețea cu elemente de acest tip a fost numită MADALINE (Multiple-ADA-LINE). ADALINE este un model adaptativ, în sensul că există o procedură bine definită de modificare a ponderilor. Ieșirea sa este o funcție liniară, deci este un dispozitiv liniar,în acest caz funcția de ieșire fiind chiar funcția identitate.
Aceste aplicații ar putea fi numite aplicații de recunoaștere a formelor și au fost folosite în recunoașterea unor structuri specifice în electrocardiograme sau percepția artificială.
Aceste prime realizări au entuziasmat lumea științifică. Specialiștii anticipau deja o modelare de ansamblu a inteligenței și memoriei umane prin astfel de rețele.
Cercetările au fost influențate de apariția cărții Perceptrons: An introduction to computational geometry (1969 ) scrisă de unii dintre primii cercetători ai rețelelor neuronale. Aceasta carte demonstra că rețelele neuronale cu un singur strat nu pot rezolva unele probleme relativ simple cum ar fi funcția logică SAU EXCLUSIV (XOR ). Cartea lui Minsky și Papert ( Perceptrons, 1969) vedea cu scepticism posibilitatea rețelelor multistrat de a depăși problemele întâmpinate de modelele ce foloseau perceptronul păstrând însă caracteristicile sale de bază ca: liniaritate, convergenta procedurii de instruire, simplitatea conceptuală ca model de calcul paralel au dus la o scădere drastică a interesului pentru acest domeniu de cercetare. După acest eșec a urmat aproape un deceniu de stagnare a cercetării în acest domeniu.
Noi modele ale procesului de învățare propuse de Grossberg (1980), Hopfield (1982), Kohonen (1984) precum și apariția în 1986 a cărții Parallel Distributed Processing, Explorations in the Microstructure of cognition ca rezultat al colaborării unor cercetători ca: David Rumelhart, James McClelland și a grupului PDP sunt evenimente ce au relansat cercetările privind modelele conexioniste.
Interesul pentru acest domeniu a dus la organizarea primei conferințe internaționale de rețele neuronale, în 1987 și la apariția unor reviste de mare prestigiu consacrată exclusiv acestui domeniu.
Am făcut această trecere în revistă a momentelor importante în evoluția calculului neuronal pentru a pune în evidență realizările înregistrate în acest domeniu relativ de dată recentă. La momentul de față el reprezintă un domeniu de cercetare fascinant. Rețelele neuronale au modificat imaginea noastră asupra proceselor de calcul și a aspectelor algoritmice ale Inteligenței Artificiale, au furnizat psihologiei un nou model al proceselor mentale.
Cortexul cerebral este o rețea neuronală naturală. O astfel de rețea neuronală are capacitatea de a gândi, învăța și de a-și aminti. Sistemele artificiale sunt încă foarte departe de cele naturale, totuși suplinesc pe anumite porțiuni funcții ale acestora și au capacitatea de a îndeplini sarcini ce presupun inteligență.
Paralelismul înalt și capacitatea de învățare reprezintă caracteristici fundamentale ale modelului conexionist. În mod tradițional, rezolvarea unei probleme presupunea un model ( matematic, logic, lingvistic ) al acesteia și determină apariția unor dificultăți pentru probleme practice de mare complexitate. Rețelele neuronale sunt capabile să sintetizeze în mod implicit un model al problemei, am putea spune că își construiesc singure un algoritm de rezolvare, pornind de la o mulțime de exemple și folosind o regulă de modificare a ponderilor interneuronale.
Realizări de ultima oră cum ar fi Teoria mulțimilor nuanțate (fuzzy) reprezintă un instrument matematic foarte puternic pentru tratarea ambiguității de natură nestatistică și pentru modelarea raționamentului nuanțat și aproximativ. Utilizând mulțimile nuanțate, se pot realiza rețele neuronale capabile să învețe din date de instruire incomplete, ambigue sau contradictorii. Rețelele bazate pe astfel de modele vor avea un grad înalt de precizie și desigur un grad de inteligență sporit.
O tendință recentă este utilizarea algoritmilor genetici și evolutivi atât pentru instruirea rețelelor neuronale, cât și pentru stabilirea arhitecturii acestora.
CAP 3:PERSONALITATEA
Trăsătura personală a fiecărui individ reprezintă un sistem neuropsihic generalizat care are capacitatea de a schimba stimuli echivalenți funcțional, să inițieze și să conducă conștient forme de comportament adaptativ ( solicitate de mediu ) și expresiv (produs de nevoia de exteriorizare a individului ).
Studiul personalității presupune o analiză detaliată sub raport structural al structurilor componente ce definesc personalitatea:
o dinamică generală dată de proprietățile fundamentale ale sistemului nervos central ș de mobilitatea, tenacitatea și echilibrul proceselor de excitație și inhibiție dând activității psihice o notă temperamentală proprie; temperamentul se exprimă în impresionabilitatea subiectului, în ritmul, tempoul și expresivitatea manifestărilor comportamentale ;
componenta intelectuală grupează sisteme de informații și modul de prelucrare al lor, structurile cognitive și stilul de cunoaștere al individului ;
substructura relațională de caracter grupează relațiile esențiale, atitudini constante și selective față de muncă, față de ceilalți, față de sine, precum și în raport cu normele sociale și valorile morale din societate ; caracterul este ansamblul de relații și atitudini fundamentale ale individului conștiente și temeinic motivate;
sistemul de proiectare și orientare al personalității, cuprinzând interesele, preferințele și scopurile individului, concepția sa despre lume și viață ;
componenta de realizare efectivă inclusă în structura capacităților, a aptitudinilor și a deprinderilor însușite in sistemul acțiunilor organizate ale individului cu finalitate socială ;
constituția fizică componenta organică a individului cu resurse biologice și echilibru hormonal intern ce influențează comportamentul persoanei.
Importanța testelor în studiul personalității
Teoriile privind studiul personalității au avut o mare influență in căutarea unor instrumente cât mai exacte de măsurare. Acest tip de teorii operează cu o structură complexă de trăsături, de moduri caracteristice de comportament, cunoaștere, reacție, simțire pe care le-am amintit anterior într-o prezentare foarte generală, departe de a oferi o imagine a complexității acestora. La ora actuală se încearcă prin tehnici de calcul denumite circumplexe să se ajungă la stăpânirea cantitativă a modalităților de interrelaționare ( interdeterminare ) a factorilor dominanți și a diferitelor aspecte ale acestora într-un sistem geometric care să aproximeze sistemul personalității.
în principiu prin trăsătură de personalitate se înțelege o dispoziție sau o caracteristică dominantă care poate fi folosită ca explicație pentru regularitățile și consistența comportamentului persoanei studiate. Chestionarele de personalitate, în mare majoritate oferă instrumentul de măsură, însă nu pot fi interpretate fără o cunoaștere exactă a teoriei pe care se fundamentează.
Cu peste 20 de ani în urmă Wiggins (1973) încerca să pună bazele unei realități ontologice a trăsăturilor, argumentând contra opiniei curente care le privea ca pe simple ficțiuni cognitive (concepte
strict teoretice ). Argumentele sale se întemeiau pe faptul că trăsăturile reprezintă patternuri/modele de comportament observabile (regularități în gândire, acțiune, simțire ) și nu simple dispoziții psihice.
Cercetările mai multor psihologi în problema definirii și clasificării unor dimensiuni universale ale personalității au confirmat ca fiind satisfăcător din punct de vedere al rezultatelor modelul tri-dimensional al lui Eysenck, sau modelul în cinci dimensiuni, elaborat de doi cercetători americani Costa McCrae.
Testul 16pF abordează studiul personalității din perspectiva celor cinci dimensiuni (factori determinanți ):
extraversie: vesel, exuberant ;
agreabilitate: blând, tolerant ;
conștiinciozitate: grijuliu, prompt ;
stabilitate emoțională: calm, stabil ;
intelect: critic, rebel ;
Cel mai important element care influențează verosimilitatea rezultatelor, a valorilor obținute în calculul factorilor este selecția variabilelor, a itemilor dacă chestionarul conține întrebări la care subiectul este solicitat să răspundă sau imagini care trebuie să fie cât mai reprezentative pentru factorul pe care îl definesc. Formatul itemilor este cât mai simplu posibil și constă din expresii simple, distincte, cu înțeles succint lipsit de ambiguitate.
Modelul BigFive, care ia în calcul cele cinci dimensiuni, rezultă din abordări de tip lexical presupunând că acele diferențe individuale care sunt cele mai pronunțate dar și relevate din punct de vedere social in viața unui individ, vor fi virtual incluse în limbajul său ; cu cât sunt mai importante aceste diferențe cu atât e mai probabil să fie exprimate prin înțelesul unui singur cuvânt.
Prin selecția variabilelor se înțeleg două tipuri de evaluări:
definirea unui descriptor al trăsăturii care reflectă universul acesteia ;
constituirea unui set de descriptori pentru utilizarea practică, respectiv definirea unui subset al acestui univers.
Astăzi un important număr de cercetări indică un acord general asupra modelului BigFive, evidențiat prin tehnica factorizării.
Personalitatea apare ca una dintre subdiviziunile fundamentale ale ”naturii umane”, un ansamblu de factori determinanți, deci explicabili prin comportament. în diagnoza trăsăturilor psihologia nu abordează direct aceste tendințe bazale ci ceea ce psihologii numesc adaptări specifice, respectiv felul cum au fost modelate tendințele de bază prin influențele externe și influențe interne.
Un test de personalitate poate fi un instrument util psihologului deoarece îi oferă o colecție importantă de date privind starea subiectului la momentul respectiv, nu poate însă să înlocuiască munca acestuia de analiză aprofundată a factorilor, a determinărilor la care este supus, dispoziții trecătoare sau influențe de mediu. Psihologul nu poate schimba trăsăturile de bază ale subiectului sau pacientului, dar cunoașterea corectă a acestora și a felului cum ele intervin în problemele existențiale ale persoanei îl poate ajuta să-l determine pe acesta să conștientizeze anumite erori în felul de a gândi sau în comportament, atitudine etc.
în acest fel psihologul își creează un model cadru, explicațiile fiind date la diferite nivele, prin intermediul așa numitelor procese de intermediere. Un astfel de model explicativ al persoanei util în diagnoza trăsăturilor are următoarea structură:
Modelul pune problema explicării în cadru dinamic al dezvoltării personalității, a felului în care tendințele bazale surprinse din seturile de date obținute ca rezultat al răspunsurilor date la chestionar, interacționează cu mediul in schimbare pentru a produce expresiile fenotipice ale personalității: valori, proiecte personale, imaginea de sine. Urmărind modelul, observăm că trăsăturile bazale, faimoșii superfactori ai personalității: nevrotism (stabilitate emoțională), extraversie, agreabilitate, conștiinciozitate, intelect apar ca dispoziții psihice fundamentale, care nu trebuie privite ca niște elemente de ordin biologic, ci rămân componente psihice oferite de un cadru biologic. Trăsăturile măsurate prin răspunsul la testare sunt o categorie intermediară de fapte psihice, incluse în categoria adaptări caracteristice. Conținutul acestora este format atât de personalitate, cât și de cultură, adaptările fiind caracteristici dobândite, expresie a trăsăturilor.
Din această perspectivă valoarea explicativă a trăsăturilor de personalitate utilizate ca explicații cauzale este reală doar atunci când permite evaluări care trec dincolo de datele observabile.
Complementar abordării personalității prin intermediul trăsăturilor specifice unei persoane, care o diferențiază de oricare alta psihologia personalității și în consecință instrumentele de evaluare, au evoluat în direcția structurilor, a tipurilor comune complementare. Conform teoriei lui C. G. Jung, în definirea modului de funcționare a psihicului uman datele empirice indică coexistența a patru funcții sau procese fundamentale denumite: senzorialitate, intuiție, gândire și afectivitate. Viața noastră psihică se desfășoară prin aceste coordonate care nu pot fi reduse una la cealaltă, prin care desfășurăm un proces de orientare preferențială între obiect și subiect, între interior și exterior.
Teoria tipurilor presupune că indivizii umani se nasc cu o predispoziție de a prefera o anumită funcție față de celelalte. Odată cu maturitatea trăsătura dominantă se intensifică în detrimentul celeilalte trăsături sau funcții cu sens diametral opus, care va rămâne relativ nedezvoltată, utilizată mai ales în manifestări cu conținut inconștient. Spre exemplu senzorialitatea și intuiția sunt două trăsături ce funcționează divergent. Astfel comportamentele, deciziile, reacțiile, modul de a relaționa al persoanei vor fi caracterizate prin tipul preferențial dominant, în timp ce caracteristicile nenuanțate, active mai ales în subconștient vor da la rândul lor o anume coloratură specifică manifestărilor inconștientului în comportament.
În funcție de intensitatea cu care se manifestă fiecare dintre procesele fundamentale, atât în conștient cât și în subconștient autorii contemporani au extras 16 tipuri preferențiale ale personalității mature.
Efectuarea unor studii factoriale, odată cu apariția instrumentelor de diagnostic de tip chestionar, au confirmat tipologia jungiană.
Cerințe fundamentale ce țin de construirea și validarea unui chestionar de personalitate:
O problemă majoră care trebuie avută în vedere la construirea și interpretarea unui chestionar de personalitate este un anume grad de fluctuație al rezultatelor obținute în măsurarea unui comportament și încadrarea acestuia într-un factor, alături de alte trăsături care manifestă aceleași tendințe. Rezultate cu un anumită de stabilitate ne oferă o măsură a gradului de validitate al chestionarului. Există două probleme esențiale:
definirea trăsăturii pe care o pune în evidență factorul ales ;
construirea unui set de itemi prin care subiectul își exteriorizează acea trăsătură.
Este important ca formularea itemilor să nu influențeze calitatea răspunsului dat de subiectul testat.
Contribuția unui item la valoarea unui factor poate fi este variabilă în raport cu ceilalți itemi. De aceea în implementarea testului cu ajutorul unei rețele neuronale itemii sunt conectați cu factorii pe care îi reprezintă prin conexiuni ce vor fi modificate în faza de antrenare a rețelei. Valoarea finală a ponderii pe o conexiune va exprima cât de mult este influențat factorul respectiv de răspunsul dat la acest item. Privit în perspectiva unei evoluții în timp a trăsăturilor specifice unei populații, această posibilitate de antrenare pe un grup reprezentativ al populației respective ne dă posibilitatea de a repeta procesul de antrenare în momentul în care rezultatele obținute nu vor mai satisface anumite cerințe. Un alt avantaj pe care ni-l oferă acest tip de implementare este adaptarea modelului la orice tip de populație cu condiția omogenității acestui grup și a unei antrenări corespunzătoare.
Dacă un număr de itemi nu dau rezultate pentru o categorie de subiecți, concluzie la care psihologul poate ajunge dacă ponderea legăturii acestui item cu factorul pe care îl determină este foarte mică, el poate înlocui acel item prin altul care să surprindă aceeași trăsătură, dar să fie altfel formulat.
CHESTIONARUL 16pF
Pentru a evalua trăsăturile identificate prin analiza factorială Cattell construiește și publică în 1950 chestionarul 16pF, denumit “Chestionarul celor 16 factori ai personalității “. Formulările itemilor au două modele: unii includ formulări legate de comportamentul subiectului, precum și exprimarea unor opinii sau atitudini generale despre oameni ; ceilalți cer subiectului să aleagă între două posibile ocupații, activități recreative, tipuri de oameni, sau alternative privind judecăți de valoare. Există și itemi verbali sau numerici destinați evaluării unui factor de abilitate rezolutivă.
Din combinarea celor 16 factori autorul extrage patru factori de ordinul doi, de semnificație mai largă, a căror semnificație corespunde caracterizării trăsăturilor de personalitate prin cei cinci suprafactori, fără a lua în calcul factorul inteligență, decât ca o măsură a unor alte dimensiuni ale personalității. Cei patru factori de ordinul doi sunt definiți prin următorii termeni:
Adaptare – Anxietate cu aceeași semnificație ca și termenul de stabilitate emoțională folosit de modelul BigFive
Introversiune – Extraversiune
Emotivitate – Dinamism
Supunere – Independență
Factorii primari evaluați prin analiză factorială sunt exprimați prin două extreme, care încearcă să cuprindă mulțimea de manifestări comportamentale specifice dimensiunii, în mod gradat, de la una dintre extreme caracterizată printr-o maximă exprimare în comportament, spre cealaltă extremă care reprezintă manifestări contrare celor situate la prima extremă. Specific persoanei testate, adică acel comportament interpretat ca fiind activ și semnificativ este acel factor a cărui pondere depășește către o extremă sau cealaltă zona de semnificație medie. într-un sistem de 11 clase cum este cel definit de Cattell, în care împarte axa dintre cele două extreme sunt semnificative pentru comportamentul real al subiectului acei factori ce au o poziție de la cota 7 la cota 10, respectiv de la cota 3 la cota 0. Aceștia sunt factori cu grad ridicat de semnificație. Cu cât este mai activă trăsătura cu atât cota standard este mai extremizată. în calculul cotei standard intră variabile ce reprezintă un coeficient de relativitate a răspunsului determinat de mediu exterior sau de dispoziții de moment ale subiectului. Acestea sunt redresate prin ponderarea pe conexiunile rețelei, care raportează individul la o populație căreia acesta îi aparține.
Notele 10 și 0 exprimă un maxim activism al trăsăturii respective, le vom spune manifestări patologice.
Făcând o caracterizare a unei personalități în ansamblul celor 16 factori psihologul poate să dea un rezultat care îl va încadra pe individ în una dintre următoarele categorii:
Structuri omogene (armonice sau normale ) care prezintă cel mult doi factori cu grad ridicat de semnificație. Ceilalți factori se situează in limite de normalitate.
Structuri accentuate: mai mult decât doi factori depășesc limitele normalității într-o extremă sau cealaltă.
Structuri psihopatologice: subiectul manifestă trăsături patologice, de maximă intensitate care îl vor determina la ruperea legăturilor cu socialul sau chiar cu el însuși.
Factorul patologic se poate afla în mai multe stări:
stare latentă, nemanifestată dar prezentând în perspectivă pericolul unor manifestări ;
stare voalată: subiectul poate să conștientizeze sau nu această trăsătură însă ea nu este observabilă din exterior ;
stare manifestată: poate fi diagnosticată prin apariția unor conflicte între individ și mediul său de viață, sau al unor dereglări psihice determinate de contradicția individului cu el însuși ;
Fiecare factor poate fi repartizat pe o curbă de distribuție, făcută pe un grup de persoane considerat a fi reprezentativ pentru populația
studiată (asupra cărora chestionarul poate avea un grad satisfăcător de predicție ). Această distribuție poate fi reprezentată pe o curbă gaussiană.
CAP 4: STRUCTURA UNEI REȚELE NEURONALE
Noțiuni introductive privind rețelele neuronale
Rețelele neuronale constituie un domeniu în care se încearcă o simulare a modului de analiză al creierului uman folosind ca elemente de bază neuronii artificiali interconectați în structuri ce permit dezvoltarea numeroaselor tipuri de rețele. Există două mari categorii de rețele neuronale:
fără reacție (feedforward):
cu reacție (cu feedback):
rețele Hopfield ;
rețele de tip memorie asociativă bidirecțională ;
Aceste aplicații capabile să realizeze operații pe care omul le realizează relativ ușor, procese neurosomatice ce se desfășoară la nivelul scoarței cerebrale, au trezit un interes larg din partea specialiștilor. Dacă structurile și modul de funcționare al sistemului nervos sunt cele care comandă procese ca vorbirea, mersul, recunoașterea unor obiecte, raționarea etc., rețelele neuronale artificiale iau ca model tocmai sistemul nervos. Cu toate că asemănarea este relativ mică rețelele neuronale prezintă un număr mare de caracteristici specifice creierului uman.
Spre exemplu acestea pot învăța din experiență, pot generaliza din anumite exemple altele noi, sau pot sintetiza din intrări ce conțin date irelevante, caracteristici esențiale.
1. Capacitatea de a învăța:
Rețelele neuronale nu necesită programe puternice ci sunt mai degrabă rezultatul unor antrenamente asupra unui set de date. Calitatea unei aplicații depinde de calitatea algoritmului de învățare. Dându-se un set de intrări (eventual și ieșirile dorite ) în urma procesului de antrenament rețelele se autoorganizează astfel încât pot rezolva problemele pentru care au fost proiectate.
2. Capacitatea de generalizare:
Dacă au fost antrenate corespunzător rețelele sunt capabile să dea răspunsuri corecte și pentru intrări diferite de cele cu care au fost antrenate, atâta timp cât aceste intrări fac parte totuși din aceeași familie de probleme.
Este important de menționat că rețelele neuronale artificiale generalizează automat ca urmare a structurii lor, și nu cu ajutorul inteligenței omului înglobată într-un program creat cu acest scop.
Capacitatea de sinteză:
Rețelele neuronale artificiale pot lua decizii sau trage concluzii când sunt confruntate cu informații complexe sau informații care sunt irelevante sau parțiale. De exemplu se poate face o antrenare a unei rețele cu un set de versiuni distorsionate ale literei A. După un proces de antrenare adecvat, aplicarea unei versiuni distorsionate a literei va avea ca rezultat la ieșirea rețelei forma corectă a literei. Deci se pate spune că rețeaua a învățat să producă ceva ce n-a mai văzut înainte .
Câteva noțiuni ce caracterizează o rețea neuronală
Ansamblul de noțiuni ce caracterizează o rețea neuronală sunt următoarele:
o mulțime de noduri (neuroni formali) interconectate ;
o stare de activare ;
o regula de activare ;
funcția de ieșire ;
semnal de ieșire;
un pattern de conexiuni între unitățile rețelei ;
reguli de învățare ;
un mediu sau ambianța în care lucrează rețeaua respectivă ;
Neuronii, unitățile rețelei numiți și noduri ale rețelei preiau în mare funcția unui neuron real. Caracteristică esențială este semnalul de ieșire cuprins, de regulă, în intervalul (-1,1). Dacă unitățile au funcția de a recepta input-ul transformându-l într-o valoare de activare ele sunt numite unități input și sunt unități output dacă transmit output-ul în mediul rețelei. Între cele două nivele de neuroni se pot interpune alte nivele de unități ascunse numite astfel deoarece nu pot fi accesate direct din mediu ci doar prin intermediul unităților vizibile, adică a unităților input și a unităților output. Dacă rețeaua conține și nivele de unități ascunse se numește rețea multinivelară.
Neuronii nu sunt interpretabili semantic adică nu simbolizează stări de lucruri cunoscute sau elemente concrete ale lumii reale, ceea ce determină o altă caracteristică a acestora: semantic-opacitate spre deosebire de modelele simbolice care sunt semantic-transparente.
Li se poate atribui însă o interpretare de cel care exploatează proprietățile rețelei însă fără ca rețeaua să sesizeze această interpretare și fără să fie o interpretare explicită. În mod real, rețeaua manipulează doar valori de activare și nu simboluri.
Dacă se face această atribuire de semnificații, rețelele pot fi clasificate ca:
localizaționiste ;se consideră că fiecare unitate reprezintă un concept ;
distributive ;în cazul cărora informația nu e localizată la nivelul unităților ci este distribuită pe interacțiunile dintre unități, altfel spus, un anumit concept nu e reprezentat de o singură unitate ci de paternul de conexiuni dintre unitățile rețelei, iar nodurile sunt neinterpretabile semantic.
Stările de activare așa cum am amintit caracterizează nivelul de activare al unui neuron la un moment dat. O rețea conexionistă apare ca o matrice de valori de activare. Pentru oricare dintre neuroni există un rest de activare, rezultat al stimulărilor lui trecute. Din nou apare asemănarea cu neuronul biologic căruia îi este caracteristic de asemenea un nivel de activare anterior-stimulat. Valoarea de activare se deteriorează odată cu trecerea timpului sau prin inhibiție laterală, adică prin modificarea conexiunilor
Să considerăm în continuare o rețea de neuroni interconectați printr-o mulțime de ponderi de conexiune sau ponderi sinaptice. Fiecare neuron i are ni intrări, ni ponderi sinaptice una pentru fiecare intrare a sa și o ieșire yi. Intrările reprezintă semnale venite de la alți neuroni sau din lumea exterioară, iar ieșirile sunt transmise ca intrări altor neuroni sau către exterior.
Ponderile. Fiecare pondere corespunde unei conexiuni, se notează wi1, wi2,…,w in și reprezintă numere reale ce ponderează semnalul de ieșire corespunzător. Dacă wij > 0 avem o pondere sinaptică excitatoare, iar dacă wij < 0 avem de-a face cu o pondere inhibitoare. Aceste ponderi sunt stabilite de către rețea în timpul procesului de învățare prin algoritmi specifici pe care îi vom trata ulterior, într-un capitol separat al acestei lucrări. Amintesc doar faptul că aceste ponderi sunt de importanță vitală pentru buna funcționare a rețelei neuronale.
Nivelul de activare al fiecărui neuron este suma ponderată a semnalelor de intrare:
unde cu s am notat nivelul ( starea ) de activare. La această valoare curentă de excitare se adaugă și un rest de activare pe care îl vom nota cu dr (decay rate).
Funcția de ieșire stabilește relația dintre valoarea de activare a unei unități și output-ul pe care ea îl transmite spre alte unități din rețea:
În modelul McCulloch-Pitts fiecare neuron este caracterizat de un prag de excitare, ieșirea neuronului este 1 dacă valoarea de activare este mai mare sau egală decât acest prag de activare. La fel se comportă o rețea neuronală reală la care inpulsul nervos se transmite doar dacă acesta a atins un anumit prag.
Dacă f: R R este funcția de ieșire definită prin:
f(x) =
atunci ieșirea neuronului se scrie ca:
y=f
Valoarea prag t poate fi eliminată din argumentul funcției f dacă se adaugă neuronului un semnal de intrare care are întotdeauna valoarea 1 și ponderea t
adică:
xn+1= 1,
respectiv
wn+1=t.
în acest caz activarea totală este
n+1
s1 = wi xi
i=1
și ieșirea y se poate scrie
y = f (s1)
avantajul acestei abordări este acela că pragul poate fi ajustat împreună cu celelalte ponderi în timpul procesului de instruire.
Forma funcției f depinde de modelul de rețea neuronală studiat. Am prezentat funcția prag asociată modelului McCulloch Pitts. Există și alte funcții:
funcția signum f: R -1, 1
f(x) =
funcția rampă este f: R
funcția logistică:
f: R ( 0, 1) f ( x ) =, k >0
Graficul acestei funcții este:
Funcția f este o funcție sigmoidală.
o altă funcție de asemenea sigmoidală care poate modela răspunsul unui neuron este tangenta hiperbolică:
f: R (-1, 1) definită prin :
f ( x ) = , k > 0 .
Funcțiile sigmoidale sunt monoton crescătoare și derivabile. Se poate observa că funcțiile de ieșire ale unui neuron pot lua și valori intermediare valorilor 0 și 1 (caracteristice unei logici bivalente ), aceasta oferindu-ne avantajul unei modelări multivalente, de o precizie mai mare.
CAP 5: TIPURI DE INSTRUIRE ÎN REȚELE NEURONALE
Calculul neuronal implică două aspecte fundamentale: învățarea și reprezentarea cunoașterii . Abordarea neuronală a acestor aspecte este diferită de abordarea standard întâlnită în modelele bazate pe reprezentarea simbolică a cunoștințelor. Rețelele neuronale pot Învăța pe baza unor informații parțiale sau din date ce conțin erori . Ele achiziționează cunoașterea prin instruire . O rețea neuronală este instruită dacă aplicarea unei mulțimi de vectori de intrare vor produce ieșirile dorite. Cunoașterea pe care rețeaua neuronală o dobândește este memorată de sinapsele neuronale .
Vectorii de instruire se prezintă rețelei în mod secvențial iar ponderile rețelei sunt ajustate în conformitate cu o procedură prestabilită , numită lege de învățare sau algoritm de instruire .
Există două tipuri fundamentale de instruire a rețelelor neuronale : instruirea supervizată și instruirea nesupervizată .
Învățarea supervizată
Se prezintă rețelei o mulțime de exemple de instruire, de perechi formate dintr-un vector de intrare și ieșirea dorită . Când se prezintă rețelei vectorul de intrare se calculează ieșirea rețelei și se compară cu vectorul de ieșire citit din fișierul de antrenare . Diferența dintre ieșirea dorită și cea obținută reprezintă eroarea rețelei la momentul respectiv .
Ponderile rețelei vor fi modificate conform unui algoritm care tinde să minimizeze eroarea . Vectorii din mulțimea de instruire sunt aplicați secvențial (ciclic),până când eroarea totală asociată întregii mulțimi de instruire atinge o valoare acceptabilă .
Învățarea nesupervizată
Instruirea supervizată în ciuda numeroaselor sale aplicații a fost criticată ca fiind neplauzibilă din punct de vedere biologic . Din acest motiv s-a propus un model de învățare nesupervizată în care ajustarea ponderilor nu se bazează pe compararea cu răspunsuri ideale predeterminate .Mulțimea de instruire constă din vectorii de intrare . Pe baza unei proprietăți de autoorganizare aceste modele se grupează În grupuri de forme de intrare similare .
Învățarea hebbiană
Mulți dintre algoritmii de instruire pot fi considerați ca avându-și originea în modelul de învățare propus de către D. Hebb. Acest mecanism este un model al schimbării conexiunilor sinaptice dintre celulele nervoase .
Dacă yi este activarea neuronului I și există o legătură sinaptică între neuronii i și j atunci în concordanță cu legea lui Hebb intensitatea conexiunii sinaptice este afectată de :
unde c este un coeficient de proporționalitate adecvat ce reprezintă constanta de instruire .
Acest mecanism este un model de învățare nesupervizată în care “căile” neuronale des utilizate sunt întărite . Acest model poate fi explicat prin fenomenele de obișnuință și învățare prin repetare .
Fie wij(n) ponderea conexiunii de la neuronul I la j înainte de ajustare și wij(n+1) după ajustare . Legea lui Hebb de învățare se va scrie sub forma :
wij(n+1) = wij(n) + cyiyj
O variantă a acestei legi este:
wij(n+1) = wij(n) + cS(xi)S(xj)
unde S este o funcție sigmoidală iar x desemnează starea neuronului.
Paradigme ale instruirii
Presupun că o secvență de intrare definind un pattern sau o configurație este prezentată rețelei sub formă de vector. Mulțimea acestor vectori reprezintă spațiul vectorilor de intrare.
Rețeaua neuronală are rolul de a transforma o anumită configurație de intrare într-o configurație de ieșire.
Instruirea sau antrenare reprezintă o metodă prin care este construită o succesiune de transformări ale ponderilor rețelei astfel încât la sfârșitul perioadei de antrenare rețeaua să satisfacă cerințele impuse de cei care au proiectat-o, în scopul în care a fost proiectată. De obicei instruirea presupune că se furnizează rețelei suficient de multe exemple (perechi intrare – ieșire ). Folosind aceste exemple rețeaua este determinată să se adapteze astfel încât să le poată generaliza. Aceasta îi va permite ulterior să trateze corect date de intrare care nu i-au mai fost prezentate.
Aceste performanțe pe care le realizează rețeaua neuronală spre deosebire de structuri fixe ce realizează operații specificate se datorează faptului că folosesc o reprezentare distribuită a informației la nivelul ponderilor conexiunilor sinaptice.
Folosind algoritmul de învățare nu mai e nevoie să determinăm explicit mulțimea de reguli care guvernează sistemul ce trebuie modelat (presupun că acest lucru este posibil ). Instruind rețeaua prin exemple devine ea însăși capabilă să deducă astfel de reguli, fără a presupune o cunoaștere completă a mediului intern de lucru al sistemului ce trebuie modelat. Voi prezenta în continuare câteva paradigme ale instruirii:
1. Autoasociatorul
Pentru acest model intrările și ieșirile sunt elemente ale aceluiași spațiu vectorial . Modelele sunt memorate prezentându-le în mod repetat unei rețele care învață cum să le reprezinte intern. Când se prezintă rețelei o formă arbitrară (care nu aparține mulțimii de instruire) se admite că rețeaua este capabilă să descopere forma memorată cea mai asemănătoare cu forma prezentată.
2. Asociatorul de forme
Acest model este similar cu precedentul. Pentru faza de instruire se prezintă rețelei perechi de forme pe care ea le memorează. Una dintre forme este o cheie iar cealaltă este forma asociată. Pentru faza de testare se prezintă rețelei forme cheie. Cheile pot fi complete sau incomplete sau distorsionate. Prezentarea unei chei ar trebui să permită rețelei să reproducă forma asociată respectivei chei.
3. Paradigma clasificatorului
Formele sunt prezentate clasificatorului, care trebuie să le clasifice într-o mulțime prestabilită de clase (categorii).Procesul de învățare este în general supervizat, ceea ce presupune că rețelei îi sunt prezentate diferite forme, împreună cu clasificarea lor corectă. După ce este instruită rețeaua este capabilă să clasifice corect forme diferite de cele care i-au fost prezentate în timpul instruirii. Uneori problema de instruire ne obligă să presupunem că formele necunoscute păstrează similarități rezonabile cu formele de instruire. Această presupunere nu este totdeauna necesară. Algoritmii ce implementează acest tip de instruire se numesc algoritmi de învățare supervizată.
4. Detectorul de regularități
Se presupune dată o distribuție de probabilitate a formelor. Fiecare formă este prezentată rețelei cu probabilitatea care îi corespunde în distribuție și se presupune că rețeaua este capabilă să descopere caracteristicile cele mai pregnante într-o astfel de distribuție și să clasifice formele în funcție de aceste caracteristici. Se poate spune că în acest caz rețeaua învață singură. Procesul de învățare constă în detectarea categoriilor de obiecte în mulțimea datelor de intrare. Algoritmii ce implementează acest model de instruire se numesc algoritmi de învățare nesupervizată.
5. Învățarea prin întărire
Conform acestui model rețeaua acceptă semnale de intrare care sunt transformate în semnale de ieșire. Pe lângă aceste mesaje, mai există un semnal suplimentar de întărire, care recompensează sau penalizează rețeaua în funcție de corectitudinea sau incorectitudinea transformării curente. Rețeaua se adaptează încercând să minimizeze penalizările și să maximizeze recompensele producând eventual numai transformări corecte.
CAP. 6: INSTRUIRE PRIN MINIMIZAREA ERORILOR PĂTRATICE. ALGORITMUL WIDROW-HOFF
(REGULA DELTA)
Să considerăm pentru început o rețea formată dintr-un singur neuron . Ieșirea reală a rețelei corespunzătoare unei intrări xi va fi yj unde :
yj = wTxi
Admitem că ieșirea dorită corespunzătoare intrării xi este dj . Eroarea asociată se va defini ca pătratul diferenței dintre ieșirea dorită a rețelei și cea reală. Astfel suntem conduși la o problemă de minimizare a sumei erorilor pătratice .
Widrow și Hoff au propus un algoritm iterativ de instruire care minimizează suma erorilor pătratice utilizând o metodă de tip gradient.
Pașii algoritmului sunt următorii:
P1. Se inițializează ponderile rețelei alegând un vector w1 arbitrar. Vom presupune o rată de învățare constantă ck=c ; k = 1, 2, …
P2. Se prezintă rețelei vectorul de intrare xk și ieșirea corectă (dorită) dk .
P3. Se calculează eroarea pătratică ek2 :
ek2 =
Se calculează eroarea totală:
E = E + ek2 ;
P4. Se adaptează vectorul pondere folosind regula delta:
wk+1 = wk + ck xk
P5. Se incrementează k ; pentru k<=p se trece la pasul2;
P6. Se calculează eroarea Ep a ultimilor p pași consecutivi ; dacă Ep este mai mică decât valoarea maxim admisă a erorii algoritmul se oprește . În caz contrar algoritmul se reia de la pasul2.
Liniar separabilitate
O problemă de clasificare este liniar separabilă dacă spațiul ei de intrare se poate separa geometric cu ajutorul unor hiperplane astfel încât subspațiile rezultate să poată fi asociate claselor pe care le determină problema.
Rețelele neuronale feedforward cu un singur nivel pot rezolva cu succes doar probleme liniar separabile. Având în vedere că în practică se întâlnesc destul de rar probleme liniar separabile acest tip de rețele sunt rar folosite și doar în probleme simple, pentru rezolvarea unor probleme care nu sunt linear separabile fiind necesară introducerea unor nivele ascunse. Pentru exemplificarea acestei probleme intens discutate, voi prezenta un exemplu clasic care a fost principala acuzație adusă rețelelor cu un singur nivel, pentru incapacitatea lor de a rezolva o largă categorie de probleme.
Exemplul cel mai concludent în acest sens este funcția
SAU exclusiv . Să admitem că reprezentarea furnizată rețelei de lumea exterioară este realizată astfel încât structurile de similaritate ale formelor de intrare și de ieșire sunt funcții diferite.
forme de intrare forme de ieșire
0 0 0
0 1 1
1 0 1
1 1 0
Pentru acest caz, o rețea care nu construiește o reprezentare internă, adică nu are unități ascunse, va fi incapabilă să realizeze funcția necesară. Se poate observa că formele cele mai nesimilare (0 0 și 1 1) generează forme de ieșire identice.
O rezolvare a acestei probleme ar putea fi oferită de o modificare a formelor de intrare astfel încât să conțină o a treia valoare care să fie 1 doar dacă primele două intrări au amândouă valoarea 1.
formelor de intrare forme de ieșire
0 0 0 0
0 1 0 1
1 0 0 1
1 1 1 0
Adăugarea celei de-a treia caracteristici schimbă structura de similaritate a formelor suficient pentru a permite învățarea unei soluții. Aceasta implică includerea în rețea a unui nivel ascuns care poate să conțină un singur neuron.
Pragul t=1,5 al unității ascunse ne asigură că această unitate va fi activată doar dacă ambele intrări sunt 1. Ponderea -2 a conexiunii unității ascunse cu neuronul de ieșire este o conexiune inhibitoare care ne asigură că unitatea de ieșire nu va fi activată atunci când ambele intrări sunt activate pe valoarea 1.
O observație importantă este aceea că în arhitectura prezentată neuronii de intrare sunt conectați cu neuronii aparținând la două straturi diferite, ceea ce nu apare de regulă la rețelele multistrat.
CAP 7: Algoritmul de propagare Înapoi a erorii (back-propagation)
Acest algoritm este considerat a cel mai important algoritm pentru instruirea rețelelor neuronale feed-forward cu mai multe nivele.
Scurt istoric al metodei
Ideea a fost descoperită de mai multe ori. Primul care a folosit această metodă a fost Paul Werbos ( 1974 ) fără a prezenta însă un algoritm explicit pentru determinarea ponderilor de conexiune pentru neuronii de pe straturile ascunse.
În 1982 David Parker a redescoperit metoda care a fost popularizată de către Rumelhart și grupul PDP sub numele de Regula Delta generalizată.
Acest algoritm “de retropropagare a erorii ” a ajuns în scurt timp să domine literatura de specialitate în domeniul rețelelor neuronale și a devenit foarte solicitat în probleme practice. A fost popularizat ca un nou “algoritm de instruire care învață din experiență “.
S-a apreciat ca fiind un algoritm cu largă aplicabilitate în domeniile:
recunoașterea în timp real a vorbirii ;
traducerea automată ;
roboți inteligenți care se autodepanează ;
recunoașterea formelor ;
etc.
Psihologii și neurofiziologii au încercat să-l identifice în funcționarea creierului uman și a sistemului nervos central fără a găsi însă motivația (analogia) biologică a procesului.
Privit în comparație cu regula Delta (algoritmul Widrow-Hoff) algoritmii de retropropagare a erorii acționează asupra unei arhitecturi multistrat și la care funcțiile de ieșire ale neuronilor sunt funcții sigmoidale, iar algoritmul Widrow-Hoff operează pe un model cu un singur neuron având drept funcție de activare o funcție liniară.
Voi prezenta în continuare algoritmul de propagare înapoi a erorii, capabil să realizeze instruirea în cazul unor rețele ce prezintă nivele ascunse.
Metoda de învățare
Această tehnică de învățare este similară cu problema dreptei de regresie (dreapta ce aproximează cel mai bine o mulțime de puncte) și care utilizează de regulă metoda celor mai mici pătrate. Deoarece funcția realizată de rețea nu este în mod obligatoriu o funcție liniară vom folosi o variantă iterativă a metodei celor mai mici pătrate.
Fie semnalul de intrare xi și căreia îi corespunde răspunsul dezirabil di. Avem așadar:
di = f(xi) unde f: Rn –> Rp
funcție pe care rețeaua trebuie să o învețe, adică să o realizeze.
La momentul k rețeaua este caracterizată de asocierea vectorială
( xk, dk ) și admitem că mulțimea de instruire conține un număr de perechi de antrenare
( x1, d1 ), ( x2, d2 ),…, ( xm, dm )
Fie ( y, y,…, y )T vectorul care indică activarea neuronilor ultimului strat al rețelei. Dacă S este funcție vectorială de ieșire, atunci la momentul k rețeaua generează răspunsul S(yk).
Starea curentă (la momentul k) a rețelei definește funcția vectorială:
Nk: Rn –> Rp
Ieșirea vectorială a rețelei este așadar :
Nk(xk) = S(yk)
Fie Sj : R –> R funcția de ieșire a neuronului “j” din stratul final.
Nk(xK) =
Ieșirea efectivă a neuronului de pe nivelul de ieșire, atunci când la intrare se prezintă vectorul xk este:
outjk = Sj0 ( yjk ) j = 1.. p
Eroarea corespunzătoare neuronului j:
ejk = djk – outjk = djk – Sj0 (yjk)
Eroarea pătratică a tuturor neuronilor de ieșire
Ek = ˝ *
sau Ek = ˝ * ( ek )T * e k
eroarea totală este suma erorilor pentru cele m asocieri din mulțimea de învățare:
m
E = Ek
k=1
Algoritmul urmărește minimizarea erorii pătratice. Ceea ce se obține este în general o soluție acceptabilă și nu neapărat o soluție optimă.
Pașii algoritmului de propagare înapoi
pentru rețele cu un strat ascuns
pasul0:
se inițializează valorile ponderilor cu valori mici, generate aleator;
se inițializează constanta de instruire c, unde c este cuprinsă în intervalul (0,1);
pasul1: un ciclu de instruire
se prezintă rețelei o mulțime de exemple de instruire. Pentru fiecare exemplu se execută secvența pasul2-pasul12. Pentru evitarea minimelor locale este bine ca ordinea de prezentare a exemplelor de instruire să fie schimbată aleator de la un ciclu la altul.
pasul2: se prezintă rețelei vectorul xk =(x1k, x2k, …, xnk)T și vectorul ieșirilor dorite dk ;
pasul3: se calculează valorile de activare ale neuronilor din stratul ascuns:
hkq=
pasul4: se calculează ieșirile neuronilor din stratul ascuns:
ikq=Sh (hkq) ;
pasul5: se calculează valorile de activare ale neuronilor din stratul de ieșire:
ykj=
pasul6: se calculează ieșirile rețelei utilizând formula
pasul7: se calculează semnalul de eroare pentru neuronii din câmpul de ieșire ;
pasul8: se calculează semnalul de eroare pentru neuronii câmpului ascuns:
(specific că acest semnal se calculează înainte de actualizarea ponderilor neuronilor din stratul de ieșire )
pasul9: se actualizează ponderile neuronilor stratului de ieșire:
unde q este un neuron al câmpului ascuns și j este un neuron de ieșire:
pasul10: se actualizează ponderile neuronilor stratului ascuns
unde i este un neuron al stratului de intrare
pasul11: se calculează eroarea
Ek=
care este o măsură a calității învățării
pasul12: iterarea
Dacă eroarea este acceptabilă pentru toate perechile
(xk, dk) din mulțimea de instruire (eroarea medie are o valoare acceptabilă), atunci învățarea se poate considera încheiată. În caz contrar, vectorii de instruire sunt prezentați din nou rețelei în cadrul unui nou ciclu.
Observație:
Ponderile inițiale pot fi generate folosind un algoritm adecvat, care să se bazeze pe o “filozofie ” diferită de cea a propagării înapoi.
Probleme care pot să apară în construirea unei rețele Feedforward care folosește algoritmul de propagare înapoi a erorii:
Există o serie de neajunsuri care pot să producă neplăceri în implementarea unei rețele neuronale, sau în antrenarea corespunzătoare care să ofere rezultate satisfăcătoare. Pot exista situații în care procesul de instruire poate să eșueze.
Deși algoritmul de propagare înapoi este foarte răspândit și foarte mult folosit chiar și în aplicații practice, nu numai teoretice încă nu se poate spune că există un aparat matematic bine pus la punct care să poată determina problemele la care se poate aplica cu succes sau la care nu se poate aplica. Problemele mai complexe pot necesita zile și săptămâni de antrenament (oricum omul învață toată viața ), iar la sfârșitul lor să se observe că rețeaua nu “funcționează” conform așteptărilor. Antrenarea defectuoasă poate apărea în urma a două alternative nedorite, paralizarea rețelei și minimul local.
1. Paralizarea rețelei:
În urma unui proces îndelungat de antrenament, ponderile rețelei pot să ajungă la valori foarte mari. Aceste valori mari ale ponderilor pot forța valorile de activare ale neuronilor să fie foarte mari. Valorile de activare foarte mari determină valori de ieșire mari și derivata funcției de activare foarte mică. Deoarece valorile cu care se ajustează ponderile rețelei sunt proporționale cu cele ale derivatei funcției de activare, o situație ca și cea descrisă face algoritmul de antrenare inutil și în acest caz trebuie întrerupt și reluat de la alte valori inițiale ale ponderilor.
Experimental s-a constatat că o rată mică de învățare mărește șansele evitării stării de paralizare, dar mărimea ratei de învățare este relativă și nu se poate afirma că o rată de învățare mică pentru o anumită problemă este mică și pentru o alta .
2. Minimul local:
Pentru o suprafața convexă a funcției de eroare, când există un singur minim, algoritmul de propagare înapoi “aduce” rețeaua în acel punct.
În cazul problemelor mai complexe, suprafața funcției de eroare este neregulată și prezintă o mulțime de minime locale. În acest caz se poate ca rețeaua să se împotmolească într-un astfel de minim local și antrenarea eșuează. Singura soluție, nesatisfăcătoare de altfel, este reluarea procesului de antrenare dar fără nici o garanție că nu se va ajunge tot într-un minim local.
O soluție pentru evitarea situațiilor de acest fel ar fi înlocuirea metodei de minimizare de tip gradient utilizată în deducerea formei clasice a algoritmului cu alte metode de minimizare, în special dintre cele de minimizare globală.
CAP 8: SemnificaȚia nodurilor În reȚeaua NEURONALĂ cARE IMPLEMENTEAZĂ testul 16pF
În continuare voi prezenta un model de rețea neuronală cu trei nivele pe care o vom antrena în scopul realizării unui profil de personalitate al unei persoane folosind ca date de intrare răspunsurile date de acea persoană la testul 16pf. Voi folosi o rețea feedforward (rețea neuronală cu reacție înainte), pentru care este specific aceea că neuronii sunt organizați pe nivele astfel încât neuronii de pe un nivel nu pot fi conectați decât cu neuronii din nivelul imediat următor.
Algoritmul de învățare pentru rețea va fi un algoritm de învățare supervizată, realizat pe baza algoritmului de propagare înapoi a erorii, în particular pe baza regulii Delta ( algoritmul Widrow-Hoff ).
Structurile de date pe care le folosesc sunt:
–un vector de intrare conținând răspunsurile(punctajele) la cei 184 de itemi ai testului. Îl voi nota cu:
X=(x1, x2,…, x184) ;
–un vector Y cu 3 elemente pentru fiecare dintre cei 16 factori de ordinul 1:
Y=( y1, y2,…, y16 )
–vectorul Z cu 3 elemente, răspunsul final pentru un factor de ordinul 2, calculat după trecerea prin rețea a datelor de intrare pentru o persoană testată ;
–vectorul d, răspunsurile care se așteaptă a fi obținute, calculate prin metode algoritmice și care vor fi luate dintr-un fișier ;
–matricea de ponderi W cu 184 de linii și 16 coloane cu elemente de 0 și 1 pentru conexiunile dintre nivelul 1 și 2;
–matricea W* cu 3 linii și 48 coloane care va fi stabilită în procesul de învățare ; w*ij sunt ponderile conexiunilor cu nivelul de ieșire;
Semnificația nodurilor pe cele trei nivele ale rețelei este următoarea:
Nivelul 1:
Nivelul nodurilor de intrare conține ca valori de activare în noduri o evaluare a răspunsurilor la itemii testului.
wij=
Valorile acestor noduri pot fi 0 sau 1 sau după cum răspunsul la itemul corespunzător nodului considerat este orientat spre manifestare polarizată negativ pozitiv sau mediu la factorul pe care itemul îl reprezintă. Ca observație specific că influenta itemilor asupra factorilor nu este unic determinată, la fel cum factorii de ordinul 1 nu au semnificații disjuncte, ci se acoperă pe anumite zone
Între primele două nivele rețeaua este total conectată. Semnificația ponderilor de pe aceste conexiuni este dată de felul în care itemul i influențează sau nu factorul j reprezentat de nodul j de pe nivelul 2. Așa cum am specificat există 3 noduri pe nivelul 2 pentru fiecare factor și o singură conexiune între un item și un factor dar care se diferențiază prin valorile diferite ale mediei.
Vom presupune că media poate lua valorile:
=
Aceste valori ale mediei provin din curba de frecvențe înregistrată pentru o populație pentru care am presupus dispersia ca fiind egală cu 1 pe toată suprafața.
Nivelul 2:
Este un nivel cu 48 de noduri fiecărui factor îi corespund 3 noduri. Legătura este mai tare, după cum răspunsul influențează mai puternic polul negativ sau cel pozitiv al comportamentului. Aceste valori constituie media curbei de distribuție pentru cele trei stări (extrema stângă, extrema dreaptă, normalitate )
Conform datelor statistice fiecare dintre ele poate fi dispusă pe o curbă Gaussiană pe care vom considera dispersia ca fiind de valoare 1. Graficul va fi reprezentat în funcție de frecvența unei populații la care dispersia reprezintă gradul de omogenitate al acesteia. Voi folosi scala de 11 clase ( 0 – 10).
Din motive de reducere a complexității rețelei am presupus o dispersie uniformă pe toată suprafața.
Mediile pentru cele trei curbe de distribuție au o valoare situată pe scala de gradație de 0 – 10 care împarte în clase axa absciselor, după puctajele obținute la test.
Vom considera
2
yi = exp
unde este media stabilită anterior
Cum
yi = exp
Nivelul 3:
Pe nivelul 3 sau nivelul de ieșire al rețelei sunt reprezentați factorii de ordinul 2. Vom parcurge procesul de antrenare pentru fiecare din cei 4 factori de ordinul 2 care au proprietatea de a fi independenți. Poate fi utilizată aceeași rețea pentru fiecare dintre ei diferă doar datele de instruire și valorile conexiunilor dintre nivelul2 și nivelul3.
Vom nota prin w* ponderile de pe conexiunile dintre nivelul 2 și nivelul 3. Aceste ponderi iau valori cuprinse în intervalul . Valoarea 0 semnifică faptul că factorul de ordinul 1 considerat nu influențează factorul de ordin secundar. Aceste conexiuni nu se modifică în procesul de învățare.
Valorile de ieșire ale rețelei vor fi calculate cu formula:
zk =
unde yi a fost calculat cu funcția anterioară.
Aceste valori pot fi interpretate ca un procent de normalitate, respectiv al manifestării accentuate a persoanei testate.
Transmise în mediul rețelei, rezultatele prelucrate de rețea din datele de intrare (răspunsurile date de către subiect la cele 184 de întrebări) vor fi decodificate (transformate într-un limbaj la îndemâna psihologului ) printr-o funcție liniară.
CAP 9: Prezentarea factoriLOR
Pentru a putea înțelege semnificația nodurilor de pe cele trei nivele ale rețelei voi prezenta în continuare o descriere succintă a celor 16 factori reprezentând nodurile de pe nivelul 1 al rețelei, precum și cei patru factori de ordinul 2, rețeaua fiind antrenată pentru fiecare în parte.
Factorul A (schizotimie-ciclotimie )
Cote mici obținute la factorul A caracterizează un comportament prin aspecte precum orgoliu, spirit critic, opozanță, răceală și indiferență, suspiciune, rigiditate. Extrema opusă începând de la cota 7 indică un caracter bun, amabil, prietenos, serviabil, interesat de ceilalți, blând, încrezător, adaptabil. Datele de cercetare indică la acest factor manifestări psihopatologice ca schizofrenia pentru cota 0 și psihoze maniaco-depresive, iar în zona de normalitate psihică o evoluție între răceală afectivă și căldură afectivă. Caracteristicele ciclotimului sunt interesul marcat pentru semeni și ființe în general care nu rareori se exprimă și în alegerea unei profesii care înseamnă contacte interumane și o tendință de a se conforma conveniențelor umane, ușurința cu care trăiește viața. persoanele de la polul opus sunt mai puțin conciliante, preferă lucrurile, cuvintele, viața solitară ; sunt introspectivi, apar serioși, preferă o camaraderie intelectuală. în același timp sunt mai profunzi în aprecierea altora, mai siguri într-o activitate care cere precizie, uneori mai inventivi, mai atenți în a-și respecta promisiunile și a-și satisface obligațiile ce le revin. în general este prea pretențios și rigid în normele sale personale.
Factorul B: (Abilitate rezolutivă generală)
Factorul B măsoară în perspectiva teoriei lui Cattell, acel factor general denumit inteligență. Cattell distinge între inteligența fluidă, definită ca o capacitate înnăscută și inteligența cristalizată, ca formă care depinde mult de educația formală, exprimând tipuri de abilități învățate în școală.
Cotele standard scăzute indică o slabă abilitate mentală care atrage după sine și o moralitate inferioară, tendința de a abandona cu ușurință, lipsa de interes pentru subiecte intelectuale, lipsa de cultură în general. Această încetineală a minții poate fi efectul unei inteligențe mediocre sau poate traduce o sărăcie intelectuală de ordin psihopatologic.
Polul opus indică inteligența vie, conștiinciozitatea și perseverența în rezolvarea problemelor, tendința de a fi cultivat și de a gândi în plan abstract, logic. Subiectul B+ poate fi capabil să sesizeze rapid ideile și să învețe ușor.
Factorul C: Instabilitate emoțională vs. Stabilitate emoțională
Extrema caracterizată de instabilitate prezintă în acest context caracteristici ale unui eu slab, emotivitate, imaturitate afectivă, instabilitate ; individul reacționează la frustrare într-o manieră emoțională, este inconstant în atitudini și interese, este excitabil și hipereactiv, fuge de responsabilități, abandonează ușor este neliniștit, implicat în conflicte, agitat, visător.
La cealaltă extremă apar caracteristicile unui eu puternic, matur calm. Individul este stabil, constant în interese, calm chiar flegmatic ; realist, se adaptează faptelor ; nu se manifestă ușor oboseala nervoasă, nu se amestecă în conflicte.
Forța eului definită ca și grad de realizare a integrării dinamice și a controlului emoțional nu este la Cattell o problemă care să țină cont de formare și de mediu cât și de un factor educațional, de voință. Persoana cu un eu slab tinde să fie ușor contrariată de lucruri și de oameni, trăind un sentiment de insatisfacție. Subiectul tinde să fie schimbător, influențabil, de a evita exigențele realității, emotiv, ușor de contrariat ceea ce determină uneori temeri iraționale si comportamente obsesive.
Factorul E: Supunere vs. Dominanță
Polul comportamentului caracterizat prin cote mici indică dependența, dar și o naturalețe și o bunăvoință caracteristice. O persoană conformistă și ușor de dominat, suficientă sieși. Polul opus indică un comportament combativ, agresiv, încăpățânat, sigur de sine, afirmativ sever, chiar dur sau ostil, auster, cu o gravitate afectată. Este nonconformist, dar dornic să capteze atenția.
Datele statistice indică faptul că această dimensiune comportă o relativă diferențiere în funcție de sex: la femei se manifestă printr-o nuanță mai marcată de ipohondrie, prin tendința de a atrage atenția, dar și de echilibru social, care diferă de comportamentul agresiv mai pronunțat la bărbați. La ambele sexe este specific faptul că o dominanță puternică poate duce la acel tip de voință îndărătnică și chiar spre un comportament antisocial, rebel.
Notele ridicate se asociază adesea cu comportamente de tip delictual din perioada adolescenței, iar notele scăzute se întâlnesc adesea la nevrotici.
Factorul F: ( expansivitate vs nonexpansivitate)
Factorul F este unul dintre factorii principali ce definesc extraversia ca factor secundar de mare semnificație în studiul personalității. Rezultate mici obținute la acest factor indică un comportament moderat, prudent. Subiectul este rezervat puțin comunicativ, taciturn, introspectiv, cu tendințe spre depresie și reverie. în general este mulțumit de sine, legat de valori personale lent în reacții, mai curând reflectiv decât spontan. Polul opus indică un comportament impulsiv, entuziast, vesel, plin de viață. Cu vârsta se înregistrează cu o mică intensitate acest comportament.
Este unul dintre factorii care suportă influența mediului de formare în măsura în care datele de cercetare indică faptul că cei expansivi au avut un mediu mai facil, mai puțin sever, creator de optimism, dar și cu aspirații mai puțin exigente.
Nonexpansivii sunt în general crescuți după norme mai severe, sunt visători și tind spre un plus de moderație. Expansivitatea corelează cu tendința spre aglomerări urbane, dar și cu poziția în familie Ș cel mai responsabil tinde spre nonexpansivitate, cel mai tânăr spre a fi cel mai expansiv. De asemenea sunt date care indică corelarea din această trăsătură și gradul de anxietate.
Studiile lui Eysenck în zona patologică arată că el este legat de o diferență fundamentală a temperamentului care provoacă la anumite persoane (expansive ) manifestări de isterie, în timp ce persoanele non-expansive tind spre depresie.
Factorul G: ( forța eului )
Există o asemănare superficială cu factorul C pentru că factorul G este legat în principal de energie și perseverență.
La polul unui supraeu slab, caracteristică pentru comportament este lipsa de toleranță la frustrare ; un individ schimbător, influențabil, cu o emotivitate generalizată, oboseală nervoasă, inconstanță și nesiguranță. Polul opus atrage după sine atitudini de conștiinciozitate, perseverență, responsabilitate ; subiectul e ordonat consecvent atent la lucrurile și oamenii din jur.
Conform viziunii lui Cattell supraeul corespunde unei tendințe de a susține eul și a înfrâna impulsurile idului. Persoana ce a obținut note ridicate la factorul G se manifestă ca respectuoasă, metodică, cu o bună capacitate de concentrare, reflectând înainte de a vorbi, preferând de asemenea compania celor eficienți. Acest pol indică reușita n activități variate dar care impun perseverență, regularitate și o bună organizare mentală. Polul opus se asociază cu tendința spre disimulare, vagabondaj, distrugere spre accese de furie nestăpânită.
Factorul H:
Subiectul H- este în general timid repliat asupra lui însuși, de o prudență și o rezervă extremă, căutând să treacă neobservat.
În general, are sentimentul inferiorității, se exprimă lent, se exteriorizează greu, nu îi plac profesiile care implică contacte personale și preferă un cerc restrâns de prieteni. Este incapabil să mențină un contact cu mediul.
Subiectul H+: curajos, sociabil, spontan, destins. Este un individ îndrăzneț pregătit pentru a inova, spontan cu o bogată rezonanță emoțională. Carapacea sa îi permite să suporte fără teamă criticule altora sau situații care îl pun la încercare emoțională. I se poate întâmpla din când în când, să neglijeze contrar firii sale detaliile și să vorbească mult timp.
Are tendința să fie întreprinzător și să acorde un viu interes persoanelor de sex opus.
Factorul I:
O notă slabă la factorul I este indicele unui spirit de aspect practic, realist, masculin. Subiectul I- este independent, își asumă responsabilitatea propriilor fapte, se arată sceptic față de elaborările subiective, de ordin cultural de exemplu. Se întâmplă să fie dur, sceptic, insensibil și disprețuitor.
Va opta de preferință pentru profesiunile care implică sarcini practice, de natură realistă, fără probleme.
O notă ridicată la factorul I este indicele unui este indiciul unui spirit cu aspect mai degrabă feminin. Subiectul este, în general tandru, visător, artist, dar de asemenea exigent. Are nevoie de atenție, ajutor, este nerăbdător, dependent de alții și îi lipsește simțul practic.
Are o reală aversiune față de persoanele puțin rafinate, sau față de sarcinile grosiere. Are tendința de a scădea moralul unui grup printr-o atitudine negativă, infantilă.
Factorul L:
Subiectul L- se adaptează oricărei situații, este plin de antren, nu caută să rivalizeze, se preocupă de soarta oamenilor, excelează în munca de echipă. O notă scăzută la factorul L denotă absența geloziei, o persoană încrezătoare și gravă.
L+ este o persoană egocentrică, rigidă, foarte interesat de fenomenele vieții interne sau mintale. Acționează în general circumspect, nu se îngrijește de alții, constituie un element rău în echipă.
Factorul M:
M- este un subiect practic, conștiincios, supus legăturilor exterioare, corect în relațiile cu ceilalți. Este în general foarte grijuliu să facă ceea ce se cuvine. Acordă multă importanță problemelor practice, nu acționează la întâmplare, se interesează de detalii, este capabil să își păstreze sângele rece în caz de pericol dar îi lipsește uneori imaginația.
Subiectul M+ este imaginativ, în întregime centrat asupra instanțelor interne, nepreocupat de legăturile exterioare, boem. Este adesea original, ignorând realitățile exterioare cotidiene, își urmează propriile idei, este dotat cu inteligență creatoare și preocupat de marile idei. Indivizii și realitățile materiale nu îl interesează.
Motivațiile sale interne îl conduc uneori la situații extravagante însoțite de reacții emoționale violente. Se întâmplă să fie respins din activitățile colective din cauza personalității sale.
Factorul N: (naivitate vs. Clarviziune)
Subiectul N- este în general fără subterfugii (direct) și fără afectare. Este sentimental, uneori dur și stângaci, totuși ușor de satisfăcut, mulțumit cu ceea ce i se întâmplă. Este natural și spontan.
Caracteristica de bază a subiectului N+ este clarviziunea. Este în general rafinat, monden, subtil, adesea rece și analitic.
Factorul N este un factor slab care nu influențează în mod deosebit personalitatea.
Factorul O: (încredere vs. neîncredere)
Subiectul care are note scăzute la factorul O este în general o persoană calmă, placidă cu nervi care rezistă la orice încercare. Este lipsit de angoasă, are o puternică încredere în el însuși în capacitatea sa de a rezolva problemele în momentul în care le întâmpină. Este plin de energie și încrezător în el însuși, dar până la a nu simți că nu mai este ascultat, ceea ce face să suscite uneori antipatie și neîncredere.
Subiectul O+ tinde să fie deprimat morocănos, să se tracaseze, să fie ros de presentimente și gânduri negre.
În fața dificultăților prezintă o anxietate infantilă. Se simte respins de grup și incapabil să se integreze. Este un rezultat care se obține frecvent în grupele clinice de toate categoriile.
Factorul Q1: (conservatorism-radicalism)
Subiectul Q1- este conservator, respectă ideile stabilite, este tolerant față de dificultățile inerente tradiției. Are toată încrederea în ceea ce a fost învățat să creadă și acceptă toate adevărurile primare, în pofida contradicțiilor lor, chiar dacă posibilitatea de ameliorare este evidentă. Este prudent și consideră suspectă orice idee nouă, ceea ce îl determină să întârzie orice schimbare, să se opună schimbărilor. Este mai degrabă schimbător în privința religiei sau a politicii și nu are înclinații spre fel de fel de reflecții intelectuale critice.
Q1+ este un inovator, cu gust pentru analiză, liber-cugetător. Se interesează de probleme intelectuale și pune la îndoială adevăruri esențiale. Este sceptic și curios atât față de ideile vechi cât și față de ideile noi. În general este bine informat, mai puțin înclinat spre a moraliza, tentat mai degrabă să încerce experiențele trăite de alții. Suportă bine inconvenientul și schimbarea.
Factorul Q2: (dependență-independență)
Subiectul Q2- preferă să lucreze și să ia decizii în grup. ÎI place ca societatea să îl aprobe și să îl admire. Are tendința de a urma masa și îi lipsește hotărârea. Nevoia sa de a se atașa de grup, nu este determinată atât de atracția grupului cât de nevoia de a se sprijini pe grup pentru a acționa.
Subiectul Q2+ este un individ suficient lui însuși, hotărât, plin de resurse. Are un temperament independent, obișnuit să se conducă singur. Disprețuiește opinia publică, dar totuși fără a se arăta dominator în raporturile sale cu alții, nu pentru că nu îi iubește ci pentru că nu are nevoie de aprobarea lor și nici de sprijinul lor.
Factorul Q3: (integrare)
O notă scăzută la Q3 denotă o lipsă de control
voluntar. Subiectul Q3- nu se interesează de exigențele vieții în societate. Nu este prevenitor, nici conștiincios sau chibzuit. Uneori se poate simți rău adaptat. Este necontrolat, în conflict cu el însuși, nepăsător, supus propriilor impulsuri.
Note ridicate la factorul Q3 caracterizează o persoană controlată, formalistă, care se conformează uni anumite idei despre ea însăși. Are o puternică stăpânire de sine, un puternic control al emoțiilor și al comportamentului. Subiectul Q3+ are tendința de a fi avertizat și circumspect. Manifestă ceea ce se numește “amor propriu”, are grijă de reputația sa. Uneori este încăpățânat.
Factorul Q4: (tensiunea ergică)
Subiectul care are note scăzute la factorul Q4 este în general o persoană destinsă, gravă, senină. În unele situații, această satisfacție excesivă îl poate face leneș sau puțin eficient, sau prin lipsa ambiției încearcă puține experiențe.
Subiectul Q4+ este în general o persoană încordată, surescitată, agitată, iritabilă, răbdătoare ; deși surmenat nu poate rămâne inactiv. În grup nu contribuie decât în mică măsură la unitate, disciplină sau direcția de orientare.
Insatisfacția sa reflectă un exces de energie stimulată dar nedescărcată.
Factorii de ordinul doi vor rezulta din cei de ordinul întâi cu proprietatea că fiecare dintre acești factori este independent de ceilalți. Această proprietate a factorilor de ordinul doi ne permite caracterizarea unei personalități prin doar aceste patru dimensiuni:
Adaptare – Anxietate
Introversiune – Extraversiune
Emotivitate – Dinamism
Supunere – Independență
Voi prezenta în continuare o descriere a acestor factori importantă nu atât din punct de vedere psihologic cât din dorința de a specifica semnificația nodurilor de ieșire ale rețelei.
Factorul 1:
Anxietate slabă:
Persoana situată la polul stâng al acestui factor este în general dintre cele pentru care viața este satisfăcătoare și care sunt capabile să ducă la bun sfârșit lucrurile care li se par importante. Această trăsătură poate fi indicele unei lipse de motivație pentru sarcini dificile.
Anxietate puternică:
Cealaltă extremă este indiciul unei mari anxietăți, în sensul uzual al cuvântului. Un individ din această categorie nu este neapărat nevrotic, anxietatea putând fi ocazional legată de o situație specifică, dar suferă probabil de o astfel de inadaptare. El este nesatisfăcut de capacitatea sa de a răspunde exigențelor vieții și de a-și realiza dorințele. O anxietate puternică perturbă în general randamentul și produce tulburări de ordin somatic.
Factorul 2:
Introversiune:
O conexiune puternică cu extrema stângă a factorului 2, este indicele unei tendințe de timiditate, a unui individ inhibat. Subiectul își este suficient sie însuși, ceea ce poate fi favorabil sau nu în funcție de situația în care se găsește această persoană. Introvertitul face cu plăcere o muncă în care se cere precizie.
Extraversiune:
Persoana care are o conexiune mai puternică spre extrema dreaptă a factorului trăiește ușor, nu este inhibat, știe să stabilească și să mențină raporturi personale. Aceasta nu este neapărat o trăsătură favorabilă pentru reușite școlare.
Factorul 3:
Emotivitate, tandrețe
O conexiune puternică cu extrema stângă a factorului denotă o emotivitate puternică, difuză și pot fi indicele unei personalități depresive, cu o slabă toleranță la frustrare. Aceste persoane sunt în același timp sensibile la rafinamentele existenței și reprezintă în general un temperament de artist. Sunt cel mai adesea naive și sensibile. Dacă apar dificultăți au tendința de a se gândi prea mult timp înainte de a se decide să acționeze Dinamism:
Persoana care are o conexiune mai puternică cu extrema dreaptă a factorului este în general întreprinzătoare și decisă, este plină de elan, dar riscă în același timp să treacă pe lângă relațiile umane mai subtile, orientându-și conduita mai ales spre ceea ce este clar și indiscutabil. În fața dificultăților are tendința de a trece repede la acțiune, fără să acorde deciziilor sale prea mult timp de gândire.
Factorul 4:
Supunere:
conexiune puternică cu extrema stângă a acestui factor denotă un caracter moderat, pasiv trăind dependent de alții. Are tendința de a cere aprobarea celorlalți de care are în permanență nevoie și își orientează conduita în funcție de cei care îi acordă sprijin
Independență:
Cealaltă extremă a factorului denotă agresivitate, independență, o atitudine tranșantă. Această persoană caută situațiile în care se tolerează o astfel de atitudine și care o încurajează. Ceea ce o caracterizează este faptul că dă dovadă de multă inițiativă.
CAP. 10 : ETAPELE IMPLEMENTĂRII REȚELEI NEURONALE
În implementarea unei rețele se parcurg următoarele etape:
creare ;
antrenare ;
testare ;
salvarea pe disc a ponderilor;
preluarea de pe disc a ponderilor;
stabilirea unui grafic de performanțe al rețelei pe toată perioada de antrenare ;
utilizarea rețelei ;
Pentru antrenarea testarea și utilizarea unei rețele se iau în considerare: modul de prelucrare al rețelei, modul de prelucrare al fișierelor de antrenament și de test.
Un fișier de antrenament va fi creat prin:
editarea modelelor sale ;
amestecarea modelelor pentru a nu exista pericolul grupării lor în clase de apartenență ;
pentru a evita apariția unor cicluri de antrenare care ar duce la un proces de învățare care nu ar oferi rezultate mulțumitoare, după fiecare epocă de învățare fișierul de antrenare va fi amestecat.
Ca și mod de implementare rețelele neuronale pot fi implementate hard sau simulate soft. Simularea soft se face în cele mai multe cazuri pe calculatoare secvențiale von Neumann ceea ce poate ridica probleme în legătură cu paralelismul lor. Aceste implementări sunt lente și mai ales timpul de antrenament este mare pentru aplicații serioase.
Un sistem de rețele neuronale artificiale implementat hard este net superior ca viteză unui simulator soft. Există cip-uri specializate pentru implementarea hard a rețelelor. Cu ajutorul acestor cip-uri se pot proiecta rețele neuronale feedforward cu sute de noduri de intrare, cu 4-5 niveluri ascunse, având în totalitate sute de mii de conexiuni.
Pentru exemplificare în gestiunea unei rețelei voi prezenta ca model modul de antrenare, testare și de utilizare (dacă sunt satisfăcute condițiile utilizatorului).
Antrenarea:
Trebuie specificat că pentru aceeași rețea se vor parcurge procesul de antrenare de 4 ori, separat pentru fiecare dintre cei 4 factori de ordinul 2. Diferă modul de inițializare al matricei de ponderi W* unde vor fi puse pe 0 acele conexiuni care provin de la factori primari care nu influențează factorul de ordin secundar luat în considerare.
Succesiunea factorilor de ordinul 1 care influențează factorii de ordinul 2 este următoarea:
FACTOR Factori de ordinul 1
(de ordinul 2) care influențează factorul de
ordinul 2
–––––––––––––––––––––––––––––
Adaptare-Anxietate L, O, Q4, C, H, Q3
Introversiune-Extraversiune A, E, F, H, Q2
Emotivitate-Dinamism C, E, F, N, A, I, M
Supunere-Independență E, M, Q1, Q2, A, G
În linii mari algoritmul de antrenament este cel prezentat în CAP 9. Pentru fiecare dintre cele 4 rețele, voi folosi același algoritm de antrenament datele din fișierele de antrenare fiind diferite. În acest scop vom construi un fișier care să conțină răspunsurile date de o categorie de indivizi la testul 16pF și un alt fișier care să conțină răspunsurile calculate prin metode standard, adică valorile în procente ale celor patru factori. Fiecărei linii din fișierul cu datele de antrenare îi corespund patru valori ale factorilor de ordinul 2.
Algoritmul de antrenare al rețelei prezentate poate necesita un număr mare de exemple de antrenament și un număr mare de epoci de antrenare. Pentru reducerea timpului de antrenament înainte de începerea procesului de învățare, se inițializează în memoria internă două tampoane în care se vor introduce exemple din fișierele de antrenament, respectiv de test. Preluarea modelelor de antrenament și de test se face din buffere-le respective, micșorându-se la minimul posibil timpul necesar citirii exemplelor din fișierele de antrenament și de test.
Etape importante în implementarea unei rețele neuronale sunt:
alegerea arhitecturii (în cazul prezentat este un tip hibrid de rețea).
alegerea datelor de antrenare ;
alegerea datelor de testare ;
alegerea numărului de epoci de antrenament ;
specificarea erorii maxim admise pentru care rețeaua satisface standardul impus de cei care o vor utiliza ;
Antrenarea se va face doar pe cel de-al doilea nivel, modificând ponderile dintre nivelul 2 și 3 al rețelei . Vom folosi algoritmul de antrenare Widrow-Hoff (“Regula delta”, metoda de minimizare a erorilor pătratice).
Pașii algoritmului de antrenare sunt următorii :
se calculează valorile ponderilor de pe primul nivel al rețelei wij cu valori de 0 și 1 după criteriul stabilit;
se inițializează matricea de ponderi wij* cu valori aleatoare cuprinse în intervalul (0,1);
începe prima epocă de antrenare, ce va dura până la epuizarea datelor din fișierul de antrenare; antrenarea se face conform algoritmului descris parcurgând cei doi pași forward și backward, pe care îi voi prezenta ulterior;
se compară eroarea rețelei cu eroarea maxim admisă și dacă este mai mare se reia pasul 3, până când eroarea va deveni acceptabilă; se va specifica o condiție suplimentară de ieșire pentru cazul in care antrenare nu are efectul așteptat ;
Învățarea supervizată:
Presupune pentru fiecare vector de intrare un vector de ieșire calculat în prealabil, care este răspunsul pe care ar trebui să-l dea rețeaua atunci când sunt folosite ca intrări în rețea elementele din vectorul de intrare.
Pentru rețeaua considerată procesul de antrenare se realizează doar pe nivelul 2 prin modificarea ponderilor dintre aceste ultime două nivele.
Algoritmul de propagare înapoi pentru rețele feed-forward presupune doi pași importanți:
Pasul forward:
Vectorul de antrenare este
(i1, i1, …, i184, d1,d2,d3 )
Se realizează propagarea intrării spre ieșire.
pe nivelul 1: din vectorul de intrare (i1, i2, …, i184) se calculează valorile de activare ale nodurilor de pe nivelul 1;
cu formulele prezentate anterior, se calculează valorile de activare ale nodurilor de pe nivelul2 ;
se inițializează ponderile W1 cu valorile aleatoare mai puțin cele care sunt puse pe 0 și nu se modifică;
se calculează z1, z2,z3 și se compară cu valorile din vectorul de antrenare
( d1, d2, d3 ) = d ;
Vectorul eroare se obține ca diferența dintre output-ul dezirabil d și output-ul actual ; “d-z” reprezintă eroarea rețelei la un moment dat.
Dacă “d-z=0 ” aceasta semnifică faptul că rețeaua a oferit răspunsul dorit și ponderea conexiunilor a fost stabilită, în continuare devenind activă. Altfel se trece la următorul pas. În general condiția de terminare este “d-z<E”(unde e este eroarea maximă admisă ).
Pasul backward:
aici se face ajustarea propriu-zisă a ponderilor după regula:
w*ki += (dk – zk) * yi
Această ajustare a ponderilor se realizează într-un proces iterativ, adică secvențial pentru fiecare pereche.
( X, Z )
X- intrarea ;
Z- ieșirea calculată a rețelei ;
Parcurgerea tuturor perechilor din setul de antrenare se numește epocă de antrenament
după parcurgerea unei epoci se compară eroarea curentă cu eroarea prag (o valoare a erorii sub care este considerat că rețeaua satisface condițiile cerute)
dacă eroarea curentă este mai mare decât eroarea maximă admisă se face repoziționare la începutul fișierului ce conține date de antrenare ;
se trece la o nouă epocă ;
Fiecare epocă în care se modifică ponderile presupune o salvare a acestora în fișier astfel încât trecerea la etapa următoare cumulează și experiența achiziționată în etapa precedentă.
Dacă s-ar proceda la o ajustare a ponderilor fără a salva rezultatele de la ultima modificare șansele ca rețeaua “învățând” ultimele perechi să le “uite” pe primele este foarte mare și astfel rețeaua este puțin probabil să ajungă la rezultate care să corespundă cerințelor propuse.
Pentru a evita acest neajuns se execută secvențial, pentru fiecare pereche de antrenament primul pas a iterației apoi se reia pentru întregul set de antrenament al doilea pas al iterației.
O caracteristică foarte importantă a unei metode de învățare este gradul de convergență, adică numărul de iterații necesare până la determinarea soluției. Există și metode care aplicate unei anumite probleme nu vor duce niciodată la o soluție.
De aceea se impune o condiție suplimentară prin stabilirea unui număr maxim de epoci de antrenare.
După faza de antrenare urmează o fază de testare sau utilizare a rețelei in care folosindu-se de experiența acumulată în procesul de antrenare rețeaua poate da răspunsuri corecte doar pe baza datelor de intrare, mai exact a răspunsurilor date la test.
BIBLIOGRAFIE
1. Miclea, M.-“Psihologie cognitivă”, Casa de Editură Gloria, Cluj-Napoca 1994
2. Dumitrescu, D.-“Modele conexioniste în Inteligența Artificială”, “Inteligența Artificială”, Univ. Babeș-Bolyai, Cluj-Napoca, 1995
3. Miclea, M.-“Creativitatea și arhitectura cognitivă”, Editura Sincron, Cluj-Napoca, 1991
4. Minsky, M., Papert, S.-“Perceptrons. An Introduction to Computational Geometry”, Mit Press, Cambridge, M.A. 1969
5. Kosko, B.-“Neural Networks and Fuzzy Systems”, Prentice Hall,
Englewood Cliffs, New Jersey, 1992.
6. Anderson, J.A., Rosenfeld, E.-“Neurocomputing. Foundations of
Research”, Mit Press, Cambridge, M.A. 1987.
7. Anderson, J.A.-“The Architecture of Cognition”, Cambridge MA Harward University Press.
8. D. Dumitrescu, H. Costin – “Rețele neuronale. Teorie și
aplicații”, Ed. Teora București, 1996.
9. G. Toderean, M. Costeiu, M. Giurgiu – “Rețele neuronale artificiale”, Ed. MicroInformatica Cluj-Napoca, 1995.
Copyright Notice
© Licențiada.org respectă drepturile de proprietate intelectuală și așteaptă ca toți utilizatorii să facă același lucru. Dacă consideri că un conținut de pe site încalcă drepturile tale de autor, te rugăm să trimiți o notificare DMCA.
Acest articol: Retele Neuronale Aplicate In Modelarea Testelor DE Personalitate (ID: 161705)
Dacă considerați că acest conținut vă încalcă drepturile de autor, vă rugăm să depuneți o cerere pe pagina noastră Copyright Takedown.
