Introducere şi concepte de bază [310443]

[anonimizat]. [anonimizat], chiar simpla numărare a cazurilor decedate poate fi considerată o statistică.

Statistica a devenit un instrument indispensabil al cunoașterii în condiții de incertitudine. [anonimizat] a acestora. Cu ajutorul statisticii se obține informația necesară fundamentării deciziei și se elaborează previziuni în funcție de variația fenomenului studiat și în condițiile unui risc asumat.

[anonimizat], [anonimizat], [anonimizat], dar poate fi un instrument util oricărui cercetător din orice domeniul de activitate care pentru finalizarea unor rezultate se folosește de statistică.

[anonimizat].

[anonimizat] 2010

[anonimizat], gruparea, analiza și interpretarea datelor referitoare la un anumit fenomen precum și cu formularea unor previziuni privind comportarea viitoare a acestuia.

Majoritatea domeniilor de bază ale matematicii s-au dezvoltat din cerințele practice ale oamenilor sau din observații directe asupra naturii. Statistica reprezintă ramura matematicii ce a apărut din necesitatea de a calcula probabilitatea anumitor evenimente din cadrul unui experiment.

Teoria matematică a [anonimizat].

[anonimizat] – ca unealtă a statisticii, are ca scop de a [anonimizat] o interpretare cantitativă a fenomenelor biologice.

Aplicarea statisticii în cercetarea biologică, a permis depășirea metodelor de analiză cantitativă rezumate inițial la măsurători și numărări. Biostatistica a facilitat trecerea la o treaptă superioară și anume aceea a generalizării și abstractizării, a dezvăluirii esenței fenomenelor.

[anonimizat], organizarea și analiza informației sunt "instrumente" deosebit de utile. Tehnicile de culegere a informației sunt variate: experimente, [anonimizat]. Informațiile astfel culese poartă numele generic de "date" și se referă în general la măsurarea unor atribute sau caracteristici ale "subiecților" analizați. Măsurarea este efectuată prin clasificarea "observațiilor" (subiecților) conform unor reguli specifice.

Pentru organizarea și folosirea unei corecte cercetări este necesar să se folosească un limbaj specific fiecărei discipline științifice. Statistica a [anonimizat], pe care le folosește pe parcursul întregului demers științific.

[anonimizat], [anonimizat]tă mulțimea tuturor obiectelor sau indivizilor care prezintă interes pentru studiu, mulțimea pe care se realizează un studiu statistic.

Obiectivul legitim al cercetării științifice este identificarea unor adevăruri cu un anumit grad de generalitate. Din punct de vedere statistic „generalul” este reprezentat de totalitatea valorilor care descriu o anumită caracteristică, și este numit „populație”.

Elementele componente ale unei populații se numesc unități statistice sau indivizi și reprezintă mulțimea numărabilă de elemente care compun colectivitatea statistică. Fiecare element al colectivității este purtătorul unui anumit nivel al fiecărei trăsături (caracteristici) supuse observării statistice.

Numărul total de unități statistice se numește efectivul total al populației statistice.

O parte a populației statistice aleasă special pentru a fi studiată se numește eșantion (sample).

Eșantionul reprezintă „unitățile statistice” selecționate pentru a fi efectiv studiate. Ideea pe care se bazează cercetările bazate pe eșantioane, este aceea că: se pot face aprecieri asupra unei întregi populații, în anumite condiții, doar pe baza caracteristicilor măsurate pe o parte a acesteia.

Eșantionul este un subset sau o submulțime a populației analizate. Extragerea unui eșantion din populație este utilă și chiar necesară în condițiile în care resursele (financiare, de timp etc.) de care dispun inițiatorii studiului nu sunt suficiente pentru a asigura investigarea întregii populații.

Volumul eșantionului (sample size) reprezintă numărul de elemente din eșantion.

Proprietatea sau indicatorul în funcție de care se cercetează o populație statistică se numește caracteristică sau variabilă statistică (variable).

Caracteristica statistică reprezintă acea proprietate care este comună tuturor unităților unei colectivități statistice. Deoarece variază de la o unitate a colectivității la alta, caracteristica statistică mai poartă denumirea de variabilă statistică sau variabilă aleatoare. Nivelul variabilei sau nivelul observat al caracteristicii la fiecare unitate sau grup de unități din colectivitate se numește variantă. Numărul de apariții (înregistrări) ale unei variante într-o colectivitate statistică reprezintă frecvența caracteristicii.

Exemplu:

Să presupunem că ne interesează evoluția unor parametri hematologici consecutiv terapiei cu vitamina K1 la câini de rasă comună intoxicați cu diferite tipuri de momeli.

În acest caz populația statistică o constituie mulțimea câinilor din rasa comună; unitățile statistice sunt câinii din rasa comună; caracteristicile sau variabilele sunt valorile parametrilor hematologici.

Un studiu care vizează influența unor probiotice în hrana puilor de carne.

În acest exemplu, populația este reprezentată de mulțimea puilor de carne, unitățile statistice sunt puii din rasa de carne, iar eșantionul, lotul de pui incluși în studiu. Cracteristica urmărită poate fi de exemplu greutatea puilor sau numărul de ouă.

Datele statistice reprezintă caracterizarea numerică obținută de statistică în legătură cu unitățile, grupele sau colectivitatea studiată. Ele sunt mărimi concrete rezultate din studiile efectuate pe baza de numărare, măsurare sau calcul statistic.

Datele statistice pot fi primare – rezultate direct din observarea și înregistrarea statistică, prelucrate, publicate sau stocate în baze sau bănci de date. Oricare dată statistică este purtătoare de informații.

Informația este semnificația, conținutul specific al datei sau altfel spus, constituie mesajul datelor statistice.

Activitatea de culegere și înregistrare a datelor referitoare la un fenomen, face obiectul statisticii descriptive sau statisticii formale iar metodele statistice descriptive constau în descrierea sintetică a informației cuprinse într-un set de date.

Statistica descriptivă poate fi definită ca totalitatea metodelor de culegere, prezentare și caracterizare a unui set de date, în scopul de a descrie diferitele trăsături principale ale acestui set de date.

Activitatea de grupare, de analiză și de interpretare a datelor precum și formularea unor previziuni privind comportarea viitoare a unui fenomen reprezintă obiectul statisticii inferențiale.

Statistica inferențială poate fi definită ca totalitatea metodelor ce fac posibilă estimarea caracteristicilor unei populații sau luarea unor decizii privind o populație, pe baza rezultatelor obținute pe un eșantion.

În timp ce statistica descriptivă este limitată la analiza datelor culese prin investigarea unui eșantion, statistica inferențială (inductivă) are funcția de a facilita elaborarea de inferențe despre întreaga populație din care a fost extras eșantionul. Ea se bazează pe teoria matematică a probabilității și oferă posibilități de elaborare a generalizărilor despre o populație pe baza investigării unui eșantion al acesteia și de formulare a unei legi generale întemeiate pe observații repetate.

Metodele statistice inferențiale constau în acele tehnici și proceduri folosite pentru a face generalizări despre caracteristicile unei populații, pe baza informațiilor culese de la un eșantion extras din acea populație. Marea provocare a statisticii o constituie procesul de inferență (generalizare) de la datele de eșantion la populație.

Caracteristicile populației despre care facem inferențe pe baza eșantionului se numesc parametri.

Caracteristicile eșantionului pe baza cărora inferăm se numesc statistici.

Parametri sunt valori fixe referitoare la populație și sunt, în general, necunoscuți. Valorile statistice variază însă de la un eșantion la altul.

Spre deosebire de parametri, valorile statistice pentru un eșantion dat pot fi calculate și cunoscute. Ceea ce nu știm este cât de reprezentativ este eșantionul în raport cu populația și cât de apropiată este valoarea statistică obținută prin calcul de valoarea parametrului corespunzător necunoscut. În ultimă instanță, interesul principal al cercetării se concentrează asupra populației, iar eșantionul îl investigăm numai pentru a ajunge ta concluzii despre populație.

Eșantioanele și statisticile descriptive sunt utile în măsura în care ele pot oferi informații despre parametri de interes. Statistica inferențială este aceea care permite obținerea unei măsuri a acurateței statisticilor folosite pentru estimarea valorii parametrilor. În consecință, atunci când întreaga populație este cuprinsă într-un studiu, statistica inferențială nu este necesară.

Reprezentativitatea eșantionului

Verificarea statistică a ipotezelor se bazează pe logica următoare: pornind de la un eșantion a cărui alegere respectă anumite condiții, extras la întâmplare dintr-o populație oricât de mare, rezultatele obținute pe acest eșantion să fie extrapolate la întreaga populație.

Calitatea unui eșantion de a permite extinderea concluziilor la întreaga populație din care a fost extras se numește reprezentativitate.

Nici un eșantion nu poate reprezenta perfect datele populației, de aceea reprezentativitatea are o semnificație relativă. Ca urmare, estimările pe bază de eșantion conțin întotdeauna o doză mai mare sau mai mică de eroare. Cu cât eroarea este mai mică, cu atât concluziile obținute pe eșantion pot fi generalizate mai sigur asupra populației.

Pentru a permite fundamentarea inferențelor statistice, eșantionul trebuie să fie constituit din „unități de informație” (subiecți, valori, etc.) independente unele de altele. Independența valorilor se referă la faptul că fiecare valoare (sau unitate experimentală) trebuie să fie absolut distinctă de celelalte. În esență constituirea unui eșantion trebuie să evite efectele unor factori sistematici care să interfereze cu obiectivele studiului, orientând rezultatele într-o anumită direcție.

Modul de constituire a eșantionului este decisiv pentru nivelul de reprezentativitate. Esențială în acest caz este asigurarea condițiilor ca acesta să acopere în mod real caracteristicile populației, evitându-se „favorizarea” sistematică a unor subiecți „nereprezentativi”.

Variabile

Numim variabilă orice caracteristică care poate să ia mai mult de o singură valoare, care variază în raport sau în funcție de o serie de factori (persoane, situații, mediu).

Variabila se definește ca fiind orice caracteristică a membrilor unei populații sau unui eșantion care variază (în respectiva populație/eșantion).

Cu cât o caracteristică are o variație mai mare, cu atât respectiva populație este mai eterogenă și, invers, cu cât o caracteristică dată are o variație mai mică, cu atât respectiva populație va fi mai omogenă. Fiecare individ (statistic) poate lua o singură valoare pentru o variabilă.

Variabile dependente și variabile independente

Un studiu statistic își propune evidențierea legăturilor dintre diverse caracteristici ale realității (variabile). În acest context există variabile ale căror valori sunt dependente pentru că variază în funcție de valorile altei sau altor variabile, care sunt denumite, din acest motiv, independente.

Identificarea lor corectă în cazul unui studiu statistic este esențială pentru fundamentarea procedurilor statistice.

În mod esențial, variabila dependentă face obiectul măsurării cu scopul de a fi supusă unor concluzii. Prin opoziție, variabila independentă este utilizată ca variabilă de influență, ale căror efecte posibile asupra variabilei dependente urmează sa fie puse în evidență. Termenii „dependent”, „independent” se utilizează în mod obișnuit în legătură cu cercetarea experimentală.

Este necesar să se rețină faptul că, prin natura lor, nu există variabile care sunt „dependente” sau „independente”. Caracteristica de a fi de un tip sau de altul provine din rolul care le este atribuit de către cercetător într-un anumit context de cercetare.

Niveluri de măsurare al variabilelor

Statistica operează cu valori, numerice sau de altă natură, care rezultă dintr-un proces de măsurare. Dar numerele, deși au aceeași formă, nu sunt asemănătoare unele cu altele. Ele pot avea diferite semnificații sau proprietăți în funcție de tipul de măsurare din care rezultă. În funcție de cantitatea de informație pe care o reprezintă valorile, ca rezultat al procesului de măsurare, putem distinge mai multe tipuri de scale de măsurare.

Nivelul de măsurare al variabilelor este criteriu de clasificare a acestora, de o mare importanță pentru studiul statisticii. Putem distinge între patru niveluri de măsurare (nominal, ordinal, de interval și de raport), în funcție de trei criterii:

posibilitatea de a ordona valorile variabilei;

egalitatea intervalelor dintre valorile variabilei (sau altfel spus existența unei unități de măsură);

existența unei "origini" a variabilei sau, cu alte cuvinte, a unui "zero absolut".

Tabel 1. Niveluri de măsurare a variabilelor

Nivelul de măsurare nominal presupune clasificarea unor atribute, caracteristici, fenomene etc. în categorii care trebuie să fie:

distincte;

mutual exclusive;

exhaustive.

Acest tip de variabile (respectiv scalele folosite în măsurare), indică numai faptul că exista o diferență calitativă între categoriile studiate, nu și magnitudinea acestei diferențe. La limită, putem privi aceste variabile ca pe niște tipologii.

Exemple de variabile exprimate pe scale nominale: sexul (masculin, feminin), anotimp (primăvara, vara, toamna, iarna.), starea de sănătate (sănătos, bolnav, ameliorat, decedat), specialitatea universitară (veterinara, agronomie, horticultura, etc). starea de vaccinare (vaccinat, nevaccinat), grupa sangvină etc.

Valorile acestui tip de variabile nu pot fi ordonate, sau cu alte cuvinte nu există o ierarhie (decât eventual conform unor criterii extrinseci) și în consecință problema "distanței" sau a intervalelor dintre valori nici nu poate fi pusă, cu atât mai puțin putem discuta despre existența unui "zero absolut").

Valorile de tip nominal pot fi:

De identificare, atunci când o valoare are rolul de codificare a identității, referindu-se în mod unic la o anumită persoană (de exemplu: codul numeric personal, un număr de identificare în cadrul unui experiment medical, etc.). Această formă este nerelevantă din punct de vedere propriu-zis statistic, dar este extrem de utilă ca variabilă ajutătoare în manipularea și organizarea datelor pentru prelucrare.

Categoriale, atunci când desemnează forme pe care le ia o variabilă (tipul de tratament: „vaccinat”, „nevaccinat”; numele; grupa sanguina; sexul; rasa; culoarea ochilor; diagnosticul; etc.). Această formă este în mod obișnuit întrebuințată în medicină, ori de câte ori este necesară repartizarea subiecților în diverse clase sau categorii, în funcție de prezența sau absența anumitor caracteristici.

Variabile dihotomice (binare, bimodale) sunt variabilele ce nu pot lua decât doua valori: mort/viu, fumător/nefumător, prezent/absent, normal/anormal – DA/NU

Valorile măsurate pe o scală de tip nominal au un caracter calitativ și nu suportă operații numerice, altele decât cele de sumarizare (numărare, procente).

Nivelul de măsurare ordinal implică nu numai clasificarea elementelor în categorii ci și posibilitatea ordonării acestora de la minim la maxim (existența tranzitivității: dacă a>b și b>c, atunci a>c). Valorile plasate pe o scală de tip ordinal au o anumită semnificație cantitativă. O anumită valoare este “mai mare” sau “mai bună” decât alta, aflată sub ea. Implicit, ea poate fi “mai mică” sau mai “puțin bună” decât altă valoare, aflată deasupra ei.

Un exemplu ilustrativ ar putea fi evaluarea stării de sănătate pe o scală cu 5 trepte, unde 5 ar fi nivelul de sănătate cel mai ridicat.

Variabilele ordinale pot fi și ele de tip categorial, atunci când grupurile definite de valorile variabilei pot fi aranjate într-o ordine naturală. De exemplu: valorile asociate vârstei astfel: 1=20-30 de ani, 2=31-40 de ani, 3=41-50 de ani, sau apartenența la o anumită categorie valorică, rezultată prin evaluarea la un examen cu calificative (foarte bun, bun, mediu, rău, foarte rău).

În concluzie, numerele de tip ordinal ne spun dacă o valoare este mai mare sau mai mică decât alta, dacă o anumită calitate este prezentă într-o măsură mai mare sau mai mică, fără a putea preciza care este „diferența de cantitate” a caracteristicii măsurate. Ca urmare, valorile de tip ordinal au, ca și cele de tip nominal, o semnificație calitativă și nu una cantitativă.

Variabilă măsurată pe o scală de interval ne oferă informații nu doar despre ordinea de mărime ci și despre „dimensiunea” exactă a caracteristicii măsurate. Valorile de acest tip au un caracter cantitativ, exprimat numeric, iar intervalele dintre ele sunt egale. Măsurarea la nivel de interval, oferă în plus față de nivel anterior (cel ordinal) și informație referitoare la distanța dintre valorile scalei și este caracterizată de existența unor intervale egale. Totuși, la acest nivel de măsurare, nu există un zero absolut, ci mai degrabă unul convențional. Exemplu de astfel de scală de măsurare este temperatura măsurată în grade Celsius (intervalele dintre valori sunt egale, dar punctul 0 este convențional ales ca fiind temperatura la care apa îngheață. Ceea ce este caracteristic valorilor măsurate pe scală de interval este absența unei valori 0 absolute. Cu alte cuvinte, valorile de acest tip nu ne permit evaluări de genul: „O temperatură de 10 grade este de două ori mai mare decât una de 5 grade” ).

Măsurarea la nivel de raport include toate caracteristicile nivelurilor anterioare (ordonare și intervale egale), plus existența unei "origini" sau zero absolut. Valorile exprimate pe o scală de raport dețin cel mai înalt grad de măsurare. Pe lângă egalitatea intervalelor, specifică scalei de interval, acest tip de valori se raportează și la o valoare 0 absolut (nu este posibilă nici o valoare mai mică de 0). Din acest motiv, este permisă aprecierea raportului dintre două valori. Acest lucru permite formularea unor afirmații în termeni de proporții (raporturi) între valori. De exemplu, vitezele de răspuns a doi subiecți la un același stimul pot fi comparate în termeni de "timpul de răspuns a fost de două ori mai mare" etc.. Exemple de variabile măsurate la acest nivel sunt: vârsta, greutatea, înălțimea, distanța, numărul de animale din gospodărie etc.

Valorile de tip raport au, ca și cele de tip interval, o semnificație cantitativă.

Corecta identificare a nivelului de măsurare utilizat este foarte importantă în alegerea procedurilor statistice de analiză. După cum se poate observa din descrierea de mai sus, pentru fiecare nivel exista operații matematice permise și operații interzise. Astfel, la primul nivel, cel nominal nu sunt permise nici ordonarea, nici adunarea/scăderea și nici înmulțirea/împărțirea. La nivelul ordinal este permisă numai ordonarea, la cel de interval sunt permise în plus și operațiile de adunare/scădere, iar la ultimul nivel, cel de raport sunt permise toate operațiile.

În funcție de nivelul de măsurare, vom vorbi despre variabile măsurate la nivel nominal, variabile măsurate la nivel ordinal etc., sau, mai pe scurt, variabile nominale, ordinale, de interval și de raport. Reducând cele patru clase la două, putem vorbi de variabile calitative (nivelurile nominal și ordinal) și variabile cantitative (interval și raport).

O variabilă calitativă (Qualitative Variable) are ca valori adjective cum ar fi: culoarea, genul, naționalitatea etc. iar variabilele cantitative iau valori numerice pentru care au sens operațiile aritmetice. De exemplu, temperatura este o variabilă cantitativă, dar codul numeric personal (CNP) nu. O variabilă cantitativă reprezintă, de regulă, cantitatea exactă dintr-o anumită caracteristică prezentă la un element măsurat și este o variabilă continuă.

Datorită caracterului "ierarhic" și cumulativ al nivelurilor de măsurare (de la multe restricții către nici o restricție în ceea ce privește operațiile permise, sau de la "calitativ" la "cantitativ"), vom putea întotdeauna trata o variabilă aflată la un nivel "superior" de măsurare ca și cum ar fi fost măsurată la un nivel "inferior". De exemplu, vârsta măsurata în ani de viață va putea oricând fi tratată ca o variabilă ordinală, dacă îi grupăm valorile (sub 20, 21-30, 31-50, peste 50). Niciodată însă nu vom putea trata o variabilă aflată la un nivel "inferior" ca pe una aflată "mai sus" în ierarhie. (Câteodată, cercetătorii fac excepție de la această regulă, tratând variabilele ordinale ca și cum ar fi măsurate la nivel de interval. Totuși, o dată cu dezvoltarea unor noi tehnici de analiză, dedicate special nivelelor de măsurare "calitativă", aceste practici devin din ce în ce mai rare.)

Valorile măsurate pe o scală de nivel superior (cantitativ), pot fi convertite în valori măsurate pe scale calitative. Niciodată, însă, nu vom putea transforma valori calitative în valori cantitative. Atunci când există posibilitatea de a alege, se va prefera întotdeauna măsurarea pe o scală cantitativă (interval/raport).

Variabile discrete și variabile continue

Se numește „continuă” o variabilă de tip numeric (cantitativ, de tip interval/raport) care are un număr teoretic infinit de niveluri ale valorilor măsurate. Acest tip de variabilă poate lua, în principiu, orice valoare, permițând utilizarea zecimalelor. Exemple: timpul de reacție, înălțimea, greutatea, etc.

Se numește „discretă” o variabilă care prezintă un număr finit al valorilor pe care le poate lua (numărul purceilor la o fătare, numărul animalelor decedate, numărul cariilor dentare).

Atât variabilele discrete cât și variabilele continue pot lua o infinitate de valori. Diferența dintre ele constă în faptul că în timp ce în cazul variabilelor continue, între două valori succesive ale variabilei pot exista o infinitate de valori, în cazul variabilelor discrete acest lucru nu se întâmplă.

Înainte de a încheia această scurtă introducere, ar mai fi necesare câteva cuvinte despre utilizarea calculatoarelor în analiza statistică.

Apariția calculatoarelor și a programelor informatice aferente (software) au produs o adevărată revoluție pentru utilizarea și dezvoltarea analizei statistice. Ele au permis, de-a lungul timpului, depășirea barierelor legate de volumele mari de date necesar a fi prelucrate, de complexitatea analizelor, de afișarea și reprezentarea rezultatelor etc. Dezvoltarea programelor și aplicațiilor informatice de analiză statistică a datelor a făcut cei mai importanți pași în ultimii ani. Înaintea acestei perioade, disponibilitatea lor era destul de limitată și doar puține aplicații realizau analize complete. Ultimii ani însă, caracterizați de răspândirea pe scară largă calculatorului personal și de amploarea deosebită înregistrată de programele informatice comerciale, au făcut ca metodele de analiză statistică să devină accesibile tuturor celor care au nevoie de o analiză mai complexă a datelor și să furnizeze, în timp util, informații avansate necesare în activitatea de cercetare.

Aplicațiile sau programele pentru computer care pot fi utilizate sunt foarte numeroase, ele variind în funcție de complexitatea analizelor pe care le pot efectua și în funcție de ușurința în utilizare (sau altfel spus, în funcție de cât sunt de "prietenoase" cu utilizatorul). Pentru utilizatorii de Microsoft Office©, unul dintre cele mai la îndemână instrumente este MS Excel©, care poate efectua o serie de analize statistice – mai ales descriptive, fiind însă mai puțin "dotat" la capitolul statistică inferențială (totuși există module care îi pot îmbunătăți performanța în această privință).

Dintre aplicațiile software de mare complexitate, care oferă o paletă completă de instrumente de analiză, începând cu cele destinate analizei descriptive și ajungând până la cele pentru analiza multivariată, ies în evidență două pachete de programe, care prin caracteristicile și funcționalitatea lor, au devenit cele mai utilizate pe plan mondial: SPSS și SAS. Dacă în Statele Unite ale Americii SPSS și SAS ocupă primele două locuri, din punct de vedere al numărului de utilizatori, fiind în raport de relativă egalitate, România a fost cucerită de SPSS, pachetul SAS fiind practic inexistent din punct de vedere al analizei datelor. Chiar și la nivel european, SPSS este mult mai bine reprezentat, lucru explicabil într-o bună măsură, prin faptul că este mult mai prietenos din punct de vedere al interfeței cu utilizatorul (“user-friendly” în limbaj informatic) și mult mai simplu de folosit. De cealaltă parte, SAS solicită, într-o măsură mai mare, cunoștințe de programare (mai precis, este vorba de cunoștințe de scriere a instrucțiunilor de rulare a funcțiilor), în schimb, utilizatorii acestui program susțin că este mult mai performant decât SPSS-ul, mult mai flexibil și sensibil mai avansat.

Prezentăm, în continuare, într-o ordine alfabetică, cele mai importante pachete informatice de analiză statistică completă, incluzând aici și analiza multivariată.

Pachete informatice de analiză statistică.

Analyse-it

Aanalysis-it reprezintă un add-in pentru Microsoft Excel și este succesorul la Astute, dezvoltat în 1992 pentru Excel 4 și prima analiză statistică add-in pentru Microsoft Excel. Aanalysis-it oferă, pe lângă instrumentele analizei descriptive, o serie de instrumente de lucru pentru statistica inferențială, teste parametrice și non –parametrice (ANOVA, Mann-Whitney, Wilcoxon, Chi-Square, regresie liniară, polinomului de regresie, etc.

Aanalysis-it este compatibil cu Microsoft Excel 97, 2000, 2002 și 2003, și Excel 2007.

BioStat

BioStat este un soft specializat pentru statistică, orientat în special pentru aplicații în biologie și medicină. Conține unelte software specializate pentru analiza statistică și o grafică de nivel înalt. Are o interfață prietenoasă, simplu de abordat și pentru începători în domeniul utilizării calculatoarelor.

Epi info

Epi info ™ este software proiectat pentru prelucrarea datelor din sănătatea publică și este destinat practicienilor și cercetătorilor. Are o interfață prietenoasă, permite introducerea de date, prezentarea lor precum și analiza statistică cu caracter epidemiologic. Este destinat cu precădere profesioniștilor din domeniul sănătății publice.

Minitab

Probabil cel mai prietenos pachet software în domeniul educațional, Minitab a fost inclus în numeroase manuale și tratate ca și un program informatic complementar.

Conține toate tehnicile multivariate de bază alături de o serie de dezvoltări de specialitate. Informații suplimentare și o versiune demonstrativă complet funcțională poate fi obținută pentru o perioadă de probă de 30 de zile la adresa http://www.minitab.com.

SAS

Unul din cele două pachete de software statistic de referință, SAS are o lungă istorie în cercetarea academică și comercială, fiind dezvoltat la început pe platforma calculatoarelor mainframe și adaptat ulterior sistemelor de operare specifice calculatorului personal (PC). Acționează într-o mare măsură ca un limbaj de programare, utilizatorii putându-și dezvolta un număr mare de rutine specializate.

Pachetul statistic SAS (cu denumirea comercială SAS/STAT) face parte din sistemul SAS (www.sas.com), un sistem complex de gestiune a resurselor informaționale destinat companiilor. Pe site-ul de http://www.sas.com/technologies/analytics/statistics/stat/ sunt disponibile o serie de informații despre caracteristicile și oferta SAS/STAT dar și o colecție de resurse statistice deosebit de utilă. Compania SAS, pe lângă pachetul SAS/STAT mai deține în portofoliu și pachetul de analiză statistică JMP – The Statistical Discovery Software, caracterizat printr-o foarte bună interfață grafică.

SPSS

Cel de-al doilea pachet software major de analiză statistică (alături de SAS), SPSS își are originile în aplicațiile pentru calculatoarele mainframe, dar a fost transferat în forță pe platforma PC. SPSS conține un set complet de tehnici de prelucrare și analiză a datelor, inclusiv module suplimentare pentru analiză conjoint și modelarea ecuațiilor structurale. Site-ul Internet SPSS (www.spss.com) este un adevărat portal de informare atât în privința produselor și serviciilor oferite cât și tehnicilor statistice de analiză și modalitățile de aplicare a lor cu ajutorul SPSS.

STATGRAPHICS

Statgraphics este unul dintre pachetele de software statistic dezvoltate doar pentru calculatoarele personale și conține peste 150 de proceduri statistice acoperind toate zonele importante ale analizei datelor. Programul este orientat în mod deosebit către analiza grafică și afișarea rezultatelor. Informații despre produs, suport, training și alte resurse sunt disponibile la http://www.statgraphics.com.

Statistica

În 1984 un grup de profesori universitari și oameni de știință din SUA au pus bazele firmei Statsoft, cu scopul de dezvolta un instrument cu ajutorul căruia să poată fi rezolvate cât mai simplu diferitele aspecte de analiză statistică. Primul produs astfel realizat se numea PsychoStat și era destinat în special științelor sociale. După mai multe transformări și extinderi, în 1991 este lansat programul Statistica pentru DOS iar în 1994 apare și versiunea pentru Windows. De-a lungul timpului cunoaște multiple îmbunătățiri și o extindere a aplicabilității lui și la nivelul afacerilor. Anul 2001 aduce o nouă generație de Statistica, bazată pe o tehnologie avansată de tratare a datelor și o arhitectură de tip COM. În plus, pune accentul în mod deosebit pe reprezentarea rezultatelor și construcția graficelor. Statistica este poate cel mai complet pachet statistic dezvoltat pentru PC, integrând proceduri pentru toate tehnicile de bază ale analizei multivariate. Pe site-ul companiei (www.statsoftinc.com) sunt disponibile o serie de resurse foarte utile celor preocupați de analiza și interpretarea datelor, inclusiv un compendiu gratuit de metode statistice (The Electronic Statistics Textbook).

WinSTAT

WinSTAT este un modul adițional pentru Microsoft Excel destinat analizei datelor, care poate fi cumpărat pe lângă pachetul MSOffice. El acoperă, într-o manieră simplă, aproape toate tehnicile de bază multivariate, furnizând atât tabele și indicatori cât și rezultate grafice. Descrierea funcțiilor disponibile și a modului de aplicare a lor, o variantă demonstrativă și formularul de comandă prin Internet se găsesc la adresa http://www.winstat.com/english/function/function.htm

XLSTAT

XLSTAT oferă unelte software atât pentru statistica descriptivă cât și pentru analiza statistă. Modulul XLSTAT este un ”add-in” pentru MS Excel. El oferă instrumente pentru analiza de regresie, teste de corelație, teste parametrice și neparametrice, conține de asemenea module pentru grafica în 3D. Versiunea 2008.7 conține și instrumente pentru analiza de risc și simularea cu metoda Monte Carlo.

STATISTICA DESCRIPTIVĂ

Statistica descriptivă se referă la metodele cu ajutorul cărora se analizează caracteristicile variabilelor statistice.

Statistica descriptivă constă în exact ceea ce spune numele: sunt metode de descriere. Necesitatea descrierii unei variabile este impusă de variația valorilor variabilei. Într-o lume constantă nu este nevoie de statistică.

Descrierea este, de regulă, sub formă numerică. Pentru a constitui informație utilizabilă, descrierea trebuie să fie succintă. De aici apariția rezumatelor statistice (statistici) cum ar fi media, dispersia etc.

Orice descriere necesită cheltuieli și din acest motiv, ca și din altele, datele prelucrate sunt valoroase și trebuie să fie tratate ca atare. Orice descriere este afectată de erori.

Dacă aplicăm un test de timp de reacție a unui medicament asupra unui număr de 50 de subiecți, putem calcula valoarea medie a timpilor de reacție, împrăștierea acestora, iar utilizând o tehnică de reprezentare grafică, modul în care se distribuie valorile prin raportare la un sistem de coordonate. Toate aceste prelucrări fac parte din categoria metodelor statisticii descriptive.

În esență, cu ajutorul statisticii descriptive ne putem face o imagine cu privire la caracteristicile unui distribuții luată în sine, fără a putea emite judecăți comparative prin raportare la populația din care face parte distribuția respectivă sau la un alt lot de valori (eșantion) din aceeași populație.

Statistica descriptivă are drept obiective: organizarea, sintetizarea și descrierea datelor și este esențială pentru fundamentarea procedurilor inferențiale. Ea oferă o imagine sintetică asupra datelor analizate și este o etapă pregătitoare în fundamentarea procedurilor statisticii inferențiale.

Statistica descriptivă conține acele metode care permit rezumarea colecțiilor de date într-o formă simplă și explicită, inteligibilă.

Metodele statisticii descriptive pot fi împărțite în:

metode numerice;

metode grafice.

Prin metodele numerice se obțin rezumate numerice cum ar fi: media, abaterea standard etc.

Prin metodele grafice se obțin reprezentări vizuale ale datelor, utile pentru identificarea structurii datelor.

Primele metode sunt mai precise și mai obiective, dar, doar utilizarea ambelor categorii de metode pot să ducă la un rezultat satisfăcător.

Componente statisticii descriptive sunt:

Tehnicile de organizare și prezentare a datelor:

numerice (distribuția de frecvențe simple sau grupate;)

grafice (histograme; grafice de tip bară, linie, „plăcintă”)

Indicatorii statistici numerici:

indicatori ai tendinței centrale (mod, medie, mediană)

indicatori ai împrăștierii (amplitudine, abatere standard, etc.)

indicatori ai formei distribuției (oblicitate și aplatizare).

Tehnici numerice de organizare și prezentare a datelor

Descrierea variabilelor

Cronologic, întâi se întocmește tabelul numit tabel de evidență primară a datelor sau tabel de efective. Acest tabel conține valori de observație distincte xi ale caracterului studiat.

Să presupunem că am numărat purceii la fătare la un grup de 25 de scroafe și am obținut următoarea distribuție de valori pentru variabila „purcei vii la fătare”:

8, 6, 10, 9, 6, 6, 8, 7, 4, 9, 6, 2, 8, 6, 10, 4, 5, 6, 8, 4, 7, 8, 4, 7, 6

Datele de mai sus reprezintă o „serie statistică”, sau o „distribuție statistică”, compusă din 25 de „valori” sau „scoruri”. Fiind rezultatul primar al măsurării, aceste valori se mai numesc și „valori brute”, înșiruirea lor constituie tabelul de evidență primară sau tabelul de efective. În exemplul de mai sus, valorile acestei variabile sunt exprimate pe o scală cantitativă de tip raport și sunt variabile discrete.

Tabele de frecvențe și grafice

Privite sub forma în care sunt prezentate mai sus, datele observate ne spun puține lucruri, iar dacă ar fi și mai multe, de ordinul sutelor sau miilor, atunci ar fi practic imposibil de făcut vreo apreciere, în această formă de prezentare. De aceea, pentru a ne face o imagine mai coerentă asupra unei serii de valori, acestea trebuie supuse unor operații care să scoată în evidență caracteristicile distribuției.

În urma întocmirii tabelului de evidență primară sau a tabelului de efective, valorile observate xi se ordonează crescător sau descrescător în scopul determinării frecvenței de apariție fi al fiecărei valori xi .

2, 4, 4, 4, 4, 5, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7,8, 8, 8, 8, 8, 9, 9, 10, 10

Privind datele aranjate ca mai sus putem observa cu ușurință câteva lucruri:

valoarea cea mai mică;

valoarea cea mai mare;

valorile care se repetă.

Cel mai simplu mod de prezentare/descriere al datelor observate îl reprezintă tabelele de frecvențe, sau distribuția frecvențelor .

Tabelul de frecvențe este un tabel cu două coloane ce conține în prima coloană valoarea xi a caracterului studiat iar în a doua coloană, frecvența de apariție a acelei valori.

Tabelul de frecvență sau distribuția frecvențelor este o listă a valorilor posibile ale unei variabile, însoțite de numărul de observații care iau respectivele valori. Poate fi definit ca fiind corespondența dintre două șiruri de date statistice, sistematizate într-o succesiune logică: primul șir reprezintă valori ale caracteristicii de grupare, iar al doilea șir reprezintă frecvența de apariție corespunzătoare.

Dacă luăm în considerare seria de valori de mai sus, un tabel al frecvențelor simple (absolute) este compus din lista valorilor distincte, ordonate crescător, la care se adaugă frecvența absolută (fa) a fiecărei valori (de câte ori se întâlnește în cadrul seriei) (Tabelul 2).

Se observă astfel, că datele au un caracter mai ordonat iar coloana frecvențelor absolute scoate în evidență anumite aspecte cum ar fi, de exemplu, faptul că cea mai frecventă valoare este 6 (apare de 7 ori). Observăm că seria de valori din tabel include toate valorile posibile între valoarea cea mai mare (10) și cea mai mică (2), incluzând și valorile care nu se întâlnesc în mod real în cadrul seriei.

În cazul nostru avem valoarea 3, cu frecvența de apariție 0. Suma frecvențelor absolute (fa) indică totalul valorilor din cadrul seriei (25).

Întocmirea acestui tabel se face cu ușurință utilizând aplicația Microsoft Office EXCEL, numărarea valorilor identice ale caracterului studiat se face, după ordonarea lor, cu funcția COUNT, având ca argument domeniul din foaia de calcul ce conține valorile ce se doresc a fi numărate. Evident, dacă numărul acestora este mic nu este oportună apelarea funcției pentru numărare, aceasta operându-se cu ușurință doar prin vizualizare.

Frecvența absolută (fa)

Repartiția de frecvență simplă are următoarea structură:

xi – caracteristica observată

fi – frecvența de apariției a caracteristicii xi , ea este numită frecvență absolută

f1+f2+ …..+fk=n

n este numărul total al observațiilor

Frecvența cumulată (fc)

Totalul valorilor care se cumulează începând de la valoarea cea mai mică până la valoarea cea mai mare din tabel poartă denumirea de frecvență cumulată. De exemplu, în tabelul 3, avem 6 valori mai mici sau egale cu 5, 21 de valori mai mici sau egale cu 8 și, evident, 25 de valori mai mici sau egale cu 10.

Frecvența relativă

Frecvența relativă (probabilitatea) este dată de raportul fi=

Într-o repartiție de frecvență, frecvențele absolute cresc până la un anumit număr și apoi descresc. Dacă creșterea și descreșterea este la fel se spune că repartiția este simetrică (Tabelul 3.)

Distribuția de frecvențe grupate

Aranjarea unei distribuții sub forma tabelului de frecvențe simple este foarte utilă dar nu este practică atunci când avem o distribuție, cu un număr mare sau foarte mare de valori, care ar genera un tabel cu prea multe linii pentru a fi inteligibil.

Să presupunem că valorile din Tabelul 4 reprezintă distribuția frecvențelor variabilei „Procentul de grăsime în lapte” măsurată la un număr de 6850 de vaci. Tabelul obținut este greu de analizat deoarece are prea multe valori distincte (40).

Pentru a ne face o imagine sintetică a distribuției, ne propunem să realizăm un număr de categorii (clase) cuprinse între anumite intervale, urmând să stabilim apoi care este frecvența de apariție a fiecărei clase în distribuția noastră. Această tehnică de organizare a datelor se numește „frecvența grupată”.

La gruparea valorilor în clase este necesară stabilirea următoarelor elemente:

numărul de clase

lungimea sau mărimea intervalului de clasă;

limitele claselor – inferioară;

– superioară

– centru;

frecvența clasei.

Concentrarea pe clase a valorilor, poartă denumirea de serie statistică sau șir de variație.

Se observă că dacă numărul datelor este mare (n>50), tabelul obținut este greu de analizat, în asemenea situații se recomandă gruparea valorilor în clase.

Numărul de clase.

Teoria probabilităților recomandă ca numărul de clase K să se calculeze după formula:

k= 5 lg n (1)

și funcție de n să se aleagă k din tabelul:

La împărțirea datelor în clase se va avea în vedere că:

– un număr prea mic de clase pierde trăsăturile esențiale ale fenomenelor studiate, iar un număr prea mare de clase pierde avantajele grupării;

– clasele trebuie să aibă aceiași lungime pentru a ușura calculele;

– alegerea numărului de clase trebuie astfel făcută încât repartiția de frecvență să fie cât mai simetrică.

Formula (1) este orientativă, k se alege astfel încât să satisfacă criteriile de mai sus.

Lungimea intervalului de clasă.

Lungimea intervalului de clasă I se calculează cu formula:

I=

xmax este cea mai mare valoare pentru xi

Xmin este cea mai mică valoare pentru xi

Limitele claselor.

Pentru stabilirea limitelor claselor este suficient să cunoaștem limita inferioară și superioară a primei clase, celelalte obținându-se prin adăugarea la aceasta a intervalului de clasă.

La exemplul dat, împărțirea pe clase conduce la următorul tabel (Tabel 5):

Tehnici grafice prezentare a datelor

Observarea repartițiilor de frecvență uneori este mai sugestivă dacă acestea sunt reprezentate grafic.

Reprezentările graficele sunt forme intuitive de prezentare a distribuțiilor de frecvențe („o imagine face mai mult decât o mie de cuvinte”). Ele sunt foarte frecvent utilizate pentru analiza și prezentarea datelor. În prezent, programele computerizate oferă mijloace extrem de puternice și de sofisticate pentru elaborarea reprezentărilor grafice. Dar simpla utilizare a unui astfel de program nu garantează realizarea unui grafic eficient. În esență, un grafic eficient este o combinație reușită între formă și conținutul statistic pe care îl reflectă. Realizarea acestei combinații depinde de respectarea câtorva principii esențiale:

focalizarea pe conținutul și nu pe forma graficului;

este esențial să fie evitate distorsiunile induse de forma graficului;

este recomandabil să fie utilizate grafice care favorizează comparații între variabile și nu doar reprezentări individuale, “statice”, ale acestora;

orice grafic va fi însoțit de informații statistice și descrierile necesare pentru a fi ușor și corect înțeles.

Formele de expresie grafică a datelor statistice sunt foarte numeroase. Ne vom ocupa aici doar de câteva dintre acestea, cel mai des utilizate:

graficul de tip bară;

histograma;

poligonul de frecvențe;

graficul frecvenței cumulate;

graficul circular.

În cele ce urmează, vom face o trecere sumară în revistă a celor mai utilizate tipuri de reprezentări grafice.

Graficul de tip bară (coloană)

Este cel mai simplu mod de reprezentare grafică a datelor. Se utilizează atunci când dorim să reprezentăm o variabilă „discretă” (care prezintă valori întregi, de exemplu, numărul de purcei la fătare la un număr de 25 de scroafe).

În mod obișnuit, un grafic se prezintă ca o imagine inclusă într-un sistem de axe perpendiculare:

Axa orizontală (Ox) pe care sunt reprezentate valorile distribuției (valorile xi)

Axa verticală (Oy) pe care sunt reprezentate frecvențele fiecărei valori, sub forma unei bare rectangulare (valorile ni ).

Graficul de tip bară (coloană) pentru datele din Tabelul 2 este prezentat în Figura 1. Cu cât frecvența unei valori este mai mare, cu atât bara este mai mare. Simplitatea și claritatea este cea mai mare calitate a acestui tip de grafic.

În cazul diagramei-bară, fiecare bară corespunde unei singure valori (categorii) a variabilei. În plus, pentru a evidenția faptul că datele nu sunt continue, barele nu sunt lipite între ele, ca în cazul histogramei.

Figură 1. Graficul de tip bară

Histograma

La prima vedere, histograma este asemănătoare cu graficul de tip bară. Ea este adecvată pentru situațiile când variabila pe care dorim să o reprezentăm este de tip „continuu” (adică poate lua orice valoare pe o scală numerică, de ex., timpul de reacție, lungimea, etc.). Histograma distribuției de frecvențe din Tabelul 5 este prezentată în Figura 2:

Figură 2 Histograma distribuției de frecvență

În cazul histogramei, fiecare bară nu reprezintă o singură valoare a variabilei ci un interval de valori. În consecință, lățimea barei variază odată cu mărimea intervalului. Valorile de pe axa orizontală a graficului reprezintă centrele acestor intervale. Histograma este recomandată în cazul variabilelor "cantitative" tocmai pentru faptul că acest tip de variabile fie sunt continue, fie au un număr foarte mare de valori chiar dacă sunt discrete. Stabilirea mărimii intervalelor nu este o sarcină ușoară: intervale prea mari (adică bare puține) pot duce la pierderea de informație, în timp ce intervale prea mici (adică un număr prea mare de bare) poate ascunde regularitățile distribuției

Poligonul de frecvențe

Este o reprezentare alternativă la histogramă. Punctele centrale ale suprafețelor rectangulare care reprezintă frecvența sunt unite cu o linie care delimitează suprafața poligonului (Figura 3.).

Graficul frecvenței cumulate

Este un grafic de tip liniar care reprezintă valorile frecvenței absolute cumulate (Figura 4.). Pe acest grafic se vede cu ușurință câte valori se află până la o anumită valoare din distribuție (datele reprezentate sunt cele din tabelul 5, fiecare interval de clasă fiind etichetat convențional cu cifre de la 1 la 9).

Figură 3. Poligonul de frecvență

Figură 4. Graficul frecvențelor cumulate

Graficul circular

Este utilizat în situațiile în care valorile sunt „parte a unui întreg”. De exemplu, poate fi utilizat la reprezentarea distribuției de frecvențe grupate de mai sus (Tabelul 5.), pentru a avea o imagine directă a ponderii frecvenței fiecărei clase de interval în raport cu celelalte (Figura 5).

Graficul reprezintă frecvența absolută a claselor de interval ale aceleiași distribuții de mai sus. Pe un grafic de acest tip se pot reprezenta fie valorile absolute, fie procentajul fiecărei clase raportat la întreg.

Figură 5. Graficul circular

Utilizarea tabelelor de frecvență și a reprezentărilor grafice aduce un important câștig în analiza datelor statistice. Este însă, important să reținem faptul că, atât tabele cât și reprezentările grafice nu sunt decât începutul analizei datelor nu și sfârșitul acesteia. Cu alte cuvinte, nu vom putea trage direct concluzii pe baza lor. Ele pot fi utilizate, însă, pentru a ilustra concluzii, care devin astfel mai ușor de înțeles și de reținut. În fazele primare de analiză a datelor statistice, graficele ne ajută să ne facem o imagine generală asupra acestora, lucru util pentru alegerea procedurilor statistice. Este important să alegem tipul de grafic adecvat în raport cu natura datelor și cu ideea pe care dorim să o ilustrăm. În practică, graficele se realizează utilizând programe specializate

Indicatori numerici ai distribuțiilor statistice

Alcătuirea tabelului de evidență primară, a repartiției de frecvență sau reprezentarea grafică, reprezintă o metodă utilă pentru punerea în valoare a unor caracteristici ale distribuțiilor statistice. Această metodă prezintă un mare dezavantaj și anume necesitatea manipulării întregii cantități de date observate. Pentru a elimina acest neajuns sunt utilizați indicatori sintetici.

Indicatorii sintetici sunt descriptori numerici care condensează într-o valoare unică o anumită caracteristică a unei întregi distribuții de valori. Principalele avantaje pe care le oferă sunt:

concentrarea semnificației;

ușurința utilizării.

Prin natura lor sintetică, fiecare indicator pierde o anumită cantitate de informație care ține de alte caracteristici, pe care nu le surprinde.

Tipuri de indicatori sintetici

Cu ajutorul indicatorilor sintetici sunt evaluate următoarele caracteristici ale distribuțiilor:

tendința centrală;

variabilitatea (împrăștierea, diversitatea);

forma distribuției.

Pentru fiecare din aceste caracteristici se utilizează anumiți indicatori specifici:

Indicatori ai tendinței centrale: sunt valori tipice, reprezentative, care descriu distribuția în întregul ei;

Indicatori ai variabilității: sunt valori care descriu caracteristica de împrăștiere a distribuției. O distribuție care conține aceeași valoare, ori de câte ori s-ar repeta ea, are o variabilitate zero.

Indicatori ai formei distribuției: Sunt valori care se referă la forma curbei de reprezentare grafică a distribuției, prin comparație cu o curbă normală (oblicitate, aplatizare)

Indicatorii tendinței centrale

Media (m)

Mediile sunt mărimi statistice care exprimă, în mod sintetic și generalizat, ceea ce este normal, esențial, tipic pentru unitățile unei colectivități distribuite după o anumită caracteristică.

Media este valoarea care conține tot ceea ce este esențial și stabil într-o mulțime de valori individuale, care caracterizează un fenomen sau un proces statistic.

Media mai este numită speranța matematică a datelor și reprezintă valoarea cu care s-ar putea înlocui toți termenii unei serii de distribuție dacă acești termeni nu ar fi supuși unor factori complecși de influență, care diferențiază valorile individuale ale seriilor după diferite atribute.

Media de sondaj (Sample Mean) este un indicator care caracterizează un eșantion (o populație) din punctul de vedere al unei caracteristici studiate.

Media populației (Population Mean) este media numerelor dintr-o populație numerică. Această valoare este un parametru al populației, spre deosebire de media calculată dintr-un eșantion, care este doar o estimație a parametrului.

Cele mai utilizate medii în statistică sunt: media aritmetică, media armonică, media pătratică, media geometrică.

Media aritmetică este probabil cea mai importantă și totodată cea mai populară măsură a tendinței centrale a unei distribuții. Ea se calculează ca sumă a tuturor valorilor observate ale seriei de date împărțită la numărul de observații:

Notații uzuale:

(miu), atunci când este media întregii populații de referință

(x barat) sau m, atunci când se calculează pentru un eșantion (cazul cel mai frecvent)

Calcularea mediei pentru o distribuție simplă de frecvențe se face prin adunarea valorilor și se împărțirea la numărul lor

Exemplu: Pentru distribuția 5,8,3,2,5,4

Utilizând aplicația Excel, obținerea acestei valori se face cu ajutorul funcției AVERAGE din categoria funcțiilor statistice.

Calcularea mediei pentru o distribuție de frecvențe grupate: Se face suma produsului dintre fiecare valoare și frecvența ei, apoi se împarte la suma frecvențelor (numărul valorilor).

Exemplu: Pentru distribuția: 5,8,3,3,3,2,4,2,3,5,4

Proprietățile mediei aritmetice

Adăugarea / scăderea unei constante la fiecare valoare a distribuției, mărește / scade media cu acea valoare;

Înmulțirea / împărțirea fiecărei valori a distribuției cu o constantă, multiplică divide media cu acea constantă;

Suma abaterii valorilor de la medie este întotdeauna egală cu zero;

Suma pătratului abaterilor de la medie va fi întotdeauna mai mică decât suma pătratelor abaterilor în raport cu oricare alt punct al distribuției

Această medie cunoscută și sub numele de medie aritmetică simplă exprimă nivelul mediu, anihilând abaterile individuale, netipice. Ea este cuprinsă între valoarea cea mai mare și cea mai mică, este simplu de calculat, și este cea mai utilizată. Are dezavantajul că este sensibilă la valorile extreme, iar dacă termenii sunt prea împrăștiați, tinde să devină o valoare nereprezentativă.

Exemplu:

Ex1 Fie valorile: 49, 50. Media aritmetică este 49.5.

Ex2. Fie valorile 0, 100. Media aritmetică este tot 50.

Media aritmetică în Ex1 este aproape aceeași cu cea din Ex2. Tindem să spunem că doar media aritmetică calculată în primul exemplu este normală, ea reprezentând într-adevăr o valoare de mijloc între cele două valori, pe când în exemplul al doilea, cu toate că din punct de vedere matematic rezultatul este corect, din punct de vedere statistic, valoarea obținută este prea "distanțată" de cele două valori, adică valorile sunt foarte împrăștiate.

Din aceste exemple se observă că media aritmetică simplă este sensibilă la valorile extreme.

Media aritmetică ponderată

În cazul prelucrării mai multor serii statistice de mărimile n1, n2, … nk și cu mediile X1,X2, …. Xk și dorim să calculăm media generală, este greșit ca aceasta să se determine prin însumarea mediilor și împărțirea la numărul lor.

În acest caz se calculează media aritmetică ponderată.

Asemenea situații apar atunci când anumite valori individuale Xi apar înregistrate de mai multe ori, deci avem serii de distribuții, adică avem frecvențe fi neegale ale valorilor individuale xi Numărul care artă de câte ori se repetă fiecare valoare fi este "ponderea" valorii respective.

Formula este următoarea:

Xap=

Exemplu:

10 persoane au avut TA 130 mm Hg, iar 20 persoane au avut TA 145 Hg. care este media tensiunilor arteriale?

Xap=

Media aritmetică procentuală

Se utilizează când valorile sunt date procentual. Formula este:

Xap%=

unde p=procentul.

Exemplu:

10 bolnavi au ocupat 33,3% din paturi la spitalul A

13,3 bolnavi au ocupat 50% din paturi la spitalul B

4 bolnavi au ocupat 16,6% din paturi la spitalul C

Care este media bolnavilor?

Xap%= bolnavi/an/pat

Media geometrică

Media geometrică simplă

Este mai puțin sensibilă la valorile extreme decât celelalte medii, deci se întrebuințează când dorim să atenuăm divergențele mari dintr-o serie de determinări cu frecvențe egale, fiind după o expresie "cea mai exactă medie". Se utilizează când valorile au o evoluție (de creștere sau scădere) permanentă, neîntreruptă, cu o rație din ce în ce mai mare, termenii fiind legați între ei prin produs. De asemenea se mai întrebuințează când vrem să dăm o importanță mai mare termenilor mai mici, în valoare absolută, sau când diferențele dintre termeni sunt foarte mari. Are dezavantajul că nu se poate întrebuința când avem valori nule sau negative.

Datorită faptului că se calculează mai ușor cu ajutorul logaritmilor, se mai numește și " medie logaritmică". Putându-se utiliza și la calcularea ritmului ( de creștere sau scădere), se mai numește și medie de ritm. Este egală sau mai mică decât media aritmetică, dar mai mare decât media armonică.

În concluzie, se întrebuințează când:

seria este dinamică, fiind relație de creștere sau scădere,

termenii au variații mari,

distribuția are caracter pronunțat de asimetrie.

Formula este următoarea:

undeeste produsul dintre valorile observate. Deci Xgeom s este radicalul de ordinul n din produsul valorilor individuale xi de mărime pozitivă, care prin logaritmare devine:

log Xgeom s=

adică media aritmetică a logaritmilor valorilor Xi.

Se utilizează în cazul unor repartiții de frecvențe care reprezintă un caracter cu ritm de creștere uniform, (cum este cel al diviziunii celulare), sau pentru aflarea unor valori intermediare, valori ce se succed în ritm mai mult geometric (deci înmulțindu-se) decât aritmetic (deci adăugându-se).

Exemplul 1: În urma unui experiment sau găsit 10 de cazuri pozitive în prima zi și 1000 de cazuri pozitive în a treia zi. Care este media?

Xas=

Xgeaom s=

Exemplul 2: În urma unui experiment sau găsit 100 de cazuri pozitive în prima zi și 1000 de cazuri pozitive în a treia zi. Care este media?

Xas=

Xgeaom s=

deci prin Xas nu putem face deosebire între situațiile din cele două exemple (valoarea 505 fiind foarte apropiată de 550), ceea ce înseamnă că Xas nu este potrivită în astfel de situații. Deci Xgeom s se utilizează la calcularea ritmului mediu a fenomenului ce evoluează, creșterea fiind regulată. Deci se utilizează când valorile se succed în ritm geometric nu în șir aritmetic.

Funcția din aplicația Excel ce calculează media geometrică este GEOMEAN din categoria funcțiilor statistice.

Media pătratică

Media pătratică simplă

Se întrebuințează când valorile prezintă creșteri din ce în ce mai mari, modificându-se aproximativ în progresie exponențială. Ea constituie modelul matematic pentru "abaterea pătratică". Media este sensibilă la valorile extreme, din care cauză este întotdeauna mai mare decât celelalte medii. Are avantajul că se poate aplica și în cazul valorilor nule sau negative (care prin ridicare la pătrat devin pozitive). Se întrebuințează când dăm importanță valorilor mari.

Pentru n numere reale pozitive x1, x2, …, xn formula mediei pătratice este:

Exemplu: Fie valorile: 4; 10; 130,3. Care este media?

mp=

Modulul (Modul) (Mo) sau Dominanta (Do)

Modulul este definit ca fiind valoarea cu frecvența cea mai mare a unei distribuții.

Altfel spus, modulul este acea valoare a variabilei care apare cel mai des într-un eșantion sau într-o populație.

Se determină numai în cazul seriilor cu frecvențe diferite (n1n2 .. ni)

Se află prin alcătuirea tabelei de frecvențe (simple sau grupate) și este valoarea căreia îi corespunde frecvența absolută cea mai ridicată.

Distribuțiile pot avea un singur mod (unimodale), două moduri (bimodale) sau mai multe (multimodale)

Deși simplu de obținut, modul nu este întotdeauna cea mai bună măsură a tendinței centrale, deoarece de multe ori depinde de gruparea arbitrară a datelor De asemenea, nu rareori se întâlnesc distribuții bimodale, în care există două valori diferite ale variabilei care apar cu o aceeași "cea mai mare" frecvență. Grafic, o distribuție bimodală este o distribuție cu două "vârfuri" .

Obținerea modulului cu ajutorul aplicației Excel se face cu ajutorul funcției MODE din categoria funcțiilor statistice.

Exemplu: În seria de valori 5,8,3,2,5,4, Mo=5 (apare de cele mai multe ori)

Pentru exemplu din Tabelul 2, valoarea Mo=6 iar pentru exemplul din Tabelul 4, Mo=3,65.

În cazul în care seria de valori ale caracteristicii observate au aceiași frecvență de apariție (de exemplu 1), dar distribuția nu este omogenă (valorile diferă), nu poate fi calculată valoarea pentru modul. Funcția MODE de Excel afișează eroare (#N/A).

Mediana (Me)

Mediana este acea valoare a caracteristicii unei serii ordonate, crescător sau descrescător, până la care și peste care sunt distribuite în număr egal unitățile colectivității observate: jumătate din unități au valori mai mari decât mediana și jumătate au valori mai mici.

Este valoarea „din mijlocul” unei distribuții, Se găsește prin alcătuirea tabelei de frecvențe, în coloana frecvențelor relative procentuale cumulate, și corespunde valorii de 50%.

În cazul distribuțiilor cu număr impar de valori, Me este chiar valoarea respectivă.

În cazul distribuțiilor pare, Me se calculează ca medie a celor două valori din mijlocul distribuției.

Calcularea medianei cu ajutorul aplicației Excel se face cu ajutorul funcției MEDIAN din categoria funcțiilor statistice.

Exemplu:

În seria de valori 5,8,3,2,5,4, ordonată crescător (2,3,4,5,5,8), Me=4,5 (ca medie a valorilor 4 și 5 aflate în mijlocul unei distribuții pare). Dacă distribuția noastră ar fi avut 5 valori (fără 2, de exemplu), Me=5

Pentru exemplu din Tabelul 2, valoarea Me=6 iar pentru exemplul din Tabelul 4, Me=3,475 (media aritmetică a valorilor 3,45 și 3,5)

Când folosim una sau alta dintre măsurile tendinței centrale?

Decizia de a utiliza una sau alta dintre măsurile tendinței centrale este strâns legată în primul rând de nivelul de măsurare a variabilelor.

Modulul poate fi utilizat pentru toate cele patru niveluri de măsurare (nominal, ordinal, raport și interval).

Mediana însă nu poate fi utilizată decât pentru nivelele care permit o ordonare prealabilă a datelor, adică numai pentru variabilele ordinale, de interval și de raport.

În ceea ce privește media, aceasta poate fi calculată numai pentru variabilele măsurate la ultimele două nivele, adică cel de interval și respectiv cel de raport (variabile cantitative), deoarece în cazul celorlalte nivele operațiile de adunare/scădere a valorilor variabilelor nu sunt permise.

Indicatori sintetici ai împrăștierii

Indicatorii tendinței centrale se referă la ceea ce face ca valorile să se asemene, la caracteristica „comună” a valorilor unei distribuții.

Indicatorii împrăștierii, de care vom vorbi în continuare, se referă la caracteristica de variabilitate, care descrie diferențele existente între valori. În cazul tendinței centrale este scoasă în evidența caracteristica valorilor unei distribuții de a se „asemăna” unele cu altele, „asemănare” surprinsă de indicatorii tendinței centrale.

În cazul împrăștierii, se urmărește descrierea tendinței valorilor de a se deosebi una de alta, de a se „sustrage” unei tendințe centrale prin îndepărtarea de aceasta.

De exemplu, o distribuție de tipul 2, 2, 2, 2, 2, 2, 2 este, evident, mult mai omogena (mai puțin variabila) decât o distribuție de genul 1, 2, 3, 4, 5, 6, 7.

De fapt, prima dintre cele doua serii de valori nu prezintă nici o variație, toate valorile fiind identice unele cu celelalte. Într-o serie de valori identice, reprezentativitatea unui indicator al tendinței centrale este absoluta (Mo=Me=m=xi, unde xi este fiecare dintre valorile distribuției). Acesta este un caz extrem și improbabil. Într-o distribuție reala fiecare valoare are „individualitatea” ei. Cu cât valorile diferă mai mult una de alta, cu atât variabilitatea distribuției este mai mare. O definiție echivalentă, care este mai ușor de tradus în operații matematice, privește variabilitatea ca măsură în care valorile diferă față de medie.

Sa ne imaginam următoarea situație:

Un veterinar nutriționist verifică efectul unei rețete pe un lot de subiecți.

Se evaluează greutatea înainte și după administrarea probioticului.

Distribuția valorilor este reprezentată în imaginea alăturată (Figura 6.).

Așa cum se observă, valorile măsurate înainte de tratament au o medie de 30 și o împrăștiere (neomogenitate) mai mare, în timp ce valorile de după tratament prezintă o medie de 40 și o împrăștiere mai mică, (sunt mai omogene).

Acest fapt sugerează că tratamentul a avut efect.

Imaginea scoate în evidenta și faptul că în distribuțiile mai omogene media este mai reprezentativă decât în distribuțiile mai puțin omogene.

Pentru evaluarea împrăștierii distribuțiilor statistice se utilizează mai mulți indicatori.

Distingem două categorii de indicatori ai împrăștierii: elementari și sintetici.

Principala caracteristica a indicatorilor elementari este aceea ca surprind împrăștierea distribuției prin distanta dintre doar doua valori ale acesteia.

Amplitudinea absolută (R de la Range)

Amplitudinea absolută este data de diferența dintre valoarea maximă și valoarea minimă a unei distribuții.

Utilitatea ei este dată de faptul că ne indică în mod absolut plaja de valori între care se întinde distribuția.

Principalul dezavantaj constă în faptul că poate fi influențat de o singură valoare aflată la extremitatea distribuției.

Amplitudinea relativă

Amplitudinea relativă este dată de raportul procentual dintre amplitudinea absolută și media distribuției:

Este utilă atunci când cunoaștem plaja teoretică de variație a distribuției, putând astfel sa facem o comparație cu plaja reală, obținută prin formula de mai sus.

Din cauză că amplitudinea utilizează doar cele două valori extreme ale distribuției, este un indicator imprecis al variabilității.

Așa cum am precizat, acest tip de indicatori ilustrează împrăștierea prin distanța dintre două puncte ale unei distribuții. Unul dintre avantajele lor este acela al ușurinței de calcul. Pe de alta parte, tocmai pentru că iau în seamă doar două dintre valorile distribuției, sunt vulnerabili și nesiguri. Utilitatea lor este în general limitată, dar sunt singurii care pot fi folosiți atunci când indicatorii sintetici (care vor fi prezentați în continuare), nu pot fi calculați. Un alt dezavantaj al acestora este dificultatea de a fi utilizați în procedurile statistice avansate.

Spre deosebire de indicatorii elementari, indicatorii sintetici surprind împrăștierea unei distribuții prin luarea în considerare a abaterii fiecărei valori de la un anumit indicator al tendinței centrale. Cel mai uzual indicator de referință pentru împrăștiere este media.

Abaterea medie (d de la deviație medie)

Distanta dintre o valoare anumită și media distribuției se numește abaterea valorii (xi-m).

Dacă am dori sa calculăm abaterea medie a unei distribuții nu ne-ar rămâne decât să însumăm abaterile individuale ale fiecărei valori și să le împărțim la numărul acestora. Din păcate, media abaterilor într-o distribuție este întotdeauna egala cu zero (vezi proprietățile mediei).

Acest fapt poate fi descris cu formula:

unde xi sunt valorile distribuției, m este media iar N, numărul de valori, și poate fi pus în evidență practic, astfel:

.

Așa cum se observă în coloana „xi–m”, diferențele individuale însumate produc (xi-m) = 0. Acest lucru este valabil pentru orice fel de distribuție și este una dintre proprietățile importante ale mediei.

Pentru a elimina acest inconvenient putem să luăm abaterile individuale în valoare absoluta (fără semn).

Ca urmare, formula abaterii medii (d) poate fi scrisă astfel:

Abaterea medie este ușor de înțeles și are semnificația de medie a distanțelor între fiecare scor și media distribuției. Din păcate, nici ea nu este potrivită cu statisticile avansate.

Dispersia (varianța)

Notații uzuale:

s2 (când se calculează pentru eșantion)

2 (când se calculează pentru întreaga populație)

Pentru a elimina inconvenientul abaterilor de la medie de a avea suma egală cu zero, se operează ridicarea la pătrat a abaterilor valorilor individuale.

Dacă însumăm abaterile ridicate la pătrat și le împărțim la numărul valorilor, obținem dispersia (numita și varianță sau abatere medie pătratică).

(1)

Totuși, din cauza ridicării la pătrat, dispersia nu reprezintă o valoare foarte bună a împrăștierii (de ex., poate fi mai mare decât amplitudinea distribuției). Soluția acestui neajuns o constituie abaterea standard.

Abaterea standard

Abaterea standard a unei mulțimi de numere este rădăcina medie pătrată (RMS) a mulțimii abaterilor fiecărui element de la media mulțimii.

Formula de calcul: (2)

Abaterea standard este o măsură a gradului de împrăștiere a elementelor. Se măsoară în aceeași unitate de măsură ca și datele inițiale și se raportează, de regulă, împreună cu media.

Notații uzuale:

s (pentru eșantioane);

(pentru populație);

SD (Standard Deviation, în standardul APA – American Psychological Association) ;

ab.std.

Abaterea standard se obține prin extragerea radicalului din expresia abaterii medii pătratice (dispersiei).

Pe datele din tabelul de mai sus:

Formulele (1) și (2) au la numitor valoarea N (volumul eșantionului), ele se referă la calculul acestor indicatori la nivelul populației. Fără a intra în detalii, vom spune că valorile astfel calculate, ale dispersiei și abaterii standard, pentru un eșantion, conțin o imprecizie (bias – distorsiune sistematică) care conduce la subestimarea împrăștierii la nivelul populației. Chiar dacă luăm în considerare un număr mare de eșantioane, extrase succesiv dintr-o anumită populație, indicatorii împrăștierii vor fi mai mici decât împrăștierea la nivelul întregii populații. Corecția se face prin utilizarea la numitor a expresiei N-1. În acest mod, cu cât eșantionul este mai mic, cu atât indicatorul respectiv al împrăștierii va fi influențat mai mult de expresia de la numitor.

Expresia N-1 poartă numele de „grade de libertate”. Pentru a-i înțelege semnificația, este bine să ne gândim la faptul ca, într-o distribuție de 3 valori (de exemplu: 1,3,8) media este 4, iar abaterile de la medie sunt –3, -1, 4. Suma lor este zero.

Ca urmare, este suficient să cunoaștem cel puțin doua din cele trei valori pentru a o afla pe a treia. Altfel spus, doar doua valori sunt libere să se modifice, a treia (ultima) fiind determinată de acestea.

Formulele corecte devin:

respectiv

Formulele inițiale, de definiție, rămân corecte pentru situația în care se urmărește doar descrierea caracteristicii de împrăștiere pentru eșantionul respectiv. Atunci când se urmărește însă, extrapolarea acestei valori la nivelul populației, utilizarea formulei corectate este absolut necesara. Este evident ca diferența dintre valoarea corectată și cea necorectata a variabilității este cu atât mai mare cu cât eșantionul este mai mic, ponderea numitorului asupra rezultatului fiind astfel mai mare. Cu cât N este mai mare, rezultatul formulei este mai puțin afectat de diferență de o unitate a numitorului. Programele de prelucrări statistice utilizează pentru calculul celor doi indicatori doar formulele corectate.

Funcțiile din aplicația Excel ce calculează varianța și abaterea standard sunt: VAR și STDEV

Coeficientul de variație

Coeficientul de variație, notat cu C.V.% al unei repartiții de frecvențe se calculează cu formula:

Coeficientul de variație indică procentul ce-l reprezintă abaterea standard din medie.

Utilizarea coeficientului de variație este limitată la valorile măsurate pe scale de raport, cu origine naturală 0. În cazul a două variabile a căror origine este diferită una de alta, diferențele dintre valori (abaterea standard) rămân aceleași, dar media se schimbă, fapt care face ca raportul exprimat în formulă să fie modificat, iar comparația a doi coeficienți de variație, irelevantă. În plus, pe o scală de interval cu valori negative se poate ajunge la medie egală cu 0, ceea ce face formula inaplicabilă.

Utilitatea coeficientului de variație vine de la faptul că valoarea sa nu mai este legată de unitatea de măsura. Diferența dintre două valori cv poate fi interpretată ca diferența de împrăștiere a celor doua variabile, chiar dacă măsoară lucruri diferite.

Sunt propuse anumite limite de interpretare a acestui indicator, astfel:

• dacă cv<15%, împrăștierea este mica si, deci, media este reprezentativă;

• dacă cv este cuprins între 15%-30%, împrăștierea este mijlocie și media

este suficient de reprezentativă;

• dacă cv este mai mare de 30%, împrăștierea este mare și media are o

reprezentativitate redusă.

Calcularea coeficientului de variație a unei distribuții, înainte de integrarea ei în proceduri statistice inferențiale, este o metodă utilă de verificare a măsurii în care media, pe care se bazează de cele mai multe ori procedurile inferențiale, este legitimă.

Intervalul intercuartilic

Cuartilele împart datele în 4 clase de frecvențe egale cu 25%. Astfel sunt necesare 3 valori Q1, Q2, Q3 ce reprezintă cuartilele. Presupunem că avem o distribuție a frecvențelor parametrului x (discret) conform graficului din Figura 7.

Variabile dihotomice

Variabilele dihotomice sunt variabilele care iau doar două valori posibile. Acest tip de variabile sunt deosebit de utile în practica analizelor statistice deoarece, la limită, ele pot fi considerate ca fiind măsurate la nivel de raport. Dacă vom codifica valorile unei astfel de variabile cu 0 respectiv 1 vom obține o variabilă care practic măsoară prezența sau absența caracteristicii studiate. Ele vor avea deci un 0 absolut (absența caracteristicii) și o unitate de măsură (prezența caracteristicii). În aceste condiții ne putem întreba cum se calculează media și respectiv abaterea standard ale acestor variabile

.

Dacă luăm ca punct de plecare formula de calcul a mediei pentru date grupate, atunci vom avea:

unde f0 este frecvența absolută de apariție a lui 0, iar f1 este frecvența absolută de apariție a lui 1. Cu alte cuvinte, media unei variabile dihotomice este chiar frecvența relativă de apariție a valorii 1 (numărul de observații care iau valoarea 1 împărțit la numărul total de observații ale seriei de date), adică frecvența relativă (notată aici cu p) a cazurilor în care caracteristica studiată este prezentă. Dacă analiza este efectuată pe o populație și nu pe un eșantion, atunci vom spune că media unei variabile dihotomice este chiar probabilitatea de apariție a caracteristicii studiate (aceasta însă numai în cazul în care respectiva variabilă este codificată 0/1).

Similar cu demonstrația în cazul mediei, se poate arăta ca formula abaterii standard pentru o variabilă dihotomică este:

s = p(1− p) ,

unde p este frecvența relativă a prezenței caracteristicii studiate.

Alegerea indicatorului împrăștierii

Abaterea standard este cea mai utilizată pentru scale de măsurare interval/raport. Realizează cea mai bună combinație între calitatea estimării și posibilitatea de a fundamenta inferențe statistice.

Amplitudinea este un indicator nesigur și care nici nu poate fi calculat în cazul scalelor nominale.

Indicatori ai formei distribuției

Expresia grafică a distribuțiilor poate fi descrisă sub două aspecte esențiale: simetria și boltirea. O distribuție este simetrică atunci când valorile acesteia se împart în mod egal de o parte și de alta a valorilor tendinței centrale.

Se numesc asimetrice distribuțiile ale căror valori se concentrează fie în zona valorilor mici (spre stânga) fie în zona valorilor mari (spre dreapta).

Figura 8 arată cum se plasează cei trei indicatori ai tendinței centrale în funcție de simetria distribuției:

În cazul distribuțiilor (perfect) simetrice, Mo, Me și m se plasează pe aceeași valoare;

În cazul distribuțiilor asimetrice cei trei indicatori au poziții diferite;

Mediana se plasează întotdeauna între mod și medie. Din acest motiv, mediana este cea mai reprezentativă valoare pentru distribuțiile asimetrice;

Media este afectată de valorile extreme, cu atât mai mult cu acestea sunt mai puternic deviate. Ca urmare, în cazul distribuțiilor puternic asimetrice, media nu este un indicator veridic al tendinței centrale.

Figură 6. Plasarea celor trei indicatori ai tendinței centrale

Indicii de asimetrie și boltire

Există situații destul de frecvente când media nu corespunde cu mediana. Dacă ele ar coincide am vorbi despre o distribuție complet simetrică, specifică unei distribuții normale teoretice.

Indicele de asimetrie (de oblicitate) ne arată în ce măsură media se îndepărtează de mediană, și implicit, în ce măsură curba de distribuție normală a datelor se depărtează de mijloc, deplasându-se spre stânga sau spre dreapta. Sunt considerate distribuții relativ normale cazurile în care acești indicatori nu depășesc ±1,96.

Vorbim despre o asimetrie pozitivă în situația în care media este mai mare decât mediana, caz în care indicele de asimetrie ia valori pozitive și apare o distribuție a datelor spre stânga. O formula simplă de calcul a oblicității este:

O serie cu distribuție de frecvențe poate să fie:

– simetrică, dacă valorile variabilei sunt egal dispersate de o parte și de alta a valorii centrale (Figura 9).

în cazul în care repartiția este perfect simetrică (numită repartiție normală), între indicatorii tendinței centrale există o relație de egalitate:

Figură 7. Distribuția simetrică a frecvențelor de apariție

Exista situații destul de frecvente când media nu corespunde cu mediana. Dacă ele ar coincide am vorbi despre o distribuție complet simetrică, specifică unei distribuții normale teoretice.

Indicele de asimetrie (de oblicitate) ne arată în ce măsură media se îndepărtează de mediana, și implicit, în ce măsură curba de distribuție normală a datelor se depărtează de mijloc, deplasându-se spre stânga sau spre dreapta. Sunt considerate distribuții relativ normale cazurile în care acești indicatori nu depășesc ±1,96.

Vorbim despre o asimetrie pozitiva în situația în care media este mai mare decât mediana, caz în care indicele de asimetrie ia valori pozitive și apare o distribuție a datelor spre stânga. O formula simpla de calcul a oblicității este:

Unde: m este media; Me este mediana; iar s este abaterea standard a eșantionului.

Funcții predefinite Excel: parametrul de simetrie =SKEW

Asimetria poate fi:

asimetrie spre stânga (sau pozitivă), când valorile caracteristicii mai mici decât nivelul mediu au frecvențe foarte mari și ca urmare (Figura 10):

asimetrie spre dreapta (sau negativă), când valorile caracteristicii mai mari decât nivelul mediu au frecvențe foarte mari și ca urmare (Figura 11):

Coeficientul de asimetrie

Pentru a aprecia gradul de asimetrie a unei distribuții statistice se folosesc o serie de indicatori, dintre care cel mai reprezentativ este coeficientul de asimetrie (Kas) propus de Karl Pearson, care poate lua valori cuprinse între -1 și +1.

unde:

abaterea medie pătratică.

Coeficientul prezentat permite analiza asimetriei seriei în funcție de semnul și nivelul acestuia:

– dacă seria este perfect simetrică:

– dacă seria este asimetrică:

spre stânga

spre dreapta

Coeficientul de asimetrie reflectă:

– o distribuție ce tinde spre una simetrică cu cât Kas este mai mic (mai apropiat de 0);

– o distribuție moderat asimetrică dacă:

– o distribuție ce tinde spre una puternic asimetrică cu cât Kas este mai mare (mai apropiat de 1).

Boltirea (în engleza kurtosis – "cocoașa") se refera la înălțimea curbei, comparativ cu cea normala. Se vorbește astfel de distribuții leptocurtice (cu cocoașa înalta) și platicurtice (mai aplatizate). Valorile pozitive indica distribuții "înalte", leptocurtice, iar cele negative distribuții "plate", platicurtice.

Funcții predefinite Excel: parametrul de boltirea = KURT

Analiza statistică descriptivă

Statistica descriptivă reprezintă etapă obligatorie în analiza statistică. În Tabelul 6 se prezintă în mod sintetic algoritmul de alegere a procedurii descriptive adecvate, în funcție de obiectivul analizei și de tipul de variabilă:

Tabel 6. Algoritmul de alegere a procedurii descriptive adecvate

Statistica descriptiva, abordarea practică

Softul modern elimină povara calculelor. Propunem spre rezolvare, cu ajutorul computerului, prelucrarea statistică a datelor observate în urma unui experiment care urmărește evoluția unor parametri hematologici consecutiv terapiei cu vitamina K1, la câini de rasă comună, intoxicați cu diferite tipuri de momeli.

Softurile utilizate sunt:

Funcțiile statistice și uneltele de analiză statistică oferite de aplicația Microsoft Excel.

Funcțiile statistice și uneltele de analiză statistică oferite de aplicația BioStat Staistical Analysis Software

Funcțiile oferite de aplicația specializată pentru prelucrarea statistică a datelor MINITAB® Release 14.20.

Funcțiile statistice și uneltele de analiză statistică oferite de aplicația XLSTAT2008.

Funcțiile statistice și uneltele de analiză statistică oferite de aplicația cu SPSS

Rezolvarea utilizând funcțiile statistice ale aplicației Microsoft Excel.

Datele observate au fost intruse în foaia de calcul (60 observații – C2:C61).

Introducerea acestor date reprezintă întocmirea tabelului de efective.

În cele ce urmează prezentăm etapele parcurse.

Tabelul de efective.

Datele observate se introduc în foaia de calcul pe o singură coloană pentru a facilita folosirea funcțiilor Excel în calculul. (pentru economisire de spațiu, în imaginea de mai jos datele apar pe mai multe coloane)

Tabel 7. Valoarea parametrului HGB (g/dL)

Se ordonează (crescător) – funcția SORT din meniul Data în scopul urmăririi frecvenței de apariția a fiecărei valori observate

Tabel 8. Valoarea parametrului HGB (g/dL)

Se obține repartiția de frecvență

Tabel 9. Valoarea parametrului HGB (g/dL).Repartiția de frecvență

Pe baza repartiției de frecvență se întocmește Histograma cu ajutorul funcției Chart din meniul Insert

Graficul obținut este prezentat în Figura 12 și Figura 13.

Figură 10. Histograma afișată de aplicația EXCEL

Figură 11 . Reprezentarea grafică a histogramei și a frecvențelor cumulate

Urmează calcularea parametrilor tendinței de grupare (media, mediana și modulul) și parametri tendinței de împrăștiere (varianța, deviația standard și coeficientul de variație)

Microsoft Excel permite calcularea automată a statisticilor descriptive folosind opțiunea Data Analysis din meniul Tools.

Data Analysis permite calculul Descriptive Statistics și Histogram.

În fereastra de dialog Descriptive Statistics, în zona Input, la Input Range se va introduce domeniul din foaia de calcul ce conține datele supuse analizei, se alege modul de grupare a datelor (pe linii sau coloane) și se va marca dacă domeniul ales conține sau nu etichete, iar în zona de Output, se va specifica coordonatele celulei unde vor fi afișate rezultatele precum și ce parametri să se calculează.

Iată cum apar rezultatele în urma apelării acestei analize:

Tabel 10. Rezultatele afișate de Descriptive Statistics

Față de parametri calculați explicit cu ajutorul funcțiilor statistice Descriptive Statistics oferă următoarele informații:

Standard Error – reprezintă eroarea standard a mediei. Modul de calcul al acestui parametru și ce reprezintă el va fi prezentat în capitolul Împrăștierea distribuției de eșantionare (eroarea standard a mediei)

Kurtosis – se referă la forma vârfului distribuției și are valori pozitive în cazul unei distribuții la care acesta se distinge și are valori negative pentru distribuții cu vârful aplatizat.

Skewness – se referă la simetria distribuției, Valoarea 0 indică faptul că distribuția este simetrică, o valoare negativă, indică faptul că vârful distribuției este plasat la dreapta iar o valoare pozitivă ne indică faptul că vârful distribuției este plasat la stânga.

Range – reprezintă amplitudinea și este calculată ca diferența dintre cea mai mare și cea mai mică valoare observată

Minimum și Maximum sunt valorile pentru cea mai mică și cea mai mare valoare observată, Sum – suma valorilor observate, Count, numărul de observații, iar Confidence Level(95,0%), calculează intervalul de încredere al mediei cu probabilitatea de 95%

Sum, Count, Largest și Smallest – reprezintă suma valorilor observate, numărul observațiilor, cea mai mică respectiv cea mai mare valoare observată.

Confidence Level(95,0%) – reprezintă valoarea care se adună și se scade din valoarea calculată pentru media pentru a afla intervalul de încredere în care se găsește cu probabilitatea de 95% valoarea medie a valorilor observate. Despre această valoare, precum și despre eroarea standard a mediei se va revenii în capitolul următor.

Apelarea Histogram din Data Analysis generează tabelul repartiției de frecvență pentru o listă a valorilor introdusă în zona Bin (acesta poate fi lista valorilor alese în cazul împărțirii pe grupe de frecvență).

În acest caz nu mai este necesară ordonarea valorilor observate și întocmirea repartiției de frecvență, pornind da la valoarea minimă și maximă observată, se întocmește lista valorilor pentru frecvențele grupate, iar opțiunea Histogram realizează repartiția de frecvență gripată, calculează frecvențele cumulate și relative și le reprezintă grafic. În Tabelul 11 și Figura 14 sunt prezentate rezultatele generate de Excel la apelarea Histogram din Data Analysis pentru datele din Tabelul 7.

Tabel 11. Frecvențele relative și cumulate

Reprezentarea grafică din Figura 14 conține atât histograma cât și reprezentarea grafică a frecvențelor cumulate, ambele într-un sistem de axe de coordonate având comună axa Ox și două axe Oy, cea din stânga pentru histogramă reprezentând valorile ni și cea din dreapta, valorile cumulate exprimate în procente. Graficul a fost realizat în Excel utilizând reprezentarea cu 2 axe verticale (customs, series option in office 2007).

Aplicația Microsoft Excel prin „add-in” Analyse-it®, descărcabil de pe internet de la adresa http://www.analyse-it.com, furnizează următoarele informații la alegerea opțiunii Analyses Descriptive Summary (continuous):

Referitor la informațiile ce le furnizează „add-in” Analyse-it®, acestea sunt aceleași cu cele ce le furnizează addi-in –ul Descriptice Statistics din Data Analysis . De remarcat că obținem o informație foarte importantă referitoare la testul de normalitate și anume coeficienții Anderson-Darling, Kolmogorov-Smirnov și Shapiro-Wilk. Aceste teste calculează coeficientul de normalitate și afișează probabilitatea ca eșantionul studiat să provină dintr-o distribuție normală.

De la adresa:

http://www.kevinotto.com/RSS/Software/Anderson-Darling%20Normality%20Test%20Calculator.xls, se poate descărca un program scris într-o foaie de calcul Excel ce calculează coeficientul Anderson-Darling și afișează probabilitatea asociată acestui test.

Pentru exemplu dat (datele din tabelul 6), probabilitatea ca datele observate să provină dintr-o populație cu o distribuție normală este foarte mică (p<0.05).

Rezolvarea utilizând aplicația BioStat Staistical Analysis Software

În urma introducerii datelor în foia de calcul (aceleași date ca în exemplu precedent), se alege opțiunea Descriptive Statistics din meniul Statistics, se generează o nouă foaie de calcul ce conține rezultatele prelucrării statistice.

Tabel 12. Afișarea rezultatelor opțiunea Descriptive Statistics

Semnificația datelor furnizate sunt în general cunoscute, se remarcă calcularea mediei geometrice și a celei armonice, de asemenea, LCL și UCL reprezintă limita inferioară și cea superioară a intervalului de încredere al mediei pentru nivelul de semnificație de 0,05 (probabilitatea de 95%).

Aplicația permite verificarea testului de normalitate a datelor (opțiunea Normality Test).

Pentru datele observate, testele indică faptul că nu au o distribuție normală, valorile obținute pentru p, pentru nivelul de semnificație de 0,05, resping ipoteza pentru normalitate.

Alegerea acestei opțiuni din meniul Statistics, oferă în rezumat informațiile ce interesează din punctul de vedere aș statisticii descriptive.

Rezultate și interpretarea lor este următoarea:

Rezolvarea utilizând aplicația Minitab.

În urma introducerii valorilor observate într-o coloană tabelului de lucru al aplicației Minitab și alegerii opțiunii Basic Statististics, Dispaly Descriptive Statistics din meniul Stat, în fereastra sesiunii de lucru se obțin următoarele informații:

Tabel 13. Afișarea rezultatelor – Descriptive Statistics (Minitab)

Parametri ce se doresc a fi calculați se vor alege la deschiderea ferestrei Statistics iar graficele în cadrul ferestrei Graphs.

Acestea sunt:

Figura 13. Histograma datelor observate

Figura 14. Histograma și distribuția normală

Figura 15. Diagrama BoxPlot

Figura 16. Diagrama ValuePlot

Alegerea opțiunea Graphical Summary oferă în sumar datele prezentate mai jos:

Testul de normalitate Anderson – Darling verifică dacă observațiile urmează o distribuție normală. Dacă valoarea obținută pentru p-Value este mai mică decât nivelul de semnificație, valorile observate nu au o distribuție normală.

În informațiile furnizate se găsesc cele trei intervale de încredere (calculate pentru probabilitatea de 95%) pentru: medie, mediană și deviația standard.

O diagramă de tip boxplot reflectă grafic rezumarea prin cele 5 valori a unei distribuții: valoarea minimă, prima quartilă, mediana, a treia quartilă și valoarea maximă.

Prin compararea intervalelor figurate se obține o imagine a gradului de împrăștiere a valorilor în domeniul observat.

De regulă, se marchează pe diagramă și valorile aberante: situate la mai mult de 1,5D sub prima quartilă sau peste a treia quartilă, unde D notează distanța dintre prima și a treia quartilă (intervalul interquartil) – în figura anterioară, poziția valorii aberante este distorsionată din necesități de prezentare. Uneori, între valorile aberante se face distincția celor situate la mai mult de 3D de quartilele extreme.

Prin reprezentarea simultană a celor cinci valori pentru grupuri diferite, se oferă suport pentru o comparare rapidă a grupurilor.

Rezolvarea utilizând aplicația XLSTAT2008.

Se utilizează opțiunea Describing Data. Pentru statistica descriptivă se alege Descriptive statistics (Quantitative data).

Figura 17. Fereastra Descriptive statistics

XLSTAT 2008 – Descriptive statistics –

XLSTAT 2008 – Histograms – on 21.11.2008 at 09:39:07

Figura 18.Histograma afilată de XLSTAT

Testul de normalitate

XLSTAT 2008.7.01 – Normality tests –

Significance level (%): 5

Rezolvarea utilizând aplicația cu SPSS

S-au prelucrat aceleași date (cele din Tabel 11).

Opțiunea Descriptive Statistics din meniul Analiyze permite alegerea mai multor obțiuni pentru statistica descriptivă.

Frequencies conduce la calculul mai multor parametri. Alegerea lor se face din fereastra Frequencies Statistcs

Informațiile oferite de această aplicație sunt evident aceleași pe care le dau și aplicațiile prezentate în exemplele anterioare, există avantajul oferit de posibilitatea alegerii parametrilor funcție de necesități.

STATISTICA INFERENȚIALĂ

Utilizarea tehnicilor de prezentare și descriere a datelor ne oferă, așa cum am văzut, informații asupra caracteristicilor fiecăreia dintre variabilele supuse măsurării. Statistica descriptivă se ocupă de analiza datelor sub aspectul caracteristicilor lor intrinseci (frecvența valorilor, indicatorii tendinței centrale, ai împrăștierii sau formei distribuțiilor), dar scopul ultim al metodei științifice nu se limitează la descrierea datelor ci, vizează evidențierea relațiilor dintre ele, și, pe această bază, predicția și înțelegerea fenomenelor biostatistice.

Cercetarea științifică în biostatistică constă în:

a identifica probleme;

a emite ipoteze și teorii ;

a testa validitatea lor cu ajutorul unor proceduri statistice adecvate.

Aceste proceduri fac parte din ceea ce se numește statistica inferențială.

Statistica inferențială constă în tehnicile prin care se pot deduce (infera) caracteristicile unei populații din observațiile efectuate asupra unui eșantion din acea populație. Tehnicile statisticii inferențiale sunt impuse de faptul că, în marea majoritate a cazurilor, este de interes descrierea populației și nu a eșantionului observat.

Prin inferență înțelegem, potrivit definiției de dicționar, operațiunea intelectuală prin care se trece de la un enunț la altul, acceptarea adevărului ultimului enunț bazându-se pe legătura logică cu enunțurile anterioare, acceptate ca adevărate.

Prin inferență statistică se înțelege, în sensul precizat anterior, obținerea de concluzii bazate pe o evidență statistică, adică pe informații derivate dintr-un eșantion. Concluziile sunt asupra caracteristicilor populației din care provine eșantionul.

Statistica inferențială cuprinde două laturi: estimarea parametrilor și testarea ipotezelor.

Curba normală (Gauss)

Reprezentarea grafică a rezultatelor măsurărilor reale poate lua diverse forme, curba distribuției putând fi unimodală sau multimodală, aplatizată sau înaltă, simetrică sau asimetrică.

În statistică există însă un tip special de distribuție, numită „distribuție normală”, care corespunde reprezentării grafice a unei caracteristici pentru care există un mare număr de măsurări, tinzând spre infinit. Acest tip de distribuție este numită „teoretică” pentru că nu este rezultatul unui proces real de măsurare ci reprezintă un model teoretic. Conceptul de „curbă normală” (expresia grafică a „distribuției normale”) se referă la acest tip de distribuție teoretică și are câteva proprietăți caracteristice:

Are formă de „clopot”. Cea mai mare parte a valorilor se concentrează în zona centrală (medie)

Este perfect simetrică pe ambele laturi ale sale

Linia curbei se apropie la infinit de axa X, fără a o atinge vreodată

În conformitate cu proprietatea 2, de fiecare parte a mediei se află exact jumătate dintre valorile distribuției

Curba normală reprezintă grafic densitatea de probabilitate a repartiției normale. Pentru repartiția normală standard se obține imaginea următoare, mai cunoscută sub denumirea de clopotul lui Gauss.

Figura 19. Distribuția normală pentru diferite valori ale mediei și dispersiei

Valoare 0 pentru medie și 1 pentru deviație standard dă distribuția normală standard.

Expresia analitică, în cazul unei repartiții normale cu parametri m și s, este:

X=N(μ,σ);

Variabila aleatoare X este distribuită normal standard dacă are media μ =0 și deviația standard σ=1 și are o distribuție normală (X=N(0,1)).

O variabilă aleatoare X, normal distribuită, cu parametrii μ și σ2 poate fi transformată într-o variabilă aleatoare Y distribuită normal standard după următoarea formulă:

X=N(μ,σ) →Y=N(0,1)

Pentru =0 și =1 se obține expresia analitică a funcției normale standard, reprezentată în figura 22.

Aproximativ 68% dintre valori se găsesc în intervalul de până la o deviație standard față de medie.

Aproximativ 95% dintre valori se găsesc în intervalul de până la 2 deviații standard față de medie.

Aproximativ 99,7% dintre valori se găsesc în intervalul de până la 3 deviații standard față de medie.

Figura 20. Distribuția normală. Concentrarea valorilor

Aria de sub curba normală văzută ca probabilitate

Valorile reprezentate pe curba normală nu reprezintă valori reale, rezultate în urma unui proces de măsurare, ele reprezintă valori ipotetice, distribuite astfel pe baza unui model matematic (legea numerelor mari). Nimic nu ne împiedică să considerăm că valorile de sub curba normală sunt rezultatul unei ipotetice extrageri aleatoare. Pe măsură ce „extragem” mai multe valori, curba de distribuție a acestora ia o formă care se apropie de forma curbei normale. Extrăgând „la infinit” valori aleatoare, vom obține o distribuție normală perfectă, exprimabilă printr-o curbă normală perfectă.

Din cele spuse mai sus, rezultă faptul că valorile din zona centrală a curbei sunt mai „frecvente” (mai multe), pentru ca apariția lor la o extragere aleatoare este mai „probabilă”. În același timp, valorile „mai puțin probabile”, apar mai rar, și populează zone din ce în ce mai extreme ale distribuției (curbei).

Probabilitatea înseamnă „frecvența relativă a apariției unui eveniment”. Subiectiv, se traduce prin „cât de siguri putem fi că acel eveniment apare”.

Dacă probabilitatea reprezintă raportul dintre evenimentul favorabil și toate evenimentele posibile, atunci valoarea ei variază între 0 și 1. Ea poate fi exprimată și în procente. De exemplu, probabilitatea de 0.05 corespunde unui procentaj de apariție de 5%

Utilizând simbolul p (de la „probabilitate”), spunem că dacă p<0.05 înseamnă că evenimentul are mai puțin de 5% șanse să apară, în condițiile unei distribuții corespunzătoare curbei normale. Procentajul ariilor de sub curba normală poate fi citit, deci, și ca probabilitatea a distribuției.

Distribuția mediei de eșantionare

Atunci când constituim un eșantion de studiu, nu facem decât să utilizăm doar unul dintre eșantioanele posibil a fi selecționate (alese, constituite, extrase) din populația cercetării. Dacă am selecta mai multe eșantioane din aceeași populație, fiecare dintre ele ar fi caracterizat prin indicatori sintetici specifici, vor avea, fiecare, media și abaterea lor standard. Imaginea de mai jos sugerează situația descrisă:

Figura 21. Populație eșantion

Dacă fiecare dintre cele patru eșantioane de valori are propria sa medie, atunci distribuția mediilor tuturor eșantioanelor extrase se numește distribuția mediei de eșantionare sau, mai scurt, distribuția de eșantionare. La rândul ei, distribuția mediilor are și ea o medie, numită medie de eșantionare, și care se calculează, evident, după următoarea formulă:

unde:

μ este media populației,

mi sunt mediile fiecărui eșantion constituit,

k este numărul eșantioanelor.

Dacă am extrage toate eșantioanele posibile dintr-o populație, atunci media de eșantionare este identică cu media populației. Pentru exemplificare, să presupunem că avem o „populație” constituită din valorile 1,2,3,4 și să ne propunem constituirea tuturor eșantioanelor posibile de câte 3 valori. Tabelul 14 ilustrează această situație:

Tabel 14. Distribuția mediei de eșantionare

Așa cum se observă, dacă extragem toate eșantioanele posibile (în acest caz 4) dintr-o populație de valori, atunci media mediilor eșantioanelor extrase (denumită medie de eșantionare) este identică cu media populației (în cazul dat: m=μ=2.5). Datele din tabel ne mai arată și faptul că media fiecărui eșantion variază în jurul mediei de eșantionare, de aceea ele pot fi considerate o estimare a acesteia din urmă, în ciuda impreciziei pe care o conține fiecare. Această imprecizie se numește eroare de estimare. Desigur, exemplul are o valoare de ilustrare teoretică deoarece, în practică, niciodată nu se ajunge la selectarea tuturor eșantioanelor posibile dintr-o anumită populație de valori.

Media de selecție este distribuită normal N(m,s) dacă populația este distribuită normal N(μ,σ).

Media de selecție este distribuită normal N(m,s) dacă populația nu este distribuită normal dar dimensiunea eșantionului este n>30 (din teorema limită centrală).

Figura 22. Distribuția mediei de selecție

Împrăștierea distribuției de eșantionare (eroarea standard a mediei)

Primul caz pe care-l abordam este cel al unei populații de numere distribuite normal, cu media m și varianta s2 (ambele presupuse cunoscute). Valorile posibile x pot fi considerate ca fiind valorile unei variabile aleatoare normale N(m, s2 ) .

Pentru fiecare eșantion de volum n, din care obținem valorile x1 , x2 ,…, xn , sa calculam media de eșantion n

Eșantioanele extrase vor „produce” astfel o populație a acestor medii de eșantion, vând o anumita distribuție.

Sa notam cu M variabila aleatoare asociată distribuției mediilor de eșantion.

Pot fi demonstrate o serie de rezultate interesante, dintre care menționam:

media variabilei M (cu alte cuvinte, media distribuției eșantioanelor de volum n) coincide cu media m a populației din care extragem eșantioanele:

E(M) = m;

varianta variabilei M este legata de varianța s2 a populației din care extragem eșantioanele prin relația:

Var(M) = s2.

Deviația standard a variabilei M, cunoscuta și sub numele de eroarea standard a mediei, este definita prin:

Rezultatul fundamental teoretic, aplicabil în aceasta situație, este cunoscut sub numele de teorema limita centrala:

Figura 23. Distribuția mediei de selecție funcție de volumul eșantionului

Daca se extrag eșantioane de volum n dintr-o populație, atunci pentru valori „mari” ale lui n mediile de eșantion sunt distribuite (aproximativ) normal.

În caz ca X are o distribuție normală N(,2 ) , atunci M are o distribuție normală N().

Iar dacă variabila aleatoare X este distribuita aproximativ normal, atunci M va fi distribuita normal chiar și pentru valori „mici” ale lui n.

Așadar, ca o consecință a teoremei limita centrala, putem accepta ca M este (aproximativ) normală.

Ceea ce știm despre distribuțiile normale ne îndreptățește să afirmăm că 99.5% dintre mediile de eșantion m se vor afla între limitele:

și

Sa atragem atenția asupra faptului ca teorema limita centrala este obținută în ipoteza ca sunt cunoscuți parametri m și s2 ai populației originare. Aceasta ipoteză nu corespunde realității. Totuși, nimic nu ne împiedică, cu riscul de rigoare, sa estimăm pe parametri m si/sau pe s pe baza datelor pe care le obținem dintr-un eșantion particular, anume prin media de eșantion m și respectiv prin abaterea standard de eșantion s.

Inversând raționamentul anterior, putem concluziona ca avem șanse 99.5% ca „adevărata” medie m a populației originare sa se afle între limitele

și

Am folosit de câteva ori cuvântul „parametru”. De fapt, prin parametru al unei populații înțelegem un număr ce descrie, într-un anumit sens, populația.

Acest termen este contrapus celui de statistică, prin intermediul căruia descriem populația printr-un număr calculat pe baza datelor provenite dintr-un eșantion.

Raportul parametru-statistică este de aceeași natură cu raportul probabilitate frecvență relativă în legătură cu un eveniment.

Putem afirma așadar ca „parametrul unei populații este estimat printr-o statistică”, la fel cum afirmam ca „probabilitatea unui eveniment este estimată printr-o frecvență relativă”.

În cele de mai sus, am estimat parametrul mai întâi prin m, apoi prin intervalul:

Estimarea unui parametru poate fi făcuta fie printr-un număr (estimare „punctuală”), fie printr-un interval. Este destul de larg răspândita astăzi practica estimării prin intervale de încredere.

Cazul cel mai simplu este cel al unei populații (cu alte cuvinte, variabile aleatoare) X care are media m necunoscuta, iar varianta s2 cunoscuta. Parametrul în acest caz este m. Luând un eșantion de volum n, știm ca media de eșantion m este distribuita aproximativ normal, cu media m și varianta n s2 . (Sa ne amintim că dacă populația nu este distribuită normal, atunci o aproximare bună impune un volum n mare.)

Șansele ca media m sa fie încadrata de limitele și sunt de 95%. Figura de mai jos ne ajuta sa facem legătura între coeficientul de încredere (aici 95%) și aria cuprinsă sub graficul densității de probabilitate, între limite. Suntem 95% siguri că parametrul m se afla undeva între limite. De aceea, se spune despre intervalul ca este intervalul de încredere 95% pentru parametrul m.

De obicei „coeficientul de încredere” se alege 95%. dacă am fi ales un coeficient de încredere de doar 90%, atunci intervalul de încredere 90% s-ar fi micșorat la

Dimpotrivă, un coeficient de încredere de 99% ne-ar fi condus la un interval de încredere mult mai larg. Mărirea coeficientului de încredere are ca rezultat o „diluare a preciziei” identificării parametrului.

Figura 24. Curba normală și intervalele de încredere

Trebuie sa atragem atenția asupra unei greșeli logice pe care o facem „din instinct”, atunci când afirmam că „suntem 95% siguri ca parametrul m se afla undeva în intervalul de încredere 95%”. Da fapt, ceea ce știm este că pe baza a 95% dintre eșantioanele posibile vom reuși să cream intervale ce vor conține parametrul m, iar intervalele pe care le vom crea pe baza celorlalte eșantioane nu vor conține pe m. Cu alte cuvinte, 95% dintre eșantioane vor produce estimări corecte, iar 5% vor produce estimări greșite (adică 5% este riscul de a greși bazându-ne estimarea lui m pe un eșantion).

Distribuția de eșantionare nu are aceeași împrăștiere ca și a distribuția valorilor variabilei de origine. Aceasta pentru că, la nivelul fiecărui eșantion o parte din împrăștierea totală este „absorbită” de media fiecărui eșantion în parte. Cu cât eșantioanele sunt mai mari, cu atât media fiecărui eșantion tinde să fie mai apropiată de media variabilei originale și, implicit, abaterea standard a distribuției de eșantionare este mai mică prin comparație cu abaterea standard a variabilei.

Exemplu: Să considerăm populația valorilor 1,2,3,4,5,6,7,8,9,10, pentru care am calculat =5.5 și =3,0276. Am extras, cu ajutorul unui program statistic, cinci eșantioane aleatoare (pentru ușurința calculelor, am ales pentru fiecare eșantion N=3). Iată cum se prezintă mediile și abaterile standard pentru cele cinci eșantioane selectate:

În acest exemplu, cele cinci eșantioane nu sunt toate ci doar o parte din eșantioanele posibile de 3 valori extrase din populația cercetată. Media distribuției de eșantionare:

În ceea ce privește împrăștierea distribuției de eșantionare, aceasta este, așa cum am spus, mai mică decât împrăștierea variabilei la nivelul întregii populații, deoarece o parte a împrăștierii generale se concentrează, și se „pierde”, în media fiecărui eșantion extras. Ca urmare, abaterea standard a distribuției de eșantionare este o fracțiune din abaterea standard a populației, fiind dependentă de mărimea eșantionului. Mai precis, fără a intra în detalii explicative, abaterea standard a distribuției de eșantionare este egală cu din abaterea standard a populației, unde N este volumul eșantionului.

Deoarece împrăștierea mediei de eșantionare arată cât de mult se abat aceste medii de la media populației, abaterea standard a mediei de eșantionare este denumită eroare standard a mediei și se calculează cu formula:

unde este eroarea standard a mediei de eșantionare, este abaterea standard a populației iar N este volumul eșantionului.

Figura 27 sugerează foarte bine modul în care, prin creșterea volumului eșantionului, media eșantionului se apropie tot mai mult de media populației, cu alte cuvinte, comportă o eroare din ce în ce în mai mică față de aceasta.

Expresia de „eroare standard a mediei” poate fi mai greu de înțeles, dat fiind faptul că este folosită pentru a defini un indicator al împrăștierii, în timp ce are în compunere cuvântul „medie”. Trebuie însă să reținem faptul că acest indicator măsoară cât de departe poate fi media unui eșantion de media populației din care a fost extras. Altfel spus, câtă „eroare” poate conține media unui eșantion în estimarea mediei populației. Având în vederea faptul că la numitor avem o expresie bazată pe N (volumul eșantionului), este limpede de ce, cu cât eșantionul este mai mare cu atât eroarea standard a mediei este mai mică.

Teorema limitei centrale

În exemplele date anterior, eșantioanele de valori extrase din populație sunt foarte mici. Dacă se lucrează cu populații mici, nu este necesar să se facă studii pe baze de eșantion ci se poate investiga, fără dificultate, întreaga populație. În realitate populațiile care fac obiectul de interes al cercetărilor din medicină sunt prea mari pentru a fi accesibile în întregimea lor. Și chiar dacă ar fi accesibile, ar fi prea costisitor să fie investigate integral.

În acest caz se pune problema măsurii în care putem estima caracteristicile statistice ale distribuției populației (media, abaterea standard) pe baza acelorași indicatori calculați doar la nivelul unui anumit eșantion, selectat pentru studiu, cu alte cuvinte, cât de mare sau cât de mic trebuie să fie eșantionul, astfel încât caracteristicile estimate pentru populație, pornind de la cele calculate pentru eșantion, să fie corecte.

Soluția acestei probleme rezidă în teorema limitei centrale care certifică două adevăruri statistice fundamentale:

Cu cât numărul eșantioanelor realizate dintr-o populație (tinzând spre infinit) este mai mare, cu atât media distribuției de eșantionare se apropie de media populației.

Distribuția mediei de eșantionare se supune legilor curbei normale, chiar și atunci când distribuția variabilei la nivelul întregii populații nu are un caracter normal, cu condiția ca volumul eșantioanelor să fie „suficient de mare”. Cu alte cuvinte, distribuția mediei de eșantionare se apropie de distribuția normală, cu atât mai mult cu cât volumul eșantionului este mai mare.

Utilitatea teoremei limitei centrale constă în faptul că ea permite fundamentarea inferențelor statistice fără a ne preocupa prea mult de forma distribuției variabilei la nivelul populației. Este de ajuns să utilizăm un eșantion „suficient de mare” pentru a ne putea asuma presupunerea unei distribuții normale la nivelul mediei de eșantionare.

Întrebarea care se pune este, însă, cât de mare trebuie să fie un eșantion pentru a putea fi considerat „suficient de mare”? Fără a intra în amănunte, vom spune că, dacă eșantionul de referință cuprinde cel puțin 30 de observații, teoria statistică acceptă că avem o distribuție normală a mediei de eșantionare. Acest număr (30), care nu are nimic magic în el, este utilizat de obicei pentru constituirea eșantioanelor minime de cercetare. Pe această bază orice eșantion având cel puțin 30 de valori este considerat „eșantion mare” în timp ce orice eșantion cu mai puțin de 30 de valori este considerat „eșantion mic”.

În concluzie, distribuția mediei de eșantionare are o evoluție diferită de distribuția valorilor individuale ale unei caracteristici. Chiar și atunci când acestea din urmă nu se distribuie după regulile curbei normale, mediile eșantioanelor tind spre o distribuției normală dacă volumul lor este suficient de mare.

Mărimea eșantionului trebuie să fie de cel puțin 30 de valori, pentru a avea încredere că teorema limitei centrale se verifică. Dar chiar și eșantioane de volum mai mic pot avea medii ce se plasează pe o distribuție normală, dacă provin din populații normale. Din păcate, forma distribuției la nivelul populației nu este aproape nici o data cunoscută. În acest caz singurul lucru pe care îl putem face este să utilizăm, ori de câte ori ne putem permite, „eșantioane mari”, adică de cel puțin 30 de valori, și chiar mai mari, dacă acest lucru este posibil. Cu toate acestea, așa cum vom vedea mai departe, există soluții statistice și pentru eșantioane mai mici de 30 de valori.

Estimarea parametrilor

Estimarea reprezintă procesul utilizării informațiilor obținute de la un eșantion ales la întâmplare în scopul obținerii de concluzii referitoare la valori ale parametrilor ce caracterizează populația.

Necesitatea estimării

Din rațiuni economice și de logistică, pentru urmărirea de exemplu a unui anumit efect (terapeutic) nu se poate lua în studiu o întreagă populație. În schimb, se poate realiza un studiu pe un eșantion ales la întâmplare, pe o perioada determinata de timp.

Caracteristicile unor estimări corecte

O estimare corectă trebuie să respecte anumite caracteristici:

Absența erorilor sistematice.

Variabilitatea cât mai mică între eșantioane (varianță minimă).

Se numește estimator, orice entitate a cărei valoare poate fi utilizată drept valoare (de regulă aproximativă) pentru o altă entitate. Valoarea estimatorului se zice că este o estimație.

Valoarea care aproximează, pe baza datelor de sondaj, valoarea necunoscută a unui parametru al populației poartă denumirea de estimație statistică. Astfel, media aritmetică este estimator pentru media populației μ, abaterea standard s este estimator pentru abaterea standard a populației σ etc.

După natura lor, în statistică se utilizează două tipuri de estimații:

• punctuale

• sub formă de interval.

Printr-o estimație punctuală se înțelege valoarea unui estimator calculată într-un eșantion. Numim eroare de estimare valoarea absolută a diferenței dintre estimația punctuală și valoarea parametrului estimat.

Intervale de încredere și limite de încredere

Uneori, în locul unei estimări punctuale simple, cercetătorii doresc să determine variabilitatea pe care estimarea ar avea-o în cazul altor eșantioane. O deficiență a estimatorilor este aceea ca ele nu au o probabilitate asociată care să indice cât de corectă este valoarea lor. Putem asocia o probabilitate la estimarea unui interval.

Intervalele estimate sunt numite intervale de încredere; ele definesc o limită superioară și o limită inferioară, la o probabilitate asociata. Extremitățile intervalului de încredere sunt numite limite de încredere.

Intervale de încredere se pot stabili pentru orice parametru (pentru medie, proporție, risc relativ, odds ratio și corelație, dar și pentru diferența dintre doua medii, doua proporții…). Intervalele de încredere sunt din ce în ce mai utilizate în literatura medicală.

Fie o populație statistică, caracterizată de o variabilă aleatoare continuă X a cărei repartiție depinde de un parametru δ, necunoscut. Prin definiție, dacă se pot determina δ1 și δ2 astfel încât pentru o valoare α prestabilită (0 < α < 1) să aibă loc P(δ1 <δ <δ 2 ) =1−α , atunci intervalul (δ1, δ2) se numește interval de încredere pentru parametrul necunoscut δ, cu un coeficient (sau nivel) de încredere egal cu α, sau cu o siguranță statistică Sα = 1–α.

Dacă atât δ1 cât și δ2 sunt finite, atunci intervalul de încredere se zice bilateral.

În cazul când δ1 este -∞, sau δ2 este +∞, ceea ce revine în fapt la determinarea unei singure limite, intervalul se zice unilateral.

Estimarea intervalului de încredere pentru media populației

Parametri calculați pentru o colectivitate de selecție pot fi generalizați la întreaga colectivitate în anumite condiții. Această generalizare se referă, în particular, la estimarea parametrilor necunoscuți ai colectivității inițiale (generale). Determinând un anumit parametru, ne propunem să obținem o mărime, care într-o măsură oarecare să fie cât mai apropiată de valoarea reală a parametrului necunoscut. în caz contrar căutăm niște limite în interiorul cărora, cu o anumită probabilitate, putem afirma că se află mărimea reală a parametrului necunoscut. în acest caz avem de-a face cu un interval de încredere (intervalul de confidență sau în engleză confidence interval – CI) pentru parametrul necunoscut.

Determinarea cu o anumită probabilitate a intervalului de încredere este una dintre consecințele practice ale teoremei limitei centrale. Cu alte cuvinte, putem afla, cu o anumită probabilitate, care este intervalul în care se află media populației, cunoscând doar media unui eșantion extras din aceasta.

Acest lucru se bazează pe proprietatea curbei normale de a avea un număr bine definit de valori pe un interval simetric în jurul mediei. Astfel, dacă luăm pe curba normală un interval cuprins între z=1.96 în jurul mediei, știm că acoperim aproximativ 95% din valorile posibile ale distribuției. În acest caz, z=1.96 se numește z critic deoarece reprezintă un prag limită, de o parte și de alta a mediei (care, pentru curba normală standardizată, este 0).

Alegerea acestor limite pentru zcritic se bazează, în esență, pe un criteriu subiectiv. Se pot alege, la fel de bine, valori simetrice ale lui z care să cuprindă între ele 99% sau 99.9% dintre valorile de pe curba normală. Prin consens, însă, se consideră că asumarea unui nivel de încredere de 95% (corespunzător pentru valori „critice” ale lui z=1.96) este considerat suficient pentru păstrarea unui echilibru între precizia estimării și probabilitatea estimării. Ca urmare, în această condiție, putem spune că există 95% șanse ca, având media unui eșantion aleator, media populației să se afle undeva în intervalul:

Utilizând formula de mai sus pentru un eșantion cu media 5 și eroarea standard a mediei de 1,73, limitele de încredere ale mediei pot fi calculate astfel:

Cu alte cuvinte, putem afirma, cu o probabilitate de 95%, că media populației, estimată prin media eșantionului cercetării, se află între 1.60 și 8.39. Desigur, cu cât limitele intervalului de estimare sunt mai apropiate de media eșantionului, cu atât aceasta din urmă estimează mai precis media populației și prezintă mai multă încredere. În cazul nostru, putem să observăm un interval de încredere destul de mare, dar acesta se explică prin volumul redus al eșantionului, care produce o eroare standard a mediei mare (prin faptul că N se află la numitorul formulei erorii standard a mediei, și produce rezultate mari ale raportului pentru eșantioane de volume mici).

Estimarea mediei

Considerăm că intervalul ( x − ∂, x + ∂ ) acoperă parametrul media m cu o probabilitate dată p.

Probabilitatea ca media să se găsească în intervalul menționat o notăm:

p(x − ∂ < m < x + ∂) =1−

1- se numește nivelul de încredere, iar – prag de semnificație sau risc

Pentru nivelul simetric sau bilateral =12, riscul se împarte simetric.

În caz general putem avea un risc stânga 1 respectiv dreapta 2 cu suma egal . În concluzie riscul poate fi plasat simetric sau asimetric față de media dorită spre a fi estimată.

În biologie se utilizează următoarele praguri de semnificație sau riscuri: 0,05, 0,01 și 0,001, ele corespund nivelurilor de semnificație: 0,95, 0,99 și 0,999 respectiv probabilităților de 95%, 99% și 99,9%.

Intervale de încredere pentru valoarea medie

Fie o populație statistică caracterizată de o variabilă aleatoare X repartizată normal, cu parametri μ și σ2. Presupunem că s-au obținut, dintr-un eșantion de volum n, media de sondaj x și dispersia de sondaj s2. Fixăm pragul de semnificație α.

Dacă dispersia, σ2 este cunoscută, intervalul de încredere pentru media populației:

Dacă dispersia, σ2, nu este cunoscută:

Determinarea intervalului de încredere, abordarea practică

Intervalul de încredere al mediei populației estimează intervalul care include media necunoscută a unei populații cu un anumit nivel de încredere. Când pragul de semnificație este 0,05, atunci vom avea un interval de încredere de 95%.

Etapele ce trebuie parcurse în vederea determinării intervalului de încredere sunt:

Stabilirea eșantionului

Determinarea volumului eșantionului (n)

Determinarea mediei eșantionului ()

Determinarea dispersiei eșantionului (sm)

Determinarea erorii standard a mediei ( )

Determinarea argumentului z

Determinarea intervalului de încredere

În abordarea practică a intervalului de încredere se disting următoarele cazuri:

Intervalul de încredere al mediei când se cunoaște dispersia populației (2)

Intervalul de încredere al mediei când nu se cunoaște dispersia populației

Intervalul de încredere al mediei când se cunoaște dispersia populației (2)

n – volumul selecției extrase

– media selecției extrase

2 – dispersia populației

u=1,96 =0,05 sau =5%

u=2,58 =0,01 sau =1%

u=3,29 =0,001 sau =0,1%

Valorile u se citesc din tabelul cu distribuția "t" la nivelul de încredere și n>120.

Intervalul de încredere al mediei când nu se cunoaște dispersia populației

În acest caz apar două situații:

Eșantionul extras din populație are un volum n>120.

Intervalul de încredere este:

Unde s este abaterea standard (deviația standard) a eșantionului

Eșantionul extras din populație are un volum n<120.

Intervalul de încredere este:

Unde s este abaterea standard (deviația standard) a eșantionului, iar t,n-1 se citește din tabelul cu distribuția "t" la nivelul de încredere și n-1 grade de libertate.

Propunem spre rezolvare următoarea problemă:

Pentru un lot format din 50 de vaci din rasa Bălțata româneasca s-au obținut următoarele valori pentru producția de lapte:

Considerând ca acest caracter are o repartiție normala, sa se estimeze cu probabilitatea de 95%, 99% și 99,9% intervalul de încredere al parametrului "producția medie zilnica de lapte" la vacile din aceasta rasa.

Cu aceste date ne încadrăm în cazul II (Intervalul de încredere al mediei când nu se cunoaște dispersia) pentru situația n<120.

Parcurgând etapele prezentate la începutul acestui capitol, pentru aceste date este necesar să se calculeze:

Media eșantionului

Eroarea standard a mediei

Determinarea valorii z pentru nivelul de încredere de 95%, 99% respectiv 99,9%.

Calculul efectiv a limitelor intervalelor de încredere

Într-o foaie de calcul Excel aceste calcule sunt:

In coloanele I și J, rândul 12,13 respectiv 14 se găsesc limitele intervalelor de încredere pentru cele 3 nivele de încredere.

Exprimarea corectă este următoarea:

Cu probabilitatea de 95%, intervalul de încrede încredere al parametrului "producția medie zilnica de lapte" la vacile din rasa Bălțată româneasca este cuprins între 15,08 și 19,91.

Cu probabilitatea de 99%, intervalul de încrede încredere al parametrului "producția medie zilnica de lapte" la vacile din rasa Bălțată româneasca este cuprins între 14,27 și 20,72

Cu probabilitatea de 99,9%, intervalul de încrede încredere al parametrului "producția medie zilnica de lapte" la vacile din rasa Bălțata româneasca este cuprins între 13,25 și 21,741.

Interpretarea intervalului de încredere

Intervalul de încredere al mediei estimează intervalul care include producția medie zilnică de lapte necunoscută a populației de vaci din rasa Bălțata româneasca cu un anumit nivel de încredere.  Când este 0,05, atunci vom avea un interval de încredere de 95%. în cazul nostru intervalul de încredere pentru producția medie zilnica de lapte este [15,08;19,91].

Putem afirma că producția medie zilnica de lapte a populației de vaci din rasa Bălțata româneasca se găsește în intervalul [15,08;19,91] cu o eroare de 0,05.

Fără a parcurge toate aceste calcule, MicrosoftExcel oferă în opțiunea Descriptive Statistics din Data Analysis din meniul Tools, calcului intervalului de încredere pentru diferite nivele de încrede precizate în caseta text Confidence Level for Mean.

Rezultatele afișate în urma alegerii butonului OK, sunt afișate în figura de mai sus.

Citim Confidence Level (95,0%)=2,41.

Această valoare scăzută și adăugată la valoarea medie (Mean=17,5) conduce la determinarea intervalului de încredere pentru nivelul de încredere de 95%.

Celelalte intervale de încredere pentru nivelele de 99% și 99.9% se pot calcula similar, introducând în caseta text Confidence Level for Mean din fereastra Descriptive Statistics valorile 99 sau 99,9.

Determinarea volumului n al eșantionului

Mărimea selecției (probei) necesară estimării mediei unei populații repartizate normal se poate determina pornind de la relația ce definește intervalul de încredere:

Ceea ce ne propunem este determinarea lui n astfel încât intervalul pentru estimarea mediei populației să fie egal cu 2

Valoarea lui n se determină în două etape:

Se calculează n pentru cu un z determinat pentru pragul de semnificație de 0,05 și n>120, adică z=1,96.

Funcție de valoarea lui n obținută la punctul I, care se rotunjește în sus la întreg, se determină z pentru pragul de 0,05 care se înlocuiește în formulă, obținându-se astfel mărimea eșantionului necesară.

Propunem spre rezolvare următoarea problemă:

Să se afle numărul de observații ce trebuie efectuate pentru a estima cu o precizie de 10 litri valoarea producției medii de lapte la vacile din rasa Bălțata românească dacă se știe că acest caracter are o repartiție normală iar deviația standard la nivelul populației este de 42 litri. Estimarea se cere să fie asigurată cu probabilitatea 1-= 0.95.

Pentru a putea estima valoarea producției medii de lapte la vacile din rasa Bălțată românească cu probabilitatea de 95% și cu precizia de 10 litri, sunt necesare minim 71 de observații. Evident că dacă se cere determinarea cu o probabilitate mai mare, de exemplu de 99 sau 99,9%, sunt necesare mult mai multe observații.

Ipoteze, teste de semnificație și decizii statistice

Cunoașterea umană se îmbunătățește continuu, cercetătorii științifici dobândesc cu fiecare zi ce trece noi cunoștințe. Care le sunt metodele?

Atunci când apare un fenomen nou, oamenii raționali încearcă sa-i detecteze cauzele, și avansează diverse ipoteze care li se par plauzibile. Ulterior, în urma observării altor apariții ale fenomenului, unor ipoteze le crește, altora le scade veridicitatea, fiind posibil chiar să se renunțe la ele; într-un cuvânt, plauzibilitatea fiecărei ipoteze „explicative” este reevaluată.

Formularea de noi ipoteze (sau modele sau teorii) este una dintre cele mai importante aspecte ale cercetării științifice. Aceste ipoteze, în mod experimental încercă să descrie sau să explice anumite fenomene reale. În multe cazuri există ipoteze anterioare (descrieri sau explicații) pe care oamenii de știință doresc să le înlocuiască cu altele noi. Este însă insuficient să se formuleze sau să fie prezentată numai o nouă ipoteză. O ipoteză nouă trebuie testată pentru a vedea că are temei (în concordanță cu observațiile), și pentru a justifica că este “mai bună” decât alte ipoteze alternative.  Aceasta conduce la scheme de experimente, eșantioane și observații în scopul obținerii unor dovezi pentru susținerea (sau respingerea) acelei ipoteze.

Testarea statistică de semnificație este o metodă de stabilire a gradului de plauzibilitate. Particularitatea testării statistice de semnificație constă în faptul că se referă la un anumit tip special de ipoteze, cunoscute sub numele de ipoteze statistice.

O ipoteza statistică este o prezumție privind parametri populației.
Ca și în cazul termenului probabilitate, termenul ipoteză are un înțeles mult mai precis în statistică decât în utilizarea lui de zi cu zi .

Efectuarea unui test de semnificație (cunoscută și sub numele de testarea ipotezelor) este o metodă folosită pentru a testa o presupunere, în care credem, despre o întreagă populație, prin folosirea datelor obținute dintr-un eșantion. În general, rezultatul unui test de semnificație este exprimat printr-un număr. Acest număr reflectă cât de plauzibilă este ideea ca valoarea unei anumite statistici descriptive – care este calculată din datele obținute din acel eșantion – ar putea proveni dintr-un eșantion aleator. O ipoteza științifica este înlocuită printr-o ipoteză statistică, exprimată prin intermediul parametrului acelei populații (cum ar fi proporția, media etc.). Valoarea parametrului este estimată prin exploatarea datelor obținute dintr-un eșantion extras din populație, apoi este comparată cu o valoare „așteptată”. Discrepanța dintre cele două va influența „credința” noastră în validitatea ipotezei științifice.

Ca și în cazul estimării și al limitelor de încredere, scopul testării ipotezei este acela de a permite generalizări la nivelul populației pornind de la eșantionul luat în studiu. Atât estimarea cât și testarea statistică fac anumite presupuneri privind populația și apoi utilizează probabilități pentru a estima veridicitatea rezultatelor obținute în cazul eșantionului, prin extrapolare pe populația generala. Ambele metode presupun ca eșantionul a fost corect selecționat.

Ipoteza statistică asociată ipotezei științifice este bazată, astfel, pe un eșantion „mic” extras dintr-o populație finită (posibil „mare”). O primă eroare ce poate fi făcută își are originea în identificarea ipotezei științifice cu cea statistică asociată. Totuși, atunci când folosim metodele statisticii, identificăm de fapt aceste două ipoteze și încercăm să evaluăm riscul erorilor pe care le-am putea face.

Despre medici se poate spune că destul de rar sunt „cercetători”; din contra, cea mai mare parte a activității lor constă în luarea de decizii. De regulă, oamenii care iau decizii (agenții decizionali) le iau bazându-se pe informații parțiale, limitate. Un om rațional încearcă sa minimizeze costul deciziilor greșite. Abordarea sa, atunci când este confruntat cu alegerea între doua ipoteze aflate în competiție, este clară: va alege una, iar decizia de alegere va fi luată pe baza informațiilor obținute anterior din eșantioane.

Descrierea, oricât de exactă, a variabilelor statistice ne spune foarte puțin cu privire la semnificația lor reală și, cu atât mai puțin, cu privire la relația dintre ele. De aceea, obiectivul fundamental al cercetării în medicină este acela de a pune în evidență relații între procese și fenomene, adică între variabilele statistice sub care se prezintă în urma măsurării. În principal avem în vedere două tipuri de relații:

Relația de asociere, atunci când două (sau mai multe variabile) variază simultan, fără a putea afirma care dintre ele o influențează pe cealaltă (celelalte). Asocierea (variația concomitentă) a variabilelor este concluzionată în studiile numite „corelaționale”, în care variabilele sunt măsurate concomitent, în afară unui context experimental.

Relația de cauzalitate, atunci când modificarea unei variabile determină modificarea celeilalte (celorlalte) variabile aflate în studiu. Existența unei relații de acest tip poate fi concluzionată numai dacă valorile supuse prelucrării statistice provin din experimente medicale, care controlează efectul unei variabile asupra alteia.

Analiza statistică permite posibilitatea estimării unei relații între variabile. Verificarea acestei estimări se numește „testarea ipotezei” iar rezultatul acestei proceduri este unul de natură probabilistică, comportând, în toate cazurile, un anumit grad de incertitudine (eroare).

Decizia statistică reprezintă un raționament prin care ipoteza statistică este declarată ca fiind confirmată sau infirmată de datele cercetării, calculate pe un eșantion.

Ipoteza cercetării și ipoteza statistică („de nul”)

Fie X o caracteristică a unei populații. În legătură cu această caracteristică se pot face diferite presupuneri, fie legate de natura repartiției sale, fie legate de indicatorii săi, care vor trebui verificate pe baza selecției ce va fi extrasă din populație.

Orice presupunere sau afirmație asupra felului repartiției teoretice a lui X sau asupra parametrilor săi necunoscuți, ce urmează a fi verificată, se numește ipoteză statistică.

Scopul ipotezelor statistice este de a ajuta în luarea deciziilor referitoare la populație pornind de la eșantioane extrase din populație, eșantioane asupra cărora se fac observații și calcule asupra repartiției și indicatorilor acestora.

Se emit două ipoteze statistice referitoare la același parametru. Una din ele se numește ipoteza nulă, iar celelalte ipoteze alternative.

Ipoteza nulă este ipoteza ce va fi verificată. Ea se notează cu H0

Ipoteza alternativă este simbolizată prin HA, ipoteza alternativă neagă întotdeauna ipoteza adevărată.

În momentul emiterii unei ipoteze va apărea o relație, de obicei de egalitate sau nu (, , sau ) între intre indicatorul cercetat și presupunerea noastră.

Exemplu:

“media populației să fie egală cu 50”

vom scrie:

H0 : = 50

iar alternativa este:

HA : 50

„media populației să fie mai mare de 50”

H0 : 50

HA : < 50

„media populației să fie mai mică de 50”

H0 : 50

HA : > 50

O ipoteză emisă trebuie verificată. Decizia se formulează în termenii: ipoteza se acceptă sau ipoteza se respinge.

Verificarea ipotezelor statistice se face cu ajutorul unui grup de reguli numite teste statistice.

Testele statistice constau în calcule pe baza formulelor, calcule care se fac pe baza datelor observate asupra eșantionului extras din populație.

Formula generală pentru un test statistic este:

Exemplu:

reprezintă testul statistic pentru verificarea ipotezei egalității mediei .

reprezintă media eșantionului iar este media populației

σ reprezintă deviația standard a populației iar n volumul selecției.

Valoarea obținută la testul statistic se compară cu cele din tabele pentru nivele de semnificație considerate, luându-se apoi decizia statistică.

Acceptarea sau respingerea unei ipoteze se face cu o anumită probabilitate, de aceea este necesară precizarea distribuției testului statistic. Pentru o distribuție normală sunt valabile pragurile în limita cărora ipoteza se acceptă sau se respinge.

Rămâne o singură întrebare: începând de unde o probabilitate este considerată drept “mică”? Pentru a nu introduce subiectivismul în această decizie, se fixează, anterior deciziei în test, un prag sub care o probabilitate este considerată “mică”.

Această valoare se numește prag de semnificație și se notează uzual cu α.

Regula de decizie în test poate fi formulată atunci:

• dacă pcalculata ≤ α, atunci se respinge ipoteza nulă, H0, în favoarea ipotezei alternative, H1;

• dacă pcalculata > α , atunci nu se respinge ipoteza nulă H0.

Se numește regiune de respingere, pentru un nivel de semnificație α fixat, mulțimea rezultatelor (valorilor statisticii testului) care conduc la respingerea ipotezei H0. Dacă se pot defini limitele numerice ale regiunii de respingere, acestea se vor numi, uneori, valori critice ale testului.

Nivele de semnificație, respectiv probabilitățile sunt aceleași ca și în cazul estimării statistice și anume:=0,05, =0,01, =0,001

Se pot comite două tipuri de erori:

ipoteza se respinge deși este adevărată. Probabilitatea comiterii acestei erori este .

ipoteza se acceptă deși este falsă. Probabilitatea comiterii acestei erori este .

Probabilitatea 1-, adică probabilitatea de a respinge ipoteza când este falsă, se numește puterea testului. Cu cât este mai mic cu atât testul este mai puternic.

Decizia statistică constă în acceptarea sau respingerea ipotezei emise. Dacă valoarea obținută se află în zona de respingere atunci ipoteza se respinge, în caz contrar, ea se acceptă.

Concluzia ce se trage este următoarea:

dacă H0 este respinsă atunci HA este acceptată

sau

H0 este adevărată.

Se poate calcula probabilitatea p ca pentru valorile observate și luate în calcul, ipoteza emisă să se accepte sau să se respingă, 1-p este probabilitatea ca ipoteza H0 să fie adevărată.

Puterea testului – precizarea: Alfa, Beta, Putere

Editorii revistelor medicale cer autorilor specificarea valorilor alfa sau a puterii testelor statistice. Procesul de determinare a „Puterii unui studiu” se numește analiza puterii. El constă în a determina cât de extins trebuie sa fie un eșantion pentru a detecta o diferență de o anumită magnitudine. Puterea unui studiu trebuie determinată înainte de începerea studiului, altfel s-ar putea ca studiul să necesite mai mult timp și resurse decât cele disponibile.

Neefectuarea „analizei Puterii” poate avea implicații negative. De exemplu, în cazul unei Puteri mici, din cauza faptului ca eșantionul este prea mic pentru a detecta anumite diferențe, avem de-a face cu un studiu “negativ”. Aceasta ar putea avea ca și consecința abandonarea unei cercetări pentru o procedura diagnostică sau o terapie mai bună.

Calcularea puterii este esențială și atunci când cercetătorul vrea să declare faptul ca două medicamente sau doua proceduri nu sunt semnificativ diferite. Diferențe nesemnificative sunt ușor de evidențiat prin utilizarea unor eșantioane extrem de restrânse. În orice situație în care diferențele sunt semnificative, este necesară precizarea Puterii studiului.

Relevanța rezultatelor nu depinde doar de atingerea nivelului de semnificație statistică ci și de mărimea eșantionului. În principiu, aceste două mărimi contribuie împreună la fundamentarea concluziilor. În tabelul 15 este prezentată relația ce există între rezultatul testului, mărimea eșantionului și concluzia cercetării.

Tabel 15. Corelația dintre concluzia cercetării și rezultatul testului

„Puterea testului” este definită prin capacitatea sau „sensibilitatea” unui test statistic de a detecta un efect real (sau o legătură reală) între variabile. Înțelegem prin „efect real” faptul că modificări ale valorilor unei variabile se regăsesc în modificări ale valorilor celeilalte variabile (indiferent dacă relația este de tip cauzal sau de tip asociativ). Formulat în termeni statistici, puterea testului este probabilitatea de a respinge ipoteza de nul atunci când ea este cu adevărat falsă, și se exprimă ca 1-beta (probabilitatea erorii de tip II). Această situație corespunde celei mai bune decizii pe care și-o poate dori un cercetător: să dovedească că ipoteza cercetării este realmente adevărată. Dacă în viața reală ipoteza de nul este falsă, dar datele cercetării ne obligă totuși să o acceptăm, atunci putem spune că cercetarea noastră a avut o putere insuficientă pentru a determina respingerea ei și, implicit, confirmarea ipotezei cercetării.

Așa cum am văzut, eroarea de tip II și puterea testului sunt complementare. Ca urmare, putem calcula eroarea de tip II ca beta=1-puterea testului. Cu alte cuvinte, cu cât puterea testului este mai mare, cu atât probabilitatea erorii de tip II (acceptarea nejustificată a ipotezei de nul) este mai mică. Dacă presupunem că puterea unui experiment este de 0.85, rezultă că probabilitatea erorii de tip II este 1-0.85, adică 0.15. Complementar, dacă puterea experimentului (cercetării) ar fi de 0.15, atunci probabilitatea erorii de tip II s-ar ridică la 1-0.15, adică 0.85.

Cunoașterea puterii unei cercetări este utilă în două situații:

In faza premergătoare a unei cercetări estimarea puterii este utilă pentru a evalua șansa de a obține un rezultat semnificativ statistic în contextul unei cercetări. Dacă puterea estimată a testului este prea mică, devine lipsit de interes să angajăm eforturi și costuri pentru conducerea acelei cercetări. Cât de mică poate fi puterea unei cercetări pentru a accepta efectuarea ei? La aceasta întrebare cei mai mulți cercetători consideră că 0.5 este prea puțin pentru a investi timp și bani în efectuarea ei. O putere de 0.7, care corespunde unei probabilități de 0.3 pentru eroarea de tip II, este considerată ca fiind minimă, iar o putere de 0.8 este considerat cel mai bun compromis intre nivelul puterii și consecințele negative de care am vorbit anterior

După efectuarea unei cercetări, pentru a ști care este probabilitatea ca rezultatul acesteia să indice un „efect” al variabilei independente asupra variabilei dependente atunci când acest efect există și în realitate.

In practică calcularea puterii unei cercetări se face cu programe specializate. Unul dintre cele mai accesibile și mai cunoscut dintre acestea este GPower, care poate fi descărcat gratuit de la adresa http://www.psycho.uni-duesseldorf.de/aap/projects/gpower/ (Buchner, Erdfelder &Faul, 1997).

Factori care contribuie la creșterea puterii testelor statistice

Eroarea standard a mediei este cu atât mai mare cu cat eșantionul este mai mic. Ca urmare, una din modalitățile prin care putem crește puterea este creșterea volumului eșantionului (N).

O cale de creștere a puterii este maximizarea variabilității primare, aceea care decurge ca urmare a „efectului” unei variabile asupra celeilalte. Aceasta deoarece „efectul” variabilei independente se manifestă mai puternic pe grupurile de subiecți aflate la extremitățile scalei de măsurare a variabilei dependente decât pe valorile întregii scale. Dacă împrăștierea datelor de cercetare este mică, atunci puterea testului de a surprinde un efect semnificativ se reduce.

Reducerea erorilor de măsurare are ca efect mărirea puterii cercetării. În acest scop trebuie avute în vedere: utilizarea unor proceduri de investigare adecvate; controlul și eliminarea surselor de eroare; tratarea identică a tuturor subiecților cercetării; selectarea aleatoare a eșantioanelor sau, în cazul unei eșantionări nealeatoare, eliminarea surselor de selecție „părtinitoare” .

Testul bilateral reduce probabilitatea erorii de tip I, dar crește probabilitatea erorii de tip II și, implicit, reduce puterea. Ca urmare, ori de cate ori este justificabil, se va opta pentru test unilateral, chiar dacă, în practică, testul bilateral este cel uzual.

Testele parametrice prezintă o putere statistică mai mare decât cele neparametrice, motiv pentru care, utilizarea acestora din urmă se va face doar atunci când este absolut necesar (in conformitate cu condițiile de aplicare). Nu se va renunța cu ușurință la un test parametric, dacă datele cercetării sunt măsurate pe scală cantitativă.

Testarea ipotezelor, abordarea clasică

În orice testare de ipoteză se consideră și se prelucrează datele obținute dintr-un eșantion. Procedura de eșantionare este presupusă aleatoare, iar de obicei se acceptă ca populațiile studiate sunt distribuite normal.

În abordarea clasică, o testare statistică de semnificație se efectuează în cinci pași consecutivi. Succesiunea lor este prezentată în Figura 30.

Pasul 1: Stabilirea ipotezelor H0 și HA.

Ipoteza nulă H0, este ipoteza care trebuie testată, testul efectuându-se sub prezumția că ipoteza nulă ar fi adevărată.

Ipoteza alternativă HA, este acea ipoteză care într-un sens sau altul contrazice ipoteza nulă. Această ipoteză se mai numește și ipoteza de lucru.

Ipoteza nula H0 afirmă că nu există diferențe între valoarea ipotetică „media populației” (nulă în acest caz, înseamnă: fără diferențe). Ipoteza alternativă HA se opune ipotezei nule. În cazul în care ipoteza nulă este respinsă ca rezultat al studiului eșantionului, atunci ipoteza alternativă devine concluzie. Dacă nu există suficiente motive pentru respingerea ipotezei nule, ea este reținută, dar nu este “acceptată”.

Pasul 2: Alegem statistica adaptată situației concrete. (Reamintim ca statistica înseamnă aici „formula în care apar datele extrase dintr-un eșantion”.)

Un parametru statistic al testului trebuie să îndeplinească două condiții:

Trebuie să se comporte diferit atunci când ipoteza nulă H0 este adevărată față de situația în care ipoteza alternativă HA este adevărată.

Distribuția de probabilitate a parametrului statistic al testului sub prezumția că H0 este adevărată, este cunoscută.

Pasul 3: Alegem nivelul de semnificație, și pe baza sa, pragul de separare (între diferențele acceptabile și cele inacceptabile).

Se decide în funcție de valoarea parametrului statistic calculat care dintre ipoteze, cea nulă sau cea alternativă, este adevărată.

Dacă valoarea parametrului statistic aparține regiunii critice, ipoteza nulă H0 va fi respinsă și va fi acceptată ipoteza alternativă HA.

Dacă valoarea parametrului statistic nu aparține regiunii critice, ipoteza nulă H0 va fi acceptată.

Atunci când nivelul de semnificație se alege înaintea efectuării testului statistic, el se numește valoarea alfa (α); acesta reprezintă probabilitatea respingerii greșite a ipotezei nule atunci când aceasta este în fapt veridică.

Valoarea lui alfa trebuie sa fie mică pentru a nu respinge în mod greșit ipoteza nulă (0,05, 0,01, 0,001).

Pasul 4: Calculam valoarea statisticii, folosind efectiv datele din eșantion (ales aleator), adică se determină valoarea la care testul statistic trebuie să ajungă pentru a putea fi declarată ca fiind semnificativă.

Aceasta valoare “semnificativă” este denumită valoarea critică a testului statistic. Determinarea valorii critice este un proces simplu: fiecare test statistic are o distribuție; distribuția testului statistic se împarte intr-o arie de acceptare (a ipotezei) și o arie de respingere a ipotezei. Ariile de acceptare și respingere sunt determinate de valoarea aleasă pentru alfa.

Pasul 5: Decidem, prin compararea valorii calculate cu pragul dat de nivelul de semnificație, dacă sa respingem sau nu ipoteza nula.

Stabilirea semnificației testului se poate face pe baza valorii calculate sau pe baza valorii lui p astfel:

pe baza valorii calculate

Dacă valoarea calculată pentru testul statistic este în zona respinsă diferențele sunt considerate semnificative.

Dacă valoarea calculată pentru testul statistic este în zona acceptată diferențele sunt considerate nesemnificative.

baza valorii lui p

Dacă 0,01 <= p<0,05 , diferențele sunt considerate semnificative.

Dacă 0,001 <= p<0,01, diferențele sunt considerate înalt semnificative.

Dacă p<0,001, diferențele sunt considerate foarte înalt semnificative.

Dacă p>=0,05, diferențele sunt considerate nesemnificative statistic.

Discuția în jurul testării statistice de semnificație începe cu ultimul pas. Aici un agent decizional va trebui fie să respingă ipoteza nula H0 (și prin urmare să accepte ipoteza alternativă HA), fie sa nu respingă pe H0. În realitate H0 este fie adevărată, fie falsă – dar agentul decizional nu cunoaște situația real.

Tipuri de erori întâlnite în verificarea ipotezelor

La admiterea sau respingerea unei ipoteze statistice se pot face două tipuri de erori:

Eroare de tipul I: Respingerea ipotezei H0 când aceasta este adevărată. Probabilitatea unei asemenea erori se notează cu α.

P{respingere H0 | H0 adevărată}=α

Eroare de tipul II: Acceptarea ipotezei H0 când de fapt este falsă sau respingerea ipotezei alternative când este adevărată.

Probabilitatea unei asemenea erori se notează β.

P{acceptare H0 | H0 falsă}=P{respingere HA | HA adevărată}=β

În testarea statistica de semnificație o importanta maximă o are eroarea de tipul I. Probabilitatea ei, cu alte cuvinte numărul α = P(decizie eronată | H0 este adevărată) este nivelul de semnificație a cărui valoare a fost aleasa anterior (la Pasul 3).

Dacă se acceptă un nivel de semnificație α de 0,05 sau 5% înseamnă că H0 se acceptă în 95% din cazuri și se respinge în 5% din ele.

Nivelul de semnificație este probabilitatea de a face eroarea, ca urmare interesul este ca acesta să fie cât mai mic. Astfel, valori cum este α = 0,05 sunt destul de des întâlnite, iar în științele medicale se recomanda alegerea unor valori mai mici, de exemplu α = 0,001.

În oricare testare de ipoteză numai una din cele două greșeli se poate face dar nu se poate preciza care anume. Legătura dintre cele două tipuri de erori reiese clar din următorul raționament: reducerea lui α sporește acceptanta lui H0 și uneori s-ar putea accepta și fără să fie adevărată ceea ce înseamnă mărirea lui β .

Erorile de tip I pot fi micșorate fixând nivelul de semnificație α cât mai mic.

Erorile de tip II pot fi micșorate prin creșterea volumului eșantionului. Dacă variația selecției este mai mică se reduc ambele erori.

Categorii de teste

Testele sunt clasificate în teste pentru variabile continue și teste pentru variabile discrete (nominale sau ordinale). Primele sunt, de regulă, teste parametrice, celelalte sunt neparametrice.

Este inadecvat să se utilizeze teste proiectate pentru date continue la date discrete. Invers este posibil prin aceea că, pe de o parte, se pot discretiza variabilele continue, iar pe de altă parte, testele neparametrice sunt mai puțin restrictive la condițiile de aplicare ori, de multe ori, restricțiile impuse de un test parametric nu sunt îndeplinite.

Reversul medaliei este acela că testele neparametrice sunt mai puțin sensibile la diferențe decât testele parametrice

Testele pot fi:

parametrice = ipoteza H0 este strict legată de un parametru al populației, iar statistica testului are o repartiție cunoscută tocmai din această ipoteză.

neparametrice = repartiția statisticii testului se calculează și nu rezultă din presupuneri apriorice asupra acestei distribuții și a probabilităților atașate.

Testele parametrice pot fi: (δ notează un parametru al populației):

bilaterale (nedirecționale)

H0: δ = δ0

H1: δ ≠ δ0

unilaterale (direcționale)

H0 : δ = δ0

H1 : δ < (sau >) δ0

Un test statistic are, de multe ori, o denumire dată de repartiția statisticii testului: teste normale (sau Z), teste Student (sau t), teste F etc. Astfel, un test 2 reprezintă un test a cărui statistică are o repartiție de sondaj din clasa 2.

Teste de concordanță

Aceste teste se referă la potrivirea, concordanța dintre valorile calculate în eșantion (statisticile de sondaj) și valorile parametrilor respectivi din populația statistică (valori cunoscute sau presupuse). Cu alte cuvinte, problema poate fi formulată: cât de mult poate să se abată o valoare calculată (dintr-un eșantion) de la valoarea presupusă pentru întreaga populație pentru a putea considera că are loc o nepotrivire între cele două valori?

Deși formulată astfel, problema pare că se referă la eșantion și la populația de bază, punctul de vedere corect este:

există o populație statistică de interes, fie ea P1;

pentru orice eșantion se poate considera o populație de bază din care este extras eșantionul (reprezentativ pentru acea populație); fie P2 această populație;

problema este dacă se poate considera că P2 este în concordanță cu P1, adică parametri de interes ai celor două populații nu diferă semnificativ.

Se observă că testarea se va efectua pentru ipoteze privind populații dar se va utiliza informația dintr-un eșantion, deci rămânem în domeniul inferenței statistice.

Ipoteza nulă va afirma, în general, că populațiile P1 și P2 concordă.

Respingerea ipotezei nule poate avea, în practică, două consecințe:

se va considera că eșantionul nu este reprezentativ pentru populația de interes, populație care se consideră stabilă; deci se va căuta un alt eșantion;

sau

se va considera că populația P1 și-a modificat între timp parametrii; noua populație de referință este P2.

Alegerea între cele două afirmații aparține practicianului din domeniul studiat, fiind, de cele mai multe ori, o alegere ghidată de intuiție, de experiență etc.

Teste de semnificație

Indicatorii obținuți pe baza datelor din sondaj (de exemplu: medie, mediană, modul, proporție etc.) se utilizează pentru estimarea parametrilor din populație după ce în prealabil s-a verificat stabilitatea lor. Această extindere ține de inferența statistică deoarece, informațiile obținute pe baza eșantioanelor sunt utilizate pentru a formula concluzii asupra populațiilor din care acestea provin.

În vederea garantării acestei „credibilități”, pentru verificarea ipotezelor se utilizează diferite teste statistice pentru verificarea parametrilor repartițiilor. Acestea se utilizează pentru a compara estimatorii obținuți prelucrând datele din eșantion cu parametri corespunzători ai populației sau pentru compararea estimatorilor proveniți din eșantioane diferite.

Teste parametrice sau non-parametrice?

Când utilizăm teste parametrice și când utilizăm teste non-parametrice pentru a analiza un set de date?

Testele parametrice se utilizează atunci când:

Variabile luate în studiu sunt de natură cantitativă;

Presupun o distribuție normală în populație (ori eșantioane suficient de mari ca să putem folosi Teorema Limitei Centrale):

Testele parametrice se numesc astfel deoarece utilizează în relațiile de calcul necesare obținerii statisticii proprii, parametri repartițiilor variabilelor testate (media (), varianțele (2).

Testele neparametrice (non parametrice) se utilizează atunci când:

Distribuția normală variabilelor este încălcată flagrant;

Nu se cunoaște distribuția variabilelor;

Variabilele sunt de natură calitativă (de tip ordinal sau nominal (categorial)).

Testele neparametrice nu se bazează pe utilizarea parametrilor unei distribuții (medie, abatere standard) și nu implică condiții de distribuție la fel de rigide ca în cazul testelor parametrice. Anumite teste neparametrice nu implică nici o condiție, fiind cunoscute ca teste independente de condiții de distribuție

Ce este de preferat, test parametric sau test neparametric?

Dacă variabila dependentă este măsurată pe scală nominală sau ordinală, problema alegerii nu se pune, singurele teste aplicabile fiind cele neparametrice.

Atunci când variabila dependentă este exprimată pe o scală cantitativă (interval/raport), dacă întrunește condițiile impuse de statistica parametrică, este recomandabil să se utilizeze teste parametrice. În acest caz însă trebuie avute în vedere două aspecte:

Variabila dependentă cantitativă nu respectă condițiile testelor parametrice, în raport cu care există două soluții:

se vor efectua verificări pentru eventuala corecție de valori, tratarea valorilor lipsă, transformări parametrice, urmate de utilizarea testelor parametrice

se transformă variabila dependentă pe o scală de tip nominal sau ordinal, urmată de aplicarea unor teste neparametrice adecvate

Mărimii eșantionului.

Teorema limitei centrale ne asigură cu privire la normalitatea distribuției de eșantionare pentru eșantioane care depășesc N=30.

Pentru eșantioane de volum mediu (apropiat de 30 de valori), testele parametrice sunt mai sensibile la respectarea condițiilor impuse și, de aceea, utilizarea testelor neparametrice pare a fi o soluție mai bună.  În practică, se va avea în vedere faptul că testele statistice, atât cele parametrice cât și cele neparametrice, efectuate pe eșantioane reduse, sub N=20, nu oferă rezultate robuste iar credibilitatea lor este îndoielnică. Eșantioanele mici nu conțin suficientă informație care să permită fundamentarea unei inferențe statistice suficient de sigure și cu putere de generalizare. Studiile pe eșantioane de acest gen pot avea o valoare de „studii pilot” în vederea deciziei de a lansa sau nu studii de amploare pe o anumită temă.

Teste parametrice utilizate pentru verificarea parametrilor repartițiilor

Testele parametrice se numesc astfel deoarece utilizează în relațiile de calcul necesare obținerii statisticii proprii, parametri repartițiilor variabilelor testate.

Compararea mediei eșantionului cu parametri corespunzători ai populației

În funcție de informațiile deținute și de mărimea eșantionului se utilizează un anumit test statistic. Schema decizională privind alegerea testului este prezentată în figura 31 .

Testul z pentru compararea mediei eșantionului cu media populației

Se utilizează în cazul în care populația este exact sau aproximativ normal distribuită. Se poate utiliza și în cazul în care populația nu este normal sau aproximativ normal distribuită sau nu se cunoaște forma repartiției populației dar eșantionul este de volum normal (conform teoremei limite centrale). Testul se bazează pe o statistică a cărei repartiție este normal distribuită cu parametri și σ2=1. În funcție de modul de definire a regiunii critice testul poate fi bilateral, unilateral dreapta sau unilateral stânga.

Test bilateral

În această formă a testului se determină două limite și se utilizează în cazul în care caracteristica este dublu tolerată.

H0: și H1:

Statistica testului este:

= este media teoretică (respectiv media populației totale);

= media selecției;

n = volumul eșantionului;

σ2 = dispersia teoretică.

Plecând de la forma testului putem construi două limite z1 și z2 astfel încât pentru un nivel de semnificație α fixat să avem:

Dacă z1=z2 obținem:

Regiunea critică în cazul testului bilateral este:

Dacă valoarea calculată zc luată în modul este inferioară valorii tabelate corespunzătoare nivelului de semnificație putem considera că nu există diferențe semnificative între și se acceptă ipoteza nulă.

Test unilateral stânga

H0: și H1: < , Regiunea critică este:

Dacă valoarea calculată zc este mai mică decât valoarea tabelată corespunzătoare nivelului de semnificație, se respinge ipoteza nulă și se acceptă ipoteza alternativă.

Test unilateral dreapta

H0: și H1: > , Regiunea critică este:

Dacă valoarea calculată zc este mai mare decât valoarea tabelată corespunzătoare nivelului de semnificație, se respinge ipoteza nulă și se acceptă ipoteza alternativă.

Compararea mediei eșantionului cu media populației – abordarea practică

Se știe prin studii anterior realizate că vârsta medie la o anumită populație de câini este = 12 ani iar abaterea standard este = 8 ani. Se dispune de un eșantion de 50 de câini din această populație pe care se dorește studierea unor anumiți factori. Dar pentru a fi siguri că acest eșantion este reprezentativ se calculează media vârstei și se găsește m = 10,9 ani. Se poate atunci afirma că acest eșantion este reprezentativ pentru populație?

Tabel 16. Vârsta medie la o populație de câini

Stabilirea ipotezelor H0 și HA.

H0 : Eșantionul este reprezentativ pentru populație, fiind corect extras, adică între media observată m a eșantionului și media populației nu există o diferență semnificativă.

Alegem statistica adaptată situației concrete

Sub ipoteza nulă, efectivul eșantionului fiind  > 30, se poate defini parametrul  , presupunând că populația are o distribuție normală N(0,1).

Se alege pragul de semnificație = 0.05.

Regiunea critică este (- , -1.96] [1.96, +).

Calculam valoarea statisticii, folosind efectiv datele din eșantion (ales aleator).

Decizia: Valoarea observată z = 0,9652 (- , -1.96] [1.96, +). (vezi figura 32), deci nu se află în regiunea critică. Prin urmare, la pragul de semnificație de 5% nu există motive să se respingă ipoteza nulă. În concluzie, se poate accepta ipoteza nulă cu un risc de eroare (risc de speța a doua).

Observații:

Dacă cu aceleași date (= 12, =8 și m = 11) se dispune de un eșantion de 500 de observații în loc de 50, valoarea observată a parametrului testului va fi

In acest caz, valoarea observată este situată în regiunea critică, diferența dintre m și µ putând fi apreciată ca semnificativă la pragul de 5% și deci ipoteza nulă se poate respinge.

Rezolvarea în Excel a acestei probleme este mult simplificată. Funcția ce calculează probabilitatea acceptării ipotezei nule este ZTEST. Funcția solicită 3 argumente:

valorile observate din eșantion (Array)

valoarea cu care se compară

deviația standard a populației din care provine eșantionul (în cazul în care se cunoaște). Dacă este omisă, în calcul se introduce automat deviația standard a eșantionului.

Funcția returnează probabilitatea testului bilateral. Valoarea obținută este p=0,4971 Ca urmare ipoteza nulă se acceptă, eșantionul ales este reprezentativ pentru populație.

Rezolvarea cu aplicația MINITAB 14, conduce la același rezultat.

Valorile caracteristicii studiate au fost introduse în coloana C1. În câmpurile de editare Standard deviation a fost introdusă valoarea 8. A fost bifată cerința: Perform hypotesis test cu valoarea 12. Rezultatele afișate sunt cele de mai jos.

Este afișat și intervalul de încredere pentru nivelul de confidență de 0,05. Media eșantionului (10,90) este cuprinsă în intervalul de încredere.

În afara valorii z, aplicația MINITAB afișează și probabilitatea (p=0,334). Valoarea obținută pentru p conduce la decizia acceptării ipotezei nule.

In problema precedentă, comparația mediei eșantionului cu media ipotetică a populației s-a realizat pentru un eșantion „mare” (n>30), pentru parametru „medie” s-a utilizat ecartul redus care urmează o lege normală redusă. Testul statistic utilizat în acest caz se mai numește și testul normal.

Și rezolvarea cu SPSS conduce evident la același rezultat.

Testul t pentru compararea mediei eșantionului cu media populației

În cazul în care nu se cunoaște dispersia populației, aceasta poate fi înlocuită cu dispersia eșantionului. În cazul acesta, dacă populația este normal sau aproximativ normal distribuită iar volumul eșantionului este de volum redus, se utilizează pentru compararea mediei eșantionului cu media populației, testul Student.

Acest test se poate utiliza și atunci când nu se cunoaște dispersia teoretică, populația nu este normal distribuită dar eșantionul este de volum normal.

Compararea valorii tcalculat se face cu tcritic din distribuția lui t.

Ca și în cazul testului z, în funcție de modul de definire a regiunii critice, testul t poate fi bilateral, unilateral dreapta sau unilateral stânga.

Figură 25.Regiunea de acceptare și regiunea de respingere, test bilateral

test bilateral

Ca și în cazul testului z, în această formă a testului se determină două limite și se utilizează în cazul în care caracteristica este dublu tolerată.

H0: și H1:

Statistica testului este:

= este media teoretică (respectiv media populației totale);

= media selecției;

n = volumul eșantionului;

S2 = dispersia eșantionului

Regiunea critică în cazul testului bilateral este:

Dacă valoarea calculată tc luată în modul, este inferioară valorii tabelate corespunzătoare numărului de grade de libertate (df=n-1) și nivelului de semnificație, putem considera că nu există diferențe semnificative între x și x0 și se acceptă ipoteza nulă.

Figură 26. Regiunea de acceptare și regiunea de respingere, test unilateral

Test unilateral stânga

H0: și H1: < , Regiunea critică este: ,

Dacă valoarea calculată tc este mai mică decât valoarea tabelată corespunzătoare nivelului de semnificație, se respinge ipoteza nulă și se acceptă ipoteza alternativă.

Test unilateral dreapta

H0: și H1: > , Regiunea critică este:

Dacă valoarea calculată tc este mai mare decât valoarea tabelată corespunzătoare nivelului de semnificație, se respinge ipoteza nulă și se acceptă ipoteza alternativă.

Reluând exemplu de mai sus, pașii urmați fiind aceiași, se utilizează în calcul la pasul 2 formula , și se obține valoarea pentru tc=1,348.

Această valoare se compară cu cea din tabele pentru 49 de grade de libertate și nivelul de încredere de 0,05.

Valoarea căutată, în lipsa tabelelor (Anexa 2), se poate obține cu funcția TINV, implementată în EXCEL.

Valoarea calculată este mai mică decât cea pentru nivelul de încredere de 0,05 și 49 de grade de libertate, decizia care se ia este de a accepta ipoteza, Eșantionul este reprezentativ pentru populație.

Aplicația EXCEL are implementată o funcție ce permite aflarea, pornind de la valoarea calculată a lui tc, a probabilității p, corespunzătoare testului Student.

Argumentele sunt:

X – valoarea calculată a statisticii

Deg_freedom: numărul de grade de libertate

Tails: 2 pentru test bilateral (), sau 1 pentru test unilateral sau

Pentru exemplul avut, pentru tc=1,348, se obține o probabilitate de p=18%, mai mare decât 5%, ipoteza se acceptă, .

Compararea mediilor provenite din două eșantioane independente

Testele t și z aplicate anterior pentru a determina dacă un eșantion diferă de o populație, nu se aplică prea frecvent. Mai des sunt utilizate testele z și t pentru a determina dacă mediile a doua eșantioane diferă semnificativ.

Când aplicam testul t și când aplicam testul z?

Pentru a decide acest lucru, utilizăm aceleași criterii prezentate în cazul unui singur eșantion comparat cu o populație anume.

Se iau în considerare:

cunoașterea abaterii standard a celor doua eșantioane

cunoașterea volumului acestor eșantioane.

Atât în cazul eșantioanelor dependente cât și a celor independente, prima condiție este atinsă mult mai ușor, de aceea criteriul hotărâtor în alegerea tipului de test (t sau z) este volumul eșantionului.

Prin eșantioane independente se înțelege că procedeul de selecție al unui eșantion nu este asociat cu procedeul de selecție al celuilalt eșantion.

Eșantioanele dependente sunt considerate acelea în care procedeul de selecție al unui eșantion este legat de procedeul de selecție al celuilalt, de exemplu cazul în care dorim să analizăm o caracteristică asupra unui eșantion înainte și după aplicarea unui tratament.

Testele în care eșantioanele nu sunt independente sunt menționate ca teste asupra observațiilor perechi.

Există, conform teoremei limitei centrale, o evoluție a distribuției datelor în funcție de numărul de observații. Se considera și se acceptă de majoritatea cercetătorilor, că un eșantion de 30 de observații sau mai mult are o distribuție normala a datelor tip z. Un număr mai mic de 30 de observații determină o distribuție asimetrică a datelor de tip t. Chiar dacă se utilizează o împărțire grosieră, s-a stabilit de către cercetători următoarea clauză pentru cazul a doua eșantioane:

Daca n1 < 30 (numărul de observații din prima grupa) și n2 < 30 (numărul de observații din a doua grupa) se aplica testul t.

Daca n1 > 30 și n2 > 30 se aplica testul z.

Schema decizională a alegerii testului adecvat am prezentat-o sugestiv în figura 33.

Testului z pentru compararea a două medii

Se poate utiliza atunci când cele două variabile sunt repartizate normal sau cele două eșantioane sunt de volum normal (n1 și n2 >30)

Statistica testului este:

unde:

= mediile selecțiilor din cele două eșantioane independente;

n1 și n2 = volumul eșantioanelor;

= dispersiile cunoscute ale populațiilor;

În cazul în care nu se cunoaște dispersia teoretică dar eșantioanele sunt de volum normal și provin din populații normal sau aproximativ normal repartizate, acestea pot fi înlocuite cu estimațiile acestora, dispersiile eșantioanelor.

Test bilateral

În această formă a testului se determină două limite și se utilizează în cazul în care caracteristica este dublu tolerată.

H0: sau și H1: sau

În cazul în care nu se cunoaște dispersia teoretică dar eșantioanele sunt de volum normal și provin din populații normal sau aproximativ normal repartizate, acestea pot fi înlocuite cu estimațiile acestora, dispersiile eșantioanelor. Regiunea critică în cazul testului bilateral este:

Dacă valoarea calculată zc luată în modul este inferioară valorii tabelate corespunzătoare nivelului de semnificație putem considera că nu există diferențe semnificative între , acceptându-se ipoteza nulă.

Test unilateral stânga

H0: și H1:

Regiunea critică este:

Dacă valoarea calculată zc este mai mică decât valoarea tabelată corespunzătoare nivelului de semnificație se respinge ipoteza nulă și se acceptă ipoteza alternativă.

Test unilateral dreapta

H0: și H1:

Regiunea critică este:

Dacă valoarea calculată zc este mai mare decât valoarea tabelată corespunzătoare nivelului de semnificație se respinge ipoteza nulă și se acceptă ipoteza alternativă.

Testul t pentru verificarea egalității a două medii (σ1,σ2 necunoscute cu σ1≠σ2)

Se poate utiliza atunci când cele două variabile sunt repartizate normal dar dispersiile teoretice (diferite) nu se cunosc. Deoarece cele două eșantioane sunt de volum redus (n1 și n2 <30), nu ne vom mai putea baza pe teorema limitei centrale și deci nu vom mai pute utiliza testul z pentru testarea diferenței dintre cele două medii. În aceste condiții se va utiliza testul Student dar cu o formulă corectată a numărului gradelor de libertate. Numărul de grade de libertate rezultat în acest caz este mult mai mare decât în cazul prezumției egalității dispersiilor.

Statistica testului este:

unde:

= mediile selecțiilor din cele două eșantioane independente;

n1 și n2 = volumul eșantioanelor;

= estimațiile dispersiilor necunoscute ale populațiilor.

În funcție de modul de definire a regiunii critice testele pot fi bilaterale, unilaterale dreapta sau unilaterale stânga. Valoarea calculată a testului se compară cu valoarea corespunzătoare nivelului de semnificație ales și numărului de grade de libertate calculat după relația:

Testul t pentru verificarea egalității a două medii (σ1,σ2 necunoscute cu σ1=σ2)

Acest test se utilizează în condițiile în care se presupune ca dispersiile eșantioanelor sunt egale, dar necunoscute, iar distribuțiile eșantioanelor sunt normale.

Acest test presupune calcularea unei valori estimate a dispersiei necunoscute () pe care se presupune că o estimează dispersia fiecărui eșantion.

Statistica testului este:

unde:

= mediile selecțiilor din cele două eșantioane independente;

n1 și n2 = volumul eșantioanelor;

= estimațiile dispersiilor necunoscute ale populațiilor;

=variația comună estimată pe baza dispersiilor selecțiilor.

După modul de definire a regiunii critice testele pot fi bilaterale, unilaterale dreapta sau stânga. Valoarea calculată a testului se compară cu valoarea corespunzătoare nivelului de semnificație ales și numărului de grade de libertate df=n1+n2-2.

Compararea mediilor provenite din două eșantioane independente – abordarea practică

Nivelul sangvin al calciului la un număr de 61 de pui broiler constituiți în lotul L1, hrăniți în condiții de aport de aluminiu în rație și nivelul sangvin al calciului la un număr de 61 de pui broiler constituiți în lotul Martor este prezentat în tabelul 17:

Tabel 17. Date experimentale.

Compararea mediilor din două eșantioane independente

Exista diferențe semnificative între nivelul sangvin al calciului între cele 2 loturi de pui?

Rezolvarea acestei probleme este tipică situației expuse anterior, și anume compararea mediilor provenite din două eșantioane independente.

Problema poate fi rezolvată în două moduri:

metoda clasică, aplicând formula de calcul

metoda cu ajutorul programelor de calcul implementate (Excel, Minitab, etc.)

Rezolvarea cu metoda clasică

Enunțul problemei spune că sunt două eșantioane: martor și lotul 1. Numărul de observații al fiecărui lot este suficient de mare (61 observații) iar caracteristica observată este de natură cantitativă. Dacă presupunem că populația din care provin loturile are o distribuție normală sau aproximativ normală, avem îndeplinite condițiile pentru aplicarea testelor parametrice. Conform schemei decizionale, alegem ramura pentru care se presupune că , loturile provin din aceiași populație, în această situație dispersiile se consideră egale (Testul t pentru verificarea egalității a două medii (σ1,σ2 necunoscute cu σ1=σ2) ).

Formula de calcul este:

În urma efectuării calculelor se obține:

tcalculat=9,945.

Acestei valori, în urma verificării cu valorile tabelate pentru 120 de grade de libertate (df=n1+n2-2), îi corespunde o probabilitate foarte mica (p<0,01), ca urmare, ipoteza emisă, (H0: x1=X2) se respinge, acceptându-se ipoteza alternativă HA:X1X2.

Valoarea probabilității corespunzătoare valorii calculate (tcalculat) se poate obține, în lipsa tabelelor, cu ajutorul funcției TDIST din Excel, având ca argumente: valoarea calculată, numărul de grade de libertate și ultimul parametru având valoarea 2, (corespunzătoare testului bilateral). Valoarea probabilității calculată cu această funcție este foarte mică, (afișarea în scrierea cu mantisă și exponent (formatul științific)), ca urmare diferențele între media x1 și x2 sunt foarte semnificative.

Prezentăm în continuare rezolvarea aceleiași problem cu ajutorul programelor de calcul.

Rezolvarea cu ajutorul funcției TTEST din Excel.

Această funcție (TTEST), face parte din categoria funcțiilor statistice și are 4 parametri.

domeniul din foaia de calcul unde se găsesc caracteristice observate din primul eșantion.

domeniul din foaia de calcul unde se găsesc caracteristice observate din al doilea eșantion.

valoarea 1 dacă testul este unilateral sau valoarea 2 dacă testul este bilateral.

ultimul parametru poate lua valorile 1, 2 sau 3, astfel: dacă eșantioanele sunt perechi și provin din aceiași populație, valoarea parametrului este 1, dacă eșantioanele provin din aceiași populație (se presupune că au varianțele egale) valoarea parametrului este 2, iar în situația în care eșantioanele provin din populații a căror dispersii nu sunt egale, valoarea parametrului este 3.

Situațiile cele mai întâlnite au valoarea ultimului parametru 2 sau 3 și se aplică în cazul eșantioanelor independente, iar valoarea 1 se pune numai în situația eșantioanelor dependente.

În acest exemplu valoarea ultimului parametru este 2, adică eșantioanele sunt din aceiași populație și se consideră că au varianțele egale.

În urma apelării funcției TTEST, rezultatul obținut reprezintă probabilitatea ca ipoteza emisă (mediile celor două eșantioane să fie egale) să fie adevărată. Valoarea obținută este mai mică decât 5%, ipoteza se respinge, între cele două eșantioane există diferențe semnificative.

Răspunsul la întrebarea: „Exista diferențe semnificative între nivelul sangvin al calciului între cele 2 loturi de pui?” este DA, puii hrăniți în condiții de aport de aluminiu în rație au nivelul sanguin al calciului diferit de cei hrăniți fără aport de aluminiu în rație.

Faptul că în urma aplicării testului s-au obținut diferențe semnificative, iar numărul de observații din eșantion nu este chiar atât de mare (61 observații) întărește convingerea că rezultatul obținut este important. (Tabelul 15).

Instrumente Excel – Data Analysis

Compararea mediilor unor (sub)populații se realizează prin proceduri apelate din dialogul deschis prin Tools – Data Analysis.

Atunci când se compară mediile a două populații pe baza unor eșantioane necorelate este necesară parcurgerea etapelor:

1. Testarea egalității dispersiilor prin procedura F-Test Two-Sample for Variances.

2. În funcție de decizia în test se va aplica

t-Test: Two-Sample Assuming Equal Variances în cazul nerespingerii ipotezei nule din testul F

t-Test: Two-Sample Assuming Unequal Variances în cazul respingerii ipotezei nule în testul F.

Valorile pentru cele două eșantioane sunt introduse în foaia de calcul în domeniul B24-B84, respectiv C24-C84. Valoarea introdusă la Hypothesized Mean Difference este 0 deoarece ipoteza emisă este de egalitate a mediilor, se bifează Labels în cazul în care domeniul selectat cuprinde și celulele ce conțin etichetele, nivelul de încredere este 0,05, iar la Output range se precizează coordonatele celulei din colțul din stânga de unde vor începe afișarea rezultatelor.

Rezultatele obținute sunt afișate mai jos:

P(T<=t) one-tail – probabilitatea critică unidimensională, arată care este probabilitatea ca o variabilă Student cu df grade de libertate să depășească valoarea calculată. Dacă această valoare este mai mică decât pragul de semnificație fixat, atunci se poate respinge ipoteza nulă în favoarea ipotezei alternative. Deoarece, în situația dată, prima medie este mai mare, ipoteze alternativă într-un test unilateral este H1 : μ1 – μ2 > 0 sau, echivalent, H1 : μ1 > μ2.

Valoarea 0,0055 afișată este mai mică decât toate valorile α uzuale, deci se poate respinge ipoteza nulă.

t Critical one-tail – valoarea critică unidimensională pentru pragul de semnificație α=0,05 (precizată în dialogul procedurii). Dacă valoarea t calculată este mai mare decât această valoare critică, atunci se poate respinge H0 în favoarea ipotezei alternative H1: μ1>μ2.

P(T<=t) two-tail – probabilitatea critică bilaterală, arată care este probabilitatea ca o variabilă Student cu df grade de libertate să depășească, în valoare absolută, valoarea calculată. Cu alte cuvinte, probabilitatea ca diferența dintre mediile populațiilor să fie mai depărtată de zero decât diferența observată.

Dacă această valoare este mai mică decât pragul de semnificație fixat, atunci se poate respinge ipoteza nulă în favoarea ipotezei alternative a unor medii diferite: H1 : μ1 ≠ μ2.

Valoarea 0,0110 afișată este mai mică decât toate valorile α uzuale, deci se poate respinge ipoteza nulă.

t Critical two-tail – valoarea critică bidimensională pentru pragul de semnificație α = 0,05 (precizată în dialogul procedurii). Dacă valoarea t calculată este mai mare, în valoare absolută, decât această valoare critică, atunci se poate respinge H0 în favoarea ipotezei alternative H1 : μ1 ≠ μ2.

2-Sample t Test and Confidence Interval programul MINITAB

Datele sunt introduse pe două colane, cu etichetele corespunzătoare în foaia de calcul.

Rezultatele sunt afișate astfel:

Two-Sample T-Test and CI: Lot 1; martor

Two-sample T for Lot 1 vs martor

N Mean StDev SE Mean

Lot 1 61 12,186 0,941 0,12

martor 61 11,759 0,879 0,11

Difference = mu (Lot 1) – mu (martor)

Estimate for difference: 0,427213

95% CI for difference: (0,100837; 0,753590)

T-Test of difference=0 (vs not =): T-Value = 2,59

P-Value = 0,011 DF = 120

Both use Pooled StDev = 0,9104

Am reprezentat grafic intervalul de încredere al mediei celor două eșantioane (Martor și Lot1) pentru nivelul de încredere de α=0.05 (Figura 36). Din această reprezentare grafică rezultă mai clar și mai sugestiv existența sau nu a diferențelor semnificative. Pentru exemplul dat, acestea există, intervalele de încredere nu se suprapun.

Compararea mediilor din două eșantioane independente. XLSTAT 2008

Instrumente SPSS

Teste t pereche și nepereche

Este interesant să analizăm rezultatele obținute în urma aplicării Testul t pentru verificarea egalității a două medii.

Pornim de la datele prezentate în Tabelul 18.

Tabel 18. Datele observate. Exemplu test t pereche

În prima abordare vom admite că datele provin de la pacienți tratați cu un medicament M, fiind rezultate de laborator obținute înainte (set 1) și după tratament (set 2) (de exemplu, valori ale creatininei). Scăderea valorilor caracterului cercetat după tratament conduce la o primă concluzie că, starea pacientului s-a îmbunătățit, lucru ce se observă și din valoarea obținută la media aritmetică a datelor observate înainte și după tratament. Prin urmare, aceste date indică îmbunătățirea stării pacienților după tratamentul cu medicamentul M, ceea ce ne îndeamnă să credem în adevărul ipotezei alternative:

(Ha): în urma tratamentului cu medicamentul M, valoarea creatininei scade.

Valoarea p a acestei afirmații, obținută printr-un test t pereche, este de 0,01581, confirmând adevărul ipotezei alternative.

În a doua alternativă, vom admite ca datele provin de la două populații diferite, primul set provine de la pacienții „tratați” cu medicamentul M1, al doilea set de la pacienții tratați cu medicamentul M2. Media aritmetică a valorilor observate provenite din lotul tratat cu M2 este mai mică decât a celor provenite din lotul tratat cu M1.

Valoarea pentru p, obținută prin testul t nepereche, este însă de 0.1559. O asemenea valoare nu confirmă adevărul ipotezei alternative! Cu toate că valoarea medie obținută pentru lotul tratat cu M2 ne-ar putea tenta să credem și să afirmăm că există diferențe semnificative, valoarea lui p obținută în urma aplicării testului infirmă rezultatul presupus. Conform tabelului 15, un rezultat nesemnificativ statistic pentru un lot „mic” conduce la un rezultat neconcludent

Așadar, aceleași date conduc la concluzii diferite, concluziile depinzând în mod esențial de contextul în care am obținut datele

Compararea dispersiilor a două eșantioane independente

Pentru efectuarea testului Student, pe baza dispersiei estimate a populației, pornind de la dispersiile eșantioanelor, se pornește de la premiza egalității dispersiilor necunoscute ale populațiilor. Cu ajutorul testului F, descris în continuare putem verifica dacă se acceptă sau nu ipoteza egalității dispersiilor.

Testul F (Fisher-Snedecor), se utilizează pentru a testa dacă variația unei variabile este mai mare într-o populație decât în alta, comparația fiind făcută folosind două eșantioane mici, câte unul din fiecare populație. Să notăm cu σ12 varianța în primul eșantion și cu σ22  varianța în cel de al doilea și să presupunem că prima din cele două valori este mai mare. (Evident, în cazul de față avem de comparat numai mărimi pozitive).

Ca și distribuția Student, distribuția F aparține familiei distribuțiilor continue. Spre deosebire de distribuția Student a cărei formă este determinată de o singură valoare a numărului gradelor de libertate, forma distribuției F este determinată de două valori diferite ale gradelor de libertate. În termenii procedurii de testare a ipotezelor acest test poate fi descris astfel:

Formularea ipotezei nule și a ipotezei alternative:

H0: 12 = 22 și 12 22

Alegerea nivelului de semnificație α. În tabelele distribuției Fischer-Snedecor sunt reprezentate ariile regiunilor critice pentru α: 0.05; 0,025 și 0,01. Deoarece acestea sunt reprezentate de o singură arie în cazul efectuării unui test bilateral vor corespunde unor nivele de semnificație α: 0,1; 0,05; 0,02;

Calcularea testului statistic pe baza relației:

dacă sau dacă

Identificarea valorii critice. Deoarece testul este bilateral se determină o singură valoare critică dată de:

α nivelul de semnificație ales

v1=(n-1) unde n este volumul eșantionului care are dispersia mai mare;

v2=(n-1) unde n este volumul eșantionul cu dispersia mai mică.

Regula de decizie este: se respinge H0 dacă valoarea calculată a testului este mai mare decât valoarea critică. În acest caz nu suntem îndreptățiți să afirmăm egalitatea dispersiilor populațiilor.

Compararea mediilor provenite din mai multe eșantioane independente

După cum se știe, procesele biologice se pot afla la un moment dat, sub influența mai multor factori, cu acțiune concomitentă. Pentru a pune în evidență în ce măsură unul sau mai mulți factori (sau chiar o combinație a acestora) influențează în mod esențial asupra unei caracteristici rezultative se utilizează analiza dispersională.

Analiza dispersională, cunoscută și sub denumirea de analiză de varianță (Anova), a fost introdusă de statisticianul R.A. Fisher. Prin această metodă se verifică măsura în care valorile reale ale unei caracteristici se abat de la valorile teoretice, calculate, de regulă, sub forma unor mărimi medii sau ecuații de regresie, precum și măsura în care aceste variații sunt dependente sau nu de factorul de grupare.

Analiza varianței (abreviat ANOVA) este metoda utilizată atunci când se dorește compararea a mai mult de doua medii. ANOVA este o metoda parametrică și ferește cercetătorul de “inflația de erori” care ar putea sa apară prin utilizarea altor teste. (ex. prin compararea a două câte două medii -; prin testul t).

Analiza varianței este puțin utilizată până în ziua de azi în cadrul cercetării clinice (unele studii în oncologie, patologie, chirurgie, psihiatrie) poate și din cauza complexității sale.

ANOVA ține cont de variațiile tuturor variabilelor și le împarte în:

variații între fiecare subiect și media eșantionului din care acesta face parte;

variații între mediile fiecărui eșantion și media generala (media mediilor tuturor eșantioanelor luate în studiu).

Daca mediile eșantioanelor sunt mult diferite intre ele, vor exista variații considerabile între ele și media generală (comparat cu variațiile din cadrul fiecărui eșantion). Dacă mediile eșantioanelor nu prezintă mari diferențe atunci variația dintre ele și media generala nu va fi mai mare decât variațiile dintre subiecții fiecărui eșantion. În aceasta situație se poate utiliza testul F pentru doua varianțe pentru testarea rației dintre varianțele mediilor și varianțele din cadrul fiecărui grup.

Ipoteza nulă pentru testul F este aceea că cele doua varianțe ar fi egale; dacă este adevărat variațiile între medii sunt mult mai mari decât variațiile între observațiile individuale în cadrul oricărui grup. De aceea nu există suficiente dovezi pentru a concluziona că mediile ar fi diferite între ele.

Cu toate ca putem considera ANOVA ca pe un test al egalității mediilor, el de fapt testează varianțele. în cazul în care ipoteza nulă este respinsă concluzionăm că nu toate mediile sunt egale; dar nu știm oricum care dintre ele nu sunt egale de aceea în continuare se impun proceduri de comparare. (ex. Tukey’s HDS Procedure, Scheffe’s Procedure, Newman – Keuls Procedure, Dunnett’s Procedure etc.).

Testul de analiză dispersională ANOVA

Valorile unei caracteristici X, sunt măsurate în k eșantioane independente, obținute din k populații. Populațiile se consideră repartizate normal, cu mediile μ1, μ2, …, μk și dispersiile egale , respectiv. Problema care se cere rezolvată este să se stabilească dacă populațiile pot fi considerate omogene din punctul de vedere al caracteristicii X. Cum egalitatea dispersiilor este impusă, mai trebuie testată egalitatea mediilor.

Pentru verificarea ipotezei de egalitate a dispersiilor se va utiliza un test adecvat. În cazul în care ipoteza normalității nu este îndeplinită (sau nu este verificată), erorile care se introduc nu sunt importante în cazul în care volumul eșantioanelor este suficient de mare (>4) iar numărul grupurilor este relativ mic.

Se consideră:

Populația 1: eșantion E1 de volum n1 cusub influența tratamentului 1:

…………………………………………………………………………………………………..

Populația 2: eșantion Ek de volum nk cusub influența tratamentului k

Ipoteza nulă și ipoteza alternativă:

H0: pentru j=1,…,k

H1: astfel încât ji există

Utilizarea testului ANOVA impune acceptarea a trei premise:

Cazurile observate reprezintă un eșantion reprezentativ (de exemplu alcătuit prin tragere la sorți) și fiecare caz este independent (valoarea unei observații nu este dependenta în nici un mod de valoarea alteia).

Dispersiile populațiilor sunt egale;

Valorile variabilei dependente trebuie să fie normal distribuite în cadrul fiecărui grup ca și la toate nivelele variabilei dependente

Aceste condiții (în special cea privind egalitatea dispersiilor) sunt foarte importante. Dacă nu sunt îndeplinite se va utiliza testul neparametric Kruskal-Wallis pentru a compara tendința centrală a două sau mai multe eșantioane independente.

Analiza funcțională unifactorială

Procedura One-Way ANOVA (ANOVA unifactorială) constă în analiza variantei (dispersiei) pentru o variabilă dependentă și este folosită pentru a testa ipoteza potrivit căreia mai multe medii sunt egale. ANOVA este considerata o extensie a testului t pentru două eșantioane.

De fapt, testul t independent este un tip special de ANOVA în care sunt implicate doar două grupe. ANOVA permite evaluarea ipotezei nule între mediile a două sau mai multe serii de date cu restricția ca acestea sa fie trepte ale aceleiași variabile independente.

Utilizarea testelor t este o metodă de determinare a diferențelor dintre mediile a doua eșantioane independente (eșantioanele provin din populații cu medii egale). Prin ANOVA se extinde compararea la mediile mai multor eșantioane.

În ANOVA, totalul dispersiei provine din doua surse: dispersia din interiorul fiecărui grup format – varianța intragrup, respectiv dispersia între mediile grupelor și media totală (pe ansamblul grupelor formate) – varianța intergrup. Dispersia intragrup se datorează fluctuațiilor eșantionului ales pentru studiu, în timp ce dispersia intergrup apare mai ales ca urmare a influenței variabilei independente. Statistica F construita pentru a testa ipoteza egalității mediilor grupurilor se obține prin raportarea (împărțirea) variantei intergrup la varianta intragrup.

Cea mai simplă analiză dispersională, numită analiza dispersională unidimensională sau unifactorială (numită în literatura engleză și “one-way ANOVA”) sau experiment complet aleator”, “experiment cu grupuri paralele”, corespunde testului t de analiza a două eșantioane independente și compară două sau mai multe grupuri.

De exemplu, n pacienți sunt grupați în k scheme de tratament. Putem să comparăm efectele a doua medicamente administrate la mai multe grupuri de voluntari. Voluntarii se distribuie aleator în toate grupurile. După măsurarea unui parametru dat, se testează ipoteza nulă ca toate valorile parametrului testat sunt egale în populația corespunzătoare diferitelor tratamente testate, deci tratamentele sunt echivalente între ele.

În ipoteza că toate grupurile aparțin aceleiași populații, ideea testului este aceea că variabilitatea în interiorul grupurilor trebuie să fie de același ordin cu variabilitatea între mediile grupurilor.

În consecință, dispersia totală, evaluată ca suma a pătratelor diferențelor între valorile individuale și media întregii populații selectate SST, este separată într-o parte datorită variației între grupuri (within), sau variabilității “interioare” și o parte datorită variabilității “dintre” (between) grupuri: SST = SSW + SSB .

ANOVA – Abordarea practică – Instrumente Excel

Analiza dispersională unifactorială poate fi efectuată în Excel prin Tools – Data Analysis: – Anova: Single Factor.

Pentru a folosi pachetul Data Analysis el trebuie instalat. Pentru aceasta verificați dacă nu a fost instalat deja: deschideți meniul Tools. Dacă opțiunea Data Analysis este prezentă, atunci se trece la pasul următor. Dacă opțiunea Data Analysis nu este prezentă, atunci din meniul Tools se alege opțiunea Add-Ins. Va apărea o fereastră asemănătoare celei de mai jos în care se va bifa prima opțiune Analysis ToolPak. Apăsați butonul Ok.

Se revine apoi în meniul Tools, opțiunea Data Analysis fiind prezentă, se apelează, iar din fereastra Data Anaylisis se alege Anova Single Factor.

Datele ce se doresc a fi analizate trebuie să fie structurate pe coloane/linii astfel încât fiecare coloană/linie să reprezinte eșantionul dintr-o subpopulație. Nu este necesar ca planul de experiențe să fie echilibrat (eșantioanele pot avea volume diferite).

În exemplul ales, cele trei coloane etichetate VD EC, VD NC și VND NC – reprezintă fiecare, observații pentru câte un eșantion, caracteristica observată fiind valoarea măsurată a limfocitelor la 3 eșantioane de viței.

Dialogul analizei este prezentat în continuare și se poate remarcă faptul că se indică la Input Range întreg domeniul ocupat de date, faptul că prezența etichetelor în prima linie este menționată în Label în first row și că în zona Alpha se poate preciza valoarea pragului de semnificație (implicit este 0,05).

Adresa Output Range se referă la un domeniu din registrul de calcul existent unde se vor afișa rezultatele, dar rezultatele pot fi scrise într-o nouă foaie de calcul sau un nou registru.

Rezultatele conțin două tabele, primul cu caracteristici specifice analizei descriptive iar cel de-al doilea al analizei inferențiale.

Tabelul ANOVA este:

Primul tabel – Summary

Groups – este titlul celor trei eșantioane.

Count – numărul de observații pentru fiecare eșantion

Sum – Suma valorilor din fiecare eșantion

Average – Media aritmetică a valorii măsurate a limfocitelor din fiecare eșantion.

Variance – Variația în fiecare eșantion

Al doilea tabel – Anova

Source of variation – variația este împărțită în variația între medii (between groups) și din interiorul grupului (within groups)

SS – variația între medii este 1051,619, variația din interiorul grupului este 64,0617

df – gradele de libertate = df between = p-1 = 2, iar df within = n-p = 27-3 = 24.

MS – suma de pătrate MS=SS/df

F este parametrul testului.

P-value – Probabilitatea. Dacă se adeverește ipoteza nulă, că media aritmetică a celor trei eșantioane nu diferă semnificativ, atunci p>0,05. Dacă p<0,05, atunci mediile diferă semnificativ. În cazul nostru p-value>0,05 deci trebuie să acceptăm ipoteza nulă.

F crit  este F corespunzător lui alpha=0,05 Dacă Fcrit = 3.35 ≥ F = 0,31 spune că  mediile aritmetice ale celor trei eșantioane nu diferă semnificativ.

Diferența dintre valorile varianțelor calculate “între probe” și în “interiorul probelor”, exprimă variabilitate mai mare sau mai mică.

Când diferența dintre pătratele medii ale celor două varianțe este foarte mică, se poate conchide că toate probele sunt extrase din aceiași populație și că influențele care au acționat asupra populației integrale, se repartizează uniform și asupra probelor analizate.

Valoarea calculată F reprezintă raportul între pătratul mediu “între probe” și pătratul mediu în “interiorul probelor”. Atunci când această valoare este apropiată de 1, ipoteza nulă se acceptă, dacă valoarea lui F diferă mult de unitate, ipoteza se respinge și funcție de pragul ales se stabilește semnificația diferențelor.

Pragul ales este de 0,05, valoarea calculată obținută este p=0,491307, ca urmare ipoteza nulă se acceptă, nu există diferențe semnificative între valorile caracteristicii măsurate în cele trei eșantioane. Aceste rezultate nu sunt suficient de concludente deoarece numărul observațiilor este foarte mic. Conform tabelului 15, în această situație, când diferențele nu sunt semnificative și numărul observațiilor este mic, rezultatul este neconcludent.

Aplicarea testului ANOVA poate produce ca rezultat și la respingerea ipotezei de egalitate a mediilor. Un asemenea rezultat este prezentat în exemplu următor, ar, ANOVA nu precizează însă, care grupuri au mediile diferite, producând astfel respingerea ipotezei nule.

Din acest motiv au fost dezvoltate tehnicile de comparație multiplă, cunoscute ca analiza post-hoc, care vor evidenția grupurile care diferă ca medie. Reamintim că nu se poate ajunge la acest lucru prin comparații asigurate de teste t, deoarece astfel nu se menține pragul de semnificație la o valoare acceptabilă.

Prezentăm în continuare un alt exemplu care în urma aplicării testul ANOVA conduce la un p<0,05. Ca urmare, între cele patru loturi există diferențe semnificative. Aplicând testul Tukey, obținem informații referitoare la loturile care conduc la apariția acestor diferențe.

În acest exemplu, valoarea lui p este mai mică de 0,05, vom trage concluzia că există diferențe semnificative între loturi, rezultat important conform tabel 15.

Testul (ANOVA) nu furnizează însă informații precise între care probe anume există aceste diferențe. Pentru elucidarea acestei probleme se folosește testul Tukey (w) . Testul Tukey este cunoscut și sub numele de procedeul semnificației corecte.

.

Diferențele semnificative apar între loturile 2 și 4, respectiv 3 și 4.

Testul Tukey a fost aplicat cu ajutorul unui Add-in software( Analyse-it v2.12), instalat în Excel.

Completăm rezultatele afișate de testul Tukey cu graficul din Figura 37. În acest grafic sunt ilustrate intervalele de încredere pentru parametrul medie la cele patru loturi. Pentru primele trei, aceste intervale se suprapun, dar, pentru lotul 4, acestea sunt la diferențe mari. Între lotul 2, lotul 3 și lotul 4 diferențele sunt semnificative, fapt semnalat de testul Tukey. Între lotul 1 și lotul 4, testul nu semnalează diferențe, lucru ilustrat și de grafic, prin faptul că intervalele de încredere se suprapun. Totuși, și pentru acest exemplu, numărul de observații din eșantioane este foarte mic, dar conform tabelului 15, în acesta situație: diferențe semnificative și număr de observații mic, rezultatul obținut este important.

Anova: Two-Factor With Replication

Anova: Two-Factor With Replication este un instrument de analiză util atunci când datele pot fi clasificate după două dimensiuni diferite.

Considerăm exemplul următor: Într-un experiment s-a măsurat diferența dintre temperatura rectală inițială și finală în trei faze ale operației (înainte, în tipul și după operație) la un lot de 10 câini cu aceiaș afecțiune, în două situații : A – experiment și B – control. Cele două dimensiuni sunt: fazele (3) și situațiile (A și B).

Datele sunt prezentate în tabelul 19

In acest caz, Anova se numește two-way sau dublu factor deoarece avem două variabile independente: fazele operației și cele două experimente: A și B.

Sunt efectuate 10 măsurători pentru cele trei eșantioane: înainte de operație, în timpul operației și după operație, pentru experimentul A, respectiv B.

Se pot pune trei feluri de întrebări:

Există diferență între valorile măsurate între cele două experimente A și B?

Există diferențe între valorile măsurate între cele trei faze ale operației?

Există diferență între grupe datorate factorilor combinați?

Tabel 19. Date observate pentru exemplul utilizării testului Anova:

Two-Factor With Replication

Se introduc datele din tabelul 19 într-o foaie de lucru Excel și se alege opțiunea Data Analysis din meniul Tools. Se alege Anova: Two-Factor With Replication. Click OK.

Input Range: se selectează domeniul care cuprinde toate datele necesare analizei.

Rows per sample: numărul de măsurători din fiecare eșantion, în cazul nostru 10.

Alpha (nivelul de semnificație) se alege 0,05.

Rezultatele se vor afișa în aceiași foaie de calcul începând cu coordonatele precizate în zona de editare cu eticheta Output Range.

După toți pașii de mai sus se vor obține următoarele rezultate:

Interpretarea rezultatelor:

Primul tabel – Summary – se găsesc rezultatele pentru fiecare dintre cele două eșantioane și per total (A și B)

Count – numărul de indivizi din fiecare eșantion, în cazul nostru: 10 și per total: 20

Sum – Suma valorilor măsurate pentru fiecare eșantion și per total.

Average – Media aritmetică a valorilor măsurate pentru fiecare eșantion și per total.

Variance – Variația valorilor măsurate pentru fiecare eșantion și per total.

Al doilea tabel – Anova – Source of variation

Sample – Se compară valorile măsurate pentru grupul A și B

Columns – Se compară valorile măsurate în cele trei faze

Interaction – este interacțiunea dintre fază și tratament

Within – în interiorul grupurilor

Total – per total

P-value – Probabilitatea

Se compară fiecare p cu 0,05.

Se răspunde la cele trei întrebări inițiale în funcție de valoarea probabilității p. În cazul nostru psample, pcolumns și pinteraction sunt mai mici decât 0,05. Putem afirma că există diferențe semnificative între valorile observate (diferența dintre temperatura inițială și finală măsurată rectal) între cele trei faze, de asemenea și între cele două experimente (A și B) și există diferențe semnificative între valorile observate datorită factorilor combinați.

Anova: Two-Factor Without Replication

Se utilizează atunci când datele sunt clasificate după două dimensiuni (doi factori), la fel ca și în cazul Anova: Two-Factor With Replication, dar există o singură observație pentru fiecare pereche.

Pentru ilustrare prezentăm exemplul următor.

În tabelul 20 sunt prezentate valorile măsurate pentru cantitatea medie de deuteriu din sânge, în intoxicația cu Cr, la 12 eșantioane de femele de șobolani pentru 6 loturi tratate în mod diferit.

Pentru acest exemplu există o singură observație pentru fiecare pereche.

Tabel 20. Valorile observate pentru cantitatea medie de deuteriu din sânge în intoxicația cu Cr

În urma aplicării Anova: Two-Factor Without Replication se obțin următoarele rezultate:

Tabelul SUMMARY prezintă rezultatele referitoare la statistica descriptivă (medie, varianță, sumă a valorilor,etc.) pe linii și pe coloane.

Tabelul Anova – Source of variation prezintă în coloana P-value probabilitățile de admitere (p>0,05) și respingere (p<0.05)a ipotezelor egalității mediei pe linii respectiv coloane.

Valoarea obținută pentru p pe linii arată că între cele 6 loturi cantitatea medie de deuteriu din sânge în intoxicația cu Cr sunt diferențe foarte semnificative, dar între probe acestea nu există.

Teste neparametrice

Un test neparametric este acela care nu face presupuneri cu privire la forma distribuției populației din care a fost selectat eșantionul.

Pe de altă parte majoritatea testelor parametrice solicită ca datele să utilizeze scala de interval sau scala proporțională sau pornesc de la premiza distribuirii normale sau aproximativ normale a populației.

În situațiile în care aceste condiții nu sunt satisfăcute nu putem aplica testele parametrice și suntem nevoiți să recurgem la cele neparametrice.

Testele neparametrice se utilizează atunci când:

variabila dependentă este măsurată pe scală nominală sau ordinală;

variabila dependentă este de tip categorial, indiferent de scala de măsurare;

deși variabila dependentă este măsurată pe scală cantitativă (interval sau raport), nu întrunește condițiile impuse de testele parametrice: distribuție care se abate grav de la forma normală – asimetrie sau boltire mari, valori excesive:

volumul eșantionului este foarte mic.

Comparând testele parametrice cu cele neparametrice am evidențiat următoarele avantaje și dezavantaje:

Avantaje

Testele neparametrice nu fac nici o supoziție cu privire la distribuția populației putând fi utilizate în orice condiții;

Pot fi utilizate atunci când mărimile eșantioanelor sunt foarte mici;

Se pot testa variabilele din eșantion ce sunt măsurate pe scale nominale și ordinale;

Sunt ușor de calculat.

Pot fi utilizate în cazul variabilelor afectate de valori extreme care nu pot fi eliminate.

Utilizarea lor nu presupune condiții la fel de restrictive ca testele parametrice (normalitatea distribuției, omogenitatea varianței, etc.).

Conceptele și metodele statisticii neparametrice sunt ușor de înțeles.

Dezavantaje

Comparativ cu testele parametrice, cele neparametrice utilizează mai puțin eficient informația oferită de date iar puterea testului este mai slabă. Din acest motiv, atunci când prezumțiile sunt îndeplinite, este preferat testul parametric;

Testele neparametrice se sprijină mai mult pe tabelele statistice specifice.

Se bazează pe măsurări pe scale nominale și ordinale, care sunt, prin natura lor, măsurări mai puțin precise decât cele pe scale cantitative (de interval sau de raport).

Tind sa fie utilizate, datorită relativei lor simplități, și în situații în care se pot utiliza teste parametrice. Este important să reținem faptul că, atunci când sunt întrunite condițiile pentru aplicarea unui test parametric, nu este recomandabilă transformarea variabilei și utilizarea unui test neparametric.

Deși se bazează pe calcule elementare, adesea acestea pot fi destul de complexe și de laborioase.

Principiul care stă la baza evaluării mărimii efectului pentru testele parametrice (proporția explicată a varianței) nu este ușor de aplicat în cazul testelor neparametrice. Ca urmare, pentru multe dintre testele neparametrice nu se poate calcula un indice de mărime a efectului.

Ca o concluzie generală, utilizarea testelor neparametrice nu poate fi evitată dacă variabila dependentă este una de tip nominal sau ordinal. Dacă, insă, este măsurată pe o scală de interval/raport, se pune problema de a alege între un test parametric și unul neparametric.

In acest caz, criteriul principal de decizie este normalitatea distribuției la nivelul populației. În principiu, teorema limitei centrale oferă suportul teoretic al asumării acestei condiții pentru eșantioane „suficient de mari”. Din păcate, nu avem nici un criteriu sigur de verificare a acestei condiții. Din acest motiv există o anumită dispută în legătură cu justificarea utilizării testelor parametrice în anumite cazuri. Dacă eșantioanele care se apropie sau depășesc 100 de valori (subiecți) permit asumarea cu încredere a condiției de normalitate, eșantioanele de mărimi medii (20-40 de subiecți) sunt considerate mai puțin sigure. Simulările pe calculator au arătat că există teste parametrice mai puțin vulnerabile la violarea condiției de normalitate (testele t, de exemplu), dar și altele care devin nesigure în această situație (de ex., testul F pentru omogenitatea varianței). Fără a încerca tranșarea disputei, putem reține că, mai ales pentru eșantioanele mici, atunci când avem motive să ne îndoim de normalitatea distribuției la nivelul populației, vor fi preferate testele neparametrice.

Teste neparametrice pentru date nominale:

testul z pentru proporția unui singur eșantion;

testul z pentru diferența dintre proporțiile a două eșantioane;

testul semnului;

testul 2 de independență (al asocierii);

testul 2 pentru gradul de corespondență (goodness of fit).

Teste neparametrice pentru date ordinale:

testul Mann-Whitney (U) pentru două eșantioane independente;

testul Wilcoxon pentru două eșantioane perechi ;

testul Kruskal-Wallis pentru mai mult de două eșantioane independente;

testul Friedman pentru măsurări repetate;

teste de corelație pentru date ordinale (Spearman, Kendall).

Reamintim că datele nominale și cele ordinale sunt de natură calitativă.

Teste neparametrice pentru date nominale

Testul „z” pentru compararea proporției din eșantion cu cea din populație

În unele ocazii se pune problema testării proporției w obținute pe baza datelor din eșantion cu valoarea proporției din populație, reală sau cu o valoare teoretică p.

Distribuția teoretică corespunzătoare repartizării proporțiilor este distribuția binomială. Totuși, se consideră că distribuția normală este o bună aproximație a acesteia atunci când sunt îndeplinite condițiile: și . Dacă eșantioanele nu sunt de volum redus aceste condiții în practică sunt de cele mai multe ori satisfăcute (n este volumul eșantionului).

Când utilizăm distribuția normală pentru a testa proporția din eșantion, testul statistic este următorul:

unde w= proporția din eșantion iar p = proporția din populație.

Test bilateral

În această formă a testului se determină două limite și se utilizează în cazul în care caracteristica calitativă este dublu tolerată.

H0: w= p și H1:

Regiunea critică în cazul testului bilateral este:

W:

Dacă valoarea calculată zc luată în modul este inferioară valorii tabelate corespunzătoare nivelului de semnificație putem considera că nu există diferențe semnificative între w și p și se acceptă ipoteza nulă.

Test unilateral stânga

H0: w= p și H1:

Regiunea critică pentru testul unilateral stânga este: W:

Dacă valoarea calculată zc este mai mică decât valoarea tabelată corespunzătoare nivelului de semnificație se respinge ipoteza nulă și se acceptă ipoteza alternativă.

Test unilateral dreapta

H0: w= p și H1:

Regiunea critică este: W:

Dacă valoarea calculată zc este mai mare decât valoarea tabelată corespunzătoare nivelului de semnificație se respinge ipoteza nulă și se acceptă ipoteza alternativă.

În cazul în care condițiile: și nu sunt îndeplinite nu se va putea utiliza distribuția normală, probabilitățile exacte trebuind preluate din tabela distribuției binomiale.

Testele 2.

2 este un test de semnificație nonparametric, este cel mai utilizat test de acest tip în statistică, extinzând aria de analiză spre mai mult de două populații.

Testele 2 se împart în trei mari categorii, în funcție de situațiile de cercetare în care se pot fi aplicate:

Testul 2 de corespondență (în engleză  „goodness-of-fit”)

Este folosit pentru testarea reprezentativității unui eșantion precum și pentru testarea egalității dintre proporțiile a trei sau mai multe populații,.

Testul 2 de independență (în engleză  “independence”)

Testul 2 de omogenitate (în engleză  „homogeneity”)

Aceste două  teste sunt folosite pentru testarea asocierii dintre două  variabile calitative.

Testul 2 utilizat pentru testarea unei ipoteze despre varianța ori deviația standard din populație.

În toate cele trei situații, se procedează la fel ca în orice test de semnificație: se compară valoarea calculată  a testului cu cea critică (care depinde de nivelul de încredere ori nivelul de semnificație ales), urmând luarea deciziei – se obține o valoare p asociată cu valoarea calculată a testului, care se compară cu nivelul de semnificație ales pentru a lua decizia.

Este necesară lămurirea modalității de calcul a valorii testului precum și a valorii p asociată, de asemenea verificarea distribuției de eșantionare care trebuie să fie o „distribuția 2 „.

Testul 2 de corespondență (Goodness of Fit)

Testul 2 pentru gradul de corespondență se utilizează atunci când dorim să comparăm frecvențele observate ale unei singure variabile categoriale, cu frecvențele așteptate ale acesteia, dinainte cunoscute.

Testarea reprezentativității unui eșantion

Această variantă a testului 2 compară frecvențele observate ale unei distribuții cu frecvențele teoretice (așteptate) ale acelei variabile.

Fie X caracteristica unei populații din care s-a extras o selecție de volum n, cu următoarea repartiție empirică. Această caracteristică se compară cu una teoretică

notăm cu fi frecvențele relative (fi=ni/n) (ni=n)

pi=1 și i=n*pi

Se testează ipoteza dacă fi=pi sau alternativa fipi cu ajutorul testului 2

Formula de calcul este:

2=

ni sunt frecvențele absolute empirice

i sunt frecvențele absolute teoretice.

Exemplu:

Autofecundându-se o serie de plante hibride de mazăre, din F1 rezultate din încrucișarea unui soi cu talie înaltă cu unul cu talie mică s-au obținut în F2 520 plante cu talie înaltă ți 152 plante mici. Să se stabilească dacă proporția obținută corespunde cu cea teoretică de tipul 3:1.

Se compară două șiruri de frecvențe, unul teoretic și unul experimental. Cunoaștem raportul frecvențelor teoretice (3:1) și frecvențele experimentale (520 și 152).

520+152=672

672:(3+1)=672:4=168

3*168=504

1*168=168

Completăm tabelul și aplicăm testul 2

2=2,03

grade de libertate (GL)=2-1=1

În tabel pentru =0,05 găsim 3,84 sau în Excel apelăm funcția CHIDIST(2,03;1) și obținem direct probabilitatea p= 0,154221

Valoarea calculată este cuprinsă în intervalul :

-3,8423,84

Se acceptă ipoteza nulă (p=15%), deci, nu sunt diferențe semnificative între frecvențele teoretice și cele experimentale. Frecvențele experimentale respectă proporția teoretică.

Facem, încă o dată, precizarea că această formă a testului chi-pătrat se aplică atunci când vrem să comparăm frecvențe observate cu frecvențe teoretice (așteptate), pe care le cunoaștem deja.

Testarea egalității dintre trei sau mai multe proporții

Să presupunem că suntem interesați dacă numărul de decese survenite într-o fermă în patru perioade egale ale zilei, sunt egale sau nu, sau altfel spus, dacă numărul de decese dintr-o zi este influențat de perioada specificată.

Numărul de decese crește în ritm constant pe tot parcursul celor 24 de ore.

Putem să generalizăm acest observație?

Diferențele de la o distribuție uniformă sunt datorate unei pure întâmplări?

Testul 2 – pentru gradul de corespondență compară frecvențele observate ale unei distribuții cu frecvențele teoretice (așteptate) ale acelei variabile

Distribuția de frecvențe absolute (31,30,41,58) va fi denumită în continuare frecvențe observate (fo), acestea fiind extrase din observațiile obținute în urma unui studiu.

Dacă nu ar fi nici o diferență între perioadele zilei în ce privește numărul de decese, ne-am aștepta ca acestea să fie aproximativ egale. Cu alte cuvinte, frecvențele relative să fie împărțite în mod egal pe cele patru perioade ale zilei, câte un sfert (25% sau 0,25) în fiecare dintre ele.

Emiterea ipotezei

H0 : Numărul de decese nu depinde de perioada zilei (este egal în fiecare perioada a zilei);

HA : Cel puțin două perioade au un număr diferit de decese;

Sau

H0 : Proporțiile deceselor pentru fiecare perioadă a zilei sunt egale;

HA : Cel puțin două perioade au proporții diferite de decese;

sau și mai simplu:

H0 : p1 = p2 = p3 = p4 = 0, 25

HA : Cel puțin o pereche de proporții sunt diferite

Tabel 21. Frecvențe observate și frecvențe așteptate ale numărului de decese pe perioade ale zilei

Frecvențele așteptate pentru testul de corespondență se calculează cu formula:

Unde:

n este mărimea eșantionului (totalul tuturor categoriilor),

P este proporția așteptată din ipoteza de nul

K este numărul de categorii

Se compară cele două categorii de frecvențe: cele observate și cele așteptate

Valoarea calculată a testului se face cu următoarea formulă:

Determinarea valorii calculate a lui 2

Pasul 1. Specificarea ipotezelor de nul și alternativă

H0: p1=p2=p3=p4=0,25

Ha: Cel puțin o pereche de proporții sunt diferite

Pasul 2. Verificarea asumpțiilor testului 2

Dacă acestea nu sunt îndeplinite, nu putem merge mai departe. În funcție de caz, se trece la aplicarea unui alte test.

Pasul 3. Calcularea gradelor de libertate.

Folosim formula g.l.=k-1

Întrucât variabila luată în studiu are 4 categorii, sunt 4-1 grade de libertate

Pasul 4. Determinarea nivelului de semnificație și calcularea valorii critice a lui 2

Luăm un nivel de semnificație generic = 0, 05 (sau 5%).

Întrucât testul 2 de adecvare se face numai pe coada din dreapta, valoarea critică pentru care aria din dreapta este egală cu 5%, la 3 grade de libertate, este 2 cr = 7,81

Pasul 5. Desenarea distribuției 2 și a zonei de respingere

Pasul 6. Determinarea valorii calculate a lui 2 și a valorii p asociate
Valoarea calculată este: 2 = 6,2 care are o valoare p asociată egală cu 0,1022 (adică 10%)

Pasul 7. Luarea deciziei

Întrucât 2 calculat este mai mic decât 2 critic, nu intră în zona de respingere și în consecință nu putem respinge ipoteza de nul: numărul de decese nu depinde de perioada zilei (este egal în fiecare perioada a zilei);

Rezolvarea în EXCEL

p>0.05 ipoteza se acceptă, numărul de decese nu depinde de perioada zilei.

Testul 2 de independență și testul 2 de omogenitate

Următoarele două teste 2 (de independență  și de omogenitate) se aplică unui tabel de contingență .

Tabele de contingență

Tabelele de contingență sunt niște tabele de frecvență  pentru două variabile în mod simultan. Aceste tabele mai sunt denumite tabele cu două intrări (în engl. two-way table): una dintre variabile are distribuția de frecvențe pe linii iar cealaltă pe coloane.

Se prezintă următoarea problemă (exemplu):

S-au vaccinat 500 de păsări împotriva pestei păsărilor.

Tabel 22.Tabel de contingență

Să se testeze eficacitatea vaccinului asupra pestei păsărilor

În tabelul de mai sus se pot observa categoriile celor două variabile plus totalurile pe linii și coloane. Avem așadar 410 păsări vaccinate, 90 de păsări nevaccinate, 420 păsări sănătoase, 80 de păsări bolnave.

Numărul de rânduri al unui tabel de contingență  se notează cu litera R iar numărul de coloane se notează cu C. Orice tabel de contingență este un tabel RxC. În exemplul nostru avem un tabel 2 x 2 (se citește „tabel 2 pe 2”) adică un tabel cu 2 rânduri și 2 coloane.

În relația dintre două variabile, putem folosi una dintre ele pentru a explica dinamica celeilalte. În cazul variabilelor cantitative, variabila care explică se numește variabil independentă, iar variabila explicată se numește variabilă dependentă

În construirea unui tabel de contingență , se recomandă aranjarea variabilei explicative pe coloane iar variabila efect pe rânduri. Această recomandare vine din ușurința cu care ochiul omenesc poate să compare două lucruri care sunt pe același rând.

În cazul tabelelor de contingență cu variabile calitative, se preferă păstrarea distincției mai neutre între variabile explicative și variabile efect.

Cel mai adesea, tabelele de contingență sunt analizate sub forma distribuțiilor de frecvențe relative ori a distribuțiilor de procente.

Tabel 23. Tabel de contingență cu frecvențe relative din totalurile pe coloane

Toate frecvențele relative de pe coloane se adun  și au un total de 1 (sau 100%).

Fiecare rând în parte are o distribuție proprie; acestea mai sunt denumite distribuții condiționate ale variabilei „stare de sănătate” (de-a lungul categoriilor variabilei „stare de vaccinare”).

În sfârșit, un alt fel de a vedea problema sau un alt mod de a pune întrebări poate fi: cât la sută dintre cei care nu sunt vaccinați sunt sănătoși? Pentru acest lucru construim un tabel de contingență  în care frecvențele relative sunt calculate prin raportul dintre frecvențele observate din celule supra totalurile pe rânduri.

Tabel 24. Tabel de contingență  cu frecvențe relative din totalurile pe linii

Toate frecvențele relative de pe rânduri se adună  și au un total de 1 (sau 100%). Fiecare coloană în parte are o distribuție proprie; acestea mai sunt denumite distribuții condiționate ale variabilei „stare de vaccinare” (de-a lungul categoriilor variabilei „stare de sănătate”).

Testul 2 de independență (al asocierii)

Spunem că două variabile sunt asociate dacă, atunci când cunoaștem valoarea uneia dintre ele, putem spune ceva despre valoarea celeilalte.

Numim asociere relația statistică dintre două variabile calitative

Testul de independență este utilizat pentru evidențierea gradului de asociere între două variabile categoriale.

El se aplică tabelelor de contingență  și ne ajută să testăm dacă cele două variabile calitative sunt sau nu asociate.

Condiții

Variabile categoriale, care pot fi exprimate, fie prin valori numerice, fie prin valori de tip string (caracter tipăribil)

Cele două variabile nu trebuie să se „intersecteze” (să nu existe subiecți care să fie incluși în mai mult de o celulă de tabel).

Este recomandabil ca frecvența așteptată să nu ia valori mai mici de 5.

Setul de ipoteze poate fi scris sub forma:

H0 : Variabilele sunt independente (adică nu sunt asociate)

HA : Variabilele nu sunt independente (adică sunt asociate)

Valoarea calculat  a lui 2 se obține folosind formula :

Ceea ce diferă la acest test față  de cel de corespondență sunt modul de calcul a frecvențelor așteptate și modul de calcul a gradelor de libertate.

În cazul unui tabel de contingență  nu avem o singură distribuție de frecvențe observate (ca la testul 2 de corespondență) ci o combinație de două distribuții observate. În fapt, avem câte o frecvență  observată pentru fiecare celulă a tabelului și pentru fiecare dintre acestea va trebui să calculăm o frecvență  așteptată.

Cerința problemei este să spunem dacă starea de sănătate este influențată de starea de vaccinare, cu alte cuvinte dacă vaccinul are sau nu efect.

Pentru acest lucru vom compara frecvențele observate cu cele așteptate iar modul de calcul a frecvențelor așteptate va lua în calcul distribuțiile de frecvențe marginale ale celor două variabile.

Frecvențele așteptate pentru testul 2 de independență  se calculează cu formula:

unde:

TR este totalul pe rânduri,

TC este totalul pe coloane, iar

n este mărimea eșantionului (totalul general al tabelului)

Frecvențele observate:

Frecvențele așteptate:

Gradele de libertate pentru testul 2 de independență  se calculează  cu formula:

G.L.: = (R-1)(C -1)

unde R este numărul de rânduri iar C este numărul de coloane.

Aplicăm testul, utilizând următorul set de pași:

Pasul 1. Specificarea ipotezelor de nul și alternativ

H0 : Variabila „stare de sănătate” este independentă de variabila „stare de vaccinare”

HA : Exist  o relație de asociere între cele două variabile

Pasul 2. Verificarea asumpțiilor testului 2.

Dac  acestea nu sunt îndeplinite, nu putem trece mai departe. În funcție de caz, se trece la aplicarea unui alt test.

Pasul 3. Calcularea gradelor de libertate

Folosim formula: G.L.: = (R-1)(C -1)

Tabelul de contingență din exemplul prezentata  are 2 rânduri și 2 coloane, deci:

G.L.:=2×2=4

Pasul 4. Determinarea nivelului de semnificație și calcularea valorii critice a lui 2.

Luăm un nivel de semnificație generică α= 0,05 sau (5%). Întrucât testul 2 de independență se face numai pe coada din dreapta, valoarea critică pentru care aria din dreapta este egal  cu 5%, la 2 grade de libertate, este =3,841459.

Pasul 5. Desenarea distribuției 2 și a zonei de respingere

Pasul 6. Determinarea valorii calculate a lui 2 și a valorii p asociate

Folosind formula :

și datele din tabelul cu frecvențe observate și așteptate se obține valoarea pentru =311,669 (punctul din figura de mai jos) care are o valoare p asociată egală cu 9,45352E-70. Aceasta este o valoarea foarte mică (scriere științifică cu mantisă și exponent)

Pasul 7. Luarea deciziei.

Întrucât =311,669 calculată este mai mare decât =3,841459, intră în zona de respingere și în consecință  respingem ipoteza de nul cu privire la independența celor două variabile. În mod cert, exist  o legătură de asociere între „starea de sănătate” și „starea de vaccinare”. Probabilitatea ca cele două variabile luate în studiu să fie independente este foarte mică (p=9,45352E-70). Ca urmare, putem spune cu certitudine că vaccinul a avut efect și a influențat starea de sănătate a păsărilor.

Testul 2 de omogenitate

Acest test este puțin mai special iar unele cărți nici nu îl tratează separat. Deși metoda de testare este asemănătoare cu a testului 2 de independență  (se bazează tot pe un tabel de contingență ), există câteva lucruri care îl diferențiază de acesta.

Uneori (deși lucrăm cu un tabel de contingență) nu se poate vorbi de o variabilă explicativă și o variabilă  efect, ci de o singur  variabilă calitativă  care are câte o distribuție de frecvențe în cadrul a două sau mai multe grupuri. Noi trebuie să testăm dacă aceste distribuții de frecvențe sunt asemănătoare (sau omogene).

Testul de omogenitate constă în verificarea ipotezei:

H0: că toate probele provin din aceiași populație cu aceiași probabilitate de existență a însușirii respective

HA: probele provin din populații diferite

n1,n2, nk frecvențe reale

1, 2, 3, k frecvențe teoretice

Frecvențele teoretice nu le calculăm cu regula de trei simplă ci în funcție de probabilitatea ca evenimentul să se producă (p=n/N) sau probabilitatea ca evenimentul să nu se producă (q=1-p).

2calculat se compară cu cel din tabel pentru nivelul de încredere de a= 0,05 și n-1 grade de libertate.

ipoteza se acceptă cele k loturi provin dintr-o populație omogenă

ipoteza se respinge, loturile nu fac parte din aceiași populație.

Rezolvare în EXCEL

Frecvențele așteptate s-au calculat la fel ca și în cazul testului 2 de independență

cu formula:

unde:

TR este totalul pe rânduri,

TC este totalul pe coloane, iar

n este mărimea eșantionului (totalul general al tabelului)

S-a obținut o valoare p=0,11377 (p=11%), ca urmare ipoteza se acceptă, cele 4 loturi provin dintr-o populație omogenă.

Multe dintre metodele de comparație care sunt utilizate în tratamentul variabilelor aleatoare continue se bazează pe ipoteza „fundamentală” că anumite variabile sunt distribuite normal (sau cel puțin aproximativ normal). Sunt cunoscute în literatura statistică, din motive evidente, sub numele de teste parametrice.

Există însa situații în care, fie nu cunoaștem deloc felul în care sunt distribuite variabilele, fie, distribuția normală a lor este încălcată flagrant. În asemenea situații, pentru compararea populațiilor este posibil sa folosim teste care nu presupun nimic despre tipul de distribuție, cu alte cuvinte teste neparametrice.

Testele neparametrice se pot aplica și pentru variabilele care sunt distribuite normal, dar rezultatele care se obțin vor fi mai puțin „semnificative” decât ale testelor parametrice analoage.

Testele nonparametrice nu țin cont de valoarea efectivă a variabilei, ci de ordinea lor (rank tests) – care este valoarea cea mai mică, care este următoarea și așa mai departe.

Alegem clar un test nonparametric în trei situații:

efectul este o variabilă ordinală și populația nu are o distribuție normală

efectul este o variabilă cantitativă și suntem siguri că nu are o distribuție normală în populație (în acest caz o putem aduce la o distribuție normală prin transformare: logaritmul, reciproca, rădăcina pătrată – din punct de vedere matematic este corect, mai puțin din punct de vedere biologic);

efectul este o variabilă cantitativă cu distribuție normală, dar dispersia (deviația standard) este mult diferită între grupurile de comparat.

În cele mai cunoscute dintre aceste teste neparametrice, valorile numerice ale variabilelor – obținute din eșantion – sunt înlocuite prin rangurile lor. De aceea ele sunt denumite teste de rang.

Cel mai utilizat test de semnificație neparametric este testul Wilcoxon.

Testul Wilcoxon

Testul Wilcoxon signed rank pentru un eșantion este utilizat pentru a testa dacă eșantionul a fost extras dintr-o populație a cărei valoare mediană nu diferă semnificativ față de o valoare specificată. Utilizarea testului nu este condiționată de o anumită formă a distribuției populației exceptând faptul că aceasta trebuie sa fie aproximativ simetrică.

Testul Wilcoxon signed rank pentru un eșantion este echivalentul testului parametric z.

Facem precizarea că în cazul aplicării acestui test, caracteristica ce este studiată și luată în calcul este mediana. Reamintim că mediana este: „acea valoare a unei variabile care împarte seria ordonată de date (repartiția de frecvență) în două părți egale, astfel încât 50% din observații se vor situa deasupra valorii mediane iar 50% dedesubtul ei”.

Prezentăm rezolvarea următoarei probleme cu ajutorul testului Wilcoxon signed rank pentru un eșantion.

Vârsta decesului a unui număr de 18pacienți (câini) este ilustrată în tabelul de mai jos:

Se poate concluzia ca vârsta media a decesului este 5 ani?

Numărul mic de observații (n=18) și faptul că nu avem certitudinea unei repartiții normale (p=0,038 calculat cu testul de normalitate Anderson – Darling este sub pragul de 0,05) nu prezintă condițiile necesare aplicării unui test parametric, ca urmare se recurge la acest test neparametric.

Rezultatul obținut cu ajutorul aplicației MINITAB (Stat – Nonparametrics – 1- Sample Wilcoxon) este:

Wilcoxon Signed Rank Test: ani

Test of median = 5.000 versus median not = 5.000

N

for Wilcoxon Estimated

N Test Statistic P Median

ani 18 18 155.5 0.002 10.25

Valoarea obținută pentru p (p=0,02) conduce la respingerea ipotezei egalității cu valoarea 5.

Nu putem concluziona pe baza datelor din eșantion că valoarea mediei a vârstei decesului este 5 ani.

Acest test (1 – sample Wilcoxon) permite și calcularea intervalului de încredere pentru mediană la nivelul de încredere precizat (95%).

Wilcoxon Signed Rank CI: ani

Confidence

Estimated Achieved Interval

N Median Confidence Lower Upper

ani 18 9,85 95,0 5,60 13,15

Se observă ca valoarea de 5 (ani) nu este cuprinsă în intervalul de încredere calculat pentru nivelul de confidență de 0,05

Testul Wilcoxon împerecheat, sau Wilcoxon signed ranks test (testul semnului șirurilor).

Testul Wilcoxon signed rank pentru compararea valorilor din două eșantioane dependente (perechi) este echivalentul testului parametric t pentru compararea datelor provenite din eșantioane perechi.

Ipoteza de la care se pleacă este aceea ca medianele celor două eșantioane perechi ar fi egale.

Testul constituie o excelenta alternativa la testul t, fiind aproape la fel de puternic (cu excepția respingerii ipotezei nule, atunci când ea este falsă) ca și testul t în detectarea diferențelor atunci când variabilele urmează o distribuție normală. Când variabilele nu sunt normal distribuite, este mai puternic decât testul t. Din acest motiv, testul Wilcoxon împerecheat este din ce în ce mai utilizat în cercetarea medicală.

Prezentăm în continuare aplicarea acestui test la studiul a două eșantioane, pentru a verifica dacă acestea diferă semnificativ sau nu.

Exemplu. Se urmărește îmbunătățirea ritmului cardiac a unui lot de pacienți hipotensivi care sunt supuși unui medicament antihipotensiv, urmărindu-se ritmul cardiac în bătăi/minut.

Să se verifice dacă ritmul cardiac mediu al pacienților hipotensivi, în urma administrării tratamentului suferă sau nu modificări semnificative.

Problema poate fi rezolvată atât cu testul t cât și cu Testul Wilcoxon signed rank pentru compararea valorilor din două eșantioane dependente (perechi).

Dispunem doar de un eșantion de 20 de observații înainte și după tratament. Nu cunoaștem nimic despre distribuția în populație a valorilor, ca urmare este de recomandat să aplicăm un test neparametric.

Rezultatele aplicării testului Wilcoxon împerecheat sunt prezentate în figura de mai jos:

Se obține o probabilitate de 0,004, cea ce conduce la concluzia că ritmul cardiac mediu al pacienților hipotensivi, în urma administrării tratamentului suferă modificări semnificative. Riscul acceptării acestei decizii este de 0,49%

Un rezultata asemănător se obține și în urma aplicării testului t. Probabilitatea obținută în urma aplicării testului t este p=0,039, diferențele între ritmurile cardiace ale pacienților înainte și după tratament sunt semnificative.

Rezolvarea în EXCEL:

Testul Mann-Whitney

Testul Mann-Whitney (sau Wilcoxon rank sum) pentru compararea medianelor a două eșantioane independente

Testul mai este cunoscut sub diferite denumiri: testul sumei de șiruri Wilcoxon, testul sumei de șiruri Mann-Whitney-Wilcoxon

Dacă nu este îndeplinită condiția ca variabilele să fie măsurate cel puțin pe o scală de interval sau populațiile din care provin eșantioanele (cu variații egale și necunoscute) nu sunt normal distribuite, testul Student calculat pe baza estimării variației nu se poate aplica și va fi înlocuit cu testul Mann-Whitney.

Acest test se poate utiliza atunci când variabilele utilizează cel puțin o scală ordinală, eșantioanele au fost selectate aleator și sunt independente iar populațiile din care provin urmează aproximativ aceeași distribuție. Este utilizat în compararea mediilor a doua grupuri dar, de fapt, testul compară egalitatea medianelor. Mărimea eșantioanelor nu trebuie să fie aceeași.

Exemplu. Se ia un lot martor format din n1=10 șoareci și un lot tratat, format din n2=9 șoareci. Ca analgezic se folosește metamizol sodic (5mg/kg.corp), iar ca stimul chimic se folosește acid acetic 0,6% (1 ml / 10 g masă corporală). Se înregistrează numărul de contorsiuni, rezultatele fiind trecute în tabelul de mai jos:

Rezultatul obținut este prezentata în continuare (aplicația MINITAB):

Mann-Whitney Test and CI: Lot martor; Lot tratat

N Median

Lot martor 10 36,00

Lot tratat 9 29,00

Point estimate for ETA1-ETA2 is 7,00

95,5 Percent CI for ETA1-ETA2 is (-1,00;20,00)

W = 122,5

Test of ETA1 = ETA2 vs ETA1 not = ETA2 is significant at 0,0724

The test is significant at 0,0718 (adjusted for ties)

Probabilitatea obținută p=0,0724, ajustată la p=0,0718 datorită faptului că în eșantioane există valori ce se repetă, conduce la decizia acceptării ipotezei nule și anume că între cele două eșantioane (martor și tratat) nu există diferențe semnificative.

Rezolvarea aceleiași probleme cu testul t (test parametric) conduce la un rezultata asemănător.

Two-Sample T-Test and CI: Lot martor; Lot tratat

Two-sample T for Lot martor vs Lot tratat

N Mean StDev SE Mean

Lot martor 10 38,3 11,4 3,6

Lot tratat 9 30,33 8,08 2,7

Difference = mu (Lot martor) – mu (Lot tratat)

Estimate for difference: 7,96667

95% CI for difference: (-1,55745; 17,49079)

T-Test of difference = 0 (vs not =): T-Value = 1,77 P-Value = 0,095 DF = 16

Rezolvarea problemei cu ambele teste (parametric și nonparametric) și obținerea aceluiași rezultata ne ajută să afirmăm cu mai mare certitudine că nu există diferențe semnificative între lotul martor și cel tratat. Valoarea obținută pentru p este apropiată de valoarea 0,05 care reprezintă limită pentru decizie, ca urmare, un cercetător riguros ar repeta experimentul pentru a trage concluzia finală.

Testul Kruskal-Wallis

Testul Kruskal-Wallis pentru compararea mai multor eșantioane independente

Acest test este o extensie a testului Mann-Whitney prezentat anterior și este echivalentul testului parametric ANOVA pentru eșantioane independente. Spre deosebire de acesta, testul Kruskal-Wallis nu necesită ca eșantioanele să provină din populații normal distribuite și se poate utiliza pentru date ce utilizează cel puțin scala ordinală și provin din eșantioane selectate aleator din populațiile din care provin.

În exemplul următor avem în studiu parametri sangvini (Hg (g/dl)), la trei loturi (martor, L1 și L2) în urma unui tratament cu fructe de pădure.

Observațiile măsurate sunt prezentate în tabelul 25.

Tabel 25. Observații măsurate în urma unui tratament cu fructe de pădure

Interesează dacă între cele trei loturi sunt diferențe semnificative.

Caracteristica observată este de natură cantitativă, dar, numărul mic de probe din eșantioane nu permite aplicarea unui test parametric (ANOVA). Se recurge la un test neparametric (Kruskal-Wallis)

Kruskal-Wallis Test: Hb (g/dl) versus factor

Kruskal-Wallis Test on Hb (g/dl)

factor N Median Ave Rank Z

1 6 10,09 7,9 -0,89

2 7 13,02 11,8 1,45

3 5 11,60 8,2 -0,64

Overall 18 9,5

H = 2,11 DF = 2 P = 0,349

H = 2,11 DF = 2 P = 0,348 (adjusted for ties)

Probabilitatea obținută în urma aplicării testului (p=0,34) indică faptul că ipoteza nulă poate fi acceptată, între loturi caracteristica observată nu prezintă diferențe semnificative.

Regresia și corelația statistică

În multe decizii din domeniul biologic este necesară predicția valorilor unor anumite variabile. Variabilele biologice, fenomenele biologice în general, nu evoluează independent; ele sunt în legătură cu alte variabile biologice. Acest lucru dă posibilitatea ca, utilizând cunoștințele privind nivelul unei variabile, să poată prognoza nivelul altei variabile cu care se află într-o anumită dependență.

În statistică există mai multe metode de studiere a dependențelor dintre două sau mai multe variabile. Una din aceste metode este cea cuprinsă în „analiza de regresie și corelație”. În cadrul acesteia se studiază dependența dintre o variabilă (caracteristică) rezultativă (y) și una sau mai multe variabile (caracteristici) independente (x).

Caracteristica rezultativă se mai numește caracteristică dependentă, endogenă sau efect, iar caracteristica independentă se mai numește caracteristică factorială, exogenă sau cauză.

La studiul dependențelor de natură biologică trebuie să avem în vedere că fenomenele biologice sunt fenomene complexe, aflate sub influența a numeroși factori, unii esențiali, alții întâmplători, cu acțiune și intensitate diferită, în direcție diferită. Asemenea legături dintre fenomenele și procesele biologice sunt cunoscute sub denumirea de legături statistice (stohastice). În cadrul acestui tip de legături, unei valori a caracteristicii independente x, îi corespunde o distribuție a valorilor caracteristicii dependente y. Asupra lui y acționează în afară de x și alți factori. Y înregistrează nivele de variații funcție de modul cum se combină acțiunea tuturor factorilor de influență.

Complexitatea fenomenelor din biologie, caracterizarea lor cantitativă și calitativă, determină folosirea combinată a diferitelor științe în investigarea relațiilor de cauzalitate, care stau la baza apariției și dezvoltării lor.

Legăturile care există între două variabile statistice pot fi studiate folosind două tehnici: corelația și regresia.

Corelația arată cât de puternică este legătura, dependența dintre variabile.

Regresia ajută în explicarea și previzionarea unui factor pe baza valorii altuia (altora)

Metoda corelației

Corelația este o metodă statistică utilizată pentru a determina relațiile dintre două sau mai multe variabile.

Corelația se definește ca interdependența existentă între diferitele fenomene sau caracteristici, exprimate prin numere (cantitativ) sau prin cuvinte (calitativ), manifestată în cadrul fenomenelor biologice. Cuvântul corelație este sinonim cu cuvântul relație.

Corelația presupune găsirea funcției analitice care să descrie statistic legătura dintre variabilele studiate.

Metoda corelației permite o ierarhizare a factorilor de influență. Aceasta constă în calcularea unor indicatori ce măsoară intensitatea legăturii între două sau mai multe caracteristici, exprimând, cât de strânsă este legătura dintre ele.

Covariația

Covariația este un indicator ce se utilizează pentru măsurarea legăturii liniare între o caracteristică rezultativă (y) și una factorială.

Cu ajutorul graficului de corelație se reprezintă variabilitatea caracteristicilor x și y, în jurul mediilor lor. Mediile x șiy definesc patru cadrane, abaterile valorilor individuale față de media lor având semne diferite în cele patru cadrane, după cum se observă în graficul alăturat:

yi

II(-,+) I(+,+)

III(-,-) IV(+,-)

Figură 27. Graficul de corelație

Formula de calcul a covariației este:

În cadranele I și III COV(x,y) 0 și evidențiază o legătură directă.

În cadranele II și IV COV(x,y) 0 și evidențiază o legătură inversă.

Dacă COV(x,y) = 0 iar x, y sunt independente, între ele nu există legătură.

Cu cât valoarea covariației este mai mare, cu atât legătura este mai intensă și invers.

Coeficientul de corelație

Coeficientul de corelație este o valoare cantitativă ce descrie relația dintre două sau mai multe variabile.

Coeficientul de corelație arată măsura în care variațiile unei variabile sunt corelate cu variațiile altei variabile.

Există coeficienți de corelație pentru:

date de tip cantitativ continuu, normal distribuite: coeficientul de corelație Pearson (r);

date nominale, ordonate, sau date de tip cantitativ continuu, care nu sunt normal distribuite: coeficientul de corelație Spearman. Coeficientul de corelație Spearman reprezintă varianta nonparametrică a coeficientului de corelație Pearson.

Coeficientul de corelație liniară simplă măsoară intensitatea în cazul legăturilor liniare, fiind independent de unitățile de măsură ale caracteristicilor din care se determină.

Coeficientul de corelație liniară simplă (r) poate să ia valori între -1 și +1.

Între -1 și 0, legătura dintre cele două variabile este de sens invers și este cu atât mai intensă, cu cât se apropie de –1.

Între 0 și +1, legătura dintre cele două variabile este directă și este cu atât mai intensă, cu cât se apropie de 1.

Formulă de calcul simplificată pentru seria bidimensională simplă:

O altă formulă de calcul, pornește de la covarianță:

Unde: n este numărul de subiecți; Sx și Sy sunt abaterile standard ale celor două variabile; Mx și My sunt mediile celor două variabile.

Un coeficient de corelație care, în valoare absolută ea valori între:

0-0,25 indică o corelație slabă sau nulă;

0,25-0,5 indică o corelație acceptabilă;

0,5-0,75 indică o corelație moderată;

0,75-1 indică o corelație foarte bună.

Ex. r=0,78 indică o corelația lineară între variabila x și y este foarte bună, și direct proporțională (dacă x crește, crește și y).

Coeficientul de corelație liniară multiplă măsoară intensitatea între o caracteristică rezultativă (y) și două sau mai multe caracteristici factoriale (x).

Semnificația lui r

Pentru calcularea semnificației lui r este necesară aplicarea unui test de semnificație, de exemplu testul Student. Acest test verifică ipoteza nulă conform căreia nu există o relație adevărată (semnificativă) între variabile, eventualele asocieri se datorează întâmplării. Dacă o relație este semnificativă din punct de vedere statistic, adică este de încredere, înseamnă că vom obține rezultate similare dacă s-ar reface experimentul cu întreaga populație.

Cantitatea r obținută pe baza unui eșantion este o estimare a coeficientului de corelație ρ din populație.

Testarea semnificației coeficienților verifică:

H0: coeficientul de corelație dintre variabile este egal cu zero;

H1: coeficientul de corelație dintre variabile este diferit de zero.

Pentru verificarea semnificației coeficientului de corelație liniară simplă, se aplică, cel mai frecvent, testul t:

unde, n reprezintă numărul de perechi de valori.

Valoarea calculată se compară cu cea tabelară stabilită probabilistic pentru un nivel de semnificație și cu n-2 grade de libertate.

Dacă , se verifică ipoteza semnificației coeficientului de corelație iar dacă , legătura este nesemnificativă și trebuie căutat un alt factor esențial cu care să se studieze corelația.

Pentru aflarea semnificației unui coeficient de corelație este necesară parcurgerea următorilor pași:

Se alege nivelul de semnificație dorit, să zicem de 0,05. Aceasta înseamnă că la efectuarea a 100 de experimente vom obține un rezultat bun datorat întâmplării în maxim 5 cazuri din 100. În restul cazurilor vom obține un rezultat bun datorită asocierii reale dintre variabile. La nivelul de 0,01 relația este și mai puternică, iar eroarea are loc numai într-un singur caz din 100. Deci testul de semnificație de 0,01 este mai riguros la nivelul de .01 decât la nivelul de .05 și este nevoie de o corelație mai puternică pentru a atinge nivelul de semnificație de 0,01.

Se stabilește tipul de relație între variabile: bilaterală (two-tailed), respectiv unilaterală (one-tailed). În cazul în care din punct de vedere teoretic, se urmărește să se demonstreze că doua variabile corelează fie direct, fie invers, va fi folosit testul unilateral, dacă asemenea informații lipsesc și se dorește relevarea doar a coeficientului de corelație fără a se preciza direcția legăturii, vorbim despre testul bilateral. Matematic pentru testul unilateral avem r>0 sau r<0, în timp ce pentru testul bilateral avem r0.

Se citește din tabel valoarea lui r pentru coloana corespunzătoare numărului de grade de libertate (notat cu df).

Daca valoarea lui r obținută în urma calculării sale o depășește pe cea din tabel, atunci aceasta este semnificativă la pragul de semnificație ales, în cazul nostru de 0,05 (notat și cu .05) și numărul de grade de libertate specificat.

Se poate observa că valoarea coeficientului de corelație necesară pentru un r "semnificativ" scade pe măsură ce crește numărul de observații, implicit gradele de libertate. Se remarcă astfel că valorile foarte mici ale coeficienților de corelație pot fi semnificative numai dacă se lucrează cu un număr mare de observații. Spre exemplu un r = 0,64 este semnificativ la un prag de semnificație p<0,05 pentru opt grade de libertate, adică 10 observații (N-2), unde în dreptul valorii de p=0,05 (0,05) la df=8 se găsea în tabel valoarea de 0.63 pentru testul bilateral. La fel de semnificativ este și un r = 0,20 la un prag de semnificație p<.05 pentru df=100, coeficientul obținut fiind mai mare decât valoarea de 0,19 trecuta în tabel.

Coeficientul de determinare r2

Coeficientul de determinare r2 măsoară proporția din variația uneia dintre variabile ce poate fi atribuită (sau explicată) de variația celeilalte variabile.

Coeficientul de determinare arată procentual cât la sută din variația unei variabile e explicată de variația celeilalte variabile

Ex. r2=0,89 – 89% din variația lui y este explicată de variația lui x

r² reprezintă cel mai utilizat criteriu pentru interpretarea semnificației coeficientului de corelație. Acest criteriu nu are întotdeauna însemnătate din cauza influenței importante pe care o are mărimea lotului în determinarea coeficientului de corelație. El trebuie analizat cu grija în cazurile în care există un număr relativ mic de subiecți (sub 20). De asemenea, coeficientul de determinare poate fi aplicat doar dacă am obținut în prealabil un r semnificativ.

Prin intermediul lui r2 se determină partea de asociere comună a factorilor care influențează cele doua variabile. Cu alte cuvinte, coeficientul de determinare indică partea din dispersia totală a măsurării unei variabile care poate fi explicată sau justificată de dispersia valorilor din cealaltă variabilă.

De exemplu, pentru un r= 0,83, ceea ce înseamnă ca r² = (r)² (coeficientul de corelație la pătrat) este de 0,69. Uzual coeficientul de determinare se înmulțește cu 100 și exprimarea se transformă în procente din dispersie (69%).

Observație: coeficientul de corelație se calculează numai în cazul legăturilor liniare.

Calculul coeficientul de corelație abordarea practică

Instrumente EXCEL

Coeficientul de corelație dintre două variabile poate fi calculat prin funcția CORREL(Array1,Array2), unde Array1, Array2 sunt, respectiv, zonele din foaia de calcul EXCEL care conțin valorile celor două variabile (trebuie să aibă, evident, același număr de valori).

Pentru a calcula matricea de corelație (deci sunt implicate mai mult de două variabile) se utilizează procedura CORRELATION din Tools – Data Analysis.

CORRELATION

Este procedura care calculează coeficienții de corelație liniară, cunoscuți și drept coeficienții de corelație Pearson. Variabilele implicate sunt variabile continue (de interval). În cazul când există un număr suficient de mare de valori și de ranguri posibile, procedura poate fi utilizată și pentru calculul coeficienților de corelație a rangurilor (Spearman).

Input

Input Range – se precizează domeniul datelor de intrare. Acesta trebuie să fie o zonă compactă intr-o foaie de calcul.

Grouped By – se selectează butonul corespunzător modului de înscriere a valorilor unei variabile: Columns pentru variabile pe coloane, Rows pentru variabile pe linie.

Labels in First Row – se marchează dacă prima linie (cazul Columns) sau prima coloană (cazul Rows) conține denumirile variabilelor

Output options

Output Range, New Worksheet Ply, New Workbook – Precizează zona unde se vor înscrie rezultatele. Zona de rezultate cuprinde un tabel pătratic cu coeficienții de corelație între toate perechile de variabile din domeniul de intrare. Deoarece tabloul este simetric față de prima diagonală, se afișează doar partea inferioară (stânga-jos).

Exemplu: Sa se calculeze coeficientul de corelație dintre greutatea carcasei x și cantitatea de grăsime y la un număr de 30 porcine de rasa marele alb pe următoarele date înregistrate (tabelul 26 ):

Rezolvarea cu ajutorul funcției CORREL din EXCEL:

Tabel 26. Greutatea carcasei și cantitatea de grăsime

Observație: În tabelul alăturat, valorile xi și yi au fost introduse pe două coloane fiecare.

Rezultatul obținut este 0,585, valoare ce indică o corelație pozitivă moderată.

Rezolvarea cu ajutorul opțiunii Correlation din Data Analysis (EXCEL):

Rezolvarea cu ajutorul opțiunii Correlation test din XLSTAT (EXCEL):

Rezolvarea cu ajutorul opțiunii Correlation din Analyse-it® for Microsoft Excel | Standard Edition (EXCEL):

Rezolvarea cu ajutorul opțiunii Correlation din MINITAB:

Rezolvarea în SPSS.

Evident, și în cazul rezolvării cu SPSS, coeficientul de corelație este același ca și în cazul rezolvării cu celelalte aplicații, corelația obținută poate fi considerată moderată.

Datorită faptului că în urma verificării semnificației lui r s-a obținut o valoare p<0,05 se poate accepta ipoteza unei legături reale .SPSS afișează și semnificația statistică a coeficientului calculat (r=0,586), aceasta este 0,001 (0,1%), aceasta indică faptul că valoarea obținută din calcul (pentru r) este semnificativă.

Metoda regresiei

Metoda regresiei constituie o metoda statistică analitică de cercetare a legăturii dintre variabile cu ajutorul unor funcții denumite funcții de regresie.

Regresia arată în ce măsură se schimbă, în medie, variabila dependentă y ca urmare a schimbării cu o unitate a variabilei independente x.

Soluția este dată printr-o funcție de regresie: y=f(x1, x2…) care se înlocuiește cu modelul de dependență statistică: Y=f(x1, x2…)+ε, unde ε este eroarea aleatoare.

Dacă acceptam un singur factor, atunci vom avea o regresie simplă sau unifactorială, funcția de regresie putând fi liniară sau curbilinie.

Precizia modelării depinde de forma analitică a modelului de regresie: liniară, exponențială, parabolă de gradul 2; hiperbolă și logaritmică sau polinoame de grad superior.

Dacă acceptam doi sau mai mulți factori, atunci vom obține o regresie multiplă sau multifactorială.

Modelul unifactorial de regresie (Regresia simplă)

Dacă acceptăm că între variabilele xi și yi există o legătură directă de formă liniară, metoda regresiei ne permite să estimăm parametri funcției:

Pentru a sintetiza modul în care schimbările lui Y sunt asociate cu schimbările lui X, metoda matematică utilizată este "metoda celor mai mici pătrate" (Legendre,1806). Aplicată în cazul nostru, asocierea dintre X și Y este reprezentată printr-o dreaptă trasată printre punctele diagramei de împrăștiere (Figura 39).

Linia estimată este "cea mai bună" în sensul că exprimă cel mai central drum printre puncte: linia pentru care suma pătratelor distanțelor (pe verticală) dintre puncte și dreaptă este minimă. Termenul comun pentru dreapta estimată este acela de dreaptă de regresie.

Estimarea parametrilor funcției de regresie se face cu metoda celor mai mici pătrate pe baza sistemului următor:

Parametrul “a” reprezintă ordonata la origine și arată la ce nivel ar fi ajuns valoarea caracteristicii Y dacă toți factorii – mai puțin cel înregistrat – ar fi avut o acțiune constantă asupra formării ei.

Parametru “b” se numește coeficient de regresie și exprimă sensul și mărimea influenței lui x asupra lui y. Dacă “b” este pozitiv arată o legătură directă; dacă “b” este negativ arată o legătură indirectă. Mărimea parametrului “b” arată cu cât se modifică variabila rezultativă la creșterea cu o unitate a factorului de influență.

Dacă se folosește metoda determinanților se obține:

Coeficientul a (intercepția) poate lua valori negative sau pozitive. Coeficientul b (panta liniei drepte) numit și coeficient de regresie poate fi:

b>0, în cazul unei legături directe rezultă

b < 0, iar în cazul unei legături inverse.

b = 0, semnifică lipsă legăturii liniare între X la Y

Regresia simplă curbilinie.

Dintre funcțiile curbilinii de analiză se utilizează frecvent funcția de gradul 2:

Sistemul pentru determinarea ecuației este:

Regresia lineara multipla

Regresia lineară multiplă reprezintă o extensie a regresiei lineare simple, în sensul că relația dintre variabila dependentă Y și oricare variabilă independentă Xi este descrisă de modelul prezentat în cazul regresiei lineare simple.

Modelul regresiei lineare multiple este:

Y = 0 + 1 X1 + … + i Xi + … + p Xp +

0 este, și în acest caz, ordonata la origine;

Coeficienții i pot fi interpretați ca pante ale dreptei de regresie Y = f (Xi) considerând ca toate valorile Xj (cu j<>i) rămân constante.

Regresia lineară multiplă se bazează pe aceleași presupuneri ca și regresia lineară simplă. Programele statistice permit, în cazul regresiei lineare multiple, testarea următoarelor ipoteze:

H0: i (i 0) = 0, sau, altfel spus, variabila dependenta Y nu depinde de nici una dintre variabilele independente Xi (ipoteza alternativa fiind: există cel puțin un i0) .

În acest caz, se folosește un test F (numit testul F global) , care poate fi definit sub forma:

Observație: testarea acestei ipoteze este echivalentă cu testarea:

H0: variația combinației de Xi alese nu explică variația variabilei Y (ipoteza alternativă fiind: variația Y poate fi explicată prin variația combinației Xi alese) .

H0: variabila Xj nu este necesara, dat fiind ca variabilele Xi (i≠j) sunt incluse în model (ipoteza alternativa fiind: Xj este necesar în modelul pentru predicția valorilor Y) .

În acest caz, se folosește un test t (Student) parțial, calculat pe baza variației explicate de Xj, în afară de ceea ce este explicat de restul variabilelor.

Pentru caracterizarea funcției de regresie (calitatea funcției de regresie) se folosesc următorii indicatori:

Eroarea standard (abaterea medie pătratică a valorilor teoretice față de cele reale) este folosită pentru a caracteriza funcția de regresie sau calitatea funcției de regresie:

Interpretare statistică: eroarea standard este măsura în care o observație individuală diferă de cea prezisă de modelul de regresie.

Coeficientul de eroare cuantifică intensitatea variației în jurul funcției de regresie și poate fi considerat tot un indicator care arată calitatea ecuației de regresie:

Coeficientul de determinație reprezintă o altă modalitate de a caracteriza calitatea funcției de regresie (de regulă se trece în dreapta funcției de regresie):

Metoda de regresie abordarea practică

În continuare prezentăm rezolvarea aceleași probleme prim metoda regresiei.

Rezolvarea în EXCEL

Cele două funcții sunt: SLOPE (panta dreptei de regresie) și INTERCEPT (ordonata la origine)

Cele două valori obținute sunt:

Ecuația dreptei de regresie este:

yi = – 12,9 + 0,520 xi

În continuare consider că este interesant să prezint reprezentarea grafică – diagrama de împrăștiere. În figura este prezentată diagrama scater xy pentru datele prezentate în tabelul 26.

O diagramă de împrăștiere reprezintă, într-un sistem ortogonal de axe de coordonate, punctele determinate de perechile de valori (Xi,Yji), i = 1,…,n, j = 1,…,k. Cu alte cuvinte, se reprezintă k serii de numere Yj, j = 1,…,k, fiecare valoare fiind considerată drept ordonata unui punct. Abscisele punctelor, Xi, i = 1,…,n, sunt date ca o serie separată, dar sunt aceleași pentru toate seriile Y.

Pentru a obține un asemenea grafic, în primul pas al utilitarului Insert > Chart (activat și din bara de unelte Standard), se alege tipul XY(Scatter). În figura alăturată sunt subtipurile disponibile de diagrame X-Y. Desenele din coloana A diferă de cele din coloana B prin aceea că sunt marcate punctele reprezentate.

Desenele de pe linii diferă după modul de unire a punctelor care aparțin aceleiași serii de date. Linia a doua de desene unește punctele prin linii netezite (curbe), în timp ce desenele de pe ultima linie are punctele unite prin segmente

Observație. Punctele sunt unite în ordinea în care apar în seria numerică. Prin urmare, dacă perechile de puncte nu sunt în ordinea crescătoare a absciselor (X), ceea ce se obține la unirea punctelor este o linie haotică, fără nimic din graficul de funcție la care ne așteptăm. Pentru aceasta se vor sorta mai întâi datele în ordinea crescătoare a valorilor X

Diagrama din primul subtip este utilizată pentru studiul asocierii dintre variabila X și variabila Y. Dispunerea ascendentă sau descendentă a norului de puncte obținut oferă informații asupra existenței și formei asocierii între variabile.

Interpretările reprezentărilor X-Y de forma puncte unite între ele sunt cele uzuale pentru graficele de funcție: maxime, minime, ritm de creștere, ritm de descreștere, care serie are valori mai mari, cine depășește pe cine etc.

Observație. Trebuie să se facă distincție între diagramele de tip linie și cele de tip X-Y. Se poate însă considera că, pentru valori numerice, diagramele de tip linie au o variabilă X implicită: seria 1,2,… sau o serie temporală.

Add Trendline… (meniul Chart)

Permite figurarea pe grafic a trendului variabilei selectate. Există mai multe tipuri de modele pentru calcularea tendinței datelor, dar opțiunea nu este activă decât pentru anumite serii de date numerice. Opțiunea poate fi activată din meniul Chart (existent pe bara de meniuri doar dacă este selectată o diagramă) sau din meniul contextual asociat unei serii numerice. Dialogul inițiat este organizat pe două fișe, reprezentate în figurile următoare.

Funcția Add Trendline Type permite selectarea modelului utilizat pentru determinarea tendinței generale a seriei numerice. Sunt disponibile principalele modele utilizate în calculele economice sau tehnice.

Linear – modelul liniar (regresia simplă), y = a + bx.

Polynomial – modelul polinomial de ordin 2, 3, 4, 5, sau 6, y = a0 + a1x1 + a2x2 + … + akxk.

Logarithmic – modelul logaritmic: y = a + b ln x.

Exponential – modelul exponențial: y = a ebx.

Power – modelul putere: y = a xb.

Moving Average – modelul de tip MA (medii glisante), în care se calculează o serie nouă cu valori obținute ca medie aritmetică a valorilor din seria inițială:

yn = (xn + xn-1 + … + xn-k+1)/k, unde k este ordinul modelului. Este modelul prin care se elimină influențele pe termen foarte scurt sau scurt.

Pentru o alegere corectă se poate utiliza informația cunoscută din cercetări anterioare sau cea furnizată vizual de aspectul norului de puncte.

Zona Order este activă pentru modelul polinomial (stabilește ordinul modelului, maxim 6), iar zona Period este activă pentru modelul Moving Average (stabilește ordinul modelului – câte elemente contribuie la calculul mediei aritmetice).

În zona Based on series se indică seria (dintre cele reprezentate) pentru care se estimează prin metoda celor mai mici pătrate modelul selectat.

Ca efect al procedurii de adăugare a liniei de trend, în grafic se va afișa, ca o linie separată, seria ipotetică obținută prin calcularea trendului. Această linie poate fi formatată ca orice alt obiect grafic (se selectează, se aplică meniul Format etc.).

Fișa Add Trendline Options este prezentată în figura următoare și permite definirea altor atribute ale liniei de trend.

În grupul de opțiuni Trendline name se poate atașa liniei o denumire proprie (butonul radio Custom și tastarea numelui în zona rezervată) sau se alege denumirea implicită (butonul radio Automatic).

În grupul de opțiuni Forecast se poate indica numărul de perioade (valori) pentru care se efectuează prognoze, atât în viitor (Forward), cât și în trecut (Backward). Este suficient să se înscrie o valoare diferită de zero în zona contor alocată și seria de trend se va extinde corespunzător.

Set intercept = – permite fixarea valorii termenului liber al modelului la o valoare cunoscută (opțiune utilă pentru anumite tipuri de regresii). Se va marca boxa de control și se va trece valoarea termenului liber.

Display equation on chart – marcarea boxei de control are efectul trecerii pe grafic a ecuației estimate.

Display R-squared value on chart – este utilă pentru afișarea coeficientului de determinare R2 (= pătratul coeficientului de corelație multiplă), interpretabil în analiza de regresie.

Rezolvarea cu ajutorul opțiunii REGRESSION din Data Analysis

Interpretarea rezultatelor.

Ecuația de regresie este: yi = – 12,9 + 0,520 xi

Predictorul, adică valorile xi explică doar 34,28% din variația lui yi.

Valorile afișate pentru p (0,187 respectiv 0,0006) indica semnificația obținută pentru coeficienții : ordonată la origine respectiv panta dreptei.

Pentru ordonata la origine (coeficientul lui x din ecuația dreptei) s-a obținut o valoare<0.05, ca urmare doar acest coeficient este semnificativ.

Rezolvarea cu ajutorul opțiunii Linear regression din XLSTAT

XLSTAT 2008.7.01 – Linear regression –

În XLSTAT a fost rezolvată și ecuația nonlineară.. Rezultatele afișate sunt prezentate mai jos:

XLSTAT 2008.7.01 – Nonlinear regression –

Modelul nonlinear explică 36,8 din variația lui y.

Rezolvarea cu ajutorul opțiunii REGRESSION din MINITAB

The regression equation is

yi = – 12,9 + 0,520 xi

Predictor Coef SE Coef T P

Constant -12,912 9,547 -1,35 0,187

xi 0,5200 0,1360 3,82 0,001

S = 1,79646 R-Sq = 34,3% R-Sq(adj) = 31,9%

Analysis of Variance

Source DF SS MS F P

Regression 1 47,150 47,150 14,61 0,001

Residual Error 28 90,364 3,227

Total 29 137,514

Unusual Observations

Obs xi yi Fit SE Fit Residual St Resid

4 64,6 20,800 20,678 0,822 0,122 0,08 X

17 72,1 28,200 24,578 0,423 3,622 2,07R

R denotes an observation with a large standardized residual.

X denotes an observation whose X value gives it large leverage.

Polynomial Regression Analysis: yi versus xi

The regression equation is

yi = – 225,7 + 6,609 xi – 0,04351 xi**2

S = 1,79092 R-Sq = 37,0% R-Sq(adj) = 32,4%

Analysis of Variance

Source DF SS MS F P

Regression 2 50,914 25,4568 7,94 0,002

Error 27 86,600 3,2074

Total 29 137,514

Sequential Analysis of Variance

Source DF SS F P

Linear 1 47,1498 14,61 0,001

Quadratic 1 3,7637 1,17 0,288

Fitted Line: yi versus xi

Concluzii

Corelația și regresia sunt lucruri diferite.

Corelația evaluează măsura legăturii lineare între două variabile continue.

Regresia lineară este o metodă de a prezice o variabilă dependentă în funcție de una sau mai multe variabile independente.

Ce utilizăm, corelația sau regresia?

Corelația și regresia liniară sunt similare si, de aceea, ușor de confundat. În unele situații pot fi utilizate ambele proceduri, dar fiecare dintre ele sunt recomandabile cu precădere în anumite situații, astfel:

Se calculează corelația liniară

• atunci când există două variabile măsurate pe aceiași subiecți și se dorește evaluarea gradului de asociere intre variabile;

Analiza corelației măsoară asociația dintre două variabile – coeficientul de corelație Pearson (r)

Se calculează regresia liniară

• atunci când una dintre variabile precede și poate fi cauza celeilalte variabile;

• atunci când una dintre variabile este manipulată, se calculează regresia;

Analiza regresiei – „dreapta de regresie” – estimează valoarea uneia dintre variabile atunci când se dă valoarea celeilalte.

Atenție, calculele regresiei nu sunt simetrice, ca urmare, inversând variabilele în ecuația de regresie se va obține o linie de regresie diferită, în timp ce, dacă se inversează ordinea variabilelor în calcularea corelației, se obține același coeficient r.

Cea mai firească utilizare a analizei de regresie este în situațiile în care dorim să facem predicții.

SONDAJUL STATISTIC

Concepte de bază

Sondajul statistic sau observarea selectivă, reprezintă o metodă de investigație statistică prin care se obțin informații necesare și suficiente, cu grad de exactitate acceptabil despre întreaga colectivitate cercetată, prin observarea numai a unei părți a acesteia, numite eșantion sau mostră.

Demersul cercetării prin sondaj presupune parcurgerea unui întreg proces, de la culegerea datelor pe baza eșantionului, până la extinderea și analiza rezultatelor la nivelul colectivității totale, în condiții de cost și precizie admisibile.

Datele de selecție, rezultate din observarea eșantionului se prelucrează, iar indicatorii obținuți se extind, în anumite condiții de probabilitate asupra întregii colectivități. Extinderea rezultatelor de la eșantion la colectivitate se poate face numai dacă eșantionul este reprezentativ (ceea ce presupune ca într-un număr mai mic de unități ce formează împreună un eșantion, să regăsim aceleași trăsături esențiale ca și în întreaga colectivitate supusă cercetării).

Între indicatorii determinați (medie, dispersie) prin prelucrarea datelor la nivelul eșantionului și cei calculați la nivelul colectivității apar unele diferențe în plus sau în minus, numite erori de eșantionare sau erori de selecție. Aceste erori reprezintă abaterile între rezultatul obținut prin sondaj și valoarea reală a unei caracteristici pentru colectivitatea studiată. Cu cât eroarea de selecție este mai mică, cu atât gradul de precizie a selecției va fi mai mare și invers.

Se consideră suficient de reprezentativ eșantionul care nu conduce la erori față de colectivitatea de bază, decât cel mult 5%.

Eroarea de selecție se exprimă sintetic prin coeficientul de reprezentativitate (r):

r = ( x – m / m) 100 -5% r 5%,

Unde: x – media eșantionului;

m – media colectivității, cunoscută dintr-o cercetare anterioară.

Diferența dintre media colectivității și media eșantionului se numește eroare de reprezentativitate.

Erorile de reprezentativitate pot fi:

sistematice, care provin din nerespectarea principiului fundamental al eșantionării și anume nerespectarea caracterului aleator al prelevării unităților;

întâmplătoare, care nu pot fi evitate, și sunt cauzate de un număr mare de factori, dar ele sunt previzibile.

Pe lângă avantajele sale, operativitate, rapiditate, economicitate, sondajul are și anumite limite, date tocmai de apariția erorilor de selecție și de dificultățile legate de alcătuirea eșantionului. Problema constă în găsirea acelei mărimi a eșantionului, suportabilă din punct de vedere al costului, ce oferă gradul de precizie acceptabil, reflectând fidel colectivitatea din care s-a extras.

Tipuri de sondaj și procedee de alcătuire a eșantioanelor

După modul de organizare a colectivității generale și după modul de selecție a unităților în eșantion, se disting mai multe tipuri de sondaj:

Sondaje aleatoare (probabiliste):

sondajul simplu repetat și nerepetat;

sondajul tipic (stratificat);

sondajul de serii;

sondajul în mai multe trepte;

sondajul secvențional.

Sondaje cu extracție nealeatoare:

sondajul dirijat;

sondajul sistematic (sau mecanic).

Sondajul aleator simplu este sondajul ce corespunde cel mai bine principiului fundamental al selecției, asigurând caracterul aleator al prelevării. Acesta se aplică în special în cazul colectivităților omogene.

În cazul acestui tip de sondaj, unitățile statistice sunt prelevate la întâmplare, fără preferințe, fiecare unitate a colectivității având șanse egale de a face parte din eșantion. Dacă unitățile extrase, după înregistrarea caracteristicilor urmărite sunt reintroduse în colectivitate, atunci se aplică sondajul simplu “nerepetat”.

Procedeele ce pot fi utilizate pentru alcătuirea eșantionului sunt:

Procedeul bilei revenite și nerevenite;

Procedeul tabelului numerelor aleatoare;

Procedeul mecanic.

1) Procedeul bilei revenite și nerevenite, este analog urnei lui Bernoulli și presupune parcurgerea următoarelor etape:

se numerotează unitățile colectivității generale și fiecare număr este înregistrat pe o bilă (bilețele)

se introduc într-o urnă bilele, se amestecă și se extrage la întâmplare câte un bilețel. Unitatea statistică ce are numărul extras intră în alcătuirea eșantionului.

Bila extrasă poate fi reintrodusă în urnă și atunci se aplică schema sondajului simplu repetat, se amestecă din nou bilele și se face o nouă extragere sau bila nu se mai introduce în urnă, urmându-se schema sondajului simplu nerepetat.

2) Procedeul tabelului numerelor aleatoare, se aplică de regulă pentru colectivități de mari dimensiuni, unde procedeul anterior nu este adecvat. Pentru formarea eșantionului se folosesc diferite tipuri de tabele ce cuprind numere aleatoare formate din cifre grupate câte două, două cu trei sau alte variante, așezate pe coloane și rânduri în mod întâmplător. Tabelele se pot obține cu ajutorul unor procedee de amestecat numere sau sunt generate pe calculator prin programe specifice.

Etapele specifice acestui procedeu sunt:

se stabilește volumul eșantionului;

pentru selectarea unităților eșantionului se citesc din tabel numerele aleatoare, punctul de începere al citirii alegându-se arbitrar;

citirea se face de la stânga la dreapta și de sus în jos în ordinea crescătoare a coloanelor și rândurilor ;

dacă se ajunge la capăt se reîncepe citirea de la coloana 1, rândul 1.

3) Procedeul mecanic este mai rapid și presupune stabilirea pasului de numărare și a unității de la care se va porni, întrucât includerea unităților în eșantion se face asemănător unei progresii aritmetice.

Aplicarea acestui procedeu presupune parcurgerea următoarelor etape:

Se calculează rația progresului, respectiv pasul de numărare, cu relația:

p = N/n, unde N – volumul colectivității totale

n – volumul eșantionului

– Se determină în continuare unitatea de la care se pornește în construirea eșantionului, având numărul de ordine înregistrat și p.

De exemplu: pentru o colectivitate formată din 420 unități statistice din care dorim să extragem prin procedeul mecanic un eșantion format din 35 unități, pasul de măsurare va fi:

p = N/n = 420/35 = 12

Punctul de plecare va fi una din unitățile statistice cuprinse între 1 și 12. Să presupunem că acesta este 3, atunci eșantionul va fi format din următoarele unități: x, x + p, x + 2p, x + 3p,….

Estimarea mediei și dispersiei. Eroarea medie de reprezentativitate

În cazul cercetării statistice prin metoda sondajului se lucrează cu indicatori pereche, calculați atât la nivelul eșantionului cât și al colectivității dintre care cei mai importanți sunt media și dispersia:

media eșantionului: x = xi / n

media colectivității: m = xi / N

dispersia eșantionului:

S2 = xi – x2 / n sau S2 = xi – x2 / n-1

dispersia colectivității:

2 = xi – m / N

Pe baza acestor indicatori se pot determina alți indicatori:

dispersia mediilor de sondaj de la media generală 2x ;

abaterea medie pătratică a mediilor de sondaj de la media generală, x , denumită și eroare medie de reprezentativitate.

Indicatorii obținuți la nivelul eșantionului pentru a fi estimatori corecți ai indicatorilor colectivității generale, trebuie să îndeplinească anumite condiții:

să fie estimații nedeplasate, adică valoarea medie a indicatorilor de sondaj trebuie să fie egală cu indicatorul corespunzător întregii colectivități;

să fie estimații consistente, adică indicatorul de sondaj să conveargă în probabilitate, pentru un volum mare al eșantionului, către indicatorul teoretic din colectivitatea generală;

să fie estimații eficiente, adică să aibă dispersie minimă.

Eroarea medie de reprezentativitate (x ) se calculează distinct pentru fiecare tip de sondaj cu ajutorul unor formule specifice.

Sondajul aleator repetat – întrucât la acest tip de sondaj unitățile extrase se reintroduc în colectivitate, toate unitățile au aceeași probabilitate de a face parte din eșantion:

p = 1 / N ; N – volumul colectivității generale

Deoarece aceeași unitate statistică poate fi extrasă de mai multe ori, rezultă că sondajul repetat dă naștere unor erori de sondaj mai mari.

Numărul de eșantioane posibile în acest tip de sondaj este egal cu “N”.

Se folosesc următoarele notații: N – volumul colectivității generale; n – volumul eșantionului.

În practica statistică, eroarea medie de reprezentativitate, se determină pornind de la relația demonstrată în teoria sondajului, potrivit căreia dispersia mediilor tuturor eșantioanelor de la media colectivității generale ((x) sau 2x ) înmulțită cu volumul eșantionului (n):

2 = D(x) n sau 2 = 2x n , de unde rezultă

D(x) = 2 / n sau 2x = 2 / n

Ceea ce arată că în cazul sondajului rezultat dispersia mediilor tuturor eșantioanelor de volum “n” este de n ori mai mică decât dispersia colectivității generale.

Dacă dispersia colectivității generale (2) nu se cunoaște, atunci aceasta poate fi înlocuită cu eșantionul ei (S2) stabilit pe baza unui eșantion de volum n, pe baza ipotezei că 2 S2.

Așadar:

2x = S2 / n , unde

Eroarea medie de reprezentativitate (x), care este radicalul dispersiei, se va determina după formula:

În teoria sondajului se demonstrează că S2 este un estimator deplasat și se poate obține un estimator nedeplasat utilizând relația:

În cazul în care eșantionul este de volum mic, atunci:

Sondajul aleator nerepetat presupune ca o unitate odată extrasă, să nu mai revină în colectivitatea generală, așadar șansa fiecărei unități de a intra în eșantion crește pe măsura efectuării extragerilor, volumul colectivității generale micșorându-se treptat cu câte o unitate.

Probabilitățile de a fi incluse în eșantion vor fi pe rând:

pentru prima extragere: p1 = 1 / N p = 1 / N

pentru a doua extragere: p2 = 1 / (N – 1) p = 1 / (N – 1)

pentru a treia extragere: p3 = 1 / (N – 2) p = 1 / (N – 2)

pentru a n-a extragerea

La terminarea extragerilor, numărul unităților rămase va fi

N-n, unde :

N – volumul colectivității generale;

n – volumul eșantionului.

Numărul eșantioanelor posibile pentru acest tip de sondaj este dat de formula combinărilor:

În cazul sondajului aleator nerepetat, dispersia mediilor de sondaj trebuie corectată, înmulțind-o cu raportul (N – n) / (N –1), astfel:

sau unde

este estimatorul dispersiei 2, stabilit pe baza unui eșantion, având ipoteza că 2 S2 iar eroarea medie de reprezentativitate va fi:

Raportul se numește coeficient de corecție a erorii medii de reprezentativitate.

Pentru colectivitățile mari, nu se mai scade 1 de la numitor, iar coeficientul de corecție a erorii de reprezentativitate devine:

unde raportul n / N poartă denumirea de proporție de sondaj.

În calcule, pentru n / N 0,2 – coeficientul nu se ia în considerare.

Coeficientul de corecție a erorii medii de reprezentativitate este întotdeauna subunitar, de aceea eroarea sondajului nerepetat este întotdeauna mai mică decât eroarea sondajului repetat.

În general, precizia estimației mediei colectivității generale (m) prin media eșantionului (x ), exprimată sintetic cu ajutorul erorii medii de reprezentativitate (x) depinde mai mult de volumul eșantionului (n) decât de volumul colectivității generale (N).

Precizia estimației. Eroarea limită

Media eșantionului (x ) estimează cu atât mai exact media colectivității generale (m) cu atât diferența x – n este mai mică.

Notăm cu eroarea limită, ce caracterizează precizia estimației. Dacă R+ , 0 și x – m , atunci cu cât este mai mică cu atât estimația este mai precisă.

Putem indica astfel intervalul despre care să afirmăm cu o probabilitate dată, că include media estimată a colectivității (m). Acest interval este (x – , x + ) și se numește interval de încredere.

Probabilitatea ca intervalul (x – , x + ) să includă media necunoscută “m” este o probabilitate luată de regulă foarte apropiată de 1 (100%), respectiv 0,95 (95%) ,…, 0,999 (99,9%) și notată cu , adică:

P( x – m ) = sau P(x – m x + ) =

În cazul formării tuturor eșantioanelor posibile, suma probabilităților de apariție este egală cu 1. În practică însă, nu se cunosc aceste medii de sondaj și nici probabilitățile lor de apariție, de aceea în calcularea erorii limită () se pornește de la relația erorii medii de reprezentativitate (x) căreia se aplică un coeficient z.

Astfel: = x z , respectiv pentru sondajul aleator repetat

pentru sondajul aleator nerepetat

Coeficientul z se determină în funcție de probabilitatea cu care se garantează rezultatele și este tabelat, fiind argumentul funcției de repartiție normală Gauss-Laplace:

Argumentul (z) are valori cu atât mai mari, mai apropiate de 1 cu cât z ia valori mai mari.

Rezultă că eroarea limită () este și ea o mărime variabilă, depinzând de eroarea medie de reprezentativitate a mediilor de sondaj (x) și de coeficientul de probabilitate (z).

În funcție de probabilitatea dată:

– se ia din tabel valoarea lui z;

– se înlocuiește în relația erorii limite = z x;

– se determină intervalul de încredere (x – , x + ).

Determinarea volumului eșantionului

Cazul sondajului repetat

Volumul eșantionului se determină pornind de la eroarea limită maxim admisă, (), stabilită în funcție de precizia necesară de asigurat, astfel:

, relația ridicată la pătrat, devine: , de unde se obține volumul eșantionului:

, unde z se citește în tabelele funcției Gauss-Laplace.

Dacă dispersia, în colectivitate generală presupusă normală, nu este cunoscută, atunci ea poate fi estimată cu ajutorul dispersiei de sondaj, calculată pe baza unui eșantion de volum redus, extras din colectivitatea de bază.

Astfel, n = (z2 2) / 2 devine:

, unde,

t2n-1 este valoarea tabelară a variabilei Student cu n-1 grade de libertate corespunzătoare nivelului de încredere .

Cazul sondajului nerepetat

Pentru determinarea volumului eșantionului în cazul sondajului nerepetat este necesar să se cunoască și volumul colectivității generale.

Formulele cu ajutorul cărora se calculează volumul eșantionului în acest caz, sunt următoarele:

se ridică la pătrat

Dispersia generală a colectivității (2), se poate afla din cercetări anterioare, dintr-o cercetare prealabilă organizată pentru estimarea dispersiei sau se determină cu ajutorul formulei:

Sondajul tipic (stratificat) se utilizează în cazul colectivităților ce sunt sau pot fi împărțite în grupe omogene calitativ distincte sau tipice.

Formarea eșantionului se realizează astfel: din fiecare grupă se extrage un număr fix de unități folosind unul din procedeele de prelevare aleatoare, astfel fiecare grupă va fi reprezentată în eșantion, ceea ce asigură eșantionului un grad mare de reprezentativitate.

În cazul sondajului tipic se verifică regula de adunare a dispersiilor, potrivit căreia dispersia pe total colectivitate (20) va fi egală cu suma mediei dispersiilor de grupă (2) și dispersiei dintre grupe (2).

2 = 2 + 2

Volumul eșantionului se determină după formulele:

n = (z2 2) / 2 – pentru sondajul tipic repetat

și

– pentru sondaj tipic nerepetat

Sondajul de serii se utilizează în cazul în care colectivitatea generală este sau poate fi împărțită într-un număr oarecare de unități complexe de sine-stătătoare, denumite serii (sau cuiburi) și formate din unități statistice simple.

Eșantionul se formează astfel: seriile în care a fost împărțită colectivitatea generală se numerotează de la 1 la R. Din aceste serii se aleg întâmplător r serii, folosind unul din procedeele prezentate. Seriile selectate fac parte din eșantion și se înregistrează întregul.

Sondajul cu extracție nealeatoare

Sondajul dirijat, presupune includerea în eșantion numai a unităților pe care cercetătorul le consideră reprezentative, apropiate de media ce trebuie estimată.

În practică, deseori este preferată eșantionarea dirijată deoarece este mai ieftină decât selecțiile întâmplătoare, corespunde mai bine scopului cercetării sau există situații când baza de sondaj este incompletă sau inaccesibilă.

În multe situații există posibilitatea combinării sondajului aleator cu sondajul dirijat, folosind avantajele fiecăruia.

Discutarea și interpretarea rezultatelor.

Într-un demers de cercetare, prelucrarea efectivă a datelor, în condițiile în care datele sunt corect recoltate și înregistrate și există programe computerizate, nu reprezintă cea mai complicată problemă. Interpretarea rezultatelor obținute, însă, este o activitate destul de dificilă pentru oricine se află în faza de finalizare a unei cercetări

Premisa fundamentală a unei interpretări consistente este suportul teoretic, claritatea și consistența ipotezei sau ipotezelor cercetării. În stabilirea concluziilor este foarte important să fie clar conștientizate obiectivele urmărite. Adesea se cade pradă iluziei că, indiferent de ce date dispunem, se poate susține un demers de cercetare doar cu ajutorul unui program de calcul statistic sofisticat și a unui set de date oarecare. Obiectivul cercetării trebuie să fie clar precizat de la bun început, în timp ce alegerea procedurii statistice ține de natura scalei de măsurare, de caracteristicile variabilelor și ipotezei pe care trebuie să o testăm.

Cel mai important aspect este interpretarea semnificației statistice, în acest sens trebuie să se țină cont de:

atingerea nivelului de semnificație statistică

mărimea eșantionului

Obiectivul legitim al testelor statistice este atingerea pragului de semnificație. De aceea, valoarea lui p este prima care trebuie să ne atragă atenția la capătul prelucrărilor, simțindu-ne răsplătiți pentru eforturile făcute, dacă se precum și dintre concluzii și condițiile specifice cercetării. Fiecare aspect al concluziilor trebuie să aibă un suport robust în datele și rezultatele obținute prin prelucrarea lor.

Relevanța rezultatelor nu depinde doar de atingerea nivelului de semnificație statistică ci și de mărimea eșantionului. În principiu, aceste două mărimi contribuie împreună la fundamentarea concluziilor, astfel:

Un alt aspect important este interpretarea semnificației statistice. Obiectivul legitim al testelor statistice este atingerea pragului de semnificație. De aceea, valoarea lui p este prima care trebuie să ne atragă atenția la capătul prelucrărilor, simțindu-ne răsplătiți pentru eforturile făcute, dacă se află sub pragul de 0.05. Cu toate acestea, nu trebuie să uităm nici un moment că  „statistic semnificativ” nu este echivalent cu „științific important”. Dincolo de valoarea lui p se impune luarea în considerare și mărimea în sine a diferenței sau legăturii puse în evidență de respectivul test statistic. Desigur, o valoare ridicată a testului, fără atingerea pragului de semnificație, nu este relevantă. Dar nici valoare prea mică, chiar dacă este semnificativă statistic. Cât de mică sau cât de mare trebuie să fie valoarea testului, pentru a o considera „importantă” sau „relevantă”? Din păcate, pentru această întrebare nu există un răspuns riguros. Se recomandă apelul la spiritul științific și la simțul comun, concomitent cu raportarea la natura specifică a fiecărei situații în parte. Cu alte cuvinte, răspunsul depinde de contextul fiecărei cercetări în parte.

O altă problemă de discutat este în legătură cu valoarea în sine a lui p. După cum știm, nivelul minim pentru acceptarea semnificației statistice este 0.05, corespunzător valorii convenționale minim acceptabile pentru pragul alfa. Vorbind în sens strict, un p=0.049 este considerat semnificativ, în timp ce un p=0.051 trebuie sa fie considerat nesemnificativ. Având în vedere că pragul alfa=0.05 este unul arbitrar, nu se poate evita un astfel de raționament rigid. Cu toate acestea, există cercetători care raportează rezultate ale lui p ușor mai mari decât 0.05 ca fiind „marginal semnificative” sau „aproape semnificative”. Să menționăm, totuși, că o astfel de atitudine este destul de rar întâlnită și poate determina reacții negative, justificate, din partea cercetătorilor mai „riguroși”, aflați în majoritate.

În mod intuitiv, suntem tentați să interpretăm nivelul de semnificație în funcție de valoarea calculată a lui p. Astfel, un p=0.001 ni se pare mai semnificativ decât un p=0.05, de exemplu. Dacă utilizăm definiția strictă a termenului de semnificație din raționamentul deciziei statistice, o astfel de atitudine nu este justificată. O dată ce a fost fixat un anumit nivel al lui alfa, orice p mai mic sau egal cu acesta este semnificativ, iar orice p mai mare este nesemnificativ. Cei mai mulți statisticieni împărtășesc această opinie. Cu toate acestea, există și cercetători mai puțin „rigizi” care sunt dispuși să asocieze valorii lui p anumite adjective, astfel:

Fără a fi greșite, astfel de formulări nu aduc, totuși, o interpretare relevantă pentru decizia statistică. Este util sa adăugăm că programele de prelucrări statistice afișează „0.000” pentru valori ale lui p mai mici de 0.001, Acest fapt nu va fi interpretat în nici un caz ca exprimând probabilitate „zero”, ci doar în sensul că valoarea lui p este mai mică de 0.001. De altfel, la raportarea semnificației, se poate opta fie pentru înscrierea valorii exacte a lui p, așa cum este calculată de program, fie doar pentru menționarea plasării valorii testului sub nivelul alfa stabilit.

ANEXA1

Prelucrări statistice Microsoft Excel

Pentru prelucrarea unui set de date memorat într-un document Excel se pot utiliza atât funcțiile statistice ale aplicației, cât și procedurile obținute prin Tools – Data Analysis. Funcțiile statistice

uzuale sunt (în ordine alfabetică):

AVEDEV – abaterea medie absolută

AVERAGE – media aritmetică

BINOMDIST – funcția de repartiție binomială

CHIDIST – funcția de repartiție χ2

CHIINV – inversa funcției de repartiție χ2

CHITEST – aplicarea testului χ2

CONFIDENCE – intervalul de încredere pentru medie

FDIST – funcția de repartiție F

FINV – inversa funcției de repartiție F

FTEST – aplicarea testului F

HARMEAN – media armonică

KURT – coeficientul de aplatizare

MIN, MAX – valorile extreme din listă

MEDIAN – mediana

MODE – valoarea mod

NORMDIST – funcția de repartiție normală

NORMINV – inversa funcției de repartiție normală

NORMSDIST – funcția de repartiție normală standard

NORMSINV – inversa funcției de repartiție normală standard

PERCENTILE – quartile

QUARTILE – quartile

RANK – rangul argumentului într-o listă

SKEW – coeficientul de asimetrie

STANDARDIZE – valoarea standardizată a argumentului

STDEV – abaterea standard

TDIST – funcția de repartiție Student, t

TINV – inversa funcției de repartiție Student

TTEST – aplicarea testului Student

VAR – dispersia

Pentru a utiliza procedurile statistice, trebuie ca prin Tools – AddIns să se verifice dacă este instalat utilitarul Analysis ToolPak. În caz afirmativ, comanda Tools – Data Analysis va deschide dialogul Data Analysis din care sunt accesibile o serie de prelucrări statistice conduse de dialogurile asociate. Astfel Descriptive Statistics va produce indicatorii statistici ai unei variabile continue, Random Number Generation va genera secvențe de numere aleatorii repartizate după o funcție precizată, Rank and Percentile realizează atribuirea de ranguri, Sampling produce un eșantion din înregistrările oferite etc.

Compararea mediilor unor (sub)populații se realizează prin proceduri apelate din dialogul deschis prin Tools – Data Analysis.

Atunci când se compară mediile a două populații pe baza unor eșantioane necorelate este necesară parcurgerea etapelor:

1. Testarea egalității dispersiilor prin procedura F-Test Two-Sample for Variances.

2. În funcție de decizia în test se va aplica

• t-Test: Two-Sample Assuming Equal Variances în cazul nerespingerii ipotezei nule din testul F

• t-Test: Two-Sample Assuming Unequal Variances în cazul respingerii ipotezei nule în testul F.

Dacă eșantioanele sunt corelate, situație caracteristică comparării rezultatelor unui grup înainte și după efectuarea unui experiment, se aplică procedura t-Test: Paired Two Sample For Means.

Analiza dispersională poate fi efectuată în Excel prin trei proceduri ANOVA:

• Anova: Single Factor realizează analiza dispersională unifactorială; datele trebuie să fie structurate pe coloane/linii astfel încât fiecare coloană/linie să reprezinte eșantionul dintr-o subpopulație. Nu se efectuează analiza post-hoc sau studiul contrastelor.

• Anova: Two-Factor With Replication realizează o analiză dispersională bifactorială pentru un plan experimental echilibrat (fiecare celulă conține același număr de determinări). Datele de intrare trebuie să fie structurate într-un tabel bidimensional identic cu cel prezentat la analiza bifactorială.

• Anova: Two-Factor Without Replication este o analiză bifactorială dar fiecare celulă conține doar o singură determinare.

În Tools – Data analysis există procedura Regression prin care se poate estima un model liniar.

Ieșirea nu este foarte complexă, dar sunt prezente calculele esențiale, inclusiv cele legate de reziduuri. Nu se calculează însă coeficienții standardizați, nu se poate preciza metoda de selectare a variabilelor, nu se efectuează testul de coliniaritate. Se generează unele diagrame, care necesită însă prelucrări ulterioare majore pentru a fi ușor de interpretat.

Variabilele independente trebuie să ocupe o regiune compactă în foaia de calcul, ceea ce reduce posibilitatea de a estima diferite modele fără a modifica structura foii de calcul.

ANEXA 2 – Distribuția lui t

ANEXA 3 – Distribuția lui ²

Bibliografie

Badea Petrică, Georgescu Daniel – Introducere în Biostatistică, Ed. Medicală Universitară Craiova 2003

Badea Petrică, Georgescu Daniel, Gabriela Badea – Software pentru statistica medicală, Ed. Medicală Universitară, Craiova 2003

Craiu, V. – Verificarea ipotezelor statistice, E.D.P., București 1972

Jaba, Elisabeta – Statistica, Ediția a treia, Ed. Economica, București, 2002

Jaba Elisabeta, Grama Ana – Analiza statistica cu SPSS sub Windows, editura Polirom, 2004

Jaba, Elisabeta, Pintilescu Carmen – Statistica teste grilă și probleme, Ed. Sedcom Libris, ed. 2-a rev. Iași, 2007

Florin Gorunescu, Data Mining – concepte, modele și tehnici, editura Albastra, 2007

http://facultate.regielive.ro/biblioteca/statistica.html – Elemente de Strategie a Analizei Statistice

http://profs.info.uaic.ro/~val/statistica/SPSSTutor1.doc Introducere în SPSS. Programul SPSS

M. Popa – Strategia analizei statistice a datelor http://popamarian.googlepages.com/spss_14_strategie.pdf

Miroslav Kaps,W. Lamberson, Biostatistics for Animal Science: An Introductory Text, http://books.google.ro , 2004

Stetoscop, Revistă de informare pentru medici, ISSN 1582-9995, Editura ANTAEUS

Țigan, Ștefan, Achimaș, Andrei, Drugan, Tudor, Gălătuș, Ramona, Gui, Dorina, Informatică și statistică aplicate în medicină, Editura Srima 2000

www.univermed-cdgm.ro/dwl/ – Analiza varianței și teste neparametrice

CUPRINS

Figură 1. Graficul de tip bară 19

Figură 2 Histograma distribuției de frecvență 19

Figură 3. Poligonul de frecvență 20

Figură 4. Graficul frecvențelor cumulate 21

Figură 5. Graficul circular 21

Figură 6. Distribuția valorilor măsurate 30

Figură 7. Intervalul intercuartilic 36

Figură 8. Plasarea celor trei indicatori ai tendinței centrale 37

Figură 9. Distribuția simetrică a frecvențelor de apariție 38

Figură 11. Distribuția simetrică spre stânga a frecvențelor de apariție 39

Figură 10. Distribuția simetrică spre dreapta a frecvențelor de apariție 39

Figură 12. Histograma afișată de aplicația EXCEL 43

Figură 13 . Reprezentarea grafică a histogramei și a frecvețelor cumulate 43

Figura 14. Reprezentarea grafică a histogramei și a frecvențelor cumulate 46

Figura 15. Histograma datelor observate 51

Figura 16. Histograma și distribuția normală 51

Figura 17. Diagrama BoxPlot 52

Figura 18. Diagrama ValuePlot 52

Figura 19. Fereastra Descriptive statistics 54

Figura 20.Histograma afilată de XLSTAT 55

Figura 21. Distribuția normală pentru diferite valori ale mediei și dispersiei 61

Figura 22. Distribuția normală. Concentrarea valorilor 62

Figura 23. Populație eșantion 63

Figura 24. Distribuția mediei de selecție 64

Figura 25. Distribuția mediei de selecție funcție de volumul eșantionului 65

Figura 26. Curba normală și intervalele de încredere 67

Figura 27. Distribuția mediei de eșantionare funcție de volumul eșantionului 68

Figură 28. Estimarea intervalului de încredre 71

Figura 29. Regiunea acceptată și regiunea respinsă la o distribuție normală 82

Figură 30. Succesiunea pașilor în testarea ipotezelor 85

Figura 31 . Schema decizională privind alegerea testului 91

Figura 32. Regiunea acceptată și regiunea respinsă la o distribuție normală 95

Figură 33.Regiunea de acceptare și regiunea de respingere, test bilateral 99

Figură 34. Regiunea de acceptare și regiunea de respingere, test unilateral 100

Figură 35. Schema decizională a alegerii testului 105

Figură 36. Reprezentarea grafică a intervalelor de încredere 113

Figură 37. Intervalele de încredere pentru parametrul mediei 126

Figură 38. Graficul de corelație 156

Figura 39. Dreapta de regresie 165

Figura 40. Diagrama scater xy 169

Tabel 1. Niveluri de măsurare a variabilelor 5

Tabel 2. Frecvențe simple 14

Tabel 3. Frecvențe simple și frecvențe cumulate 15

Tabel 4 . Procentul de grăsime în lapte – Frecvențe simple 15

Tabel 5. Procentul de grăsime în lapte – Împărțirea pe clase 17

Tabel 6. Algoritmul de alegere a procedurii descriptive adecvate 40

Tabel 7. Valoarea parametrului HGB (g/dL) 41

Tabel 8. Valoarea parametrului HGB (g/dL) 42

Tabel 9. Valoarea parametrului HGB (g/dL).Repartiția de frecvență 42

Tabel 10. Rezultatele afișate de Descriptive Statistics 44

Tabel 11. Frecvențele relative și cumulate 46

Tabel 12. Afișarea rezultatelor opțiunea Descriptive Statistics 48

Tabel 13. Afișarea rezultatelor – Descriptive Statistics (Minitab) 50

Tabel 14. Distribuția mediei de eșantionare 63

Tabel 15. Corelația dintre concluzia cercetării și rezultatul testului 83

Tabel 16. Vârsta medie la o populație de câini 94

Tabel 17. Date experimentale. 107

Tabel 18. Datele observate.Exemplu test t pereche 116

Tabel 19. Date observate pentru exemplul utilizării testului Anova: 127

Tabel 20. Valorile observate pentru cantitatea medie de deuteriu din sânge în intoxicația cu Cr 129

Tabel 21. Frecvențe observate și frecvențe așteptate ale numărului de decese pe perioade ale zilei 138

Tabel 22.Tabel de contingență 140

Tabel 23. Tabel de contingență cu frecvențe relative din totalurile pe coloane 141

Tabel 24. Tabel de contingență  cu frecvențe relative din totalurile pe linii 141

Tabel 25. Observații măsurate în urma unui tratament cu fructe de pădure 153

Tabel 26. Greutatea carcasei și cantitatea de grăsime 160

Similar Posts