Sonderende faktoranalyse

I multivariat statistik, udforskende faktoranalyse er en statistisk metode, der anvendes til at afdække den underliggende struktur i en relativt stor sæt variabler. EFA er en teknik inden for faktoranalyse, hvis overordnede mål er at identificere de bagvedliggende forhold mellem målte variabler. Det er almindeligt anvendt af forskere, når de udvikler en skala, og tjener til at identificere et sæt af latente konstruktioner underliggende et batteri af målte variable. Det skal bruges, når forskeren ikke har nogen a priori hypotese om faktorer eller mønstre af målte variabler. Målte variabler som helst af adskillige egenskaber af mennesker, der kan observeres og måles. Et eksempel på en præcis variabel ville være den fysiske højde af et menneske. Forskerne skal nøje overveje antallet af målte variabler til at medtage i analysen. EFA procedurer er mere præcise, når hver faktor er repræsenteret ved flere målte variabler i analysen.

EFA er baseret på den fælles faktor model. Inden for den fælles faktor model, udtrykker en funktion af fælles faktorer, unikke faktorer, og fejl af målinger målte variabler. Fælles faktorer indflydelse to eller flere målte variabler, mens hver unikke faktor påvirkninger kun én målt variabel og ikke forklarer sammenhænge blandt målte variabler.

EFA antager, at enhver indikator / målte variabel kan være forbundet med en hvilken som helst faktor. Ved udvikling af en skala, skal forskerne bruge EFA først, før man går videre til bekræftende faktor analyse. EFA kræver forskeren til at lave en række vigtige beslutninger om, hvordan til at udføre analysen, fordi der er ingen sæt metode.

Montering procedurer

Bruges montering procedurer for at estimere factor loadings og unikke varianser af modellen. Der er flere faktor analyse montering metoder at vælge imellem, men der er lidt information om alle deres styrker og svagheder, og mange har ikke engang en eksakt navn, der bruges konsekvent. Hovedakse factoring og maksimal sandsynlighed er to ekstraktionsmetoder, der er almindeligt anbefalede. Generelt ML eller PAF giver de bedste resultater, alt efter om data normalt fordelte eller hvis antagelsen om normalitet er blevet krænket.

Maximum Likelihood

Den maksimale sandsynlighed metode har mange fordele, idet den giver forskerne at beregne en lang række af indekser for godhed fit af modellen, det giver forskere mulighed for at teste den statistiske signifikans af factor loadings, beregne korrelationer mellem faktorer og beregne konfidensintervaller for disse parametre. ML er det bedste valg når data normalt fordelt, fordi "det giver mulighed for beregning af en bred vifte af indekser for goodness of fit af modellen tillader statistisk signifikans test af factor loadings og sammenhænge mellem faktorer og beregningen af ​​konfidensintervaller". ML bør ikke anvendes, hvis oplysningerne ikke normalt fordelt.

Hovedakse factoring

Kaldet "principal" akse factoring fordi de første faktor udgør så meget fælles varians som muligt, så den anden faktor næstmest varians, og så videre. PAF er et beskrivende procedure, så det er bedst at bruge, når fokus er lige på din prøve, og du ikke har planer om at generalisere resultaterne ud over din prøve. En fordel af PAF er, at det kan bruges, når antagelsen om normalitet er blevet tilsidesat. En anden fordel af PAF er, at det er mindre sandsynligt end at producere ML forkerte løsninger. En ulempe af PAF er, at det giver et begrænset udvalg af godhed-of-fit indekser i forhold til ML og ikke giver mulighed for beregning af konfidensintervaller og betydning tests.

Valg af passende antal faktorer

Når du vælger, hvor mange faktorer skal indgå i en model, skal forskerne forsøge at balancere sparsommelighed og sandsynlige. Det er bedre at omfatte alt for mange faktorer end for få faktorer.

Overfactoring opstår, når alt for mange faktorer indgår i en model. Det er ikke så slemt som underfactoring fordi vigtige faktorer vil normalt være nøjagtigt repræsenteret og ekstra faktorer vil have nogen målte variabler indlæse på dem. Alligevel skal det undgås, fordi overfactoring kan føre forskerne at fremsætte konstruktioner med lidt teoretiske værdi.

Underfactoring opstår, når for få faktorer indgår i en model. Dette anses for at være en større fejl end overfactoring. Hvis ikke nok faktorer indgår i en model, er der sandsynligvis være betydelige fejl. Målte variabler, der indlæses på en faktor, der ikke indgår i modellen, kan falsk indlæst på faktorer, der indgår, ændrer sande factor loadings. Dette kan resultere i roterede opløsninger, hvori to faktorer er kombineret til en enkelt faktor, tilslører den sande faktor struktur.

Der er en række procedurer, der skal bestemme den optimale antal faktorer for at fastholde i EFA. Disse omfatter Kaisers egenværdi-større-end-én regel, Cattell s urer plot, Revelle og Rocklin er meget enkel struktur kriteriet, model sammenligning teknikker, Raiche, Roipel og Blais acceleration faktor og optimale koordinater, Velicer s minimale gennemsnitlige delvise, Horns parallel analyse, og Ruscio og Roches sammenligning af data. , Nyere simulation undersøgelser vedrørende robusthed sådanne teknikker tyder dog at sidstnævnte fem kan hjælpe praktiserende læger til mere velovervejet modeldata. Disse fem moderne teknikker er nu let tilgængelige via integreret brug af IBM SPSS Statistics-software og R. Se Courtney for vejledning om, hvordan til at udføre disse procedurer for kontinuerlig, ordenstal, og heterogene data.

Med undtagelse af Revelle og Rocklin er meget enkel struktur kriteriet, model sammenligning teknikker, og Velicer mindstekrav gennemsnitlige partielle alle andre procedurer stole på analysen af ​​egenværdier. Egenværdien af ​​en faktor repræsenterer den mængde varians af variablerne tegnede sig for denne faktor. Jo lavere egenværdi, jo mindre denne faktor bidrager til forklaring af forskelle i variablerne.

En kort beskrivelse af hver af de ni procedurer nævnt ovenfor, vil tilvejebringes nedenfor.

Kaisers egenværdi-større-end-en regel

Beregn egenværdierne for sammenhængen matrix og bestemme, hvor mange af disse egenværdier er større end 1. Dette tal er antallet af faktorer, der skal medtages i modellen. En ulempe ved denne procedure er, at det er helt vilkårlig. Denne fremgangsmåde ofte fører til overfactoring og til tider underfactoring. Derfor bør ikke anvendes denne procedure. En variation af K1 kriterium er skabt for at mindske sværhedsgraden af ​​kriteriet problemer, hvor en forsker beregner konfidensintervaller for hver egenværdi og bevarer et forhold, som har hele konfidensinterval større end 1,0.

Cattell s urer plot

Beregn egenværdierne for korrelationsmatrixen og plot værdierne fra største til mindste. Undersøg grafen til at bestemme den sidste væsentlige fald i omfanget af egenværdier. Antallet af plottede punkter, før den sidste dråbe er antallet af faktorer, der skal medtages i modellen. Denne metode er blevet kritiseret på grund af dens subjektive natur. Da denne procedure er subjektiv, er Courtney ikke anbefale det.

Revelle og Rocklin meget enkel struktur

Revelle og Rocklin s VSS kriterium virkeliggør den denne tendens ved at vurdere, i hvilket omfang den oprindelige korrelationsmatrix gengives af en forenklet mønster matrix, hvor kun den højeste belastning for hvert element bevares, idet alle andre belastninger sat til nul. VSS kriterium for vurderingen af ​​omfanget af replikation kan tage værdier mellem 0 og 1, og er et mål for goodness-of-fit af faktoren løsning. VSS kriterium er indsamlet fra faktor løsninger, der involverer én faktor til en bruger-specificeret teoretiske maksimale antal faktorer. Derefter faktoren løsning, der giver den højeste VSS kriterium bestemmer det optimale antal fortolkelige faktorer i matrixen. I et forsøg på at imødekomme datasæt hvor emner samvarierer med mere end én faktor, kan kriteriet også udføres med forenklede mønster matricer, hvor de højeste to loadings tilbageholdes, mens resten sat til nul. Courtney også anbefaler ikke VSS på grund af manglende robust simulation forskning vedrørende udførelsen af ​​VSS kriterium.

Model sammenligning teknikker

Vælge den bedste model fra en række modeller, der afviger i kompleksitet. Forskerne bruger goodness-of-fit foranstaltninger til at passe modeller begynder med en model med nul faktorer og gradvist øge antallet af faktorer. Målet er i sidste ende at vælge en model, der forklarer de data, betydeligt bedre end enklere modeller og forklarer de data, såvel som mere komplekse modeller.

Der er forskellige metoder, der kan anvendes til at vurdere modeltilpasning:

  • Sandsynlighed forholdet statistik: Bruges til at teste nulhypotesen, at en model har perfekte model pasform. Den bør anvendes til modeller med et stigende antal faktorer, indtil resultatet er ikke er væsentlige, hvilket indikerer, at modellen ikke er afvist som god model fit af befolkningen. Denne statistik bør anvendes med stor stikprøvestørrelse og normalfordelte data. Der er nogle ulemper ved likelihood ratio test. Først, når der er en stor stikprøve, selv små afvigelser mellem modellen og de data resultat i model afvisning. Når der er en lille stikprøve, kan selv store afvigelser mellem modellen og data ikke være betydningsfuld, hvilket fører til underfactoring. En anden ulempe ved likelihood ratio test er, at nulhypotesen af ​​perfekt pasform er en urealistisk standard.
  • Geometriske middelværdi fejl tilnærmelse fit indeks: RMSEA er et skøn over forskellen mellem model og data pr frihedsgrad for modellen. Værdier mindre that.05 udgør god pasform, værdier mellem 0,05 og 0,08 udgør acceptabel pasform, en værdier mellem 0,08 og 0,10 udgør marginale pasform og værdier større end 0,10 angiver dårlig pasform. En fordel ved den RMSEA fit indeks er, at det giver konfidensintervaller, der tillader forskerne at sammenligne en række modeller med varierende antal faktorer.

Optimal Koordinere og Acceleration Factor

I et forsøg på at overvinde den subjektive svaghed Cattell s urer test, præsenterede to familier af ikke-grafiske løsninger. Den første metode, opfandt optimale koordinere forsøg på at bestemme placeringen af ​​uren ved måling gradienterne forbundet med egenværdier og deres foregående koordinater. Den anden metode, opfundet acceleration faktor, vedrører en numerisk løsning til bestemmelse af koordinat, hvor hældningen af ​​kurven ændrer mest brat. Begge disse metoder har ud-udført K1 fremgangsmåden i simulering. I Ruscio og Roche undersøgelse, & gt; OC-metoden var korrekt 74.03% af tiden rivaliserende PA-teknik. AF-metoden var korrekt 45,91% af tiden med en tendens til undervurdering. Både OC og AF metoder, der genereres ved brug af Pearson korrelationskoefficienter blev revideret i Ruscio og Roches simulering undersøgelse. Resultaterne antydede, at begge teknikker udføres ganske godt under ordenstal svarkategorier på to til syv og kvasi-kontinuerlige situationer data. I betragtning nøjagtigheden af ​​disse procedurer under simuleringen, er de stærkt anbefales til bestemmelse af antallet af faktorer for at fastholde i EFA. Det er en af ​​Courtneys 5 anbefalede moderne procedurer.

Velicer s Minimum Gennemsnitlig Delvis test

Velicer MAP test "indebærer en komplet hovedkomponenter analyse efterfulgt af en undersøgelse af en række matricer af partielle korrelationer". Den kvadrerede korrelation for trin "0" er det gennemsnitlige kvadrerede off-diagonal korrelation for unpartialed korrelationsmatrix. På trin 1 er den første principale komponent og dens tilknyttede elementer partialed ud. Derefter gennemsnitlige kvadrerede off-diagonal korrelation for den efterfølgende korrelationsmatrix beregnes derefter for Trin 1. Trin 2, er de første to hovedkomponenter partialed, og den resulterende gennemsnitlige kvadrerede off-diagonal korrelation igen beregnes. Beregningerne udføres for k minus et trin. Derefter alle de gennemsnitlige kvadrerede korrelationer for hvert trin er linet op, og trinnummeret i analyserne, der resulterede i den laveste gennemsnitlige kvadrerede partiel korrelation bestemmer antallet af komponenter eller faktorer for at fastholde. Ved denne fremgangsmåde, er komponenter opretholdes, så længe variansen i korrelationsmatrixen repræsenterer systematisk varians, i modsætning til sekundære eller fejlvariansen. Selvom metodisk beslægtet med principal komponenter analyse har MAP teknik vist sig at udføre ganske godt i fastsættelsen af ​​antallet af faktorer, at beholde i flere simulation studier. Dog kan i en meget lille mindretal af sager MAP groft overvurderer antallet af faktorer i et datasæt af ukendte årsager. Denne procedure er gjort tilgængelig via SPSS brugergrænseflade. Se Courtney om vejledning. Dette er en af ​​hans fem anbefalede moderne procedurer.

Parallel analyse

For at udføre PA testen, brugere beregne egenværdier for korrelationsmatrixen og plot værdierne fra største til mindste, og derefter plotte et sæt tilfældige egenværdier. Antallet af egenværdier før skæringspunkter angiver, hvor mange faktorer skal medtages i din model. Denne procedure kan være noget artbitrary. Desuden er metoden er meget følsom over for stikprøve størrelse, med PA tyder flere faktorer i datasæt med større stikprøvestørrelser. Trods sine mangler, denne procedure fungerer meget godt i simulation studier, og er en af ​​Courtney anbefalede procedurer. Se Courtney om, hvordan du udfører denne procedure inde fra SPSS-grænsefladen.

Ruscio og Roches Sammenligning af data

I 2012 introducerede Ruscio og Roche den sammenlignende procedure data i et forsøg forbedre PA-metoden. Forfatterne anfører, at "i stedet for at generere tilfældige datasæt, som kun tager hensyn til prøvetagning fejl er flere datasæt med kendte faktorielle strukturer analyseres for at bestemme, hvilke bedst gengiver profilen af ​​egenværdier for den faktiske data". Styrken af ​​proceduren er dens evne til ikke blot at optage stikprøvefejlene, men også fakultet struktur og multivariat fordeling af elementerne. Ruscio og Roches simulation undersøgelse fastslået, at CD-proceduren udkonkurrerede mange andre metoder til at bestemme det korrekte antal faktorer at bevare. I denne undersøgelse, CD teknik, der gør brug af Pearson korrelationer forudsiges nøjagtigt det korrekte antal faktorer 87.14% af tiden. Selv om det skal bemærkes, at den simulerede undersøgelsen ikke omfatte mere end fem faktorer. Derfor er anvendeligheden af ​​CD-proceduren at anslå faktorielle strukturer end fem faktorer er endnu ikke testet. Courtney omfatter denne procedure i sin anbefalede liste og giver retningslinjer viser, hvordan den let kan udføres indefra SPSS brugergrænseflade.

Konvergens af flere tests

En gennemgang af 60 tidsskriftsartikler fra Henson og Roberts konstateret, at ingen brugte flere moderne teknikker i et forsøg på at finde konvergens, som PA og Velicer minimumskrav gennemsnitlige delvise procedurer. Ruscio og Roche simulation undersøgelse viste den empiriske fordel søge konvergens. Når aftalt CD og PA procedurer, nøjagtigheden af ​​det anslåede antal faktorer var korrekt 92,2% af tiden. Ruscio og Roche viste, at når yderligere prøver var enige, kunne nøjagtigheden af ​​estimeringen øges yderligere.

Skræddersy Courtney anbefalede procedurer for ordinal og kontinuerlig data

Nylige simulation studier inden for psykometri tyder på, at den parallelle analyse, kan minimum gennemsnitlige delvis, og sammenlignelige data teknikker forbedres til forskellige data situationer. For eksempel i Simuleringsundersøgelserne, udførelsen af ​​den mindste gennemsnitlige delvis afprøvning, når ordinaldataene angår, kan forbedres ved at anvende polychoric korrelationer, i modsætning til Pearson korrelationer. Courtney detaljer, hvordan hver af disse tre procedurer kan optimeres og udføres samtidigt inde fra SPSS-grænsefladen.

Faktor rotation

Faktor rotation er processen for fortolkningen faktor matricer. For enhver løsning med to eller flere faktorer der er et uendeligt antal orienteringer af de faktorer, der vil forklare de data lige godt. Fordi der ikke er nogen entydig løsning, skal en forsker vælge en enkelt løsning fra de uendelige muligheder. Målet med faktor rotation er at rotere faktorer i flerdimensionale rum at nå frem til en løsning med den bedste enkel struktur. Der er to typer af faktor rotation: retvinklede og skrå rotation.

Ortogonale rotation

Ortogonale rotationer begrænse faktorer at være ukorrelerede. Varimax betragtes som den bedste ortogonale rotation og dermed bruges den oftest i psykologi forskning. En fordel ved ortogonal rotation er dens enkelhed og klarhed konceptuelle, selv om der er flere ulemper. I samfundsvidenskaberne, er der ofte et teoretisk grundlag for at forvente konstruerer at være korreleret derfor ortogonale rotationer kan ikke være meget realistisk, fordi det ignorerer denne mulighed. Også fordi ortogonale rotationer kræver faktorer at være ukorrelerede, er de mindre tilbøjelige til at producere løsninger med enkel struktur.

Oblique rotation

Skrå rotationer tillader korrelationer mellem faktorer, selvom de således identificerede faktorer kan ikke korrelere. Hvis faktorer ikke korrelerer, kan disse rotationer producerer løsninger svarende til ortogonal rotation. Adskillige skrå rotation procedurer er almindeligt anvendt, såsom direkte oblimin rotation, direkte quartimin rotation, ProMax rotation, og Harris-Kaiser orthoblique rotation. En fordel ved skrå rotation er, at den producerer løsninger med bedre simpel struktur, fordi det giver faktorer at korrelere og frembringer skøn over korrelationer blandt faktorer.

Faktor fortolkning

Factor loadings er numeriske værdier, der angiver styrken og retningen af ​​en faktor på en målt variabel. Factor loadings angiver, hvor stærkt den faktor påvirker den målte variabel. For at mærke de faktorer i modellen, skal forskerne undersøge faktoren mønster for at se, hvilke elementer indlæse højt på hvilke faktorer, og derefter afgøre, hvad disse elementer har til fælles. Uanset elementerne har til fælles vil indikere betydningen af ​​faktoren.

  0   0

Kommentarer - 0

Ingen kommentar

Tilføj en kommentar

smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile
Tegn tilbage: 3000
captcha