heim - Laptops
Faktormatrix. IN

Die Faktorenanalyse ist ein Teilgebiet der mathematischen Statistik. Ihr Ziel besteht wie das Ziel anderer Zweige der mathematischen Statistik darin, Modelle, Konzepte und Methoden zu entwickeln, die es ermöglichen, Arrays experimenteller oder beobachteter Daten unabhängig von ihrer physikalischen Form zu analysieren und zu interpretieren.

Eine der typischsten Formen der Darstellung experimenteller Daten ist eine Matrix, deren Spalten verschiedenen Parametern, Eigenschaften, Tests usw. entsprechen und deren Zeilen einzelnen Objekten, Phänomenen und Modi entsprechen, die durch eine Reihe spezifischer Parameterwerte beschrieben werden. In der Praxis erweisen sich die Dimensionen der Matrix als recht groß: Beispielsweise kann die Anzahl der Zeilen dieser Matrix zwischen mehreren Zehntausend und mehreren Hunderttausend (z. B. bei soziologischen Umfragen) und die Anzahl der Spalten variieren eins bis zwei bis mehrere hundert. Eine direkte, „visuelle“ Analyse von Matrizen dieser Größe ist unmöglich. Daher sind in der mathematischen Statistik viele Ansätze und Methoden entstanden, die darauf abzielen, die in der Matrix enthaltenen Anfangsinformationen auf eine überschaubare Größe zu „komprimieren“, um die „wesentlichsten“ Informationen zu extrahieren. Von den anfänglichen Informationen, Verwerfen der „sekundären“, „zufälligen“ Informationen.

Bei der Analyse von in Matrixform dargestellten Daten treten zwei Arten von Problemen auf. Aufgaben des ersten Typs zielen darauf ab, eine „Kurzbeschreibung“ der Verteilung von Objekten zu erhalten, und Aufgaben des zweiten Typs zielen darauf ab, Beziehungen zwischen Parametern zu identifizieren.

Es ist zu bedenken, dass der Hauptanreiz für das Erscheinen dieser Aufgaben nicht nur und nicht so sehr im Wunsch liegt, eine große Anzahl von Zahlen kurz zu kodieren, sondern in einem viel grundlegenderen Umstand methodischer Natur: einmal war es so Wenn es möglich ist, eine große Anzahl von Zahlen kurz zu beschreiben, dann kann man davon ausgehen, dass ein bestimmtes objektives Muster aufgedeckt wurde, das die Möglichkeit einer kurzen Beschreibung bestimmt; aber die Suche nach objektiven Mustern ist das Hauptziel, für das in der Regel Daten erhoben werden.

Die genannten Ansätze und Methoden zur Verarbeitung von Datenmatrizen unterscheiden sich in der Art des Datenverarbeitungsproblems, das sie lösen sollen, und in der Größe der Matrizen, die sie anwenden.

Was das Problem einer Kurzbeschreibung der Zusammenhänge zwischen Parametern mit einer durchschnittlichen Anzahl dieser Parameter betrifft, so enthält die entsprechende Korrelationsmatrix in diesem Fall mehrere Zehner- oder Hunderterzahlen und kann an sich noch nicht als „Kurzbeschreibung“ der dienen bestehende Zusammenhänge zwischen den Parametern, sollten aber zum Zwecke der weiteren Verarbeitung mit diesen verknüpft werden.

Bei der Faktoranalyse handelt es sich genau um eine Reihe von Modellen und Methoden, die darauf abzielen, die in der Korrelationsmatrix enthaltenen Informationen zu „komprimieren“. Grundlage verschiedener Faktorenanalysemodelle ist die folgende Hypothese: Die beobachteten oder gemessenen Parameter sind nur indirekte Merkmale des untersuchten Objekts oder Phänomens, tatsächlich gibt es jedoch interne (verborgene, nicht direkt beobachtbare) Parameter oder Eigenschaften, deren Anzahl klein ist und die Werte der beobachteten Parameter bestimmen. Diese internen Parameter werden üblicherweise als Faktoren bezeichnet. Die Aufgabe der Faktorenanalyse besteht darin, die beobachteten Parameter in Form von linearen Kombinationen von Faktoren und möglicherweise einigen zusätzlichen, „nicht wesentlichen“ Größen – „Interferenz“ – darzustellen. Die bemerkenswerte Tatsache ist, dass, obwohl die Faktoren selbst nicht bekannt sind, eine solche Zerlegung erhalten werden kann und darüber hinaus solche Faktoren bestimmt werden können, d. h. Für jedes Objekt können die Werte jedes Faktors angegeben werden.

Die Faktorenanalyse beginnt unabhängig von den verwendeten Methoden mit der Verarbeitung einer Tabelle von Interkorrelationen, die bei einer Reihe von Tests erhalten wurden, der sogenannten Korrelationsmatrix, und endet mit der Erstellung einer Faktormatrix, d. h. eine Tabelle, die das Gewicht oder die Ladung jedes Faktors für jeden Test zeigt. Tabelle 1 ist eine hypothetische Faktormatrix, die nur zwei Faktoren enthält.

Die Faktoren werden in der obersten Zeile der Tabelle von der höchsten zur niedrigsten Signifikanz aufgelistet, und ihre Gewichtungen in jedem der 10 Tests sind in den entsprechenden Spalten angegeben.

Tabelle 1

Hypothetische Faktormatrix

Koordinatenachsen. Es ist üblich, Faktoren geometrisch in Form von Koordinatenachsen darzustellen, relativ zu denen jeder Test als Punkt dargestellt werden kann. Reis. 1 erklärt dieses Verfahren. In dieser Grafik wird jeder der 10 in Tabelle 1 aufgeführten Tests als Punkt relativ zu zwei Faktoren angezeigt, die den Achsen I und II entsprechen. Somit wird Test 1 durch einen Punkt mit den Koordinaten 0,74 entlang der Achse I und 0,54 entlang der Achse II dargestellt. Die Punkte, die die verbleibenden 9 Tests darstellen, werden auf ähnliche Weise aufgetragen, wobei die Gewichtswerte aus der Tabelle verwendet werden. 1.

Es ist zu beachten, dass die Position der Koordinatenachsen nicht durch Daten festgelegt ist. Die anfängliche Korrelationstabelle bestimmt nur die Position der Tests (d. h. die Punkte in Abb. 1). relativ zueinander. Dieselben Punkte können in einer Ebene mit jeder Position der Koordinatenachsen aufgetragen werden. Aus diesem Grund ist es bei der Durchführung einer Faktoranalyse üblich, die Achsen zu drehen, bis die am besten geeignete und am einfachsten zu interpretierende Anzeige erhalten wird.

Reis. 1. Hypothetische Faktoranzeige mit den Gewichtungen der beiden Gruppenfaktoren für jeden der 10 Tests.

In Abb. In 1 sind die nach der Drehung erhaltenen Achsen I" und II" durch gestrichelte Linien dargestellt. Diese Rotation wird gemäß den von Thurstone vorgeschlagenen Kriterien durchgeführt positive Vielfalt und einfache Struktur. Die erste besteht darin, die Achsen in eine Position zu drehen, in der alle signifikanten negativen Gewichte eliminiert werden. Die meisten Psychologen halten negative Faktorladungen für logisch ungeeignet für Eignungstests, da solche Ladungen bedeuten, dass je höher die Punktzahl einer Person bei einem bestimmten Faktor ist, desto niedriger ist ihre Punktzahl bei dem entsprechenden Test. Das Kriterium des einfachen Designs bedeutet im Wesentlichen, dass jeder Test so wenige Faktoren wie möglich berücksichtigen sollte.

Die Erfüllung beider Kriterien führt zu Faktoren, die am einfachsten und eindeutigsten interpretiert werden können. Wenn ein Test eine hohe Belastung für einen Faktor und keine signifikanten Belastungen für andere Faktoren aufweist, können wir durch die Untersuchung des Inhalts etwas über die Natur dieses Faktors erfahren dieser Test. Wenn ein Test dagegen durchschnittliche oder niedrige Belastungen für sechs Faktoren aufweist, sagt er uns wenig über die Natur eines dieser Faktoren.

In Abb. 1 zeigt deutlich, dass nach Drehung der Koordinatenachsen alle verbalen Tests (1-5) entlang oder sehr nahe an der Achse I liegen und die numerischen Tests (6-10) eng um die Achse II gruppiert sind. Die neuen Faktorladungen, gemessen relativ zu den gedrehten Achsen, sind in der Tabelle aufgeführt. 2. Faktorladungen in der Tabelle. 2 haben keine negativen Werte, mit Ausnahme vernachlässigbarer Werte, die eindeutig auf Stichprobenfehler zurückzuführen sind. Alle verbalen Tests haben hohe Ladungen für Faktor I und praktisch keine Ladungen für Faktor II. Im Gegensatz dazu weisen numerische Tests hohe Ladungen für Faktor II und vernachlässigbare Ladungen für Faktor I auf. Somit vereinfachte die Drehung der Koordinatenachsen die Identifizierung und Benennung beider Faktoren sowie die Beschreibung der Faktorenzusammensetzung jedes Tests erheblich. In der Praxis liegt die Anzahl der Faktoren oft bei mehr als zwei, was sie natürlich erschwert geometrische Darstellung Und statistische Analyse, ändert jedoch nichts am Wesen des betreffenden Verfahrens.

Tabelle 2

Faktormatrix nach Rotation

Einige Forscher orientieren sich am theoretischen Modell als Prinzip der Achsenrotation. Darüber hinaus wird die Invarianz bzw. die Bestätigung derselben Faktoren in unabhängig durchgeführten, aber vergleichbaren Studien berücksichtigt.

Interpretation von Faktoren. Nachdem wir nach dem Rotationsverfahren eine Faktorlösung (oder einfacher gesagt eine Faktormatrix) erhalten haben, können wir mit der Interpretation und Benennung der Faktoren fortfahren. Diese Arbeitsphase erfordert eher psychologische Intuition als statistisches Training. Um die Natur eines bestimmten Faktors zu verstehen, bleibt uns nichts anderes übrig, als Tests zu studieren, die diesen Faktor stark belasten, und zu versuchen, die ihnen gemeinsamen psychologischen Prozesse zu entdecken. Je mehr Tests mit hohen Belastungen für einen bestimmten Faktor vorliegen, desto einfacher lässt sich seine Natur erkennen. Vom Tisch 2 ist zum Beispiel sofort klar, dass Faktor I“ verbal und Faktor II“ numerisch ist. In der Tabelle angegeben. 2 Faktorladungen spiegeln auch die Korrelation jedes Tests mit dem Faktor wider.

Wenn die Faktoranalyse ordnungsgemäß durchgeführt wird, ist die bevorzugte Methode zur Faktorextraktion entweder die maximale Wahrscheinlichkeit oder die verallgemeinerte Methode der kleinsten Quadrate, anstatt sich mit den Standardeinstellungen („kleine Augenblicke“, wie Methodiker das Standard-Gentleman-Set spöttisch nennen) zufrieden zu geben. Hier kann uns Ärger erwarten: Das Verfahren erzeugt eine Fehlermeldung: Korrelationsmatrix ist nicht positiv definit. Was bedeutet das, warum passiert es und wie kann mit dem Problem umgegangen werden?
Tatsache ist, dass das Verfahren im Prozess der Faktorisierung nach dem sogenannten sucht inverse Matrix in Bezug auf Korrelation. Hier gibt es eine Analogie zu den üblichen reellen Zahlen: Wenn wir eine Zahl mit ihrem Kehrwert multiplizieren, sollten wir eins erhalten (zum Beispiel 4 und 0,25). Für einige Zahlen gibt es jedoch keine Umkehrungen – Null kann nicht mit etwas multipliziert werden, das eins ergibt. Dasselbe gilt auch für Matrizen. Eine mit ihrer Umkehrung multiplizierte Matrix ergibt die Identitätsmatrix (die Einsen stehen auf der Diagonale und alle anderen Werte sind Null). Für einige Matrizen gibt es jedoch keine Inversen, was bedeutet, dass eine Faktorenanalyse in solchen Fällen unmöglich wird. Herausfinden dieser Fakt kann mithilfe einer speziellen Zahl erfolgen, die als Determinante bezeichnet wird. Wenn er gegen Null tendiert oder für die Matrix negativ ist, dann haben wir ein Problem.
Was sind die Gründe für diese Situation? Am häufigsten entsteht es aufgrund der Existenz lineare Abhängigkeit zwischen Variablen. Es klingt seltsam, da wir mit multidimensionalen Methoden genau nach solchen Abhängigkeiten suchen. Wenn solche Abhängigkeiten jedoch nicht mehr probabilistisch sind und streng deterministisch werden, versagen mehrdimensionale Analysealgorithmen. Betrachten Sie das folgende Beispiel. Lassen Sie uns den folgenden Datensatz haben:
Datenliste kostenlos / V1 bis V3. Daten beginnen. 1 2 3 2 1 2 3 5 4 4 4 5 5 3 1 Enddaten. Berechnen Sie V4 = V1 + V2 + V3.
Die letzte Variable ist die genaue Summe der ersten drei. Wann tritt diese Situation in einer realen Studie auf? Wenn wir Rohwerte für Untertests und den Test als Ganzes in den Variablensatz aufnehmen; wenn die Anzahl der Variablen viel größer ist als die Anzahl der Probanden (insbesondere, wenn die Variablen stark korrelieren oder nur über eine begrenzte Menge an Werten verfügen). In diesem Fall können zufällig präzise lineare Zusammenhänge entstehen. Abhängigkeiten sind häufig ein Artefakt des Messverfahrens. Wenn beispielsweise Prozentsätze innerhalb von Beobachtungen berechnet werden (z. B. der Prozentsatz von Aussagen eines bestimmten Typs), eine Rangfolgemethode oder die Verteilung einer konstanten Summe verwendet wird, werden einige Einschränkungen eingeführt Auswahl an Alternativen usw. Wie Sie sehen, handelt es sich hierbei um recht häufige Situationen.
Wenn Sie bei der Durchführung einer Faktoranalyse in SPSS des obigen Arrays die Ausgabe der Determinante und der inversen Korrelationsmatrix anordnen, meldet das Paket ein Problem.
Wie identifiziert man eine Gruppe von Variablen, die Multikollinearität erzeugen? Es stellt sich heraus, dass die gute alte Methode der Hauptkomponenten trotz der linearen Abhängigkeit weiterhin funktioniert und etwas hervorbringt. Wenn Sie sehen, dass die Kommunalitäten einiger Variablen sich 0,90–0,99 nähern und die Eigenwerte einiger Faktoren sehr klein (oder sogar negativ) werden, ist das kein gutes Zeichen. Bestellen Sie außerdem eine Varimax-Rotation und sehen Sie, welche Gruppe von Variablen bei einem Freund landete, der im Verdacht steht, eine kriminelle Verbindung zu haben. Normalerweise ist die Belastung dieses Faktors ungewöhnlich groß (z. B. 0,99). Wenn dieser Variablensatz klein und inhaltlich heterogen ist, die Möglichkeit einer künstlichen linearen Abhängigkeit ausgeschlossen ist und die Stichprobe groß genug ist, kann die Entdeckung einer solchen Beziehung als ebenso wertvolles Ergebnis angesehen werden. Sie können eine solche Gruppe in der Regressionsanalyse rotieren: Machen Sie die Variable abhängig, die die höchste Last zeigte, und probieren Sie alle anderen als Prädiktoren aus. R, d.h. Der Mehrfachkorrelationskoeffizient sollte in diesem Fall gleich 1 sein. Wenn die lineare Beziehung stark vernachlässigt wird, verwirft die Regression stillschweigend einige andere Prädiktoren. Schauen Sie sich genau an, was fehlt. Durch die zusätzliche Bestellung einer Multikollinearitätsdiagnoseausgabe können Sie schließlich die unglückliche Menge finden, die eine exakte lineare Beziehung bildet.
Und schließlich gibt es noch einige andere kleinere Gründe, warum die Korrelationsmatrix nicht positiv definit ist. Dies ist erstens das Vorhandensein einer großen Anzahl von Nichtantworten. Um die verfügbaren Informationen optimal zu nutzen, ordnet der Forscher manchmal die paarweise Verarbeitung von Lücken an. Infolgedessen kann das Ergebnis eine so „unlogische“ Verbindungsmatrix sein, dass das Faktoranalysemodell damit nicht umgehen kann. Zweitens: Wenn Sie sich für die Faktorisierung einer in der Literatur angegebenen Korrelationsmatrix entscheiden, kann es sein, dass das Runden von Zahlen negative Auswirkungen hat.

SCHRITTE ZUR DURCHFÜHRUNG DER FAKTORANALYSE

Es gibt neun Stufen der Faktorenanalyse. Der Übersichtlichkeit halber stellen wir diese Phasen in einem Diagramm dar und geben ihnen anschließend eine kurze Beschreibung.

Die Phasen der Durchführung der Faktorenanalyse sind in Abb. dargestellt.

Reis.

FORMULIERUNG DES PROBLEMS UND KONSTRUKTION DER KORRELATIONSMATRIX

Problem Formulierung. Es ist notwendig, die Ziele der Faktorenanalyse klar zu definieren. Variablen, die einer Faktoranalyse unterzogen werden, werden auf der Grundlage früherer Forschungsarbeiten, theoretischer Überlegungen oder nach Ermessen des Forschers festgelegt. Es ist notwendig, dass Variablen im Hinblick auf gemessen werden Intervall oder relativ Skala. Die Erfahrung zeigt, dass die Stichprobengröße vier- bis fünfmal größer sein sollte als die Anzahl der Variablen.

Aufbau einer Korrelationsmatrix. Die Analyse basiert auf einer Korrelationsmatrix zwischen Variablen. Die Durchführbarkeit einer Faktorenanalyse wird durch das Vorhandensein von Korrelationen zwischen Variablen bestimmt. Wenn die Korrelationen zwischen allen Variablen gering sind, ist die Faktorenanalyse nutzlos. Variablen, die stark korrelieren, neigen dazu, stark mit demselben Faktor oder denselben Faktoren zu korrelieren.

Es gibt verschiedene Statistiken, um die Machbarkeit der Verwendung eines Faktormodells zu testen. Mithilfe des Bartlett-Tests auf Sphärizität wird die Nullhypothese getestet, dass es keine Korrelation zwischen Variablen in der Grundgesamtheit gibt. Dies bedeutet, dass die Aussage, dass die Populationskorrelationsmatrix betrachtet wird, eine Identitätsmatrix ist, in der alle Diagonalelemente gleich eins und alle anderen gleich null sind. Der Sphärizitätstest basiert auf der Umwandlung der Determinante der Korrelationsmatrix in eine Chi-Quadrat-Statistik. Wenn der Statistikwert groß ist, wird die Nullhypothese abgelehnt. Wenn die Nullhypothese nicht abgelehnt wird, ist die Durchführung einer Faktorenanalyse nicht sinnvoll. Eine weitere nützliche Statistik ist der Kaiser-Meyer-Olkin-Test (KMO) zur Stichprobenadäquanz. Dieser Koeffizient vergleicht die Werte der beobachteten Korrelationskoeffizienten mit den Werten der partiellen Korrelationskoeffizienten. Kleine Werte der KMO-Statistik weisen darauf hin, dass Korrelationen zwischen Variablenpaaren nicht durch andere Variablen erklärt werden können, was bedeutet, dass der Einsatz einer Faktorenanalyse ungeeignet ist.

Das folgende Beispiel basiert auf fiktiven Daten im Zusammenhang mit der Untersuchung der Lebenszufriedenheit. Angenommen, der Fragebogen wurde an 100 zufällig ausgewählte Erwachsene gesendet. Der Fragebogen enthielt 10 Punkte zur Messung der Zufriedenheit am Arbeitsplatz, der Zufriedenheit mit Hobbys, der Zufriedenheit mit dem Privatleben und der Gesamtzufriedenheit in anderen Lebensbereichen. Die Antworten auf die Items wurden in einen Computer eingegeben und so skaliert, dass der Mittelwert aller Items etwa 100 betrug.

Die Ergebnisse wurden in der Datendatei Factor.sta abgelegt. Sie können diese Datei mit der Option „Datei – Öffnen“ öffnen; Höchstwahrscheinlich befindet sich diese Datendatei im Verzeichnis /Examples/Datasets. Nachfolgend finden Sie eine Auflistung der Variablen in dieser Datei (um eine Liste zu erhalten, wählen Sie im Menü „Daten“ die Option „Alle Variablenspezifikationen“ aus).

Zweck der Analyse . Ziel der Analyse ist es, die Zusammenhänge zwischen der Zufriedenheit in verschiedenen Tätigkeitsbereichen zu untersuchen. Insbesondere ist es wünschenswert, die Frage zu untersuchen, wie viele Faktoren sich hinter verschiedenen Tätigkeitsbereichen „verstecken“ und welche Bedeutung sie haben.

Analyseauswahl. Wählen Sie im Menü „Analyse – Multivariate explorative Analyse“ die Option „Faktoranalyse“ aus, um das Launchpad des Moduls „Faktoranalyse“ anzuzeigen. Klicken Sie im Launchpad auf die Schaltfläche „Variablen“ (siehe unten) und wählen Sie alle 10 Variablen in dieser Datei aus.



Andere Optionen . Dieses Dialogfeld enthält alles, was Sie zur Durchführung einer Standardfaktoranalyse benötigen. Zum Erhalten Kurzübersicht Für andere über das Launchpad verfügbare Befehle können Sie eine Korrelationsmatrix als Eingabedatei auswählen (über das Feld „Datendatei“). Im Feld „PD-Entfernung“ können Sie für fehlende Daten zeilenweise, paarweise Eliminierung oder Mittelwertimputation auswählen.

Legen Sie die Faktorextraktionsmethode fest. Drücken Sie nun die OK-Taste, um zum nächsten Schritt zu gelangen Dialogbox mit dem Namen Geben Sie die Faktorextraktionsmethode an. Mithilfe dieses Dialogfelds können Sie beschreibende Statistiken anzeigen und mehrere durchführen Regressionsanalyse, wählen Sie eine Faktorextraktionsmethode, wählen Sie die maximale Anzahl von Faktoren, minimale Eigenwerte sowie andere Aktionen im Zusammenhang mit den Besonderheiten der Faktorextraktionsmethoden aus. Gehen wir nun zur Registerkarte „Beschreibend“.



Beschreibende Statistiken anzeigen. Klicken Sie nun auf die Schaltfläche Korr./Durchschnitt/Standardabweichung anzeigen. in diesem Fenster, um das Fenster „Beschreibende Statistiken anzeigen“ zu öffnen.



Sie können deskriptive Statistiken jetzt grafisch oder mithilfe von Ergebnistabellen anzeigen.

Berechnung der Korrelationsmatrix. Klicken Sie auf der Registerkarte „Erweitert“ auf die Schaltfläche „Korrelationen“, um eine Ergebnistabelle mit Korrelationen anzuzeigen.



Alle Korrelationen in dieser Ergebnistabelle sind positiv und einige Korrelationen sind von signifikanter Größenordnung. Beispielsweise sind die Variablen Hobby_1 und Miscel_1 auf dem 0,90-Niveau korreliert. Einige Korrelationen (z. B. Korrelationen zwischen Zufriedenheit am Arbeitsplatz und Zufriedenheit zu Hause) scheinen relativ gering zu sein. Es sieht so aus, als hätte die Matrix eine bestimmte Struktur.

Auswahlmethode. Klicken Sie nun im Dialogfeld „Beschreibende Statistik anzeigen“ auf „Abbrechen“, um zum Dialogfeld „Faktorenextraktionsmethode angeben“ zurückzukehren. Auf der Registerkarte „Erweitert“ können Sie aus mehreren Extraktionsmethoden wählen (eine Beschreibung der einzelnen Methoden finden Sie auf der Registerkarte „Erweitert“ des Dialogfelds „Faktorenextraktionsmethode angeben“ sowie in der Einführungsübersicht für eine Beschreibung der Hauptkomponentenmethode und der Hauptfaktorenmethode). ). In diesem Beispiel ist die Standardmethode „Hauptkomponenten, Feld Max“. Anzahl der Faktoren enthält den Wert 10 (in diesem Beispiel die maximale Anzahl von Faktoren) und das Feld „Min“. eigen Der Wert enthält 0 (der Mindestwert für diesen Befehl).



Um die Analyse fortzusetzen, klicken Sie auf OK.

Ergebnisse anzeigen. Sie können die Ergebnisse der Faktoranalyse im Dialogfeld „Faktoranalyseergebnisse“ anzeigen. Wählen Sie zunächst die Registerkarte „Varianz erklärt“ aus.



Eigenwerte anzeigen . Der Zweck von Eigenwerten und ihre Nützlichkeit für den Benutzer bei der Entscheidung, wie viele Faktoren beibehalten (interpretiert) werden sollen, wurden in der einführenden Übersicht beschrieben. Klicken Sie nun auf die Schaltfläche Eigenwerte, um eine Tabelle mit Eigenwerten, Prozentsatz der Gesamtvarianz, akkumulierten Eigenwerten und akkumulierten Prozentsätzen zu erhalten.


Wie aus der Tabelle ersichtlich ist, beträgt der Eigenwert für den ersten Faktor 6,118369; diese. Der Anteil der durch den ersten Faktor erklärten Varianz beträgt etwa 61,2 %. Beachten Sie, dass diese Werte hier zufällig leicht vergleichbar sind, da 10 Variablen analysiert werden und daher die Summe aller Eigenwerte gleich 10 ist. Der zweite Faktor umfasst etwa 18 % der Varianz. Andere Faktoren enthalten nicht mehr als 5 %Gesamtvarianz.Auswahl der Anzahl der Faktoren. Im Abschnitt „Einführender Überblick“ wird kurz beschrieben, wie die resultierenden Eigenwerte verwendet werden können, um zu entscheiden, wie viele Faktoren im Modell beibehalten werden sollen. Nach dem Kaiser-Kriterium (Kaiser, 1960) sollten Sie Faktoren mit Eigenwerten größer als 1 beibehalten. Aus der obigen Tabelle geht hervor, dass das Kriterium zur Auswahl von zwei Faktoren führt.

Geröllkriterium . Klicken Sie nun auf die Schaltfläche „Scree Plot“, um ein Diagramm der Eigenwerte für die Anwendung des Cattell-Scree-Kriteriums (Cattell, 1966) zu erhalten. Die folgende Grafik wurde durch Liniensegmente ergänzt, die benachbarte Eigenwerte verbinden, um das Kriterium anschaulicher zu machen. Cattell argumentiert, basierend auf der Monte-Carlo-Methode, dass der Punkt, an dem sich der kontinuierliche Rückgang der Eigenwerte verlangsamt und ab dem das Niveau der verbleibenden Eigenwerte nur noch zufälliges „Rauschen“ widerspiegelt. In der folgenden Grafik kann dieser Punkt einem Faktor von 2 oder 3 entsprechen (wie durch die Pfeile angezeigt). Probieren Sie daher beide Lösungen aus und finden Sie heraus, welche ein passenderes Bild liefert.



Schauen wir uns nun die Faktorladungen an.

Faktorladungen . Wie im Abschnitt „Einführender Überblick“ beschrieben, können Faktorladungen als Korrelationen zwischen Faktoren und Variablen interpretiert werden. Deshalb repräsentieren sie die meisten wichtige Informationen, auf dem die Interpretation von Faktoren basiert. Schauen wir uns zunächst die (ungerotierten) Faktorladungen für alle zehn Faktoren an. Legen Sie auf der Registerkarte „Ladungen“ des Dialogfelds „Ergebnisse der Faktoranalyse“ im Feld „Faktorrotation“ den Wert ohne Rotation fest und klicken Sie auf die Schaltfläche „Faktorladungen“, um die Lasttabelle anzuzeigen.



Denken Sie daran, dass die Auswahl der Faktoren so erfolgte, dass nachfolgende Faktoren immer weniger Varianz aufwiesen (siehe Abschnitt „Einführender Rückblick“). Daher ist es nicht verwunderlich, dass der erste Faktor die höchste Belastung aufweist. Beachten Sie, dass die Vorzeichen von Faktorladungen nur dann von Bedeutung sind, wenn sie darauf hinweisen, dass Variablen mit entgegengesetzten Ladungen auf demselben Faktor auf entgegengesetzte Weise mit diesem Faktor interagieren. Sie können jedoch alle Ladungen in der Spalte mit -1 multiplizieren und die Vorzeichen umkehren. Im Übrigen bleiben die Ergebnisse unverändert.

Rotation der Faktorlösung. Wie im Abschnitt „Einführender Überblick“ beschrieben, ist die tatsächliche Ausrichtung von Faktoren im Faktorraum willkürlich und jede Faktorrotation reproduziert Korrelationen sowie andere Rotationen. Daher erscheint es naheliegend, die Faktoren so zu rotieren, dass die am einfachsten zu interpretierende Faktorstruktur ausgewählt wird. Tatsächlich der Begriff einfache Struktur wurde von Thurstone (1947) geprägt und definiert, um in erster Linie Bedingungen zu beschreiben, bei denen Faktoren bei einigen Variablen hohe Ladungen und bei anderen niedrige Ladungen aufweisen und wenn es mehrere große Kreuzladungen gibt, d. h. Es gibt mehrere Variablen mit erheblichen Ladungen für mehr als einen Faktor. Die gebräuchlichste rechnerische Rotationsmethode zum Erhalten einer einfachen Struktur ist die von Kaiser (1958) vorgeschlagene Varimax-Rotationsmethode. Weitere von Harman (1967) vorgeschlagene Methoden sind die Quartimax-, Biquartimax- und Equimax-Methode (siehe Harman, 1967).

Rotationsauswahl . Überlegen Sie zunächst, wie viele Faktoren Sie der Rotation und Interpretation überlassen möchten. Zuvor wurde entschieden, dass die plausibelste und akzeptableste Anzahl von Faktoren zwei sei. Basierend auf dem Geröllkriterium wurde jedoch beschlossen, auch eine Lösung mit drei Faktoren in Betracht zu ziehen. Klicken Sie auf die Schaltfläche „Abbrechen“, um zum Dialogfeld „Faktorextraktionsmethode festlegen“ zurückzukehren, und ändern Sie das Feld „Maximale Anzahl von Faktoren“ auf der Registerkarte „Schnell“ von 10 auf 3. Klicken Sie dann auf die Schaltfläche „OK“, um mit der Analyse fortzufahren.

Führen wir nun die Drehung mit der Varimax-Methode durch. Legen Sie auf der Registerkarte „Ladungen“ des Dialogfelds „Ergebnisse der Faktoranalyse“ im Feld „Faktorrotation“ den Varimax des ursprünglichen Werts fest.



Klicken Sie auf die Schaltfläche Faktorladungen, um die Ergebnisse der resultierenden Faktorladungen in der Tabelle anzuzeigen.


Darstellung der Lösung durch Rotation der drei Faktoren. Die Tabelle zeigt signifikante Belastungen des ersten Faktors für alle Variablen mit Ausnahme derjenigen, die sich auf das Zuhause beziehen. Faktor 2 weist für alle Variablen mit Ausnahme derjenigen, die sich auf die Arbeitszufriedenheit beziehen, ziemlich signifikante Ladungen auf. Faktor 3 hat nur eine signifikante Belastung der Home_1-Variablen. Die Tatsache, dass nur eine Variable den dritten Faktor stark belastet, lässt die Frage aufkommen, ob das Ergebnis ohne den dritten Faktor genauso gut sein könnte?

Überprüfung der Lösung beim Rotieren zweier Faktoren . Klicken Sie im Dialogfeld „Ergebnisse der Faktoranalyse“ erneut auf die Schaltfläche „Abbrechen“, um zum Dialogfeld „Faktorenextraktionsmethode angeben“ zurückzukehren. Ändern Sie das Feld „Maximale Anzahl von Faktoren“ auf der Registerkarte „Schnell“ von 3 auf 2 und klicken Sie auf „OK“, um zum Dialogfeld „Ergebnisse der Faktoranalyse“ zu gelangen. Stellen Sie auf der Registerkarte „Ladungen“ im Feld „Faktorrotation“ den Wert „Varimax“ der Originalwerte ein und klicken Sie auf die Schaltfläche „Faktorladungen“.


Faktor 1 weist, wie aus der Tabelle ersichtlich ist, die höchsten Ladungen für Variablen im Zusammenhang mit der Arbeitszufriedenheit auf. Es weist die geringsten Ladungen für Variablen auf, die sich auf die Zufriedenheit mit dem Zuhause beziehen. Andere Lasten nehmen Zwischenwerte an. Faktor 2 weist die höchsten Ladungen für Variablen im Zusammenhang mit der Zufriedenheit zu Hause, die niedrigsten Ladungen für die Zufriedenheit am Arbeitsplatz und durchschnittliche Ladungen für die übrigen Variablen auf.

Interpretation der Lösung für die Zwei-Faktor-Rotation . Ist eine Interpretation möglich? dieses Model? Es scheint, dass die beiden Faktoren am besten als Faktor Arbeitszufriedenheit (Faktor 1) und Zufriedenheit mit dem Privatleben (Faktor 2) identifiziert werden können. Die Zufriedenheit mit den eigenen Hobbys und verschiedenen anderen Aspekten des Lebens scheint mit beiden Faktoren zusammenzuhängen. Dieses Modell deutet in gewisser Weise darauf hin, dass die Zufriedenheit mit der Arbeit und dem Privatleben in dieser Stichprobe möglicherweise unabhängig voneinander ist, aber beide zur Zufriedenheit mit Hobbys und anderen Aspekten des Lebens beitragen.

Diagramm einer Lösung basierend auf der Rotation zweier Faktoren . Um ein Streudiagramm zweier Faktoren zu erhalten, klicken Sie im Dialogfeld „Ergebnisse der Faktoranalyse“ auf der Registerkarte „Ladungen“ auf die Schaltfläche „2M-Belastungsdiagramm“. Das unten gezeigte Diagramm zeigt einfach zwei Ladungen für jede Variable. Beachten Sie, dass das Streudiagramm zwei unabhängige Faktoren und vier Variablen (Hobby_1, Hobby_2, Miscel_1, Miscel_2) mit Kreuzladungen gut veranschaulicht.



Sehen wir uns nun an, wie gut die beobachtete Kovarianzmatrix durch eine Zwei-Faktor-Lösung reproduziert werden kann.

Replizierte und verbleibende Korrelationsmatrix. Klicken Sie auf der Registerkarte „Erklärte Varianz“ auf die Schaltfläche „Reproduzierte und Restkorrelationen“, um zwei Tabellen mit der reproduzierten Korrelationsmatrix und der Matrix der Restkorrelationen (beobachtete minus reproduzierte Korrelationen) zu erhalten.



Die Einträge in der Tabelle „Restkorrelationen“ können als „Summe“ von Korrelationen interpretiert werden, die nicht durch die beiden resultierenden Faktoren erklärt werden können. Natürlich enthalten die diagonalen Elemente der Matrix die Standardabweichung, für die diese Faktoren nicht berücksichtigt werden können, die gleich der Quadratwurzel aus eins minus den jeweiligen Kommunalitäten für die beiden Faktoren ist (denken Sie daran, dass die Kommunalität einer Variablen die Varianz ist). das lässt sich durch die gewählte Anzahl an Faktoren erklären). Wenn Sie sich diese Matrix genau ansehen, können Sie erkennen, dass es praktisch keine Restkorrelationen größer als 0,1 oder kleiner als -0,1 gibt (tatsächlich liegen nur wenige davon nahe an diesem Wert). Hinzu kommt, dass die ersten beiden Faktoren etwa 79 % der Gesamtvarianz ausmachen (siehe den akkumulierten Prozentsatz der Eigenwerte in der Ergebnistabelle).

Das „Geheimnis“ eines erfolgreichen Beispiels . Das gerade untersuchte Beispiel führt tatsächlich zu einer Lösung des Zwei-Faktoren-Problems, die nahezu ideal ist. Es berücksichtigt den größten Teil der Varianz, hat eine vernünftige Interpretation und reproduziert eine Korrelationsmatrix mit moderaten Abweichungen (Restkorrelationen). In der Realität ergeben reale Daten selten eine so einfache Lösung, und in Wirklichkeit wurde dieser fiktive Datensatz mithilfe eines Zufallszahlengenerators generiert Normalverteilung im System verfügbar. In besonderer Weise wurden zwei orthogonale (unabhängige) Faktoren in die Daten „eingeführt“, nach denen Korrelationen zwischen den Variablen erzeugt wurden. Dieses Beispiel einer Faktorenanalyse reproduziert die beiden Faktoren so, wie sie waren (dh den Faktor Arbeitszufriedenheit und den Faktor Zufriedenheit mit dem Privatleben). Wenn also ein Phänomen (und keine künstlichen Daten wie im Beispiel) diese beiden Faktoren enthielte, könnte man durch ihre Isolierung etwas über die verborgene oder latente Struktur des Phänomens erfahren.

Andere Ergebnisse . Bevor wir eine abschließende Schlussfolgerung ziehen, geben wir kurze Kommentare zu anderen Ergebnissen.

Gemeinsamkeiten . Um die Allgemeingültigkeiten der Lösung zu erhalten, klicken Sie auf der Registerkarte „Erklärte Varianz“ des Dialogfelds „Ergebnisse der Faktoranalyse“ auf die Schaltfläche „Allgemeinheiten“. Denken Sie daran, dass die Kommunalität einer Variablen der Anteil der Varianz ist, der bei einer gegebenen Anzahl von Faktoren reproduziert werden kann. Die Drehung des Faktorraums hat keinen Einfluss auf die Größe der Gemeinsamkeit. Sehr geringe Kommunalitäten für eine oder zwei Variablen (von vielen in der Analyse) können darauf hindeuten, dass diese Variablen durch das Modell nicht sehr gut erklärt werden.

Wertkoeffizienten. Faktorkoeffizienten können verwendet werden, um Faktorwerte für jede Beobachtung zu berechnen. Die Koeffizienten selbst sind normalerweise von geringem Interesse, die Faktorwerte sind jedoch für die weitere Analyse nützlich. Um die Koeffizienten anzuzeigen, klicken Sie auf der Registerkarte „Werte“ des Dialogfelds „Faktoranalyseergebnisse“ auf die Schaltfläche „Faktorwertkoeffizienten“.

Faktorwerte. Faktorwerte können als aktuelle Werte für jeden befragten Befragten (d. h. für jede Beobachtung in der Originaldatentabelle) betrachtet werden. Mit der Schaltfläche „Faktorwerte“ auf der Registerkarte „Werte“ des Dialogfelds „Faktoranalyseergebnisse“ können Sie Faktorwerte berechnen. Diese Werte können für später gespeichert werden, indem Sie auf die Schaltfläche Werte speichern klicken.

Abschließender Kommentar. Die Faktorenanalyse ist kein einfaches Verfahren. Jeder, der ständig nutzt Faktorenanalyse mit vielen (z. B. 50 oder mehr) Variablen, könnte viele Beispiele für „pathologisches Verhalten“ sehen, wie zum Beispiel: negative Eigenwerte und nicht interpretierbare Lösungen, spezielle Matrizen usw. Wenn Sie daran interessiert sind, mithilfe der Faktorenanalyse die signifikanten Faktoren einer großen Anzahl von Variablen zu bestimmen oder zu bestimmen, sollten Sie einige sorgfältig studieren ausführliche Anleitung(zB Harmans Buch (Harman, 1968)). Da viele kritische Entscheidungen in der Faktorenanalyse subjektiver Natur sind (Anzahl der Faktoren, Rotationsmethode, Interpretation der Ladungen), müssen Sie damit rechnen, dass etwas Erfahrung erforderlich ist, bevor Sie sich damit sicher fühlen. Das Modul „Faktorenanalyse“ wurde speziell entwickelt, um dem Benutzer den interaktiven Wechsel zwischen verschiedenen Faktorenzahlen, Rotationen usw. zu erleichtern, sodass verschiedene Lösungen getestet und verglichen werden können.

Dieses Beispiel stammt aus Hilfesystem PPP STATISTIK von StatSoft

Grundgleichungen

Bisher wurde in fast allen Lehrbüchern und Monographien zur Faktorenanalyse erklärt, wie man grundlegende Berechnungen „manuell“ oder mit einem einfachen Rechengerät (Rechenmaschine oder Taschenrechner) durchführt. Aufgrund der Komplexität und des großen Umfangs an Berechnungen, die erforderlich sind, um eine Beziehungsmatrix zu erstellen, Faktoren zu isolieren und zu rotieren, gibt es heute wahrscheinlich keine einzige Person mehr, die sie nicht verwenden würde leistungsstarke Computer und verwandte Programme.

Daher konzentrieren wir uns darauf, welche Matrizen (Datensätze) aus der Faktorenanalyse am wichtigsten sind, wie sie zueinander in Beziehung stehen und wie sie zur Interpretation der Daten verwendet werden können. Alle notwendigen Berechnungen können mit jedem durchgeführt werden Computer Programm(z. B. SPSS oder STADIA).

IN Tisch 1 Es wird eine Liste der wichtigsten Matrizen für Hauptkomponentenmethoden und Faktorenanalyse bereitgestellt. Diese Liste enthält hauptsächlich Beziehungsmatrizen (zwischen Variablen, zwischen Faktoren, zwischen Variablen und Faktoren), standardisierte Werte (für Variablen und für Faktoren), Regressionsgewichte (zur Berechnung von Faktorwerten anhand von Werten für Variablen) sowie sowie Matrizen von Faktorabbildungen von Beziehungen zwischen Faktoren und Variablen nach schräger Rotation. IN Tisch 1 Es werden auch Matrizen von Eigenwerten und ihre entsprechenden Eigenvektoren angegeben. Eigenwerte (Eigenwerte) und Eigenvektoren werden aufgrund ihrer Bedeutung für die Identifizierung von Faktoren, der Verwendung einer Vielzahl spezieller Begriffe in diesem Zusammenhang und des engen Zusammenhangs zwischen Eigenwerten und Varianz in der statistischen Forschung beschrieben.

Tabelle 1

Matrizen, die am häufigsten in der Faktoranalyse verwendet werden

Bezeichnung Name Größe Beschreibung
R Beziehungsmatrix p x p Beziehungen zwischen Variablen
D Nicht standardisierte Datenmatrix N x p Primärdaten – nicht standardisierte Beobachtungswerte für Primärvariablen
Z Standardisierte Datenmatrix N x p Standardisierte Beobachtungswerte für Primärvariablen
F Matrix von Faktorwerten Nx F Standardisierte Beobachtungswerte nach Faktoren
A Faktorbelastungsmatrix. Faktorzuordnungsmatrix p x F Regressionskoeffizienten für gemeinsame Faktoren unter der Annahme, dass die beobachteten Variablen eine lineare Kombination von Faktoren sind. Bei orthogonaler Rotation - Beziehungen zwischen Variablen und Faktoren
IN Faktor-Wert-Koeffizientenmatrix p x F Regressionskoeffizienten zur Berechnung von Faktorwerten anhand von Variablenwerten
S Strukturelle Matrix p x F Beziehungen zwischen Variablen und Faktoren
F Faktorkorrelationsmatrix F X F Korrelationen zwischen Faktoren
L Eigenwertmatrix (diagonal) F X F Eigenwerte (charakteristische, latente Wurzeln); Jeder Faktor entspricht einem Eigenwert
V Eigenvektormatrix F X F Eigene (charakteristische) Vektoren; Jeder Eigenwert entspricht einem Eigenvektor

Notiz. Bei der Angabe der Größe wird die Anzahl der Zeilen x Anzahl der Spalten angegeben: R- Anzahl der Variablen, N- Anzahl der Beobachtungen, F- Anzahl der Faktoren oder Komponenten. Wenn die Beziehungsmatrix R ist nicht entartet und hat den gleichen Rang R, dann fällt es tatsächlich auf R Eigenwerte und Eigenvektoren, nicht F. Sie sind jedoch nur von Interesse F Aus ihnen. Daher der Rest p-f werden nicht angezeigt.

Zu Matrizen S Und F Es wird nur eine schräge Drehung angewendet, im Übrigen orthogonale und schräge Drehung.

Der für die Faktorenanalyse aufbereitete Datensatz besteht aus den Ergebnissen von Messungen (Befragung) einer großen Anzahl von Probanden (Befragten) auf bestimmten Skalen (Variablen). IN Tisch 2 Es wird ein Datenarray präsentiert, von dem bedingt angenommen werden kann, dass es die Anforderungen der Faktorenanalyse erfüllt.

Fünf Befragte, die ein Reisebüro kontaktierten, um ein Ticket für einen Badeort zu kaufen, wurden nach der Bedeutung von vier Bedingungen (Variablen) für die Wahl eines Sommerurlaubsziels gefragt. Diese variablen Bedingungen waren: die Reisekosten, der Komfort des Komplexes, die Lufttemperatur und die Wassertemperatur. Je bedeutsamer aus Sicht des Befragten dieser oder jener Zustand für ihn war, desto mehr Bedeutung maß er ihm bei. Die Forschungsaufgabe bestand darin, das Beziehungsmuster zwischen Variablen zu untersuchen und die zugrunde liegenden Gründe zu identifizieren, die die Wahl des Resorts bestimmen. (Das Beispiel ist natürlich zu Illustrations- und Bildungszwecken stark vereinfacht und sollte inhaltlich nicht ernst genommen werden.)

Beziehungsmatrix ( Tisch 2) wurde als Korrelation berechnet. Achten Sie auf die darin enthaltene Beziehungsstruktur, hervorgehoben durch vertikale und horizontale Linien. Hohe Korrelationen im oberen linken und unteren rechten Quadranten zeigen, dass die Bewertungen der Tourkosten und des Komforts des Komplexes miteinander zusammenhängen, ebenso wie die Bewertungen der Luft- und Wassertemperatur. Die anderen beiden Quadranten zeigen, dass die Lufttemperatur und der Komfort des Komplexes sowie der Komfort des Komplexes und die Wassertemperatur zusammenhängen.

Versuchen wir nun, mithilfe der Faktorenanalyse diese Korrelationsstruktur zu erkennen, die in einer kleinen Korrelationsmatrix mit bloßem Auge gut sichtbar ist (in einer großen Matrix ist dies sehr schwierig).

Tabelle 2

Daten für die Faktoranalyse (Tutorial-Beispiel)

Touristen Variablen
Kosten der Reise Komfortniveau Lufttemperatur Wassertemperatur
T1
T2
T3
T4
T5

Korrelationsmatrix

Kosten der Reise Komfortniveau Lufttemperatur Wassertemperatur
Kosten der Reise 1,000 -0,953 -0,055 -0,130
Komfortniveau -0,953 1,000 -,091 -0,036
Lufttemperatur -0,055 -0,091 1,000 0,990
Wassertemperatur -0,130 -0,036 0,990 1,000

Faktorisierung

Ein wichtiger Satz der Matrixalgebra besagt, dass Matrizen, die bestimmte Bedingungen erfüllen, diagonalisiert werden können, d. h. in eine Matrix mit Zahlen auf der Hauptdiagonalen und Nullen an allen anderen Positionen umgewandelt. Beziehungsmatrizen gehören speziell zum Typ der diagonalisierbaren Matrizen. Die Transformation erfolgt nach der Formel:

diese. Die Diagonalisierung der Matrix R erfolgt, indem man sie zunächst (links) mit der transponierten Matrix V, bezeichnet als V‘, und dann (rechts) mit der Matrix V selbst multipliziert.

Die Spalten in der Matrix V werden Eigenvektoren genannt, und die Werte auf der Hauptdiagonalen der Matrix L werden Eigenwerte genannt. Der erste Eigenvektor entspricht dem ersten Eigenwert und so weiter. (Weitere Einzelheiten finden Sie in Anhang 1).

Da das obige Beispiel vier Variablen berücksichtigt, erhalten wir vier Eigenwerte mit ihren entsprechenden Eigenvektoren. Da das Ziel der Faktorenanalyse aber darin besteht, die Beziehungsmatrix durch möglichst wenige Faktoren zu verallgemeinern und jeder Eigenwert unterschiedlichen potentiellen Faktoren entspricht, werden in der Regel nur Faktoren mit großen Eigenwerten berücksichtigt. Bei einer „guten“ Faktorlösung dupliziert die Matrix der berechneten Beziehungen, die unter Verwendung dieses begrenzten Satzes von Faktoren erhalten wird, praktisch die Beziehungsmatrix.

Wenn in unserem Beispiel keine Einschränkungen hinsichtlich der Anzahl der Faktoren bestehen, werden die Eigenwerte 2,02, 1,94, .04 und .00 für jeden der vier möglichen Faktoren berechnet. Nur für die ersten beiden Faktoren sind die Eigenwerte groß genug, um Gegenstand weiterer Betrachtungen zu sein. Daher werden nur die ersten beiden Faktoren neu ausgewählt. Sie haben Eigenwerte von 2,00 bzw. 1,91, wie in der Tabelle angegeben. 3. Unter Verwendung von Gleichung (6) und Einfügen der Werte aus dem angegebenen Beispiel erhalten wir:

(Alle computerberechneten Werte sind gleich; manuelle Berechnungen können aufgrund von Rundungsungenauigkeiten abweichen.)

Die Multiplikation der Matrix der Eigenvektoren auf der linken Seite mit ihrer Transponierten ergibt die Identitätsmatrix E (mit Einsen auf der Hauptdiagonalen und den übrigen Nullen). Daher können wir sagen, dass die Transformation der Beziehungsmatrix gemäß Formel (6) diese selbst nicht verändert, sondern sie nur in eine für die Analyse bequemere Form umwandelt:

Zum Beispiel:

Tisch 3

Eigenvektoren und entsprechende Eigenwerte für das betrachtete Tutorial-Beispiel

Eigenvektor 1 Eigenvektor 2
-.283 .651
.177 -.685
.658 .252
.675 .207
Eigenwert 1 Eigenwert 2
2.00 1.91

Da die Korrelationsmatrix diagonalisierbar ist, kann die Matrixalgebra von Eigenvektoren und Eigenwerten darauf angewendet werden, um die Ergebnisse der Faktoranalyse zu erhalten (siehe Anhang 1). Ist eine Matrix diagonalisierbar, dann sind in ihrer Diagonalform alle wesentlichen Informationen über die Faktorstruktur enthalten. Bei der Faktorenanalyse entsprechen Eigenwerte der durch die Faktoren erklärten Varianz. Der Faktor mit dem größten Eigenwert erklärt die größte Varianz usw., bis man zu Faktoren mit kleinen oder negativen Eigenwerten kommt, die normalerweise nicht in die Analyse einbezogen werden. Berechnungen von Eigenwerten und Eigenvektoren sind sehr arbeitsintensiv, und die Fähigkeit, sie zu berechnen, ist für einen Psychologen, der die Faktoranalyse für seine praktischen Zwecke beherrscht, keine unbedingte Notwendigkeit. Die Vertrautheit mit diesem Verfahren wird jedoch nicht schaden, daher geben wir in Anhang 1 als Beispiel die Berechnung von Eigenwerten und Eigenvektoren auf einer kleinen Matrix.

Eigenwerte finden quadratische Matrix p x p ist es notwendig, die Wurzeln eines Polynoms vom Grad p zu finden, und um die Eigenvektoren zu finden, ist es notwendig, p Gleichungen mit p Unbekannten mit zusätzlichen Seitenbeschränkungen zu lösen, was für p>3 selten manuell durchgeführt wird. Sobald die Eigenvektoren und Eigenwerte gefunden sind, wird der Rest der Faktorenanalyse (oder Hauptkomponentenanalyse) mehr oder weniger klar (siehe Gleichungen 8–11).

Gleichung (6) kann wie folgt dargestellt werden: R=V’LV, (8)

diese. Die Beziehungsmatrix kann als Produkt dreier Matrizen betrachtet werden – der Matrix der Eigenwerte, der Matrix der entsprechenden Eigenvektoren und der darauf transponierten Matrix.

Nach der Transformation lässt sich die Eigenwertmatrix L wie folgt darstellen:

und daher: R=VÖLÖL V’ (10)

oder (was dasselbe ist): R=(VÖL)(ÖL V’)

Bezeichnen wir: A=(VÖL) und À’=(ÖL V’), dann R=AA’ (11)

diese. Die Beziehungsmatrix kann auch als Produkt zweier Matrizen dargestellt werden, von denen jede eine Kombination aus Eigenvektoren und Quadratwurzeln von Eigenwerten ist.

Gleichung (11) wird oft als Grundgleichung der Faktorenanalyse bezeichnet. Es drückt die Aussage aus, dass die Beziehungsmatrix das Produkt der Matrix der Faktorladungen (A) und ihrer Transponierten ist.

Die Gleichungen (10) und (11) zeigen auch, dass ein wesentlicher Teil der Berechnungen in der Faktorenanalyse und den Hauptkomponentenmethoden aus der Bestimmung von Eigenwerten und Eigenvektoren besteht. Sobald diese bekannt sind, wird die Vorrotationsfaktormatrix durch direkte Matrixmultiplikation erhalten:

In unserem Beispiel:

Die Faktorbelastungsmatrix ist eine Matrix von Beziehungen (interpretiert als Korrelationskoeffizienten) zwischen Faktoren und Variablen. Die erste Spalte ist die Korrelation zwischen dem ersten Faktor und jeder Variablen der Reihe nach: die Kosten der Reise (-.400), der Komfort des Komplexes (.251), die Lufttemperatur (.932), die Wassertemperatur (. 956). Die zweite Spalte zeigt die Korrelation zwischen dem zweiten Faktor und jeder Variablen: Reisekosten (.900), Komfort des Komplexes (-.947), Lufttemperatur (.348), Wassertemperatur (.286). Ein Faktor wird auf der Grundlage von Variablen interpretiert, die in hohem Maße mit ihm verbunden sind (d. h. hohe Ladungen aufweisen). Somit ist der erste Faktor hauptsächlich „klimatischer“ Natur (Luft- und Wassertemperatur), während der zweite „wirtschaftlicher“ Natur ist (Reisekosten und Komfort des Komplexes).

Bei der Interpretation dieser Faktoren ist zu beachten, dass Variablen mit hohen Belastungen des ersten Faktors (Lufttemperatur und Wassertemperatur) positiv miteinander verknüpft sind, während Variablen mit hohen Belastungen des zweiten Faktors (Ticketkosten und Komfort des Komplexes) positiv miteinander verknüpft sind. stehen in einem negativen Zusammenhang (von einem günstigen Resort kann man nicht viel Komfort erwarten). Der erste Faktor wird als unipolar bezeichnet (alle Variablen sind an einem Pol gruppiert), der zweite als bipolar (die Variablen werden in zwei Gruppen mit entgegengesetzter Bedeutung unterteilt – zwei Pole). Variablen mit Faktorladungen mit „Plus“-Vorzeichen bilden einen positiven Pol, Variablen mit einem „Minus“-Vorzeichen einen negativen Pol. Gleichzeitig haben die Bezeichnungen der Pole „positiv“ und „negativ“ bei der Interpretation des Faktors nicht die bewertende Bedeutung von „schlecht“ und „gut“. Die Wahl des Vorzeichens erfolgt bei Berechnungen zufällig. Das Ersetzen aller Vorzeichen durch entgegengesetzte (alle Pluszeichen durch Minuszeichen und alle Minuszeichen durch Pluszeichen) ändert nichts an der Lösung. Die Analyse von Zeichen ist nur erforderlich, um Gruppen zu identifizieren (was im Gegensatz zu was steht). Mit dem gleichen Erfolg kann ein Pol als rechts, der andere als links bezeichnet werden. In unserem Beispiel lagen die variablen Kosten der Reise am positiven (rechten) Pol; ihnen stand der variable Komfort des Komplexes am negativen (linken) Pol gegenüber. Und dieser Faktor kann als „Wirtschaftlichkeit und Komfort“ interpretiert (genannt) werden. Rechts waren Befragte, für die das Problem des Sparens von Bedeutung ist – sie erhielten Faktorwerte mit einem „Plus“-Zeichen. Bei der Auswahl eines Resorts legen sie mehr Wert auf die Billigkeit und weniger auf den Komfort. Auf der linken Seite lagen Befragte, die im Urlaub nicht sparen (der Preis einer Reise stört sie nicht sonderlich) und sich vor allem in komfortablen Bedingungen entspannen möchten – sie erhielten Faktorwerte mit „Minus“-Zeichen.

Allerdings ist zu bedenken, dass alle Variablen signifikant mit beiden Faktoren korrelieren. Als Teil davon einfaches Beispiel Die Interpretation liegt auf der Hand, bei realen Daten ist sie jedoch nicht so einfach. Typischerweise ist ein Faktor einfacher zu interpretieren, wenn nur ein kleiner Teil der Variablen stark mit ihm korreliert und der Rest nicht.

Orthogonale Drehung

Die Rotation wird typischerweise nach der Faktorextraktion angewendet, um hohe Korrelationen zu maximieren und niedrige zu minimieren. Es gibt zahlreiche Rotationsmethoden, am häufigsten wird jedoch die Varimax-Rotation verwendet, bei der es sich um ein Verfahren zur Maximierung der Varianz handelt. Diese Rotation maximiert die Varianz der Faktorladungen, sodass hohe Ladungen an jedem Faktortag höher und niedrige Ladungen niedriger werden. Dieses Ziel wird erreicht mit Transformationsmatrizen L:

A vor der Wende L = A nach der Wende,

diese. Die Faktorbelastungsmatrix vor der Rotation wird mit der Transformationsmatrix multipliziert, um die Faktorbelastungsmatrix nach der Rotation zu erzeugen. In unserem Beispiel:

Vergleichen Sie die Matrizen vor und nach der Rotation. Beachten Sie, dass die Matrix nach der Rotation niedrige Faktorladungen aufweist, die niedriger und hohe Faktorladungen höher sind als die Matrix vor der Rotation. Der hervorgehobene Ladungsunterschied erleichtert die Interpretation des Faktors und ermöglicht die eindeutige Auswahl von Variablen, die in starkem Zusammenhang mit ihm stehen.

Die Elemente der Transformationsmatrix haben eine besondere geometrische Interpretation:

Die Transformationsmatrix ist eine Matrix aus Sinus und Cosinus des Winkels ψ, um den die Drehung durchgeführt wird. (Daher der Name der Transformation – Rotation, denn aus geometrischer Sicht drehen sich die Achsen um den Ursprung des Faktorraums.) In unserem Beispiel beträgt dieser Winkel etwa 19 Grad: cos19° = .946 und sin19° = .325. Geometrisch entspricht dies einer Drehung der Faktorachsen um 19 Grad um den Ursprung. (Weitere Informationen zu den geometrischen Aspekten der Rotation finden Sie weiter unten.)



 


Lesen:



Lenovo-Telefon lässt sich nicht einschalten

Lenovo-Telefon lässt sich nicht einschalten

Die meisten Besitzer moderner Geräte sind mehr als einmal auf Situationen gestoßen, in denen das Gerät eine Fehlfunktion hatte oder nicht auf Befehle reagierte....

So stellen Sie gelöschte Dateien unter MAC OS X wieder her. So stellen Sie Daten von einem Flash-Laufwerk auf dem Mac wieder her

So stellen Sie gelöschte Dateien unter MAC OS X wieder her. So stellen Sie Daten von einem Flash-Laufwerk auf dem Mac wieder her

Wenn Sie eine Datei auf Ihrem Computer löschen, können Sie sie jederzeit aus dem Papierkorb wiederherstellen. Und nur wenn Sie den Papierkorb manuell leeren, verschwindet er ...

Verwenden Sie Find My Phone, um Ihr verlorenes Samsung Galaxy-Gerät zu finden

Verwenden

Die Entwickler des Android-Betriebssystems sorgten dafür, dass ihre Nutzer ein gestohlenes oder verlorenes Samsung-Handy finden konnten. Solch...

Warum Sie das automatische Windows-Update verwenden sollten

Warum Sie das automatische Windows-Update verwenden sollten

Software-Updates und das Betriebssystem selbst sind bekanntermaßen der Schlüssel zu Sicherheit und stabilem Betrieb. Ja, wenn nicht...

Feed-Bild RSS