Multikollinearität

Was ist Multikollinearität?

Multikollinearität ist ein statistisches Phänomen, bei dem zwei oder mehr Variablen in einem Regressionsmodell so von den anderen Variablen abhängig sind, dass eine mit hoher Genauigkeit linear von der anderen vorhergesagt werden kann. Es wird im Allgemeinen in Beobachtungsstudien verwendet und ist in experimentellen Studien weniger beliebt.

Arten der Multikollinearität

Es gibt vier Arten von Multikollinearität

  • # 1 - Perfekte Multikollinearität - Sie existiert, wenn die unabhängigen Variablen in der Gleichung die perfekte lineare Beziehung vorhersagen.
  • # 2 - Hohe Multikollinearität - Bezieht sich auf die lineare Beziehung zwischen zwei oder mehr unabhängigen Variablen, die nicht perfekt miteinander korreliert sind.
  • # 3 - Strukturelle Multikollinearität - Dies wird vom Forscher selbst verursacht, indem verschiedene unabhängige Variablen in die Gleichung eingefügt werden.
  • # 4 - Datenbasierte Multikollineaarität - Sie wird durch Experimente verursacht, die vom Forscher schlecht entworfen wurden.

Ursachen der Multikollinearität

Unabhängige Variablen, Änderung der Parameter der Variablen bewirkt, dass eine geringfügige Änderung der Variablen einen erheblichen Einfluss auf das Ergebnis hat. Die Datenerfassung bezieht sich auf die Stichprobe der ausgewählten ausgewählten Population.

Beispiele für Multikollinearität

Beispiel 1

Nehmen wir an, dass ABC Ltd einen KPO von einem Pharmaunternehmen beauftragt hat, Forschungsdienstleistungen und statistische Analysen zu den Krankheiten in Indien bereitzustellen. Aus diesem Grund hat ABC Ltd. Alter, Gewicht, Beruf, Größe und Gesundheit als Anscheinsparameter ausgewählt.

  • Im obigen Beispiel gibt es eine Multikollinearitätssituation, da die für die Studie ausgewählten unabhängigen Variablen direkt mit den Ergebnissen korrelieren. Daher ist es für den Forscher ratsam, die Variablen zuerst anzupassen, bevor ein Projekt gestartet wird, da die Ergebnisse aufgrund der hier ausgewählten Variablen direkt beeinflusst werden.

Beispiel 2

Nehmen wir an, dass ABC Ltd von Tata Motors ernannt wurde, um zu verstehen, dass das Verkaufsvolumen von Tata-Motoren in welcher Kategorie auf dem Markt hoch sein wird.

  • Im obigen Beispiel werden zunächst unabhängige Variablen finalisiert, auf deren Grundlage die Forschung abgeschlossen werden muss. Es kann monatliches Einkommen, Alter sein. Marke, die Unterschicht. Es bedeutet nur, dass Daten ausgewählt werden, die in all diese Registerkarten passen, um herauszufinden, wie viele Personen dieses Auto (tata nano) kaufen können, ohne sich ein anderes Auto anzusehen.

Beispiel 3

Nehmen wir an, ABC Ltd wurde beauftragt, einen Bericht einzureichen, um zu erfahren, wie viele Personen unter 50 Jahren anfällig für Herzinfarkte sind. Hierfür sind die Parameter Alter, Geschlecht, Krankengeschichte

  • Im obigen Beispiel ist Multikollinearität aufgetreten, weil die unabhängige Variable „Alter“ auf ein Alter unter 50 angepasst werden muss, um öffentliche Anträge einzuladen, damit Personen, die älter als 50 Jahre sind, automatisch gefiltert werden.

Vorteile

Im Folgenden sind einige der Vorteile aufgeführt

  • Lineare Beziehung zwischen den unabhängigen Variablen in der Gleichung.
  • Sehr nützlich in statistischen Modellen und Forschungsberichten, die von forschenden Unternehmen erstellt wurden.
  • Direkter Einfluss auf das gewünschte Ergebnis.

Nachteile

Im Folgenden sind einige der Nachteile aufgeführt

  • In einigen Situationen wird dieses Problem behoben, indem mehr Daten zu den Variablen erfasst werden.
  • Falsche Verwendung von Dummy-Variablen, dh der Forscher vergisst möglicherweise, die Dummy-Variablen bei Bedarf zu verwenden.
  • Einfügen von 2 gleichen oder identischen Variablen in die Gleichung wie kg und lbs in Gewichten.
  • Einfügen einer Variablen in die Gleichung, die eine Kombination von 2 ist.
  • Die Durchführung von Berechnungen ist kompliziert, da es sich um die statistische Technik handelt und statistische Taschenrechner für die Ausführung erforderlich sind.

Fazit

Multikollinearität ist eines der beliebtesten statistischen Werkzeuge, die häufig in der Regressionsanalyse und statistischen Analyse für große Datenbanken und die gewünschte Ausgabe verwendet werden. Alle großen Unternehmen verfügen über eine separate statistische Abteilung in ihrem Unternehmen, die statistische Regressionsanalysen zu Produkten oder Personen durchführt, um dem Management eine strategische Sicht auf den Markt zu bieten und ihnen bei der Ausarbeitung ihrer langfristigen Strategien zu helfen. Die grafische Darstellung der Analyse gibt dem Leser ein klares Bild der direkten Beziehung, Genauigkeit und Leistung.

  • Wenn das Ziel des Forschers darin besteht, die unabhängigen Variablen in der Gleichung zu verstehen, wird Multikollinearität ein großes Problem für ihn sein.
  • Der Forscher muss die erforderlichen Änderungen an den Variablen im Stadium 0 selbst vornehmen, da dies sonst einen massiven Einfluss auf die Ergebnisse haben kann.
  • Multikollinearität kann durch Untersuchen der Korrelationsmatrix erreicht werden.
  • Abhilfemaßnahmen spielen eine wichtige Rolle bei der Lösung der Probleme der Multikollinearität.