Ein Wecksignal für die Marktforschungsverbände

DGOF zur US-Wahl

Dr. Otto Hellwig, Vorstandsvorsitzender DGOF e.V., ruft in seinem Statement zum Ausgang der Präsidentschaftswahl in den USA zu einer kritischen Auseinandersetzung mit der Prognoseforschung auf.

Otto Hellwig (respondi)

Otto Hellwig, DGOF

Das Statement von Otto Hellwig in kompletter Länge: "Für den Vorstand der DGOF war der Ausgang der Präsidentschaftswahl und die bevorstehende Ernennung Donald Trumps zum nächsten Präsidenten der Vereinigten Staaten letztendlich genauso überraschend wie für andere Institutionen. Nahezu alle Wahlprognosen haben in den letzten Wochen und in den Tagen vor der Wahl Hillary Clinton als Siegerin postuliert. Nach aktuellem Stand unserer Sichtung waren die Vorhersagen auf Basis digitaler Erhebungsmethoden nicht genauer und treffender als die Vorhersagen aus klassischen Methoden. Scheinbar sind Befragungen, ob online oder auf einem anderen Kanal immer weniger geeignet die Realität in diesen Fragen abzubilden. Dies hat seine Ursache sicherlich auch in einem sich ändernden Wahlverhalten weg von Traditionen hin zu Emotionen und scheinbar spontanen Wählerwanderungen, aber auch in einem sich ändernden Antwortverhalten gegenüber Umfrageinstituten, welches in einem Misstrauen gegenüber öffentlichen und staatlichen Institutionen in Teilen der Gesellschaft seine Ursache findet.

Gerade vor diesem Hintergrund freue ich mich über unsere Entscheidung, im Wahljahr 2017 das Thema Wahlforschung auf der im März stattfindenden GOR zum Schwerpunktthema gemacht zu haben. Mit der stark in die öffentliche Kritik geratenen Prognoseforschung steht auch der Ruf der Markt- und Sozialforschung auf dem Spiel. Als Verbände müssen wir dies als Wecksignal verstehen, unsere Methoden auf den Prüfstand zu stellen und neue Wege auch abseits bisheriger Pfade zu suchen. Das Spektrum aktueller und zukünftiger digitaler Erhebungsformen kann uns dabei ein geeigneter Navigator sein. Ich freue mich jetzt schon auf die kommenden Diskussionen, auch auf der GOR in Berlin."

Veröffentlicht am: 09.11.2016

 

Kommentare (11)

  1. Tobias Kauer am 14.11.2016
    @Holger Geißler: Die These von der "Die Unentschlossenheit der Wähler wer das kleinere Übel ist" würde ja unterstellen, dass diese erst im letzten Moment, sprich: in der Wahlkabine, ihre Wahlentscheidung getroffen hätten. Nach allem, was ich aber in den vergangenen Tagen in der Nachberichterstattung gesehen und gelesen habe, hatten sich viele der Trump-Wähler ihr Urteil schon sehr frühzeitig gebildet und sich davon auch nicht durch dessen diverse xenophoben und sexistischen Ausfälle abbringen lassen.
    Das Problem scheint mir also ein eher grundsätzliches zu sein. Möglicherweise wäre zukünftig wieder mehr "Milieuforschung" nötig, um bestimmte Bevölkerungsgruppen, die wir mit unseren herkömmlichen Methoden nicht mehr erreichen, besser zu verstehen und deren Verhalten exakter vorhersagen zu können.

    Klar ist auf alle Fälle, dass irgendwas passieren muss, denn wenn sich schon die heute-Show über unsere Profession lustig macht, ist die Lage wirklich ernst (der entsprechende Beitrag beginnt bei min 7:40).
    https://www.zdf.de/comedy/heute-show/heute-show-clip-1-104.html"
  2. Thomas Perry am 14.11.2016
    @ Holger Geißler: Sie schreiben
    Zitat 1: "Beim Brexit war vor allem die Wahlbeteiligung in verschiedenen Altersgruppen das Problem bei der Vorhersage. Das ist leider ein ungelöstes Problem der Wahlforschung, wie man die Wahlbeteiligung richtig vorhersagen kann." Tja, ungelöste Probleme sind ja das Problem. Ein weiteres Problem ist aber, dass die Wahlforscher immer so tun, als gäbe es die Probleme nicht. Ich vermute, weil das ein Aspekt der Selbstvermarktung ist. Also nehmen die Leute sie jetzt beim Wort und die Fehlprognosen schlagen auf die Wahlforscher zurück. Nachkommastellen, ja sogar feste Werte statt Spannen, gaukeln Sicherheiten vor, die es nicht gibt und wecken falsche Erwartungen.
    Die Wahlforscher sollten vielleicht öfter mal sagen, was ihre Ergebnisse tatsächlich hergeben, nämlich (wenn sie gut sind) qualitative Insights und quantitativ Ungefähres. Dumm nur, dass das für die große Selbstinszenierung nicht taugt.

    Zitat 2: "Es gibt mittlerweile diverse Analysen und Studien (vor allem in UK), die zeigen, dass der Mode nicht der zentrale Faktor ist und die Stichprobenqualität vergleichbar. Auch bei der US-Wahlen - wie beim Brexit - lagen sowohl Telefon- wie auch Online-Pollster - gleichermassen daneben." Es gibt auch viele Studien, die zeigen, dass Online-Panes ein Stichprobenproblem haben, jedenfalls die Ergebnisse ziemlich daneben liegen. Allerdings haben Sie recht, dass Telefonstichproben auch ein Problem haben. Das weiß jeder, der sie häufiger macht. Bedeutet demnach wohl: Die Stichprobenqualität ist vergleichbar schlecht?
    Woher die Probleme u.a. kommen, wissen wir ja auch: Viel zu viele Leute machen nicht mehr mit. Stichproben greifen immer mehr auf Leute zu, die noch mitmachen, wo und wie auch immer. Mitmachen wollen ist aber nicht gleichmäßig verteilt und also nicht sichprobenneutral. So landen wir ganz schnell in Verzerrungen - online ebenso wie offline.

    Zitat 3: "Das größte Problem ist eventuell die Wahl zwischen Pest und Pocken: Die Unentschlossenheit der Wähler wer das kleinere Übel ist nimmt immer mehr zu." Nee, das ist ganz bestimmt nicht das größte Problem. Weder die Wähler noch die Politiker sind das Problem, dass die Forscher ins Straucheln bringt. Die betroffenen Forscher müssen schon vor der eigenen Türe kehren.
  3. Axel Theobald am 13.11.2016
    Der letzte Post bringt mich auf einen Gedanken zurück, der mir neulich in den Sinn gekommen ist: Wäre es eventuell sogar gerechtfertigt, die Veröffentlichung von Wahlprognosen generell zu verbieten? Um Effekte zu vermeiden, dass Leute nicht wählen gehen, weil sie das Ding eh für "gelaufen" halten?
    Immerhin ist es in DE verboten, am Wahltag vor Schließung der Wahllokale neue Prognosen zu publizieren. Wo ist also der Unterschied? Mal zur Diskussion...
  4. Andreas Knappstein am 11.11.2016
    Hier dazu ein lesenswerter Artikel, auch mit ein paar neuen Erklärungsversuchen:
    http://www.finanzen.net/nachricht/aktien/Sieg-mit-Ansage-Warum-die-Wahlprognosen-alle-falsch-waren-5177295

    Klammert man mal Faktoren wie "Pest und Pocken" etc. aus, dann läuft es auf eine qualitativ minderwertige Zusammensetzung der Stichproben und unzureichende Ansätze hinaus. Folgende Aspekte wurden dabei nicht ausreichend beachtet:

    1. Das US-Wahlsystem -> nicht unbedingt derjenige mit den meisten Stimmen gewinnt. D.h. Lokalität in der Wahlforschung ist sehr wichtig, um das Gesamtergebnis möglichst genau zu prognostizieren.

    2. Die nötige Frequenz der Erhebungen auf lokaler Basis um Wählerbewegungen besser vorhersagen zu können

    3. Regionale Unterschiede. Ländliche Wähler eher Trump vs. urbane Wähler eher Clinton, was - so behauptet der Artikel - unzureichend berücksichtigt wurde.

    Alles sehr fahrlässig im Kontext von Wahlforschung. Oder doch vorsätzlich, weil günstiger?
    Belegen könnten das nur die durchführenden Institute ... was sie nicht tun werden.

    Ich freue mich auf die Diskussionen bei der GOR und Co. und hoffe dabei, dass nicht alles auf die externen/schwierig vorhersehbaren Faktoren geschoben wird, sondern sich wirklich methodisch mit dem Thema auseinandergesetzt wird.

    Provokante Frage am Ende: Hat die Meinungsforschung mit ihren falschen Prognosen Trump zur Präsidentschaft verholfen, weil zu viele Clinton-Anhänger sich den Weg zur Urne gespart haben?
  5. Torsten Brammer am 11.11.2016
    "Michi, leg doch bitte mal kurz die Playstation zur Seite und füll die Umfrage aus, hab da jetzt kein Bock drauf" sprach der Vater zum 10jährigen Nachwuchs.

    In den 90igern galten Selbstausfüllfragebogen als empirische Kreisklasse - eben als Notlösung wenn nichts anderes möglich war.
    Heute nennt man es Online-Umfrage und ist empirischer Mainstream. Garbage in = garbage out.
    Das nur kurz als Ergänzung zum Kommentar von Menno Smid.
  6. Hubertus Hofkirchenr am 11.11.2016
    Otto Hellwig spricht eine Schlüsselproblematik der Marktforschung an. Die Wahlforschung hat gegenüber anderen Projekttypen einen aus Wiener Sicht entscheidenden Unterschied. Die Ergebnisse sind direkt falsifizierbar. Wer Karl Popper gelesen hat weiß: Falsifizierbarkeit ist der Unterschied zwischen Wissenschaft und Pseudowissenschaft.

    Falsifizierbarkeit ermöglicht die Unterscheidung zwischen wertvollen Studienergebnissen und Pseudoergebnissen mit unklarer Konstruktvalidität. Falsifizierbarkeit erlaubt eine laufende Kontrolle, wie gut welche Methode gegenüber der empirischen Wirklichkeit abschneidet. Je mehr Datenpunkte, desto schneller entdecken wir Probleme mit Methoden, egal ob trditionell oder innovativ.

    Wir sollten das vielfältige heutige Marktforschungsarsenal darauf rigoros untersuchen, ob ihre Prognosen - ja im Idealfall sämtliche einzelne Antworten jedes einzelnen Respondenten - falsifizierbar sind.

    Wenn Sie diesem Prinzip etwas abgewinnen können, können Sie den Vorschlag "Falsifikation" als Jahresthema bei beim Weltverband ESOMAR unterstützen. Ihr Klick auf den blauen VOTE Button hier dauert nur 2 Sekunden:
    http://esomar.ecglobal.com/idea/view/434
  7. Holger Geißler am 10.11.2016
    @Christian Halemba: Das Thema "Soziale Erwünschtheit" ist bei Online-Umfragen in der Regel kein Problem. Ich kann es für Deutschland sagen: Wähler der AfD sind zumindest in Online-Panels nicht unterrepräsentiert und sagen auch ihre Meinung. Beim Brexit war vor allem die Wahlbeteiligung in verschiedenen Altersgruppen das Problem bei der Vorhersage. Das ist leider ein ungelöstes Problem der Wahlforschung, wie man die Wahlbeteiligung richtig vorhersagen kann.
    @Menno Smid: Es gibt mittlerweile diverse Analysen und Studien (vor allem in UK), die zeigen, dass der Mode nicht der zentrale Faktor ist und die Stichprobenqualität vergleichbar. Auch bei der US-Wahlen - wie beim Brexit - lagen sowohl Telefon- wie auch Online-Pollster - gleichermassen daneben.

    Das größte Problem ist eventuell die Wahl zwischen Pest und Pocken: Die Unentschlossenheit der Wähler wer das kleinere Übel ist nimmt immer mehr zu.
    Aber die Punkte der DGOF sind absolut richtig: Es gibt einiges zu analysieren und aufzuarbeiten.
  8. Axel Theobald am 10.11.2016
    Es war auch mein Gedanke, dass sich die Trump-Wähler mit ehrlichen Äußerungen vielleicht eher zurückgehalten haben. Ich habe von dem Thema Wahlprognosen wenig Ahnung, aber man sollte doch meinen, dass renommierte Wahlforscher solche Effekte mit ins Design einbauen können, über bestimmte Fragetechniken, Gewichtung, was auch immer. Oder irre ich da?
  9. Menno Smid am 10.11.2016
    Notwendig so eine Diskussion. ja natürlich. Es ist aber auch eine Diskussion der eingesetzten Modi, die ja alles so einfach machen. Und vor allem eine Frage der Qualität der Stichproben, gerade zu einer Zeit, in der für manche Zufallsstichproben ein Fremdwort oder rotes Tuch (weil aufwendig und teuer) sind. These: die Mehrheit der Fehlprognosen beruhen auf Stichproben, die keine Zufallsstichproben sind. Und es folglich eigentlich unzulässig ist, hochzurechnen. Ein weiteres Problem, selbst wenn Zufallsstichproben zum Einsatz kommen, ist die Fehlermarge, die natürlich direkt abhängig von der Fallzahl ist. Beispiel BREXIT: um bei einem Anteil von 50 Prozent in der Stichprobe (war ja eine fifty/fifty Entscheidung) mit einem akzeptablen Konfidenzintervall eine eingermaßen sichere Aussage zu treffen, wären n= 25.000 Fälle sinnvoll gewesen! It´s statitics, stupid! Wer hat das gemacht? Niemand. Wer hätte es bezahlt: bestimmt nicht die Parteien und Politiker. Allerdings: die beteiligten Institute haben sich darauf eingelassen. Traurig und gefährlich. Eine Diskussion um minimale Qualitätskriterien ist bitter notwendig.
  10. Christian Halemba am 10.11.2016
    Es scheint nicht zu gelingen, ausreichend Befragte in die Stichproben zu bekommen, die Brexit, Trump, Le Penn, AfD wählen. Dieser Personenkreis hat ein großes Misstrauen gegenüber etablierten Institutionen (auch Mafo Institute gehören wohl dazu, genau wie die Medien). Außerdem kommt der Aspekt des „sozial erwünschten Verhaltens“ hinzu. Diese Leute geben nicht gerne zu, dass sie so wählen, da sie seit Jahren von den Medien in die „Schmuddelecke“ gedrängt werde. (Rassisten, ungebildet, etc).
    Was kann man tun? Man sollte jene Befragten, die solche Parteien/Personen wählen wollen, in den Stichproben hochgewichten. Das Problem hatte man doch schon vor Jahrzehnten bei Themen wie Todesstrafe, Rauchen, etc. Mit einer guten Gewichtung kann man das wohl näher an das amtliche Endergebnis bringen.
    Fest steht, man muss etwas tun, denn die danebenliegenden Prognosen werfen ein schlechtes Licht auf unsere Zunft.
  11. Michael Sch. am 10.11.2016
    Absolut Sinnvoll. Man muss sich auch immer die Frage stellen, aus welchen Quellen qualitativ hochwertige Daten kommen können/sollen. Aus meiner Sicht das A&O - inbesondere bei solch brisanten Themen, bei der jede kleine Verzerrung massiv ins Gewicht fallen kann und im schlimmsten Fall sogar Wähler abhält zur Urne zu gehen, da die Prognose fälschlicherweise "ihre" Partei/KandidatIn als Sieger sieht...
    Überhaupt muss das Thema Qualität wieder mehr in den Fokus rücken. Es geht nicht immer nur um schnell und günstig!

Neuen Kommentar schreiben

Kommentare geben ausschließlich die Meinung ihrer Verfasser wieder. Die Redaktion behält sich vor, Kommentare nicht oder gekürzt zu veröffentlichen. Das gilt besonders für themenfremde, unsachliche oder herabwürdigende Kommentare sowie für versteckte Eigenwerbung.

Weitere Meldungen

News aus der Branche

Neuer Forschungsbereich 'New Work' bei september Strategie & Forschung

Eva Daniela Bock von september Strategie & Forschung

05.07.2022 - Das Kölner Marktforschungsinstitut september Strategie & Forschung hat einen eigenen Bereich für Forschung rund um das Thema New Work geschaffen. Geleitet wird der neue Bereich von Eva Daniela Bock, die bereits seit drei Jahren als Partnerin im Unternehmen ist. weiterlesen

 
Fusion zweier Branchenriesen

NielsenIQ und GfK vereinigen sich zu einem Unternehmen

01.07.2022 - Die beiden internationalen Marktforschungs- und Data Science-Unternehmen NielsenIQ und GfK haben heute ihren geplanten Zusammenschluss verkündet. Ziel ist es, einen führenden globalen Anbieter von Verbraucher- und Handelsdaten zu bilden. Die bisherigen Shareholder… weiterlesen

 
Rückblick auf die WdM-Daily-Keynote vom 12.5.2022

Nachhaltigkeit – wo steht die Marktforschung?

30.06.2022 - Klimaschutz und Nachhaltigkeit sind Themen, die uns mittlerweile alltäglich begegnen. So muss sich auch die Marktforschungsbranche mit der Thematik auseinandersetzen und sich zunehmend fragen, wie das eigene Unternehmen nachhaltiger wirtschaften kann. Gudrun Witt von… weiterlesen

 
Bericht vom BVM-Kongress 2022

Was Marktforschung mit der Macht von Fake-News und dem Terror des Authentischen zu tun hat

27.06.2022 - Am 20. und 21. Juni fand in Frankfurt der „Kongress der Deutschen Marktforschung 2022“ des Berufsverbandes Deutscher Markt- und Sozialforscher (BVM) statt. Marktforschung.de war vor Ort dabei und fasst ausgewählte Highlights zusammen. weiterlesen

 
Bericht von der IIEX Europe 2022

Amsterdam war eine Reise wert - Was gibt es Neues in der Marktforschung?

Melina Palmer (The Brainy Business), Josipa Majic (tacit.tech) und Hannah Kirk (Blue Yonder Research).

24.06.2022 - Zwei Tage IIEX Europe liegen hinter der europäischen Marktforschungsbranche. Zwei Tage, die sich wie vor der Pandemie anfühlten. Was gab es Neues aus der Marktforschungsbranche in Amsterdam zu entdecken? Bilderstrecke und Nachbericht zu der zweitägigen Konferenz in… weiterlesen

 

Über marktforschung.de

Branchenwissen an zentraler Stelle bündeln und abrufbar machen – das ist das Hauptanliegen von marktforschung.de. Unser breites Informationsangebot rund um die Marktforschung richtet sich sowohl an Marktforschungsinstitute, Felddienstleister, Panelbetreiber und Herausgeber von Studien, Marktdaten sowie Marktanalysen als auch an deren Kunden aus Industrie, Handel und Dienstleistungsgewerbe.

facebook twitter xing linkedin