Künstliche Intelligenz in der Marktforschung – Wohin geht die Reise?
Interview mit Hartmut Scheffler
Wie verändert KI die Umfragewelt? Kann KI hier den Menschen ersetzen? Und wo liegen ihre Grenzen? Wir haben nachgefragt bei Hartmut Scheffler, Berater für Marktforschung und langjähriger Vorstandsvorsitzender des ADM. Im Interview spricht er über Chancen, Grenzen – und warum gute Daten allein nicht reichen.

Herr Scheffler, wie genau verändert KI aktuell die Art, wie Umfragen durchgeführt und ausgewertet werden?
KI kommt mittlerweile in nahezu allen Phasen einer Umfrage zum Einsatz – unabhängig von der Methode. Sie unterstützt bei der Angebotserstellung, der Entwicklung von Fragebögen, der Stichprobenziehung, der Kodierung, der Datenanalyse sowie bei der Ergebnisaufbereitung und Erstellung ganzer Präsentation mit Grafiken und Charts – inklusive Interpretation und Empfehlungen.
Gibt es weitere Beispiele?
Klar, in der qualitativen Forschung, etwa bei Tiefeninterviews oder Gruppendiskussionen, kommen vermehrt KI-gestützte Moderationen zum Einsatz. Selbst für klassische Telefonbefragungen werden KI-Interviewer*innen diskutiert.
Ein weiterer Bereich sind sogenannte synthetische Befragte, also virtuelle Personen, die auf Basis umfangreicher Datensätze modelliert wurden – meist zur Ergänzung realer Befragungen.
Und dann gibt es noch prädiktive KI: Statt neue Primärstudien durchzuführen, etwa zu Werbemitteln oder Verpackungen, nutzt diese KI große historische Datensätze, um über Mustererkennung und Algorithmen valide Vorhersagen zu treffen.
Welche Methoden oder Tools sind Ihrer Meinung nach dabei besonders relevant?
Im Zentrum stehen heute sogenannte LLMs – Large Language Models wie ChatGPT, Gemini, Claude oder Perplexity. Sie werden zur Erstellung von Fragebögen, Leitfäden und Angeboten eingesetzt und unterstützen bei Recherchen.
Hinzu kommen Tools für Textanalyse, etwa im Bereich Social Media Analytics, sowie Kodierungstools. Die Zahl der Anbieter solcher prozessunterstützenden Werkzeuge steigt nahezu täglich.
Kann KI den Menschen in der Marktforschung irgendwann ersetzen – oder eher ergänzen?
Hier gehen die Meinungen auseinander. Die Mehrheit sieht KI als Werkzeug, das den Menschen effizienter und oft auch qualitativ besser arbeiten lässt – denn KI „vergisst“ nichts. Voraussetzung dafür ist allerdings, dass Forschende die Kompetenz mitbringen, KI gezielt einzusetzen und deren Möglichkeiten wie auch Grenzen einschätzen zu können.
Eine kleinere Gruppe hält es für möglich, dass KI in Zukunft auch Menschen ersetzt – etwa wenn sie in der Lage ist, Emotionen zu erkennen und zu simulieren oder menschliches Denken zu rekonstruieren.
Derzeit überwiegt aber die Einschätzung, dass KI ein leistungsfähiges Werkzeug für qualifizierte Fachkräfte ist – mit ständig neuen Anwendungen und Potenzialen.
In welchen Bereichen ist KI den menschlichen Analyst*innen bereits überlegen?
Vor allem in klassischen Aufgabenfeldern ist KI unschlagbar schnell – was sowohl Effizienz- als auch Kostenvorteile mit sich bringt.
Gleichzeitig trägt sie zur Qualitätssteigerung bei: Als Art digitale Wissensdatenbank vergisst sie keine Antwortoptionen oder Leitfadenbausteine – etwa bei Imagefragen – und kann wie eine Checkliste funktionieren.
Ein weiteres Feld ist die sogenannte Causal AI – also kausale Datenanalyse mithilfe von KI –, die durch heutige Rechenleistungen erstmals praxisrelevant wird.
Und wo stößt sie eindeutig an ihre Grenzen?
Da gibt es aus meiner Sicht zwei große Bereiche:
Zum einen bei der Erfassung menschlicher Entscheidungsprozesse: Diese sind oft irrational, emotional, spontan, empathisch – und in dieser Tiefe für KI derzeit kaum erfassbar oder simulierbar.
Zum anderen fehlt KI die Fähigkeit zu echter Zukunftsphantasie. Ihre Vorhersagen basieren auf vergangenen und maximal gegenwärtigen Daten. Völlig neue Ideen – etwa innovative Kampagnen oder disruptive Ideen – kennt sie schlichtweg nicht. Man könnte sagen: KI bildet den Durchschnitt gut ab – aber nicht das wirklich Neue.
Wie wird die Qualität der KI-Ergebnisse sichergestellt?
Dazu braucht es drei ganz unterschiedliche Dinge. Erstens eine hochwertige Datenbasis – also gute Trainingsdaten, die vollständig, aktuell und diskriminierungsfrei sind. Diskriminierungsfrei heißt: Die Daten sollten möglichst viele Perspektiven abbilden – also nicht nur von jungen Menschen, von Männern, von weißen Personen, von US-Amerikaner*innen oder aus sozialen Medien stammen. Nur so entstehen faire, repräsentative Ergebnisse. Hier gilt die schöne Regel „garbage in – garbage out“ oder etwas flapsiger formuliert: wo Schrott drin ist, kann auch nur Schrott rauskommen.
Zweitens die Kompetenz der Anwender*innen. Forschende müssen heute nicht nur methodisch, sondern auch technisch versiert sein und die Funktionsweise von KI-Systemen verstehen.
Und drittens: Transparenz. Nur wenn klar ist, an welcher Stelle, mit welchen Tools und zu welchem Zweck KI eingesetzt wurde, lässt sich die Qualität der Ergebnisse fundiert beurteilen.
Vielen Dank Hartmut Scheffler.