Social Media Netnography



07/01/11 kmjan 
Immer wieder taucht die Frage auf, was den Unterschied zwischen Netnographie und Social Media (bzw. Web-) Monitoring ausmacht. Es sind keine Methoden und Konzepte, die in Konkurrenz zueinander stehen, sondern Forschungsansätze, die unterschiedlichen Bereichen entstammen, sich in der Forschungspraxis im Social Web aber nahe kommen und gelegentlich überschneiden.
Netnographie entstammt der Ethnographie (an anderer Stelle ausführlich erläutert), Social Media Monitoring dem Kommunikationsmanagement, speziell der Medienresonanzanalyse. Deren Aufgabe ist die Evaluation der Kommunikationsziele einer Organisation, ein auf möglichst breiter Basis erstelltes Meinungsprofil und das Erkennen von Trends – im wesentlichen soll die Entwicklung der öffentlichen Meinung rechtzeitig erkannt werden.

Dem entsprechen die für das (Web-) Monitoring vorgebrachten Argumente: Meinungsbildung zu Produkten und Dienstleistungen findet mehr und mehr im Internet statt, Trends verbreiten sich über das word of mouse – für Unternehmen und Verbände wird es unerlässlich zuzuhören, was dort über sie gesprochen wird. Richtet sich die herkömmliche Medienresonanzanalyse im wesentlichen auf Presse und audiovisuelle Medien, wird im Social Media Monitoring die öffentliche digitale Kommunikation in Foren, Blogs, Bewertungsportalen und anderen Kanälen systematisch beobachtet. In diesem Sinne wird Monitoring oft als ein Frühwarnsystem zu möglichen Krisen verstanden oder – positiv formuliert – als erster Schritt eines Social Media Managements, das Zugang zu Feedback, Ideen und Anregungen durch Interaktion mit Nutzern gewährt.
Technische Grundlage des Monitorings sind Screeningtechnologien, die das Netz nach vorab definierten Inhalten durchsuchen. Die für relevant erachteten Quellen werden beobachtet – sie sind das Feld des Monitoring: listen, measure and engage in social media (Radian6). Mittlerweile sind mehr und mehr Anbieter auf den Markt, die marktgängige professionelle Software  (z.B. Radian6, Alterian SM2; allerdings bereiten unzulängliche deutsche Lokalisierungen oft Probleme) oder aber spezialisierte Eigenentwicklungen einsetzen. Eine wesentliche Frage ist immer die passende Balance zwischen automatisierten und manuellen Lösungen.

Netnographie ist kulturell focussiert, Online-Kommunikation nicht zu quantifizierender Content, sondern Teil sozialer Interaktion. Ausgangspunkt des Ansatzes waren Themenstellungen, wie sie auch in den Cultural Studies vorkommen: (Medien-) Fan-Communities (z.B. Star Trek, Soap Operas) oder Communities, die sich innovativ mit Konsumgütern wie etwa Kaffee oder Schokolade befassen, Brand bzw. Consumer Tribes – oft Gegenstand teilnehmender Beobachtung, d.h. einer aktiven Beteiligung des Forschers. Teilnehmende Beobachtung ist aber nicht zwingend, Netnographie ist ‚based primarily on the observation of textual discourse‚ (vgl.:Kozinets 2002, S. 64).
Netnographie in Social Media macht sich dieselben Technologien zu nutze wie sie auch beim Monitoring verwendet werden, gut erkennbar auf der von NetBase, einem Anbieter von Social Media Analyse Software, gesponsorten Plattform netnography.com. Als Quelldaten dient User Generated Content aus Foren, Blogs und Microblogs, der umfangreichen qualitativen Analysen unterzogen wird. Es geht darum, die Aussagen in ihrem Kontext zu verstehen.

Antworten bekommen, ohne Fragen zu stellen: Unter dem griffigen Titel Getting answers without asking questions stellte die belgische Marketingagentur InSites Consulting (Gent) das Konzept Social Media Netnography vor. Social Media Netnography basiert auf nicht-teilnehmender Beobachtung, der Forscher greift nicht ein – er stellt keine Fragen und bleibt zumeist anonym und unbemerkt. Der Ablauf orientiert sich weitgehend an den bei Kozinets definierten Standards von Netnographie. Es beginnt mit der Auswahl zu beobachtender Quellen, als Werkzeug ist Screening-Software sehr nützlich. Die wesentlichen Schritte erfolgen allerdings manuell, nicht automatisiert. Charakteristisch ist ein induktiver (oder auch bottom up genannter) Zugang zum Material. Das bedeutet: Ausgangspunkt ist das vorgefundene und ausgewählte Material, nicht eine vorab formulierte Hypothese, die bestätigt oder widerlegt werden kann. Der Forscher „hört zu“ – ohne Fragen zu stellen und bezieht daraus Information und Wissen, Einstufungen (wie etwa Tonalitätsanalysen) erfolgen manuell. Die großen Linien, die entscheidenden Themen entwickeln sich bei Sichtung und Kategorisierung der Textbeiträge. Auswertung und Analyse orientieren sich an den Konzepten der in der qualitativen Forschung verbreiteten Grounded Theory mit qualitativer Datenanalyse, meist mit Hilfe von QDA-Software. (vgl.: Verhaeghe & Van den Berge: http://bit.ly/2YtODs)

Kommentar verfassen