Digitale Forschungsmethoden für private Öffentlichkeit

Link zum pdf-Download des "Book of Abstracts" zur "digital methods" TagungWie kann Öffentlichkeit privat sein? Was im ersten Moment wie ein Widerspruch aussieht, macht bei genauerer Betrachtung Sinn: Digitale Medien haben neue Öffentlichkeiten geschaffen.  Zu privaten Öffentlichkeiten kommt es, wenn Personen etwas über Netzwerke von privaten Firmen in die Öffentlichkeit bringen. Das passiert täglich milliardenfach – sei es nun über Twitter oder Facebook. Private Firmen stellen also Öffentlichkeit zur Verfügung. Soweit die Beobachtungen von Jan Schmidt, Mitglied der DGPuK Fachgruppe zu computervermittelter Kommunikation, die letzte Woche zu „digital methods“ in Wien tagte. Denn die neuen Öffentlichkeiten machen nicht nur ihren NutzerInnen Spass, sie sollen auch beforscht werden. Immerhin funkioneren sie ganz anders als redaktionell geführte Medienprodukte und beeinflussen unsere tägliche Kommunikation.

Fragmentierte neue Öffentlichkeiten

Der Zugang zu den veröffentlichten Texten in der privaten Öffentlichkeit ist ein anderer als in der journalistischen Medienwelt. Die Agora ist aufgelöst. Sie ist ersetzt durch einen Markt der Meinungen. Sind im Journalismus Sorgfaltspflicht und Streben nach Objektivität verankert, dienen die Äußerungen der UserInnen vorrangig der zur Schaustellung der eigenen Sicht der Dinge. Diese Sicht der UserInnen methodisch und wissenschaftlich-fundiert zu erforschen, stellt sich als nicht so einfach dar. Denn die Daten – obwohl für alle sichtbar – sind nur schwer umfangreich zu erfassen. Sie sind durch die wirtschaftlichen Interessen der Betreiberfirmen oder durch mangelnde systematische Erhebung gleichermaßen unvollständig, so dass es bei Forschungsergebnissen zu Google, Twitter oder Facebook weder zu einer verheißungsvollen Analyse aller Datensätze (Stichwort Big Data) noch zu einer repräsentativen Aussage zur Nutzung in der Bevölkerung kommen kann. Warum das so ist, demonstrieren drei Beispiele:

  • Die Wahrscheinlichkeit, dass zwei UserInnen mit denselben Suchbegriffen auf Google dieselben Ergebnisse erhalten, ist nahezu null. Das haben Martin Emmer und Christian Strippel in einer systematischen Studie herausgefunden: Wenn knapp zwanzig Studierende nach „Salafismus Deutschland“ suchen, ist die erste Google-Suchergebnisseite nie ident.
  • Twitter unterscheidet zwischen dem kostenlosen Datensammeln über die Twitter Streaming API und dem sehr teueren, dafür umfangreicheren Sammeln über die Twitter Firehose. In einem Vergleich der beiden Datenquellen stellte Jürgen Pfeffer fest, dass keine konkrete Aussage darüber getroffen werden kann, wie hoch der gesammelten Anteil der Tweets zu einem Thema über die API im Vergleich zum tatsächlichen Gesamtaufkommen ist.
  • Betrachtet man die Kommentare auf einer Facebook-Page unterscheidet sich die Anzahl, die einE UserIn zu sehen bekommt, oftmals substantiell von der Anzahl, die über die API übertragen wird. Bei der Anzahl an Facebook-Likes einer Facebook-Page ist das Ergebnis auch vom technischen Zugang abhängig: so ist auf der Facebook-Seite von Barack Obama von 37 Millionen Likes zu lesen. Über die Facebook-API wird aber die genaue Zahl angegeben. Jakob Jünger plädierte daher in seinem Vortrag für ein standardisiertes wissenschaftliches Vorgehen.

Standardisiertes Datensammeln

So ein standardisiertes Vorgehen beim Datensammeln kann z.B. über ein Social Media Monitoring erfolgen. Irmgard Wetzstein hat zahlreiche Social Media Monitoring Tools auf ihre Tauglichkeit im wissenschaftlichen Kontext untersucht. Auch der Opinion Tracker kann mit seinem Ansatz so ein standardisiertes Vorgehen bieten. Und er liefert damit auch eine Erweiterung der Perspektive, da hier z.B. eine andere Art der Suche zum Einsatz kommt, als wenn man selbst googelt oder eine Facebook-Seite aufruft.

Digital Methods oder Digital Theory?

Im Zuge der Tagung zeigte sich, dass die titelgebenden Digital Methods nur verbessert werden können, wenn auch an der Theorie gearbeitet wird. Immer wieder stellten sich in den Diskussionen drei wesentliche Fragen – die nach der Repräsentativität, die der Forschungsethik und die des Netzwerkeffekts.

  • Für wen oder was ist die gezogene Stichprobe repräsentativ? Oder noch weitergedacht: gibt es überhaupt noch so etwas wie Repräsentativität?
  • Nele Heise sprach in ihrem Vortrag über die Ethik bei non-reaktiven Verfahren, wie z.B. bei Beobachtungen und systematischer Analyse von Twitter-Daten. Ihr Vorschlag sieht vor, einen kommunikationswissenschaftlichen Forschungsethikkatalog zu erstellen. Wäre es jedoch nicht zielführender sich interdisziplinär zu öffnen und z.B. mit dem Zugang der Anthropologie genauer auseinanderzusetzen, die eine lange Tradition mit dem ethisch korrektem Umgang von Beobachtungsdaten hat?
  • Wie soll man in der Forschung mit dem Netzwerkeffekt umgehen, der letztendlich zu einem „winner takes it all“ bei Plattformen führt – egal ob bei der Stichprobenziehung, in der z.B. manchmal der Longtail an UserInnen ausgeschlossen wird, oder bei der medialen und forschungsrelevanten Konzentration auf einige wenige private Web 2.0-Plattformen.

Diese Fragen verlangen nach einer Diskussion zu einer Theorie des Digitalen. Denn ohne informierte Betrachtung unser aller Social Media Aktivitäten schaut am Ende sonst nur ein affiges Sammeln aber kein Erkenntnisgewinn dabei heraus.

Petra Permesser

Petra Permesser

Petra weiß, was das Netz spricht. Die Kommunikationswissenschafterin und angehende Soziologin kümmert sich im datenwerk um alles, was mit Daten zu tun hat: Suchmaschinenoptimierung, Algorithmen, Ads und das Social Media Monitoring Tool "Opinion Tracker" sind Petras Metier. Außerdem tüftelt sie häufig an Story Maps und weiß, wie komplexe Software-Projekte mittels User Stories strukturiert werden können.

Das könnte Dich auch interessieren …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.