Qualitätsjournalismus im digitalen Zeitalter. Verifizierungsmethoden von Nachrichtenmaterial aus Sozialen Netzwerken am Beispiel Twitter und YouTube


Bachelorarbeit, 2016

110 Seiten, Note: 1,7


Leseprobe

Inhaltsverzeichnis

1. Einleitung
1.1 Erlauterung des Themas
1.2 Darstellung derThese und Zieldefinition
1.3 Industrierelevanz

2. Grundlagen
2.1 Soziale Netzwerke
2.1.1 Twitter
2.1.2YouTube
2.2 Methoden derVerifizierung
2.2.1 Verifizierung von Fotos
2.2.2 Verifizierung von Videos
2.2.3 Verifizierung von Websites
2.2.4 Verifizierung von Social-Media-Profilen
2.2.5 Verifizierungsagenturen
2.3 Probleme und Risiken bei derVerifizierung

3. Methodik
3.1 Auswahl der angewandten Methodik
3.2 Aspekte und Ansatze der qualitativen Forschung
3.3 Leitfadeninterviews als Experteninterviews
3.3.1 Auswahl der Interviewpartner
3.3.2 Erstellung des Interviewleitfadens
3.3.3 Experteninterviews fuhren
3.3.4 Transkription von Gesprachen
3.3.5 Auswertung durch qualitative Inhaltsanalyse

4. Durchfuhrung der Experteninterviews
4.1 Voruberlegungen
4.2 Literaturrecherche
4.3Aufbau des Fragebogens
4.4 Vorstellung der Experten
4.5 Beschreibung der Experteninterviews
4.6 Transkription
4.7 Auswertung

5. Ergebnisse
5.1 Erfahrungen mit dem Thema Nachrichtenverifizierung
5.2 Verifikation von Fotos
5.3 Beispiele fur die Verifikation von Fotos
5.4 Verifikation von Videos
5.5 Verifikation von Social-Media-Profilen
5.6 Umgang mit Inhalten aus Sozialen Netzwerken
5.7 Verifikation von Websites
5.8 Regelungen innerhalb der Rundfunkanstalten zurVerifikation
5.9 Kosten von Verifizierung
5.10 Zeitdruck bei derVerifikation
5.11 Schutzvon Informanten
5.12 Ernsthaftigkeit von Verifikation
5.13 Umgang mit Fehlern
5.14 Erganzungen der Experten

6. Zusammenfassung
6.1 Zusammenfassung in Bezug aufThese und Ziel derArbeit
6.2 Ausblick

7 Literaturverzeichnis

Anhang
I. Interviewleitfaden
II. Transkript - Konrad Weber
III. Transkript - Ulrich Lang
IV. Transkript - Michael Wegener

1. Einleitung

1.1 Erlauterung desThemas

„YouTube, Twitter und Blogs liefern Nachrichten sehr viel aktueller als alle anderen Medien. Bevor das Drehteam eines TV-Senders vor Ort eintrifft, ist bereits ein mit dem Smartphone gedrehter Augenzeugenbericht bei YouTube erschienen." (Sievers 2013: 1).

Die Dichte an sogenannten “Breaking-News-Ereignissen“ hat sich in den letzten Jahren explosionsartig vermehrt. Nachrichtensender, Zeitungen und auch Online- Publikationen wollen von Beginn an uber ein Ereignis vollumfassend berichten konnen. Dabei stolen sie auf ein Problem: Inhalte aus klassischen Quellen, wie Nachrichtenagenturen, schaffen es nicht, schnell genug an Informationen, aber auch an Bild- und Filmmaterial heranzukommen. Dennoch sind Bilder zu sehen. Diese stammen oft von Nutzern aus Sozialen Netzwerken, also keinen Journalisten im klassischen Sinn, die aber meist schneller am Ort des Geschehens sind, als es ein klassisches Team der aktuellen elektronischen Berichterstattung (EB-Team) uberhaupt schaffen wurde. Das liegt daran, dass die meisten Menschen mit einem Smartphone unterwegs sind. Diese sind mit einer Kamera und einem Mikrofon ausgestattet. Die aufgenommenen Inhalte konnen leicht ins Internet transferiert werden. So steht dann bei einem Video “Amateuraufnahme", bei einem anderen “Quelle: YouTube". Damit wird dem Medienkonsumenten klargemacht, dass es sich urn Inhalte handelt, die die Nachrichtenredaktion nicht selbst erstellt hat. Doch wie kann man als Nutzer sichergehen, dass die Aufnahmen der Realitat entsprechen? Bildmanipulations-programme wie Photoshop sind den Mediennutzern kein Fremdwort mehr. Und vor allem: Wie lasst sich eine solche Bearbeitung Oder gar eine Falschung nachweisen? In sozialen Netzwerken kursieren taglich Bilder, deren Echtheit angezweifelt wird. Uber Kriegsbilder wird besonders heftig debattiert. Je mehr Daten im Internet frei zuganglich sind, desto wichtiger wird deren journalistische Aufbereitung im Nachgang.

Uber Social Media kommen taglich viele Meldungen in unser Wahrnehmungsfeld, viele sind aufwuhlend und wollen formlich weiterverbreitet werden. Doch manchmal ist es sinnvoll, ein zweites Mai hinzuschauen, ob die Schlagzeile auf dem Bildschirm wirklich glaubwurdig ist. Die Fahigkeit, Grundlagen der Verifikation zu beherrschen, wird daher immer wichtiger. Herkunft, Verwendung und Bearbeitung eines Bildes lassen sich theoretisch zuruckverfolgen. Mit einem einzigen Hilfsprogramm eine Verifizierung durchzufuhren, scheint derzeit noch schwierig. Die Verwendung mehrererTools kann aber hilfreich sein.

Der Inhalt dieser Forschungsarbeit ist fur die gesamte Nachrichtenindustrie interessant. Journalisten vertrauen tagtaglich auf Tools, um ihre Quellen wahrend einer Recherchearbeit auf den Wahrheitsgehalt zu uberprufen (vgl. Lenartz, Tobias 2014: 1). Ich als derzeitiger Student in einem “Cross-Media Journalismus" Kurs mochte in Zukunft einmal selber als Journalist arbeiten. Deshalb ist es unter anderem auch fur mich personlich wichtig, dass ich gewiss sein kann, dass ich meine Arbeit sauber und sorgfaltig mithilfe der Programme erledige. Dazu gehort auch eine ausreichende und fundierte Recherche der Quellen. Diese kann nur gewahrleistet sein, wenn die Methoden, also die Programme, die ich verwende, auch die notigen Sicherheiten fur die Verifizierung liefern.

1.2 Darstellung derThese und Zieldefinition

Das Ziel dieser Forschungsarbeit ist es, herauszufinden, ob die derzeit verfugbaren Methoden und Programme zur Prufung des Wahrheitsgehalts von Nachrichten- material aus sozialen Netzwerken fur die Arbeit in Nachrichten-redaktionen, vor allem in “Breaking-News Situationen", ausreichen.

Deshalb gilt es, die Funktionen der Programme kritisch zu durchleuchten, um zum einen die derzeitigen Moglichkeiten zur Verifizierung zu uberprufen und zum anderen, um mogliche Fehlerquellen bei den Tools und Arbeitsmethoden auf- zudecken.

Die These fur die Arbeit lautet:

Die aktuellen technischen Methoden und Programme reichen fur die Verifizierung des Nachrichtenmaterials aus Sozialen Netzwerken aus.

Diese Fragestellungen werden mit der Methode von Experteninterviews und der auf einer qualitativen Inhaltsanalyse gestutzten Auswertung beantwortet. Dafur wurden zunachst drei leitfadengestutzte Experteninterviews durchgefuhrt. Die Interview­partner waren: Konrad Weber, derzurzeit als Multimedia-Journalist beim Schweizer Radio und Fernsehen (SRF) arbeitet und dort das News Lab leitet; Ulrich Lang vom Sudwestrundfunk (SWR) und Trainer fur den Umgang mit Nachrichtenmaterial aus Sozialen Netzwerken; und schlie&lich Michael Wegener, Leiter der ARD-Einrichtung Content Center.

Aus diesen Ergebnissen lieft sich ein Fazit fur die Uberprufung von Nachrichten­material aus Sozialen Netzwerken ziehen.

1.3 Industrierelevanz

Im Prinzip konnte man sagen, dass die Ergebnisse dieser Forschungsarbeit jeden Menschen interessieren konnen, der Nachrichten konsumiert. Die Rezipienten von Nachrichtenangeboten vertrauen darauf, dass die Informationen der Wahrheit entsprechen und dass die Journalisten die ihnen zur Verfugung stehenden Quellen sorgfaltig uberprufen. Dafur benotigen sie neben ausreichenderZeit auch geeignete Methoden und Programme zur Verifizierung der Nachrichteninhalte aus Sozialen Netzwerken. Schlecht recherchierte Quellen nehmen nicht nur den Journalisten selbst in die Kritik, sondern schadigen unter anderem die Glaub-wurdigkeit einer Nachrichtenmarke. Obwohl es sich oftmals urn freie Mitarbeiter handelt, werden dann die Rundfunkanstalten Oder andere Anbieter fur die mangelnde Recherche kritisiert Oder vom Deutschen Presserat abgemahnt.

Fur die Anbieter der einschlagigen Apps und Programme ist diese Forschungsarbeit ebenfalls relevant, da sie dadurch feststellen konnen, ob ihre Tools funktionieren, an welchen Stellen noch Verbesserungsbedarf besteht und in welche Richtungen die Programme entwickelt werden sollen.

2. Grundlagen

2.1 Soziale Netzwerke

Soziale Netzwerke sind im Zuge des Web 2.0 entstandene virtuelle Gemeinschaften von Nutzern (Usern), uber die sozialen Beziehungen Oder Kommunikationen uber das Internet getatigt werden konnen. Diese Netzwerke konnen themenorientiert sein Oder nur der Kommunikation dienen (vgl. Lackes, Prof. Dr. Richard o.J.: 1).

2.1.1 Twitter

Twitter ist ein Micro-Blogging-Dienst mit weltweit 320 Millionen Nutzern, davon 12 Millionen Deutschen (Stand: Ende Marz 2016). Twitter wird von verschiedenen Usern genutzt, 46% sind regelma&ig in dem Netzwerk aktiv (vgl. Castillo, Carlos; Mendoza, Marcelo; Poblete, Barbara 2011: 675). „Microblogging stellt eine sehr spezielle Form des Bloggens im Web dar. Der Unterschied zwischen einem normalen Blogging-Dienst und dem Microblogging besteht darin, dass es bei Microblogging nicht darum geht, thematisch in die Tiefe zu gehen, sondern innerhalb kurzerZeit und ohne gro&en Aufwand Nachrichten aller Art generieren zu konnen. [...]“ (Grunderszene o.J.: 1). Die Nutzer konnen 140 Zeichen lange Nachrichten (Tweets) veroffentlichen. „Zudem kann man sich auf Twitter auch mit anderen Nutzern vernetzen. Dies geschieht, indem man sich als Follower, sozusagen als Abonnent eines Microblogs, eintragt." (Mainka, Agnes 2010: 1).

Twitter ermoglicht eine Ubertragung von Nachrichten in Echtzeit an eine hohe Nutzerzahl. Somit ist das Soziale Netzwerk der ideale Platz, urn neueste Nachrichten direkt vom Punkt des Geschehens zu veroffentlichen, meist unmittelbar direkt nach dem Oder bereits wahrend eines Ereignisses. Diese Informationen werden entweder von den Usern selbst generiert, also durch Beobachtung und Veroffentlichung, Oder durch Weiterverbreitung von externem Wissen. Die meisten Nachrichten sind eher belanglos.

User nutzen das Netzwerk aber auch, um relevante Nachrichten zu teilen. Die meisten Themen der “Trending Topics", das sind Themen, die in einer hoheren Frequenz geteilt werden, konnen als wichtige Nachrichten erachtet werden.

In einer 2011 durchgefuhrten Untersuchung von Carlos Castillo, Marcelo Mendoza und Barbara Poblete wurde die Glaubwurdigkeit von durch Twitter verbreiteten Nachrichten uberpruft. Ziel der Arbeit war es, einen Weg der Uberprufung herauszufinden, um Informationen als valide einstufen zu konnen. ..Previous research has shown that most of the messages posted on Twitter are truthful, but the service is also used to spread misinformation and false rumors, often unintentionally." (Castillo, Carlos; Mendoza, Marcelo; Poblete, Barbara 2011: 675).

Menschen scheinen im Allgemeinen den Nachrichten aus Sozialen Netzwerken, genau wie auch alien anderen Medien, bis auf die Zeitung, zu trauen. In den USA ist fur Menschen unter 30 Jahren das Internet die wichtigste Informationsquelle, wie eine Umfrage aus dem Jahr 2008 zeigt. Informationen von offiziellen Accounts (diese werden bei Twitter durch einen blauen Haken beim Nutzerbild angezeigt) werden eher als wahrheitsgemaft eingestuft und von den Nutzern weiterverbreitet. Diese sammeln das Wissen und erarbeiten aus diesem ihre eigenen Interpretationen. Das Problem ist, dass falsche Informationen und relevante Informationen nicht voneinander unterschieden werden konnen und somit Geruchte und Unwahrheiten weiterverbreitet werden.

Nutzer empfinden den gleichen Nachrichtentitel auf Twitter als unglaubwurdiger als in anderen Medien. Dieses mangelnde Vertrauen ist nicht ganz unbegrundet, denn Suchmaschinen zeigen auch Ergebnisse aus Blogs Oder Mikroblogs an. Das motiviert Spammer, Links zu platzieren, sodass Nutzer auf Produktseiten Oder Werbeseiten weitergleitet werden (vgl. Castillo, Carlos; Mendoza, Marcelo; Poblete, Barbara 2011: 675f.).

2.1.2 YouTube

„YouTube is a free video-hosting website that allows members to store and serve video content. YouTube members and website visitors can share YouTube videos on a variety of web platforms by using a link or by embedding HTML code." (Rouse, Margaret o.J: 1). Die Website wurde von Chad Hurley, Steve Chen und Jawed Karim 2005 in Kalifornien gegrundet. 2006 wurde die Firma fur 1,31 Milliarden Euro von Google aufgekauft. Dank der unkomplizierten Handhabung erlangte YouTube eine immer steigende Popularitat.

Den Nutzern ist es moglich, ein Profil auf dem Videoportal anzulegen und dann eigene Videoclips mit einer Beschreibung (Kurztext) hochzuladen. Au&erdem konnen Videoproduzenten durch eine Verschlagwortung (Tags) eine Indexierung ihrer Videos anlegen. Andere Nutzer konnen diese wiederum auf verschiedenen Ausgabemedien uber den auf HTML5 basierenden Player anschauen, bewerten und kommentieren. YouTube schlagt dem Nutzer durch einen Algorithmus weitere ahnliche Videos vor (vgl. ZergNet 2016: 1).

2.2 Methoden derVerifizierung

„Rasante virale Verbreitung und erhohter Veroffentlichungsdruck lassen wenig Zeit fur eine solide Verifizierung." (Lenartz, Tobias 2014:1). Fakt ist, dass professionelle Journalisten in der Regel nicht so schnell am Ort des Geschehens sind, wie Quellen vor Ort. Deshalb bedient sich die Presse des Nachrichtenmaterials von Burgern. Dieses gilt es schnell zu verifizieren, urn nicht einer Tauschung aufzusitzen (vgl. Lenartz, Tobias 2014: 1).

Zu diesem Zweck gibt es einige Programme und Methoden, die im Folgenden erlautert werden. Die dargestellten Programme sind fur diese Forschungsarbeit exemplarisch ausgewahlt worden und dienen lediglich als Beispiel. Moglicherweise stehen die genannten Tools nach der Veroffentlichung der Arbeit nicht mehr zur Verfugung. In der Regel gibt es nach kurzer Zeit Alternativen mit ahnlichen Funktionen.

2.2.1 Verifizierung von Fotos

Bei der Verifizierung von Bildern gibt es verschiedene Moglichkeiten zur Prufung der Richtigkeit.

Jegliche Arten von Daten im Internet hinterlassen einen “digitalen Fu&abdruck". Durch die Ruckwartssuche eines Bildes, also durch das Abgleichen eines bereits bestehenden Fotos mit einer Datenbank, kann festgestellt werden, wie stark es modifiziert Oder auch wann es veroffentlicht wurde. Mithilfe von Googles Bildsuche Oder Tineye lassen sich beispielsweise sogenannte “Fakes" durch das Auffinden der Originaldatei bestimmen. So kann uberpruft werden, ob das Bild nicht eventuell zu einem fruheren Zeitpunkt entstanden Oder in einem anderen Kontext als angegeben veroffentlichtwurde (vgl. Lenartz, Tobias 2014: 1).

Durch die Kontrolle der Metadaten lassen sich ebenfalls Falschungen entlarven. „Als Metadaten [...] werden strukturierte Daten bezeichnet, die Informationen uber andere Informationsressourcen enthalten. Metadaten beschreiben also die eigentlichen Daten auf eine Art und Weise [...]“ (Pfund, Andreas 2012: 1). Mit den ausgelesenen Exif-Daten einer Bilddatei, wie zum Beispiel dem Datum Oder der Belichtungszeit, konnen weitere Ermittlungen angestellt werden.

Eine andere Moglichkeit der Verifizierung ist, den Schauplatz des Bildes mit bestehendem Kartenmaterial Oder anderen Aufnahmen zu vergleichen. Dazu lassen sich beispielsweise georeferenzierte Hinweise wie Gebaude, National- symbole Oder Stra&enschilder aus Diensten wie Google Maps Oder Panoramio heranziehen.

Eine Analyse des Wetters kann einen weiteren Bestandteil der Uberprufung einer Quelle liefern. Lasst sich das Wetter auf einer Aufnahme mit der realen Wetter- vorhersage abgleichen, stellt dies moglicherweise ein weiteres Indiz fur die Richtigkeit der Aufnahme dar. Wetterinformationen sind u. a. aus Datenbanken wie Wolframalpha abrufbar.

Der wichtigste Schritt einer Verifikation ist es, den Urheber ausfindig zu machen. Bei dem Gesprach kann man den Urheber nach der Exif-Datei fragen. “Fakes" konnen aufdiesem Wege schnell aufgeklartwerden (vgl. Lenartz, Tobias 2014: 1).

2.2.2 Verifizierung von Videos

Bei Videos kann man ahnliche Methoden wie bei der Uberprufung von Fotos anwenden.

Auch hierbei ist darauf zu achten, ob das Video in irgendeiner Art und Weise manipuliert wurde. Hinweise geben die Fakten, ob das Video geschnitten wurde Oder wie der Ton klingt. Wenn dieser klar zu verstehen ist und fast sendetauglich scheint, ist Misstrauen angebracht. Denn perfekte Aufnahmebedingungen konnen schlechterdings zu einer spontanen, vielleicht auch unter Lebensgefahr aufg- enommenen Amateuraufnahme gefuhrt haben. Beim Ton kann man zusatzlich noch auf die im Sprachgebrauch typischen regionalen Sprachgewohnheiten Oder Dialekte achten. Auch ein Blick auf die Farbgebung kann einen Hinweis auf eine Uberarbeitung liefern. Wenn sie zu gesattigt ist und unnaturlich wirkt, konnte das ein Anzeichen fur eine Falschung sein.

Des Weiteren kann man bei der Prufung von Videos, ahnlich wie bei Fotos, den Hintergrund analysieren. Dabei istaufgeoreferenzierte Daten zuruckzugreifen.

Ebenso ist es ratsam, Hinweise uber den Urheber bzw. uber den Account einzuholen. Wenn sich auf diesem beispielsweise regelma&ig Videos aus der Region befinden, kann vermutet werden, dass das zu untersuchende Video ebenfalls dort entstanden ist. Handelt es sich bei dem besagten Video urn das erste Video aufdem Account, dann istVorsicht geboten (vgl. Lenartz, Tobias 2014: 1).

2.2.3 Verifizierung von Websites

Bei der Verifizierung von Websites gibt es in der Regel drei Ansatze urn zu prufen, ob eine Seite “echt“ Oder “unecht“ ist.

Zunachst ist das Impressum der Website zu kontrollieren. ,,Laut Paragraf 5 des Telemediengesetzes (TMG) besteht eine solche Informationspflicht fur ,geschafts- ma&ige, in der Regel gegen Entgelt angebotene Telemedien’. [...] Die Pflicht gilt vielmehr fur alle Angebote, die mit wirtschaftlichem Interesse betrieben werden. [...] Auf der anderen Seite bestimmt Paragraf 55 des Rundfunkstaatsvertrags (RStV), dass Angebote, die ,ausschlieftlich personlichen Oder familiaren Zwecken dienen’, kein Impressum benotigen [...]“ (Heidrich, Joerg 2014:1). Falls ein Impressum fehlt, dann kann das ein erstes Anzeichen fur die mangelnde Seriositat einer Internetseite sein.

Wenn ein Impressum vorhanden ist, gilt es im nachsten Schritt, dessen Angaben zu uberprufen. Wichtig ist es, den eigentlichen Urheber ausfindig zu machen, urn die Verlasslichkeit der Quelle zu gewahrleisten. Das lasst sich uber Domain- registrierungsbehorden bewerkstelligen. Fur die deutschen Domainendungen (.de) kann der Urheber uber den Dienst Denis ausfindig gemacht werden, bei internationalen Domainendungen hilft der Dienst Who.is. Lassen sich dort keine Angaben zu dem Urheber finden, muss es sich nicht zwangslaufig urn eine unseriose Seite handeln, denn es gibt viele Drittfirmen, die Domains registrieren. Dennoch: 1st ein Urheber nicht auffindbar, „[...] hat der moglicherweise fragwurdige Grunde urn nicht gefunden zu werden." (Lenartz, Tobias 2014: 1).

Eine weitere Moglichkeit, urn eine Website zu verifizieren, ist die Uberprufung des Anpassungsverlaufes der Inhalte. Auf diese Weise kann man feststellen, wie oft Inhalte geandert wurden, wann neue hinzugekommen und wann bestimmte Seiten geloscht wurden. Das kann auch dazu beitragen, dass man eine Quelle als serios Oder unserios einstuft (vgl. Lennartz, Tobias 2014: 1).

2.2.4 Verifizierung von Social-Media-Profilen

Die Verifikation wird hier beispielhaft anhand eines Twitter-Profils skizziert.

Dabei uberpruft man zunachst den Namen. Diesersowie derTwitter-Benutzername konnen “gegoogelt" werden, urn herauszufinden, ob die Person uber weitere Profile im Netz verfugt. Pipl leistet hier gute Dienste.

Danach kann die Twitter-Biografie analysiert werden. Als wer Oder was gibt sich die Person aus? Hinzuziehen kann man zu diesen Informationen au&erdem noch, mit welchen Personen die zu prufende Person interagiert. Mit wem vernetzt sich die Person und werfolgt dieser? Durch das “digitale Umfeld" der Person kann man auf die Seriositat des Profils schlie&en.

Tools wie Mentionmap Oder Followerwonk konnen Beziehungskonstellationen aufzeigen. Wenn in der Biografie eine Website zu finden ist, kann diese zusatzlich auch noch aufden Wahrheitsgehalt hin uberpruftwerden (siehe Kapitel: 2.2.3).

Im nachsten Schritt werden die eigentlichen Inhalte des Social-Media-Profils uberpruft. Uber den Dienst Tweetstats lassen sich die Themen herausfiltern, zu denen die Person twittert. Zusatzlich kann man den Eroffnungszeitpunkt des Accounts in Betracht ziehen. Liegt der Eroffnungszeitpunkt unmittelbar vor der vermeintlichen Sensationsmeldung, istVorsichtgeboten.

In jedem Fall sollte man das Profil einmal kontaktieren und schauen, ob die Person uberhaupt aufAnfragen reagiert (vgl. Lenartz, Tobias 2014: 1).

2.2.5 Verifizierungsagenturen

Nicht immer konnen Nachrichtenredaktionen die Verifikationsaufgaben selbst ubernehmen. Das kann personelle Oder auch zeittechnische Ursachen haben. So haben sich Verifikationsagenturen auf diese Dienstleistung spezialisiert und bieten Rundfunkanstalten geprufte Inhalte gegen Bezahlung an.

Dataminr ist ein Startup aus New York und bietet ein Hilfstool fur Journalisten an, urn interessante Nachrichten aus dem Twitter Feed herauszufiltern. ,,Dataminr uses machine learning algorithms to analyze the Twitter firehose of data and highlight the needle in the haystack so CNN reporters can find the most important, relevant, and reliable facts and images from around the world." (Popper 2014:1). Davor hatte das Tool Banken und Hedge-Fonds geholfen, Informationen zu Investitionen in Echtzeit zusammenzustellen. Nun werden Soziale Netzwerke analysiert und wichtige Beitrage herausgesucht. Dataminr teilt die Meldungen in verschiedene Feeds und verstandigt die Journalisten uber Benachrichtigungs-systeme. ,,’So it’s not a matter of more or less data, but of how the service is focused and tuned.’" (Popper 2014: 1). Es ist zu erwarten, dass die Redakteure die Nachrichten schneller erhalten als auf anderen Wegen.

Storyful ist eine Nachrichtenagenturfur sogenannte “nutzergenerierte Inhalte". „Die Firma bezeichnet sich auch als .Outsourced Newsroom1" (Sievers, Uwe 2013: 1). Die Inhalte werden von Redakteuren systematisch gepruft. Dafur sind drei Dinge notwendig: Zunachst muss die Originalquelle ausfindig gemacht werden. Danach werden Standort und Zeitangaben zur Uberprufung herangezogen.

Um Falschungen bei angeblichen Augenzeugenvideos auszuschlie&en, kommt die sogenannte Videoforensikzum Einsatz. Diese wird auch bei Polizeiermittlungen zur Auswertung verwendet.

Eine der wichtigsten Hinweisquellen fur Storyful sind die Sozialen Netzwerke. Journalismus verandert sich durch die Verbreitung von nutzergenerierten Geschichten und Fotos. Dadurch entsteht aber nicht unbedingt eine Gefahrdung in der Qualitat des Nachrichtenangebots (vgl. Sievers, Uwe 2013: 1). ,,Man nimmt die alten Journalistentugenden und wendet sie einfach auf die neuen Medien an. Wir mussen keine Angst haben, denn die Sozialen Medien sind auch nur ein Stuck mehr Information. Um die Geschichte dann zu erzahlen, braucht man journalistisches Handwerk: Den Kontext geben, die Fakten finden, Interviews fuhren, eine runde Geschichte erzahlen." (Angriff auf die Tagesschau - Wie das Web das Fernsehen verandert 2015: #00:19:02-6#)

Storyful arbeitet mit bestimmten Social Media Monitoring Tools, urn schneller an Informationen zu gelangen. Damit sind sie traditionellen Nachrichtenagenturen oft mindestens urn eine Stunde voraus.

„Nutzergenerierte Inhalte sind zum zentralen Bestandteil der Arbeit von Nachrichtenredaktionen geworden. Wir konnen es einfach nicht ignorieren, sonst wurden wir unsere journalistische Pflicht verletzen. Eine Quelle ist eine Quelle und unser Job ist es, an Informationen zu kommen." (Angriff auf die Tagesschau - Wie das Web das Fernsehen verandert 2015#00:19:24-8#)

Ein weiteres wirtschaftliches Standbein der Agentur ist es, gezielt nach Videos zu suchen, die viralen Erfolg haben konnten. Dieses Material erwirbt Storyful gegebenenfalls und hilft dem Originalurheber, damit Geld zu verdienen. Die Agentur stellt sicher, dass das Video gefordert und auch geschutzt wird.

Storyful behalt dabei einen Teil der Werbe- und Verkaufserlose ein. Virale Videos sind die Haupteinnahmequelle des Unternehmens. Damit werden aufwendige und mit meist hohen Kosten verbundene investigative Arbeiten finanziert.

2.3 Probleme und Risiken bei derVerifizierung

Im Folgenden werden einige Schwierigkeiten in der Nachrichtenverifikation am Beispiel des Absturzes der Germanwings-Maschine in den franzosischen Alpen im Marz 2015 dargestellt.

In den deutschen Medien haben sich falsche Bilder der abgesturzten Maschine weiterverbreitet, ohne dass diese sorgfaltig gegengepruft wurden. Sie stammten alle von alteren Absturzen. Auffallend ist, dass Redaktionen seit dem Tsunami 2004 starker auf Bildmaterial aus Sozialen Netzwerken wie Facebook, Twitter und YouTube zugreifen.

In den Redaktionen haben sich bislang noch keine festen Regeln zur Verifikation ausgebildet. „[...] Nachrichtenredaktionen sehen sich im Zeitalter des Echtzeitjournalismus einem enormen Druck ausgesetzt, schnell Informationen und Bilder anbieten zu konnen" (Stegers 2015: 1). Journalisten haben tendenziell Angst vor der Uberprufung; oftmals werden die jungsten und unerfahrensten Mitarbeiter mit der Verifikation betraut. Ihnen fehlt dann aber meistens die journalistische Routine, urn den Verifikationsstatus realistisch einschatzen zu konnen.

Menschen halten manche Inhalte fur wichtig und wunschen, dass gewisse Inhalte wahr waren. Dadurch konnen Geruchte verbreitet werden. Uberschriften sind das, was in den Sozialen Netzwerken schnell weiterverbreitet wird.

Ein weiteres Problem bei der Uberprufung von Nachrichtenmaterial ist, dass Menschen, die unmittelbar Augenzeugen von einem Ereignis geworden sind, damit uberfordert sein konnen, dass ihr Bild Oder Video in den Medien aufgegriffen wird. Au&erdem konnen potenzielle Urheber die Auswirkungen nicht realistisch einschatzen, denn Redaktionen versuchen sich zum Teil uber die Sozialen Netzwerke das zeitliche unbeschrankte Nutzungsrecht in jeglichem Medium einraumen zu lassen.

Manche verwenden Material einfach stillschweigend und ignorieren das Urheberrecht. Dadurch verbreiten sie zum Teil Inhalte Dritter und erwecken den Eindruck, selbst der Urheber zu sein.

Doch ist hochste Sorgfalt bei der Verifikation gefragt. Die Glaubwurdigkeit der Medien insgesamt ist in Gefahr, obwohl in den meisten Fallen nur zehn Minuten Gegenrecherche Oder eine kurze Kontaktaufnahme mit den Quellen reichen wurde (vgl. Stegers 2015: 1).

3. Methodik

Wissenschaftliches Arbeiten lasst sich in theoretische und empirische Forschung unterscheiden. Bei der theoretischen Forschungsmethode wird auf bereits gewonnenes Material zuruckgegriffen. Im Gegensatz dazu muss bei der empirischen Forschung das Material erst generiert werden, beispielsweise durch Umfragen, Tests etc.

Unter der Methodik in der empirischen Forschung versteht man die Vorgehensweise, mit der man Daten erhebt, analysiert und auswertet. Die Wahl der Methodik hangt von dem zu untersuchenden Gegenstand ab. Bei der Anwendung der Verfahren wird zwischen quantitativen und qualitativen Verfahren unterschieden. Beiden Verfahren liegen unterschiedliche theoretische Konzepte und damit unterschiedliche methodologische Vorstellungen zu Grunde (vgl. Baldschus, Manfred 2013: 1).

Quantitative Sozialforschung [...] [ist] eine Sammelbezeichnung fur Methodologie, Designs und Verfahren der empirischen Sozialforschung, die auf die standardisierte Erhebung und statistische Analyse nummerischer Daten zielen." (Diaz-Bone, Rainer/Weischer, Christoph 2015: 331). Dabei sind die Erhebungsoperationen moglichst gleich. Das bedeutet, die Rahmenbedingungen der Erhebung der Daten sind gleich und die Daten somit miteinander vergleichbar. Dadurch wird erst eine statistische Analyse moglich. Durch quantitative Sozialforschung lassen sich kontrollierte Schlusse auf die interessierte Grundgesamtheit schlie&en (vgl. Diaz­Bone, Rainer/Weischer, Christoph 2015: 331).

Qualitative Sozialforschung [...] [ist] eine Sammelbezeichnung fur Methodologie, Designs und Verfahren der empirischen Sozialforschung, die auf die Erhebung und Analyse von Daten zielen und die versuchen, uber die spezifische Qualitat von sozialen Phanomenen Oder von Fallen bzw. Typen Auskunft zu geben.“ (Diaz-Bone, Rainer/Weischer, Christoph 2015: 329).

Qualitative Sozialforschung ist dem zu untersuchenden Phanomen gegenuber offener und naher. Das Forschungsfeld wird nicht standardisiert, beispielsweise durch gro&e Datenmengen. Somit erlaubt die qualitative Sozialforschung eine genaue und dichte Beschreibung (vgl. Flick, Uwe/von Kardorff, Ernst/Steinke, Ines 2000: 17).

3.1 Auswahl der angewandten Methodik

Ziel dieser empirischen Forschungsarbeit ist es, die Funktionen der Programme, die fur eine Verifikation verwendet werden, kritisch zu durchleuchten, urn zum einen die derzeitigen Moglichkeiten der Verifizierung zu uberprufen und zum anderen mogliche Fehlerquellen bei den Tools Oder innerhalb der Redaktionsstrukturen aufzudecken.

Qualitative Interviews sind flexibel und passen sich im Einzelfall dem Verlauf an. ..Qualitative Forschung ist immer dort zu empfehlen, wo es urn die Erschlie&ung eines bislang wenig erforschten Wirklichkeitsbereichs [...] geht.“ (Flick, Uwe/von Kardorff, Ernst/Steinke, Ines 2000: 25).

Methodik Experteninterviews Da die Befragung von Fachleuten bzw. Experten zu einer der informativsten Interviewformen gehort, wurde das Experteninterview als eine geeignete Methode fur diese Arbeit angesehen und gewahlt.

Der Interviewpartner sollte hierbei in Sachen Kompetenz unstrittig sein. Als Beleg hierfur gelten die in dieser Arbeit befragten Experten, deren Erfolg und berufliche Erfahrung bzw. der Erfolg in diesem Berufsfeld. Die fur diese Arbeit ausgewahlten Gesprachspartner erfullen diese Kriterien und sind damit als Experten in diesem Gebiet anerkannt und geeignet fur diese Art von Interview (vgl. Haller 2013: 179).

3.2 Aspekte und Ansatze der qualitativen Forschung

Qualitative Forschung hat den Anspruch, Lebenswelten “von innen heraus" aus der Sicht der handelnden Menschen zu beschreiben." (Flick, Uwe/von Kardorff, Ernst/Steinke, Ines 2000: 14). Das dient einem besseren Verstandnis der sozialen Wirklichkeit. Qualitative Forschung ist dem zu untersuchenden Phanomen gegenuber offener, da das Forschungsfeld nicht, beispielsweise durch gro&e Zahlen, standardisiert wird. „Vielmehr nutzt sie das Fremde Oder von der Norm Abweichende und das Unerwartete als Erkenntnisquelle und Spiegel, der in seiner Reflexion das Unbekannte im Bekannten und Bekanntes im Unbekannten als Differenz wahrnehmbar macht und damit erweiterte Moglichkeiten von (Selbst- )Erkenntnis eroffnet." (Flick, Uwe/von Kardorff, Ernst/Steinke, Ines 2000: 14). Au&erungen konnen somit nur noch kontextbezogen verstanden werden.

ln ihrer Zielsetzung [ist] die qualitative Forschung immer noch eine [zu] entdeckende Wissenschaft" (Flick, Uwe/von Kardorff, Ernst/Steinke, Ines 2000: 24). Sie verfolgt unterschiedliche methodische Ansatze. ,,Fur fast jedes Verfahren lasst sich zuruckverfolgen, fur welchen besonderen Forschungsstand es entwickelt wurde.“ (Flick, Uwe/von Kardorff, Ernst/Steinke, Ines 2000: 22).

Qualitative Forschung bietet eine starke Orientierung am Alltagsgeschehen und am Alltagswissen der Untersuchten. Die Erhebungs-, Analyse- und Interpretations- verfahren sind eng an den Kontext gebunden. Da die Daten in ihrem naturlichen Kontext erworben werden, kann das zu untersuchende Objekt aus unter- schiedlichen Perspektiven betrachtet werden. Dadurch lasst sich erst ein Verstandnis der komplexen Zusammenhange erzielen. Fragen werden offen formuliert (Prinzip der Offenheit). Anschlie&end werden (Einzel-)Falle analysiert und rekonstruiert. Schlie&lich werden die Faile miteinanderverglichen, verallgemeinert, zusammengefasst Oder einander gegenubergestellt. In der Textwissenschaft werden die Interviews in Texte umgeschrieben (Transkription) (vgl. Flick, Uwe/von Kardorff, Ernst/Steinke, Ines 2000: 20-24).

Die Gutekriterien qualitativer Forschung sind Grundpositionen zur Bewertung qualitativer Forschung. Dabei lassen sich drei Positionen ausmachen:

1) Quantitative Kriterien fur qualitative Forschung (zentrale Kriterien sind Objektivitat, Reliabilitat und Validitat). So besteht die Auffassung von Einheits- kriterien.
2) Eigene Kriterien qualitativer Forschung

- Kommunikative Validierung
- Triangulation
- Validierung der Interviewsituation
- Authentizitat (Sorgfalt des Forschungsprozesses)

3) Postmoderne Ablehnung von Kriterien

Ausgangspunkt fur die Formulierung von Kernkriterien ist, dass die qualitative Forschung ohne Bewertungskriterien nicht bestehen kann, da ihrsonst Beliebigkeit bzw. Willkur unterstellt werden konnen. Der Wert und die Qualitat der Arbeit wird in Frage gestellt. Quantitative Kriterien sind nicht fur die Bewertung von qualitativer Forschung geeignet und deshalb mussen eigene Kriterien entwickelt werden (Kennzeichen, Ziele).

Die Gutekriterien qualitativer Forschung umfassen unter anderem eine Dokumentation des Forschungsprozesses, sodass dieser Schritt fur Schritt nach- vollziehbarist. Dazu gehoren:

- Zuverlassigkeit
- Gultigkeit
- Ubertragbarkeit
- Werturteilsfreiheit

Eine qualitative Forschungsarbeit hat ihre Gultigkeit, wie auch quantitative Forschung. Durch die Nahe zum untersuchten Gegenstand erweist sie ihre Zuverlassigkeit und Gultigkeit. Die klar strukturierte Dokumentation der Forschungs­arbeit gewahrleistet zusatzlich die Zuverlassigkeit, denn alle Entscheidungen des Forschers sind zu erklaren und zu begrunden. Somit ist der gesamte Forschungsprozess offengelegt und kann zum einen durch Selbstreflexion Oder auch durch Interpretationen aus Gruppen uberpruftwerden.

Durch die nachtragliche Reflexion der Erhebungsbedingungen der Forschungs­arbeit kann die Gultigkeit und auch die Ubertragbarkeit der Studie uberpruft werden.

Bei Einhaltung dieser Kriterien erfullt die qualitative Forschung alle Kriterien, urn den Forschungsprozess offenlegen zu konnen, sodass diese Methode ihre wissenschaftliche Gultigkeit bestatigt (vgl. Meyen, Michael u.a 2011: 47-49).

3.3 Leitfadeninterviews als Experteninterviews

Das Leitfadeninterview mit Experten als sozialwissenschaftliche Erhebungs- methode ist ein nichtstandardisiertes Interview. Dabei erstellt der Interviewer eine vorbereitete Liste an offenen Fragen, den sogenannten Leitfaden. Dieser gilt als Grundlage des Gesprachs. Ein Leitfadeninterview ist geeignet, wenn der zu untersuchende Gegenstand durch unterschiedliche Themen differenziert werden kann Oder einzelne, genau bestimmbare Informationen erhoben werden mussen. Leitfadeninterviews sollen zur Rekonstruktion eines sozialen Prozesses beitragen (vgl. Glaser, Jochen/Laudel, Grit 2010: 111).

Rein au&erlich betrachtet ahnelt das Leitfadeninterview einem naturlichen Gesprach. Im Alltag gibt es immer wieder Situationen, in denen ein Gesprachspartner den anderen befragt. Leitfadeninterviews unterscheiden sich trotzdem von anderen Kommunikationsprozessen, und zwar durch kulturell festgelegte Kommunikationsregeln und Konventionen. Der Befragte kann die Antwort auf eine bestimmte Frage verweigern, ohne Konsequenzen tragen zu mussen. Bei einem Interview gibt es eine feste Rollenverteilung.

Diese wird von beiden Gesprachspartnern anerkannt. Der Fragende fuhrt den Dialog, somit wird der Gesprachsfluss auf ein bestimmtes Informationsziel ausgerichtet.

Die Rolle des Interviewers ist es, das Gesprach zu steuern. Er Oder sie sollte mit den Fragen dafursorgen, dass der Interviewpartner die gewunschten Informationen liefert. Der Oder die Interviewte folgt den Signalen und Aufforderungen des Interviewers (vgl. Glaser, Jochen/Laudel, Grit 2010: 111f.).

Ein zentrales Problem des Interviews liegt in der Differenz der Kontexte beider Gesprachspartner. Das Erkenntnisinteresse des Interviewers entsteht aus einem wissenschaftlichen Zusammenhang heraus. Das bedeutet, aus Sicht des Interviewers fehlt ihm Wissen, und dieses soil erforscht werden. Die Lebenswelt des Interviewpartners ist vollig anders. Die Person verfugt uber anderes Wissen, andere Beobachtungen und handelt anders. Daraus folgt, dass der Oder die Befragte dem zu untersuchenden Gegenstand eine andere Bedeutung beilegt. Zusatzlich kann eine andere (Fach-)Sprache gesprochen werden. Damit der Interviewer sein Informationsziel erreicht, muss er sein Erkenntnisinteresse in Fragen ubersetzen, die dem kulturellen Kontext des Gesprachspartners angemessen sind (vgl. Glaser, Jochen/Laudel, Grit 2010: 112).

Die Konkretisierung theoretischer Begriffe und Hypothesen durch Angabe beobachtbarer und messbarer Ereignisse wird auch Operationalisierung genannt. Diese beginnt schon beim Formulieren von Leitfragen. Der Interviewer muss wahrend des Interviews eine permanente spontane Operationalisierung leisten (vgl. Glaser, Jochen/Laudel, Grit 2010: 112). Es mussen situationsgebundene allgemeinere Forschungsfragen in konkret bezogene Interviewfragen gesetzt werden und umgekehrt mussen die von den Interviewten eingebrachten Informationen laufend unter dem Gesichtspunkt ihrer moglichen theoretischen Bedeutung beurteilt werden - bewertet insofern, als der Interviewer unter dem andauernden Druck steht zu entscheiden, ob, an welcher Stelle und in welcher Form erAnknupfungspunkte fur ein Weitertragen aufgreift.”' (Glaser/Laudel 2010: 112).

Leitfadeninterviews werden unter einer gesteuerten Spontanitat gefuhrt. Das Interview soil einer naturlichen Gesprachssituation nahekommen und spontanes Kommunikationsverhalten des Befragten begunstigen. Dennoch wird das Interview auch durch das gezielte Informationsinteresse des Forschers beeinflusst. Dabei wird die Operationalisierung haufig unterschatzt, sodass die Forschungsfrage an das Untersuchungsobjekt nicht “ubersetzt" wird (vgl. Glaser/Laudel 2010: 112f.). „Zudem tauchen die Fachbegriffe der Sozialwissenschaften haufig auch in der Alltagssprache auf, weshalb das Weiterreichen der Untersuchungsfrage nicht einmal zu spurbaren Verstandigungsproblemen fuhren muss." (Glaser/Laudel 2010: 113). Die Moglichkeiten einer wissenschaftlichen Analyse konnen dadurch beschrankt werden. Man erhalt keine Informationen mehr, urn einen sozialen Prozess zu rekonstruieren. Unzureichende Operationalisierung ist nicht immer zu erkennen. Falsch Oder schlecht formulierte Fragen konnen in dem Zusammenhang “funktionieren" (vgl. Glaser/Laudel 2010: 113).

Im nachsten Abschnitt geht es urn die Realisierung der methodologischen Prinzipien im Leitfadeninterview. Theoretische Voruberlegungen werden in das Informationsbedurfnis und Fragen des Leitfadens ubersetzt. Fragen sollen so formuliert werden, dass der Befragte seinem Wissen und seinem Interesse entsprechend antworten kann.

Leitfadeninterviews mussen ein hinreichend weites Spektrum an Problemen ansprechen. Der Interviewte sollte die Moglichkeit haben, in nicht antizipierter Weise zu reagieren. Der zu untersuchende Prozess soil aus verschiedenen Perspektiven betrachtet werden. Dabei soil der Interviewer Erzahlanregungen bieten. Themen und Fragen sollten in spezifischer Form behandelt werden. Der Interviewleitfaden muss das Erkenntnisinteresse in den Erfahrungshintergrund des Befragten ubersetzen. Au&erdem soil der personliche und soziale Kontext des Befragten in ausreichendem Umfang erfasst werden.

Einschrankungen von Leitfadeninterviews liegen in der Quantifizierung und der Sequenzanalyse. Deshalb sind Leitfadeninterviews fur rekonstruierende Unter- suchungen das am besten geeignete Instrument (vgl. Glaser/Laudel 2010: 115f.).

3.3.1 Auswahl der Interviewpartner

Die Auswahl der Interviewpartner entscheidet uber die Art und die Qualitat der im Interview erhaltenen Informationen. Au&erdem beeinflusst sie die weitere Vor- bereitung auf die eigentlichen Interviews und deren Auswertung. So ist es sinnvoll, fur jeden Expertentyp einen eigenen Interviewleitfaden zu entwickeln (vgl. Glaser, Jochen/Laudel, Grit 2010: 117).

Der Experte sollte uber die notwendigen Informationen verfugen. ,,Fur den Mediennutzer muss klar sein, worin Kompetenzen und Grenzen eines Fachmanns liegen." (Wormer, Holger 2010: 1). Es werden meist mehrere Akteure befragt, da jeder Experte sein spezifisches Fachgebiet hat. Somit erhalt der Forscher immer jeweils andere Informationen. Jeder Interviewpartner berichtet aus seiner personlichen Perspektive. Der personliche Einfluss muss beurteilt werden. Deshalb ist es ratsam, Informationen zu einem Sachverhalt von mehreren Personen einzuholen (vgl. Glaser, Jochen/Laudel, Grit 2010: 117).

Die Zahl der Interviewteilnehmer sollte nicht auf ein theoretisches Minimum beschrankt werden. Die Erreichbarkeit und Bereitschaft von Interviewteilnehmern hangt teilweise von deren Arbeitsbelastung ab. Der Weg des “geringsten Wider- standes" - beispielsweise Freunde und Familienmitglieder zu rekrutieren - wird nicht empfohlen. Je leichter der Zugang zu einem Interview, desto schwieriger gestaltet sich das Interview, da sich die Interviewsituation verandert. Der Interviewer wird anders fragen und nicht immer nachfragen. Der Interviewte wird anders interpretieren und antworten. Personliche Beziehungen sollen nicht belastet werden, daher werden Antworten verfalscht. Das fuhrt zu einem erheblichen Informationsverlust. Zwischen Interviewer und Interviewtem ist eine Distanz notwendig, damit nichts fur selbstverstandlich genommen wird und gegebenenfalls auch weiter nachgefragt wird.

Die Anzahl der Interviewpartner hangt von der verfugbaren Zeit ab. Es macht keinen Sinn Interviews zu fuhren, die man aus Zeitgrunden nicht auswerten kann. Zusatzlich kann es sein, dass man wahrend der Interviews auf weitere Experten verwiesen wird (vgl. Glaser, Jochen/Laudel, Grit 2010: 118-120).

3.3.2 Erstellung des Interviewleitfadens

Die Art und Weise, wie eine Frage gestellt wird, hat gro&en Einfluss auf die erhaltene Antwort. Ein Interview unterscheidet sich grundsatzlich von einem Gesprach im Alltag. In der Alltagskommunikation sind die Reaktionen auf Fragen relativ frei, unabhangig davon, wie gefragt wird. Der Kontext und Kenntnisse uber die andere Person lassen einen verstehen, was gemeint ist. Au&erdem weift man, welche Erwartungen man als Fragender durchbrechen darf.

In einer Interviewsituation herrscht Fremdheit, begrenzte Zeit und es gibt feste Rollenfestlegungen. Der Interviewer will in kurzerZeit etwas herausbekommen und der Interviewte will ihm dabei helfen. Der Interviewte ist die Informationsquelle und achtet genau auf die Frage. Er versucht, das Informationsinteresse des Wissen- schaftlers zu entschlusseln.

Die Interviewfragen sollten sorgfaltig uberlegt sein. Im Einzelfall konnen aber auch spontan Fragen aus dem Gesprachsverlauf heraus gestellt werden. Nach Patton sollten Fragen offen, neutral, einfach und klar formuliert sein (vgl. Glaser, Jochen/Laudel, Grit 2010: 120-122).

Fragen konnen nach Inhalt und Funktion unterteilt werden. Faktfragen uberprufen nachprufbare Tatsachen. Meinungsfragen zeigen Einstellungen des Interviewten und dessen Bewertungen auf.

Bei der qualitativen Inhaltsanalyse werden uberwiegend Faktfragen verwendet, da Wissen des Interviewpartners erhoben werden soil. Das sind Fragen nach der Erfahrung, fruhere Beobachtungen und auch nach Handlungen. Diese lassen sich wiederum noch einmal in Wissensfragen, die das akkumulierte Wissen des Interviewpartners wiedergeben, Hintergrundfragen bzw. demographische Fragen, unterscheiden. Die Antworten sind kaum uberprufbar. Sie geben viel mehr von der eigenen Personlichkeit des Interviewten wieder (vgl. Glaser, Jochen/ Laudel, Grit 2010: 122-124).

Fragen lassen sich auch nach dem Gegenstand der Frage kategorisieren. Fakt- und Meinungsfragen beziehen sich immer auf reale Oder einen angenommenen Gegen­stand. Hypothetische Fragen beziehen sich auf einen angenommenen Sachverhalt.

Eine subjektive Stellungnahme wird verlangt. Die Leistung ist beschrankt, da sich die Hypothese weder auf eine erlebte Realitat noch eine Einstellung bezieht (vgl. Glaser, Jochen/Laudel, Grit 2010: 124). „Selbst, wenn der Interviewpartner hypothetische Fragen nach bestem Gewissen beantwortet, lassen seine Antworten kaum Schlusse auf das Verhalten in realen Situationen zu. Man kann vollig davon uberzeugt sein, dass man in einer bestimmten Situation auf eine bestimmte Weise reagieren wurde, und trotzdem anders reagiert, wenn die Situation tatsachlich eintritt." (Glaser/Laudel 2010: 124f.).

Fragen lassen sich auch nach der angestrebten Form der Antwort einordnen. So sollen Erzahlanregungen langere Beschreibungen Oder Erklarungen auslosen. Das kann durch die Simulation einer Beobachtungssituation Oder durch eine indirekte Provokation, beispielsweise durch Zitation Dritter, erfolgen. Das fuhrt dann zu einem Erklarungs- und Rechtfertigungsdruck. Dennoch sollte man vorsichtig sein, da man nicht weift, wie der Befragte die Frage auffasst. Detailfragen sollten im Gegensatz dazu zu kurzen Antworten fuhren (vgl. Glaser, Jochen/Laudel, Grit 2010: 125-127).

Interviewfragen lassen sich nach der Steuerungsfunktion im Interview sortieren. Inwieweit wird der Verlauf des Gesprachs gesteuert? Einleitungsfragen behandeln ein neues Thema und dienen der Uberleitung von einem zum nachsten Thema. Filterfragen entscheiden uber relevante Fragen fur das Interview. Die Hauptfragen bilden das Gerust des Interviews. Hierbei werden komplexe und umfassende Antworten vom Interviewten erwartet. Nachfragen dient der Vervollstandigung der Hauptfragen. Die Erzahlung soil fortgesetzt werden und dem Interviewer erganzende Informationen liefern (vgl. Glaser, Jochen/Laudel, Grit 2010:127-129).

Die Offenheit von Fragen ist ein zentrales Problem des Leitfadeninterviews. Das Prinzip der Offenheit besagt, dass die Fragen nicht den Inhalt der Antwort beeinflussen sollen. Die Offenheit steht allerdings im Gegensatz zur begrenzten Interviewzeit. Der Interviewpartner kann au&erdem verunsichert werden, wenn Fragen zu unbestimmt formuliert sind (vgl. Glaser, Jochen/Laudel, Grit 2010: 131— 135).

[...]

Ende der Leseprobe aus 110 Seiten

Details

Titel
Qualitätsjournalismus im digitalen Zeitalter. Verifizierungsmethoden von Nachrichtenmaterial aus Sozialen Netzwerken am Beispiel Twitter und YouTube
Hochschule
( Middlesex University in London )
Note
1,7
Autor
Jahr
2016
Seiten
110
Katalognummer
V588034
ISBN (eBook)
9783346165190
ISBN (Buch)
9783346165206
Sprache
Deutsch
Schlagworte
Verifizierung von Nachrichtenmaterial, Twitter, Youtube, Verifizierung, Nachrichten
Arbeit zitieren
Philipp Huber (Autor), 2016, Qualitätsjournalismus im digitalen Zeitalter. Verifizierungsmethoden von Nachrichtenmaterial aus Sozialen Netzwerken am Beispiel Twitter und YouTube, München, GRIN Verlag, https://www.grin.com/document/588034

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Qualitätsjournalismus im digitalen Zeitalter. Verifizierungsmethoden von Nachrichtenmaterial aus Sozialen Netzwerken am Beispiel Twitter und YouTube



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden