Social Bots im Wahlkampf. Über den Einfluss von Computerprogrammen auf die Meinungsfreiheit


Seminararbeit, 2018

19 Seiten, Note: 1,0


Leseprobe

Inhaltsverzeichnis

Inhaltsverzeichnis

I. Einleitung

II. Das Phänomen der Social Bots
1. Einführung in den Untersuchungsgegenstand
2. Soziale Medien als Nährboden für den Aufstieg der Macht der Social Bots
3. Arten, Funktionsweise und Zielsetzungen

III. Verfassungsrechtliche Einordnung: Social Bots und Meinungsfreiheit
1. Einsatzmodalität der Social Bots: Identitätstäuschung und Anonymität
2. Inhaltlicher Maßstab: Qualität der Äußerung und unwahre Tatsachenbehauptungen

IV. Social Bots als (un)zulässige Werkzeuge im Wahlkampf
1. Die Relevanz aktueller Entwicklungen und Fallbeispiele
2. Der Wahlrechtsgrundsatz der freien Wahl
3. Fairer Wettbewerb im Wahlkampf

V. Kritische Würdigung und Ausblick

Literaturverzeichnis

I. Einleitung

Die Konjunkturen medialer Effektvermutungen des 20. Jahrhunderts veranschaulichen aus der Retrospektive klar und deutlich, dass die Frage nach der Größe des Einflusses von Medien auf ein breites Massenpublikum nicht leicht zu beantworten ist. Solchen Informationsströmen, die heutzutage via Social Media verbreitet werden, wird indes eine starke Wirkung auf die öffent­liche Meinung zugesprochen.[1] Dies lässt sich insbesondere an dem Beispiel einer äußerst brisant diskutierten Entwicklung der jüngsten Vergangenheit erklären: Der Einsatz sogenannter Social Bots, welcher vor allem im Zusammenhang mit politischen Kulminationspunkten in Sozialen Netzwerken wie Facebook und Twitter seine manipulative und desinformative Wirkung entfaltet, stellt einigen Experten zufolge eine regelrechte Bedrohung für die Demokratie dar.[2] Social Bots sind Roboter, die in Sozialen Netzwerkdiensten in Form von automatisierten Skrip­ten agieren. Sie verhalten sich so, als seien sie reale Menschen und täuschen dabei über ihre Identität. Ihr massenweiser Einsatz etwa im US-Präsidentschaftswahlkampf zwischen Trump und Clinton sowie in der Brexit-Kampagne illustrierte, wie politische Ent­scheidungsprozesse, die durch knappe Mehrheiten geprägt sind, im Zuge des massiven Ein­griffs in den Meinungsbildungsprozess beeinflusst werden können. Bots versuchen mithilfe der Ver­breitung vollautomatisierter Äußerungen ein vorherrschendes Stimmungsbild zu suggerieren. Ihr vielfaltsverengender Einfluss wird ergänzt durch das ihnen innewohnende Potenzial, erwiesen unwahre Informationen, sogenannte „Fake News“, schnell streuen zu können. Die wissenschaftlichen Diskussionen um Social Bots betonen vor allem zwei juristische Prob­lemstellungen, die es auch im Kontext dieser Arbeit zu erörtern gilt: Erstens stellt sich die Frage nach der grundrechtlichen Schutzwürdigkeit von Äußerungen durch Social Bots. Zweitens ist es angesichts der empirischen Relevanz von herausragender Bedeutung, den Einsatz von Social Bots vor dem Hintergrund des Wahlrechtsgrundsatzes der freien Wahl zu beleuchten. Die vorliegende Arbeit gibt zunächst einen vielseitigen Überblick über das Phänomen der Social Bots (II.), bevor deren Konnex zur Meinungsfreiheit im Rahmen einer verfassungsrecht­lichen Einordnung diskutiert wird (III.). Im Anschluss daran wird die Frage nach der Zulässig­keit des Einsatzes von Bots im Wahlkampf erörtert (IV.). Eine kritische Würdigung, bestehend aus einer Diskussion über die von den Sozialen Robotern ausgehende Bedrohung für die De­mokratie und Fragen um ein daraus erwachsendes Regulierungserfordernis, formt den Schluss.

II. Das Phänomen der Social Bots

1. Einführung in den Untersuchungsgegenstand

Social Bots sind Computerprogramme, die überwiegend in sozialen Netzwerken teilautonom agieren. Sie schreiben eigene Posts, teilen die Inhalte Dritter, sie „liken“, „tweeten“ und „retweeten“.[3] Social Bots täuschen eine menschliche Identität vor und werden zu manipulativen[4] Zwecken eingesetzt, indem sie auf Twitter, Facebook und Co. wie echte Menschen kommunizieren.[5] In der Interaktion erkennen reale Nutzer oftmals nicht, dass es sich um eine algorithmus-basierte, häufig vollautomatisierte Art der Kommunikation handelt. Vielmehr erwecken Bots hinter der Fassade ihrer Nutzerprofile den Eindruck, es handle sich um natürliche Personen. Der den Social Bots innewohnende bewusst irreführende Charakter konfligiert zwar mit den moralisch-ethischen Gepflogenheiten des politisch-demokratischen Diskurses. Und doch sind die sogenannten Meinungsroboter geradezu dafür prädestiniert, die öffentliche Meinung – vor allem in Zeiten des Wahlkampfes – zu beeinflussen.[6] Die technischen Anforderungen an die Entwicklung der Meinungsroboter sind nicht sehr hoch. Zudem sind ihrer Verbreitung theoretisch keine Grenzen gesetzt, da sie sich beliebig verviel­fältigen lassen. Praktisch gibt es jedoch drei Voraussetzungen, die für die Erstellung der Social Bots notwendig sind: In einem ersten Schritt bedarf es vieler gefälschter Nutzer­profile, die in den entsprechenden sozialen Netzwerkdiensten bereits registriert sind. Solche falschen Accounts lassen sich auf Schwarzmärkten für geringe Geldsummen erwerben.[7] Sie dienen dem Bot sozusagen als „Körper“[8]. Auf den ersten Blick wird somit der Anschein eines echten Nutzerprofils erweckt. „Das tatsächliche Hirn des Social-Media-Profils ist der Bot.“[9] Um den Social Bot über die Plattform eines Nutzerprofils steuern zu können, benötigen seine Betreiber in einem zweiten Schritt ein algorithmus-basiertes Programm.[10] Dieses ermöglicht es dem Bot erst, die innerhalb der jeweiligen Sozialen Netzwerkdienste zur Verfügung stehenden Funktionen automatisch zu nutzen.[11] Die dritte und letzte Hürde, die bei der Erstellung von Social Bots überwunden werden muss, ist das Application Programming Interface (API), sprich die Programmierschnittstelle, die ein soziales Netzwerk zur Integration externer Programme bereitstellt. Durch APIs wird u. a. die Datenübergabe zwischen einem sozialen Netzwerk und einer Anwendung vereinheitlicht, damit also auch der Zugang eines Social Bots ermöglicht.[12] ;[13] Wie gut ein Social Bot eine menschliche Identität vortäuschen kann, hängt maßgeblich von seiner technischen Entwicklungsstufe ab. Einfach programmierte Bots sind etwa darauf be­schränkt, bestimmte Schlüsselbegriffe zu erkennen und in Form von vorgefertigten Kommentaren darauf zu reagieren.[14] Komplexere Bots sind bereits dazu in der Lage, mit echten Nutzern Dialoge zu führen, Sprachmuster zu adaptieren und eigenständig neue Inhalte zu generieren.[15] Die aktuellen Fortschritte auf dem Gebiet der Künstlichen Intelligenz lassen jedenfalls vermuten, dass die Meinungsroboter ihre analytischen und kommunikativen Fähig­keiten in Zukunft weiter verbessern werden.

2. Soziale Medien als Nährboden für den Aufstieg der Macht der Social Bots

Die kommunikativen Mechanismen, die sich Social Bots beziehungsweise ihre Programmierer zu Hilfe nehmen, sind nicht neu. Schon im alten Rom wussten Octavian und Marcus Antonius um die rhetorische Wirkkraft und versuchten einander durch das Verbreiten von Unwahrheiten und Lügengeschichten zu diskreditieren. Außerdem galt vor der Erfindung des Buchdrucks das geschriebene Wort als wahr; denn schließlich befanden sich aus finanziellen oder aus Gründen der Fähigkeit zunächst nur wenige berühmte Persönlichkeiten dazu in der Lage, ihr kostbares Wissen zu Papier bringen zu können und dieses mithin für eine Vielzahl anderer Menschen zugänglich zu machen. Der Wahrheitsgehalt des schriftlich Verfassten wurde als eine Konsequenz nur selten angezweifelt. Heute weiß man aber rückblickend – wenig überraschend –, dass Fake News nicht nur in das gesprochene, sondern ebenfalls in das geschriebene Wort Einzug gefunden haben. Seit jeher wird versucht, die öffentliche Meinung in gewisse Richtungen zu lenken beziehungsweise zu manipulieren. Nichtsdestotrotz wäre es falsch, zu behaupten, Social Bots seien ein lang bekanntes oder gar ein gut erforschtes Phänomen. Noch bis vor elf Jahren wurde die mediale Arena politischer Kommunikation von der klassischen Presse- und Öffentlichkeitsarbeit dominiert. Die „Torwächter der Nachrichtenwelt“ waren demnach Printmedien, Radio und Fernsehen, die sich bislang hauptsächlich mit der realen Bürgerwelt als Hauptzielgruppen beschäftigt haben.[16] Nun ist aber eine gänzlich neue, sehr mächtige Öffentlichkeit entstanden, nämlich die des virtuellen Netzbürgers via Social Media.[17] Im Zuge der Entstehung dieser neuen Öffentlichkeit sind die klassischen Grenzen zwischen Medienmachern und Mediennutzern aufgeweicht. An die Stelle des herkömmlichen Bildes, be­stehend aus wenigen Produzenten und einer Vielzahl passiver Konsumenten, tritt durch Soziale Medien eine aus Internetnutzern zusammengesetzte Öffentlichkeit, die mit einem Mausklick binnen Sekunden selbst publizitätsmäßig werden kann. Im heutigen Social-Media-Zeitalter entsteht schließlich eine völlig neue Dynamik durch die Möglichkeit zur Bewertung und Weiterleitung. Social-Media-Nutzer werden dadurch nicht nur zum Produzenten ihrer eigenen Inhalte, sondern können mithilfe der Kommentar-, Like- und Teilen-Funktionen darüber hinaus auch auf die Inhalte Anderer reagieren.[18] Ebendiese Dynamik machen sich Social Bots zunutze. Heute steht die Möglichkeit der Be­einflussung der öffentlichen Meinung jedem zur Verfügung[19] – auch Social Bots. Dass hinter der Verbreitung falscher Informationen und Meinungsmache jedoch nicht mehr unbedingt ein Mensch stehen muss, verleiht den Entwicklungen im heutigen Social-Media-Zeitalter in Bezug auf die öffentliche Meinungsbildung eine völlig neue Qualität.

3. Arten, Funktionsweise und Zielsetzungen

Bislang kamen Social Bots vorrangig bei Wahlkampf- und Protestereignissen zum Einsatz. Damit regelmäßig einher ging der Versuch, politische Einstellungen zu beeinflussen.

Im Wesentlichen lassen sich drei Arten von Bots nennen, die jeweils unterschiedliche Ziele verfolgen und damit unterschiedliche Wirkungsmechanismen entfalten. Die folgende Klassi­fikation ist jedoch nicht dahingehend zu verstehen, dass sich die Aspekte der Art, Funktions­weise und Zielsetzung eines Social Bots trennscharf voneinander abgrenzen lassen.[20] Vielmehr geht es im Folgenden darum, die in der Praxis vorherrschenden Bot-Typen im Rahmen einer ganzheitlichen Betrachtung verschiedenen Mustern zuzuordnen, um so die Grundlage für ein besseres Verständnis über die Motive des Einsatzes von Social Bots zu schaffen. Die erste Gruppierung von Social Bots verfolgt das Ziel, hohe Likezahlen auf Facebook bezie­hungsweise hohe Followerzahlen auf Twitter für die auf den Social-Media-Plattformen auftre­tenden Akteure zu generieren.[21] Durch den massenweisen Erwerb gefälschter Nutzerprofile kann so künstlich eine große Reichweite erzielt und mithin der Anschein eines hohen Beliebtheitsgrades sowie einer beträchtlichen Relevanz erweckt werden. Das nach außen getragene Bild eines Politikers oder einer Partei wird mit einem solchen Einsatz von Social Bots merklich geschönt und wirkt schließlich auch für potenzielle Neu-Anhänger attraktiver. Als diesbezüg­lich nennenswerte Beispiele lassen sich etwa Donald Trump und Katrin Göring-Eckardt nen­nen: Der Twitter-Account des US-Amerikanischen Präsidenten wird mit ungefährt 15 Millionen gekauften Followern gefüttert; das Twitter-Profil der Grünen-Fraktionschefin besteht zu 58 Prozent aus Fake-Followern.[22] Eine zweite Art von Social Bots zielt maßgeblich darauf ab, oppositionelle Meinungen zurück­zudrängen. Der dem Bot zugrundeliegende Algorithmus steuert anhand von abstrakten Kriterien, welche bestimmten Stichwörter der Bot erkennen und mit welchen gegen­argumentativen Kommentaren oder Hashtags er auf diese automatisch reagieren soll. „Ein Bot kann vor allem so „trainiert“ werden, dass er auf bestimmte Aussagen treffende Konter anhand einprogram­mierter Formulierungsmuster äußert, z. B. auf die Aussage „Putin ist ein Diktator“ entgegnet der Bot: „Ich glaube nicht, dass …“[23] Darüber hinaus und besonders relevant bei dieser Art der Social Bots ist die Möglichkeit, den politischen Diskurs in den Sozialen Medien faktisch zu unterbinden, indem desinformativ mit „ablenkenden, polarisierenden oder banalen Nachrich­ten“[24] auf bestimmte Schlüsselwörter reagiert wird. In diesem Zusammenhang erregten insbesondere sogenannte Trollfabriken eine hohe Aufmerksamkeit: Auf Facebook-Seiten, etwa von der CDU, luden sie hunderttausende kyrillische Schriftzeichen ab.[25] Mit derart destruktiven Me­thoden wird vor allem die Kernidee der deliberativen Demokratie negativ tangiert oder gar zunichte gemacht. Der argumentative Austausch des Für und Wider zum Zwecke der gemeinsamen Lösungsfindung kann nicht stattfinden, wenn die Flut von Desinformation über­handnimmt. Spätestens seit dem Hashtag #Trumptown nach den Fernsehduellen von Donald Trump und Hillary Clinton sowie den Brexit-Debatten und dem Ukraine-Konflikt ist eine weitere Absicht von Social Bots unverkennbar: Als Werkzeuge der Propaganda[26] greifen Bots aktiv und zielge­richtet in den Meinungsbildungsprozess ein.[27] Zur Verbreitung der Meinungsmache nehmen sie sich in den Sozialen Medien vor allem den Mechanismus der Reichweite zu Hilfe. Mit dem Aufbau großer Bot-Netze kann der kommentierende Programmierer durch das tausendfach wiederholte Einspeisen einer immer gleich gefärbten Botschaft den Anschein erwecken, es gäbe ein dominierendes Stimmungsbild zu einem Thema.[28] Dies kann sogar dazu führen, dass ein­zelne Kommentare zu Trending Topics erwachsen und sich quasi über Nacht zum Topthema entwickeln.[29] Derartige Topthemen werden schließlich nicht selten zu sogenannten viralen Themen, da die algorithmus-basierten Timelines von Facebook und Twitter ihren Nutzern vor allem beliebte Sujets vorschlagen. Besonders dann, wenn Dritte, wie Journalisten oder offizielle Stellen, solche Trends aufgreifen und diese ungefiltert in ihre Berichterstattung aufnehmen, folgt die Verbreitung von Propa­ganda mithin nicht selten einem exponentiellen Wachstum. Außerordentlich effektiv ist die Meinungsmache durch Social Bots augenscheinlich bei der Verbreitung „falscher Tatsachen“, so­genannter „Fake News“. Falsche Informationen, denen das Potenzial innewohnt, starke Emoti­onen hervorzurufen und allgemeinhin für Furore zu sorgen, verbreiten sich mittlerweile schnel­ler und weiter als solche, die bereits einer journalistischen Prüfung unterzogen wurden.[30] Der Trend zum Postfaktischen wird demnach allem Anschein zufolge von dem der Social Bots min­destens eng begleitet. Ob indes die Bezeichnung der Meinungsroboter als „Brandbeschleuni­ger“[31] für eine durch Fake News durchtriebene Nachrichtenwelt gerechtfertigt werden kann, bedarf meiner Meinung nach einer validen empirischen Analyse der ereignisspezifischen Face­book- und Twitterdaten. Entlang der Erörterung des Phänomens der Social Bots konnten in einem ersten Schritt bereits zugehörige kommunikative Wirkungsmechanismen erwähnt werden. In diesem Zusammen­hang deutlich wurden dabei einige, von Social Bots ausgehende, Gefahrenpotenziale der Beeinflussung öffentlicher Meinungen. Es erscheint mithin von herausragender Bedeutung zu sein, nach dem Verhältnis zwischen der grundrechtlich verankerten Meinungsfreiheit und dem Einsatz von Social Bots zu fragen: Ist die Kommunikation durch die sogenannten Meinungs­roboter überhaupt vom Schutzbereich der Meinungsäußerungsfreiheit umfasst? Das folgende Kapitel widmet sich dieser spannenden Frage, indem es das Phänomen der Social Bots mit Blick auf die Meinungsfreiheit verfassungsrechtlich einordnet.

III. Verfassungsrechtliche Einordnung: Social Bots und Meinungsfreiheit

Per se ist der Versuch, durch individuelle oder öffentliche Kommunikate Einfluss auf den öffentlichen Diskurs auszuüben, weder verboten noch moralisch verwerflich. Im Gegenteil: Grundrechtsdogmatisch misst das Bundesverfassungsgericht[32] der Meinungsfreiheit eine über­ragend hohe Bedeutung zu: „Es ist Motiv und Zweck der Freiheit der Meinungsäußerung, Einflussnahmen auf den Meinungsbildungsprozess zu ermöglichen.“[33] Dies gilt auch für neuere Formen der Massenkommunikation.[34] Sein Gepräge erhält das Idealbild der deliberativen Demokratie vor allem durch die Anwendung der Kommunikationsfreiheiten nach Art. 5 GG, ohne dabei je zuzulassen, dass der Meinungs­markt von einer staatlichen, wirtschaftlichen oder gesellschaftlichen Kraft derart dominiert wird, dass etwaige Gegenmeinungen kein Gehör mehr finden.[35] Eine Erinnerung an die oben genannten Gefahrenpotenziale von Social Bots, allen voran die Schaffung univalenter Stimmungsbilder, ruft in diesem Zusammenhang schnell die Frage nach der verfassungsrecht­lichen Bewertung des Einsatzes von Meinungsrobotern hervor. Zwar sind Social Bots aufgrund ihres maschinellen Wesens selbst nicht vom Schutzbereich des Art. 5 Abs. 1 Satz 1 umfasst. Wohl sind es aber ihre Programmierer.[36] Dass die Äußerungen und die Verbreitung von Meinungen und Tatsachen nicht in unmittelbarer Form von ihnen selbst stammen, schadet der prinzipiellen Zurechenbarkeit der Kommunikationsinhalte zu die­sen Personen jedenfalls aus der Sicht des sachlichen Schutzbereichs nicht.[37] Dies wird vor allem durch die Überlegung deutlich, dass die Tätigung einer Aussage bereits bei der Programmie­rung eines Algorithmus vorbereitet wird. Zwar wird die Kommunikation zeitlich vorgelagert, jedoch in Form von abstrakten Kriterien bewusst gesteuert. Die „automatisch kreierten Inhalte sind nach den Grundsätzen der automatisierten Willenserklärung demjenigen zuzurechnen, der den Bot einsetzt.“[38] ;[39] Hieraus folgt nun die relevante Frage, ob die als echt suggerierten Pseu­donyme, unter deren Deckmantel anonyme Programmierer die Täuschung der Kommunikati­onsrezipienten beabsichtigen, in Bezug auf die Meinungsfreiheit als schutzwürdig gelten.

[...]


[1] Zum Beispiel Hufen (1970) und Löffler (1966)

[2] So zum Beispiel Fuchs (2016)

[3] Vgl. Dankert/Dreyer (2017), S. 73

[4] Der Begriff „Manipulation“ ist großenteils negativ besetzt, weshalb die zugrundeliegende Definition keinesfalls als neutral zu verstehen ist. Es wird hingegen angenommen, dass mit dem Einsatz von Social Bots überwiegend schlechte Absichten verfolgt werden. (PWC 2017, S. 9)

[5] Vgl. TAB (2017), S. 4

[6] Vgl. Milker (2016), S. 1

[7] Vgl. PwC (2017), S. 10

[8] So Milker (2016), S. 1

[9] Milker (2016), S. 1

[10] Mehr zum technischen Hintergrund der Social Bots in Unterkapitel 3.

[11] Vgl. Milker (2016), S. 1

[12] Vgl. PwC (2017), S. 10

[13] Die Programmierschnittstellen von Twitter sind für Bots besonders leicht zugänglich und kompatibel.

[14] Vgl. Fuchs (2016)

[15] Vgl. TAB (2017), S. 4

[16] So zum Beispiel der Klassiker von Wildenmann/Kaltefleiter (1965)

[17] Vgl. Kese et al. (2015), S. 57

[18] Kese et al. (2015), S. 58

[19] Vgl. PwC (2017), S. 7

[20] In der Literatur ist keine einheitliche Klassifikation zu finden. Währenddessen Jansen (2016) vier Arten von Social Bots unterscheidet, finden sich andernorts lediglich Abgrenzungen hinsichtlich der Zielsetzungen (TAB 2017 und Woolley 2016). Die unten beschriebene Einordnung fußt demnach auf eigenen Überlegungen.

[21] Vgl. Woolley (2016), S. 7

[22] Vgl. Jansen (2016)

[23] Milker (2016), S. 1

[24] TAB (2017), S. 7

[25] Vgl. Jansen (2016)

[26] „Propaganda sollen geplante Versuche heißen, durch Kommunikation die Meinungen, Attitüden, Verhaltensweisen von Zielgruppen unter politischer Zielsetzung zu beeinflussen.“ (Maletzke 1972)

[27] Vgl. Graff (2017)

[28] Vgl. Puscher (2017), S. 28

[29] Vgl. Puscher (2017), S. 29

[30] Vgl. Seiffert (2016)

[31] Vgl. Seiffert (2016) zur Begrifflichkeit

[32] BVerfG, Urteil des Ersten Senats vom 15. Januar 1958, BvR 400/51, BVerfGE 7, 198 - Lüth

[33] Dankert/Dreyer (2017), S. 74.

[34] Vgl. Dankert/Dreyer (2017), S. 74.

[35] Vgl. Dankert/Dreyer (2017), S. 74.

[36] In persönlicher Hinsicht umfasst der Schutzbereich der Meinungsfreiheit zunächst Jedermann; mithin also auch juristische Personen (des öffentlichen Rechts).

[37] Vgl. Dankert/Dreyer (2017), S. 74.

[38] Milker (2016), S. 2

[39] Zu einem vergleichbaren Schluss kam der Bundesgerichtshof in seiner Autocomplete-Entscheidung (BGH, Urt. v. 14.05.2013, Az.: VI ZR 269/12 – Autocomplete).

Ende der Leseprobe aus 19 Seiten

Details

Titel
Social Bots im Wahlkampf. Über den Einfluss von Computerprogrammen auf die Meinungsfreiheit
Hochschule
Deutsche Universität für Verwaltungswissenschaften Speyer (ehem. Deutsche Hochschule für Verwaltungswissenschaften Speyer)
Note
1,0
Autor
Jahr
2018
Seiten
19
Katalognummer
V452188
ISBN (eBook)
9783668866980
ISBN (Buch)
9783668866997
Sprache
Deutsch
Schlagworte
Social Bots, Social Bots im Wahlkampf, Demokratie, Soziale Medien, Recht, Meinungsfreiheit
Arbeit zitieren
Dario Leanza (Autor:in), 2018, Social Bots im Wahlkampf. Über den Einfluss von Computerprogrammen auf die Meinungsfreiheit, München, GRIN Verlag, https://www.grin.com/document/452188

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Social Bots im Wahlkampf. Über den Einfluss von Computerprogrammen auf die Meinungsfreiheit



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden