Caleb Cain zog eine Glock-Pistole aus seinem Hosenbund, holte das Magazin heraus und warf beides beiläufig auf die Küchentheke.
„Ich habe es am Tag nach der Morddrohung gekauft“, sagte er.
Die Drohungen, erklärte Cain, kamen von rechten Trollen als Reaktion auf ein Video, das er einige Tage zuvor auf YouTube gepostet hatte. In dem Video erzählte er, wie er als liberaler Studienabbrecher, der darum kämpfte, seinen Platz in der Welt zu finden, in einen Strudel rechtsextremer Politik auf YouTube hineingezogen wurde.
„Ich bin in den rechtsextremen Kaninchenbau gefallen“, sagte er im Video.
Der 26-jährige Cain hat sich kürzlich, fast fünf Jahre nach seiner Entdeckung, von der Alt-Right abgeschworen und ist zu einem lautstarken Kritiker dieser Bewegung geworden. Er ist von der Erfahrung gezeichnet, dass er durch einen, wie er es nennt, „dezentralen Kult“ rechtsextremer YouTube-Persönlichkeiten radikalisiert wurde, der ihn davon überzeugte, dass die westliche Zivilisation durch muslimische Einwanderer und Kulturmarxisten bedroht sei, dass angeborene IQ-Unterschiede Rassenunterschiede erklärten und so weiter Feminismus war eine gefährliche Ideologie.
„Ich vertiefte mich immer tiefer und es gefiel mir, weil es mir das Gefühl gab, dazuzugehören“, sagte er. „Ich wurde einer Gehirnwäsche unterzogen.“
Im Laufe meiner jahrelangen Berichterstattung über die Internetkultur habe ich unzählige Versionen von Cains Geschichte gehört: Ein zielloser junger Mann – meist weiß, der sich häufig für Videospiele interessiert – besucht YouTube auf der Suche nach Orientierung oder Ablenkung und wird von einer Community rechtsextremer YouTuber verführt .
Manche junge Männer entdecken durch Zufall rechtsextreme Videos, andere suchen danach. Manche gehen bis zum Neonazismus, während andere bei milderen Formen der Bigotterie Halt machen.
Der rote Faden in vielen dieser Geschichten ist YouTube und sein Empfehlungsalgorithmus, die Software, die bestimmt, welche Videos auf den Homepages der Benutzer und in der „Up Next“-Seitenleiste neben einem gerade abgespielten Video erscheinen. Der Algorithmus ist für mehr als 70 % der gesamten auf der Website verbrachten Zeit verantwortlich.
Die Radikalisierung junger Männer wird durch ein komplexes Zusammenspiel emotionaler, wirtschaftlicher und politischer Elemente vorangetrieben, von denen viele nichts mit sozialen Medien zu tun haben. Kritiker und unabhängige Forscher sagen jedoch, dass YouTube unbeabsichtigt einen gefährlichen Einstieg in den Extremismus geschaffen hat, indem es zwei Dinge kombiniert: ein Geschäftsmodell, das provokante Videos mit Bekanntheit und Werbegeldern belohnt, und einen Algorithmus, der Benutzer auf personalisierte Pfade führt, die sie fesseln sollen ihre Bildschirme.
„Auf YouTube gibt es ein Spektrum zwischen dem ruhigen Teil – dem Walter Cronkite, Carl Sagan-Teil – und Crazytown, wo die extremen Dinge zu finden sind“, sagte Tristan Harris, ein ehemaliger Design-Ethiker bei Google, der Muttergesellschaft von YouTube. „Wenn ich YouTube bin und möchte, dass du dir mehr ansiehst, werde ich dich immer zu Crazytown führen.“
In den letzten Jahren haben Social-Media-Plattformen mit der Zunahme des Extremismus in ihren Diensten zu kämpfen. Viele Plattformen haben eine Handvoll rechtsextremer Influencer und Verschwörungstheoretiker, darunter Alex Jones von Infowars, gesperrt, und Technologieunternehmen haben Schritte unternommen, um die Verbreitung politischer Fehlinformationen einzudämmen.
YouTube, dessen Regeln Hassrede und Belästigung verbieten, verfolgte bei der Durchsetzung jahrelang einen eher lockeren Ansatz. Letzte Woche gab das Unternehmen bekannt, dass es seine Richtlinie zum Verbot von Videos aktualisiert, die Neonazismus, White Supremacy und andere bigotte Ansichten vertreten. Das Unternehmen sagte außerdem, es ändere seinen Empfehlungsalgorithmus, um die Verbreitung von Fehlinformationen und Verschwörungstheorien einzudämmen.
Mit 2 Milliarden monatlich aktiven Nutzern, die jede Minute mehr als 500 Stunden Video hochladen, ist der Traffic auf YouTube schätzungsweise der zweithöchste aller Websites, nur hinter Google.com. Laut dem Pew Research Center nutzen 94 % der Amerikaner im Alter von 18 bis 24 Jahren YouTube, ein höherer Prozentsatz als bei jedem anderen Onlinedienst.
Wie viele Unternehmen im Silicon Valley ist YouTube in seiner Unternehmenspolitik nach außen hin liberal. Es sponsert Umzugswagen bei LGBT-Pride-Paraden und feiert verschiedene Kreative, und sein Geschäftsführer unterstützte Hillary Clinton bei den Präsidentschaftswahlen 2016. Präsident Donald Trump und andere Konservative haben behauptet, YouTube und andere soziale Netzwerke seien voreingenommen gegenüber rechten Ansichten, und haben Deaktivierungen wie die von YouTube am Mittwoch angekündigten als Beweis für diese Behauptungen herangezogen.
In Wirklichkeit war YouTube für Überparteiliche auf allen Seiten ein Glücksfall. Es hat ihnen ermöglicht, traditionelle Gatekeeper zu umgehen und ihre Ansichten einem Mainstream-Publikum zugänglich zu machen, und hat einst obskuren Kommentatoren dabei geholfen, lukrative Mediengeschäfte aufzubauen.
Es war auch ein nützliches Rekrutierungsinstrument für rechtsextreme Gruppen. Bellingcat, eine investigative Nachrichtenseite, analysierte Nachrichten aus rechtsextremen Chatrooms und stellte fest, dass YouTube als häufigste Ursache für das „Red-Pilling“ von Mitgliedern genannt wurde – ein Internet-Slangbegriff für die Konversion zu rechtsextremen Überzeugungen. Eine europäische Forschungsgruppe, VOX-Pol, führte eine separate Analyse von fast 30,000 Twitter-Konten durch, die mit der Alt-Right verbunden sind. Es stellte sich heraus, dass die Konten häufiger mit YouTube verknüpft waren als mit jeder anderen Website.
„YouTube konnte unter dem Radar bleiben, weil bis vor Kurzem niemand daran dachte, es sei ein Ort, an dem Radikalisierung stattfindet“, sagte Becca Lewis, die für die gemeinnützige Organisation Data & Society Online-Extremismus untersucht. „Aber hier erhalten junge Menschen ihre Informationen und Unterhaltung, und es ist ein Ort, an dem YouTuber politische Inhalte verbreiten, die zuweilen offenkundig auf die Vorherrschaft der Weißen ausgerichtet sind.“
Ich besuchte Cain in West Virginia, nachdem ich sein YouTube-Video gesehen hatte, in dem er die extreme Rechte anprangerte. Wir haben stundenlang über seine Radikalisierung diskutiert. Um seine Erinnerungen zu untermauern, hat er seinen gesamten YouTube-Verlauf, ein Protokoll mit mehr als 12,000 Videos und mehr als 2,500 Suchanfragen aus dem Jahr 2015 heruntergeladen und mir geschickt.
Diese Interviews und Datenpunkte zeichnen das Bild eines desillusionierten jungen Mannes, einer internetaffinen Gruppe rechter Reaktionäre und eines leistungsstarken Algorithmus, der lernt, die beiden zu verbinden. Es deutet darauf hin, dass YouTube möglicherweise eine Rolle dabei gespielt hat, Cain und andere junge Männer wie ihn an den rechtsextremen Rand zu drängen.
Es deutet auch darauf hin, dass YouTube mit der Zeit in der Lage ist, sie in ganz unterschiedliche Richtungen zu lenken.
Eine Online-Community finden
Schon in jungen Jahren war Cain von der Internetkultur fasziniert. Als Teenager stöberte er auf 4Chan, dem gesetzlosen Message Board. Er spielte Online-Spiele mit seinen Freunden und verschlang Videos von Intellektuellen, die brisante Themen wie die Existenz Gottes debattierten.
Das Internet war eine Fluchtmöglichkeit. Cain wuchs im postindustriellen Appalachen auf und wurde von seinen konservativen christlichen Großeltern erzogen. Er war klug, aber schüchtern und sozial unbeholfen, und während der High School entwickelte er eine Identität als gegenkultureller Punk. Er besuchte das Community College, brach es jedoch nach drei Semestern ab.
Pleite und deprimiert beschloss er, sich zusammenzureißen. Er begann, dort nach Hilfe zu suchen, wo er nach allem gesucht hatte: YouTube.
Eines Tages Ende 2014 empfahl YouTube ein Selbsthilfevideo von Stefan Molyneux, einem kanadischen Talkshow-Moderator und selbsternannten Philosophen.
Molyneux hatte wie Kain eine schwierige Kindheit und sprach davon, Schwierigkeiten durch Selbstverbesserung zu überwinden. Er schien klug und leidenschaftlich zu sein und kämpfte mit großen Fragen wie dem freien Willen sowie praktischen Ratschlägen zu Themen wie Dating und Vorstellungsgesprächen.
Auch Molyneux, der sich selbst als „Anarchokapitalisten“ bezeichnet, hatte eine politische Agenda. Er war ein Verfechter der Männerrechte und sagte, Feminismus sei eine Form des Sozialismus und progressive Geschlechterpolitik halte junge Männer zurück. Er lieferte konservative Kommentare zur Popkultur und zu aktuellen Ereignissen und erklärte, warum Disneys „Die Eiskönigin“ eine Allegorie weiblicher Eitelkeit sei oder warum die tödliche Erschießung eines unbewaffneten schwarzen Teenagers durch einen weißen Polizisten ein Beweis für die Gefahren der „Rap-Kultur“ sei.
Cain war ein Liberaler, dem soziale Gerechtigkeit am Herzen lag, der sich Sorgen über die Ungleichheit des Wohlstands machte und an den Klimawandel glaubte. Aber er fand die Schmähreden von Molyneux faszinierend, auch wenn sie anderer Meinung waren.
„Er war bereit, die Probleme junger Männer direkt anzusprechen, auf eine Weise, die ich noch nie zuvor gehört hatte“, sagte Cain.
Als Cain 2015 und 2016 tiefer in seine YouTube-Empfehlungen eintauchte, entdeckte er ein Universum rechter YouTuber. Im Laufe der Zeit sah er sich Dutzende Clips von Steven Crowder, einem konservativen Komiker, und Paul Joseph Watson, einem prominenten rechten Verschwörungstheoretiker, der dieses Jahr von Facebook gesperrt wurde, an. Er war fasziniert von Lauren Southern, einer rechtsextremen kanadischen Aktivistin, die er als seine „fashy bae“ oder faschistische Schwärmerei bezeichnete.
Diese Leute waren nicht alle lautstarke Demagogen. Sie waren Entertainer und bauten ihr Publikum mit satirischen Sketchen, Debatten und Interviews mit gleichgesinnten Künstlern auf. Einige von ihnen waren Teil der Alt-Right, einer losen Kohorte von Pro-Trump-Aktivisten, die weißen Nationalismus zwischen Schichten von Internet-Sarkasmus zwängten. Andere hielten sich selbst für „alt-lite“ oder lediglich antiprogressiv.
Diese YouTuber waren auch auf Facebook und Twitter aktiv. Aber YouTube war ihr Hauptquartier und der Ort, an dem sie ihren Lebensunterhalt mit dem Verkauf von Waren verdienen und einen Teil des Geldes für die Werbung erhalten konnten, die ihre Videos begleitete.
Nur wenige von ihnen hatten offene Verbindungen zu etablierten konservativen Gruppen, und auf ihren Kanälen wurde kaum über Steuersenkungen oder Handelspolitik gesprochen. Stattdessen versammelten sie sich für Themen wie freie Meinungsäußerung und Antifeminismus und stellten sich selbst als wahrheitsgetreue Rebellen dar, die humorlose „Krieger der sozialen Gerechtigkeit“ bekämpfen. Ihre Videos fühlten sich wie Episoden einer langjährigen Seifenoper an, mit einem ständigen Strom neuer Helden und Bösewichte.
Für Cain fühlte sich das alles wie verbotenes Wissen an – als hätte man ihn allein durch das Ansehen einiger YouTube-Videos in einen exklusiven Club gelassen.
„Als ich dieses Zeug fand, hatte ich das Gefühl, dass ich unbequemen Wahrheiten nachjage“, erzählte er mir. „Ich hatte das Gefühl, dass es mir Macht, Respekt und Autorität verlieh.“
Die Software entwickelt sich
Während Entfremdung ein Faktor bei Cains Radikalisierung war und überzeugende Parteigänger wie Molyneux ein weiterer Faktor, war der dritte eine Reihe von Produktentscheidungen, die YouTube ab 2012 traf.
Im März desselben Jahres aktualisierten die YouTube-Ingenieure den Empfehlungsalgorithmus der Website. Der Algorithmus war jahrelang so programmiert, dass er die Aufrufe maximierte, indem er den Nutzern Videos zeigte, auf die sie wahrscheinlich klicken würden. Aber die YouTuber hatten gelernt, das System zu manipulieren, indem sie ihre Aufrufe aufblähten, indem sie Videos mit übertriebenen Titeln posteten oder anzügliche Miniaturbilder wählten.
Als Reaktion darauf kündigten die Führungskräfte von YouTube an, dass der Empfehlungsalgorithmus der Wiedergabezeit mehr Gewicht geben würde als den Aufrufen. Auf diese Weise würden YouTuber dazu ermutigt, Videos zu erstellen, die von den Nutzern fertiggestellt würden, die Nutzer wären zufriedener und YouTube könnte ihnen mehr Werbung zeigen.
Die Wette hat sich ausgezahlt. Innerhalb weniger Wochen nach der Algorithmusänderung berichtete das Unternehmen, dass die Gesamtwiedergabezeit gestiegen sei, obwohl die Anzahl der Aufrufe zurückgegangen sei. Laut einem Bericht aus dem Jahr 2017 ist die Wiedergabezeit von YouTube drei Jahre in Folge um 50 % pro Jahr gestiegen.
Einen Monat nach der Optimierung des Algorithmus änderte YouTube seine Regeln, um allen Videokünstlern die Möglichkeit zu geben, Anzeigen mit ihren Videos zu schalten und einen Teil ihrer Einnahmen zu erzielen. Bisher konnten nur beliebte Kanäle, die von YouTube überprüft wurden, Anzeigen schalten.
Keine der Änderungen sollte der extremen Rechten zugute kommen, und der Algorithmus von YouTube hatte keine inhärente Vorliebe für extreme politische Inhalte. Es behandelte einen weiß-nationalistischen Monolog nicht anders als ein Ariana-Grande-Cover oder eine Tortenguss-Anleitung.
Aber die extreme Rechte war gut positioniert, um aus den Veränderungen Kapital zu schlagen. Viele rechte YouTuber haben bereits lange Videoessays erstellt oder Videoversionen ihrer Podcasts veröffentlicht. Ihre aufrührerischen Botschaften waren ansprechender als die mildere Kost. Und da sie nun mit ihren Videos Geld verdienen konnten, hatten sie einen finanziellen Anreiz, so viel Material wie möglich zu produzieren.
Von 2012 bis 2016 blühten einige progressive YouTube-Kanäle auf. Doch sie wurden von den YouTubern auf der rechten Seite in den Schatten gestellt, die ein intuitives Gespür für die Funktionsweise der YouTube-Plattform entwickelt hatten und besser in der Lage waren, eine aufkommende Welle des Rechtspopulismus zu nutzen.
„Ich bin mir nicht sicher, ob die Linke versteht, welch gewaltige Prügel auf YouTube ihnen zugefügt wird“, twitterte Watson, der Verschwörungstheoretiker, im Jahr 2017.
Mehrere aktuelle und ehemalige YouTube-Mitarbeiter, die nur unter der Bedingung der Anonymität sprechen würden, weil sie Vertraulichkeitsvereinbarungen unterzeichnet hatten, sagten, die Unternehmensleiter seien in diesen Jahren davon besessen gewesen, ihr Engagement zu steigern. Die Führungskräfte hätten selten darüber nachgedacht, ob die Algorithmen des Unternehmens die Verbreitung extremer und hasserfüllter politischer Inhalte befeuerten.
Im Jahr 2015 begann ein Forschungsteam von Google Brain, der viel gelobten Abteilung für künstliche Intelligenz von Google, mit dem Neuaufbau des Empfehlungssystems von YouTube auf der Grundlage neuronaler Netze, einer Art KI, die das menschliche Gehirn nachahmt. In einem Interview mit The Verge aus dem Jahr 2017 sagte ein YouTube-Manager, dass der neue Algorithmus in der Lage sei, Benutzer tiefer in die Plattform hineinzuziehen, indem er „benachbarte Beziehungen“ zwischen Videos herausfinde, die ein Mensch niemals identifizieren würde.
Der neue Algorithmus funktionierte gut, aber er war nicht perfekt. Ein Problem bestand laut mehreren aktuellen und ehemaligen YouTube-Mitarbeitern darin, dass die KI dazu neigte, Nutzer in bestimmte Nischen einzuteilen und Videos zu empfehlen, die denen ähnelten, die sie bereits gesehen hatten. Irgendwann langweilten sich die Benutzer.
Die Forscher von Google Brain fragten sich, ob sie YouTube-Nutzer länger binden könnten, indem sie sie in verschiedene Bereiche von YouTube leiten, anstatt ihre bestehenden Interessen zu berücksichtigen. Und sie begannen, einen neuen Algorithmus zu testen, der eine andere Art von KI beinhaltete, das sogenannte Reinforcement Learning.
Die neue KI namens Reinforce war eine Art langfristige Suchtmaschine. Es wurde entwickelt, um das Engagement der Benutzer im Laufe der Zeit zu maximieren, indem vorhergesagt wird, welche Empfehlungen ihren Geschmack erweitern und sie dazu bringen würden, nicht nur ein weiteres Video, sondern noch viel mehr anzusehen.
Reinforce war ein großer Erfolg. In einem Vortrag auf einer KI-Konferenz im Februar sagte Minmin Chen, ein Google Brain-Forscher, es sei der erfolgreichste YouTube-Start seit zwei Jahren. Die Aufrufe auf der gesamten Website seien um fast 1 % gestiegen, sagte sie – ein Zuwachs, der im Maßstab von YouTube Millionen Stunden mehr tägliche Wiedergabezeit und Millionen Dollar mehr Werbeeinnahmen pro Jahr bedeuten könnte. Sie fügte hinzu, dass der neue Algorithmus bereits begonnen habe, das Verhalten der Benutzer zu verändern.
„Wir können die Benutzer wirklich in einen anderen Zustand führen, anstatt vertraute Inhalte zu empfehlen“, sagte Chen.
Nachdem ihm eine Aufzeichnung von Chens Vortrag gezeigt wurde, bestätigte ein YouTube-Sprecher, dass das Unternehmen Reinforcement Learning in sein Empfehlungssystem integriert habe. Er bestritt jedoch ihre Behauptung, dass es sich um die erfolgreichste YouTube-Änderung seit zwei Jahren handelte. Er fügte hinzu, dass Reinforcement Learning dazu gedacht sei, Empfehlungen präziser zu machen, indem die Ausrichtung des Systems auf beliebte Inhalte neutralisiert werde.
Aber die Veränderungen auf YouTube spielten erneut in die Hände rechtsextremer YouTuber, von denen sich viele bereits auf Videos spezialisiert hatten, die den Zuschauern neue Ideen näher brachten. Sie wussten, dass ein Video, das in „Star Wars: Das Erwachen der Macht“ linke Voreingenommenheit anprangert, Filmfans auf die Palme bringen könnte, oder dass ein Spieler, der beim Streamen seiner Call of Duty-Spiele über Feminismus schimpft, andere politisch denkende Spieler aufrütteln könnte. Und nun wollte der Algorithmus von YouTube die gleiche Art der genreübergreifenden Erkundung fördern.
Das Empfehlungssystem von YouTube ist nicht in Stein gemeißelt. Das Unternehmen nimmt jedes Jahr viele kleine Änderungen vor und hat bereits eine Version seines Algorithmus eingeführt, die nach großen Nachrichtenereignissen aktiviert wird, um Videos aus „maßgeblichen Quellen“ anstelle von Verschwörungstheorien und parteiischen Inhalten zu bewerben. Das Unternehmen kündigte kürzlich an, diesen Ansatz auszuweiten, sodass eine Person, die sich eine Reihe von Videos mit Verschwörungstheorien angesehen hat, zu Videos aus seriöseren Nachrichtenquellen weitergeleitet wird. Es hieß auch, dass eine Änderung des Algorithmus im Januar zur Reduzierung der Verbreitung von „grenzwertigen“ Videos zu deutlich weniger Verkehr auf diese Videos geführt habe.
In Interviews bestritten YouTube-Verantwortliche, dass der Empfehlungsalgorithmus Nutzer zu extremeren Inhalten gelenkt habe. Interne Tests des Unternehmens hätten genau das Gegenteil ergeben: Benutzern, die sich ein extremes Video ansehen, würden im Durchschnitt Videos empfohlen, die moderatere Ansichten widerspiegeln. Sie lehnten es ab, diese Daten weiterzugeben oder konkrete Beispiele von Benutzern zu nennen, denen moderatere Videos angezeigt wurden, nachdem sie sich extremere Videos angesehen hatten.
Die Beamten betonten jedoch, dass YouTube sich seiner Verantwortung bewusst sei, Fehlinformationen und extreme Inhalte zu bekämpfen.
„Obwohl wir gute Fortschritte gemacht haben, ist unsere Arbeit hier noch nicht getan und wir werden dieses Jahr weitere Verbesserungen vornehmen“, sagte YouTube-Sprecher Farshad Shadloo in einer Erklärung.
„Ein Punkrock-Moment“
In der Nacht des 8. November 2016 war Kains Verwandlung abgeschlossen.
Er verbrachte einen Großteil der Nacht damit, sich Clips anzusehen, in denen Clintons Anhänger weinten, nachdem die Wahl zu Gunsten von Trump ausgegangen war. Aus seinem YouTube-Verlauf geht hervor, dass er um 1:41 Uhr morgens, kurz vor dem Schlafengehen, einen von Crowder gehosteten Livestream mit dem Titel „TRUMP WINS!“ einschaltete.
„Es fühlte sich an wie ein Punkrock-Moment, fast so, als wäre man wieder auf der Highschool“, sagte Cain.
In diesem Jahr war Cains YouTube-Konsum sprunghaft angestiegen. Er bekam einen Job beim Packen von Kartons in einem Möbellager, wo er den ganzen Tag Podcasts hörte und Videos seiner Lieblings-YouTube-Schöpfer ansah. Nachts schlief er beim Anhören von YouTube-Videos ein, sein Handy auf ein Kissen gelegt. Insgesamt sah er sich im Jahr 4,000 fast 2016 YouTube-Videos an, mehr als doppelt so viele wie im Vorjahr.
Nicht alle dieser Videos waren politisch. Cains Aufrufhistorie zeigt, dass er nach Videos über seine anderen Interessen suchte, darunter Autos, Musik und den Handel mit Kryptowährungen. Aber der Großteil seiner Medienpräsenz kam von rechtsextremen Kanälen. Und nach der Wahl begann er, mit einer dunkleren, radikaleren Gruppe von YouTubern einen Teil von YouTube zu erkunden.
Diese Menschen brachten ihre rassistischen und antisemitischen Ansichten nicht in sarkastischen Memes zum Ausdruck, und sie äußerten sich auch nicht in Hundepfeifen. Ein Kanal von Jared Taylor, Herausgeber der weißen nationalistischen Zeitschrift American Renaissance, veröffentlichte Videos mit Titeln wie „‚Flüchtlings‘-Invasion ist europäischer Selbstmord.“ Andere posteten Ausschnitte von Interviews mit weißen Rassisten wie Richard Spencer und David Duke.
Cain habe sich nie den extremsten Ansichten der extremen Rechten angeschlossen, etwa der Leugnung des Holocaust oder der Notwendigkeit eines weißen Ethnostaats, sagte er. Dennoch floss die rechtsextreme Ideologie in sein tägliches Leben ein. Er begann, sich selbst als „Tradcon“ zu bezeichnen – einen traditionellen Konservativen, der sich altmodischen Geschlechternormen verpflichtet fühlt. Er war mit einer evangelischen Christin zusammen und stritt sich mit seinen liberalen Freunden.
„Es war irgendwie traurig“, sagte Zelda Wait, eine Freundin von Cain aus der High School. „Ich dachte nur: ‚Wow, was ist passiert? Wie bist du so gekommen?‘“
Auch einige von Cains Lieblings-YouTube-Erstellern änderten ihre Politik.
Vor allem Molyneux schien weiter nach rechts auszuweichen. Er konzentrierte sich auf „Rassenrealismus“, ein beliebtes Thema weißer Nationalisten, und ging auf Infowars, um mit Jones über seinen Widerstand gegen den Multikulturalismus zu diskutieren. Auf seinem Kanal moderierte er rechtsextreme Persönlichkeiten, darunter Taylor von American Renaissance und Brittany Pettibone, eine selbsternannte „amerikanische Nationalistin“, die die Pizzagate-Verschwörungstheorie propagierte.
Während Molyneux weiße Nationalisten förderte, wuchs sein YouTube-Kanal weiter. Mittlerweile hat er mehr als 900,000 Abonnenten und seine Videos wurden fast 300 Millionen Mal angesehen. Letztes Jahr unternahmen er und Southern – Cains „fashy bae“ – eine gemeinsame Vortragsreise in Australien und Neuseeland, wo sie den Islam kritisierten und darüber diskutierten, was ihrer Meinung nach die Gefahren der nichtweißen Einwanderung waren.
Nachdem ein weißer nationalistischer Schütze im März 50 Muslime in zwei Moscheen in Christchurch, Neuseeland, getötet hatte, distanzierten sich Molyneux und Southern von der Gewalt, nannten den Mörder einen linken „Öko-Terroristen“ und stellten einen Zusammenhang mit der Schießerei her Die rechtsextreme Rede sei „völliger Wahnsinn“.
Weder Molyneux noch Southern antworteten auf eine Bitte um Stellungnahme. Am Tag nach meiner Anfrage lud Molyneux ein Video mit dem Titel „Ein offener Brief an Unternehmensreporter“ hoch, in dem er die Förderung von Hass oder Gewalt ablehnte und sagte, ihn als Extremisten zu bezeichnen, sei „nur eine Möglichkeit, Ideen zu verleumden, ohne sich mit deren Inhalt auseinandersetzen zu müssen.“ diese Ideen.“
Da Social-Media-Plattformen rechtsextreme Aktivisten wegen Hassrede, Belästigung und anderem schädlichen Verhalten gesperrt haben, sind Molyneux und Southern zu lautstarken Befürwortern der freien Meinungsäußerung geworden, die das anprangern, was sie als übermäßige Zensur durch Social-Media-Unternehmen bezeichnen.
„Wenn man Menschen die rechtmäßige Meinungsäußerung verbietet oder unterdrückt, ist das wie eine Klapperschlange“, sagte Molyneux in einem Video. „Man schneidet die Rassel ab, aber man schneidet nicht den Kopf ab.“
Die Linke schlägt zurück
Im Jahr 2018, fast vier Jahre nachdem Cain begonnen hatte, rechte YouTube-Videos anzusehen, tauchte in seinen Empfehlungen eine neue Art von Videos auf.
Diese Videos wurden von linken YouTubern erstellt, ahmten jedoch die Ästhetik von rechtsgerichtetem YouTube nach, bis hin zu den kämpferischen Titeln und der spöttischen Verwendung von Wörtern wie „ausgelöst“ und „Schneeflocke“.
Ein Video war eine Debatte über Einwanderung zwischen Southern und Steven Bonnell, einem liberalen YouTuber namens Destiny. Cain sah sich das Video an, um Southern anzufeuern, aber Cain erklärte Bonnell widerwillig zum Sieger.
Cain fand auch Videos von Natalie Wynn, einer ehemaligen akademischen Philosophin mit dem Namen ContraPoints. Wynn trug aufwendige Kostüme und führte Drag-Darbietungen auf, in denen sie erklärte, warum die westliche Kultur nicht von Einwanderern angegriffen wurde oder warum Rasse ein soziales Konstrukt sei.
Im Gegensatz zu den meisten Progressiven, die Cain auf der rechten Seite gesehen hatte, waren Bonnell und Wynn lustig und engagiert. Sie sprachen die Muttersprache von YouTube und empörten sich nicht über rechtsextreme Ideen. Stattdessen verdrehten sie die Augen und ließen sie oberflächlich und unkultiviert erscheinen.
„Mir ist aufgefallen, dass rechte Leute diese altmodische, reflexartige, reaktionäre Politik als kantigen Punkrock verpacken“, erzählte mir Wynn. „Eines meiner Ziele war es, die Spannung aus der Sache zu nehmen.“
Als Cain diese Videos zum ersten Mal sah, tat er sie als linke Propaganda ab. Aber er schaute mehr zu und begann sich zu fragen, ob Leute wie Wynn Recht hatten. Ihre Videos nutzten überzeugend Recherchen und Zitate, um die von ihm aufgenommenen rechten Argumente zu widerlegen.
„Ich habe mir einfach immer mehr dieser Inhalte angeschaut, mit ihr sympathisiert und mich in sie hineingefühlt und auch gesehen, dass sie wirklich weiß, wovon sie spricht“, sagte Cain.
Wynn und Bonnell sind Teil einer neuen Gruppe von YouTubern, die versuchen, ein Gegengewicht zur rechtsextremen Flanke von YouTube aufzubauen. Diese Gruppe nennt sich BreadTube, eine Anspielung auf das Buch „Die Eroberung des Brotes“ des linken Anarchisten Peter Kropotkin aus dem Jahr 1892. Dazu gehören auch Leute wie Oliver Thorn, ein britischer Philosoph, der den Kanal PhilosophyTube betreibt, auf dem er Videos zu Themen wie Transphobie, Rassismus und marxistische Ökonomie veröffentlicht.
Der Kern der Strategie von BreadTube ist eine Art algorithmisches Hijacking. Indem linke YouTuber über viele der gleichen Themen sprechen wie rechtsextreme YouTuber – und in manchen Fällen direkt auf ihre Videos reagieren – können sie dafür sorgen, dass ihre Videos dem gleichen Publikum empfohlen werden.
„Natalie und Destiny haben eine Brücke auf meiner Seite gebaut“, sagte Cain, „und sie war interessant und fesselnd genug, dass ich darüber gelaufen bin.“
BreadTube ist noch klein. Wynn, die prominenteste Figur der Bewegung, hat 615,000 Abonnenten, ein kleiner Teil des Publikums, das von den größten rechten YouTubern angezogen wird.
„Leider hatte die Alt-Right einen großen Vorsprung bei der Suche nach Möglichkeiten, weiße Männer anzusprechen“, sagte Emerican Johnson, ein YouTuber, der einen linken Kanal namens Non-Compete betreibt. „Wir kommen zu spät zur Party. Aber ich denke, wir werden ein Narrativ aufbauen, das diesem Narrativ der Alt-Right standhaft bleiben wird.“
Nach der Schießerei in Neuseeland beschloss Cain, zu helfen. Als Hommage an den Wissenschaftler Michael Faraday aus dem 19. Jahrhundert startete er kürzlich seinen eigenen YouTube-Kanal „Faraday Speaks“, auf dem er aus einer linken Perspektive über Politik und aktuelle Ereignisse spricht. Er möchte jungen Männern einen Weg aus der extremen Rechten zeigen, bevor es zu weiterer nationalistischer Gewalt unter den Weißen kommt.
„Man muss die Menschen auf ihrem Niveau erreichen, und dazu gehören ausgefallener Humor und ausgefallene Memes“, sagte er. „Man muss sich in sie hineinversetzen und ihnen dann den Raum geben, all diese Ideen aus ihrem Kopf zu bekommen.“
Kurz nachdem sein erstes Video hochgeladen wurde, erhielt Cain auf 4Chan Drohungen von Alt-Right-Trollen. Einer nannte ihn einen Verräter und deutete an, ihn aufzuhängen. Damals kaufte er die Waffe. Vor einigen Wochen ist er aus West Virginia ausgezogen und arbeitet an einem neuen Job, während er seinen YouTube-Kanal aufbaut.
Oberflächlich betrachtet ist das Überraschendste an Cains neuem Leben, wie ähnlich es sich seinem alten anfühlt. Er schaut sich immer noch jeden Tag Dutzende YouTube-Videos an und hängt an den Worten seiner Lieblingsschöpfer. Manchmal ist es immer noch schwierig zu sagen, wo der YouTube-Algorithmus aufhört und seine Persönlichkeit beginnt.
Vielleicht sollte das keine Überraschung sein. Unsere politische Kultur basiert heute weitgehend auf formverändernden Internetplattformen, die es so einfach gemacht haben, Parteizugehörigkeiten zu wechseln wie Frisuren. Es ist möglich, dass verletzliche junge Männer wie Cain sich im Laufe ihres Erwachsenwerdens von radikalen Gruppen entfernen und anderswo Halt finden. Es ist auch möglich, dass diese Art von Schleudertrauma-Polarisierung anhält, während politische Fraktionen online an Zugkraft gewinnen und verlieren.
Gegen Ende unseres Interviews erzählte ich Cain, dass ich es seltsam fand, dass er erfolgreich aus einem rechten YouTube-Kaninchenbau herausgeklettert war, nur um dann in einen linken YouTube-Kaninchenbau zu springen. Ich fragte ihn, ob er darüber nachgedacht hätte, seine Videoaufnahme ganz einzuschränken und einige seiner Offline-Beziehungen wieder aufzubauen.
Er zögerte und sah leicht verwirrt aus. Trotz all seiner Probleme, sagte er, sei YouTube immer noch der Ort, an dem politische Schlachten ausgetragen und gewonnen würden. Das Verlassen der Plattform würde im Wesentlichen bedeuten, die Debatte aufzugeben.
Er räumte jedoch ein, dass er kritisch über die Videos nachdenken müsse, die er gesehen habe.
„YouTube ist der Ort, an dem man eine Botschaft verbreiten kann“, sagte er. „Aber ich habe jetzt gelernt, dass man nicht auf YouTube gehen und denken kann, dass man eine Ausbildung erhält, weil das nicht der Fall ist.“
ZNetwork finanziert sich ausschließlich durch die Großzügigkeit seiner Leser.
Spenden