Mit einem Mal, so scheint es, werden die vielen düsteren Warnungen vor künstlicher Intelligenz zur Realität. Frühere Generationen der Automatisierung kamen für weite Teile des amerikanischen Fertigungs- und Dienstleistungssektors zum Einsatz, aber jetzt kommt die KI für die „Kreativen“ – die Angestellten, die sich immer wähnten, vor solch eintönigen Bedrohungen geschützt zu sein. Keine Branche ist einer größeren unmittelbaren Bedrohung ausgesetzt als der Journalismus. Aber es gibt einen Weg, dieser Bedrohung jetzt zuvorzukommen, bevor die Algorithmen uns alle bei lebendigem Leibe auffressen.
ChatGPT, das OpenAI-Programm, das zusammenhängende (wenn auch nicht poetische) Texte ausspucken kann, wurde vor weniger als drei Monaten öffentlich veröffentlicht. Doch bereits jetzt experimentieren Medienunternehmen mit Möglichkeiten, das Programm und ähnliche Technologien zu nutzen, um Menschen auf der Gehaltsliste zu ersetzen. Buzzfeed sah, wie der Kurs ihrer eingebrochenen Aktien nach ihnen in die Höhe schnellte angekündigt Sie würden ChatGPT verwenden, um Quizze und Listicles zu schreiben. Men's Journal ist Verwendung von Die KI spuckt Artikel aus, bei denen es sich um Neufassungen alten Materials in ihren Archiven handelt. Und CNET nutzte bereits Monate zuvor stillschweigend KI, um Geschichten zu schreiben sagen Ende Januar würden sie die Operation „pausieren“, nachdem festgestellt wurde, dass einige Artikel darin enthalten waren Fehler und Plagiate.
Man kann mit Sicherheit sagen, dass dies alles nur der Anfang ist. Die derzeit verfügbare KI kann (beschissene) Geschichten schreiben, Illustrationen zeichnen und sogar Ihre Geschichten reproduzieren Stimme Text lesen. Google ist kompensieren in diesem Jahr 20 separate KI-Produkte auf den Markt zu bringen. Die Algorithmen werden von Tag zu Tag raffinierter. Jeder, der im redaktionellen Bereich des Journalismus arbeitet – Schriftsteller, Künstler und Radioreporter gleichermaßen –, konkurriert jetzt mit einem Computer, der ein Simulakrum unserer Arbeit für weniger produzieren kann, als es ein Unternehmen kostet, uns zu bezahlen. Die Gefahr für viele tausend Arbeitsplätze ist potenziell existenziell.
Ist das ein dringendes Arbeitsproblem? Sicherlich. Aber die Möglichkeit für Medienschaffende und ihre Gewerkschaften, sich zu wehren, führt möglicherweise nicht über Streikposten. Die Grundannahme hier („Neue Technologie dezimiert die gesamte bestehende Industrie in atemberaubender Geschwindigkeit“) ist bekannt. Es passierte Streichholzschachtelverkäufern, Telegrafisten und Fließbandarbeitern, und die Möglichkeit, dass es auch Journalisten passieren könnte, ist nicht verwunderlich – abgesehen von unserem eigenen gesunden Selbstwertgefühl. Wenn diese Geschichten als gängige Weisheit weitergegeben werden, werden sie meist als Lehren dafür formuliert, nicht hinter die schnelllebige moderne Welt zurückzufallen; Das Gespenst des sprichwörtlichen Kutschenfahrers ist eine bekannte warnende Geschichte in der amerikanischen Kultur. Der ausgeprägte Mangel an Sympathie für die zurückgebliebenen Arbeiter liegt in der Natur dieser kapitalistischen Weisheitsregeln. Diese Kutschenfahrer hätten Automechaniker werden sollen! Und entlassene Journalisten sollten das Programmieren lernen! Usw., etc.
Wir in der Journalistenbranche haben gegenüber vielen anderen Berufsfeldern leichte Vorteile. Wir haben starke und allgegenwärtige Gewerkschaften und wir haben einen weithin akzeptierten Ethikkodex, der vorschreibt, wie weit Standards verschoben werden können, bevor etwas nicht mehr als Journalismus gilt. Dies sind die wichtigsten Werkzeuge, die uns in unserem drohenden Kampf gegen die KI zur Verfügung stehen. Anstatt so zu tun, als könnten wir eine Flutwelle des technologischen Wandels aufhalten, indem wir argumentieren, dass dies schädlich wäre us, müssen wir uns auf die wichtigere Tatsache konzentrieren, dass es für den Journalismus selbst apokalyptische Folgen haben könnte.
Es ist wichtig anzumerken, dass dies größtenteils der Fall ist sind Es gibt keine vereinbarten oder etablierten Regeln für KI und die Ethik des Journalismus. Die Technologie existiert einfach noch nicht lange genug, um diese Regeln in Kraft zu setzen. Wir sollten uns damit besser beeilen, sonst wird garantiert viel Schlimmes passieren, wenn es keine Industriestandards gibt. Lassen Sie mich zunächst eine Grundregel vorschlagen: Journalismus ist das Produkt eines menschlichen Geistes. Wenn etwas nicht aus einem menschlichen Geist stammt, ist es kein Journalismus. Nicht, weil die KI keine überzeugende Nachbildung der Sache ausspucken kann, sondern weil Journalismus – anders als Kunst oder Unterhaltung – Rechenschaftspflicht erfordert, um legitim zu sein.
Nachrichtenagenturen veröffentlichen nicht nur Geschichten. Sie können bei Bedarf auch genau erklären, wie eine Geschichte entstanden ist und warum. Warum ist das eine Neuigkeit? Wer waren die Quellen? Wie sind Sie zu Ihren Schlussfolgerungen gekommen? Wie haben Sie sichergestellt, dass widersprüchliche Standpunkte fair dargestellt wurden? Wie haben Sie festgestellt, dass die Überschrift, der Hauptvortrag, die Anekdoten und die Zitate in der Geschichte geeignet waren, um eine möglichst faire, präzise und fesselnde Geschichte zu produzieren? Haben Sie etwas ausgelassen, was Ihrer These widersprochen haben könnte? Ist die Geschichte falsch geneigt? Dabei handelt es sich nicht nur um ästhetische Fragen. Es sind Fragen, die Nachrichtenagenturen beantworten können müssen, damit wir uns alle darüber einig sind, dass ihr Journalismus gerechtfertigt und ethisch ist. Es ist eine Selbstverständlichkeit, dass echte Journalisten diese Fragen beantworten und im Konfliktfall für ihre Antworten eintreten können. Allen diesen grundsätzlichen Fragen ist gemeinsam, dass sie mit dem Einsatz von KI nicht schlüssig beantwortet werden können.
Ja, die KI kann auf jede dieser Fragen einen Satz ausspucken. Aber handelt es sich dabei um tatsächliche Transparenz? Wenn Sie einem KI-Programm sagen, dass es eine Geschichte schreiben soll, können Sie dann definitiv sagen, ob es etwas ausgelassen hat? Können Sie den Prozess, mit dem es zu seinen Schlussfolgerungen gelangte, genau beschreiben? Können Sie definitiv dafür bürgen, dass es fair und genau war und dass seine Arbeit nicht das fehlerhafte Produkt einer Reihe latenter Vorurteile ist? Nein, du kannst nicht. Sie wissen eigentlich nicht, wie die KI das gemacht hat, was sie getan hat. Sie kennen den Prozess, mit dem es seine Arbeit produziert hat, nicht. Sie können diesen Prozess auch nicht genau beschreiben oder beurteilen. Es ist sehr wahrscheinlich, dass viele Veröffentlichungen KI nutzen, um kostengünstige Inhalte zu produzieren, diese dann vor der Veröffentlichung von einem menschlichen Redakteur prüfen lassen und diesen menschlichen Blick als Rechtfertigung für die Veröffentlichung nutzen. Aber dieser Prozess ist eine Illusion – der menschliche Redakteur weiß nicht und kann auch nie wissen, wie die KI die Geschichte produziert hat, die sie produziert hat. Die Technologie ist praktisch eine Blackbox. Und das macht es in unserem speziellen Bereich zu einem fatalen Fehler.
Auch menschliche Journalisten haben Fehler. Aber wir sind verantwortlich. Das ist der Unterschied. Institutionen im Journalismus leben von Glaubwürdigkeit, und diese Glaubwürdigkeit ist das direkte Ergebnis der Verantwortung, die jede Geschichte begleitet. Wenn Geschichten fehlerhaft oder voreingenommen sind oder Dinge weglassen oder falsch darstellen oder die Wahrheit verdrehen, können sie glaubwürdig in Frage gestellt werden, und glaubwürdige Institutionen sind verpflichtet, nachzuweisen, wie und warum die Geschichte so ist, wie sie ist, und sie sind verpflichtet, dies anzuerkennen und beheben Sie fortlaufend alle schwerwiegenden Mängel in Ihren Berichts-, Schreib- und Veröffentlichungsprozessen. Wenn sie das nicht tun, verlieren sie ihre Glaubwürdigkeit. Wenn sie das verlieren, verlieren sie alles. Dieser Prozess der Rechenschaftspflicht ist die Grundlage des Journalismus. Ohne sie tun Sie vielleicht etwas, aber Sie betreiben keinen Journalismus.
Sie müssen mich nicht davon überzeugen, dass die Medien oft faul, dumm, sensationslüstern oder voller ahnungsloser Ivy-League-Hacks sind, die erstaunlich ignorante Aussagen über die Welt machen. Aus diesem Grund ist im Laufe des letzten Jahrhunderts eine journalistische Ethik entstanden, die im Großen und Ganzen darauf abzielt, die Branche rechenschaftspflichtig und damit glaubwürdig zu machen. Verantwortlichkeit erfordert einen menschlichen Geist, der alle diese Fragen beantworten kann. Da die KI niemals wirklich für ihre Arbeit verantwortlich sein kann, ist ihre Arbeit kein Journalismus. Aus diesem Grund ist die Veröffentlichung solcher Arbeiten unethisch. Und deshalb müssen wir uns als Branche gemeinsam auf Standards einigen, die sicherstellen, dass keine Nachrichtenagenturen Journalismus veröffentlichen, der direkt von KI produziert wird. Die Technologie kann ein Werkzeug sein, das Menschen bei der Nachrichtenbeschaffung unterstützt, sie sollte jedoch niemals Menschen in einer Nachrichtenredaktion ersetzen.
Wir treten in ein Medienzeitalter ein, das von Sümpfen voller Videos, Audios, Fotos und Schriftstücken bevölkert sein wird, die alle vollständig computergeneriert sind und dazu dienen, Menschen in die Irre zu führen. Wenn Sie dachten, dass das ganze Geschrei über „Fake News“ während der Trump-Ära schlecht war, dann warten Sie einfach ab. Der Öffentlichkeit wird es sehr, sehr schwer fallen, zwischen Echtheit und Fälschung zu unterscheiden. Es ist wichtiger denn je, dass glaubwürdige Nachrichtenagenturen existieren und glaubwürdig bleiben. Um dies zu erreichen, müssen wir uns dagegen wehren, dass KI die Arbeit menschlicher Journalisten übernimmt. Wir müssen uns auf die Idee einigen, dass so etwas nicht ethisch ist. Wenn wir das nicht tun, können Sie darauf wetten, dass die Unternehmen so schnell wie möglich handeln werden, um einen Dollar zu sparen – und dabei den Journalismus völlig zerstören.
ZNetwork finanziert sich ausschließlich durch die Großzügigkeit seiner Leser.
Spenden