AMY GOODMAN: Das ist Democracy Now!Democracynow.org, Der Kriegs- und Friedensbericht. Ich bin Amy Goodman mit Nermeen Shaikh.
Da immer mehr Menschen auf künstliche Intelligenz bzw. KI aufmerksam werden, hielt der Senat am Dienstag eine Anhörung darüber ab, wie diese reguliert werden soll. Der Vorsitzende des Justizunterausschusses des Senats, Richard Blumenthal, eröffnete die Anhörung mit einer KI-generierten Aufnahme seiner eigenen Stimme, was manche als „Deep Fake“ bezeichnen. (Scrollen Sie nach unten für Teil 2 dieses Interviews.)
SEN. RICHARD BLUMENTHAL: Und nun einige einleitende Bemerkungen.
SEN. RICHARD BLUMENTHAL SPRACHKLON: Zu oft haben wir gesehen, dass die Technologie schneller voranschreitet als die Regulierung: die ungezügelte Ausbeutung personenbezogener Daten, die Verbreitung von Desinformation und die Vertiefung gesellschaftlicher Ungleichheiten. Wir haben gesehen, wie algorithmische Vorurteile Diskriminierung und Vorurteile aufrechterhalten können und wie mangelnde Transparenz das Vertrauen der Öffentlichkeit untergraben kann. Das ist nicht die Zukunft, die wir wollen.
SEN. RICHARD BLUMENTHAL: Wenn Sie von zu Hause aus zuhörten, hätten Sie vielleicht gedacht, dass die Stimme meine war und die Worte von mir. Aber in Wirklichkeit gehörte diese Stimme nicht mir, die Worte gehörten nicht mir, und der Ton war eine KI-Software zum Klonen von Stimmen, die auf meine Reden trainiert wurde. Die Bemerkungen wurden von ChatGPT verfasst, als ich gefragt wurde, wie ich diese Anhörung eröffnen würde.
AMY GOODMAN: Google, Microsoft und OpenAI – das Startup hinter ChatGPT – sind einige der Unternehmen, die immer leistungsfähigere Technologien für künstliche Intelligenz entwickeln. Sam Altman, CEO von OpenAI, sagte bei der Anhörung am Dienstag aus und warnte vor den Gefahren.
SAM ALTMAN: Ich denke, wenn diese Technologie schief geht, kann sie ziemlich schief gehen. Und dazu wollen wir uns lautstark äußern. Wir wollen mit der Regierung zusammenarbeiten, um das zu verhindern. Aber wir versuchen, ganz klar zu erkennen, was die Nachteile sind und welche Arbeit wir leisten müssen, um diese abzumildern. … Es ist einer meiner Bereiche, der mir größte Sorge bereitet, die allgemeinere Fähigkeit dieser Modelle, zu manipulieren, zu überzeugen und eine Art Eins-zu-Eins-, Sie wissen schon, interaktive Desinformation bereitzustellen. … Wir sind sehr besorgt über die Auswirkungen, die dies auf Wahlen haben kann. Ich denke, dass dies ein Bereich ist, in dem hoffentlich die gesamte Branche und die Regierung schnell zusammenarbeiten können.
AMY GOODMAN: Dies alles ist darauf zurückzuführen, dass die Vereinigten Staaten im Vergleich zur Europäischen Union und China bei der Regulierung der KI hinterherhinken.
Für weitere Informationen ist Marc Rotenberg, Geschäftsführer des Center for AI and Digital Policy, an unserer Seite.
Marc, herzlich willkommen Democracy Now! Es ist toll, Sie bei uns zu haben. Nun ist es sehr bedeutsam, dass dieser AI-CEO sagt: „Bitte regulieren Sie uns.“ Aber tut er das nicht tatsächlich, weil er möchte, dass Unternehmen an der Regulierung beteiligt werden? Sprechen Sie darüber und auch darüber, was KI ist, für Leute, die einfach nicht verstehen, worum es geht.
MARC ROTENBERG: Nun, Amy, zunächst einmal vielen Dank, dass du mich in das Programm aufgenommen hast.
Und zweitens, um einen Schritt zurückzutreten: Sam Altman hat diese Woche viel Aufmerksamkeit erhalten, als er vor dem Kongress aussagte, aber ich denke, es ist sehr wichtig, zu Beginn unserer Diskussion klarzustellen, dass Organisationen der Zivilgesellschaft, Experten für KI und Technologie Entwickler sagen seit vielen, vielen Jahren, dass es hier ein Problem gibt. Und ich denke, es ist an diesem Punkt der politischen Diskussion von entscheidender Bedeutung, dass wir anerkennen, dass diese Ansichten von Leuten wie Timnit Gebru und Stuart Russell und Margaret Mitchell und der Präsidentin meiner eigenen Organisation, Merve Hickok, geäußert wurden, die Anfang März zuvor ausgesagt hat dem Aufsichtsausschuss des Repräsentantenhauses, dass wir einfach nicht über die nötigen Schutzmaßnahmen verfügen, dass wir nicht über die rechtlichen Regeln verfügen und dass wir in der Regierung nicht über die nötige Sachkenntnis verfügen, um den rasanten technologischen Wandel, der jetzt stattfindet, zu bewältigen. Obwohl wir die Unterstützung von Herrn Altman für eine hoffentlich starke Gesetzgebung begrüßen, glauben wir nicht, dass er im Mittelpunkt dieser politischen Diskussion stehen sollte.
Nun zu Ihrem Punkt: Worum geht es bei KI und warum wird so viel Wert darauf gelegt? Ein Teil davon betrifft einen sehr schnellen Wandel in der Technologie und in der Technologiebranche, den viele Menschen einfach nicht so gesehen haben. Wir kennen seit vielen, vielen Jahren Probleme mit KI. Wir verfügen heute in unserem Land über weit verbreitete automatisierte Entscheidungen, die Entscheidungen über die Bildungs-, Kredit-, Beschäftigungs-, Wohn- und Bewährungschancen der Menschen und sogar über die Einreise in das Land treffen. All dies wird von automatisierten Systemen erledigt, die zunehmend auf statistischen Techniken beruhen. Und diese statistischen Techniken treffen Entscheidungen über Menschen, die oft undurchsichtig sind und nicht bewiesen werden können. Es gibt also tatsächlich eine Situation, in der große Bundesbehörden und große Unternehmen Entscheidungen treffen, und wenn Sie zurückgehen und sagen: „Warum wurde mir dieser Kredit verweigert?“ oder: „Warum dauert mein Visumantrag so viele Jahre?“ Die Organisationen selbst haben keine guten Antworten.
Das spiegelte sich zum Teil auch in Altmans Aussage in dieser Woche wider. Er steht an vorderster Front einer neuen KI-Technik, die allgemein als generative KI bezeichnet wird. Es produziert synthetische Informationen. Und wenn ich zu Ihrer Eröffnung eine Klarstellung zu den Bemerkungen von Senator Blumenthal machen kann, handelt es sich tatsächlich nicht um eine Aufzeichnung, was für uns ein sehr vertrauter Begriff ist. Daran denken wir, wenn wir hören, wie jemandes Stimme abgespielt wird. Das wurde tatsächlich synthetisch durch die früheren Aussagen von Senator Blumenthal erzeugt. Und hier sehen wir den Zusammenhang zu Konzepten wie Deep Fakes. Das gibt es in der Realität nicht, es sei denn, ein KI-System hat es geschaffen.
Wir stehen derzeit vor der enormen Herausforderung, zu versuchen, diese neue Art von KI sowie die bereits bestehenden Systeme zu regulieren, die Entscheidungen über Menschen treffen, oft Vorurteile einschließen und einen Großteil der sozialen Diskriminierung in unserer heutigen physischen Welt nachbilden werden in diesen Datensätzen in unsere digitale Welt übertragen. Und wir brauchen die Gesetzgebung, die die notwendigen Leitplanken schafft.
NERMEEN SHAIKH: Marc Rotenberg, können Sie die Tatsache näher erläutern, dass sich so viele Forscher im Bereich der künstlichen Intelligenz selbst Sorgen darüber machen, wozu künstliche Intelligenz führen kann? Eine aktuelle Umfrage ergab, dass die Hälfte, nämlich 50 %, der KI-Forscher der KI eine Chance von mindestens 10 % einräumen, das Aussterben der Menschheit herbeizuführen. Könnten Sie darüber sprechen?
MARC ROTENBERG: Ja, also, absolut. Und tatsächlich war ich einer der Menschen, die diesen Brief unterzeichnet haben, der Anfang des Jahres verbreitet wurde. Es war übrigens ein kontroverser Brief, weil er sich tendenziell auf die langfristigen existenziellen Risiken konzentrierte und Bedenken wie den Verlust der Kontrolle über diese Systeme, die jetzt entwickelt werden, beinhaltete. Es gibt eine andere Gruppe in der KI-Community, die meiner Meinung nach zu Recht zu den existenziellen Sorgen gesagt hat, dass wir uns auch auf die unmittelbaren Sorgen konzentrieren müssen. Und ich habe zum Beispiel vorhin über eingebettete Voreingenommenheit und replizierende Diskriminierung gesprochen. Das passiert gerade. Und das ist ein Problem, das jetzt angegangen werden muss.
Nun ist meine eigene Ansicht, die nicht unbedingt die Ansicht aller anderen ist, dass beide Gruppen eindringliche Warnungen darüber aussenden, wo wir uns befinden. Ich glaube, dass die Gruppen, die sagen, dass wir Gefahr laufen, die Kontrolle zu verlieren, zu denen viele herausragende Informatiker gehören, die den Turing-Preis gewonnen haben, der so etwas wie der Nobelpreis für Informatik ist, meiner Meinung nach Recht haben. Ich denke, es besteht ein reales Risiko eines Kontrollverlusts. Aber ich stimme auch mit den Leuten vom AI Now Institute und dem Distributed AI Research Institute darin überein, dass wir die Probleme mit den Systemen lösen müssen, die bereits eingesetzt werden.
Und das ist auch der Grund, warum ich mich ehrlich gesagt sehr über die Anhörung im Senat diese Woche gefreut habe. Es war eine sehr gute Anhörung. Es gab sehr gute Gespräche. Ich hatte das Gefühl, dass die Mitglieder des Ausschusses gut vorbereitet waren. Sie stellten gute Fragen. Es gab viele Diskussionen über konkrete Vorschläge, Transparenzpflichten, Datenschutzbestimmungen, Grenzen der Rechenleistung und der KI-Fähigkeit. Und ich habe die Aussage von Senator Blumenthal zu Beginn voll und ganz unterstützt. Wissen Sie, sagte er: „Wir müssen Regeln für Transparenz und Rechenschaftspflicht einführen und wir müssen einige Nutzungsbeschränkungen festlegen.“ Ich dachte, das wäre ein ausgezeichneter Ort, um in den Vereinigten Staaten eine Diskussion darüber anzustoßen, wie man Schutzmaßnahmen für den Einsatz künstlicher Intelligenz einführen kann.
NERMEEN SHAIKH: Und, Marc Rotenberg, über welche Vorteile spricht man im Hinblick auf künstliche Intelligenz? Und gibt es angesichts der Geschwindigkeit, mit der es sich, wie Sie sagten, und dieser rasanten technologischen Fortschritte gesagt hat, zum jetzigen Zeitpunkt irgendeine Möglichkeit, es aufzuhalten?
MARC ROTENBERG: Nun, es steht außer Frage, dass KI im weitesten Sinne meines Erachtens ist – und Sie wissen natürlich, es ist ein weit gefasster Begriff, und selbst die Experten sind sich natürlich nicht einmal genau darüber einig, worauf wir uns beziehen. Aber sagen wir mal, KI trägt im Großen und Ganzen zu Innovationen im medizinischen Bereich bei, zum Beispiel zu großen Durchbrüchen bei der Proteinfaltung. Es trägt zur Effizienz in der Verwaltung von Organisationen und zu besseren Möglichkeiten bei, Sicherheitsmängel in Produkten und im Transportwesen zu erkennen. Ich denke, es gibt keinen Streit. Ich meine, es ist ein bisschen so, als würde man über Feuer oder Elektrizität reden. Es ist eine dieser grundlegenden Ressourcen im digitalen Zeitalter, die weit verbreitet ist. Aber wie bei Feuer oder Elektrizität verstehen wir, dass man, um die Vorteile aufrechtzuerhalten, auch einige Sicherheitsvorkehrungen und Grenzen einführen muss. Und Sie sehen, wir befinden uns gerade in einem Moment, in dem die KI-Techniken in großem Umfang eingesetzt werden, ohne dass es kaum Schutzmaßnahmen oder Einschränkungen gibt. Und deshalb sind so viele Menschen in der KI-Community besorgt. Es ist nicht so, dass sie die Vorteile nicht sehen. Sie erkennen die Risiken, wenn wir diesen Weg weiter beschreiten.
AMY GOODMAN: Nun, wir wollen darüber sprechen, wie diese Sicherheitsvorkehrungen aussehen müssen, und näher darauf eingehen, wie künstliche Intelligenz zum Aussterben der Menschen auf der Erde führen könnte. Wir sprechen mit Marc Rotenberg, dem Geschäftsführer des Center for AI and Digital Policy. Wir werden es tun Teil 2, stellen Sie es online auf Democracynow.org. Ich bin Amy Goodman, mit Nermeen Shaikh.
Teil 2: Die Geschichte der künstlichen Intelligenz, wie sie Voreingenommenheit hervorruft, Arbeitnehmer verdrängt, während der Kongress bei der Regulierung hinterherhinkt
AMY GOODMAN: Das ist Democracy Now!Democracynow.org, Der Kriegs- und Friedensbericht. Ich bin Amy Goodman und Nermeen Shaikh, während wir Ihnen Teil 2 unseres Gesprächs mit Marc Rotenberg, Geschäftsführer des Center for AI and Digital Policy, präsentieren.
Da immer mehr Menschen auf künstliche Intelligenz bzw. KI aufmerksam werden, hielt der Senat am Dienstag eine Anhörung darüber ab, wie diese reguliert werden soll. Der kalifornische Senator Alex Padilla äußerte Bedenken hinsichtlich der Tatsache, dass die meisten Forschungsarbeiten zu KI auf Englisch durchgeführt wurden und andere Sprachen vernachlässigt wurden.
SEN. ALEX PADILLA: Meines Wissens nach konzentrierten sich die meisten Forschungsarbeiten zur Bewertung und Abmilderung von Fairness-Schäden auf die englische Sprache, während nicht-englische Sprachen vergleichsweise wenig Aufmerksamkeit oder Investitionen erhalten haben, und dass wir dieses Problem schon einmal gesehen haben. Ich werde Ihnen sagen, warum ich das anspreche. Social-Media-Unternehmen haben beispielsweise nicht ausreichend in Tools und Ressourcen zur Inhaltsmoderation für ihre nicht-englischsprachigen Inhalte investiert – in nicht-englischer Sprache. Und ich teile dies nicht nur aus Sorge um nicht in den USA ansässige Benutzer, sondern auch, weil viele in den USA ansässige Benutzer in ihrer Kommunikation eine andere Sprache als Englisch bevorzugen. Daher bin ich zutiefst besorgt darüber, dass sich das Versagen der sozialen Medien bei KI-Tools und -Anwendungen wiederholen wird.
AMY GOODMAN: Bei der Anhörung sagte auch der emeritierte Professor für Psychologie und Neurowissenschaften der New York University, Gary Marcus, aus.
GARY MARCUS: Eines der Dinge, die mir bei GPT-4 am meisten Sorgen bereiten, ist, dass wir nicht wissen, worauf es trainiert. Ich schätze, Sam weiß es, aber der Rest von uns weiß es nicht. Und worauf es trainiert wird, hat im Wesentlichen Konsequenzen für die Vorurteile des Systems. Wir könnten darüber in technischer Hinsicht sprechen, aber wie diese Systeme die Menschen führen könnten, hängt sehr stark davon ab, welche Daten auf ihnen trainiert werden. Und deshalb brauchen wir Transparenz darüber. Und wir brauchen dort wahrscheinlich Wissenschaftler, die Analysen durchführen, um zu verstehen, welche politischen Einflüsse beispielsweise diese Systeme haben könnten. Und es geht nicht nur um Politik. Es kann um Gesundheit gehen. Es könnte um alles Mögliche gehen. Diese Systeme absorbieren viele Daten, und was sie dann sagen, spiegelt diese Daten wider, und sie werden es unterschiedlich machen, je nachdem, was in diesen Daten enthalten ist. Es macht also einen Unterschied, ob sie trainiert werden Das Wall Street Journal im Gegensatz zu Die New York Times oder Reddit. Ich meine, eigentlich sind sie in all diesen Dingen weitgehend geschult, aber wir verstehen den Aufbau davon nicht wirklich. Wir haben also das Problem einer möglichen Manipulation. Und es ist sogar noch komplexer, weil es sich um eine subtile Manipulation handelt. Die Leute wissen möglicherweise nicht, was vor sich geht.
AMY GOODMAN: Also machen wir weiter mit Marc Rotenberg, Geschäftsführer des Center for AI and Digital Policy. Und das sind alles wirklich kritische Punkte, die in der Anhörung im Senat angesprochen wurden. Aber bevor Sie sich mit ihnen befassen, geben Sie uns zum Beispiel die Geschichte der künstlichen Intelligenz.
MARC ROTENBERG: Nun, das ist eine tolle Frage, Amy. Und ich bin nun schon seit vielen, vielen Jahren in diesem Bereich tätig. Ich erinnere mich, wissen Sie – wow, zurück in die 1970er Jahre, als die Leute darüber sprachen, ob ein Computer einen menschlichen Schachspieler schlagen könnte. Und in der Anfangszeit lag der Schwerpunkt stark auf Computern und Schach. Und dort habe ich meine frühen Arbeiten gemacht. Und wir haben früher das entworfen, was wir KI-Systeme nannten; In Wirklichkeit handelte es sich um Expertensysteme, große regelbasierte Entscheidungsbäume. Und Sie könnten tatsächlich mit einem Computer ein starkes Programm schreiben, das im Grunde genommen anhand einer bestimmten Position die verschiedenen Optionen bewertet, die Optionen bewertet, die beste Option auswählt, den besten Zug vorhersieht und immer tiefer in die Materie eindringt Der Entscheidungsbaum basiert auf Ihrer Rechenleistung. Und diese Programme wurden tatsächlich ziemlich stark. Ich war tatsächlich 1997 in Philadelphia, als das IBM-Programm Deep Blue den Schachweltmeister Garry Kasparov besiegte. Das war ein Moment, wissen Sie? Ich meine, da ist ein Computer, der einen Menschen in einer, wie manche Leute sagen würden, sehr fortgeschrittenen Aktivität schlägt.
Aber das ist der wichtige Punkt, den Ihre Zuhörer verstehen müssen. Schon damals in den 1990er Jahren, als ein Computer Kasparov schlagen konnte, konnte man das Programm öffnen. Man konnte sich anschauen, wie die Bewegungen zustande kamen. Sie könnten den Entscheidungsbaum verfolgen. Sie würden einer Endspielposition mehr Großmeister-Expertise hinzufügen, wenn der Computer damit Schwierigkeiten hätte. Und es war wirklich etwas, das unter menschlicher Kontrolle stand, so fortschrittlich die Technologie auch war. Aber die KI begann sich zu verändern, und die KI verlagerte sich in Richtung maschineller Lerntechniken. Und da bin ich wirklich kein Experte, aber ich kann Ihnen sagen, dass Techniken des maschinellen Lernens im Allgemeinen viele Daten und viel Verarbeitung innerhalb des Programms erfordern, um zu beurteilen, wie das beste Ergebnis erzielt werden kann.
Ich erzähle Ihnen jetzt von einem anderen Schachspiel, was passiert ist – und zwar im Jahr 2017. Und in diesem Jahr besiegte ein neues, auf maschinellem Lernen basierendes Programm namens AlphaZero das amtierende altmodische Computerprogramm namens Stockfish eines mit den Entscheidungsbäumen, die Sie öffnen und reparieren können. Und die Leute sahen sich das Ergebnis an und waren schockiert. AlphaZero hatte, wissen Sie, brillante Schritte gemacht. Es hatte den amtierenden Computer-Champion geschlagen, der bereits besser war als der amtierende menschliche Champion. Aber die Menschen konnten die Ergebnisse nicht beweisen. Sie konnten nicht herausfinden, warum das Programm einen bestimmten Schritt machte, weil die Trainingsdaten jetzt so komplex waren und die Verfahren und Techniken, wissen Sie, so kompliziert.
Und ich denke, für viele Menschen bedeutete dies echte Sorge. Wissen Sie, einerseits haben Sie dieses enorme Erfolgserlebnis, von dem ich weiß, dass die Leute bei AlphaZero und DeepMind, die an diesem Projekt beteiligt waren, es hatten. Und auf der anderen Seite gehen Sie davon weg und stellen sich die Frage: Was wäre, wenn eines dieser Systeme verwendet würde, um den Präsidenten in einem globalen Konflikt zu beraten oder um, Sie wissen schon, Gesetze zu entwerfen oder um eine medizinische Diagnose zu erstellen? Wollen Sie wirklich Ergebnisse, die nicht bewiesen werden können, die nicht reproduziert werden können, die nicht allen traditionellen Techniken der wissenschaftlichen Methode folgen?
Und diese Besorgnis, die, wie Sie wissen, im Hintergrund lauert, hat sich, sagen wir mal, vor Kurzem durch ChatGPT noch verstärkt, weil man nun die Fähigkeit einer fortgeschrittenen KI – nennen wir es vorerst so: fortgeschrittene KI – gesehen hat, Text zu produzieren, zu produzieren Sprache zu produzieren, Bilder zu produzieren, Videos zu produzieren, und selbst die Leute, die die Systeme erstellt haben, konnten Ihnen nicht genau erklären, wie es passiert ist.
Und deshalb hat Senator Padilla, wenn wir zum Beispiel auf die Clips am Anfang zurückkommen, absolut recht. Ich meine, wie beurteilen wir ein System, wenn wir bereits wissen, dass die Trainingsdaten verzerrt sind, wenn es sich ausschließlich um englischsprachigen Text handelt? Und Gary Marcus hatte absolut Recht. Ich meine, er nannte das einen perfekten Sturm. Wissen Sie, er sagte, wir haben Konzerne, die mit neuen Produkten davonlaufen, wir haben keine Leitplanken und wir haben ein enormes Risiko für die Öffentlichkeit, wenn diese Systeme nicht reguliert werden.
Ich verwende also das Schachbeispiel, um den Leuten zu zeigen, dass es eine Möglichkeit gibt, KI zu betreiben, bei der man die Kontrolle behält, Innovationen fördert und spektakuläre Ergebnisse erzielt, und es gibt eine Möglichkeit, KI zu betreiben, die, ehrlich gesagt, ein bisschen beängstigend ist.
NERMEEN SHAIKH: Und was sind die besonderen Bedenken? Ich meine, Marc, könntest du zunächst einmal künstliche allgemeine Intelligenz erklären und welche spezifischen Bedenken gibt es dabei? Ich meine, ist das AlphaZero – war das ein Beispiel für künstliche allgemeine Intelligenz? Könnten Sie es bitte erklären?
MARC ROTENBERG: Rechts. Im Allgemeinen haben wir in der Vergangenheit angenommen, dass KI bei der Lösung eines bestimmten Problems hilft, beispielsweise wenn ein Radiologe versucht, eine Röntgenaufnahme zu interpretieren. Wir verfügen jetzt über KI-basierte Techniken, die auf vielen Trainingsdaten basieren und äußerst gute Arbeit leisten, indem sie Krebsrisiken durch die Untersuchung des durch eine Röntgenaufnahme erzeugten digitalen Bildes identifizieren. Und wir würden das, ähnlich wie Schach, als eine besondere Anwendung der KI betrachten.
Die interessante Frage ist nun, ob wir KI-Systeme entwickeln können, die sich über mehrere Domänen hinweg bewegen und Erkenntnisse liefern können, ohne dass eine Schulung in einem bestimmten Bereich erforderlich ist. Und tatsächlich ist das von AlphaZero bereitgestellte Modell ein Beispiel dafür, denn dieses Programm war zwar sehr gut im Schach, aber nicht wirklich auf das Fachwissen von Großmeistern ausgerichtet. Es war kein Expertensystem alten Stils. Es handelte sich tatsächlich um ein regelbasiertes System, das besagte: „Wie wird dieses Spiel gespielt?“ „Okay, jetzt gehe ich los, spiele mich selbst 10 Millionen Mal“ und wurde extrem stark.
Wir sehen dies auch bei der generativen KI, die, wie Sie wissen, auf den Text des Internets, auf den Text von Markenanmeldungen und auf den Text großartiger Bücher trainiert wird. Wenn Sie so viele Informationen haben, können Sie die Frage stellen: „Wer sind die fünf besten Maler der Renaissance?“ Erhalten Sie eine überraschend gute Antwort und stellen Sie dann die Frage: „Was sind die besten Sicherheitsmaßnahmen, wenn ein Haus brennt?“ und noch eine bemerkenswert gute Antwort. So fühlt sich die allgemeine KI an, denn niemand hat sie auf eine bestimmte Anwendung festgelegt.
NERMEEN SHAIKH: Marc, gehen wir zurück zur Anhörung am Dienstag und besprechen wir, wie diese Technologie reguliert werden könnte. Richard Blumenthal, Vorsitzender des Justizunterausschusses des Senats, warnte auch vor der Gefahr, die Fehler von Abschnitt 230, zwei-drei-null, zu wiederholen, der Internetunternehmen vor der Haftung für illegale Inhalte schützt, die von Benutzern gepostet werden, und ihnen erlaubt, legale, aber anstößige Beiträge zu entfernen.
SEN. RICHARD BLUMENTHAL: Wenn KI-Unternehmen und ihre Kunden Schaden anrichten, sollten sie haftbar gemacht werden. Wir sollten unsere Fehler der Vergangenheit nicht wiederholen – zum Beispiel Abschnitt 230. Unternehmen zu zwingen, vorausschauend zu denken und Verantwortung für die Auswirkungen ihrer Geschäftsentscheidungen zu übernehmen, kann das wirkungsvollste Instrument überhaupt sein. Müll rein, Müll raus – das Prinzip gilt immer noch. Wir sollten uns vor dem Müll in Acht nehmen, egal ob er in diese Plattformen gelangt oder aus ihnen herauskommt.
NERMEEN SHAIKH: Marc Rotenberg, könnten Sie auf die Aussage von Senator Blumenthal antworten?
MARC ROTENBERG: Rechts. Nun, ich habe mich sehr gefreut, dass er das gesagt hat. Es war tatsächlich eine Ansicht, die, wie Sie wissen, auf der anderen Seite des Ganges von Mitgliedern beider Parteien geäußert wurde. Der Verweis bezieht sich hier auf eine Bestimmung aus einem Gesetz aus dem Jahr 1996, die Internetunternehmen weitgehende Immunität für die von ihnen veröffentlichten Informationen gewährte und von denen sie, offen gesagt, durch das im Laufe der Jahre entwickelte Werbemodell profitierten. Ich war 1996 an der Ausarbeitung des Gesetzes beteiligt. Damals fühlte es sich angemessen an. Das Internet steckte noch in den Anfängen und es gab keine dominierenden großen Technologieunternehmen, wie es heute der Fall ist.
Aber ich denke, vielen von uns – ich weiß – wurde im Laufe der Zeit klar, dass Abschnitt 230 reformiert, wenn nicht sogar aufgehoben werden musste. Eine der unglücklichen Folgen dieser Immunitätsbestimmung bestand darin, dass die Internetunternehmen einen Großteil der Leserschaft und Einnahmen traditioneller Nachrichtenorganisationen an sich reißen konnten. Paradoxerweise benachteiligte es beim Schutz der Internetfirmen tatsächlich die Nachrichtenorganisationen, die versuchten, ihre Arbeit online verfügbar zu machen. Und das hat mich sehr, sehr beunruhigt.
Aber auch hier ist die gute Nachricht, dass Senator Blumenthal und andere im Hinblick auf die KI-Branche grundsätzlich gesagt haben, dass sie diesen Fehler nicht noch einmal machen werden. Und es ist tatsächlich sehr leicht zu erkennen, wie genau das gleiche Problem entstehen könnte, denn diese KI-Modelle, insbesondere die generativen KI-Modelle, sammeln grundsätzlich so viele Daten von anderen, wie sie können, und es wird meiner Meinung nach sehr schwierig sein, sie aufrechtzuerhalten unabhängige Unternehmen und Organisationen ohne einen besseren Ansatz zur Haftung. Das war also ein positives Signal, und es gab, glaube ich, parteiübergreifende Unterstützung.
AMY GOODMAN: Lassen Sie mich Sie, Marc Rotenberg, zum aktuellen WGA-Streik und zum Zusammenhang zwischen dieser und der KI befragen. Sie haben zum Beispiel – nun ja, es ist schon in die dritte Woche – die Schauspielerin und Informatikerin Justine Bateman gepostet, die einen Tweet-Thread gepostet hat, in dem sie detailliert beschreibt, wie künstliche Intelligenz die Unterhaltungsindustrie revolutionieren könnte, und darüber gesprochen hat, was Schauspieler tun können, um sich zu schützen. Aber sprechen Sie darüber, welche Forderungen die WGA an die Studios stellt und warum künstliche Intelligenz so zentral und bedrohlich für Arbeitsplätze ist.
MARC ROTENBERG: Rechts. Ich habe ein wenig Verständnis für die Bestimmungen der WGA – es tut mir leid, Position in den aktuellen Verhandlungen. Ich habe zufällig einen der Verhandlungspunkte gesehen, und es ging darum, ob generative KI-Techniken tatsächlich verwendet werden könnten, um beispielsweise Skripte zu schreiben. Und ich denke, die Gewerkschaft möchte hier völlig zu Recht eine klare Linie ziehen und sagen: „Nein, wir wollen nicht, dass unsere Arbeit durch Maschinen ersetzt wird.“
Und wir sehen es tatsächlich bereits in der Nachrichtenbranche. Eine der Nachrichtenorganisationen – ich habe den Namen vergessen, aber sie haben, wissen Sie, Personalentlassungen angekündigt, weil sie auf Effizienz und Wirtschaftlichkeit und dann, ehrlich gesagt, auf mehr Rentabilität Wert legen, wenn sie, sagen wir mal, einen Vorgesetzten gebrauchen können 10 generative KI-Programme im Gegensatz zu einem Editor und 10 Autoren. Tatsächlich hat IBM kürzlich angekündigt, dass es viele seiner Mitarbeiter durch Programme ersetzen wird, von denen es glaubt, dass sie diese Aufgaben übernehmen können.
Nun gibt es in diesem Bereich natürlich seit langem eine interessante Debatte über die Auswirkungen der Technologie auf die Beschäftigung. Und es gibt die Ansicht, dass zwar einige Arbeitsplätze verloren gehen, aber neue Arbeitsplätze geschaffen werden, und oft können es bessere Arbeitsplätze sein. Ich bin kein Experte auf diesem Gebiet, aber ich werde es sagen. Der Wandel, der gerade stattfindet, vollzieht sich so schnell, dass ich mich wirklich frage, ob selbst diejenigen, die glauben, dass irgendwann neue Arbeitsplätze entstehen werden, tatsächlich glauben, dass dies schnell genug geschehen wird. Und die Lektüre, die ich von vielen der führenden KI-Befürworter gemacht habe – dazu gehören zum Beispiel Kai-Fu Lee in China und Eric Schmidt hier in den USA –, wissen Sie, beide wollen und wollen die Regierung aus dem Weg räumen KI soll flächendeckend eingesetzt werden. Sie rechnen mit einer hohen Arbeitslosigkeit. Und viele fangen an, über einen wachsenden Bedarf an einem universellen Grundeinkommen zu sprechen, um Menschen zu unterstützen, die aufgrund von KI ihren Arbeitsplatz verlieren werden. Für mich erscheint dieser Moment also tatsächlich etwas dringlicher als die traditionelle Debatte über Technologie und Beschäftigung. Und ich denke, es ist richtig, dass die Writers Guild diese Themen jetzt anspricht. Ich vermute, dass es bei vielen anderen auch so sein wird.
AMY GOODMAN: Und Sie wissen, natürlich gibt es hier eine Menge Buchstabensuppe, von AI bis WGA, was, wie Sie gerade sagten, Writers Guild of America ist. Nermeen?
NERMEEN SHAIKH: Also, Marc, wenn du mir das auch erklären könntest – ich meine, es gibt mehrere Risiken, auf die Menschen hingewiesen haben, und zwar auf die Art und Weise, wie künstliche Intelligenz den demokratischen Prozess potenziell gefährden könnte, nicht nur hier bei Wahlen, sondern wirklich auf der ganzen Welt. Könnten Sie erklären, wie das passieren konnte und wo wir es bereits gesehen haben?
MARC ROTENBERG: Rechts. Dies ist also ein weiterer Bereich, in dem sich die KI sehr schnell weiterentwickelt. Und ich glaube nicht, dass wir über das nötige Fachwissen oder die entsprechenden Regeln verfügen, um auf Konsequenzen zu reagieren, insbesondere hier in den Vereinigten Staaten, wo bedauerlicherweise, wissen Sie, wachsendes Misstrauen gegenüber Institutionen, wachsendes Misstrauen gegenüber der Berichterstattung und tatsächlich die Unfähigkeit herrscht, sich zu einigen auf grundlegende Fakten. Sie können diese Trends durch KI-Techniken verstärken und beschleunigen.
Und lassen Sie mich kurz erklären, wie das funktioniert. Wir könnten zum Beispiel denken, dass das traditionelle Anliegen Propaganda oder falsche Aussagen sind, die veröffentlicht werden, um Menschen zu verwirren, um Menschen in die Irre zu führen. An dieser Art der Kommunikation – man könnte sie auch Desinformation nennen – ist nichts Neues. Mithilfe von KI-Techniken und personenbezogenen Daten besteht nun die Möglichkeit, Personen gezielt anzusprechen, zu profilieren, zu engagieren und zu pflegen, was äußerst effizient, äußerst überzeugend und tatsächlich sehr schwer vorhersehbar oder einzuschätzen ist. Dies ist tatsächlich eines der Themen, die Gary Marcus diese Woche im Ausschuss angesprochen hat. Ich meine, wir interagieren mit Menschen, sagen wir mal, über das Telefon oder über Zoom. Wir können beurteilen, mit wem wir sprechen und warum sie sagen, was sie sagen, und wir verfügen über eine gewisse angeborene Fähigkeit, menschliches Verhalten zu bewerten, die uns hilft, Wahrheit und Unwahrheit zumindest zu unterscheiden. Mit generativer KI wird es immer einfacher und immer kostengünstiger, menschliche Stimmen, menschliche Wörter, menschliche Bilder und Videos zu reproduzieren, um Menschen zu überzeugen.
Senator Blumenthal war also in dem Clip, den Sie zu Beginn zur Verfügung gestellt haben, in seinem Beispiel eigentlich recht sanft, weil er das Programm gebeten hat, einfach Wörter zu sagen, die er aufgrund seiner vorherigen Aussagen wahrscheinlich gesagt hätte. Es klang tatsächlich wie er. Aber stellen wir uns ein anderes Szenario vor, vielleicht das des Gegners von Senator Blumenthal im nächsten Rennen um den Senat in Connecticut, der genau dieselbe Technologie verwendet und Senator Blumenthal mit seiner Stimme einige wirklich empörende Dinge sagen lässt, oder? Die Art von Dingen, die Sie sagen – die Sie hören und sagen: „Oh mein Gott! Hat er das wirklich gesagt?“ Und dann wird Blumenthal natürlich in die Lage versetzt, zu sagen: „Nun, das war nicht ich.“ Wissen Sie, das war ein Computerprogramm, das mein Gegner erstellt hatte. Ich würde so etwas niemals sagen.“ Und die Leute, die jetzt diese beiden widersprüchlichen Aussagen machen, sagen: „Ja, aber wissen Sie, es klang sehr nach Ihnen.“ Rechts?"
Und dieses Szenario bereitet meiner Meinung nach vielen Menschen in der KI-Welt große Sorgen. Dort ist ein Artikel, glaube ich, erst diese Woche Der Atlantik von einem Philosophen bei Tufts, der über die Erschaffung gefälschter Menschen spricht. Generative KI ermöglicht es, gefälschte Menschen zu erschaffen. Und wir müssen die entscheidenden Fähigkeiten entwickeln, während wir uns durch diese digitale Umgebung manövrieren, um beurteilen zu können, was wahr ist und was nicht.
AMY GOODMAN: Wissen Sie, Ihnen fallen alle möglichen Dinge ein. Zum Beispiel Donald Trump, der für das Präsidentenamt kandidiert – nicht, dass ihm Fakten wichtig wären, sondern, wissen Sie, ein Tonband von ihm vor Jahrzehnten, in dem er erklärt, dass er fest an das Recht der Frauen glaubt, sich für eine Abtreibung zu entscheiden. Er sagte: „Wissen Sie, ich komme aus New York. So fühle ich mich.“ Ich kann nur sagen, dass es sich um Deep-Fake-Technologie handelt. Sie haben die neuesten Giuliani-Kassetten, die aus einem Gerichtsverfahren gegen ihn stammen und auf denen die Frau, die ihn des sexuellen Übergriffs beschuldigt, eine Reihe von Dingen aufgezeichnet hat. Er kann einfach sagen: „Das ist Deep Fake.“ Sie verfügen bereits über eine auf künstlicher Intelligenz basierende Deep-Fake-Technologie, die bereits demokratische Wahlen in der Türkei stört. Vor der ersten Wahlrunde am vergangenen Sonntag wurde im Internet ein Video veröffentlicht, bei dem es sich angeblich um ein durchgesickertes Sexvideo eines Präsidentschaftskandidaten handelt. Er schied aus dem Rennen aus und sagte, es sei ein Deep Fake, ein Fake-Video, Fake-Bilder. Deine Antwort?
MARC ROTENBERG: Nun, Amy, Ihr Standpunkt ist tatsächlich sehr wichtig, denn ich habe natürlich beschrieben, wie KI-Techniken eingesetzt werden können, um Menschen mit falschen Informationen zu überzeugen, aber auch das Vorhandensein von KI-Techniken kann es schwierig machen, herauszufinden, was wahr ist, weil andere können dann sagen: „Oh, wissen Sie, das Video, das Sie erstellt haben“, was übrigens wahr ist, „wurde von KI erstellt und ist daher etwas, das die Leute ablehnen können.“ Wenn wir also in eine Zeit kommen, in der es immer einfacher wird, synthetische Materialien herzustellen und zu überzeugen, die durch KI erzeugt werden, und in der das, was wahr ist, durch die Infragestellung dessen, was wir in der digitalen Welt sehen, gemindert wird, dann ist das wirklich eine Bedrohung öffentliche Vernunft und demokratische Institutionen.
Und das auch – wissen Sie, ich sage nur, ich habe es getan Überprüfen Vor nicht allzu langer Zeit wurde ein Buch von Eric Schmidt und Henry Kissinger, Huttenlocher am MIT, genannt Das Zeitalter der KI. Und sie schienen im Allgemeinen optimistisch über die Möglichkeit zu sein, dass KI zu einer besseren Entscheidungsfindung führen und demokratische Institutionen unterstützen würde. Und ich habe dieses Buch gelesen, mir ihre Beispiele angesehen und bin, wissen Sie, zu dem fast gegenteiligen Schluss gekommen. Wissen Sie, sie sagten, dies würde uns über das Zeitalter der Vernunft hinausführen, und ich sagte, dies würde uns zurück in ein Zeitalter des Glaubens führen, in dem wir uns einfach auf die Ergebnisse von KI-Systemen verlassen müssten und unsere Fähigkeit zur Vernunft verlieren würden. im Kontext der Demokratie debattieren und diskutieren.
Aber ohne, wie Sie wissen, hier zu sehr in die Tiefe zu gehen, möchte ich Ihnen und Ihren Zuschauern und Zuhörern noch einmal mitteilen, dass die Anhörung im Senat diese Woche sehr gut war. Es war wirklich ein Meilenstein und eine positive Entwicklung in den Vereinigten Staaten. Wie Sie zu Beginn dieses Abschnitts sagten, sind die USA hinter anderen Ländern zurückgeblieben. Wir erstellen tatsächlich einen Jahresbericht mit dem Titel „Index für künstliche Intelligenz und demokratische Werte“ und bewerten und ordnen Länder anhand ihrer KI-Richtlinien und -Praktiken zur Ausrichtung auf demokratische Werte. Und wir waren in den letzten Jahren wirklich besorgt um die Vereinigten Staaten – zu viele geheime Treffen, zu viele Treffen mit Technologie-CEOs, nicht genügend Fortschritte bei der Gesetzgebung. Aber ich denke, wir stehen vor einer Wende, und ich denke, dass die Anhörung im Senat diese Woche, die, wie ich zu Beginn sagte, tatsächlich auf einige der Bedenken reagierte, die meine Kollegin Merve Hickok bei der Anhörung zur Aufsicht des Repräsentantenhauses Anfang März geäußert hatte, ist wirklich eine gute Nachricht.
NERMEEN SHAIKH: Marc Rotenberg, könnten Sie uns auch erklären, welche Bedenken hinsichtlich des Einsatzes von künstlicher Intelligenz, Gesichtserkennungstechnologie und Biometrie bei der Polizeiarbeit und Einwanderung geäußert wurden?
MARC ROTENBERG: Rechts. Das ist also ein sehr wichtiges Thema. Und das führt uns tatsächlich zu einer der kritischen Debatten über die KI-Politik, nämlich ob Regierungen tatsächlich die Möglichkeit haben werden, rote Linien zu ziehen, um Verbote für bestimmte KI-Techniken zu schaffen, die grundlegende Menschenrechte verletzen. In der Technologiewelt besteht die Tendenz, wenn ein Problem identifiziert wird, zu sagen: „Oh, wissen Sie, Sie haben Recht.“ Mal sehen, ob wir das beheben können. Und dann machen wir mit dem System weiter, nachdem wir das Problem gelöst haben.“ Ich denke, was NGOs und Menschenrechtsorganisationen sagen, es gibt tatsächlich bestimmte Anwendungen von KI, die nicht erlaubt sein sollten.
So zum Beispiel der Einsatz von KI zur Gesichtsüberwachung. Und ich verwende diesen Begriff „Gesichtsüberwachung“ im Wesentlichen, um die Art der Gesichtserkennung zu unterscheiden, die wir beispielsweise durchführen, wenn wir unser iPhone öffnen, und das ist eine Authentifizierungstechnik, die unter Ihrer Kontrolle steht. Das ist eigentlich kein Problem. Aber wenn Sie das tun, und es liegt nicht unter Ihrer Kontrolle, sondern unter der Kontrolle der Regierung, dann ist es eine Form der Massenüberwachung, denn jetzt haben Sie nicht nur Kameras auf den Straßen, sondern Sie haben auch Kameras auf den Straßen, die dazu in der Lage sind Identifizieren Sie Menschen und identifizieren Sie sie nicht nur, sondern verknüpfen Sie ihr Bild und ihre Identität mit einer Datenbank, die sie profiliert und sie möglicherweise sogar auf der Grundlage ihrer Allianz mit der Regierung einordnet. Sie wissen also, dass dieses System mittlerweile in China weit verbreitet ist. In anderen Ländern wird darüber nachgedacht. Diese Art der Gesichtsüberwachung, Massenüberwachung, sollte unserer Meinung nach einfach verboten werden. Wir glauben, dass die biometrische Kategorisierung, also der Versuch, Menschen anhand biometrischer Faktoren herauszufiltern, ebenfalls verboten sein sollte. Beim Social Scoring handelt es sich wiederum um den Versuch, die Identität einer Person mit ihrer Unterstützung für den Staat in Einklang zu bringen.
Und die gute Nachricht hier, wenn ich noch ein paar Worte sagen darf, ist, dass wir in Zusammenarbeit mit der internationalen Organisation UNESCO an deren Empfehlung zur KI-Ethik, die 2021 angenommen wurde, mittlerweile, zumindest im Prinzip, 193 Länder haben, die dies gesagt haben KI sollte nicht zur Massenüberwachung und KI nicht zur sozialen Bewertung eingesetzt werden. Und als Senator Blumenthal diese Woche zu Beginn der Anhörung sagte: „Wir müssen Transparenz, Rechenschaftspflicht und Nutzungsbeschränkungen schaffen“, dachte ich: „Wow! „Das ist ein großartiger Moment“, denn wenn er „Nutzungsbeschränkungen“ sagt, antwortet er genau auf die Frage, die Sie gestellt haben, und auf die Punkte, die die NGOs und Menschenrechtsgruppen vorgebracht haben: Wir brauchen tatsächlich einige Verbote. Die Technologiebranche könnte sagen: „Nun, wir können fair sein.“ Wir können offen sein. Wir können Verantwortung übernehmen.“ Diese Worte sind nicht gut genug. Wir brauchen ein paar helle Linien.
AMY GOODMAN: Wissen Sie, als wir vor ein paar Jahren in Sundance waren, gab es diesen erstaunlichen Dokumentarfilm namens „ Codierte Vorspannung, eine Untersuchung der Folgen der MIT Media Lab-Forscherin – sie ist schwarz – Joy Buolamwini, eine Entdeckung der rassistischen Voreingenommenheit bei der Gesichtserkennung durch künstliche Intelligenz und wie diese gegen schwarze und farbige Menschen eingesetzt wird. Kannst du das näher erläutern, Marc?
MARC ROTENBERG: Ja, das ist tatsächlich ein toller Film und ich bin ein großer Fan von Joy. Sie gründete eine Organisation namens Algorithmic Justice League, die wirklich eine der ersten Gruppen war, und ihre Arbeit zielte insbesondere darauf ab, auf das Problem der eingebetteten Voreingenommenheit in der KI aufmerksam zu machen.
Und die bemerkenswerte Tatsache, die sie während ihrer Forschung am MIT entdeckte, war, dass diese Systeme als schwarze Frau nicht so gut funktionierten, wenn es darum ging, sie anhand ihrer Gesichtsmerkmale zu identifizieren, aber wenn sie eine weiße Maske auf ihr Gesicht setzte, dann Das Erkennungssystem begann zu funktionieren. Und es war meiner Meinung nach eine sehr deutliche Erinnerung an die Art von Voreingenommenheit, die in vielen dieser Systeme eingebaut ist. Und diese Voreingenommenheit kann übrigens viele verschiedene Ursachen haben. Wissen Sie, ein Teil davon dreht sich um die Daten. Ein Teil davon dreht sich um die Leute, die die Systeme programmieren. Ein Teil davon betrifft die Struktur und den Zweck der Unternehmen, die die Systeme einsetzen. Es existiert tatsächlich auf vielen verschiedenen Ebenen.
Und, wissen Sie, ihr Film, Codierte Vorspannung, ist tatsächlich etwas, das wir den Teilnehmern unserer AI Policy Clinic zeigen, weil wir möchten, dass die Menschen verstehen, wie dieses Problem aussieht. Und wie ich bereits sagte: Ich teile zwar die Bedenken derjenigen, die sich Sorgen über langfristige Risiken machen, denke aber, dass wir uns jetzt mit der Art und Weise befassen müssen, wie KI-Systeme Vorurteile einbetten. Und Joy und die Algorithmic Justice League haben gerade großartige Arbeit geleistet, um auf dieses Problem aufmerksam zu machen.
NERMEEN SHAIKH: Und, Marc, könnten Sie mir das erklären – erläutern Sie mir einfach, wie KI bereits Voreingenommenheit mit sich bringt, wie Sie sagten, worauf Joy hingewiesen hat und wen wir bei Sundance interviewt haben. Könnten Sie bitte genau erklären, wie das schon passiert? In welchem Kontext wird diese Technologie eingesetzt?
MARC ROTENBERG: Rechts. Nun, es ist ein großes und komplexes Feld. Und ich hoffe wirklich, dass Sie andere in Ihrem Programm haben, die über einige dieser Themen sprechen können. Ich habe das AI Now Institute erwähnt. Ich habe das Distributed AI Research Institute erwähnt, die vielen Leute da draußen, die sich mehr mit diesem Thema beschäftigt haben als ich.
Als Anwalt muss ich jedoch sagen, dass ein Szenario, das ich recht gut verstehe, im Zusammenhang mit dem Strafjustizsystem und der Verurteilung entsteht. Und, wissen Sie, ich meine, die Richter sind überlastet und müssen sich mit vielen Fällen befassen. Und sie kommen zu einer Strafentscheidung, und der Staatsanwalt könnte sagen: „Für diesen jungen weißen Mann empfehlen wir eine sechsmonatige Haftstrafe“, und eine Stunde später sagt er: „Für diesen jungen schwarzen Mann …“ empfehlen eine neunmonatige Haftstrafe.“ Und der Richter hört sich diese beiden Empfehlungen an und stellt offen gesagt die offensichtliche Frage: Was ist die Grundlage für die Ungleichheit in der Urteilsempfehlung? Und überall in den Vereinigten Staaten kommt immer häufiger die Antwort: „Nun, diese Empfehlungen stammen aus einem sehr hochentwickelten Programm, das eine Menge Daten untersucht und die beiden Personen heute in Ihrem Gericht analysiert hat, Euer Ehren.“ Und auch auf der Grundlage einiger vertraulicher Informationen, die wir eigentlich nicht offenlegen können, aber mit vielen guten Berichten und statistischen Auswertungen können wir dem Gericht versichern, dass, wenn das Ziel darin besteht, Rückfälle zu reduzieren, die Wahrscheinlichkeit einer erneuten Verpflichtung ist.“ eine Straftat: „Wissen Sie, der weiße Straftäter bekommt eine sechsmonatige Strafe und der schwarze Straftäter eine neunmonatige Strafe.“
Und wissen Sie, was Sie in diesem Szenario, das weit verbreitete Besorgnis erregt, sofort sehen, ist, dass vielleicht die neunmonatige Strafe gerechtfertigt ist, vielleicht die sechsmonatige Strafe gerechtfertigt ist, aber das haben wir eigentlich nicht Fähigkeit, zu verstehen, wie diese Ergebnisse zustande kamen, diese Ergebnisse anzufechten. Vielleicht haben sie sich geirrt. Möglicherweise ist sogar bei der Eingabe des Namens der Person, ihres Alters, ihrer Adresse oder anderer Faktoren, die zur Bewertung beigetragen haben, ein Fehler aufgetreten. Und sehen Sie, wir sind wieder in der Situation mit dem Schachprogramm von 2017, wo wir ein Ergebnis sehen und nicht wissen, wie es zustande kam.
Und ich habe tatsächlich mit Bundesrichtern über dieses Problem gesprochen. Und sie sagen: „Nun, es wird viel über Human-in-the-Loop geredet. Daher werden wir die KI-Empfehlung natürlich nicht einfach akzeptieren. Wissen Sie, es wird eine Person geben, die die endgültige Entscheidung treffen wird.“ Die Richter räumen aber auch ein, dass diese Systeme komplex sind. Sie werden, wie Sie wissen, von Experten unterstützt. Für den Richter ist es schwierig, das Ergebnis anzufechten. Und tatsächlich werden sie wie ein Stempel.
Wenn ich Ihren Zuhörern und Zuschauern also noch einen weiteren Gedanken mitteilen kann: Ich habe mich wirklich von diesem Konzept des „Human-in-the-Loop“ entfernt, obwohl es in der KI-Welt sehr beliebt ist. Ich denke, wir müssen stattdessen tatsächlich sagen: „KI-in-the-Loop, der Mensch hat das Sagen.“ Und das bedeutet, um auf dieses Beispiel der Strafverurteilung zurückzukommen: Wenn die Richterin nicht davon überzeugt ist, dass sie das Ergebnis verstehen und rechtfertigen kann, nehmen wir meiner Meinung nach einfach die KI weg. Ich glaube nicht, dass wir eine Situation haben, in der wir davon ausgehen, dass die von der KI generierte Ausgabe die richtige sein wird. Und natürlich handelt es sich bei diesem Beispiel, das ich in einem Bereich anführe, in dem ich mich ein wenig auskenne, um Entscheidungen zu Wohnraum und Krediten, Beschäftigung, Einwanderung und Einstellungen. Es ist im ganzen Land weit verbreitet,
AMY GOODMAN: Marc, wir haben nicht viel Zeit, aber zum Abschluss wollten wir noch eine Frage zu Ihrer Organisation, dem Center for AI and Digital Policy, stellen.
MARC ROTENBERG: Nun, danke, Amy. Und nochmals vielen Dank für die Gelegenheit, heute Morgen bei Ihnen sein zu dürfen.
Wir haben diese Organisation ins Leben gerufen, weil wir der Meinung waren, dass es dringend notwendig ist, KI-Techniken mit demokratischen Werten in Einklang zu bringen und die nächste Generation von KI-Politikern auszubilden. Wir unterrichten seit mehreren Jahren Kurse und haben, glaube ich, fast 500 Personen in 60 Ländern Zertifizierungen erteilt. Sie haben etwas über die demokratischen politischen Rahmenbedingungen, das UNESCO-Rahmenwerk und einige andere gelernt. Wir hoffen, dass wir durch die Organisation Menschen hervorbringen können, die gut ausgebildet sind, um sich an diesen Debatten zu beteiligen und gute Regeln einzuführen. Wir sind nicht gegen Technologie, aber wir glauben, dass Technologie immer unter der Kontrolle des Menschen bleiben muss. Wir unterstützen Rechtsstaatlichkeit, demokratische Werte und Grundrechte. Das ist wirklich unsere Mission.
AMY GOODMAN: Nun, Marc Rotenberg, wir möchten Ihnen vielmals dafür danken, dass Sie bei uns sind, Geschäftsführer des Center for AI and Digital Policy. Um zu sehen Teil 1 Informationen zu unserer Diskussion finden Sie auf demmocracynow.org. Ich bin Amy Goodman, mit Nermeen Shaikh. Vielen Dank, dass Sie sich uns angeschlossen haben.
ZNetwork finanziert sich ausschließlich durch die Großzügigkeit seiner Leser.
Spenden