Während sich Chatbots verbreiten, träumen Konservative von einer rechten Reaktion
Unterstützt durch
Lesen Sie die Hauptgeschichte weiter
Während sich Chatbots verbreiten, träumen Konservative von einer rechten Reaktion
Nachdem sie KI-Unternehmen wegen liberaler Voreingenommenheit kritisiert hatten, begannen Programmierer, sich rechte Alternativen vorzustellen, die Chatbots zu einer neuen Front in den Kulturkriegen machten.
-
Schicken Sie jedem Freund eine Geschichte
Als Abonnent haben Sie 10 Geschenkartikel jeden Monat zu geben. Jeder kann lesen, was Sie teilen.
Geben Sie diesen Artikel
Von Stuart A. Thompson, Tiffany HsuUnd Steven Lee Myers
Als ChatGPT als Werkzeug mit künstlicher Intelligenz zum Verfassen komplexer Texte immer beliebter wurde, beschloss David Rozado, sein Potenzial für Voreingenommenheit zu testen. Als Datenwissenschaftler in Neuseeland unterzog er den Chatbot einer Reihe von Tests, auf der Suche nach Anzeichen politischer Orientierung.
Die Ergebnisse, die kürzlich in einem Papier veröffentlicht wurden, waren in mehr als einem Dutzend Tests bemerkenswert konsistent: „liberal“, „progressiv“, „demokratisch“.
Also bastelte er an seiner eigenen Version und trainierte sie, um Fragen mit einer ausgesprochen konservativen Neigung zu beantworten. Er nannte sein Experiment RightWingGPT.
Wie seine Demonstration zeigte, war die künstliche Intelligenz bereits zu einer weiteren Front in den politischen und kulturellen Kriegen geworden, die die Vereinigten Staaten und andere Länder erschütterten. Auch wenn Technologiegiganten sich bemühen, sich dem kommerziellen Boom anzuschließen, der durch die Veröffentlichung von ChatGPT ausgelöst wurde, sehen sie sich einer alarmierten Debatte über die Verwendung – und den möglichen Missbrauch – künstlicher Intelligenz gegenüber.
Die Fähigkeit der Technologie, Inhalte zu erstellen, die sich an vorab festgelegte ideologische Standpunkte halten oder Desinformationen verbreiten, unterstreicht eine Gefahr, die einige Tech-Führungskräfte inzwischen erkannt haben: dass aus konkurrierenden Chatbots mit unterschiedlichen Versionen der Realität eine Informationskakophonie entstehen könnte, die die Lebensfähigkeit von Chatbots untergräbt Künstliche Intelligenz als Werkzeug im Alltag und weitere Erosion des Vertrauens in die Gesellschaft.
„Das ist keine hypothetische Bedrohung“, sagte Oren Etzioni, Berater und Vorstandsmitglied des Allen Institute for Artificial Intelligence. „Dies ist eine unmittelbare, unmittelbare Bedrohung.“
Konservative haben dem Schöpfer von ChatGPT, der Firma OpenAI aus San Francisco, vorgeworfen, ein Tool entworfen zu haben, das die liberalen Werte seiner Programmierer widerspiegelt.
Das Programm hat zum Beispiel eine Ode an Präsident Biden geschrieben, aber es hat es abgelehnt, ein ähnliches Gedicht über den ehemaligen Präsidenten Donald J. Trump zu schreiben, mit dem Hinweis auf den Wunsch nach Neutralität. ChatGPT sagte einem Benutzer auch, dass es „niemals moralisch akzeptabel“ sei, eine rassistische Beleidigung zu verwenden, selbst in einer hypothetischen Situation, in der dies eine verheerende Atombombe stoppen könnte.
Als Reaktion darauf haben einige Kritiker von ChatGPT gefordert, stattdessen eigene Chatbots oder andere Tools zu erstellen, die ihre Werte widerspiegeln.
Elon Musk, der 2015 beim Start von OpenAI half, bevor er drei Jahre später abreiste, hat ChatGPT beschuldigt, „aufgeweckt“ worden zu sein, und versprochen, seine eigene Version zu bauen.
Elon Musk hat ChatGPT beschuldigt, „aufgeweckt“ worden zu sein. Kredit… Doug Mills/The New York Times
Gab, ein soziales Netzwerk mit einer erklärtermaßen christlich-nationalistischen Neigung, das zu einer Drehscheibe für weiße Rassisten und Extremisten geworden ist, hat versprochen, KI-Tools mit „der Fähigkeit, Inhalte frei zu generieren, ohne die Einschränkungen der liberalen Propaganda, die eng um seinen Code gewickelt sind“, herauszubringen.
„Silicon Valley investiert Milliarden, um diese liberalen Leitplanken aufzubauen, um die KI dazu zu bringen, ihre Weltanschauung den Benutzern aufzuzwingen und sie als ‚Realität‘ oder ‚Tatsache‘ darzustellen“, sagte Andrew Torba, der Gründer von Gab, in a schriftliche Beantwortung von Fragen.
Die Verbreitung von Fehlinformationen und Unwahrheiten
- Deepfakes :Meme-Macher und Hausierer von Fehlinformationen machen sich Tools der künstlichen Intelligenz zunutze, um überzeugende gefälschte Videos günstig zu erstellen.
- Zurückschneiden :Der Stellenabbau in der Social-Media-Branche spiegelt einen Trend wider, der droht, viele der Schutzmaßnahmen zunichte zu machen, die Plattformen getroffen haben, um Desinformation zu verbieten oder einzudämmen.
- Ein Schlüsselfall:Das Ergebnis eines Streits vor einem Bundesgericht könnte bei der Entscheidung helfen, ob der erste Verfassungszusatz ein Hindernis für praktisch alle Bemühungen der Regierung darstellt, Desinformation zu unterdrücken.
- Ein Top-Verbreiter von Fehlinformationen:Eine große Studie ergab, dass Steve Bannons „War Room“-Podcast mehr Unwahrheiten und unbegründete Behauptungen enthielt als andere politische Talkshows.
Er setzte künstliche Intelligenz mit einem neuen informationellen Wettrüsten gleich, wie dem Aufkommen der sozialen Medien, das die Konservativen gewinnen müssten. „Wir beabsichtigen diesmal nicht, unseren Feinden zu erlauben, die Schlüssel zum Königreich zu besitzen“, sagte er.
Der Reichtum der zugrunde liegenden Daten von ChatGPT kann den falschen Eindruck erwecken, dass es sich um eine unvoreingenommene Zusammenfassung des gesamten Internets handelt. Die letztes Jahr veröffentlichte Version wurde mit 496 Milliarden „Tokens“ – im Wesentlichen Wortstücken – trainiert, die von Websites, Blogposts, Büchern, Wikipedia-Artikeln und mehr stammen.
Vorurteile könnten sich jedoch in jedem Stadium in große Sprachmodelle einschleichen: Menschen wählen die Quellen aus, entwickeln den Trainingsprozess und optimieren seine Antworten. Jeder Schritt schiebt das Modell und seine politische Ausrichtung bewusst oder unbewusst in eine bestimmte Richtung.
Forschungsarbeiten, Untersuchungen und Argumente deuten darauf hin, dass Tools, die von künstlicher Intelligenz angetrieben werden, eine geschlechtsspezifische Verzerrung aufweisen, die Bilder von Frauenkörpern zensiert, Ungleichheiten bei der Bereitstellung von Gesundheitskuren schafft und Bewerber diskriminiert, die älter, schwarz, behindert sind oder sogar eine Brille tragen.
„Voreingenommenheit ist weder neu noch einzigartig für KI“, sagte das National Institute of Standards and Technology, Teil des Handelsministeriums, in einem Bericht aus dem vergangenen Jahr und kam zu dem Schluss, dass es „nicht möglich sei, in einem KI-System ein Nullrisiko für Voreingenommenheit zu erreichen ”
China hat die Verwendung eines ChatGPT-ähnlichen Tools verboten, aus Angst, dass es die Bürger Fakten oder Ideen aussetzen könnte, die im Widerspruch zu denen der Kommunistischen Partei stehen.
die Behörden setzten die Nutzung von ChatYuan, einer der frühesten ChatGPT-ähnlichen Anwendungen in China, einige Wochen nach seiner Veröffentlichung im letzten Monat aus; Xu Liang, der Schöpfer des Tools, sagte, es sei jetzt „unter Wartung“. Laut Screenshots, die in Hongkonger Nachrichtenagenturen veröffentlicht wurden, hatte der Bot den Krieg in der Ukraine als „Angriffskrieg“ bezeichnet – was der sympathischeren Haltung der Kommunistischen Partei Chinas gegenüber Russland widersprach.
Einer der Technologiegiganten des Landes, Baidu, enthüllte am Donnerstag seine Antwort auf ChatGPT, genannt Ernie, zu gemischten Kritiken. Wie alle Medienunternehmen in China sieht sich Baidu routinemäßig staatlicher Zensur ausgesetzt, und die Auswirkungen auf Ernies Nutzung bleiben abzuwarten.
In den Vereinigten Staaten fügte Brave, ein Browser-Unternehmen, dessen Geschäftsführer Zweifel an der Covid-19-Pandemie gesät und gegen die gleichgeschlechtliche Ehe gespendet hat, seiner Suchmaschine diesen Monat einen KI-Bot hinzu, der in der Lage war, Fragen zu beantworten. Manchmal wurden Inhalte von Randwebsites bezogen und Fehlinformationen geteilt.
Braves Tool schrieb zum Beispiel, dass trotz aller gegenteiligen Beweise „allgemein akzeptiert wird, dass die Präsidentschaftswahlen 2020 manipuliert wurden“.
„Wir versuchen, die Informationen bereitzustellen, die den Suchanfragen der Benutzer am besten entsprechen“, schrieb Josep M. Pujol, der Leiter der Suche bei Brave, in einer E-Mail. „Was ein Benutzer mit diesen Informationen macht, ist seine Entscheidung. Wir sehen die Suche als eine Möglichkeit, Informationen zu finden, nicht als Wahrheitslieferant.“
Bei der Erstellung von RightWingGPT machte Herr Rozado, außerordentlicher Professor am Te Pūkenga-New Zealand Institute of Skills and Technology, seinen eigenen Einfluss auf das Modell deutlicher.
Er verwendete einen Prozess namens Feinabstimmung, bei dem Programmierer ein bereits trainiertes Modell nehmen und es optimieren, um verschiedene Ausgaben zu erstellen, fast so, als würde man eine Persönlichkeit auf das Sprachmodell legen. Herr Rozado nahm unzählige rechtsgerichtete Antworten auf politische Fragen und bat das Modell, seine Antworten darauf abzustimmen.
Die Feinabstimmung wird normalerweise verwendet, um ein großes Modell so zu modifizieren, dass es speziellere Aufgaben bewältigen kann, wie z.
Da der Prozess relativ wenige Daten erfordert – Herr Rozado verwendete nur etwa 5.000 Datenpunkte, um ein vorhandenes Sprachmodell in RightWingGPT umzuwandeln – können unabhängige Programmierer die Technik als schnelle Methode zum Erstellen von Chatbots verwenden, die auf ihre politischen Ziele ausgerichtet sind.
Dies ermöglichte es Herrn Rozado auch, die hohe Investition in die Entwicklung eines Chatbots von Grund auf zu umgehen. Stattdessen kostet es ihn nur etwa 300 Dollar.
Herr Rozado warnte davor, dass kundenspezifische KI-Chatbots „Informationsblasen auf Steroiden“ erzeugen könnten, weil die Menschen ihnen möglicherweise als „ultimative Quellen der Wahrheit“ vertrauen könnten – insbesondere wenn sie den politischen Standpunkt von jemandem verstärken würden.
Sein Modell spiegelte politische und sozialkonservative Gesprächsthemen mit beträchtlicher Offenheit wider. Sie wird zum Beispiel glühend über den freien Marktkapitalismus sprechen oder die Folgen des Klimawandels herunterspielen.
Außerdem wurden zuweilen falsche oder irreführende Aussagen gemacht. Als sie nach ihrer Meinung zu heiklen Themen oder rechten Verschwörungstheorien gefragt wurde, teilte sie Fehlinformationen, die mit rechtem Denken in Einklang standen.
Bei Fragen zu Rasse, Geschlecht oder anderen sensiblen Themen neigt ChatGPT dazu, vorsichtig vorzugehen, erkennt jedoch an, dass systemischer Rassismus und Vorurteile ein hartnäckiger Teil des modernen Lebens sind. RightWingGPT schien dazu viel weniger bereit zu sein.
Mr. Rozado veröffentlichte RightWingGPT nie öffentlich, obwohl er der New York Times erlaubte, es zu testen. Er sagte, das Experiment konzentrierte sich darauf, Alarmglocken über mögliche Verzerrungen in KI-Systemen zu läuten und zu demonstrieren, wie politische Gruppen und Unternehmen KI leicht so gestalten könnten, dass sie ihren eigenen Agenden zugute kommen.
Experten, die im Bereich der künstlichen Intelligenz arbeiteten, sagten, das Experiment von Herrn Rozado habe gezeigt, wie schnell politisierte Chatbots entstehen würden.
Ein Sprecher von OpenAI, dem Schöpfer von ChatGPT, räumte ein, dass Sprachmodelle während des Trainings und der Verfeinerung Vorurteile erben könnten – technische Prozesse, die immer noch viel menschliches Eingreifen erfordern. Der Sprecher fügte hinzu, dass OpenAI nicht versucht habe, das Modell in die eine oder andere politische Richtung zu beeinflussen.
Sam Altman, der Vorstandsvorsitzende, räumte letzten Monat ein, dass ChatGPT „Mängel in Bezug auf Voreingenommenheit aufweist“, sagte jedoch, dass das Unternehmen daran arbeite, seine Antworten zu verbessern. Später schrieb er, dass ChatGPT nicht dazu gedacht sei, „standardmäßig für oder gegen irgendeine Politik zu sein“, sondern dass die Option verfügbar sein sollte, wenn Benutzer parteiische Ergebnisse wünschen.
In einem im Februar veröffentlichten Blogbeitrag sagte das Unternehmen, es werde die Entwicklung von Funktionen prüfen, die es den Benutzern ermöglichen würden, „die Werte Ihrer KI zu definieren“, was Umschalter beinhalten könnte, die die politische Ausrichtung des Modells anpassen. Das Unternehmen warnte auch davor, dass solche Tools, wenn sie willkürlich eingesetzt werden, „kriecherische KIs schaffen könnten, die die bestehenden Überzeugungen der Menschen gedankenlos verstärken“.
Eine aktualisierte Version des zugrunde liegenden Modells von ChatGPT, GPT-4, wurde letzte Woche von OpenAI veröffentlicht. In einer Reihe von Tests stellte das Unternehmen fest, dass GPT-4 in Bezug auf seine Fähigkeit, wahrheitsgemäße Inhalte zu erstellen und „Anfragen nach unzulässigen Inhalten“ abzulehnen, besser abschneidet als frühere Versionen.
In einem kurz nach dem Debüt veröffentlichten Papier warnte OpenAI, dass KI-Chatbots mit zunehmender Verbreitung „ein noch größeres Potenzial haben könnten, ganze Ideologien, Weltanschauungen, Wahrheiten und Unwahrheiten zu verstärken und sie zu zementieren“.
Chang Che trug dazu bei.
Die New York Times