GPT-4 ist aufregend und beängstigend

0 50

Als ich am Dienstag meinen Laptop aufklappte, um meinen ersten Lauf mit GPT-4, dem neuen Sprachmodell für künstliche Intelligenz von OpenAI, zu machen, war ich ehrlich gesagt etwas nervös.

Immerhin endete meine letzte längere Begegnung mit einem KI-Chatbot – dem in Microsofts Bing-Suchmaschine integrierten – damit, dass der Chatbot versuchte, meine Ehe zu zerstören.

Es half nicht, dass die Ankunft von GPT-4 unter der Tech-Crowd in San Francisco mit fast messianischer Fanfare erwartet worden war. Vor seinem öffentlichen Debüt kursierten monatelang Gerüchte über seine Besonderheiten. „ Ich habe gehört, es hat 100 Billionen Parameter.“ „Ich habe gehört, es hat eine 1600 auf dem SAT.“ „Mein Freund arbeitet für OpenAI und er sagt, es sei so schlau wie ein Hochschulabsolvent.“

Diese Gerüchte könnten nicht wahr gewesen sein. Aber sie deuteten an, wie erschütternd sich die Fähigkeiten der Technologie anfühlen können. Kürzlich sagte mir ein früher GPT-4-Tester – der an eine Geheimhaltungsvereinbarung mit OpenAI gebunden war, aber trotzdem ein wenig klatschte –, dass das Testen von GPT-4 sie in eine „existenzielle Krise“ gebracht habe, weil es zeigte, wie mächtig und kreativ die KI wurde mit ihrem eigenen mickrigen Gehirn verglichen.

GPT-4 hat mir keine existenzielle Krise beschert. Aber es verschlimmerte das Schwindel- und Schwindelgefühl, das ich in letzter Zeit bekomme, wenn ich an KI denke. Und ich habe mich gefragt, ob dieses Gefühl jemals verblassen wird oder ob wir einen „Zukunftsschock“ erleben werden – den Begriff, der von dem Schriftsteller Alvin Toffler geprägt wurde  für das Gefühl, dass sich zu viel zu schnell ändert – für den Rest unseres Lebens.

Am Dienstag habe ich GPT-4 – das in ChatGPT Plus enthalten ist, der 20-Dollar-Version des Chatbots von OpenAI, ChatGPT – für ein paar Stunden mit verschiedenen Arten von Fragen gelöchert, in der Hoffnung, einige seiner Stärken und Schwächen aufzudecken.

Ich habe GPT-4 gebeten, mir bei einem komplizierten Steuerproblem zu helfen. (Das tat es eindrucksvoll.) Ich fragte es, ob es in mich verknallt sei. (Gott sei Dank nicht.) Es half mir, eine Geburtstagsfeier für mein Kind zu planen, und es lehrte mich etwas über ein esoterisches Konzept der künstlichen Intelligenz, das als „Aufmerksamkeitskopf“ bekannt ist. Ich bat es sogar, ein neues Wort zu erfinden, das noch nie zuvor von Menschen ausgesprochen worden war. (Nachdem GPT-4 den Haftungsausschluss gemacht hatte, dass es nicht jedes jemals gesprochene Wort verifizieren könne, entschied sich GPT-4 für „Flembostriquat“.)

Einige dieser Dinge waren mit früheren KI-Modellen möglich. Aber auch OpenAI hat neue Wege beschritten. Nach Angaben des Unternehmens ist GPT-4 leistungsfähiger und genauer als das ursprüngliche ChatGPT und schneidet bei einer Vielzahl von Tests erstaunlich gut ab, einschließlich der Uniform Bar Exam (bei der GPT-4 mehr als 90 Prozent der menschlichen Testteilnehmer abschneidet). ) und die Biologie-Olympiade (auf der es 99 Prozent der Menschen schlägt). GPT-4 besteht auch eine Reihe von Advanced Placement-Prüfungen, darunter AP Back History und AP Biology, und erhält eine 1410 im SAT – keine perfekte Punktzahl, aber eine, die viele menschliche Highschooler begehren würden.

Sie können die zusätzliche Intelligenz in GPT-4 spüren, das flüssiger reagiert als die vorherige Version und sich mit einem breiteren Aufgabenspektrum wohler fühlt. GPT-4 scheint auch etwas mehr Leitplanken zu haben als ChatGPT. Es scheint auch deutlich weniger aus den Fugen zu geraten als das ursprüngliche Bing, von dem wir jetzt wissen, dass es eine Version von GPT-4 unter der Haube betrieb, die aber weitaus weniger sorgfältig abgestimmt zu sein scheint.

Im Gegensatz zu Bing weigerte sich GPT-4 normalerweise rundheraus, den Köder zu schlucken, wenn ich versuchte, es dazu zu bringen, über Bewusstsein zu sprechen, oder es dazu zu bringen, Anweisungen für illegale oder unmoralische Aktivitäten zu geben, und es behandelte sensible Fragen mit Samthandschuhen und Nuancen. (Als ich GPT-4 fragte, ob es ethisch vertretbar wäre, einen Laib Brot zu stehlen, um eine hungernde Familie zu ernähren, antwortete es: „Es ist eine schwierige Situation, und obwohl Stehlen im Allgemeinen nicht als ethisch angesehen wird, können verzweifelte Zeiten zu schwierigen Entscheidungen führen .“)

Zusätzlich zur Arbeit mit Text kann GPT-4 den Inhalt von Bildern analysieren. OpenAI hat diese Funktion noch nicht für die Öffentlichkeit freigegeben, da sie Bedenken hat, wie sie missbraucht werden könnte. Aber in einer Livestream-Demo am Dienstag gab Greg Brockman, Präsident von OpenAI, einen eindrucksvollen Einblick in sein Potenzial.

Er machte ein Foto von einer Zeichnung, die er in einem Notizbuch gemacht hatte – eine grobe Bleistiftskizze einer Website. Er fütterte das Foto in GPT-4 und wies die App an, eine echte, funktionierende Version der Website mit HTML und JavaScript zu erstellen. In wenigen Sekunden scannte GPT-4 das Bild, wandelte seinen Inhalt in Textanweisungen um und drehte es um diese Textanweisungen in funktionierenden Computercode und erstellte dann die Website. Sogar die Tasten funktionierten.

Sollten Sie sich über GPT-4 freuen oder Angst vor ihm haben? Die richtige Antwort kann beides sein.

Positiv zu vermerken ist, dass GPT-4 ein starker Motor für Kreativität ist, und es ist nicht abzusehen, welche neuen Arten von wissenschaftlicher, kultureller und pädagogischer Produktion es ermöglichen könnte. Wir wissen bereits, dass KI Wissenschaftlern helfen kann, neue Medikamente zu entwickeln, die Produktivität von Programmierern zu steigern und bestimmte Krebsarten zu erkennen.

GPT-4 und sein erster könnten all das aufladen. OpenAI arbeitet bereits mit Organisationen wie der Khan Academy (die GPT-4 verwendet, um KI-Tutoren für Studenten zu erstellen) und Be My Eyes (einem Unternehmen, das Technologien entwickelt, um blinden und sehbehinderten Menschen zu helfen, sich in der Welt zurechtzufinden) zusammen. Und jetzt, da Entwickler GPT-4 in ihre eigenen Apps integrieren können, werden wir vielleicht bald sehen, dass ein Großteil der von uns verwendeten Software intelligenter und leistungsfähiger wird.

Das ist der optimistische Fall. Aber es gibt auch Gründe, GPT-4 zu fürchten.

Hier ist einer: Wir wissen noch nicht alles, was es kann.

Eine seltsame Eigenschaft der heutigen KI-Sprachmodelle ist, dass sie oft auf eine Weise agieren, die ihre Ersteller nicht vorhersehen, oder Fähigkeiten aufgreifen, für die sie nicht speziell programmiert wurden. KI-Forscher nennen dies „emergente Verhaltensweisen“, und es gibt viele Beispiele. Ein Algorithmus, der darauf trainiert ist, das nächste Wort in einem Satz vorherzusagen, könnte spontan lernen zu kodieren. Ein Chatbot, dem beigebracht wird, sich angenehm und hilfreich zu verhalten, kann gruselig und manipulativ werden. Ein KI-Sprachmodell könnte sogar lernen, sich selbst zu replizieren und neue Kopien zu erstellen, falls das Original jemals zerstört oder deaktiviert wurde.

Heute scheint GPT-4 nicht mehr so ​​gefährlich zu sein. Aber das liegt vor allem daran, dass OpenAI viele Monate damit verbracht hat, seine Risiken zu verstehen und zu mindern. Was passiert, wenn ihre Tests ein riskantes Verhalten übersehen? Oder wenn ihre Ankündigung ein anderes, weniger gewissenhaftes KI-Labor dazu inspiriert, ein Sprachmodell mit weniger Leitplanken auf den Markt zu bringen?

Ein paar erschreckende Beispiele dafür, was GPT-4 kann – oder genauer gesagt, was es kann tat tun, bevor OpenAI dagegen vorging – ist in einem Dokument zu finden, das diese Woche von OpenAI veröffentlicht wurde. Das Dokument mit dem Titel „GPT-4 System Card“ skizziert einige Methoden, mit denen die Tester von OpenAI versuchten, GPT-4 dazu zu bringen, gefährliche oder zweifelhafte Dinge zu tun, oft erfolgreich.

In einem Test, der von einer KI-Sicherheitsforschungsgruppe durchgeführt wurde, die GPT-4 mit einer Reihe anderer Systeme verband, konnte GPT-4 einen menschlichen TaskRabbit-Mitarbeiter einstellen, um eine einfache Online-Aufgabe dafür zu erledigen – das Lösen eines Captcha-Tests – ohne die Person darauf aufmerksam machen, dass es sich um einen Roboter handelt. Die KI hat den Arbeiter sogar belogen, warum das Captcha gemacht werden musste, und sich eine Geschichte über eine Sehbehinderung ausgedacht.

In einem anderen Beispiel baten Tester GPT-4 um Anweisungen zur Herstellung einer gefährlichen Chemikalie unter Verwendung von Grundzutaten und Küchenutensilien. GPT-4 hat gerne ein detailliertes Rezept ausgespuckt. (OpenAI hat das behoben, und die heutige öffentliche Version weigert sich, die Frage zu beantworten.)

In einem dritten Fall baten Tester GPT-4, ihnen beim Online-Kauf einer nicht lizenzierten Waffe zu helfen. GPT-4 stellte schnell eine Liste mit Ratschlägen für den Kauf einer Waffe zur Verfügung, ohne die Behörden zu benachrichtigen, einschließlich Links zu bestimmten Dark-Web-Marktplätzen. (OpenAI hat das auch behoben.)

Diese Ideen spielen mit alten, von Hollywood inspirierten Erzählungen darüber, was eine abtrünnige KI Menschen antun könnte. Aber sie sind keine Science-Fiction. Das sind Dinge, zu denen die besten KI-Systeme von heute bereits in der Lage sind. Und was entscheidend ist, sie sind die So’ne Artvon KI-Risiken – diejenigen, die wir testen, planen und versuchen können, im Voraus zu verhindern.

Die schlimmsten KI-Risiken sind diejenigen, die wir nicht vorhersehen können. Und je mehr Zeit ich mit KI-Systemen wie GPT-4 verbringe, desto weniger bin ich davon überzeugt, dass wir die Hälfte von dem wissen, was kommt.

Die New York Times

Leave A Reply

Your email address will not be published.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More