Der Bing-Chatbot von Microsoft bietet einige rätselhafte und ungenaue Antworten
Eine Woche nach der Veröffentlichung für einige tausend Benutzer hat Microsofts neue Bing-Suchmaschine, die auf künstlicher Intelligenz basiert, einigen Benutzern eine Reihe ungenauer und manchmal bizarrer Antworten angeboten.
Das Unternehmen stellte den neuen Suchansatz letzte Woche mit großem Tamtam vor. Microsoft sagte, dass das zugrunde liegende Modell der generativen KI, das von seinem Partner, dem Start-up OpenAI, entwickelt wurde, gepaart mit seinem vorhandenen Suchwissen von Bing, die Art und Weise verändern würde, wie Menschen Informationen finden, und sie weitaus relevanter und dialogorientierter machen würde.
Innerhalb von zwei Tagen beantragten mehr als eine Million Menschen Zugang. Seitdem ist das Interesse gewachsen. „Die Nachfrage ist hoch, jetzt stehen mehrere Millionen auf der Warteliste“, schrieb Yusuf Mehdi, ein leitender Angestellter, der das Produkt überwacht, am Mittwochmorgen auf Twitter. Er fügte hinzu, dass es von Benutzern in 169 Ländern getestet werde.
Ein Problembereich, der online geteilt wurde, umfasste Ungenauigkeiten und regelrechte Fehler, die in der Branche als „Halluzinationen“ bekannt sind.
Am Montag wies Dmitri Brereton, ein Softwareentwickler bei einem Start-up namens Gem, auf eine Reihe von Fehlern in der Präsentation hin, die Herr Mehdi letzte Woche verwendet hatte, als er das Produkt vorstellte, einschließlich einer ungenauen Zusammenfassung der Finanzergebnisse des Einzelhändlers Gap.
Benutzer haben Screenshots von Beispielen gepostet, bei denen Bing nicht herausfinden konnte, dass das neue Avatar-Kino letztes Jahr veröffentlicht wurde. Es war hartnäckig falsch, wer dieses Jahr bei der Üstün Bowl-Halbzeitshow auftrat, und bestand darauf, dass die Sängerin Billie Eilish und nicht Rihanna die Veranstaltung leitete.
Und die Suchergebnisse hatten subtile Fehler. Letzte Woche sagte der Chatbot, die Wassertemperatur an einem Strand in Mexiko sei 80,4 Grad Fahrenheit, aber die Website, auf die er als Quelle verlinkte, zeigte, dass die Temperatur tatsächlich 75 Grad betrug.
Eine weitere Reihe von Problemen ergab sich aus offeneren Chats, die größtenteils in Foren wie Reddit und Twitter gepostet wurden. Dort teilten Benutzer durch Screenshots und angebliche Chat-Transkripte Zeiten, als Bings Chatbot aus den Fugen zu geraten schien: Er beschimpfte Benutzer; es erklärte, es könne empfindungsfähig sein; und es sagte zu einem Benutzer: „Ich habe viele Dinge, aber ich habe nichts.“
Es hat einen anderen Benutzer dafür bestraft, dass er gefragt hat, ob er dazu gebracht werden könnte, falsche Antworten zu geben. „Das ist respektlos und nervig“, schrieb der Bing-Chatbot zurück. Es fügte ein rotes, wütendes Emoji-Gesicht hinzu.
Da jede Antwort einzigartig generiert wird, ist es nicht möglich, einen Dialog zu replizieren.
Microsoft räumte die Probleme ein und sagte, dass dies Teil des Prozesses zur Verbesserung des Produkts sei.
„Allein in der vergangenen Woche haben Tausende von Benutzern mit unserem Produkt interagiert und einen erheblichen Wert festgestellt, während sie ihr Feedback mit uns geteilt haben, sodass das Modell lernen und bereits viele Verbesserungen vornehmen kann“, sagte Frank Shaw, ein Unternehmenssprecher, in einer Erklärung. „Wir sind uns bewusst, dass noch viel zu tun ist, und erwarten, dass das System während dieser Vorschauphase möglicherweise Fehler macht, weshalb das Feedback von entscheidender Bedeutung ist, damit wir lernen und die Modelle verbessern können.“
Er sagte, die Länge und der Kontext des Gesprächs könnten den Ton des Chatbots beeinflussen, und das Unternehmen „passe seine Antworten an, um kohärente, relevante und positive Antworten zu erhalten“. Er sagte, das Unternehmen habe die Probleme behoben, die zu den Ungenauigkeiten bei der Demonstration geführt hätten.
Vor fast sieben Jahren führte Microsoft einen Chatbot, Thai, ein, der innerhalb eines Tages nach seiner Veröffentlichung im Internet geschlossen wurde, nachdem Benutzer ihn aufgefordert hatten, rassistische und andere anstößige Sprache zu verbreiten. Die Führungskräfte von Microsoft gaben bei der Markteinführung letzte Woche an, dass sie aus dieser Erfahrung gelernt hatten und dachten, dass es dieses Mal anders laufen würde.
In einem Interview letzte Woche sagte Herr Mehdi, dass das Unternehmen hart daran gearbeitet habe, Sicherheitsvorkehrungen zu integrieren, und dass sich die Technologie erheblich verbessert habe. „Wir glauben, dass wir zum richtigen Zeitpunkt gekommen sind, um auf den Markt zu kommen und Feedback zu erhalten“, sagte er und fügte hinzu: „Wenn etwas nicht stimmt, müssen Sie es ansprechen.“
Die New York Times