Die Tierübersetzer

0 161

Der Nacktmull ist vielleicht nicht viel anzusehen, aber er hat viel zu sagen. Die faltigen Nagetiere mit Schnurrbart, die wie viele Ameisen in großen, unterirdischen Kolonien leben, haben ein ausgeklügeltes Stimmrepertoire. Sie pfeifen, trillern und zwitschern; Grunzen, Schluckauf und Zischen.

Und als sich zwei der redseligen Ratten in einem dunklen Tunnel begegnen, tauschen sie einen Standardgruß aus. „Sie machen ein leises Zwitschern und dann ein sich wiederholendes leises Zwitschern“, sagte Alison Barker, Neurowissenschaftlerin am Max-Planck-Institut für Hirnforschung in Deutschland. „Sie haben ein kleines Gespräch.“

In diesem alltäglichen Austausch ist eine Fülle sozialer Informationen verborgen, die Dr. Barker und ihre Kollegen entdeckten, als sie maschinelle Lernalgorithmen verwendeten, um 36.000 leise Zwitschern zu analysieren, die in sieben Maulwurfskolonien aufgezeichnet wurden.

Jede Maulwurfsratte hatte nicht nur ihre eigene Stimmsignatur, sondern jede Kolonie hatte ihren eigenen Dialekt, der kulturell über Generationen weitergegeben wurde. In Zeiten sozialer Instabilität – wie in den Wochen nach der gewaltsamen Absetzung der Königin einer Kolonie – fielen diese zusammenhängenden Dialekte auseinander. Als eine neue Königin ihre Herrschaft antrat, schien sich ein neuer Dialekt durchzusetzen.

„Der Begrüßungsruf, von dem ich dachte, dass er ziemlich einfach sein würde, stellte sich als unglaublich kompliziert heraus“, sagte Dr. Barker, der jetzt die vielen anderen Geräusche untersucht, die die Nagetiere machen. „Maschinelles Lernen hat meine Forschung irgendwie verändert.“

Hören Sie zwei nackte Maulwurfsratten, die leises Zwitschern austauschen

Aufnahme von Alison Barker, Alena Lemazina und Sanjana Joshi

Systeme für maschinelles Lernen, die Algorithmen verwenden, um Muster in großen Datensammlungen zu erkennen, haben sich bei der Analyse der menschlichen Sprache hervorgetan und Sprachassistenten hervorgebracht, die Sprache erkennen, Transkriptionssoftware, die Sprache in Text umwandelt, und digitale Tools, die zwischen menschlichen Sprachen übersetzen.

In den letzten Jahren haben Wissenschaftler damit begonnen, diese Technologie einzusetzen, um Tierkommunikation zu entschlüsseln, indem sie maschinelle Lernalgorithmen verwenden, um zu erkennen, wann quietschende Mäuse gestresst sind oder warum Flughunde schreien. Noch ehrgeizigere Projekte sind im Gange – um einen umfassenden Katalog von Krähenrufen zu erstellen, die Syntax von Pottwalen abzubilden und sogar Technologien zu entwickeln, die es Menschen ermöglichen, zu antworten.

„Versuchen wir, einen Google Übersetzer für Tiere zu finden“, sagte Diana Reiss, Expertin für Delfinkognition und -kommunikation am Hunter College und Mitbegründerin von Interspecies Internet, einer Denkfabrik, die sich der Erleichterung der Kommunikation zwischen Arten verschrieben hat.

Alison Barker, Neurowissenschaftlerin am Max-Planck-Institut für Hirnforschung. Anerkennung… Felix Schmitt für die New York Times

das Feld ist jung und viele Projekte stecken noch in den Kinderschuhen; Die Menschheit steht nicht kurz davor, einen Rosetta-Stein für Walgesänge zu haben oder die Fähigkeit, das Fett mit Katzen zu kauen. Aber die Arbeit zeigt bereits, dass Tierkommunikation viel komplexer ist, als es für das menschliche Ohr klingt, und das Geschwätz bietet einen umfassenderen Blick auf die Welt jenseits unserer eigenen Spezies.

„Ich finde es wirklich faszinierend, dass Maschinen uns helfen könnten, uns dem belebten Leben näher zu fühlen, dass künstliche Intelligenzen uns dabei helfen könnten, biologische Intelligenzen wahrzunehmen“, sagte Tom Mustill, ein Filmemacher über Natur und Wissenschaft und Autor des in Kürze erscheinenden Buches „How to Sprich Wal.“ „Das ist, als hätten wir ein Teleskop erfunden – ein neues Werkzeug, mit dem wir wahrnehmen können, was bereits da war, aber wir vorher nicht sehen konnten.“

Fortgeschrittenes Abhören

Studien zur Tierkommunikation sind nicht neu, aber maschinelle Lernalgorithmen können subtile Muster erkennen, die menschlichen Zuhörern entgehen könnten. Wissenschaftler haben beispielsweise gezeigt, dass diese Programme die Stimmen einzelner Tiere unterscheiden, zwischen Geräuschen unterscheiden können, die Tiere unter verschiedenen Umständen machen, und ihre Lautäußerungen in kleinere Teile zerlegen können, ein entscheidender Schritt bei der Entschlüsselung der Bedeutung.

Lesen Sie mehr über Künstliche Intelligenz

  • Fortschritte machen: Wir befinden uns in einem goldenen Zeitalter des Fortschritts in der künstlichen Intelligenz. Es ist an der Zeit, sein Potenzial und seine Risiken ernst zu nehmen, schreibt unser Technologie-Kolumnist.
  • Schaffung eines „Gedankenpartners“ : KI-Systeme können riesige Datenmengen in Sekundenschnelle verarbeiten, aber sie können die Welt nicht verstehen. Ein Mann will das ändern.
  • Fotoüberwachung: Google hat ein automatisiertes Tool, um missbräuchliche Bilder von Kindern zu erkennen. Aber das System kann Fehler machen, und die Folgen sind schwerwiegend.
  • Sind diese Leute echt?:Wir haben unser eigenes künstliches Technologiesystem entwickelt, um zu verstehen, wie einfach es für einen Computer ist, falsche Gesichter zu erzeugen.

„Eines der wirklich großartigen Dinge an Tiergeräuschen ist, dass es immer noch so viele Geheimnisse gibt und dass diese Geheimnisse Dinge sind, auf die wir Berechnungen anwenden können“, sagte Dan Stowell, ein Experte für maschinelles Abhören an der Tilburg University und dem Naturalis Biodiversity Center in die Niederlande.

Vor einigen Jahren nutzten Forscher der University of Washington maschinelles Lernen, um eine Software namens DeepSqueak zu entwickeln, die automatisch die Ultraschallvokalisationen von Nagetieren erkennen, analysieren und kategorisieren kann.

Es kann auch zwischen den komplexen, liedhaften Rufen unterscheiden, die die Tiere machen, wenn sie sich gut fühlen, und den langen, flachen, die sie machen, wenn sie sich nicht gut fühlen. „Sie können einfach ein direktes, subjektives Gefühl aus dem Maul des Tieres bekommen“, sagte Kevin Coffey, ein Verhaltensneurowissenschaftler an der University of Washington, der Teil des Teams war, das DeepSqueak entwickelt hat.

DeepSqueak wurde für andere Arten umfunktioniert, darunter Lemuren und Wale, während andere Teams ihre eigenen Systeme entwickelt haben, um automatisch zu erkennen, wenn klammernde Hühner oder quiekende Schweine in Not geraten.

Bedeutung decodieren

Yossi Yovel, Neuroökologe an der Universität Tel Aviv, beobachtet Flughunde in der offenen Flughundkolonie in seinem Labor. Anerkennung… Amit Elkayam für die New York Times

Um die Bedeutung von Tierrufen zu entschlüsseln, sind auch große Datenmengen über den Kontext erforderlich, der jedes Quietschen und Kreischen umgibt.

Um mehr über die Lautäußerungen ägyptischer Fruchtfledermäuse zu erfahren, verwendeten Forscher Bildkameras und Mikrofone, um Gruppen der Tiere 75 Tage lang aufzuzeichnen. Dann überprüften sie die Aufzeichnungen und notierten für jeden der fast 15.000 Rufe akribisch einige wichtige Details, z. B. welche Fledermaus in welchem ​​Kontext vokalisierte.

Die Fledermäuse sind Faustkämpfer, streiten sich häufig in ihren überfüllten Kolonien, und die überwiegende Mehrheit ihrer Lautäußerungen ist aggressiv. „Im Grunde drängen sie sich gegenseitig“, sagte Yossi Yovel, ein Neuroökologe an der Universität Tel Aviv, der die Forschung leitete. „Stellen Sie sich ein großes Stadion vor und alle wollen einen Platz finden.“

Aber ein maschinelles Lernsystem konnte mit einer Genauigkeit von 61 Prozent zwischen aggressiven Anrufen in vier verschiedenen Kontexten unterscheiden und feststellen, ob ein bestimmter Anruf während eines Kampfes im Zusammenhang mit Nahrung, Paarung, Sitzposition oder Schlaf ausgegeben wurde. Das ist keine perfekte Leistung, stellte Dr. Yovel fest, aber es ist deutlich besser als die 25-prozentige Genauigkeit, die mit zufälligem Raten verbunden ist.

Dr. Yovel war überrascht, als er feststellte, dass die Software auch auf einer Ebene, die mehr als nur zufälliges Raten war, identifizieren konnte, welche Fledermaus am Empfängerende der Schelte war.

Eine Aufnahme von Yosef Prat, einem ehemaligen Schüler von Dr. Yovel, von Fruchtfledermäusen, die an Aggressionen von Barschen beteiligt sind. Kredite Anerkennung… Josef Prat

„Dies impliziert, dass eine lauschende Fledermaus theoretisch in der Lage ist, zumindest bis zu einem gewissen Grad festzustellen, ob Person A Person oder Person C anspricht“, schrieben die Forscher in ihrer Arbeit von 2016.

Obwohl die Idee unbewiesen bleibt, können die Fledermäuse ihre Lautäußerungen je nach ihrer Beziehung zu und ihrem Wissen über den Täter variieren, genauso wie Menschen unterschiedliche Töne verwenden können, wenn sie sich an verschiedene Zielgruppen wenden.

„Es ist eine Kolonie, sie sind sehr sozial, sie kennen sich“, sagte Dr. Yovel. „Vielleicht ist es anders, wenn ich dich nach Essen anschreie, als wenn ich jemand anderen nach Essen anschreie. Derselbe Anruf wird also leicht unterschiedliche Nuancen haben, die wir mithilfe von maschinellem Lernen erkennen konnten.“

Das Erkennen von Mustern ist jedoch nur der Anfang. Wissenschaftler müssen dann feststellen, ob die Algorithmen etwas Bedeutendes über das Verhalten von Tieren in der realen Welt aufgedeckt haben.

„Man muss sehr vorsichtig sein, um keine Muster zu erkennen, die nicht echt sind“, sagte Dr. Stowell.

Nachdem die Algorithmen darauf hindeuteten, dass Nacktmull-Kolonien alle unterschiedliche Dialekte hatten, bestätigten Dr. Barker und ihre Kollegen, dass die Nagetiere viel eher auf leises Zwitschern von Mitgliedern ihrer eigenen Kolonien reagierten als auf die von fremden. Um auszuschließen, dass die Nacktmulle einfach auf einzelne Stimmen reagierten, die sie erkannten, wiederholten die Forscher das Experiment mit künstlichen leisen Zwitschern, die sie erzeugten, um dem Dialekt der Heimatkolonie einer Ratte zu entsprechen. Die Ergebnisse hielten.

In freier Wildbahn könnten koloniespezifische Dialekte Nacktmullen helfen sicherzustellen, dass sie knappe Ressourcen nicht mit Fremden teilen, und ein Weg sein, soziale Konformität durchzusetzen. „In diesen großen unterirdischen Tunneln will man dafür sorgen, dass sich alle an die Regeln halten“, sagte Dr. Barker. „Und eine sehr schnelle Möglichkeit, das zu testen, besteht darin, zu machen, während alle sehr ähnlich sprechen.“

Walgeschichten

Eine Herde geselliger Pottwale in Gewässern in der Karibik in der Nähe von Dominica. Anerkennung… Blauer Planet Archiv/Alamy

Weitere Großprojekte sind im Gange. Das Projekt CETI – kurz für die Cetacean Translation Initiative – bringt unter anderem Experten für maschinelles Lernen, Meeresbiologen, Robotiker, Linguisten und Kryptografen in mehr als einem Dutzend Institutionen zusammen, um die Kommunikation von Pottwalen zu entschlüsseln, die diese Klicks aussenden sind in morsecodeähnlichen Sequenzen organisiert, die Codas genannt werden.

Das Team plant, im Herbst vor der Küste von Dominica seine „Kernstationen zum Abhören von Walen“ zu installieren, von denen jede 28 Unterwassermikrofone umfasst. Es ist geplant, Roboterfische zu verwenden, um Ton und Bild der Wale aufzuzeichnen, sowie kleine akustische Tags, um die Lautäußerungen und Bewegungen einzelner Tiere aufzuzeichnen.

Dann werden die Forscher versuchen, die Syntax und Semantik der Walkommunikation zu entschlüsseln und größere wissenschaftliche Fragen über das Verhalten und die Kognition von Pottwalen zu untersuchen, beispielsweise wie große Gruppen ihre Aktionen koordinieren und wie Walkälber lernen zu kommunizieren.

„In jede Richtung, in die wir uns wenden, gibt es eine andere Frage“, sagte David Gruber, ein Meeresbiologe am Baruch College, der das Projekt CETI leitet. „Wenn es vor einer Woche ein großes Ereignis gegeben hätte, woher würden wir wissen, dass sie immer noch darüber kommunizieren? Machen Wale Mathematik?“

Codas des Pottwals hören

Aufnahme von Project CETI

Das Earth Species Project, eine in Kalifornien ansässige gemeinnützige Organisation, arbeitet ebenfalls mit Biologen zusammen, um eine Reihe von maschinellen Lernansätzen mit Walen und anderen Arten zu testen.

Beispielsweise arbeitet es mit Meeresbiologen zusammen, um festzustellen, ob Algorithmen für maschinelles Lernen anhand von Bewegungsdaten, die von Tracking-Tags erfasst werden, automatisch erkennen können, welche Verhaltensweisen Bartenwale zeigen.

„Gibt es eine spezifische Signatur in den Daten dafür, wann ein Tier atmet oder wann ein Tier frisst?“ sagte Ari Friedlaender, Meeresökologe an der University of California, Santa Cruz, der an dem Projekt mitarbeitet.

Die Forscher hoffen, diese Verhaltensdaten mit Audioaufnahmen zu überlagern, um festzustellen, ob es bestimmte Geräusche gibt, die Wale in bestimmten Kontexten ständig machen.

„Jetzt können Sie wirklich interessante Dinge tun, wie zum Beispiel: ‚Nehmen wir Orcas, schauen wir uns ihre Bewegung an und übersetzen die Bewegung in den dazugehörigen Klang’“, sagte Aza Raskin, der Präsident und Mitbegründer des Earth Species Project. „Oder Sie können mit dem Ton beginnen und sagen: ‚Welches Verhalten passt zu dem, was sie sagen?’“

Zurück sprechen

Michelle Fournet, eine akustische Meeresökologin, hat versucht, die Kommunikation von Buckelwalen zu entschlüsseln, indem sie ihre Rufe über Unterwasserlautsprecher abgespielt und beobachtet hat, wie die Tiere reagieren. Anerkennung… Tristan Spinski für die New York Times

In einem anderen Forschungsbereich verwenden Earth Species-Experten maschinelle Lernalgorithmen, um ein Inventar aller Ruftypen zu erstellen, die von in Gefangenschaft gehaltenen hawaiianischen Krähen gemacht werden, die vor zwei Jahrzehnten in freier Wildbahn ausgestorben sind.

Anschließend werden sie die Ergebnisse mit historischen Aufzeichnungen von wilden hawaiianischen Krähen vergleichen, um bestimmte Ruftypen zu identifizieren, die die Vögel im Laufe ihrer Jahre in Gefangenschaft verloren haben könnten.

„Ihr Stimmrepertoire ist möglicherweise im Laufe der Zeit erodiert, was ein echtes Naturschutzproblem darstellt“, sagte Christian Rutz, Verhaltensökologe an der University of St. Andrews in Schottland, der mit Earth Species an dem Projekt arbeitet. „Sie halten sie in diesen Volieren, um Vögel für zukünftige Auswilderungen zu züchten. Aber was, wenn diese Krähen nicht mehr Krähe sprechen können?“

Wissenschaftler können dann die Funktion aller verlorenen Anrufe untersuchen – und vielleicht sogar die kritischsten in Kolonien in Gefangenschaft wieder einführen.

Das Earth Species Project hat sich auch mit Michelle Fournet zusammengetan, einer akustischen Meeresökologin an der University of New Hampshire, die versucht hat, die Kommunikation von Buckelwalen zu entschlüsseln, indem sie zuvor aufgezeichnete Walrufe über Unterwasserlautsprecher abspielte und beobachtete, wie die Wale reagieren.

Jetzt verwenden Wissenschaftler von Earth Species Algorithmen, um neuartige Vokalisationen von Buckelwalen zu erzeugen – das heißt, „neue Rufe, die nicht existieren, aber so klingen, als ob sie könnten“, sagte Dr. Fournet. „Ich kann gar nicht sagen, wie cool es ist, sich etwas aus der Natur vorzustellen, das nicht da ist, und es sich dann anzuhören.“

Das Abspielen dieser neuen Rufe für wilde Wale könnte Wissenschaftlern helfen, Hypothesen über die Funktion bestimmter Lautäußerungen zu testen, sagte sie.

Wenn genügend Daten darüber vorhanden sind, wie sich Wale miteinander unterhalten, sollten maschinelle Lernsysteme in der Lage sein, plausible Antworten auf bestimmte Walrufe zu generieren und diese in Echtzeit wiederzugeben, so Experten. Das bedeutet, dass Wissenschaftler im Wesentlichen Wal-Chatbots verwenden könnten, um sich mit den Meeressäugern zu „unterhalten“, noch bevor sie vollständig verstehen, was die Wale sagen.

Diese maschinenvermittelten Gespräche könnten den Forschern helfen, ihre Modelle zu verfeinern und ihr Verständnis der Walkommunikation zu verbessern. Irgendwann könnte es zu einem echten Dialog kommen“, sagte Michael Bronstein, Experte für maschinelles Lernen in Oxford und Teil des Projekts CETI.

Er fügte hinzu: „Als Wissenschaftler ist dies wahrscheinlich das verrückteste Projekt, an dem ich je teilgenommen habe.“

Hawaiianische Krähen sind vor zwei Jahrzehnten in freier Wildbahn ausgestorben und leben derzeit in Zuchtanlagen in Gefangenschaft. Anerkennung… Jack Jeffrey/Photo Resource Hawaii, über Alamy

Zuhören lernen

Die Aussicht auf einen fortlaufenden, wechselseitigen Dialog mit anderen Arten bleibt unbekannt. Aber echte Konversation erfordert eine Reihe von „Voraussetzungen“, darunter übereinstimmende Intelligenztypen, kompatible sensorische Systeme und vor allem ein gemeinsames Verlangen nach Gesprächen, sagte Natalie Uomini, Expertin für kognitive Evolution am Max-Planck-Institut für evolutionäre Anthropologie.

„Es muss auf beiden Seiten die Motivation vorhanden sein, kommunizieren zu wollen“, sagte sie.

Selbst dann können einige Tiere Erfahrungen machen, die sich so sehr von unseren eigenen unterscheiden, dass einige Ideen einfach in der Übersetzung verloren gehen. „Zum Beispiel haben wir ein Konzept des ‚Naßwerdens’“, sagte Dr. Bronstein. „Ich glaube, Wale könnten nicht einmal verstehen, was das bedeutet.“

Diese Experimente können auch ethische Fragen aufwerfen, räumen Experten ein. „Wenn Sie Muster bei Tieren finden, die es Ihnen ermöglichen, ihre Kommunikation zu verstehen, öffnet das die Tür zur Manipulation ihrer Kommunikation“, sagte Mr. Mustil.

Die Technologie könnte aber auch zum Wohle von Tieren eingesetzt werden und Experten dabei helfen, das Wohlergehen von Wild- und Haustieren zu überwachen. Die Wissenschaftler sagten auch, dass sie hofften, dass diese Forschung durch die Bereitstellung neuer Einblicke in das Leben der Tiere einen breiteren gesellschaftlichen Wandel auslösen könnte .Viele wiesen auf die elektrisierende Wirkung des Albums „Songs of the Humpback Whale“ von 1970 hin, das Aufnahmen von Walrufen aus einer anderen Welt enthielt und dem weithin zugeschrieben wird, dass es dazu beigetragen hat, die globale Save-the-Whales-Bewegung zu entfachen.

Der Biologe Roger Payne, der dieses Album produziert hat, ist jetzt Teil des Projekts CETI. Und viele Wissenschaftler sagten, sie hofften, dass diese neuen High-Tech-Bemühungen, die Lautäußerungen von Walen – und Krähen und Fledermäusen und sogar Nacktmullen – zu verstehen, ähnlich transformierend sein werden und neue Wege bieten werden, sich mit den Kreaturen zu verbinden und sie zu verstehen, mit denen wir das teilen Planet.

„Mir ist nicht wichtig, was die Wale sagen“, sagte Dr. Gruber. „Es ist die Tatsache, dass wir zuhören.“

Die New York Times

Leave A Reply

Your email address will not be published.