Delfine könnten bald einen unerwarteten Gesprächspartner haben: künstliche Intelligenz. Google entwickelt ein Modell, das ihre akustischen Signale entschlüsseln kann, was völlig neue Perspektiven für die Erforschung ihrer Kommunikation eröffnet.
Diese Initiative baut auf jahrzehntelanger Forschung des Wild Dolphin Project (WDP) auf. Durch die Kombination von Feldbeobachtungen und modernster Technologie hoffen Wissenschaftler, das Geheimnis der Klicklaute, Pfeiftöne und anderen Geräusche dieser Meeressäuger zu lüften.
DolphinGemma: Ein Übersetzer für Wale
DolphinGemma basiert auf einer Architektur, die von menschlichen Sprachmodellen inspiriert ist, aber an die akustischen Besonderheiten von Delfinen angepasst wurde. Das System analysiert Tonfolgen, um wiederkehrende Muster zu identifizieren – mit einer Präzision, die manuell unmöglich zu erreichen wäre.
Dank der SoundStream-Technologie werden die Lautäußerungen in für die KI verwertbare Daten umgewandelt. Das für Smartphones optimierte Modell ermöglicht eine Echtzeitanalyse während der Expeditionen.
Erste Tests deuten darauf hin, dass DolphinGemma bestimmte Tonfolgen vorhersagen könnte. Dieser Fortschritt würde die Identifizierung potenziell bedeutungstragender Strukturen erleichtern, ohne jedoch die Existenz einer echten Sprache nachzuweisen.
CHAT: Auf dem Weg zum artübergreifenden Dialog
Parallel dazu verfolgt das CHAT-System einen interaktiveren Ansatz. Es verknüpft synthetische Pfeiftöne mit konkreten Objekten wie Algen oder Spielzeugen, um einen gemeinsamen Wortschatz mit den Delfinen aufzubauen.
Die Forscher nutzen Pixel-Smartphones, um die Unterwassergeräusche aufzunehmen und zu verarbeiten. Diese leichte Lösung vermeidet sperrige Ausrüstung und bietet dennoch ausreichende Leistung für Experimente in freier Wildbahn.
Ziel ist nicht die Übersetzung komplexer natürlicher Kommunikation, sondern der Aufbau einfacher Brücken. Wenn Delfine die erlernten Pfeiftöne nachahmen, wäre dies ein Schritt hin zu bewusster Kommunikation zwischen Arten.
Wie funktioniert das Training des Modells?
DolphinGemma wird mit tausenden Stunden von Aufnahmen des WDP trainiert. Diese Daten, die mit Verhaltenskontexten annotiert sind, ermöglichen es dem System, bestimmte Laute mit konkreten Situationen zu verknüpfen.
Das Modell verwendet eine Methode ähnlich der von Sprachassistenten, jedoch angepasst an die Frequenzen und Modulationen der Delfine. Jeder Laut wird in analysierbare Segmente unterteilt und mit anderen Vorkommnissen verglichen.
Dieser Ansatz zeigt Ähnlichkeiten auf, die für das menschliche Ohr nicht wahrnehmbar sind. So könnten minimale Variationen beispielsweise auf unterschiedliche "Dialekte" bei verschiedenen Delfingruppen hindeuten.
Was sind die Grenzen dieser Technologie?
Es gibt noch keinen Beweis dafür, dass Delfine eine strukturierte Sprache verwenden. Die identifizierten Laute könnten einfach Emotionen oder grundlegende Absichten widerspiegeln, ohne ausgefeilte Syntax.
Unterwassergeräusche (Wellen, Boote) erschweren zudem die Aufzeichnung der Lautäußerungen. Die Algorithmen müssen diese Störungen filtern, um die relevanten Geräusche zu isolieren.
Schließlich erfordert die Anpassung des Modells an andere Arten Anpassungen. Die vom WDP untersuchten Atlantischen Fleckendelfine haben nicht dieselben Lautäußerungen wie Große Tümmler oder Orcas.