Künstliche Intelligenz entwickelt ein Ohr für Vogelgesang

Wir können viel von der Natur lernen, wenn wir mehr darauf hören – und Wissenschaftler auf der ganzen Welt versuchen genau das zu tun. Von Berggipfeln bis in die Tiefen des Ozeans pflanzen Biologen zunehmend Audiorecorder, um das Stöhnen, Kreischen, Pfeifen und Lieder von Walen, Elefanten, Fledermäusen und insbesondere Vögeln unauffällig zu belauschen. In diesem Sommer werden beispielsweise mehr als 2.000 elektronische Ohren die Klanglandschaft der kalifornischen Sierra Nevada aufnehmen und fast eine Million Stunden Audio erzeugen. Um zu vermeiden, dass mehrere Menschen ihr Leben damit verbringen, es zu entschlüsseln, verlassen sich Forscher auf künstliche Intelligenz.

Solche Aufzeichnungen können wertvolle Momentaufnahmen von Tiergemeinschaften erstellen und Naturschützern helfen, detailliert zu verstehen, wie sich Richtlinien und Managementpraktiken auf eine gesamte Bevölkerung auswirken. Das Sammeln von Daten über die Anzahl der Arten und Individuen in einer Region ist nur der Anfang. Die Klanglandschaft der Sierra Nevada enthält wichtige Informationen darüber, wie sich die historischen Waldbrände des letzten Jahres auf Vögel ausgewirkt haben, die in verschiedenen Lebensräumen und unter verschiedenen ökologischen Bedingungen in der Region leben. Die Aufzeichnungen könnten zeigen, wie verschiedene Tierpopulationen die Katastrophe überstanden haben und welche Erhaltungsmaßnahmen dazu beitragen, dass sich die Arten effektiver erholen.

Solche Aufzeichnungen können auch Details über Interaktionen zwischen Personen in größeren Gruppen erfassen. Wie finden sich zum Beispiel Partner inmitten einer Kakophonie von Gemahlinnen? Wissenschaftler können zusätzlich Schall verwenden, um Verschiebungen des Migrationszeitpunkts oder der Bevölkerungsbereiche zu verfolgen. Riesige Mengen an Audiodaten fließen auch aus anderen Forschungsgebieten ein: Es laufen schallbasierte Projekte, um Insekten zu zählen, die Auswirkungen der Licht- und Lärmbelastung auf Vogelgemeinschaften zu untersuchen, gefährdete Arten zu verfolgen und Warnungen auszulösen, wenn Rekorder Lärm von illegaler Wilderei erkennen oder Protokollierungsaktivitäten.

„Audiodaten sind eine wahre Fundgrube, da sie eine Vielzahl von Informationen enthalten“, sagt der Ökologe Connor Wood, Postdoktorand an der Cornell University, der das Sierra Nevada-Projekt leitet. „Wir müssen nur kreativ darüber nachdenken, wie wir teilen und darauf zugreifen können [that information]. ” Dies ist ein drohendes Problem, da Menschen lange brauchen, um nützliche Erkenntnisse aus Aufzeichnungen zu gewinnen. Glücklicherweise kann die neueste Generation maschinell lernender KI-Systeme, die Tierarten anhand ihrer Anrufe identifizieren können, Tausende von Stunden Daten in weniger als einem Tag verarbeiten.

Lesen Sie auch  Klimaziele in Gefahr, da Länder bei der Aktualisierung der Emissionsziele hinterherhinken, sagen Aktivisten | Umfeld

„Maschinelles Lernen hat uns entscheidend verändert“, sagt Laurel Symes, stellvertretender Direktor des Cornell Lab of Ornithology Center for Conservation Bioacoustics. Sie studiert die akustische Kommunikation bei Tieren wie Grillen, Fröschen, Fledermäusen und Vögeln und hat viele Monate lang Aufzeichnungen von Katydiden (bekanntermaßen langhörnigen Heuschrecken, die ein wesentlicher Bestandteil des Nahrungsnetzes sind) in den Regenwäldern von Zentral-Panama gesammelt. Muster der Brutaktivität und der saisonalen Populationsschwankungen sind in diesem Audio verborgen, aber die Analyse ist enorm zeitaufwändig: Symes und drei ihrer Kollegen brauchten 600 Stunden Arbeit, um verschiedene Katydidenarten aus nur 10 aufgezeichneten Schallstunden zu klassifizieren. Aber ein Algorithmus für maschinelles Lernen, den ihr Team entwickelt, namens KatydID, hat die gleiche Aufgabe ausgeführt, während seine menschlichen Schöpfer „auf ein Bier ausgegangen sind“, sagt Symes.

Maschinelles Lernen wie KatydID sind selbstlernende Systeme, die ein neuronales Netzwerk verwenden – „eine wirklich sehr grobe Annäherung an das menschliche Gehirn“, erklärt Stefan Kahl, Experte für maschinelles Lernen am Cornell Center for Conservation Bioacoustics und der Technischen Universität Chemnitz in Deutschland. Er baute BirdNET, eines der beliebtesten Vogelgeräuscherkennungssysteme, die heute verwendet werden. Woods Team wird sich bei der Analyse der Aufzeichnungen in Sierra Nevada auf BirdNET verlassen, und andere Forscher verwenden es, um die Auswirkungen der Licht- und Lärmbelastung auf den Morgenchor im französischen Naturpark Brière zu dokumentieren.

Solche Systeme analysieren zunächst viele Eingaben – zum Beispiel Hunderte von aufgezeichneten Vogelrufen, von denen jeder mit seiner entsprechenden Art „beschriftet“ ist. Das neuronale Netzwerk lehrt sich dann selbst, welche Merkmale verwendet werden können, um eine Eingabe (in diesem Fall einen Vogelruf) mit einer Bezeichnung (der Identität des Vogels) zu verknüpfen. Mit Millionen extrem subtiler Merkmale, die oft involviert sind, kann der Mensch nicht einmal wissen, was die meisten von ihnen sind.

Ältere Versionen der Erkennungssoftware waren halbautomatisch. Sie scannten Spektrogramme – visuelle Darstellungen eines Audiosignals – nach festgelegten Merkmalen wie Frequenzbereich und Dauer, um einen Vogel anhand seines Liedes zu identifizieren. Dies funktioniert gut für einige Arten. Das Lied des nördlichen Kardinals zum Beispiel beginnt konsequent mit einigen langen Noten, die in der Tonhöhe ansteigen, gefolgt von schnellen, kurzen Noten mit einem deutlichen Abfall der Tonhöhe. Es kann leicht anhand eines Spektrogramms identifiziert werden, ähnlich wie ein komponiertes Lied anhand von Noten erkannt werden kann. Andere Vogelrufe sind jedoch komplexer und vielfältiger und können ältere Systeme verwirren. “Sie brauchen viel mehr als nur Unterschriften, um die Art zu identifizieren”, sagt Kahl. Viele Vögel haben mehr als ein Lied und wie andere Tiere haben sie oft regionale „Dialekte“. Ein weiß gekrönter Spatz aus dem US-Bundesstaat Washington unterscheidet sich sehr von seinen kalifornischen Cousins. Maschinelle Lernsysteme können solche Nuancen erkennen. „Nehmen wir an, es gibt einen noch unveröffentlichten Beatles-Song, der heute veröffentlicht wird. Sie haben die Melodie oder die Texte noch nie gehört, aber Sie wissen, dass es sich um einen Beatles-Song handelt, denn so klingen sie “, erklärt Kahl. “Das lernen auch diese Programme.”

Lesen Sie auch  Klimawandel bedroht Smithsonian-Museen

Diese Systeme haben in der Tat von den jüngsten Fortschritten in der Technologie zur Erkennung menschlicher Sprache und Musik profitiert. In Zusammenarbeit mit Andrew Farnsworth vom Cornell Lab of Ornithology nutzten Experten des Musik- und Audio-Forschungslabors der New York University ihre musikalischen Erfahrungen, um ein System zur Identifizierung von Vogelrufen namens BirdVox aufzubauen. Es erkennt und identifiziert Vögel, die nachts wandern, und unterscheidet Vogelgezwitscher von Hintergrundgeräuschen, einschließlich Frosch- und Insektenrufen, menschlichem Boden- und Lufttransport sowie Quellen wie Wind und Regen, die alle überraschend laut und variabel sein können.

Wie gut jedes System lernt, hängt stark von der Anzahl der verfügbaren vorbeschrifteten Aufzeichnungen ab. Eine Fülle solcher Daten existiert bereits für gewöhnliche Vögel. Kahl schätzt, dass online etwa 4,2 Millionen Aufzeichnungen für 10.000 Arten verfügbar sind. Die meisten der rund 3.000 Arten, die BirdNET identifizieren kann, kommen jedoch in Europa und Nordamerika vor, und BirdVox konzentriert sich weiter auf die Lieder von Vögeln aus den USA.

„An anderen Orten für seltenere Arten oder solche, die keine gut klassifizierten Daten haben, [BirdNET] funktioniert nicht so gut “, sagt der in Indien ansässige Ökologe VV Robin. Er ist dem Spuren des Jerdon auf der Spur, einem vom Aussterben bedrohten nachtaktiven Vogel, der seit etwa einem Jahrzehnt nicht mehr offiziell entdeckt wurde. Robin und seine Mitarbeiter haben Rekorder in einem südindischen Naturschutzgebiet platziert, um zu versuchen, seinen Ruf zu erfassen. Seit 2009 zeichnet er auch Vögel in den Hügeln der Western Ghats auf, einem globalen Biodiversitäts-Hotspot auch in Südindien. Diese Aufzeichnungen sind sorgfältig kommentiert, um lokal entwickelte Algorithmen für maschinelles Lernen zu trainieren.

Lesen Sie auch  Ticket für Weltraumflug mit Jeff Bezos wird für 28 Millionen US-Dollar versteigert

Bürgerwissenschaftler können auch helfen, Lücken im Vogelgezwitscher-Repository zu schließen. BirdNET unterstützt eine Smartphone-App, die bei Amateur-Vogelbeobachtern sehr beliebt ist. Sie zeichnen Audio-Schnipsel auf und senden sie an die App, die ihnen die Spezies des Sängers mitteilt – und fügen die Aufzeichnung der Datenbank der Forscher hinzu. Täglich sind mehr als 300.000 Aufnahmen eingegangen, sagt Kahl.

Diese Algorithmen für maschinelles Lernen bieten noch Verbesserungspotenzial. Obwohl sie Audio viel schneller analysieren als Menschen, bleiben sie beim Durchsuchen überlappender Geräusche zurück, um ein Signal von Interesse zu erkennen. Einige Forscher sehen dies als das nächste Problem an, das die KI angehen muss. Sogar die aktuellen unvollkommenen Versionen ermöglichen jedoch umfassende Projekte, die für den Menschen viel zu zeitaufwändig wären, um sie alleine anzugehen. “Als Ökologen”, sagt Wood, “ermöglichen uns Tools wie BirdNET, große Träume zu haben.”

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.