Künstliche Intelligenz: Die Zukunft der Emotionsforschung?

Emotionen bei Hunden erkennen mit künstlicher Intelligenz

HundegesichterHeute möchte ich euch in brandneues Paper vorstellen, bei dem ich auch eine kleine Rolle spielen durfte. Die Frage war: kann ein Computer-Algorithmus lernen, Emotionen im Hundegesicht zu lesen? Und orientiert er sich dann an den selben Gesichtregionen wie wir Menschen, um die Unterscheidung zu treffen?

Ausgangspunkt waren Videos, die wir im Rahmen der Studie zu Gesichtsausdrücken von Hunden bei Frustration und Vorfreude gesammelt haben. In dieser Studie lernten die Hunde zuerst, 5 Sekunden vor einem Testapparat auf eine hochwertige Futterbelohnung zu warten. Dadurch sollte Vorfreude erzeugt werden. Einmalig wurde jedoch die Frustrations-Kondition durchgeführt: das Futter wurde zwar ausgegeben, jedoch versperrte eine Pexiglasscheibe dem Hund den Weg.

Durch das Plexiglas wurden die Gesichter der Hunde gefilmt. Die Auswertung der Gesichtsausdrücke ergab, dass die Hunde bei Vorfreude die Ohren gespitzt hatten. Bei Frustration hingegen wurden die Ohren nach hinten gedreht, die Hunde blinzelten häufiger, öffneten häufiger das Maul und leckten sich vermehrt über die Nase.

Für die neue Studie unter der Leitung der israelischen Computerwissenschaftlerin Anna Zamansky wurde nun ein Computer mit Screenshots aus den Videos gefüttert, und zwei Methoden der künstlichen Intelligenz wurden miteinander verglichen.

Methode 1: Dem Computer wurde „beigebracht“, die Ohren, Augen, Maul und Nase zu „erkennen“ und anhand dieser Gesichtsstrukturen zwischen der positiven und der negativen Kondition zu erkennen. Nach diesem „Training“ wurde an einem neuen Set von Hundegesichtern getestet, mit welcher Erfolgsrate der Computer die Bilder der richtigen Kondition (Vorfreude oder Frustration) zuordnen konnte.

Das Ergebnis: der Computer hatte zu 71 % recht in seiner „Einschätzung“, ob das Bild aus der Vorfreude- oder der Frustrationskondition stammte – nicht schlecht!

Methode 2 („Deep Learning“): Diese Methode war sogar noch erfolgreicher. Hierbei wurden dem Computer keine „Vorgaben“ gemacht, sondern lediglich die Bilder aus der positiven und negativen Kondition mit den entsprechenden Labels zur Verfügung gestellt. Der Computer bekam so die Aufgabe, herauszufinden, welche Eigenschaften des Hundegesichts zwischen den Konditionen am besten unterschieden. Nachdem der Computer dies anhand eines Sets von Bildern lernen konnte, wurde er erneut mit einem weiteren Set von Bildern getest. Die Erfolgsrate lag diesmal sogar bei 89%!

Die „Heatmaps“ in den Hundegesichtern auf dem Bild geben an, welche Regionen der Computer mit Methode 2 als besonders wichtig identifiziert hat, um zwischen den 2 Konditionen zu unterscheiden (je mehr rot, desto wichtiger; die drei Zeilen stehen für unterschiedliche verwendete Algorithmen). Und diese Regionen decken sich zu einem großen Teil mit jenen, welche wir auch mit der händischen Methode identifiziert hatten – nämlich Ohren, Augen und Maulregion! Mensch und Computer sind sich also einig 😀

Wir Menschen können durch genaue Beobachtung ganz viel von unseren Hunden lernen. Doch wer weiß, vielleicht wird das Wissen der Studie mal in einer App angewendet, die es Menschen mit weniger Hundeerfahrung leichter macht, zu identifizieren, wie ein Hund sich gerade fühlt.

Die Publikation ist hier frei verfügbar: www.nature.com/articles/s41598-022-27079-w

Unsere Ausgangspublikation „Evaluating the accuracy of facial expressions as emotion indicators across contexts in dog“ findest Du hier: www.nature.com/articles/s41598-019-55714-6