Künstliche Intelligenz, Gesichter und Gefühle

Gesichter und Gefühle

In diesem Blogbeitrag möchte ich mich mich mit Gesichts- und Gefühlserkennung beschäftigen. Gibt es überhaupt eindeutige Abdrücke unserer Gefühle in unserem Gesicht? Und wenn ja: Wer kann besser das Gefühl eines Menschen nach seinem Gesichtsausdruck erkennen? Natürliche oder Künstliche Intelligenz (KI)? Oder ist ein solches „Gesichtslesen“ nur eine Trickserei der Mentalisten aus dem Fernsehen? Dabei überlegen wir auch, ob Künstliche Intelligenz uns helfen kann, die Gesichtssprache der Tiere zu verstehen. Drücken auch Tiere ihre Gefühle mit ihrem „Gesicht“ aus? Einige der Fragen kann man heute selbst erforschen. Indem man mit Bildererkennungsprogrammen der Künstlichen Intelligenz auf öffentlich zugänglichen Online-Plattformen spielt.

Während eines Auftritts in Chemnitz hat mich eine Frau die ganze Zeit böse angestarrt. Noch dazu direkt aus der ersten Reihe. Kein einziges Mal verzog sie die Lippen zu einem winzigen Lächeln, obwohl sonst alle im Publikum lachten. „Schau nicht hin!“, sagte ich mir ständig. „Sonst kannst du den Auftritt vergessen.“ Doch ein paar Sekunden später schielte ich wieder zu ihr. Lachte sie schon? Nein! Ein Blick wie ein Hieb! Nach der Show lief ich zum Büchertisch in der Ecke, drehte mich um und: Sie steuerte mich an. Oh, Gott! Keine Chance zu flüchten. Auf der Bühne gibst du alles, danach willst du dir wirklich keine Hasstiraden anhören. Was jetzt? Zu spät! Schon packte sie mich am Arm: „Sie!“, sagte sie. „Ich habe noch nie so viel gelacht wie heute.“ Fünf verschiedene Bücher hat sie von mir gekauft. Seitdem weiß ich, dass unsere Gesichter nicht unbedingt unsere Gefühle widergeben.

Das sieht der amerikanische Psychologe Paul Ekman anders: In seinem Buch Gefühle lesen meint er, ein Mensch könne die sogenannten Mikroexpressionen des Gesichts erkennen lernen, die bestimmte Gefühle ausdrücken. : So wie es Dr. Carl Lightman in der Fernsehserie Lie to me es kann – ein menschlicher Lügendetektor. Nur nach der Mimik seines Gegenübers erkennt Dr. Lightman, ob jemand lügt oder die Wahrheit sagt. Die Serie wurde von Paul Ekman inspiriert, er hat auch die Dreharbeiten begleitet.

Dem widersprechen jedoch die Neurowissenschaftlerin Lisa Feldmann Barrett und andere Forscher: Es gebe keine universell geltenden „Fingerabdrücke“ unserer Gefühle in unseren Gesichtern. Das heißt: Menschen können nicht eindeutig und international geltend das Gefühl erkennen, das einem Gesichtsausdruck zugrunde liegt. Barretts wunderbares Buch How Emotions Are Made kann ich wärmstens empfehlen:

Das bedeutet nicht, dass Emotionen eine Illusion sind oder dass körperliche Reaktionen zufällig sind. Dies bedeutet, dass bei verschiedenen Gelegenheiten, in verschiedenen Kontexten, in verschiedenen Studien, innerhalb desselben Individuums und über verschiedene Individuen hinweg dieselbe Emotionskategorie unterschiedliche körperliche Reaktionen beinhaltet. Variation, nicht Uniformität ist die Norm. … Trotz enormer Zeit und enormer Investitionen hat die Forschung keinen einheitlichen Körperfingerabdruck für nur eine einzige Emotion gezeigt.“ (Lisa Feldmann Barret)

Mein Erlebnis in Chemnitz bestätigt das. Aber auch andere Erfahrungen zeigen, dass man Gefühle den Gesichtsausdrücken nicht eindeutig zuordnen kann: Wenn ein Pokerspieler eine Million Dollar verspielt, kann er schön lächeln. Ist er aber glücklich?

Das heißt: Einheitliche und universelle Mikroexpressionen der Gefühle in Gesichtern können von anderen Menschen nicht erkannt werden. Dr. Carl Lightman lügt, wenn er Menschen der Lüge überführt, weil ihr Gesichtsausdruck sie verraten habe. Könnte aber ein „Künstliche Intelligenz (KI)“-Programm, ein künstliches neuronales Netz (KNN), lernen, in Gesichtern Gefühle zu lesen? Für eine solche Gesichtsanalyse ist doch ein KNN wie geschaffen. Ein solches Programm findet beim Training mit sehr vielen Bildern ganz winzige Merkmale, die für uns Menschen oft nicht zu erfassen sind: Vielleicht auch unsichtbare Merkmale der Gesichtsausdrücke für Glück, Ärger, Traurigkeit und andere Gefühle?

Lie to machine

Wäre eine solche Maschine nicht praktisch? Man trifft jemanden, seine SmartWatch-Kamera nimmt ihn auf und ein Gesichtserkennungsprogramm für Gefühle meldet: „Der sieht nach Ärger aus. Dem gehst du besser gleich aus dem Weg.“ Wenn mein Sohn von mir mehr Taschengeld haben möchte, könnte er nur seine Gefühlserkennungs-App lauern lassen, bis ich in guter Stimmung bin. Dann würde sie ihm Bescheid geben: „Jetzt ist dein Papa gut drauf! Frag ihn!“ Wir Männer müssten uns in unserem genetisch vererbten Autismus nie mehr den Kopf zerbrechen, welche Gefühle momentan unsere Partnerinnen hegen. Eine solche App würde uns sofort aufklären: „Sie ist traurig und braucht Unterstützung. Halte sie nur an der Hand und labere sie nicht mit deinen Arbeitsproblemen voll!“ Prägen aber unsere Gefühle eindeutig unsere Gesichtsausdrücke? Ist ein bestimmtes Lächeln immer und überall quer durch die Völker der Erde ein Ausdruck für Glück?

Amazon Rekognition

Das glauben die KI-Forscher von Amazon. Amazon Web Service (AWS) beherbergt auch das Service Amazon Rekognition – hier kann jeder und jede mit KI-Modellen für die Gesichtserkennung spielen. Dazu schreibt Amazon: „Amazon Rekognition bietet umfassende Funktionen zur Gesichtsermittlung, -analyse und -erkennung für die Bild- und Videoanalyse. … Zusätzlich haben wir die Genauigkeit für die Stimmungserkennung (für alle 7 Stimmungen: ‚Fröhlich‘, ‚Traurig‘, ‚Wütend‘, ‚Überrascht‘, ‚Angeekelt‘, ‚Gleichmütig‘ und ‚Irritiert‘) verbessert sowie eine neue Stimmung hinzugefügt: ‚Angst‘ .“

Doch wie bringt man einer Maschine (einem KNN-Modell) bei, Gesichter zu „lesen“? Dafür wird die Maschine mit Bildern der verschiedenen Gesichtsausdrücke und der zugehörigen Gefühle trainiert. Das heißt überwachtes Lernen (supervised learning), weil man die Maschine nun mal nicht allein lernen lässt: Dabei werden der Maschine während ihres Trainings Abertausende von Bildern gezeigt und bei jedem solchen Bildbeispiel wird der Maschine gesagt: Das ist ein Ausdruck der Traurigkeit und dieses Gesicht zeigt Glück.

Wer macht aber diese Zuordnungen Gefühl-Gesichtsausdruck? Wer kennzeichnet die Bilder der Gesichtsausdrücke mit den zugehörigen Gefühlen? Klar: Menschen! Entweder posieren Schauspieler mit Mienen, die bestimmten Gefühlen entsprechen sollen – dabei werden sie fotografiert. Oder gucken sich Menschen Fotos mit verschiedenen Gesichtsausdrücken an und ordnen diese den einzelnen Gefühlen zu. Beides ist subjektiv und falsch, weil es eben – wie oben gezeigt – keinen universellen „Fingerprint“ für unsere Gefühle in unseren Gesichtern gibt. Somit lernt auch die Maschine etwas Falsches. So wie ein Schüler, der sich von einem Verschwörungstheoretiker unterrichten lässt.

Bitte, verstehen Sie mich nicht falsch. Ich finde Plattformen wie Amazon Rekognition im Amazone Web Service oder auch Microsoft Azure mit seinem Machine Learning Studio sehr nützlich. Jeder Mensch kann dort, ohne programmieren zu können, in einem kostenfreien Account mit KI-Programmen spielen. Wir sollten aber unbedingt wissen, was Maschinen lernen können und was sie nicht lernen können.

Die Bloggerin Jay Williamson-Lee setzte sich mit Amazon Rekognition und Gefühlserkennung auseinander. In ihrem Blogbeitrag Amazon’s A.I. Emotion-Recognition Software Confuses Expressions for Feelings bezieht sie sich auf die Forschung von Lisa Feldman Barrett (siehe auch hier) und zitiert ausgiebig den Professor für Computerwissenschaften der Universität Südkalifornien Jonathan Gratch. Barrett, Gratch und andere Wissenschaftler zeigen in ihren Studien, dass unsere Gesichtsausdrücke nicht eindeutig bestimmte Gefühle widerspiegeln, sondern stark vom Kontext der Situation abhängig sind:

Die Sache mit dem Kontext

Der Kontext ist der Haken an der Sache: Vielleicht können Dr. Lightman oder der Mentalist aus der gleichnamigen Fernseheserie doch in Gesichtern der anderen lesen, jedoch nur dann, wenn sie auch andere Zusammenhänge der gegebenen Situation erfassen: Den Kontext eines bestimmten Gesichtsausdrucks. Diesen Kontext sehen Maschinen nicht, zumindest nicht so tiefgehend wie Menschen – aufgrund unserer Erfahrung und unseres Wissens, das wir im Laufe des Lebens angesammelt haben. Künstliche neuronale Netze können nur auf eine Aufgabe hintrainiert werden. Tiefer gehende Zusammenhänge beachten sie nicht, weil sie eben keinen Erfahrungsschatz und vor allem keinen gesunden Menschenverstand haben. Um das zu veranschaulichen, lassen Sie uns jetzt etwas mit Amazon Rekognition spielen:

Auf dem folgenden Bild sehen wir das Foto eines kleinen Jungen, von Amazon Rekognition analysiert, also von Amazons KNN-Model für die Gesichtserkennung. Das Kernprogramm solcher Models sind konvolutionelle neuronale Netze (convolutional neural network – CNN). CNN sind die maschinellen Seher schlechthin und werden vor allem in der Bilderkennung (Computer Vision) verwendet. Was zeigt uns also das Bild? Jeder Mensch erkennt sofort einen kleinen Jungen darauf. Erst wenn wir den kleinen Gesichtsausschnitt des Jungens rechts neben dem großen Bild betrachten, merken wir vielleicht leichte weibliche Züge bei ihm (wie vielleicht bei jedem kleinen Jungen). Nur diesen Gesichtsausschnitt verarbeitet aber Amazons KNN-Model bei seiner Analyse und tippt in Folge dieser Verarbeitung, dass es sich mit einer ¾-Wahrscheinlichkeit (75,4 %) um ein weibliches Gesicht handelt – eine falsche Entscheidung also. Warum haben wir Menschen sofort auf einen Jungen getippt? Weil wir auch den Kontext des gesamten Bildes wahrgenommen haben: Die Frisur des Jungen und, seien wir ehrlich, auch das Bier auf dem Tisch neben ihm. Das passt zu einem Jungen besser als zu einem Mädchen. Zumindest in unseren kleinen genderspezifischen Vorurteilen, die aber auf Erfahrung beruhen.

Wie ist es mit den Gefühlen?

Bis auf solche Ausnahmen bestimmen Bilderkennungsprogramme trotzdem das Geschlecht mittlerweile genauso gut wie wir Menschen – wenn wir den Kontext der Situation auslassen. Wie wichtig unser gesunder Menschenverstand und unsere Erfahrung sind (die die Maschinen nicht haben), um aus dem Kontext einer Situation richtige Schlüsse zu ziehen, sieht man auch auf den folgenden Bildern: Diesmal erfahren wir, wie die Maschine Dr. Lightman aus Lie to me spielt. Wie bestimmt ein KNN-Modell aufgrund der Gesichtsausdrücke der Menschen auf den alten Fotos aus meiner Sammlung die zugehörigen Gefühle?

Über die Frau rechts auf dem nächsten Foto unten (und aufgrund ihres kleinen Gesichtsausschnitts daneben) sagt die Maschine: „Appears to be sad.“ („Scheint traurig zu sein.“) Würde ein Mensch aber bei der Betrachtung des ganzen Bildes die Frau als traurig bezeichnen? Eher nicht! Hier würden wir gleich sagen, dass die Frau betrunken ist und nicht traurig, auch wenn das Betrunkensein kein Gefühl ist. Ihr Gesicht zeigt jedoch Dumpfheit aufgrund ihrer Betrunkenheit. Traurigkeit sieht anders aus. Vielleicht würden aber auch einige von uns auf Traurigkeit tippen, wenn sie nur den kleinen Gesichtsausschnitt rechts betrachten könnten und wenn man eventuell den Strohhalm wegretuschieren würde, damit kein Kontextbezug mehr möglich ist?

Auch auf dem Bild unter diesem Absatz definiert die Maschine die Frau mit dem Welpen in den Armen als traurig – und das mit 98 % Wahrscheinlichkeit. Angesichts der gesamten Situation auf dem ganzen Bild würde jedoch ich die Frau als glücklich bezeichnen: Den Welpen genauso. 😊

Eine Frage des Geschlechts

Stellen wir uns vor: ein KNN-Modell muss eine binäre Entscheidung treffen, zum Beispiel zwischen dem weiblichen und männlichen Geschlecht. Was passiert, wenn ich der Maschine einen Hund im Anzug und mit einer Pfeife zeige. Hier dürfte der Kontext, das heißt der Anzug und die Pfeife, einen menschlichen Betrachter eher verwirren, statt ihm bei der Erkennung zu helfen. Trotzdem erkennt ein Mensch den verkleideten Hund sofort. Wie sich die Maschine entscheidet, sehen Sie unter diesem Absatz.

Die Maschine bestimmt den Hund nicht, weil sie nur zwei Möglichkeiten für ihre Entscheidung hat: Weiblich oder männlich. Sicher wäre es besser, Bilderkennungsprogrammen ein menschliches, „Ich weiß nicht!“, anzutrainieren. Dann müssten wir Menschen uns über die Maschinen nicht lustig machen, wenn sie einen Hund für einen Mann halten.

Warum funktioniert die Gefühlserkennung nicht richtig?

Warum kann man aber die „Gesichtssprache“ bei Menschen nicht eindeutig ihren Gefühlen zuordnen? Obwohl sie manchmal doch stimmt: Lächeln = (meist) Glück. Warum gibt es keinen universellen Fingerprint im Gesicht für Gefühle? Der Grund dafür ist zum Teil sicher unsere „Verstellungskunst“, die es dem oben erwähnten Pokerspieler erlaubt, auch bei einem großen Spielverlust schön zu lächeln. Unsere sozialen Zwänge. Die meisten von uns wollen ihr „Gesicht wahren“, deswegen weinen wir auch nicht so oft in der Öffentlichkeit. Wenn zehn Künstler bei einer gemeinsamen Videokonferenz über die Corona-Künstlersoforthilfe der Regierung sprechen, jedoch nur einer von ihnen sie bekommen hat, wird derjenige nicht lachen, sondern mitleidig in die Kamera schauen. Obwohl er vor Glück hüpfen möchte. Außerdem prägen manchmal verschiedene Kulturen verschiedene Gesichtsausdrücke.

Vielleicht könnte man Mimik von künstlichen neuronalen Netzen eher bei Kindern entschlüsseln lassen – Kinder verstellen sich noch nicht so gut wie Erwachsene. Verstellung muss ja trainiert werden. Gibt es jedoch Wesen mit noch weniger sozialen Zwängen als Kinder? Bei denen der Kontext der Situation keine Rolle spielt? Die keine „gute Miene zum bösen Spiel“ schneiden müssen, weil sie sich vor Zeitgenossen keine Blöße geben wollen?

Die Gesichtssprache der Mäuse

Die meisten Tiere müssen sicher nicht „das Gesicht so wahren“ wie der Mensch. Gefühle haben Tiere jedoch auch. Manche Sachen tun Tieren nun mal gut und andere wieder nicht – es kann sein, dass Tiere Reaktionen auf solche Sachen auch im „Gesicht“ zeigen. Wenn Tieren zum Beispiel etwas schmeckt, oder wenn’s ihnen nicht schmeckt. Vor kurzem konnten Wissenschaftler des Max-Planck-Instituts für Neurobiologie Gesichtsausdrücke von Mäusen ihren Gefühlen zuordnen.

Die Studie wurde mit Hilfe von Programmen des klassischen maschinellen Lernens durchgeführt. Auch solche Programme wie Random Forest (mehrere Entscheidungsbäume), K-Nearest Neighbor oder Support Vector Machine (SVM) zählen zum großen Gebiet der Künstlichen Intelligenz. Zwischen den klassischen Methoden des Maschinenlernens und künstlichen neuronalen Netzen (KNN) gibt es jedoch zwei große Unterschiede: Beim klassischen Maschinenlernen muss der Datenwissenschaftler die verbindenden Merkmale der zu verarbeitenden Daten selbst bestimmen, zum Beispiel die Schnurrhaare einer Katze, ihre spitzen Ohren u. a., wenn das Bilderkennungsprogramm lernen soll, Katzen zu erkennen. Dagegen findet ein KNN die relevanten Katzenmerkmale bei seinem Training selbst. Das macht KNN zum KI-Primus von heute. Außerdem kann keine andere Methode des Maschinenlernen so tief lernen und nach dem Training so ausgezeichnet verallgemeinern wie KNN. Nur brauchen KNN für ihr Training viel mehr Daten als die klassischen Methoden des Maschinenlernens. Bei einem kleinen Datensatz ist eine klassische Methode das Programm der Wahl.

Tatsächlich konnten die Forscher des Max-Planck-Instituts einige „Gesichtsausdrücke“ von Mäusen als Reaktionen auf ihre Gefühle ausmachen: „Mäuse, die eine Zuckerlösung schleckten, zeigten viel freudigere Gesichtsausdrücke, wenn sie hungrig als wenn sie satt waren“, sagte die Leiterin der Studie Nadine Gogolla. Das ist bei mir übrigens genauso wie bei der Maus. Wenn wir KNN-Modelle mit vielen Tiervideos füttern würden, könnten wir sicher sehr viel über ihre Gefühle lernen. Auch „Tiersprachen“ könnten wir so entschlüsseln. Mittlerweile weiß die Wissenschaft, dass viele Tierarten mit komplexen Warnrufen und anderen Rufen kommunizieren. Vielleicht lernen wir irgendwann mit Hilfe von KI-Programmen auch, was uns Fifi sagen will, wenn wir mit ihm Gassi gehen wollen: „Nimm einen ordentlichen Plastikbeutel mit.“

Aus der Kindheit auf den Leonhardstein

Vielleicht sind es nur Träume aus meiner Kindheit voller Märchen, Tiersprachen zu lernen. Schon in meinem Blogtext Künstliche Intelligenz und wie man eine Kartoffelsuppe mit Steinpilzen kocht habe ich vorgeschlagen, „Vogelsprache“ zu entschlüsseln, indem man das Verhalten der Vögel auf Videos den verschiedenen Arten ihres Zwitscherns zuzuordnen versucht. Mit künstlichen neuronalen Netzen. Der winzige australische Rotstirn-Dornschnabel zum Beispiel trickst mit seinen Alarmrufen Krähen aus: Damit Krähen nicht seine Zöglinge aus dem Nest picken, stößt der kleine Vogel falsche Alarmrufe aus und warnt vor Habichten, vor denen sich auch eine Krähe in die Hose macht. Da aber der Rotstirn-Dornschnabel bei den Krähen als Trickser bekannt ist, machen die kleinen Rotstirn-Dornschnabel dabei Alarmrufe anderer Vögel nach.

Am Schluss dieses Blogbeitrags möchte ich KNN doch etwas in Schutz nehmen. Sie leisten Fabelhaftes. Im Rahmen ihrer Möglichkeiten. Wenn wir sie falsch trainieren, treffen sie falsche Entscheidungen. Den Kontext einer Aufgabe können sie nicht erfassen. Selbstverständlich versuchen Forscher in der KI-Bilderkennung den Maschinen beibzubringen, ihre Entscheidungen auch aufgrund des Kontextes richtig einzuordnen. Das kann ich ausführlicher in einem meiner nächsten Texte hier im Blog besprechen. Vielleicht werden Maschinen irgendwann Menschen besser „lesen“ können. Verstehen werden sie uns noch lange nicht.

Zum Beispiel mich, warum ich mich jetzt von Ihnen mit einem Foto vom 1.01.2020 verabschiede (als ich den Leonhardstein in den bayerischen Alpen ganz allein für mich hatte). Vielleicht aufgrund meiner Eitelkeit? Auf diesem Foto hat mich die Maschine richtig als glücklich erkannt. So glücklich, dass sie mich sogar auf 39 bis 57 Jahre schätzte, obwohl ich da bereits meinen 63sten Geburtstag hinter mir hatte. Sicher ein Beleg dafür, wie gesund uns Bewegung in der freien Natur hält. So wünsche ich Ihnen, gesund und glücklich zu bleiben: In diesen absurden Corona-Zeiten.

Titelfoto (Ausschnitt) von Ben White auf Unsplash.

Jaromir Konecny

Liebe Besucherin, lieber Besucher,

 
willkommen auf meinem SciLogs-Blog "Gehirn & KI".
 
Ich möchte hier über alle möglichen Aspekte der Künstliche-Intelligenz-Forschung schreiben. Über jeden Kommentar und jede Diskussion dazu freue ich mich sehr, denn wie meine Mutter oft sagte:
 
"Solange die Sprache lebt, ist der Mensch nicht tot."
 
Neues über künstliche Intelligenz, künstliche neuronale Netze und maschinelles Lernen poste ich häufig auf meiner Facebook-Seite: Maschinenlernen
 
Hier etwas zu meiner Laufbahn: ich studierte Chemie an der TU München und promovierte anschließend am Lehrstuhl für Theoretische Chemie der TU über die Entstehung des genetischen Codes und die Doppelstrang-Kodierung in den Nukleinsäuren.
 
Nach der Promotion forschte ich dort einige Jahre lang weiter über den genetischen Code und die komplementäre Kodierung auf beiden Strängen der Nukleinsäuren:
 
Neutral adaptation of the genetic code to double-strand coding.
 
Stichworte zu meinen wissenschaftlichen Arbeiten: Molekulare Evolution, theoretische Molekularbiologie, Bioinformatik, Informationstheorie, genetische Codierung.
 
Zur Zeit bin ich Dozent für Künstliche Intelligenz an der SRH Fernhochshule und der Spiegelakademie, KI-Keynote-Speaker, Schriftsteller, Bühnenliterat und Wissenschaftskommunikator.
 
U. a. bin ich zweifacher Vizemeister der Deutschsprachigen Poetry Slam Meisterschaften.
 
Mein Buch „Doktorspiele“ wurde von der 20th Century FOX verfilmt und lief 2014 erfolgreich in den deutschen Kinos. Die Neuausgabe des Buches erschien bei Digital Publishers.
 
Mein Sachbuch über Künstliche Intelligenz "Ist das intelligent oder kann das weg?" erschien im Oktober 2020.
 
Im Tessloff-Verlag erscheinen meine von Marek Blaha wunderschön illustrierten Kinderkrimis "Datendetektive" mit viel Bezug zu KI, Robotern und digitalen Welten.
 
Viel Spaß mit meinem Blog und all den Diskussionen hier :-).
 
Jaromir

9 Kommentare

  1. Der Beitrag passt gut zum Resultat Artificial intelligence still lags behind humans at recognising emotions, einer Untersuchung des University College London, welches 8 AI-Programme zur Emotionsbestimmung in Gesichtsausdrücken verglich. Zitat (übersetzt von DeepL):

    Die Forscher fanden heraus, dass die menschliche Erkennungsgenauigkeit von Emotionen 72% beträgt, während die Forscher bei den getesteten künstlichen Intelligenzen eine Varianz der Erkennungsgenauigkeit zwischen 48% und 62% beobachteten.

    Als Grund für die schlechte Leistung von heutigen AI-Programmen wird angegeben:

    “KI-Systeme, die behaupten, die Emotionen von Menschen anhand ihres Gesichtsausdrucks zu erkennen, sind heute sehr leicht zu entwickeln. Die meisten von ihnen basieren jedoch auf nicht schlüssigen wissenschaftlichen Beweisen, dass Menschen ihre Emotionen auf die gleiche Weise ausdrücken.

    “Für diese Systeme lassen sich die menschlichen Emotionen auf nur sechs Grundemotionen reduzieren, aber sie kommen mit gemischten Emotionen nicht gut zurecht.

    “Unternehmen, die solche Systeme verwenden, müssen sich bewusst sein, dass die erzielten Ergebnisse kein Mass für die empfundene Emotion sind, sondern lediglich ein Mass dafür, wie sehr das eigene Gesicht mit einem Gesicht übereinstimmt, das einer dieser sechs Emotionen entsprechen soll.

    Das entspricht der Aussagen von Jaromir Konecny, dass das System den Kontext nicht berücksichtigt und womöglich sogar einen Gesichtsausdruck eines Kindes ähnlich beurteilt wie den eines Erwachsenen. Für die meisten von uns ist aber klar, dass Erwachsene dazu neigen ihre Gefühle zu verbergen, so dass nur unsere Erfahrung damit und mit bestimmten Typen von Erwachsenen (Introvertiert/Extrovertiert etc) weiterhilft.

    Noch eine generelle Bemerkung zu vermeintlich äusserst guten, verblüffenden Leistung von künstlichen neuronalen Netzen. Die meisten dieser Netze kann man mit Out-Of-Distribution-Bildern völlig verwirren. Also mit Bilden wie dem obigen wo ein Hund die Pose eines Menschen einnimmt.

  2. Warum kommen Kinder und Tiere so gut an – Weil sie authentisch sind. Authentische Menschen benutzen ihre Gefühle nicht als “Werkzeug” um andere zu manipulieren. Der Mensch hat Grundgefühle, richtig, aber er hat die Gabe mit diesen Gefühlen zu spielen, um sein Ego zu befriedigen. Wer diese Grundgefühle kennt, sie beherrscht, kann mit Menschen spielen wie mit Marionetten, da Gefühle unbewusst wirken und konditioniert werden. Jeder mittelmäßige Schauspieler, jede Marktfrau, jeder Betrüger im Internet, der Werbefachmann arbeitet mit dieser Methode. Lügen können sie in Gesichtern nicht ablesen, wohl aber in den Augen. Menschen nutzen ihre Gefühlswelt um ihre Ziele zu erreichen um als “Schauspieler” ihre Rolle im Leben zu spielen. Künstliche Intelligenz kann das nicht, da sie frei ist von Gier, Trieben, Neid, etc. , also nur authentisch ist .Die wichtigsten Triebkräfte in der Menschheitsgeschichte waren immer egoistische Gefühle . Schauen sie den Menschen tief in die Augen und sie könnten sie erkennen…

    • Wohl ist die Verstellung nur ein Teil der Nicht-Universalität von Gefühlsausdrücken im Gesicht. Sicher sind sie auch kulturell und genetisch bedingt. Ganz verurteilen würde ich die “Gesichtswahrung” nicht. Viele Menschen wollen zum Beispiel ihr Leiden nicht der ganzen Welt offenbaren. Gefühle sind einfach etwas Privates.

    • Querdenker: “Menschen nutzen ihre Gefühlswelt um ihre Ziele zu erreichen um als “Schauspieler” ihre Rolle im Leben zu spielen. Künstliche Intelligenz kann das nicht, da sie frei ist von Gier, Trieben, Neid, etc. , also nur authentisch ist.”

      Vielleicht könnte ein KNN-Modell mit dem unüberwachten Lernen anhand von Fotos Muster der Gefühlsausdrücke selbst lernen. Nur müsste ein solches Modell sicher mit Millionen geeigneten Gesichtsbildern trainieren. Dann könnte das Modell die Bilder nach entdeckten Gemeinsamkeiten in Cluster einordnen, die man den jeweiligen Gefühlsklassen zuordnen würde. Es ist aber schwierig einen solchen großen und ausgewogenen Bilderdatensatz zu bekommen. Und teuer sowieso. 🙂

  3. Howdy, dies hier :

    Was jetzt? Zu spät! Schon packte sie mich am Arm: „Sie!“, sagte sie. „Ich habe noch nie so viel gelacht wie heute.“ Fünf verschiedene Bücher hat sie von mir gekauft. Seitdem weiß ich, dass unsere Gesichter nicht unbedingt unsere Gefühle widergeben.

    .., war sicherlich eine nette Erfahrung, Dr. Webbaer wusste gar nicht, dass Sie “auftreten”, nice1, Sie haben einen gewissen Charme. [1]

    Idt kann am Gesicht, wie vorgefunden, nicht immer abgelesen werden [2], wie die dahinter steckende “CPU” funktioniert, auch nicht an anderen Merkmalen des individuellen Seins, auch nicht am Körpergewicht, oder an der Hautfarbe oder am Humpeln des einen oder anderen schon etwas Älteren, Dr. W schließt sich hier als Beobachtungsobjekt gerne mit ein.

    Sie sind also u.a.a. Künstler, nicht schlecht, weiterhin viel Erfolg, und dass mit der AI wollen wir, zumindest in dieser Lebenszeit, nicht überschätzen.

    MFG – WB

    [1]

    Wer etwas zu sagen hat, darf bis soll auftreten, wie gemeint.

    [2]

    Einerseits deutet das Gesicht auch irgendwie, auf Vererbtes hin, bspw. die Grobschlächtigkeit meinend, und andererseits ist es auch im Laufe der Jahre sozusagen hinzugebaut, der Lügner wird immer ein wenig schiefer gucken als die ehrsame Haut, verglichen werden darf an dieser Stelle hiermit :

    -> ‘Nature gives you the face you have at twenty. Life shapes the face you have at thirty. But at fifty you get the face you deserve.’

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +