Automatische Spracherkennung Software identifizieren keine Emotionen
Veröffentlicht am: in der Kategorie: Computer und Internet
Spracherkennugssoftware wird in der Zukunft auch Emotionen unterscheiden können. Bis dahin ist jedoch noch ein langer Weg. Die Programme die für Emotionen Erkennung sorgen werden unter anderem an der Universität Stuttgart entwickelt.
An der Spracherkennung Software wird schon seit über 15 Jahren geforscht. Die Ergebnisse sind für uns, gewöhnliche Benutzer, zufriedenstellend. Eine fortschrittliche Spracherkennungssoftware funktioniert zwar, es bedarf allerdings einer Einarbeitungszeit.
Heute muss der Mensch erst die Arbeitsweise des Computers bzw. des Spracherkennungsprogramms erstmal lernen bevor er diktieren kann. So wirklich top ist das nicht. Hinzukommt, dass das Spracherkennung Programm nur den Inhalt des gesprochenen Textes analysieren kann, nicht aber den Kontext in dem es ausgesprochen wird. Zum Kontext gehören z.B. die Geschwindigkeit oder die Klangfarbe des Sprechers Indikatoren für Angst, Stress oder Wut. Anhand von diesen zusätzlichen Informationen könnten die Computer auch die geistige Verfassung der Person analysieren und damit auch den Inhalt des gesprochenen Textes besser verstehen.
Solche Weiterentwicklung der Spracherkennungssoftware wird derzeit am Lehrstuhl für Systemtheorie und Signalverarbeitung an der Uni-Stuttgart erforscht. Problematisch ist, dass in der Vergangenheit haben die Forscher nur daran gearbeitet, dem Computer die lingustischen Inhalte zu vermitteln. Die Emotionen wurden von Beginn an weg gelassen. Dadurch könnte sich diese Materie nicht weiterentwickeln.
Aus den im Kontext versteckten Informationen ist weit aus mehr enthalten als nur die Emotionelle Verfassung der Person die mit der Spracherkennungssoftware arbeitet. Aus der Stimme lassen sich beispielsweise das Alter, Geschlecht, Dialekt oder sogar Ausbildungsgrad und Herkunft ableiten.
Wie können Computer auch die Emotionen erkennen?
Ein Meilenstein in diesem Bereich sind die Algorithmen die der Spracherkennung dienen. Jetzt wird das System weiter entwickelt. Man kann beispielsweise die Benutzung von Schimpfwörtern bestimmten Emotionen oder Emotionszuständen zuordnen. Was die Praktische Umsetzung von emotionsgesteuerten Computern angeht, kann man sich vorstellen ein Navigationssystem im Auto, das nicht mehr so trocken und gleichmäßig "spricht". Oder einen Computer zu Hause, der mit Stimme gesteuert werden kann.
Wenn man berücksichtigt wie lange haben wir gebraucht um die jetzige Spracherkennungssoftware (wie z.B. von Dragon), so kann man sich denken, dass für die Emotionserkennung noch ziemlich lang gebraucht wird. Vielleicht erst nach ein paar Jahren kommt eine bezahlbare Version von Spracherkennungssoftware die auch Emotionen erkennt und emotional spricht.
Einen detaillierten Bericht über den Stand der Entwicklung der Software für Sprach und Emotionen Erkennung gibt es auf der Lehrstuhl-Seite des LSS. Es wird genau erklärt wie die heutige Programme die Stimme erkennen und auf dieser Basis weiter lernen.