Der Pflegenotstand weitet sich aus: weniger Pflegepersonal muss unter Zeitdruck zunehmend mehr Kranke versorgen. Gleichzeitig sollen Hilfebedürftige so lange wie möglich eigenständig leben können. Der Einsatz von Pflegerobotern verspricht im Gesundheitsbereich eine Entlastung des Pflegepersonals zu bieten, jedoch sind diese derzeit technisch noch nicht fähig, Emotionen des Kranken adäquat zu erkennen. Für pflegebedürftige Patienten könnten sozial kompetente Roboter in Zukunft eine zentrale Rolle spielen. Ziel des Forschungsprojekts EmoCare ist die Entwicklung eines Sensor-Moduls für Roboter, das es mit Hilfe von künstlicher Intelligenz ermöglicht aus Mimik, Stimme und Körperhaltung des Patienten den emotionalen Zustand abzuleiten und flexibel darauf zu reagieren, bis hin zum Zuziehen und der Alarmierung externer Hilfe. Neben einer vollautomatischen Unterstützung soll auch der Fall einer halbautomatischen Unterstützung bei der Interaktion von Fachpersonal oder Angehörigen in Telepräsenzsystemen über AR und VR entwickelt werden. Somit werden sowohl Einsatzmöglichkeiten als auch Akzeptanz der sozialen Roboter für den Pflegebereich erhöht.
Als Ausgangsbasis dienen Ton- und Videoaufnahmen, die mit Methoden des maschinellen Lernens in Echtzeit auf enthaltene emotionale Aspekte untersucht werden. Im Falle der Stimme werden aus einer Frequenzanalyse Merkmale extrahiert, welche auf emotionale Charakteristika hindeuten. Diese werden kombiniert mit Informationen, die aus Videoaufnahmen extrahiert werden. Die Mimik wird dabei über ein Facial-Encoding-System erfasst und auf Emotionen untersucht. Ebenso wird ergänzend emotionale Information aus der Gestik der Person analysiert. Alle drei Aspekte werden über ein KI-System ausgewertet und über Schnittstellen zur Verfügung gestellt.