Tut das weh?

ausführlich(145.8 KB, 4 Seiten)

Tut das weh?

Automatisierte Schmerzidentifikation anhand der Mimik

Wenn Menschen Schmerzen empfinden, zeigt sich dies auch an ihrer mimischen Reaktion. Bei Menschen, denen es krankheits- oder situationsbedingt nicht m?glich ist, sich sprachlich zu ?u?ern, ist der Gesichtsausdruck h?ufig sogar der einzige Weg der Umwelt zu signalisieren, dass sie Schmerz empfinden. Seit 2009 arbeiten die Bamberger Biopsychologen Stefan Lautenbacher und Miriam Kunz gemeinsam mit den Informatikern Ute Schmid und Michael Siebers an einem Verfahren, das die automatische Interpretation von Bilddaten erm?glicht und so dem Pflegepersonal und Medizinern hilft, Schmerz auch bei Menschen zu erkennen, die sich verbal nicht mehr mitteilen k?nnen.

Jeder kennt das Gefühl: In den Finger geschnitten, von einer Wespe gestochen, vom Zahnarztbohrer gepeinigt … Schmerz ist definiert als ein unangenehmes Sinnes- oder Gefühlserlebnis, das mit einer echten oder potentiellen Gewebesch?digung einhergeht. Akuter Schmerz dient dabei als Warnsignal, das entsprechende Schutzmechanismen des K?rpers aktiviert. Akuter Schmerz kann jedoch in chronischen Schmerz übergehen, der dann seine ursprüngliche Schutzfunktion verloren hat und sich sehr belastend auf das k?rperliche und psychische Wohlbefinden eines Menschen auswirkt. In jedem Fall ist Schmerz ein subjektives Erlebnis, das wir im Normalfall verbal kommunizieren k?nnen, so dass uns professionelle Hilfe, z. B. durch den Einsatz von Schmerzmitteln, ohne Umwege schnell Linderung verschaffen kann.

In manchen F?llen ist jedoch verbale Kommunikation nicht m?glich – beispielsweise bei Neugeborenen oder aber bei Patienten mit bestimmten kognitiven Beeintr?chtigungen wie einer Demenzerkrankung. Damit Hilfe geleistet werden kann,muss der Schmerz in solchen F?llen also auf andere Art und Weise erkannt werden. Aus Experimenten, die die Bamberger Biopsychologen Stefan Lautenbacher und Miriam Kunz durchgeführt haben, l?sst sich allerdings ableiten, dass genau hier die Defizite liegen: Das Pflegepersonal erkennt bei diesen Patientengruppen Schmerz oft nur unzureichend mit der fatalen Folge, dass diese dann schmerztherapeutisch unterversorgt sind.
Diese Beobachtung lieferte den Ausgangspunkt für eine wegweisende Kooperation zwischen zwei ganz unterschiedlichen Forschungsbereichen:
der Angewandten Informatik und der Biopsychologie. Mittelfristiges Forschungsziel des Projekts ist es dabei, automatische Klassifikatoren zu entwickeln, mit deren Hilfe sich anhand von zuvor per Kamera aufgenommenen Mimikdaten m?glichst sicher vorhersagen l?sst, ob eine Person gerade unter Schmerzen leidet oder nicht.

Die interdisziplin?re Gruppe stand dabei vor folgenden grundlegenden Forschungsfragen: K?nnen Klassifikatoren, die über einen gro?en Pool von mimischen Schmerz?u?erungen gelernt werden, genau genug sein, um Schmerz zuverl?ssig zu identifizieren oder müssen solche Klassifikatoren individuell bzw. gruppenspezifisch gelernt werden? Welche aus Bilddaten identifizierbaren Merkmale bilden die mimische Reaktion überhaupt sinnvoll ab? K?nnen automatische Klassifikatoren eine ?hnliche Genauigkeit erreichen wie ein Mensch, der gegebenenfalls auf einen Blick erkennt, ob es einem Patienten schlecht geht, oder sind sie sogar noch genauer? Reicht ein Schnappschuss der
mimischen ?u?erung aus oder liefert eine Abfolge an mimischen Reaktionen zus?tzliche relevante Informationen?


Repr?sentation mimischer Bewegungen

Die Basis für alle diese Fragestellungen ist die Extraktion von aussagekr?ftigen Merkmalen aus den vorliegenden Bilddaten. In der Mimikforschung wird dazu üblicherweise das Facial Action Coding System (FACS) verwendet. Im Prinzip werden dabei die Bewegungen der Gesichtsmuskeln als sogenannten Action Units (AUs) beschrieben. Bei Schmerz sind insbesondere die AU 4 (Kontraktion
der Augenbrauen), 6 und 7 (Kontraktion der Muskulatur um die Augen herum), 9 und 10 (Kr?useln der Nase) und 43 (Schlie?en der Augen für mindestens eine halbe Sekunde) aktiviert. Menschliche FACS-Coder sehen die entsprechenden AUs in Bildern ?auf einem Blick“. Um automatische Klassifikatoren entwickeln zu k?nnen, müssen dagegen die entsprechenden Informationen aus den Bilddaten
extrahiert werden. Hierzu k?nnen Gesichter durch so genannte Active Appearance Models repr?sentiert werden. Die verschiedenen Aufnahmen von Gesichtern werden dazu zun?chst in Gr??e und Orientierung normalisiert bzw. einander angepasst. Dann werden ausgew?hlte Punkte festgelegt, die die Konturen von Augenbrauen, Augen, Nase und Mund markieren. Ob eine Action Unit vorliegt, kann dann durch verschiedene Beziehungen zwischen den Punkten dargestellt werden. Beispielsweise kann das Senken einer Augenbraue durch die Distanz zwischen Eckpunkt der Braue und dem Innenpunkt des Auges, aber auch durch den Abstand zwischen Braue und Nasenspitze erfasst werden.

Zu diesem Zweck wurden in einem ersten Schritt eine Reihe von potentiell geeigneten Repr?sentanten für die AUs identifi ziert. Hierzu geh?ren z. B. Distanzen zwischen Punkten, Winkel, sowie die entsprechenden Relationen zwischen Abst?nden und Winkeln. Trotz einer theoretisch begründeten
Vorauswahl wurden zun?chst mehr als 10.000 m?gliche Repr?sentanten ermittelt, die die Basis für Verfahren des maschinellen Lernens bildeten. Diese Vielzahl in Frage kommender Merkmale musste allerdings zun?chst deutlich reduziert werden. Der Grund dafür leuchtet auf Anhieb ein: ?hnlich wie in der Statistik macht es wenig Sinn, mit mehr Merkmalen als Messwerttr?gern – in diesem Fall Bildern – zu arbeiten. Mit verschiedenen Feature Selection- Verfahren gelang es, die Zahl der Merkmale auf weniger als 100 zu reduzieren.

 

Individuelle versus globale Identifikation

 

Bereits seit einigen Jahren wird verst?rkt an automatischen Verfahren gearbeitet, mit denen sich Emotionen wie etwa Freude oder ?rger aus Bilddaten identifi zieren lassen. Solche Verfahren sollen beispielsweise die Mensch-Roboter-Kommunikation erleichtern oder dienen der Bewertung von Werbeaktionen. Bis heute arbeiten allerdings international nur sehr wenige Gruppen an der automatischen Klassifi kation der Schmerzmimik. Allen bisherigen Forschungsarbeiten ist dabei gemeinsam, dass versucht
wird, globale Klassifikatoren zu definieren. Dies hei?t, dass aus m?glichst vielen Gesichtern ein einziger Klassifikator generalisiert wird, der im
Mittel für unbekannte Gesichter m?glichst wenige Fehler generiert.

 

Gerade im Bereich Schmerzforschung vor dem Hintergrund eines klinischen Anwendungsziels ist es jedoch ein vorrangiges Ziel, m?glichst zuverl?ssige
und genaue Klassifi katoren zu erarbeiten. H?ufige Fehlalarme k?nnen n?mlich dazu führen, dass entsprechende Systemmeldungen nach einer gewissen Zeit nicht mehr vom Pflegepersonal beachtet werden. Bei zu grob eingestellten Klassifikatoren besteht dagegen die Gefahr, dass Schmerz beim Patienten übersehen wird. Dabei haben die Bamberger Forscher festgestellt, dass mimische Schmerz?u?erungen ?u?erst individuell sind, sowohl was die
Art der mimischen Reaktion als auch deren Intensit?t anbelangt. So reagieren manche Personen nur im Augen- und Stirnbereich oder im Bereich des Mundes, wieder andere in beiden Gesichtsregionen.

 

In einem ersten gemeinsamen Experiment sollte geprüft werden, ob die Genauigkeit global gelernter Klassifi katoren hinreichend ist oder ob
individuelle Klassifikatoren gelernt werden sollten. An dem Experiment nahmen 30 Studenten der Universit?t Bamberg teil. Schmerzreize wurden durch Druck auf den Trapezmuskel an der Schulter ausgel?st. Um sicherzugehen, dass der Schmerz für alle Probanden tolerierbar ist, wurden die Intensit?ten an die individuelle Empfindlichkeit angepasst. Jeder Proband erhielt zwanzig Schmerzreize (von fünf bis maximal 8 kg) und zwanzig nicht schmerzhafte Reize. Die mimischen Reaktionen wurden mit Video aufgezeichnet. Pro Proband und je Reiz wurden zehn Standbilder extrahiert. Probanden, die keine mimischen Reaktionen zeigten, wurden von der Analyse ausgeschlossen. Bei diesem Experiment wurde zun?chst keine automatische Merkmalsselektion durchgeführt, sondern gezielt 178 theoretisch sinnvolle Merkmale extrahiert. Auf die experimentell ermittelten Daten wurden verschiedene maschinelle Lernmethoden angewandt, die jeweils über alle Probanden oder individuell für jeden Probanden einzeln trainiert und evaluiert wurden. Zur Analyse wurde das Tool Rapid-Miner verwendet, das eine umfassende Sammlung von Lernalgorithmen zur Verfügung stellt. Es zeigte sich, dass für die sorgf?ltig ausgew?hlten Daten eine sehr hohe Klassifi kationsgüte erreicht werden kann: Die meisten verwendeten Lernverfahren wie der so genannte Entscheidungsbaumalgorithmus ID3, das ?k-n?chste Nachbarn“-Verfahren, die ?support vector machine“, oder ?Naive Bayes“, lieferten Generalisierungsgenauigkeiten von über 95 Prozent bis über 99 Prozent. Dabei lag die Güte der individuellen Klassifikatoren fast immer und mit bis zu sieben Prozent h?herer Genauigkeit über der der globalen Klassifikatoren. Diese ersten Ergebnisse sind sehr ermutigend. Allerdings müssen weitere Experimente mit weniger sorgf?ltig ausgew?hlten Trainingsdaten und gr??erer Varianz in den Gesichtern durchgeführt werden, um diese Resultate st?rker abzusichern.

 

Weitere Forschungsfragen

 

Ziel des Forschungsprojekts ist es, maschinelle Klassifikatoren für Schmerz zu entwickeln, die zuverl?ssiger arbeiten als menschliche Beobachter. Dazu
führt das interdisziplin?re Wissenschaftlerteam derzeit Experimente durch, bei denen Probanden Bilder von Gesichtern beurteilen sollen. Die Fotos zeigen dabei Menschen, die einerseits einem Schmerzreiz und andererseits einem Ekelreiz ausgesetzt waren. Die verschiedenen automatischen Lernverfahren werden dann mit der gleichen Bildabfolge konfrontiert. Auf diese Weise l?sst sich die Klassifikationsgüte von Mensch und Maschine direkt miteinander vergleichen. Ein weiterer Ansatz ist es, anstelle von Standbildern, Abfolgen von mimischen Reaktionen zu untersuchen. Hier stellt sich die Frage, ob in der Reihenfolge, in der verschiedene AUs aktiviert werden, eine relevante nformation steckt. Dieser Aspekt wurde in  bisherigen psychologischen Untersuchungen noch nicht berücksichtigt: ?blicherweise wurde lediglich die Art und Intensit?t der in einer Schmerzepisode aufgetretenen AUs erfasst. Dazu setzen die Bamberger Forscher Methoden aus dem aktuellen Forschungsbereich des temporal data mining ein.

 

Does this hurt?

 

Automated pain identification based on facial expression The experience of pain is usually accompanied by specifi c facial muscle movements. For individuals unable to express themselves verbally, due to cognitive impairment or other circumstances, facial expression is often the only way to signal to others that they are experiencing pain. Since 2009, the Bamberger biopsychologists Stefan Lautenbacher and Miriam Kunz, in cooperation with the computer scientists Ute Schmid and Michael Siebers, have been working on a process by which automated interpretation of image-based data will be possible. Such an automated recognition of facial pain displays has the potential to help doctors and nursing staff recognizing pain in persons who cannot communicate verbally.

 

Literaturempfehlung

 

P. Ekman and W. Friesen: Facial Action Coding System: A Technique for the Measurement of Facial Movement. Consulting Psychologists Press, Palo Alto, 1978.
Kunz M, Mylius V, Scharmann S, Schepelman K, Lautenbacher S: Influence of dementia on multiple components of pain. European Journal of Pain 13,
2009, 317-325.
Kenneth M. Prkachin: The consistency of facial expressions of pain: A comparison across modalities. Pain 51 (3), 1992, 297-306.
Siebers, M., Kunz, M., Lautenbacher, S., Schmid, Ute: Classifying Facial Pain Expressions: Individual Classifiers vs. Global Classfiers. In: Reichardt, Dirk (Hrsg.) : Proceedings of the 4th Workshop on Emotion and Computing
- Current Research and Future Impact (4th Workshop on Emotion and Computing, KI 2009, Paderborn, 16.September 2009).