Kann KI-gesteuerte Stimmanalyse helfen, psychische Störungen zu erkennen?

0 37

Dieser Artikel ist Teil einer limitierten Serie über das Potenzial künstlicher Intelligenz zur Lösung alltäglicher Probleme.

Stellen Sie sich einen Test vor, der so schnell und einfach ist wie das Messen Ihrer Temperatur oder Ihres Blutdrucks, der eine Angststörung zuverlässig erkennen oder einen bevorstehenden depressiven Rückfall vorhersagen könnte.

Anbieter von Gesundheitskuren haben viele Instrumente, um den körperlichen Zustand eines Patienten zu messen, jedoch keine verlässlichen Biomarker – objektive Indikatoren für medizinische Zustände, die von außerhalb des Patienten beobachtet werden – zur Beurteilung der psychischen Gesundheit.

Aber einige künstliche Forscher glauben jetzt, dass der Klang Ihrer Stimme der Schlüssel zum Verständnis Ihres mentalen Zustands sein könnte – und KI ist perfekt geeignet, um solche Veränderungen zu erkennen, die sonst schwer, wenn nicht gar unmöglich wahrzunehmen sind . Das Ergebnis ist eine Reihe von Apps und Online-Tools zur Verfolgung Ihres mentalen Status sowie Programme, die Telemedizin- und Callcenter-Anbietern Echtzeit-Bewertungen der psychischen Gesundheit liefern.

. Sie sagen es, sagte Maria Espinola, Psychologin und Assistenzprofessorin am College of Medicine der Universität von Cincinnati.

Bei depressiven Patienten sagte Dr. Espinola: „Ihre Sprache ist im Allgemeinen monotoner, flacher und weicher. Sie haben auch einen reduzierten Tonumfang und eine geringere Lautstärke. Sie machen mehr Pausen. Sie hören öfter auf.“

Patienten mit Angst fühlen mehr Anspannung in ihrem Körper, was auch den Klang ihrer Stimme verändern kann, sagte sie. „Sie neigen dazu, schneller zu sprechen. Sie haben mehr Schwierigkeiten beim Atmen.“

Heutzutage werden diese Arten von Stimmmerkmalen durch maschinelles Lernen genutzt, damit Forscher Depressionen und Angstzustände sowie andere psychische Erkrankungen wie Schizophrenie und posttraumatische Belastungsstörungen vorhersagen können. Die Verwendung von Deep-Learning-Algorithmen kann zusätzliche Muster und Merkmale aufdecken, die in kurzen Sprachaufnahmen erfasst werden und selbst für geschulte Experten möglicherweise nicht erkennbar sind.

„Die Technologie, die wir jetzt verwenden, kann aussagekräftige Merkmale extrahieren, die selbst das menschliche Ohr nicht wahrnehmen kann“, sagte Kate Bentley, Assistenzprofessorin an der Harvard Medical School und klinische Psychologin im Massachusetts General Hospital.

„Es gibt eine Menge Aufregung darüber, biologische oder objektivere Indikatoren für psychiatrische Diagnosen zu finden, die über die eher subjektiven Formen der Beurteilung hinausgehen, die traditionell verwendet werden, wie z. B. Kliniker -bewertete Interviews oder Selbstberichtsmaßnahmen“, sagte sie. Andere Hinweise, die Forscher verfolgen, sind Änderungen des Aktivitätsniveaus, Schlafmuster und Social-Media-Daten.

Diese technologischen Fortschritte kommen zu einer Zeit, in der der Bedarf an psychischer Gesundheit besonders akut ist: Laut einem Bericht der National Alliance on Mental Illness litt im Jahr 2020 jeder fünfte Erwachsene in den Vereinigten Staaten an einer psychischen Erkrankung. Und die Zahlen steigen weiter.

Obwohl die KI-Technologie den Mangel an qualifizierten Anbietern von Psychotherapie nicht beheben kann – es gibt nicht annähernd genug, um den Bedarf des Landes zu decken, sagte Dr. Bentley –, besteht Hoffnung, dass sie die Hürden für den Erhalt einer Heilung senken kann Diagnose, helfen Ärzten bei der Identifizierung von Patienten, die möglicherweise zögern, sich heilen zu lassen, und erleichtern die Selbstüberwachung zwischen den Besuchen.

„Zwischen den Terminen kann viel passieren, und die Technologie kann uns wirklich das Potenzial bieten, die Überwachung und Bewertung kontinuierlicher zu verbessern“, sagte Dr. Bentley.

Um diese neue Technologie zu testen, habe ich zunächst die Mental Fitness-App von Sonde Health, einem Unternehmen für Gesundheitstechnologie, heruntergeladen, um zu sehen, ob mein Unwohlsein ein Zeichen für etwas Ernstes ist oder ob ich einfach schmachte. Die kostenlose App, die als „sprachgesteuertes Produkt zur Verfolgung und Aufzeichnung mentaler Fitness“ beschrieben wurde, lud mich ein, meinen ersten Check-in aufzuzeichnen, einen 30-sekündigen mündlichen Tagebucheintrag, der meine geistige Gesundheit auf einer Skala von 1 bis 100 einstufen würde.

Eine Minute später hatte ich meine Punktzahl: eine nicht so tolle 52. „Pass auf“, warnte die App.

Die App meldete, dass die in meiner Stimme festgestellte Lebhaftigkeit besonders niedrig war. Klang ich monoton, nur weil ich versucht hatte, leise zu sprechen? Soll ich die Vorschläge der App beherzigen, um meine geistige Fitness zu verbessern, indem ich spazieren gehe oder meinen Platz entrümpele? (Die erste Frage könnte auf einen möglichen Fehler der App hinweisen: Als Verbraucher kann es schwierig sein zu wissen, warum Ihre Stimmlautstärke schwankt.)

(980701 ) )

Kredit… Juan Carlos Pagan
(9)702,070 ) Später, als ich mich zwischen den Interviews nervös fühlte, testete ich ein anderes Stimmanalyseprogramm, das sich auf die Erkennung von Angstzuständen konzentrierte. Der StressWaves-Test ist ein kostenloses Online-Tool von Cigna, dem Gesundheitsdeva- und Versicherungskonglomerat, das in Zusammenarbeit mit dem KI-Spezialisten Ellipsis Health entwickelt wurde, um das Stressniveau anhand von 60-Sekunden-Beispielen aufgezeichneter Sprache zu bewerten.

„Was hält dich nachts wach?“ war die Aufforderung der Website. Nachdem ich eine Minute damit verbracht hatte, meine anhaltenden Sorgen zu schildern, bewertete das Programm meine Aufzeichnung und schickte mir eine E-Mail mit der Mitteilung: „Ihr Stresslevel ist moderat.“ Im Gegensatz zur Sonde-App bot Cignas E-Mail keine hilfreichen Tipps zur Selbstverbesserung.

Andere Technologien fügen eine potenziell hilfreiche Ebene menschlicher Interaktion hinzu, wie Kintsugi, ein Unternehmen mit Sitz in Berkeley, Kalifornien, das Anfang dieses Monats 20 Millionen US-Dollar an Finanzierungen der Serie A aufbrachte. Kintsugi ist nach der japanischen Praxis benannt, zerbrochene Keramik mit Goldadern zu reparieren.

Kintsugi wurde von Grace Chang und Rima Seiilova-Olson gegründet, die sich über die gemeinsamen Erfahrungen mit dem Kampf um den Zugang zu Deva für psychische Gesundheit verbanden, und entwickelt Technologie für Telemedizin- und Callcenter-Anbieter, die ihnen helfen können, Patienten zu identifizieren, die davon profitieren könnten von weiterer Unterstützung.

Durch die Verwendung des Sprachanalyseprogramms von Kintsugi könnte eine Krankenschwester beispielsweise aufgefordert werden, sich eine zusätzliche Minute Zeit zu nehmen, um einen gehetzten Elternteil mit einem Koliken-Säugling nach seinem eigenen Wohlbefinden zu fragen.

Ein Problem bei der Entwicklung dieser Arten von maschinellen Lerntechnologien ist das Problem der Voreingenommenheit – sicherzustellen, dass die Programme für alle Patienten gleich funktionieren, unabhängig von Alter, Geschlecht, ethnischer Zugehörigkeit, Nationalität und anderen demografischen Kriterien.

„Damit maschinelle Lernmodelle gut funktionieren, braucht man wirklich einen sehr großen und vielfältigen und robusten Datensatz“, sagte Frau Chang und merkte an, dass Kintsugi in vielen Fällen Sprachaufzeichnungen aus der ganzen Welt verwendete verschiedenen Sprachen, um insbesondere diesem Problem vorzubeugen.

Ein weiteres wichtiges Anliegen in diesem aufstrebenden Bereich ist der Datenschutz – insbesondere Sprachdaten, die zur Identifizierung von Personen verwendet werden können, sagte Dr. Bentley.

Und selbst wenn Patienten der Aufzeichnung zustimmen, stellt sich manchmal die Frage nach der Einwilligung. Neben der Beurteilung der psychischen Gesundheit eines Patienten verwenden einige Sprachanalyseprogramme die Aufzeichnungen, um ihre eigenen Algorithmen zu entwickeln und zu verfeinern.

Eine weitere Herausforderung, sagte Dr. Bentley, ist das potenzielle Misstrauen der Verbraucher gegenüber maschinellem Lernen und sogenannten Black-Box-Algorithmen, die auf eine Weise funktionieren, die selbst die Entwickler selbst nicht vollständig erklären können, insbesondere welche Funktionen sie verwenden Vorhersagen zu machen.

„Es geht darum, den Algorithmus zu erstellen, und es geht darum, den Algorithmus zu verstehen“, sagte Dr. Alexander S. Young, Interimsdirektor des Semel Institute for Neuroscience and Human Behavior und Inhaber des Lehrstuhls für Psychiatrie an der University of California, Los Angeles, was die Bedenken widerspiegelt, die viele Forscher in Bezug auf KI und maschinelles Lernen im Allgemeinen haben: dass während der Trainingsphase des Programms, wenn überhaupt, nur wenig menschliche Aufsicht vorhanden ist.

Dr. Young bleibt vorerst vorsichtig optimistisch in Bezug auf das Potenzial von Stimmanalysetechnologien, insbesondere als Hilfsmittel für Patienten zur Selbstüberwachung.

„Ich glaube, dass man den psychischen Gesundheitszustand von Menschen modellieren oder ihren psychischen Gesundheitszustand allgemein annähern kann“, sagte er. „Menschen möchten ihren Status gerne selbst überwachen können, insbesondere bei chronischen Krankheiten.“

Aber bevor automatisierte Sprachanalysetechnologien in den Mainstream-Einsatz gelangen, fordern einige rigorose Untersuchungen ihrer Genauigkeit.

„Wir brauchen wirklich mehr Validierung nicht nur der Sprachtechnologie, sondern auch von KI- und maschinellen Lernmodellen, die auf anderen Datenströmen aufbauen“, sagte Dr. Bentley. „Und wir müssen diese Validierung durch groß angelegte, gut konzipierte repräsentative Studien erreichen.“

Bis dahin bleibt die KI-gesteuerte Sprachanalyse-Technologie ein vielversprechendes, aber unbewiesenes Werkzeug, das möglicherweise eine alltägliche Methode sein wird, um die Temperatur unseres geistigen Wohlbefindens zu messen.

Leave A Reply

Your email address will not be published.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More