Künstliche Intelligenz (KI) kann jetzt schon einiges und sie wird in Zukunft noch mehr können. Wenn es nach einer wachsenden Anzahl von Forschern und Unternehmen geht, wird sie uns in Zukunft auch helfen, Krankheiten zu diagnostizieren und zwar anhand unserer Stimme.
Die Fähigkeit zu sprechen ist für die meisten Menschen nichts Besonderes und wir alle wissen, dass bei bestimmten Krankheiten, wie einer Erkältung, die Stimme anders klingt als sonst, oder bei schlimmen Fällen von Heiserkeit ganz wegbleibt. In den letzten Jahren häufen sich jedoch die Anzeichen dafür, dass auch bestimmte psychische Erkrankungen wie ADHS (Aufmerksamkeitsdefizits-/Hyperaktivitätsstörung) oder manische Episoden den Klang der Stimme verändern können.
Auf der anderen Seite ist es aber auch möglich, dass physiologische Veränderungen wie eine Gehirnerschütterung zu Abweichungen im Sprachbild führen können. An anderen gesundheitlichen Beeinträchtigungen und deren Einfluss auf die Sprechweise wird ebenfalls geforscht. Beispiele hierfür sind Depressionen, Lungen- oder Herz-Kreislauf Erkrankungen. Mögliche Änderungen in der Sprechweise sind leichtes Zittern, Nuscheln oder Quietschen der Stimme sowie eine gedehnte Aussprache. Die Unterschiede zum normalen Stimmbild sind dabei so winzig, dass sie für das menschliche Ohr nicht wahrnehmbar sind.
Ob all diese Zusammenhänge wirklich eine eindeutige Diagnose bestimmter Krankheitsbilder ermöglichen, ist noch nicht zu 100 % wissenschaftlich abgesichert, aber immer mehr Firmen und Forschungsgruppen arbeiten bereits an diesem Thema. Ein sehr junges Start-Up entwickelt in Zusammenarbeit mit dem MIT eine Software, die es ermöglichen soll, Depressionen oder Herz-Kreislauferkrankungen zu diagnostizieren. Ein erster Schritt ist dabei die Analyse von Sprachproben von Patienten aber letztendlich soll das Monitoring wesentlich einfacher erfolgen. Aber nicht nur Start-Ups wollen dieses Geschäftsfeld erschließen, auch große Firmen wie IBM und sogar das US Militär haben Interesse. IBM konzentriert sich dabei auf die Frage, ob Sprachmuster Rückschlüsse auf sich entwickelnde Psychosen zulassen. Sie stellen dafür den Supercomputer Watson der Forschung zur Verfügung. Die US Armee hingegen setzt KI ein, um festzustellen in welcher Stimmung sich Soldaten befinden und um Hirnschäden zu diagnostizieren. Andere KI gestützte Lösungen werden derzeit an Patienten mit Depressionen oder bipolarer Persönlichkeitsstörung getestet.
Das klingt zunächst alles sehr vielversprechend, aber einige Kritiker sehen auch Probleme voraus, die zum Teil auch damit zusammenhängen, dass die Forschung zu dieser Technologie noch in den Kinderschuhen steckt. Ein Beispiel hierfür ist, dass es oft schwierig ist, eine Änderung im Sprachmuster eines Menschen einer bestimmten Ursache zuzuordnen. Bei einer Studie aus dem Jahr 2015 stellte etwa heraus, dass viele Probanden ihr Stimmmuster deutlich änderten als sie das englische Wort „hell“, also Hölle aussprechen sollten. Einige Studienteilnehmer weigerten sich überhaupt, es auszusprechen. Die beobachteten Änderungen in der Stimme ließen sich aber eher auf kulturelle Hintergründe als auf Gehirnschäden oder sonstige Krankheitsbilder zurückführen.
Elinext ist ein Unternehmen, das eine erfolgreiche Erfahrung in der Entwicklung von Gesundheitssoftware hat, merkt, dass ein weiterer Aspekt die Tatsache ist, dass man eine riesige Anzahl an aufgenommenen Daten in bester Qualität benötigt, um überhaupt nützliche Aussagen treffen zu können. Das kostet vor allem Zeit und Geld. Eine andere Frage ist, wie nützlich die Diagnosen der KI sind und ob Ärzte überhaupt in der Lage sind, etwas damit anzufangen, bzw. richtig zu reagieren. Einige gute Einwände kommen zum Beispiel vom Medizinethiker Arthur Caplan, der an der New York University forscht. Caplan nahm als fiktives Beispiel eine App, die einen Patienten darüber informiert, dass er gerade einen Schlaganfall erleidet. Wenn sich der Patient sofort ins Krankenhaus begibt ist diese Diagnose sehr nützlich für ihn. Wenn die App aber aufgrund der Sprache eine 38 % Wahrscheinlichkeit für das Auftreten einer Migräne prognostizieren würde, dann wäre der Nutzen für den Betreffenden sehr gering.
Ein zusätzlicher Punkt ist der des permanenten Monitorings – muss die KI Software ständig ‚mithören‘, um genaue Diagnosen zu erstellen und will das wirklich jeder potentielle Anwender? Wo liegt die Grenze zwischen Dauerüberwachung und so geringer Datenlage, dass die Auswertung der Sprachproben nicht mehr aussagekräftig ist? Möglicherweise wird diese Technologie so ausgereift, dass es zu Kollisionen mit dem Datenschutz kommen kann. Das wäre der Fall, wenn die KI basierte Sprachanalyse so gut wird, dass man Menschen nur anhand ihrer Stimme identifizieren kann. Dies wäre vor allem für die Privatsphäre von Patienten mit schwerwiegenden physischen oder psychischen Erkrankungen von großem Nachteil.
Man kann also sehen, dass die Chancen für die KI gestützte Diagnose anhand von Sprachmustern enorm sind, aber es sind auch einige Einwände zu bedenken und viel Forschung zu betreiben. Wir müssen uns also noch ein Weilchen gedulden bis diese Technologie Verbreitung findet.