Sie haben Tag und Nacht Sprechstunde: KI-Coaches. Immer öfter arbeiten sie als "Psychotherapeuten" für Menschen mit Depressionen. Das ergab das 9. Deutschland-Barometer Depressionen. Von Annegret Faber.
Anstatt Jugendliche (wieder) mit einer neue Technologie alleine zu lassen, sollten wir die Fähigkeiten einer KI in diesem Bereich gezielter einsetzen.
Wieso nicht die Versorgungslücke bei Jugendlichen durch Einsatz von KI bei älteren ab 18 schließen?
Natürlich mit einer spezialisierter KI und passenden Regeln.
Ich grätsche hier mal kurz rein, weil ich glaube, dass der Wille durchaus gut ist, die Technik aber missverstanden. Selbst fine tuned LLMs halluzinieren - und das inhärent. Was sie ausmacht, ist ein gewisses Maß an “textlicher Kreativität”, was, grob gesagt, erstmal nichts anderes ist als dem Zufall folgend bei der Wahl des nächsten Wortes mit Absicht ein nicht wahrscheinlichstes zu nehmen. Das macht sie so beeindruckend, hat aber nun einmal zur Folge, dass Halluzinationen und anderer Quatsch unumgänglich sind. Das ausgerechnet bei psychisch kranken Menschen anzuwenden, erachte ich also als äußerst bedenklich.
Polemisch-ideologischer Gedanke dazu: Wie die Welt wohl wäre, würde auch nur ein Bruchteil des KI Geldes in Bildung, Wissenschaft und Gesundheit gehen 🙃
Man macht oft den Fehler durch Technik etwas aus der realen Welt 1:1 ersetzen zu wollen. Für eine statistischer Auswertung oder ggf das zuordnen ist die Technik mit entsprechendem Training bestimmt geeignet.
Ein Sprachmodell möglicherweise gut um die Einstiegshürde zu nehmen.Das könnte Therapeuten entlasten nicht vollständig ersetzen.
Erwachsene sind meist gefestigter und bei einer anfängliche Kommunikation mit Technik dürfte weniger Fehler entstehen, als im sensiblen bzw. geringer gefedrigten Jugendalter.
Doch laut Beitrag läuft die Praxis gerade umgekehrt. Jugendliche wenden sich an Technik und Erwachsene verbrauchen die knappe Zeit der Therapeuten.
Das in die Technik investierte Geld könnte man sicher auch an anderer Stelle gut investieren. Wir sprechen jedoch nicht von entweder - oder.
Es müsste erwiesen sein, dass die KI selbst im schlimmsten Fall nicht schlechter handelt als der durchschnittliche Psychologe. Da sind wir weit, weit, weit von entfernt.
Ich glaube nicht, dass es eine Ablehnung gegenüber Psychologen ist. Es gibt einfach zu wenige - wenn KI auf einem ähnlichen Level arbeiten könnte, hätten plötzlich viele Leute Zugang zu psychologischer Hilfe, die aktuell keinen haben.
Jugendliche können einem echt Leid tun. Erst werden sie durch zu viel soziale Medien krank und dann müssen sie sich von einer KI behandeln lassen.
und halt auch Corona.
Anstatt Jugendliche (wieder) mit einer neue Technologie alleine zu lassen, sollten wir die Fähigkeiten einer KI in diesem Bereich gezielter einsetzen. Wieso nicht die Versorgungslücke bei Jugendlichen durch Einsatz von KI bei älteren ab 18 schließen? Natürlich mit einer spezialisierter KI und passenden Regeln.
Ich grätsche hier mal kurz rein, weil ich glaube, dass der Wille durchaus gut ist, die Technik aber missverstanden. Selbst fine tuned LLMs halluzinieren - und das inhärent. Was sie ausmacht, ist ein gewisses Maß an “textlicher Kreativität”, was, grob gesagt, erstmal nichts anderes ist als dem Zufall folgend bei der Wahl des nächsten Wortes mit Absicht ein nicht wahrscheinlichstes zu nehmen. Das macht sie so beeindruckend, hat aber nun einmal zur Folge, dass Halluzinationen und anderer Quatsch unumgänglich sind. Das ausgerechnet bei psychisch kranken Menschen anzuwenden, erachte ich also als äußerst bedenklich.
Polemisch-ideologischer Gedanke dazu: Wie die Welt wohl wäre, würde auch nur ein Bruchteil des KI Geldes in Bildung, Wissenschaft und Gesundheit gehen 🙃
Man macht oft den Fehler durch Technik etwas aus der realen Welt 1:1 ersetzen zu wollen. Für eine statistischer Auswertung oder ggf das zuordnen ist die Technik mit entsprechendem Training bestimmt geeignet. Ein Sprachmodell möglicherweise gut um die Einstiegshürde zu nehmen.Das könnte Therapeuten entlasten nicht vollständig ersetzen. Erwachsene sind meist gefestigter und bei einer anfängliche Kommunikation mit Technik dürfte weniger Fehler entstehen, als im sensiblen bzw. geringer gefedrigten Jugendalter. Doch laut Beitrag läuft die Praxis gerade umgekehrt. Jugendliche wenden sich an Technik und Erwachsene verbrauchen die knappe Zeit der Therapeuten.
Das in die Technik investierte Geld könnte man sicher auch an anderer Stelle gut investieren. Wir sprechen jedoch nicht von entweder - oder.
Es müsste erwiesen sein, dass die KI selbst im schlimmsten Fall nicht schlechter handelt als der durchschnittliche Psychologe. Da sind wir weit, weit, weit von entfernt.
Im schlimmsten Fall empfiehlt KI, sich umzubringen [1], also denke ich mal, das ist recht eindeutig.
Und generell, woher kommt diese implizite Ablehnung gegenüber Psychologen?
1
Ich glaube nicht, dass es eine Ablehnung gegenüber Psychologen ist. Es gibt einfach zu wenige - wenn KI auf einem ähnlichen Level arbeiten könnte, hätten plötzlich viele Leute Zugang zu psychologischer Hilfe, die aktuell keinen haben.