• rumschlumpel@feddit.org
    link
    fedilink
    arrow-up
    2
    ·
    16 hours ago

    Ich wette, eine Verdoppelung der Anzahl der Kassenstellen für Psychotherapeuten wäre billiger als die ganzen KI-Rechenzentren, die jetzt überall gebaut werden sollen.

  • quatschkopf43@feddit.org
    link
    fedilink
    Deutsch
    arrow-up
    21
    ·
    2 days ago

    Jugendliche können einem echt Leid tun. Erst werden sie durch zu viel soziale Medien krank und dann müssen sie sich von einer KI behandeln lassen.

    • Toe@feddit.org
      link
      fedilink
      arrow-up
      1
      arrow-down
      6
      ·
      1 day ago

      Anstatt Jugendliche (wieder) mit einer neue Technologie alleine zu lassen, sollten wir die Fähigkeiten einer KI in diesem Bereich gezielter einsetzen. Wieso nicht die Versorgungslücke bei Jugendlichen durch Einsatz von KI bei älteren ab 18 schließen? Natürlich mit einer spezialisierter KI und passenden Regeln.

      • Bienenvolk@feddit.org
        link
        fedilink
        arrow-up
        9
        ·
        1 day ago

        Ich grätsche hier mal kurz rein, weil ich glaube, dass der Wille durchaus gut ist, die Technik aber missverstanden. Selbst fine tuned LLMs halluzinieren - und das inhärent. Was sie ausmacht, ist ein gewisses Maß an “textlicher Kreativität”, was, grob gesagt, erstmal nichts anderes ist als dem Zufall folgend bei der Wahl des nächsten Wortes mit Absicht ein nicht wahrscheinlichstes zu nehmen. Das macht sie so beeindruckend, hat aber nun einmal zur Folge, dass Halluzinationen und anderer Quatsch unumgänglich sind. Das ausgerechnet bei psychisch kranken Menschen anzuwenden, erachte ich also als äußerst bedenklich.

        Polemisch-ideologischer Gedanke dazu: Wie die Welt wohl wäre, würde auch nur ein Bruchteil des KI Geldes in Bildung, Wissenschaft und Gesundheit gehen 🙃

        • Toe@feddit.org
          link
          fedilink
          arrow-up
          1
          ·
          10 hours ago

          Man macht oft den Fehler durch Technik etwas aus der realen Welt 1:1 ersetzen zu wollen. Für eine statistischer Auswertung oder ggf das zuordnen ist die Technik mit entsprechendem Training bestimmt geeignet. Ein Sprachmodell möglicherweise gut um die Einstiegshürde zu nehmen.Das könnte Therapeuten entlasten nicht vollständig ersetzen. Erwachsene sind meist gefestigter und bei einer anfängliche Kommunikation mit Technik dürfte weniger Fehler entstehen, als im sensiblen bzw. geringer gefedrigten Jugendalter. Doch laut Beitrag läuft die Praxis gerade umgekehrt. Jugendliche wenden sich an Technik und Erwachsene verbrauchen die knappe Zeit der Therapeuten.

          Das in die Technik investierte Geld könnte man sicher auch an anderer Stelle gut investieren. Wir sprechen jedoch nicht von entweder - oder.

        • FooBarrington@lemmy.world
          link
          fedilink
          arrow-up
          2
          ·
          1 day ago

          Es müsste erwiesen sein, dass die KI selbst im schlimmsten Fall nicht schlechter handelt als der durchschnittliche Psychologe. Da sind wir weit, weit, weit von entfernt.

          • Bienenvolk@feddit.org
            link
            fedilink
            arrow-up
            3
            ·
            19 hours ago

            Im schlimmsten Fall empfiehlt KI, sich umzubringen [1], also denke ich mal, das ist recht eindeutig.

            Und generell, woher kommt diese implizite Ablehnung gegenüber Psychologen?

            1

            • FooBarrington@lemmy.world
              link
              fedilink
              arrow-up
              1
              ·
              18 hours ago

              Ich glaube nicht, dass es eine Ablehnung gegenüber Psychologen ist. Es gibt einfach zu wenige - wenn KI auf einem ähnlichen Level arbeiten könnte, hätten plötzlich viele Leute Zugang zu psychologischer Hilfe, die aktuell keinen haben.

  • JensSpahnpasta@feddit.org
    link
    fedilink
    arrow-up
    16
    ·
    edit-2
    2 days ago

    Ich würde es ja gerne kritisieren, aber was bleibt den armen Menschen auch übrig? Die professionellen Therapeuten und Kliniken sind völlig überlaufen und da an einen Platz zu kommen, ist schwierig. Und dann sieht es da draußen plötzlich hart mau aus mit Hilfe.

    • Mora@pawb.social
      link
      fedilink
      arrow-up
      14
      ·
      1 day ago

      Verdammt nochmal das. Als niedergeschlagener Mensch passiert dann auch noch das wieder und wieder:

      • “Hey, ich benötige recht zeitnah Hilfe”
      • “Kein Problem, wir setzen sie auf die Warteliste. Vorraussichtlich sind sie dann Montag in 2 bis 200 Jahren dran.”

      Richtig spaßig wird es dann wenn es spezialisierter wird und vielleicht auch noch das bestehen eines Arbeitsplatzes dran hängt. Und wenn der dann wegfällt hat man dann das Arbeitsamt im Nacken, was natürlich durch sinnlosen Druck Probleme nur besser macht. Es ist ein komplettes Systemversagen.

      Und dann kommt irgend so ein Blackrot-Arschloch und sagt, dass ja alle zu oft krank sind. Tja, wenn man mal Probleme mal behandeln könnte, bevor sie drastisch werden, könnte sich daran vielleicht auch mal was ändern.

        • Mora@pawb.social
          link
          fedilink
          arrow-up
          6
          ·
          edit-2
          1 day ago

          Meine Lieblingswarteliste hat Wartezeit “unbekannt”. Als ich nach 2 Jahren mal angerufen habe um zu fragen, ob ich noch auf der Warteliste stehe hieß es nur “wenn man sie nicht angerufen hat, wird das wohl so sein”. So geht Menschenleben retten, 10/10.

  • SapphireSphinx@feddit.org
    link
    fedilink
    arrow-up
    9
    ·
    edit-2
    2 days ago

    Da mag es spezialisierte Angebote geben, die letztendlich nur eine strikt begrenzte Auswahl an Antworten des Chat-Bots erlauben aber bei allem anderen bin ich als Laie erst mal eher skeptisch. Ich habe gerade erst einen Blog-Artikel zu dem generellen Thema gelesen und der Autor hatte ein gutes Beispiel:

    Z.B. so ein Coding-Assistant. Der ist super. Das Problem mit dem ist halt, dass am Ende vor dem Bildschirm ein Experte (erfahrener Programmierer) sitzen muss, der in der Lage ist, die aus Prinzip nicht vermeidbaren Halluzinationen (Sicherheitslöcher, Logik-Fehler, …) zu erkennen und selbst zu fixen.

    Übertragen auf die Situation Therapeuten-LLM vs Patient wäre das, dass der Patient selbst geschulter Psychologe sein müsste. Das Problem kann man über irgendwelche speziellen Agenten minimieren aber nie auf Null bringen. Es gibt bestimmt vieles wo so etwas reicht aber im Endeffekt klebt das doch nur ein Pflaster auf das eigentliche Problem: Zu wenig Therapieplätze.

    Danke für das Teilen.

    Edit:

    Zu dem Thema gab es vor kurzem erst einen Artikel in der NY Times.

    A Teen Was Suicidal. ChatGPT Was the Friend He Confided In.

    • AntonMuster@discuss.tchncs.de
      link
      fedilink
      arrow-up
      2
      ·
      1 day ago

      Digitale Gesundheitsanwendungen (ohne KI) gibt es jetzt schon und die sind sehr effektiv. Die müssen aber, wie du schon sagst, von einem Therapeuten eingesetzt werden und nicht einfach so.