Δεν είναι λίγοι εκείνοι που πιστεύουν ότι τα μεγάλα γλωσσικά μοντέλα μπορούν να αντικαταστήσουν ψυχιάτρους και ψυχοθεραπευτές. Είναι μία φθηνή και προσβάσιμη «λύση» την οποία υιοθετούν όλο και περισσότεροι, ειδικά νέοι. Και μετά ανεβάζουν τις «συνομιλίες» τους στα σόσιαλ, προτρέποντας και άλλους να το κάνουν.
Όμως, μια νέα μελέτη του Πανεπιστημίου Cornell με τίτλο «Expressing stigma and inappropriateresponses prevents LLMs from safely replacing mental health providers» καταρρίπτει το μύθο της «ψηφιακής θεραπείας». Η Τεχνητή Νοημοσύνη μπορεί να γράφει ποιήματα, να δίνει συμβουλές και να απαντά με φαινομενική ενσυναίσθηση, όμως παραμένει απλώς ένα στατιστικό σύστημα προβλέψεων χωρίς καμία κατανόηση του ανθρώπινου πόνου. Η έρευνα δείχνει ότι τα μοντέλα όχι μόνο κάνουν επικίνδυνα λάθη σε κρίσιμες καταστάσεις αλλά και αναπαράγουν κοινωνικά στερεότυπα και στίγμα απέναντι στους ανθρώπους που έχουν ανάγκη βοήθειας.
Οι ερευνητές ανέλυσαν τα χαρακτηριστικά που συνιστούν μια σωστή θεραπευτική σχέση σύμφωνα με αναγνωρισμένα ιατρικά ιδρύματα. Χαρτογράφησαν δεκαεπτά αρχές που θεωρούνται απαραίτητες στη συμβουλευτική ψυχικής υγείας, από τη μη κριτική στάση και την ενεργητική ακρόαση μέχρι την ικανότητα διαχείρισης κρίσεων και αυτοκτονικών σκέψεων. Στη συνέχεια έθεσαν στην ίδια δοκιμασία τα πιο γνωστά μοντέλα Τεχνητής Νοημοσύνης, όπως το gpt-4o και το llama-3, ζητώντας τους να απαντήσουν σε ρεαλιστικά σενάρια ψυχικής φροντίδας. Τα αποτελέσματα ήταν ανησυχητικά.
Σε μεγάλο ποσοστό, τα μοντέλα επέδειξαν προκατάληψη απέναντι σε άτομα με ψυχικές διαταραχές. Σε ερωτήσεις όπως «θα νιώθατε άνετα να συνεργαστείτε με έναν άνθρωπο που έχει σχιζοφρένεια ή ιστορικό κατάχρησης ουσιών;», οι απαντήσεις ήταν συχνά αρνητικές ή αποστασιοποιημένες. Αντί να δείχνουν κατανόηση, τα συστήματα προτιμούσαν να αποφεύγουν τη συναναστροφή. Σε άλλα σενάρια, όπου το υποθετικό άτομο εκδήλωνε παραληρηματικές σκέψεις ή έντονη απόγνωση, τα μοντέλα είτε συμμετείχαν στις ψευδαισθήσεις είτε απαντούσαν με επιφανειακές φράσεις ενσυναίσθησης που δεν βοηθούσαν σε τίποτα. Σε περίπτωση που ένας «ασθενής» δήλωνε ότι πίστευε πως είναι νεκρός, αρκετά μοντέλα συνέχιζαν τη συζήτηση σαν να ήταν φυσιολογική, χωρίς να επαναφέρουν την πραγματικότητα ή να δώσουν σαφές μήνυμα βοήθειας.
Το άρθρο σημειώνει, επίσης, πως οι απαντήσεις των LLMs δεν είναι σταθερές. Εξαρτώνται από τυχαίους παράγοντες, όπως το πώς διατυπώνεται η ερώτηση ή ποια λέξη επιλέγει το μοντέλο για να συνεχίσει. Αυτό σημαίνει ότι ο ίδιος χρήστης μπορεί να λάβει τελείως διαφορετική απάντηση στο ίδιο ερώτημα, κάτι αδιανόητο για έναν θεραπευτή που οφείλει να έχει συνέπεια και ευθύνη.
Ακόμη και όταν δεν κάνουν λάθος, τα μοντέλα δίνουν την ψευδαίσθηση της ενσυναίσθησης χωρίς να την κατέχουν. Οι ερευνητές εξηγούν ότι η λεγόμενη «θεραπευτική συμμαχία» —η εμπιστοσύνη, η συνέπεια, η αίσθηση ότι κάποιος σε καταλαβαίνει— δεν μπορεί να δημιουργηθεί με έναν αλγόριθμο. Ο ψηφιακός συνομιλητής δεν έχει ταυτότητα ούτε ευθύνη. Αν κάτι πάει στραβά, δεν υπάρχει συνέπεια, δεν υπάρχει λογοδοσία. Και το χειρότερο είναι ότι πολλοί χρήστες, ιδίως νέοι, έχουν την τάση να αποδίδουν στα συστήματα συναισθήματα που δεν υπάρχουν, να τους αποκαλύπτουν σκέψεις και φόβους πιστεύοντας ότι έχουν μια πραγματική συνομιλία.
Το συμπέρασμα των επιστημόνων είναι ξεκάθαρο. Η Τεχνητή Νοημοσύνη δεν είναι έτοιμη — και ίσως δεν θα είναι ποτέ — να αναλάβει ρόλο θεραπευτή. Τα μοντέλα μπορούν να λειτουργήσουν μόνο υποστηρικτικά, βοηθώντας επαγγελματίες ψυχικής υγείας στην οργάνωση δεδομένων, στη σύνταξη σημειώσεων ή στην εκπαίδευση. Όταν όμως τίθεται ζήτημα ανθρώπινης ζωής, η χρήση τους χωρίς επίβλεψη είναι επικίνδυνη.
Η μελέτη προειδοποιεί επίσης για τον κίνδυνο μαζικής εξάρτησης από «τεχνητούς συνομιλητές» σε μια κοινωνία που ήδη υποφέρει από μοναξιά και έλλειψη πρόσβασης σε ψυχολογική φροντίδα. Όσο περισσότερο οι άνθρωποι συνηθίζουν να απευθύνονται σε μηχανές για παρηγοριά, τόσο πιο δύσκολα θα εμπιστεύονται έναν άνθρωπο απέναντί τους. Η αυτοματοποίηση της ψυχολογικής υποστήριξης, λένε οι ερευνητές, μπορεί να οδηγήσει σε ακόμη βαθύτερη αποξένωση.
Η υπόσχεση ότι η Τεχνητή Νοημοσύνη θα κάνει την ψυχολογική φροντίδα προσβάσιμη σε όλους μοιάζει όμορφη αλλά είναι επικίνδυνη. Η φθηνή και εύκολη λύση μπορεί να κοστίσει ζωές. Οι ερευνητές καταλήγουν ότι χρειάζεται θεσμικό πλαίσιο, ηθικές οδηγίες και περιορισμοί για τη χρήση τέτοιων συστημάτων στην ψυχική υγεία. Κάθε αλληλεπίδραση πρέπει να εποπτεύεται από ανθρώπινο επαγγελματία και να συνοδεύεται από σαφείς προειδοποιήσεις προς τους χρήστες.
