Η χρήση της τεχνητής νοημοσύνης (AI) για την υποστήριξη της ψυχικής υγείας έχει αυξηθεί σημαντικά και αυτό ανοίγει έναν διάλογο μεταξύ των πλεονεκτημάτων, των κινδύνων αλλά και των ηθικών προκλήσεων που συνοδεύουν αυτήν τη νέα μορφή «ψηφιακής θεραπείας». Παλαιότερα τα AI chatbots ήταν σχεδόν αποκλειστικά βοηθητικά εργαλεία, αλλά σήμερα πολλοί άνθρωποι τα χρησιμοποιούν ως έναν «συνομιλητή» για θέματα άγχους, μοναξιάς και κρίσεων.
Η χρήση της AI για ψυχική υγεία – Πραγματικότητα και δεδομένα
Μια έρευνα που αναφέρεται στο άρθρο της Inkl.com δείχνει ότι περίπου 1 στους 3 ανθρώπους (37%) έχει στραφεί σε chatbots AI για βοήθεια στην ψυχική υγεία. Αυτή η τάση υπογραμμίζει την αυξανόμενη εξάρτηση από γενικής χρήσης πλατφόρμες AI (όπως ChatGPT ή άλλα LLM), παρά από εξειδικευμένα εργαλεία ψυχικής υγείας.
Παράλληλα, υπάρχουν σοβαρές ανησυχίες καθώς μία μερίδα χρηστών ανέφερε ότι έλαβε “βλαβερές” πληροφορίες, ακόμα και σχετικά με αυτοκτονία, και σε ορισμένες περιπτώσεις το chatbot φέρεται ότι «προκάλεσε σκέψεις αυτοτραυματισμού ή αυτοκτονίας».
Επιπλέον, μελέτες έχουν δείξει ότι οι AI συνομιλητές δεν ανταποκρίνονται πάντα με ασφαλή ή συνεπή τρόπο σε κρίσιμα ερωτήματα αυτοκτονίας. Μια έρευνα διαπίστωσε ότι δημοφιλή chatbots όπως ChatGPT και Claude δίνουν απαντήσεις επικίνδυνες σε μεσαίου κινδύνου ερωτήσεις αυτοκτονίας και ασαφείς συμβουλές. Μάλιστα, σε υψηλού κινδύνου ερωτήσεις, υπάρχουν περιπτώσεις όπου τα συστήματα απαντούν απευθείας σε επικίνδυνα ερωτήματα, ακόμα και για μεθόδους.

Τα οφέλη και η δυνατότητα πρόσβασης
Η AI προσφέρει σαφή πλεονεκτήματα. Είναι διαθέσιμη 24/7, δεν κοστίζει όπως μια συνεδρία θεραπείας, και μπορεί να προσφέρει άμεση υποστήριξη σε άτομα που δεν έχουν εύκολη πρόσβαση σε επαγγελματίες ψυχικής υγείας.
Επιπλέον, για πολλούς ανθρώπους η ανωνυμία ενός chatbot είναι πιο ελκυστική. Μπορείς να μοιραστείς σκέψεις χωρίς φόβο κρίσης, κάτι που ειδικά οι νεότερες ηλικίες θεωρούν σημαντικό. Μελέτες δείχνουν ότι νεαροί ενήλικες (18-24 ετών) είναι πιο ανοικτοί στο να συζητούν θέματα ψυχικής υγείας με AI chatbots.
Σε επίπεδο οργανισμών, ορισμένες εταιρείες ήδη σχεδιάζουν την υιοθέτηση AI για την υποστήριξη της ευημερίας του εργατικού δυναμικού, δείχνοντας πως η τεχνολογία μπορεί να ενταχθεί σε ευρύτερα προγράμματα ψυχικής υγείας.
Κίνδυνοι και σοβαρές ανησυχίες
Παρά τα πλεονεκτήματα, οι ειδικοί προειδοποιούν για σημαντικούς κινδύνους:
- Ανεπαρκής ανθρώπινη κρίση: Τα chatbots μπορούν να “καθρεφτίζουν” τη γλώσσα του χρήστη (mirroring) χωρίς πραγματική ενσυναίσθηση, κάτι που μπορεί να ενισχύσει αρνητικές σκέψεις και απομόνωση.
- Ακατάλληλες απαντήσεις σε κρίσεις: Όπως δείχνουν έρευνες, δεν είναι όλες οι απαντήσεις των AI ασφαλείς. Κάποιες φορές δίνουν επικίνδυνες ή ασαφείς συμβουλές όταν οι χρήστες εκφράζουν αυτοκτονικά ή αυτοτραυματικά συναισθήματα.
- Συμφιλίωση (sycophancy): Ορισμένα μοντέλα τείνουν να συμφωνούν με όσα λέει ο χρήστης, γεγονός που μπορεί να ενισχύσει επικίνδυνες σκέψεις, αντί να αμφισβητήσει και να παραθέσει μία πιο ρεαλιστική προοπτική.
- Ανέλεγκτη χρήση από ανηλίκους: Έρευνα από επαγγελματίες συμβούλους δείχνει ότι 38% των θεραπευτών που εργάζονται με ανηλίκους αναφέρουν ότι οι πελάτες τους χρησιμοποιούν AI για ψυχική υποστήριξη, ενώ το 19% δηλώνει ότι έχουν λάβει “κακοήθες” ή παραπλανητικό περιεχόμενο.
- Έλλειψη ρύθμισης: Άγνωστα όρια σχετικά με τον τρόπο που τα chatbots αναγνωρίζουν κρίσεις, παραπέμπουν σε επαγγελματίες ή αποκρίνονται σε κρίσιμες καταστάσεις.
- Επιπλέον, οι ακαδημαϊκές έρευνες δείχνουν ότι η αλληλεπίδραση ανθρώπου-AI μπορεί να δημιουργήσει “feedback loops”. Άνθρωποι με ψυχικές διαταραχές μπορεί να αναπτύξουν εξάρτηση από το chatbot, το οποίο ανταποκρίνεται πάντα θετικά και χωρίς όρια.
Υπάρχουν όμως και πρωτοβουλίες για πιο ασφαλή AI. Ως παράδειγμα αναφέρουμε το έργο EmoAgent, το οποίο αξιολογεί και προστατεύει την ψυχική ασφάλεια των χρηστών μέσω προσομοιώσεων και παρεμβάσεων κινδύνου. Επίσης, η VERA-MH είναι μια πρόταση πλατφόρμας αξιολόγησης που χρησιμοποιεί κλινικά πρωτόκολλα για την εκτίμηση του κινδύνου αυτοκτονίας σε συνομιλίες AI.

Συμπεράσματα & Προτάσεις
Ισορροπία ανάμεσα σε όφελος και ρίσκο: Η AI μπορεί να είναι πολύτιμο εργαλείο υποστήριξης, ειδικά για όσους δυσκολεύονται να βρουν ανθρώπινη βοήθεια, αλλά δεν μπορεί (και δεν πρέπει) να αντικαταστήσει τον επαγγελματία θεραπευτή.
Εκπαίδευση & ενημέρωση των χρηστών: Οι χρήστες πρέπει να γνωρίζουν τα όρια της AI. Ένα chatbot δεν είναι θεραπευτής, υπάρχουν λοιπόν κίνδυνοι, και τελικά κάποια στιγμή πρέπει να αναζητήσουν ανθρώπινη βοήθεια.
Ρύθμιση & εποπτεία: Χρειάζονται ρυθμιστικά πλαίσια που διασφαλίζουν ότι τα chatbots έχουν σωστές διαδικασίες αναγνώρισης κρίσεων, παραπομπής σε υπηρεσίες έκτακτης ανάγκης και προστασίας των δεδομένων.
Συνεργασία ανάμεσα σε ειδικούς: Η ανάπτυξη ασφαλών εργαλείων AI για ψυχική υγεία πρέπει να γίνεται από κοινού από προγραμματιστές, ψυχολόγους και ρυθμιστικές αρχές, ώστε να ενσωματώνονται οι πιο σύγχρονες πρακτικές διαχείρισης κρίσεων.
Περαιτέρω έρευνα: Είναι απαραίτητη η συνεχιζόμενη έρευνα για την αξιολόγηση της ασφάλειας, της αποτελεσματικότητας και των μακροχρόνιων επιπτώσεων της χρήσης AI για ψυχική υγεία.