Mπορεί το ChatGPT να κάνει πραγματική ψυχοθεραπεία; Μηπως πλησιάζει η ώρα που θα εμπιστευτείτε τα ψυχικά σας τραύματα ή απλά το ασυνείδητό σας στην τεχνητή νοημοσύνη; Το ερώτημα απασχολεί ολοένα και περισσότερο τόσο τον διεθνή Τύπο όσο και την επιστημονική κοινότητα, από τη στιγμή που το πρωτοποριακό chatbot της OpenAI άρχισε να επεκτείνεται και στα ζητήματα της ψυχικής υγείας.

Πριν από μερικές ημέρες, στην επιστημονική επιθεώρηση BMJ Global Health, επαγγελματίες υγείας από τις Ηνωμένες Πολιτείες, το Ηνωμένο Βασίλειο, την Αυστραλία, την Κόστα Ρίκα και τη Μαλαισία εμφανίστηκαν κατηγορηματικοί: η Τεχνητή Νοημοσύνη μπορεί να βλάψει την υγεία εκατομμυρίων ανθρώπων και να αποτελέσει υπαρξιακή απειλή για την ανθρωπότητα. Γιατροί και ειδικοί υγείας προειδοποιούν λοιπόν για τον κίνδυνο, ζητώντας μια παύση της εξέλιξης της ΑΙ έως ότου υπάρξει ρυθμιστικό πλαίσιο.

Συστάσεις

Τι θα συμβεί εάν πληκτρολογήσετε «έχω άγχος» στο ChatGPT; Σύμφωνα με σχετικό ρεπορτάζ του Al Jazeera, το πρωτοποριακό chatbot τεχνητής νοημοσύνης της OpenAI σπεύδει να απαντήσει. «Λυπάμαι που ακούω ότι αντιμετωπίζετε άγχος. Μπορεί να είναι μια δύσκολη εμπειρία, αλλά υπάρχουν στρατηγικές που μπορείτε να δοκιμάσετε για να βοηθήσετε τον εαυτό σας στη διαχείριση των συμπτωμάτων σας».

Στη συνέχεια, το ρομπότ θα σας δώσει μια λίστα συστάσεων: χαλάρωση στην εργασία, εστίαση στον ύπνο, μείωση της καφεΐνης και του αλκοόλ, «αμφισβήτηση» των αρνητικών σκέψεων και αναζήτηση υποστήριξης από φίλους και οικογένεια.

Το ChatGPT αντλεί φυσικά τις απαντήσεις του από τις βιβλιοθήκες του Διαδικτύου και προειδοποιεί ότι δεν αντικαθιστά έναν ψυχολόγο ή σύμβουλο ψυχικής υγείας. Αυτό, ωστόσο, δεν έχει αποθαρρύνει ορισμένους ανθρώπους να χρησιμοποιούν την πλατφόρμα ως προσωπικό τους θεραπευτή.

Συντελείται άραγε μια μεγάλη επανάσταση στην ψυχική υγεία; Πόσο δύσπιστοι οφείλουμε να είμαστε απέναντι στους αλγόριθμους όταν πρόκειται για τη φροντίδα ψυχικών δυσλειτουργιών;

Η ικανότητα του ChatGPT να μιμείται την ανθρώπινη συνομιλία έχει εγείρει αρκετά ερωτήματα σχετικά με τις δυνατότητες της δημιουργικής τεχνητής νοημοσύνης και της θεραπείας των ψυχικών προβλημάτων, ιδίως σε περιοχές του κόσμου, όπως η Ασία, όπου οι υπηρεσίες ψυχικής υγείας είναι περιορισμένες και συνοδεύονται από στίγμα. Αλλά και στον δυτικό κόσμο προβληματίζει το γεγονός πως για πολλά, ιδιαίτερα επιβαρυμένα συστήματα υγείας, όπου η ζήτηση ψυχιάτρων και ψυχολόγων ξεπερνά την προσφορά, το ChatGPT αντιμετωπίζεται ως σωτήριο εργαλείο που θα βοηθήσει τους επαγγελματίες ψυχικής υγείας να μετριάσουν τον αντίκτυπο των ελλείψεων.

Ενδεικτικό παράδειγμα οι ΗΠΑ και το Ηνωμένο Βασίλειο. Το βρετανικό σύστημα υγείας συνιστά ήδη το Wysa ως προσωρινό μέσο για τους ασθενείς που περιμένουν να δουν έναν θεραπευτή. Οι λίστες αναμονής για έναν ψυχολόγο είναι μεγάλες, ακόμα και στις χώρες του ανεπτυγμένου κόσμου, ενώ η ψυχοθεραπεία θεωρείται ακόμα και σήμερα είτε «ακριβό σπορ», είτε «υπηρεσία - ταμπού» που απευθύνεται σε ανθρώπους με προβλήματα.

Συμβουλές

Το ChatGPT δεν είναι η πρώτη απόπειρα της τεχνητής νοημοσύνης να διεισδύσει στο πεδίο του ανθρώπινου ψυχισμού. Το Wysa είναι μία από τις ειδικές εφαρμογές ψυχικής υγείας, όπως και οι Heyy και WoeBot, που χρησιμοποιούν την τεχνητή νοημοσύνη για να δώσουν συμβουλές ευ ζην.

Οι ιδρυτές των Wysa, Heyy και WoeBot τονίζουν ότι δεν προσπαθούν να αντικαταστήσουν την ανθρώπινη θεραπεία, αλλά να συμπληρώσουν τις παραδοσιακές υπηρεσίες παρέχοντας ένα ακόμα εργαλείο στη θεραπεία της ψυχικής υγείας.

Για την ώρα, ούτε το ChatGPT ούτε αυτές οι «δοκιμασμένες εφαρμογές» ρυθμίζονται από εποπτικούς φορείς υγείας. Η βιομηχανία της τεχνητής νοημοσύνης παραμένει σε μεγάλο βαθμό αρρύθμιστη, παρά τις ανησυχίες ότι ο ταχέως εξελισσόμενος τομέας θα μπορούσε να θέσει σοβαρούς κινδύνους για την ανθρώπινη ευημερία, ενώ τίθενται σοβαρά ζητήματα όσον αφορά την προστασία των προσωπικών πληροφοριών και του ιατρικού απορρήτου.

*Δημοσιεύθηκε στην Απογευματινή στις 3/6/2023.