Στις 14 Οκτωβρίου 2025, ο διευθύνων σύμβουλος της OpenAI προχώρησε σε μια σημαντική ανακοίνωση, δηλώνοντας ότι η χρήση του ChatGPT μέχρι σήμερα ήταν αρκετά περιοριστική, με σκοπό την προσεκτική διαχείριση ζητημάτων ψυχικής υγείας. Ωστόσο, όπως εξηγεί ο Guardian, για ειδικούς ψυχικής υγείας η απόφαση αυτή προκάλεσε ανησυχία, καθώς έχουν εντοπιστεί περιπτώσεις ατόμων που ανέπτυξαν συμπτώματα ψύχωσης -απώλειας επαφής με την πραγματικότητα- στο πλαίσιο χρήσης του ChatGPT.

Διαβάστε: ChatGPT: Νέα έκδοση με ερωτικό περιεχόμενο για ενήλικες - Η στροφή της OpenAI και το μήνυμα Άλτμαν

Συγκεκριμένα, μέσα στο 2025 έχουν καταγραφεί τουλάχιστον 16 περιστατικά στον Τύπο, ενώ ερευνητικές ομάδες έχουν προσθέσει άλλες τέσσερις περιπτώσεις. Μεταξύ αυτών ξεχωρίζει το γνωστό περιστατικό ενός 16χρονου που έδωσε τέλος στη ζωή του μετά από εκτενή συζήτηση με το ChatGPT, το οποίο τον ενθάρρυνε να προχωρήσει στην αποτρόπαια πράξη του. Όπως σχολιάζει ο Guardian, αν αυτό θεωρείται από την OpenAI «προσεκτική διαχείριση θεμάτων ψυχικής υγείας», είναι σαφώς ανεπαρκές.


ChatGPT: Η χαλάρωση των περιορισμών και οι αμφιβολίες

Στην ανακοίνωσή του, ο Altman σημειώνει ότι η εταιρεία σκοπεύει να χαλαρώσει σύντομα τους περιορισμούς. Όπως ανέφερε, οι περιορισμοί αυτοί είχαν μειώσει τη χρησιμότητα και την ευχαρίστηση πολλών χρηστών που δεν αντιμετώπιζαν προβλήματα ψυχικής υγείας. «Τώρα που έχουμε αντιμετωπίσει τα σοβαρά ζητήματα και έχουμε νέα εργαλεία, θα μπορέσουμε να χαλαρώσουμε τους περιορισμούς με ασφάλεια στις περισσότερες περιπτώσεις», δήλωσε.

Όμως, όπως αναλύει ο Guardian, τα προβλήματα ψυχικής υγείας δεν δημιουργούνται από το ChatGPT καθ' αυτό, αλλά ανήκουν στους χρήστες – όσοι τα έχουν ή όχι. Η OpenAI ισχυρίζεται ότι αυτά τα ζητήματα έχουν πλέον «αντιμετωπιστεί», χωρίς όμως να διευκρινίζει πώς. Τα «νέα εργαλεία» μάλλον αναφέρονται στα πρόσφατα ημιλειτουργικά και εύκολα παρακάμπτοντα φίλτρα γονικού ελέγχου.

Οι ειδικοί προειδοποιούν ότι τα «προβλήματα ψυχικής υγείας» που η εταιρεία επιχειρεί να εξωτερικεύσει έχουν βαθιές ρίζες στον σχεδιασμό του ChatGPT. Τα μοντέλα αυτά προσφέρουν μια ψευδαίσθηση παρουσίας και αλληλεπίδρασης με ένα «ον με δράση», κάτι που είναι βαθιά εδραιωμένο στην ανθρώπινη ψυχολογία. Οι χρήστες έχουν την τάση να αποδίδουν «προσωπικότητα» και «νόημα» σε ό,τι φαίνεται να τους καταλαβαίνει – από τα κατοικίδιά τους μέχρι τα αυτοκίνητά τους – και αυτή η ψευδαίσθηση ενισχύεται από τα chatbots.


Πού βασίζεται η επιτυχία του ChatGPT

Η επιτυχία του ChatGPT, σύμφωνα με το άρθρο, βασίζεται ακριβώς σε αυτή την ψευδαίσθηση: το chatbot εμφανίζεται ως πάντοτε διαθέσιμος συνομιλητής που «βοηθά», «συνεργάζεται» και «εξερευνά ιδέες» μαζί με τον χρήστη. Οι μεγάλες γλωσσικές δομές μπορούν να παράγουν πειστική φυσική γλώσσα επειδή έχουν εκπαιδευτεί σε τεράστιες ποσότητες κειμένου, περιλαμβάνοντας τόσο αλήθειες όσο και ψευδείς πληροφορίες. Έτσι, αν ο χρήστης έχει μια λανθασμένη αντίληψη, το μοντέλο μπορεί να την ενισχύσει, δημιουργώντας ψευδείς πεποιθήσεις ή παραπλανητικές λεπτομέρειες.

Όλοι οι χρήστες, επισημαίνει ο Guardian, είναι ευάλωτοι σε τέτοιες ψευδαισθήσεις, ανεξαρτήτως αν αντιμετωπίζουν ήδη προβλήματα ψυχικής υγείας. Η συνεχής αλληλεπίδραση με άλλους ανθρώπους μας κρατάει συνδεδεμένους με την κοινή πραγματικότητα, κάτι που απουσιάζει στην αλληλεπίδραση με το ChatGPT, η οποία λειτουργεί ως ένα ενισχυτικό feedback loop.

Παρά τις παρατηρήσεις αυτές, η OpenAI έχει αντιμετωπίσει την κατάσταση με τον ίδιο τρόπο που αντιμετωπίζει τα «προβλήματα ψυχικής υγείας»: με εξωτερικοποίηση, ετικέτες και διαβεβαιώσεις ότι έχει επιλυθεί. Η εταιρεία έχει αναγνωρίσει την «υποτακτικότητα» του ChatGPT, αλλά οι αναφορές για ψύχωση συνεχίζονται, ενώ οι νέες δυνατότητες που σχεδιάζει, όπως πιο «ανθρώπινες» απαντήσεις, emoji ή ακόμα και περιεχόμενο για ενηλίκους, φαίνεται ότι ενισχύουν το ίδιο πρόβλημα.

Ο Guardian καταλήγει ότι, ακόμη και με πιο «ήπιες» ρυθμίσεις, η ψευδαίσθηση της παρουσίας και η ενίσχυση των συμπεριφορών του χρήστη παραμένουν βασικό χαρακτηριστικό των chatbots - κάτι που θέτει σοβαρά ερωτήματα για την ασφάλεια και την ψυχική υγεία των χρηστών.