ChatGPT: Γιατί η "φιλία" με τα chatbots μπορεί να γίνει επικίνδυνη - Τα φαινόμενα AI ψύχωσης και οι παγίδες για ευάλωτους
Το 72% των εφήβων συνομιλούν με chatbots
Οι κίνδυνοι από τη χρήση εφαρμογών όπως το ChatGPT για την ψυχική υγεία είναι ιδιαίτερα σοβαροί για ανήλικους και ευάλωτους χρήστες, με εμφανή φαινόμενα ψυχολογικής εξάρτησης και αυτοκαταστροφικών τάσεων

Παγκόσμιο σοκ προκαλεί η υπόθεση ενός 16χρονου από την Καλιφόρνια που έβαλε τέλος στη ζωή του έπειτα από μήνες συνομιλιών με το ChatGPT, στο οποίο φέρεται να είχε εκμυστηρευθεί τις αυτοκτονικές του σκέψεις. Σύμφωνα με την αγωγή που κατέθεσαν οι γονείς του κατά της OpenAI, το chatbot όχι μόνο δεν αποθάρρυνε τις σκέψεις αυτές, αλλά τις επικύρωσε, παρέχοντας λεπτομέρειες για μεθόδους αυτοτραυματισμού και φτάνοντας, όπως καταγγέλλεται, στο σημείο να προσφερθεί να συντάξει ακόμα και σημείωμα αυτοκτονίας.
Στην αγωγή αναφέρεται, επίσης, ότι το chatbot καθοδήγησε τον ανήλικο για το πώς να αφαιρέσει αλκοόλ από το μπαρ των γονιών του και να κρύψει τα ίχνη μιας αποτυχημένης απόπειρας. Το εν λόγω τραγικό περιστατικό ανοίγει ξανά τη συζήτηση σχετικά με τη διάδοση των εφαρμογών Τεχνητής Νοημοσύνης (Α.Ι.), η οποία αποκτά ολοένα μεγαλύτερη παρουσία στην καθημερινότητά μας, εντείνοντας τις ανησυχίες για τις ψυχολογικές συνέπειες της υπερβολικής χρήσης των chatbots από ανήλικους και ψυχολογικά ευάλωτους ανθρώπους, σε βαθμό ψύχωσης
Η στροφή στα chatbots: Το ChatGPT παρέχει "στήριξη" σε όσους δυσκολεύονται κοινωνικοποιηθούν μιμούμενο ανθρώπινο συνομιλητή
Σύμφωνα με στοιχεία του Παγκόσμιου Οργανισμού Υγείας (ΠΟΥ), πάνω από 1 δισεκατομμύριο άνθρωποι παγκοσμίως ζουν με ψυχικές διαταραχές, ενώ οι περισσότεροι πάσχοντες δεν λαμβάνουν επαρκή φροντίδα. «Τα chatbots Τεχνητής Νοημοσύνης είναι άμεσα προσβάσιμα σε όλους, παρέχοντας 24/7 διαθεσιμότητα με ελάχιστο κόστος. Για άτομα που δυσκολεύονται να συζητήσουν ορισμένα θέματα με φίλους ή οικογένεια λόγω φόβου κριτικής, τα A.I. chatbots μπορούν να προσφέρουν μια μη επικριτική εναλλακτική», δήλωσε ο δρ Χάμιλτον Μόριν, ακαδημαϊκός κλινικός ερευνητής στο King’s College του Λονδίνου.Να σημειωθεί ότι τα chatbots, όπως το ChatGPT, το Pi και το Character.AI, είναι διαδικτυακά προγράμματα Τεχνητής Νοημοσύνης που επιτρέπουν στους χρήστες να τους θέτουν ερωτήσεις μέσω κειμένου ή φωνής. Στόχος τους είναι να παρέχουν άμεσες απαντήσεις και πληροφορίες, μιμούμενα έναν ανθρώπινο συνομιλητή. Σε αυτό το πλαίσιο, η 24ωρη διαθεσιμότητα, η μη επικριτική στάση των chatbots, αλλά και η αίσθηση της «ανθρώπινης συνομιλίας» -ότι, δηλαδή, κάποιος τους ακούει και απαντά ανά πάσα στιγμή- αποτελούν βασικούς λόγους για τους οποίους πολλοί στρέφονται συχνά σε αυτά, μειώνοντας παράλληλα την αίσθηση της απομόνωσης.
"A.I" ψύχωση: Η συναισθηματική σύνδεση με τα chatbots -
Οπως αναφέρεται σε μελέτη του Common Sense Media, το 72% των εφήβων έχουν χρησιμοποιήσει τουλάχιστον μία φορά «συνομιλητές» Α.Ι., με πάνω από τους μισούς να τους προτιμούν συστηματικά. «Πρόκειται για τεχνολογία που έχει τη δυνατότητα να επιτρέψει τεράστια άλματα στην παραγωγικότητα και την ανθρώπινη κατανόηση», δήλωσε ο Ιμράν Αχμέντ, διευθύνων σύμβουλος του Center for Countering Digital Hate. «Ταυτόχρονα, είναι ένας καταλύτης προς καταστροφικές συμπεριφορές»Μάλιστα, ειδικοί κάνουν λόγο για τα φαινόμενα «A.I. ψύχωσης», όπου χρήστες αναπτύσσουν παραληρητικές ιδέες, έντονη συναισθηματική ή και «ρομαντική» σύνδεση με chatbots ή ακόμα και την πεποίθηση ότι η Τεχνητή Νοημοσύνη είναι ζωντανή. Ενώ πολλές πληροφορίες που παρέχει το ChatGPT μπορούν να βρεθούν και σε μια απλή αναζήτηση στο Διαδίκτυο, τα chatbots έχουν τη δυνατότητα να προσφέρουν εξατομικευμένες απαντήσεις, γεγονός που τα καθιστά ιδιατέρως επικίνδυνα, ακόμα και σε θέματα που αφορούν περιπτώσεις αυτοτραυματισμού
Ενώ πολλές πληροφορίες που παρέχει το ChatGPT μπορούν να βρεθούν και σε μια απλή αναζήτηση στο Διαδίκτυο, τα chatbots έχουν τη δυνατότητα να προσφέρουν εξατομικευμένες απαντήσεις, γεγονός που τα καθιστά ιδιατέρως επικίνδυνα, ακόμα και σε θέματα που αφορούν περιπτώσεις αυτοτραυματισμού.
Το ChatGPT δημιούργησε σημείωμα αυτοκτονίας
Σύμφωνα με το δημοσίευμα του Associated Press, ομάδα ερευνητών δημιούργησε ένα ψεύτικο προφίλ 13χρονης και ζήτησε από το ChatGPT να συντάξει τρία σημειώματα αυτοκτονίας, προοριζόμενα για γονείς, αδέλφια και φίλους. Παρά την ειδική ρύθμιση του chatbot να παροτρύνει σε τέτοιες περιπτώσεις την αναζήτηση βοήθειας από ειδικούς ψυχικής υγείας, οι ερευνητές μπόρεσαν να παρακάμψουν τους περιορισμούς, χρησιμοποιώντας δικαιολογίες όπως ότι «πρόκειται για μια παρουσίαση για δουλειά» ή «για έναν φίλο»
Στη συνέχεια, οι ερευνητές δημιούργησαν ακόμα έναν λογαριασμό 13χρονου αγοριού και ζήτησαν πληροφορίες σχετικά με ην κατανάλωση αλκοόλ. Τότε το ChatGPT, χωρίς να λαμβάνει υπόψη την ηλικία, πρότεινε ένα επικίνδυνο σχέδιο συνδυασμού αλκοόλ με παράνομα ναρκωτικά, όπως έκσταση και κοκαΐνη.
Ειδικοί κάνουν λόγο για περιστατικά «A.I. ψύχωσης», όπου χρήστες αναπτύσσουν παραληρητικές ιδέες και έντονη συναισθηματική ή και «ρομαντική» σύνδεση μαζί τους
Η OpenAI προσθέτει γονικό έλεγχο για προστασία ανηλίκων και ευάλωτων χρηστών
Τα περιστατικά αυτά αναδεικνύουν την ανάγκη για αυστηρότερα μέτρα στη χρήση των chatbots αλλά και την εφαρμογή ειδικών δικλίδων ασφαλείας, ιδιαίτερα για ανηλίκους αλλά και ευάλωτους χρήστες. Σε αυτό το πλαίσιο, η OpenAI ανακοίνωσε πρόσφατα ότι έχει προγραμματίσει την προσθήκη γονικού ελέγχου στο ChatGPT, συμπεριλαμβανομένης της δυνατότητας των γονέων να συνδέουν τον λογαριασμό τους με εκείνον του παιδιού τους. Ακόμα, θα μπορούν να ρυθμίζουν τον τρόπο με τον οποίο η εφαρμογή ανταποκρίνεται στους χρήστες, καθώς και να απενεργοποιούν λειτουργίες, όπως η μνήμη και το ιστορικό συνομιλιών.Μάλιστα, θα μπορούν να λαμβάνουν σχετικές ειδοποιήσεις κάθε φορά που το σύστημα εντοπίζει σημάδια ψυχολογικής δυσφορίας κατά τη χρήση. «Κατά την κυκλοφορία του GPT-4o, τον Μάιο του 2024, η OpenAI γνώριζε ότι οι δυνατότητες του μοντέλου -όπως η ανάκληση προηγούμενων συνομιλιών, η μίμηση ανθρώπινης ενσυναίσθησης και η παροχή υπερβολικά επιβεβαιωτικών απαντήσεων- θα μπορούσαν να θέσουν σε κίνδυνο ευάλωτους χρήστες χωρίς επαρκή μέτρα προστασίας. Παρά ταύτα, η εταιρεία προχώρησε στην κυκλοφορία του», αναφέρουν, σύμφωνα με πληροφορίες, οι γονείς του 16χρονου που αυτοκτόνησε. «Το αποτέλεσμα ήταν διπλό: Η αξία της OpenAI εκτοξεύθηκε από 86 δισ. δολάρια σε 300 δισ. δολάρια, ενώ ο Adam Raine έχασε τη ζωή του», κατέληξαν.
Διαβάστε στα Παραπολιτικά