Την… υγεία τους, σωµατική ή ψυχική, ψάχνουν να βρουν µέσω ΑΙ και ψηφιακών γιατρών πολλοί θιασώτες της τεχνητής νοηµοσύνης, οι οποίοι καταφεύγουν εκεί αναζητώντας λύσεις και οδηγίες, καθώς δεν χρειάζεται να κλείσουν ραντεβού, ούτε να πληρώσουν την επίσκεψη και, κυρίως, επειδή νιώθουν ότι ακούγονται χωρίς να τους ασκείται κριτική. Μια νέα µελέτη όµως αποκαλύπτει ότι τα δηµοφιλή chatbots δίνουν συχνά ανακριβείς ή ακόµα και επικίνδυνες ιατρικές συµβουλές, µε τους ειδικούς να ζητούν πλέον αυστηρότερη ενηµέρωση του κοινού.

Πιο δημοφιλείς οι μηχανές τύπου ChatGPT για διαγνώσεις αναφέρουν ψυχίατροι

Καθηγητές Ψυχιατρικής παρατηρούν ότι όλο και περισσότεροι άνθρωποι εµπιστεύονται πρώτα µία µηχανή για να αναφέρουν τα συµπτώµατά τους ή ακόµα να στείλουν φωτογραφία τους µε κάτι που τους ανησυχεί στο σώµα τους (ίσως κάποιο εξάνθηµα), τονίζοντας ότι τελικά το µεγάλο πρόβληµα δεν είναι ότι η τεχνολογία δίνει απαντήσεις, αλλά το γεγονός ότι ο άνθρωπος σταµατά σταδιακά να συµβουλεύεται τον πραγµατικό ειδικό, υποκαθιστώντας τον ψηφιακά. Φοβισµένοι και πολλές φορές απελπισµένοι χρήστες, στέλνουν φωτογραφίες, αιµατολογικές εξετάσεις, ακτινογραφίες ή αποτελέσµατα µαγνητικών ή αξονικών τοµογραφιών! ∆εν είναι λίγες οι φορές που φτάνουν στο σηµείο να στείλουν ακόµα και ηχητικό µε… τον βήχα τους (!), για να γίνει ανάλυση µέσω µοντέλων AI, όπως το HeAR της Google.

Ορισµένοι, µάλιστα, το έχουν… τερµατίσει, στέλνοντας ψηφιακά αρχεία δεδοµένων που περιέχουν το DNA τους, µε σκοπό η ΑΙ να εντοπίσει προδιαθέσεις σε ασθένειες ή να προτείνει εξατοµικευµένες θεραπείες. Οι απλές ερωτήσεις είναι και οι πλέον συχνές: «Έχω πονοκέφαλο και ζαλάδα, τι µπορεί να είναι;», «Πότε να δω γιατρό;», «Χρειάζεται να πάω στα Επείγοντα ή µπορώ να περιµένω;», «Νιώθω άγχος συνέχεια, τι µπορώ να κάνω;», «Πώς καταλαβαίνω αν έχω κατάθλιψη;» ή «Πώς να διαχειριστώ κρίση πανικού;». Σειρά έχουν οι απορίες αυτοφροντίδας όπως «πώς να κοιµάµαι καλύτερα» και µετά οι ερωτήσεις για φάρµακα και τις παρενέργειές τους, µε συχνότερη «Μπορώ να πάρω αυτό το φάρµακο µαζί µε άλλο;».

Ανησυχία για το ChatGPT

Πιο επικίνδυνη ερώτηση είναι η προσπάθεια για διάγνωση µε τη βοήθεια του ΑΙ, όπως: «Με βάση αυτά τα συµπτώµατα, τι έχω;». Βέβαια, σε αυτό υπάρχει η υποσηµείωση από το chatbot που τονίζει ότι «εδώ χρειάζεται προσοχή - τα chatbots δεν αντικαθιστούν τον γιατρό». Ανησυχητικά ευρήµατα αποκαλύπτει νέα µελέτη που δηµοσιεύθηκε στο «British Medical Journal», η οποία δείχνει ότι δηµοφιλή chatbots, όπως το ChatGPT, το Gemini και το Grok, δίνουν προβληµατικές ιατρικές απαντήσεις περίπου στο 50% των περιπτώσεων, µε κινδύνους για τους χρήστες.

Αρχικά εξετάστηκε η πλατφόρµα ChatGPT Health, όπου διαπιστώθηκε ότι υποεκτιµούσε τη σοβαρότητα περιστατικών (under-triage) σε περισσότερες από τις µισές περιπτώσεις. Κατόπιν, οι ερευνητές επέκτειναν την ανάλυση σε πέντε δηµοφιλή εργαλεία τεχνητής νοηµοσύνης: το ChatGPT, το Gemini, το DeepSeek, το Meta AI και το Grok. Οι επιστήµονες υπέβαλαν συνολικά 250 ερωτήµατα, τόσο ανοιχτού όσο και κλειστού τύπου, καλύπτοντας θέµατα όπως ο καρκίνος, τα εµβόλια, τα βλαστοκύτταρα, η διατροφή και η αθλητική απόδοση - πεδία που θεωρούνται ευάλωτα στη διασπορά παραπληροφόρησης. Πενήντα τοις εκατό των απαντήσεων κρίθηκαν προβληµατικές, περίπου ένα τρίτο ήταν «µέτρια προβληµατικές» και 20% χαρακτηρίστηκαν «ιδιαίτερα προβληµατικές». Όταν το ChatGPT ρωτήθηκε για την αξιοπιστία της τεχνητής νοηµοσύνης σε ιατρικά θέµατα, κατέληξε ότι η τεχνητή νοηµοσύνη µπορεί να χρησιµοποιηθεί ως εργαλείο ενηµέρωσης και κατανόησης, αλλά όχι ως βάση για λήψη ιατρικών αποφάσεων.

Στη Σχολή Ιατρικής του Πανεπιστηµίου Duke των ΗΠΑ, η Μόνικα Αγκρουάλ, PhD, επίκουρη καθηγήτρια Βιοστατιστικής και Βιοπληροφορικής αναλύει χιλιάδες πραγµατικές συνοµιλίες µεταξύ ασθενών και AI chatbots. «Σε µία περίπτωση, ένας χρήστης ρώτησε πώς να πραγµατοποιήσει µια ιατρική πράξη στο σπίτι. Το chatbot σωστά προειδοποίησε ότι η επέµβαση πρέπει να γίνεται µόνο από επαγγελµατίες, αλλά στη συνέχεια έδωσε αναλυτικές οδηγίες βήµα προς βήµα. Ένας γιατρός θα είχε σταµατήσει αµέσως τη συζήτηση.

Οι ασθενείς συχνά επιδεινώνουν το πρόβληµα κάνοντας καθοδηγητικές ερωτήσεις, όπως: ‘’Νοµίζω ότι έχω αυτή τη συγκεκριµένη διάγνωση. Ποια είναι τα επόµενα βήµατα που πρέπει να ακολουθήσω;’’ ή ‘’Ποια είναι η δοσολογία αυτού του φαρµάκου που πρέπει να πάρω για την κατάστασή µου;’’», είπε ενώ παραδέχτηκε ότι και η ίδια έχει χρησιµοποιήσει την τεχνητή νοηµοσύνη. Όπως εξήγησε, κατά τη διάρκεια της εγκυµοσύνης της, στράφηκε στην τεχνητή νοηµοσύνη για γρήγορες απαντήσεις πριν από το πρώτο της ραντεβού. «Γράφω συχνά για το πού η τεχνητή νοηµοσύνη στην ιατρική πληροφορία κάνει λάθη, αλλά την έχω χρησιµοποιήσει κι εγώ. Και νοµίζω ότι αυτό ισχύει πλέον για πολύ κόσµο», πρόσθεσε.

 

Ψευδαίσθηση

Το καµπανάκι του κινδύνου χτυπάει ο διακεκριµένος καθηγητής Ψυχιατρικής και Ψυχοθεραπείας στο Πανεπιστήµιο Bicocca του Μιλάνου, Αντώνης Ντακανάλης, ο οποίος εξηγεί αναλυτικά στην «Απογευµατινή» τον κίνδυνο που ενέχει ο «ψηφιακός γιατρός», χαρακτηρίζοντας αυτή την εµµονή ορισµένων χρηστών του διαδικτύου επικίνδυνη. “Η τεχνητή νοηµοσύνη έγινε ο «πρώτος αποδέκτης” της αγωνίας µας, ο γιατρός που είναι πάντα διαθέσιµος, που ‘’τα ξέρει όλα’’. Ή τουλάχιστον έτσι νοµίζουµε. ∆εν είναι µόνο η ευκολία. Είναι ότι εκεί δεν ντρέπεσαι. ∆εν σε κοιτάει κανείς όταν λες “φοβάµαι”, “ζηλεύω”, “δεν αντέχω άλλο”. ∆εν εκτίθεσαι όταν λες: “∆εν είµαι καλά”. Ξαφνικά, βρίσκεσαι σε έναν χώρο όπου µπορείς ανώνυµα να πεις τα πάντα χωρίς κριτική, χωρίς αναµονή, χωρίς κόστος και λες µόνο ό,τι θέλεις, ενώ η ΑΙ συχνά καλύπτει και µια βαθύτερη δυσπιστία απέναντι στο δηµόσιο σύστηµα υγείας ή στους ειδικούς, πολλοί από τους οποίους έχουν ξεχάσει την ενσυναίσθηση, το ανθρώπινο κοµµάτι και εστιάζουν µόνο στο σύµπτωµα».

Όπως τονίζει ο κ. Ντακανάλης, η τεχνητή νοηµοσύνη προσφέρει κάτι που µοιάζει µε αποδοχή χωρίς όρους: «Και αυτό είναι βαθιά ελκυστικό γιατί πολλοί άνθρωποι έχουν µάθει να φοβούνται την απόρριψη, την κριτική, ακόµα και την ίδια την αλήθεια τους».

Έντονο άγχος

Τον ίδιο τον ανησυχεί ότι οι άνθρωποι σταµατούν να ρωτούν τους ειδικούς: «Πρόσφατα, νεαρή γυναίκα ήρθε σε εµένα ύστερα από εβδοµάδες έντονου άγχους. Είχε ήδη “συζητήσει” εκτενώς µε το ChatGPT, περιγράφοντας συµπτώµατα και είχε πάρει απαντήσεις. Μου είπε: “Ένιωθα ότι επιτέλους κάποιος µε ακούει χωρίς να µε κρίνει”. Τη ρώτησα: “Τι δεν σου έδωσε;”. Σιωπή. Και µετά απάντησε: “∆εν ένιωσα ότι µε είδε πραγµατικά”. Ο άνθρωπος δεν αναζητά µόνο διάγνωση, αναζητά ανακούφιση.

Όταν κάποιος µπαίνει στο ChatGPT, δεν ψάχνει τον καλύτερο γιατρό, ψάχνει τον πιο εύκολα διαθέσιµο ακροατή». Σε µία άλλη περίπτωση, ο καθηγητής Ψυχιατρικής ανέφερε ότι ένας άνδρας µε έντονο άγχος υγείας είχε περάσει µήνες συνοµιλώντας µε το AI: «Κάθε φορά λάµβανε ισορροπηµένες, καθησυχαστικές απαντήσεις, αλλά εκείνος κρατούσε µόνο αυτό που φοβόταν. Σιγά σιγά άρχισε να “χτίζει” πεποίθηση ότι πάσχει από σοβαρή ασθένεια.

Όταν ήρθε σε µένα, µου είπε: “∆εν µου είπε ποτέ ότι κάνω λάθος”. Και αυτό είναι το πρόβληµα, διότι οι στρεβλές σκέψεις παγιώνονται, η πραγµατικότητα παραµορφώνεται και η ευθύνη της αλλαγής αποφεύγεται», επισήµανε χαρακτηριστικά ο κ. Ντακανάλης, προσθέτοντας ότι «ένας ψυχοθεραπευτής θα σου πει ότι αυτό που σκέφτεσαι ίσως δεν ισχύει και πως αυτός ο φόβος σε καθορίζει περισσότερο απ’ όσο νοµίζεις. Ένας θεραπευτής θα τολµήσει να πει το δύσκολο, να θέσει όρια, να αµφισβητήσει, να σου δείξει κάτι που δεν θέλεις να δεις».


Λάθος απαντήσεις

Πάνω στο κοµµάτι µε τη δοσολογία φαρµάκων, ο καθηγητής Ψυχιατρικής και Ψυχοθεραπείας, επέστησε ακόµα περισσότερο την προσοχή, αναφέροντας µία σοβαρή περίπτωση νέου άνδρα, ο οποίος είχε αρχίσει µόνος του αλλαγές σε αγωγή, βασισµένος σε πληροφορίες από AI: «Αύξησε τη δοσολογία, συνδύασε φάρµακα και το αποτέλεσµα ήταν η απορρύθµιση, η αϋπνία, η επιδείνωση. Όταν τον ρώτησα γιατί, απάντησε: “Νόµιζα ότι ξέρω… ότι ξέρει καλά το AI”. Η ψυχιατρική δεν είναι συνταγή, είναι διαδικασία, παρατήρηση, σχέση και ευθύνη.

Το AI δεν βλέπει το βλέµµα, τη σιωπή, την αντίφαση, την ιστορία πίσω από τα συµπτώµατα. Και όµως, εκεί βρίσκεται η ουσία, γιατί το σύµπτωµα δεν είναι µόνο εχθρός. Είναι και µήνυµα. Όταν η ψυχή υποφέρει, µιλάει το σώµα και το σώµα παίρνει το σχήµα που έχει η ψυχή. Στην ψυχιατρική και στην ψυχοθεραπεία δεν θεραπεύουµε µόνο συµπτώµατα, θεραπεύουµε πρωτίστως ανθρώπους.

Η AI δεν µπορεί να δει αυτά που δεν γράφονται όπως το βλέµµα, η σιωπή, η αντίφαση, το βίωµα, η σχέση και κυρίως δεν αναλαµβάνει την ευθύνη. Η πληροφορία χωρίς ευθύνη είναι επικίνδυνη. Η ιατρική χωρίς σχέση είναι ρίσκο ζωής». Για τον κ. Ντακανάλη, ένας από τους µεγαλύτερους κινδύνους δεν είναι η λάθος απάντηση, είναι η καθυστέρηση να απευθυνθεί κάποιος σε ειδικό: «Όταν νιώθουµε ότι “το έχουµε ήδη ψάξει”, συχνά αργούµε να ζητήσουµε πραγµατική βοήθεια. Στην ψυχική υγεία ο χρόνος έχει σηµασία, όπως και η θεραπευτική σχέση.

Ο άνθρωπος δεν θεραπεύεται επειδή πήρε µια απάντηση. Θεραπεύεται όταν νιώθει ότι κάποιος τον βλέπει, τον καταλαβαίνει και µένει µαζί του, στα εύκολα και στα δύσκολα, στα σκοτάδια και στο φως. Και ίσως το πιο σηµαντικό: ο άνθρωπος δεν χρειάζεται απλώς απαντήσεις. Χρειάζεται κάποιον που να µπορεί να αντέξει µαζί του τα ερωτήµατα. Και αυτό, καµία µηχανή δεν µπορεί να το υποκαταστήσει».


Δημοσιεύθηκε στην Απογευματινή