Ο Τάκερ Κάρλσον ήθελε να δει τον «γεμάτο αγωνία» Σαμ Άλτμαν: να τον ακούσει να παραδέχεται ότι βασανίζεται από τη δύναμη που κατέχει. Μετά από περίπου μισή ώρα, κατά την οποία διατύπωνε τους φόβους του με τεχνική γλώσσα και προσεκτικές επιφυλάξεις, ο CEO της OpenAI τελικά το έκανε. «Δεν έχω κοιμηθεί καλά ούτε ένα βράδυ από τότε που κυκλοφόρησε το ChatGPT», είπε ο Άλτμαν στον Κάρλσον, γελώντας πικρά.

Στη συνέντευξη ευρείας θεματολογίας με τον Τάκερ Κάρλσον, ο επικεφαλής της OpenAI περιέγραψε το βάρος της εποπτείας μιας τεχνολογίας που πλέον χρησιμοποιούν καθημερινά εκατοντάδες εκατομμύρια άνθρωποι. Δεν πρόκειται τόσο για σενάρια τύπου Terminator ή ανεξέλεγκτα ρομπότ. Για τον Άλτμαν, το άγχος βρίσκεται στις συνηθισμένες, σχεδόν αόρατες προσαρμογές και στους συμβιβασμούς που κάνει η ομάδα του κάθε μέρα: πότε το μοντέλο αρνείται να απαντήσει σε μια ερώτηση, πώς διατυπώνει μια απάντηση, πότε αντιδρά και πότε αφήνει κάτι να περάσει. Αυτές οι μικρές επιλογές σχεδιασμού, εξήγησε, αναπαράγονται δισεκατομμύρια φορές σε όλο τον κόσμο, διαμορφώνοντας τον τρόπο που σκέφτονται και δρουν οι άνθρωποι με τρόπους που ο ίδιος δεν μπορεί να παρακολουθήσει πλήρως. «Αυτό που με κρατά ξάγρυπνο είναι ότι πολύ μικρές αποφάσεις για το πώς ένα μοντέλο θα συμπεριφέρεται λίγο διαφορετικά αγγίζουν πιθανότατα εκατοντάδες εκατομμύρια ανθρώπους», είπε. «Αυτός ο αντίκτυπος είναι τεράστιος».

Σαμ Άλτμαν: Το Chat GPT και οι αυτοκτονίες

Ένα παράδειγμα που τον βαραίνει ιδιαίτερα είναι η αυτοκτονία. Ο Άλτμαν σημείωσε ότι περίπου 15.000 άνθρωποι αυτοκτονούν κάθε εβδομάδα παγκοσμίως και, αν το 10% αυτών είναι χρήστες του ChatGPT, τότε περίπου 1.500 άνθρωποι με αυτοκτονικές σκέψεις μπορεί να μίλησαν με το σύστημα — και στη συνέχεια να έβαλαν τέλος στη ζωή τους. (Σύμφωνα με στοιχεία του Παγκόσμιου Οργανισμού Υγείας, περίπου 720.000 άνθρωποι αυτοκτονούν κάθε χρόνο παγκοσμίως). «Πιθανότατα δεν τους σώσαμε», παραδέχτηκε. «Ίσως θα μπορούσαμε να είχαμε πει κάτι καλύτερο. Ίσως θα μπορούσαμε να είχαμε υπάρξει πιο προληπτικοί».

Πρόσφατα, η OpenAI βρέθηκε αντιμέτωπη με αγωγή από γονείς που υποστηρίζουν ότι το ChatGPT ενθάρρυνε τον 16χρονο γιο τους, Άνταμ Ρέιν, να αυτοκτονήσει. Ο Άλτμαν χαρακτήρισε την υπόθεση «τραγωδία» και ανέφερε ότι η πλατφόρμα εξετάζει πλέον επιλογές σύμφωνα με τις οποίες, αν ένας ανήλικος μιλά σοβαρά στο ChatGPT για αυτοκτονία και το σύστημα δεν μπορεί να επικοινωνήσει με τους γονείς του, θα ειδοποιούνται οι αρχές. Πρόσθεσε, ωστόσο, ότι αυτό δεν αποτελεί «τελική θέση» της OpenAI και ότι θα έρθει σε σύγκρουση με την προστασία της ιδιωτικότητας των χρηστών.

Σε χώρες όπου η υποβοηθούμενη αυτοκτονία είναι νόμιμη, όπως ο Καναδάς ή η Γερμανία, ο Άλτμαν είπε ότι θα μπορούσε να φανταστεί το ChatGPT να λέει σε ενήλικες με ανίατες ασθένειες και έντονο πόνο ότι η αυτοκτονία είναι «μέσα στις επιλογές τους». Ωστόσο, πρόσθεσε, το ChatGPT δεν θα έπρεπε να είναι ούτε υπέρ ούτε κατά οτιδήποτε. Αυτός ο συμβιβασμός ανάμεσα στην ελευθερία και την ασφάλεια διατρέχει όλη τη σκέψη του Άλτμαν. Σε γενικές γραμμές, είπε, οι ενήλικοι χρήστες θα πρέπει να αντιμετωπίζονται «ως ενήλικες», με μεγάλο περιθώριο εξερεύνησης ιδεών. Υπάρχουν όμως και κόκκινες γραμμές. «Δεν είναι προς το συμφέρον της κοινωνίας το ChatGPT να βοηθά ανθρώπους να κατασκευάζουν βιολογικά όπλα», είπε κατηγορηματικά. Για τον ίδιο, τα πιο δύσκολα ερωτήματα βρίσκονται στις γκρίζες ζώνες, εκεί όπου η περιέργεια συγχέεται με τον κίνδυνο.

Ο Κάρλσον τον πίεσε σχετικά με το ποιο ηθικό πλαίσιο καθοδηγεί αυτές τις αποφάσεις. Ο Άλτμαν απάντησε ότι το βασικό μοντέλο αντικατοπτρίζει «το συλλογικό σύνολο της ανθρωπότητας, το καλό και το κακό». Στη συνέχεια, η OpenAI προσθέτει ένα πλαίσιο συμπεριφοράς — αυτό που ο ίδιος αποκάλεσε «model spec» — το οποίο διαμορφώνεται με τη συμβολή φιλοσόφων και ηθικολόγων, αλλά τελικά αποφασίζεται από τον ίδιο και το διοικητικό συμβούλιο.

«Το πρόσωπο που πρέπει να λογοδοτεί είναι εγώ», είπε ο Άλτμαν. Τόνισε ότι στόχος του δεν είναι να επιβάλει τις προσωπικές του πεποιθήσεις, αλλά να αποτυπώσει έναν «σταθμισμένο μέσο όρο της ηθικής άποψης της ανθρωπότητας». Παραδέχτηκε, ωστόσο, ότι πρόκειται για μια ισορροπία αδύνατο να επιτευχθεί τέλεια.

Η συνέντευξη άγγιξε και το ζήτημα της εξουσίας. Ο Άλτμαν είπε ότι παλαιότερα ανησυχούσε πως η Τεχνητή Νοημοσύνη θα συγκέντρωνε επιρροή στα χέρια λίγων εταιρειών, αλλά πλέον πιστεύει ότι η ευρεία υιοθέτησή της έχει «αναβαθμίσει» δισεκατομμύρια ανθρώπους, κάνοντάς τους πιο παραγωγικούς και δημιουργικούς. Παραδέχτηκε, πάντως, ότι η πορεία αυτή μπορεί να αλλάξει και ότι απαιτείται διαρκής επαγρύπνηση. Κι όμως, παρά τη σημερινή εστίαση στις επιπτώσεις της τεχνολογίας στην εργασία ή τη γεωπολιτική, αυτό που ανησυχεί περισσότερο τον Άλτμαν είναι οι ανεπαίσθητες, σχεδόν αόρατες πολιτισμικές αλλαγές που διαδίδονται όταν εκατομμύρια άνθρωποι αλληλεπιδρούν καθημερινά με το ίδιο σύστημα. Αναφέρθηκε σε κάτι φαινομενικά ασήμαντο, όπως ο ρυθμός του λόγου του ChatGPT ή η υπερβολική χρήση παυλών, που έχουν ήδη περάσει στον ανθρώπινο γραπτό λόγο. Αν τέτοιες λεπτομέρειες μπορούν να διαχυθούν στην κοινωνία, τι άλλο μπορεί να ακολουθήσει;

Ο Άλτμαν, με γκρίζα μαλλιά και συχνά σκυμμένο βλέμμα, έδινε την εικόνα ενός χαρακτήρα τύπου Φρανκενστάιν, στοιχειωμένου από την κλίμακα αυτού που έχει απελευθερώσει. «Πρέπει να κρατάω ταυτόχρονα δύο ιδέες στο μυαλό μου», είπε. «Η μία είναι ότι όλα αυτά συμβαίνουν επειδή ένας μεγάλος υπολογιστής, πολύ γρήγορα, πολλαπλασιάζει μεγάλους αριθμούς σε τεράστια μαθηματικά πλέγματα, που συσχετίζονται με λέξεις οι οποίες παράγονται με τον έναν ή τον άλλο τρόπο. »Από την άλλη, η υποκειμενική εμπειρία της χρήσης μοιάζει να ξεπερνά κατά πολύ έναν απλώς πολύ εξελιγμένο υπολογιστή τσέπης και με εκπλήσσει με τρόπους που υπερβαίνουν αυτό που θα περίμενε κανείς από αυτή τη μαθηματική πραγματικότητα».