O πόλεμος στο Ιράν δείχνει γιατί η τεχνητή νοημοσύνη δεν πρέπει να αναπτύσσεται από ιδιωτικές εταιρείες
The Times
Παρά την απόφαση του Τραμπ να διακόψει τα κυβερνητικά συμβόλαια με την ''woke'' Anthropic, τα εργαλεία της χρησιμοποιήθηκαν στην επιχείρηση στο Ιράν
Όταν η ξέσπασε η διαμάχη μεταξύ του Προέδρου Τραμπ και εκείνων που αποκάλεσε «αριστερούς τρελούς» στην Anthropic, την εταιρεία τεχνητής νοημοσύνης, την περασμένη εβδομάδα, κανείς δεν περίμενε ότι θα κατέληγε σε έναν πλήρη πόλεμο. Ωστόσο, αυτό ακριβώς συνέβη με τις επιθέσεις στο Ιράν το Σαββατοκύριακο. Παρά την απόφαση του Τραμπ να διακόψει τα κυβερνητικά συμβόλαια με την «woke» Anthropic, τα εργαλεία της χρησιμοποιήθηκαν στην επιχείρηση στο Ιράν. Το Claude, το μοντέλο τεχνητής νοημοσύνης της Anthropic, χρησιμοποιήθηκε —ή χρησιμοποιούταν— από το Αμερικανικό Υπουργείο Πολέμου για ανάλυση πληροφοριών, κυβερνοεπιχειρήσεις και επιχειρησιακό σχεδιασμό.
Η αποκάλυψη αυτή είναι η τελευταία ανατροπή σε αυτή την περίπλοκη ιστορία, αλλά το ζήτημα για την τεχνολογία ξεπερνά κατά πολύ τα γεγονότα στο Ιράν. Δεν πρόκειται απλώς για μια μάχη μεταξύ του Τραμπ και της Anthropic. Δεν πρόκειται καν για μια απλή μάχη σχετικά με τη χρήση της τεχνητής νοημοσύνης στα όπλα. Πρόκειται για μια μάχη σχετικά με τη δυνητική δύναμη της τεχνητής νοημοσύνης και το ποιος έχει το δικαίωμα να την ελέγχει - και θα γίνεται όλο και πιο έντονη καθώς η τεχνολογία εξελίσσεται με τρομακτικό ρυθμό.
Για να ανακεφαλαιώσουμε: Η Anthropic και το Πεντάγωνο είχαν έντονη διαφωνία σχετικά με την εφαρμογή των μοντέλων τεχνητής νοημοσύνης της. Η εταιρεία αξίας 380 δισεκατομμυρίων δολαρίων, με επικεφαλής τον Ντάριο Αμοντέι, ήθελε να σταματήσει τη χρήση τεχνητής νοημοσύνης για μαζική εσωτερική παρακολούθηση ή αυτόνομα όπλα. Μετά από μια οδυνηρή δημόσια διαμάχη, ο πρόεδρος και ο Πίτ Χέγκσεθ, υπουργός Άμυνας των ΗΠΑ, ακύρωσαν τη συμφωνία ύψους 200 εκατομμυρίων δολαρίων της Anthropic με το Πεντάγωνο λόγω του «εγωισμού» της και των προσπαθειών της να «εξαναγκάσει το Υπουργείο Άμυνας».
Χαρακτήρισαν την Anthropic ως «κίνδυνο για την αλυσίδα εφοδιασμού της εθνικής άμυνας», τοποθετώντας την αμερικανική εταιρεία στην ίδια κατηγορία με την κινεζική Huawei.
Κι εδώ εμφανίζεται ο Σαμ Άλτμαν, ο μεγάλος αντίπαλος του Αμοντέι. Ένας άνθρωπος για τον οποίο έχει ειπωθεί το εξής: «Μπορείς να ρίξεις τον Άλτμαν με αλεξίπτωτο σε ένα νησί γεμάτο κανίβαλους κι όταν επιστρέψεις σε πέντε χρόνια, θα έχει γίνει βασιλιάς». Ο διευθύνων σύμβουλος της OpenAI ανέλαβε και υπέγραψε συμβόλαιο με το Πεντάγωνο για να πάρει τη θέση της Anthropic.
«Πιστεύουμε ότι η συμφωνία μας περιλαμβάνει περισσότερα μέτρα ασφαλείας από οποιαδήποτε προηγούμενη συμφωνία για την ανάπτυξη απόρρητων τεχνολογιών τεχνητής νοημοσύνης, συμπεριλαμβανομένης και της Anthropic», δήλωσε η OpenAI.
Και εδώ ξεκινά η σύγχυση σχετικά με το γιατί προέκυψε η διαμάχη εξαρχής. Η Anthropic δεσμεύτηκε να προσφύγει στη δικαιοσύνη κατά της αμερικανικής κυβέρνησης, ενώ η OpenAI αντιμετώπισε αντιδράσεις από όσους θεώρησαν ότι η συμφωνία τους υπονομεύει την ηθική στάση της Anthropic.
Όπως συμβαίνει με όλες τις καλύτερες αντιπαραθέσεις, η συγκεκριμένη οικοδομείται εδώ και κάποιο διάστημα. Οι ρίζες της διαμάχης εντοπίζονται στην ιστορία της Anthropic, την οποία ο ορθολογικός Αμοντέι δημιούργησε, αποχωρώντας από την OpenAI, όταν ο ίδιος και άλλοι εξέφρασαν ανησυχίες σχετικά με την ασφαλή ανάπτυξη της τεχνητής νοημοσύνης. Ο Αμοντέι προειδοποιεί συνεχώς για τους κινδύνους της τεχνολογίας.
Σε ένα δοκίμιο τον περασμένο μήνα, έγραψε: «Σε ορισμένες περιπτώσεις, η μεγάλης κλίμακας παρακολούθηση με ισχυρή τεχνητή νοημοσύνη, η μαζική προπαγάνδα με ισχυρή τεχνητή νοημοσύνη και ορισμένοι τύποι επιθετικής χρήσης πλήρως αυτόνομων όπλων θα πρέπει να θεωρούνται εγκλήματα κατά της ανθρωπότητας».
Συχνά γίνεται σύγκριση μεταξύ της ανάπτυξης της τεχνητής νοημοσύνης και του Προγράμματος Μανχάταν, που δημιούργησε την ατομική βόμβα, λόγω της δυνητικής δύναμης της τεχνολογίας. Μια σημαντική διαφορά είναι ότι το τελευταίο ήταν ένα ερευνητικό πρόγραμμα χρηματοδοτούμενο από την κυβέρνηση, ενώ η τεχνητή νοημοσύνη αναπτύσσεται από τον ιδιωτικό τομέα.
Σε μια συνεδρία στο X το Σάββατο το βράδυ, ο Άλτμαν δήλωσε ότι θεωρεί πως «ίσως θα ήταν καλύτερο αν η ανάπτυξη της Τεχνητής Γενικής Νοημοσύνης (AGI) ήταν κυβερνητικό έργο».
Θα μπορούσε να είναι. Οι εταιρείες της Σίλικον Βάλεϊ συναγωνίζονται για να δημιουργήσουν την πιο προηγμένη τεχνητή νοημοσύνη, επιδιώκοντας τεράστια κέρδη και παράλληλα, κρύβοντας την εμπορική τους φιλοδοξία πίσω από φαινομενικές διακηρύξεις για την ασφάλεια.
Ακόμη και ο Αμοντέι, το «πρότυπο επιφυλακτικότητας» της Σίλικον Βάλεϊ, πρόσφατα εγκατέλειψε την κύρια δέσμευση ασφαλείας της Anthropic για να μπορέσει να ανταγωνιστεί τους ομοτίμους του. Είχε προηγουμένως δεσμευτεί να μην εκπαιδεύσει ποτέ ένα σύστημα τεχνητής νοημοσύνης, εκτός εάν μπορούσε να εγγυηθεί επαρκή μέτρα ασφαλείας.
Οι ιδιωτικές εταιρείες δεν θα πρέπει να είναι υπεύθυνες για την ανάπτυξή της. Όπως σωστά δήλωσε ο Αμοντέι σε μια έντονη συνέντευξη στο CBS News το Σάββατο: «Δεν νομίζω ότι η σωστή μακροπρόθεσμη λύση είναι να διαφωνούν μεταξύ τους μια ιδιωτική εταιρεία και το Πεντάγωνο. Πιστεύω ότι το Κογκρέσο πρέπει να αναλάβει δράση - να επιβάλει περιορισμούς που δεν θα εμποδίζουν την ικανότητά μας να νικήσουμε τους αντιπάλους μας, αλλά θα μας επιτρέπουν να το κάνουμε σύμφωνα με τις αξίες της χώρας μας».
Πέρα από το Κογκρέσο, αυτή η διαμάχη υπογραμμίζει τη συνεχιζόμενη έλλειψη σαφούς παγκόσμιας διακυβέρνησης και προτύπων γύρω από την τεχνητή νοημοσύνη.
Μοιάζει σαν να έχουμε επιστρέψει στο 2023, όταν οι συζητήσεις για την ασφάλεια της τεχνητής νοημοσύνης ήταν στην επικαιρότητα και στη συνέχεια εξαφανίστηκαν από το προσκήνιο – μόνο που σε μόλις τρία χρόνια η τεχνολογία έχει εξελιχθεί πέρα από τα όρια που πολλοί θεωρούσαν εφικτά. Μιλήστε με οποιονδήποτε εργάζεται στον τομέα αυτό για τους κινδύνους της τεχνητής νοημοσύνης και θα σας πουν ότι οι κίνδυνοι είναι επικίνδυνα πραγματικοί.
Υπάρχουν όντως εποπτικοί φορείς, αλλά δεν έχουν την απαραίτητη ισχύ. Υπάρχει το Βρετανικό Ινστιτούτο Ασφάλειας Τεχνητής Νοημοσύνης (AISI), στο οποίο προεδρεύει ο βραβευμένος με το Βραβείο Τούρινγκ, Γιοσούα Μπέντζιο. Τον περασμένο μήνα, τα Ηνωμένα Έθνη ίδρυσαν την Ανεξάρτητη Διεθνή Επιστημονική Επιτροπή για την Τεχνητή Νοημοσύνη, μια επιτροπή που θα λειτουργεί ως «σύστημα έγκαιρης προειδοποίησης» και θα συλλέγει στοιχεία για την τεχνολογία.
Ωστόσο, υπό την προεδρία του Τραμπ, κάθε πρόταση για διεθνή συνεργασία στον τομέα της τεχνητής νοημοσύνης είναι ουτοπική.
Η φετινή Διεθνής Έκθεση για την Ασφάλεια της Τεχνητής Νοημοσύνης, υπό την ηγεσία του Μπέντζιο, διαπίστωσε ότι τα στοιχεία για τους κινδύνους της τεχνητής νοημοσύνης έχουν «αυξηθεί σημαντικά», ενώ οι τρέχουσες τεχνικές διαχείρισης κινδύνων «βελτιώνονται αλλά είναι ανεπαρκείς».
Παρά την υποστήριξή της από την Κίνα, την Ευρώπη και το Ηνωμένο Βασίλειο, η κυβέρνηση των ΗΠΑ δεν υποστήριξε την έκθεση. Ποια είναι η χρησιμότητα μιας τέτοιας έκθεσης «για την αντιμετώπιση των κοινών προκλήσεων της τεχνητής νοημοσύνης» χωρίς τη συμμετοχή της χώρας που έχει αναπτύξει την τεχνολογία;
Τώρα περισσότερο από ποτέ, είναι ζωτικής σημασίας να συνειδητοποιήσουμε την ανάγκη για διεθνή συνεργασία. Αυτή η διαμάχη σχετικά με τον πόλεμο σηματοδοτεί το τέλος κάθε προσποίησης ότι ο έλεγχος της τεχνητής νοημοσύνης πρέπει να είναι μια αποκλειστικά ιδιωτική ή αποκλειστικά αμερικανική υπόθεση.
ΠΗΓΗ: Times Media Ltd / News
En