Ιράν: Ο πρώτος πόλεμος της Τεχνητής Νοημοσύνης - ΗΠΑ και Ισραήλ δοκιμάζουν αυτόνομη τεχνολογία
The Times
Ειδικοί διερωτώνται αν πλέον οι μηχανές έχουν ουσιαστικά τον έλεγχο στο πεδίο της μάχης
Στις πρώτες 24 ώρες της επιχείρησης Epic Fury, ο αμερικανικός στρατός χτύπησε περισσότερους από 1.000 στόχους στο Ιράν με τη βοήθεια της τεχνητής νοημοσύνης. Δεδομένου ότι ο ρυθμός έφτανε τους 42 προτεινόμενους στόχους την ώρα, ειδικοί διερωτώνται αν πλέον οι μηχανές έχουν ουσιαστικά τον έλεγχο στο πεδίο της μάχης, καθώς ο ανθρώπινος εγκέφαλος δεν μπορεί να ανταποκριθεί σε έναν τόσο γρήγορο ρυθμό.
Έχουν επίσης θέσει το ενδεχόμενο η τεχνητή νοημοσύνη να ταυτοποίησε λανθασμένα το δημοτικό σχολείο στη Μινάμπ ως στόχο την πρώτη ημέρα του πολέμου. Όλο και περισσότερα στοιχεία υποδηλώνουν ότι οι ΗΠΑ εκτόξευσαν, όπως φαίνεται, πυραύλους cruise τύπου Tomahawk εναντίον του σημείου, με αποτέλεσμα να σκοτωθούν 110 παιδιά και δεκάδες ακόμη άνθρωποι.
Τα συστήματα τεχνητής νοημοσύνης μπορούν να επεξεργάζονται τεράστιες ποσότητες δεδομένων από πηγές όπως δορυφορικές εικόνες, δεδομένα από αεροσκάφη επιτήρησης και μαρτυρίες ανθρώπων, προκειμένου να επιλέγουν ή να απορρίπτουν στόχους.
Ιστορικές δορυφορικές εικόνες δείχνουν ότι το δημοτικό σχολείο Σατζαρέ Ταϊγιεμπέ αποτελούσε κάποτε τμήμα συγκροτήματος των Φρουρών της Ισλαμικής Επανάστασης, όπου στεγάζονταν ναυτικός στρατώνας και βοηθητικά κτίρια. Ωστόσο, τουλάχιστον τα τελευταία εννέα χρόνια έχει απομονωθεί από το υπόλοιπο συγκρότημα με την κατασκευή περιμετρικού τοίχου. Σε ορισμένες δορυφορικές εικόνες διακρίνονται πολύχρωμες τοιχογραφίες στους τοίχους, καθώς και ένα μικρό γήπεδο παιχνιδιού.
Έχουν τεθεί ερωτήματα για το κατά πόσο ένα σύστημα τεχνητής νοημοσύνης βασίστηκε σε παλαιότερες εικόνες προκειμένου να επιλέξει τον στόχο.
Ο Νόα Σίλβια, αναλυτής ερευνών στο Βασιλικό Ινστιτούτο Ενωμένων Υπηρεσιών, δήλωσε: «Αν ο βομβαρδισμός του σχολείου έγινε κατά λάθος, οφείλεται σε ανθρώπινο σφάλμα ή στην ταχύτητα με την οποία λειτουργεί το αυτοματοποιημένο σύστημα; Βασίστηκε σε παλιά δεδομένα; Ή ήταν μια μηχανή που το έκανε αυτόματα; Ο αριθμός των πληγμάτων που βλέπουμε δίνει κάποια βαρύτητα στην άποψη ότι οι στόχοι δημιουργούνται σε μεγάλο βαθμό αυτόνομα».
Ο Δρ Κρέιγκ Τζόουνς, ανώτερος λέκτορας Πολιτικής Γεωγραφίας στο Πανεπιστήμιο του Νιούκαστλ, δήλωσε: «Σε αυτό το στάδιο δεν μπορούμε να αποκλείσουμε το ενδεχόμενο η τεχνητή νοημοσύνη να … απέτυχε να αναγνωρίσει το σχολείο ως σχολείο και αντί γι’ αυτό να το ταυτοποίησε ως στρατιωτικό στόχο».
Σημείωσε ότι το βασικό ζήτημα είναι σε ποιο βαθμό χρησιμοποιήθηκε η τεχνητή νοημοσύνη στη συλλογή και ανάλυση των πληροφοριών που οδήγησαν στην παρουσίαση του σχολείου ως στρατιωτικού στόχου, επισημαίνοντας ότι οποιαδήποτε ανθρώπινη απόφαση για επίθεση βασίστηκε σε δεδομένα και αναλύσεις που η τεχνητή νοημοσύνη είχε βοηθήσει να συνταχθούν. «Όποιο κι αν είναι τελικά το αποτέλεσμα – και τα γεγονότα θα παραμείνουν θολά για κάποιο διάστημα – η επίθεση αποτελεί καταστροφική αποτυχία πληροφοριών, είτε καθοδηγήθηκε από τεχνητή νοημοσύνη είτε από ανθρώπους με κάποια συνδρομή της τεχνητής νοημοσύνης», δήλωσε.
Σε ερώτηση της The Times για το αν τα συστήματα τεχνητής νοημοσύνης παρείχαν παρωχημένες πληροφορίες σχετικά με το σχολείο, το Πεντάγωνο απάντησε ότι η έρευνα βρίσκεται σε εξέλιξη. Ο Πρόεδρος Τραμπ υποθέτει, χωρίς αποδείξεις, ότι το Ιράν ή «κάποιος άλλος» μπορεί να έχει πραγματοποιήσει την επίθεση, αλλά η ανάλυση του χώρου υποδηλώνει ότι χρησιμοποιήθηκαν αμερικανικά όπλα.
Οι ΗΠΑ και το Ισραήλ έχουν στη διάθεσή τους πλήθος συστημάτων τεχνητής νοημοσύνης στον πόλεμο κατά του Ιράν. Το Πεντάγωνο αναπτύσσει το Project Maven με τη βοήθεια της εταιρείας εξόρυξης δεδομένων Palantir, που υποστηρίζεται από την CIA, από το 2018, και το λογισμικό έχει ενσωματωθεί σε όλες τις αμερικανικές διοικήσεις μάχης.
Στον πόλεμο με το Ιράν, οι ΗΠΑ χρησιμοποιούν τεχνητή νοημοσύνη και μηχανική μάθηση για να βοηθήσουν στη στρατιωτική στόχευση και επιτήρηση. Οι ειδικοί το παρομοιάζουν με μια στρατιωτική εκδοχή της Uber.
Το chatbot Claude της Anthropic είναι ενσωματωμένο στο Maven Smart System. Χρησιμοποιήθηκε στην Επιχείρηση Epic Fury για την ανάλυση πληροφοριών. Θεωρητικά, θα μπορούσε να συγκεντρώσει δεδομένα ανοιχτού κώδικα σχετικά με το τι συμβαίνει στο εσωτερικό της ιρανικής κυβέρνησης.
Διαθέτει αυστηρές πολιτικές χρήσης και δεν χρησιμοποιείται για στρατιωτική στόχευση. Η Anthropic πιστεύει ότι οι άνθρωποι πρέπει να είναι υπεύθυνοι για τον προσδιορισμό των στόχων και τη λήψη αποφάσεων σχετικά με τις επιθέσεις. Η κυβέρνηση Τραμπ έχει πλέον βάλει την εταιρεία στη μαύρη λίστα, προκαλώντας σοκ στους αξιωματούχους της Ουάσιγκτον.
Παρότι το λογισμικό της Palantir έχει ήδη χρησιμοποιηθεί στον πόλεμο στην Ουκρανία, ο Σίλβια δήλωσε ότι η κλίμακα των επιχειρήσεων στη Μέση Ανατολή είναι «πολύ πιο δραματική».
Ο ίδιος δήλωσε ότι οι πηγές των δεδομένων θα είναι διαφορετικές και ότι οι ΗΠΑ και το Ισραήλ χρησιμοποιούν διαφορετικά συστήματα από αυτά που χρησιμοποιούνται στην Ουκρανία - όπλα μακράς εμβέλειας, αντί για πυροβολικό και drones με οπτική γωνία πρώτου προσώπου. «Είναι θεμελιωδώς διαφορετικό λόγω της γεωγραφικής έκτασης των επιχειρήσεων και της τάξης μεγέθους τους», δήλωσε ο Σίλβια.
«Η ανατολική Ουκρανία είναι μικροσκοπική σε σύγκριση με το Ιράν. Η δυνατότητα να πραγματοποιηθούν επιθέσεις σε μεγάλο μέρος του Ιράν απαιτεί πολύ περισσότερα δεδομένα και πολύ πιο σημαντικά συστήματα για την επεξεργασία των δεδομένων».
Με αυτό, όπως εξήγησε, προκύπτουν και κίνδυνοι, επισημαίνοντας ότι οι εμπορικές εταιρείες αναπτύσσουν συνεχώς πιο προηγμένα μοντέλα και ότι το προσωπικό που τα χειρίζεται πρέπει να είναι πλήρως έτοιμο και καταρτισμένο για να τα αξιοποιεί σωστά. Εξέφρασε ανησυχίες σχετικά με την «ταχεία ανάπτυξη της τεχνολογίας και την έλλειψη τεχνικής εμπειρογνωμοσύνης του προσωπικού».
«Όταν επικρατεί επείγουσα κατάσταση, οι άνθρωποι μπορούν να συνεισφέρουν μόνο μέχρι ένα όριο. Καθώς ο πόλεμος αυξάνει τον ρυθμό των επιχειρήσεων, όλο και περισσότερο σε πρωτοφανή κλίμακα, θα δούμε με την πάροδο του χρόνου αυξήσεις στο επίπεδο αυτονομίας σε ορισμένα συστήματα. Αυτό εγείρει το ερώτημα, πόσο άνετα αισθάνονται οι άνθρωποι γι' αυτό;»
Η Έλκε Σβαρτς, καθηγήτρια πολιτικής θεωρίας στο Πανεπιστήμιο Queen Mary του Λονδίνου, δήλωσε ότι τα συστήματα που πρότειναν χιλιάδες στόχους καθημερινά δημιούργησαν μια «προκατάληψη αυτοματοποίησης», δηλαδή έγιναν ουσιαστικά η τελική αυθεντία στις αποφάσεις. «Ο άνθρωπος έχει περιορισμένες γνωστικές ικανότητες για να υπερισχύσει αυτής της ικανότητας», είπε.
Υπήρχε επίσης μια «προκατάληψη δράσης», είπε, αναφερόμενη στην ταχεία απόφαση της μηχανής που δημιουργούσε μια επείγουσα ανάγκη για δράση. «Οι άνθρωποι χρειάζονται χρόνο για να σκεφτούν, και αυτή η σκέψη είναι ζωτικής σημασίας για τη νομική και ηθική αξιολόγηση».
Η ίδια τόνισε ότι 42 προτεινόμενοι στόχοι ανά ώρα είναι «πολλοί και γίνεται δύσκολο να αξιολογηθεί η εγκυρότητα όλων αυτών των στόχων όταν προτεραιότητα δίνεται στην ταχύτητα και την κλίμακα».
Οι ειδικοί στον τομέα αυτό φοβούνται για το μέλλον των συγκρούσεων και προειδοποιούν για «ερπυσμό των αποστολών». Η Σβαρτς επισήμανε ότι τα μελλοντικά συστήματα τεχνητής νοημοσύνης ίσως να εντοπίζουν όχι μόνο πιθανούς στόχους με ταχύτητα και σε μεγάλη κλίμακα, αλλά και «ύποπτες» συμπεριφορές ή κινήσεις, που στη συνέχεια θα μπορούσαν να πυροδοτήσουν προληπτικές επιθέσεις.
Η ίδια ανέφερε επίσης: «Πρέπει να θεωρήσουμε ότι η τεχνητή νοημοσύνη θα παίξει έναν ολοένα και μεγαλύτερο ρόλο στην απόφαση για χρήση βίας – στην απόφαση για έναρξη σύγκρουσης – και αυτό είναι τρομακτικό».
Έχουν επίσης θέσει το ενδεχόμενο η τεχνητή νοημοσύνη να ταυτοποίησε λανθασμένα το δημοτικό σχολείο στη Μινάμπ ως στόχο την πρώτη ημέρα του πολέμου. Όλο και περισσότερα στοιχεία υποδηλώνουν ότι οι ΗΠΑ εκτόξευσαν, όπως φαίνεται, πυραύλους cruise τύπου Tomahawk εναντίον του σημείου, με αποτέλεσμα να σκοτωθούν 110 παιδιά και δεκάδες ακόμη άνθρωποι.
Τα συστήματα τεχνητής νοημοσύνης μπορούν να επεξεργάζονται τεράστιες ποσότητες δεδομένων από πηγές όπως δορυφορικές εικόνες, δεδομένα από αεροσκάφη επιτήρησης και μαρτυρίες ανθρώπων, προκειμένου να επιλέγουν ή να απορρίπτουν στόχους.
Ιστορικές δορυφορικές εικόνες δείχνουν ότι το δημοτικό σχολείο Σατζαρέ Ταϊγιεμπέ αποτελούσε κάποτε τμήμα συγκροτήματος των Φρουρών της Ισλαμικής Επανάστασης, όπου στεγάζονταν ναυτικός στρατώνας και βοηθητικά κτίρια. Ωστόσο, τουλάχιστον τα τελευταία εννέα χρόνια έχει απομονωθεί από το υπόλοιπο συγκρότημα με την κατασκευή περιμετρικού τοίχου. Σε ορισμένες δορυφορικές εικόνες διακρίνονται πολύχρωμες τοιχογραφίες στους τοίχους, καθώς και ένα μικρό γήπεδο παιχνιδιού.
Έχουν τεθεί ερωτήματα για το κατά πόσο ένα σύστημα τεχνητής νοημοσύνης βασίστηκε σε παλαιότερες εικόνες προκειμένου να επιλέξει τον στόχο.
Ο Νόα Σίλβια, αναλυτής ερευνών στο Βασιλικό Ινστιτούτο Ενωμένων Υπηρεσιών, δήλωσε: «Αν ο βομβαρδισμός του σχολείου έγινε κατά λάθος, οφείλεται σε ανθρώπινο σφάλμα ή στην ταχύτητα με την οποία λειτουργεί το αυτοματοποιημένο σύστημα; Βασίστηκε σε παλιά δεδομένα; Ή ήταν μια μηχανή που το έκανε αυτόματα; Ο αριθμός των πληγμάτων που βλέπουμε δίνει κάποια βαρύτητα στην άποψη ότι οι στόχοι δημιουργούνται σε μεγάλο βαθμό αυτόνομα».
Ο Δρ Κρέιγκ Τζόουνς, ανώτερος λέκτορας Πολιτικής Γεωγραφίας στο Πανεπιστήμιο του Νιούκαστλ, δήλωσε: «Σε αυτό το στάδιο δεν μπορούμε να αποκλείσουμε το ενδεχόμενο η τεχνητή νοημοσύνη να … απέτυχε να αναγνωρίσει το σχολείο ως σχολείο και αντί γι’ αυτό να το ταυτοποίησε ως στρατιωτικό στόχο».
Σημείωσε ότι το βασικό ζήτημα είναι σε ποιο βαθμό χρησιμοποιήθηκε η τεχνητή νοημοσύνη στη συλλογή και ανάλυση των πληροφοριών που οδήγησαν στην παρουσίαση του σχολείου ως στρατιωτικού στόχου, επισημαίνοντας ότι οποιαδήποτε ανθρώπινη απόφαση για επίθεση βασίστηκε σε δεδομένα και αναλύσεις που η τεχνητή νοημοσύνη είχε βοηθήσει να συνταχθούν. «Όποιο κι αν είναι τελικά το αποτέλεσμα – και τα γεγονότα θα παραμείνουν θολά για κάποιο διάστημα – η επίθεση αποτελεί καταστροφική αποτυχία πληροφοριών, είτε καθοδηγήθηκε από τεχνητή νοημοσύνη είτε από ανθρώπους με κάποια συνδρομή της τεχνητής νοημοσύνης», δήλωσε.
Σε ερώτηση της The Times για το αν τα συστήματα τεχνητής νοημοσύνης παρείχαν παρωχημένες πληροφορίες σχετικά με το σχολείο, το Πεντάγωνο απάντησε ότι η έρευνα βρίσκεται σε εξέλιξη. Ο Πρόεδρος Τραμπ υποθέτει, χωρίς αποδείξεις, ότι το Ιράν ή «κάποιος άλλος» μπορεί να έχει πραγματοποιήσει την επίθεση, αλλά η ανάλυση του χώρου υποδηλώνει ότι χρησιμοποιήθηκαν αμερικανικά όπλα.
Οι ΗΠΑ και το Ισραήλ έχουν στη διάθεσή τους πλήθος συστημάτων τεχνητής νοημοσύνης στον πόλεμο κατά του Ιράν. Το Πεντάγωνο αναπτύσσει το Project Maven με τη βοήθεια της εταιρείας εξόρυξης δεδομένων Palantir, που υποστηρίζεται από την CIA, από το 2018, και το λογισμικό έχει ενσωματωθεί σε όλες τις αμερικανικές διοικήσεις μάχης.
Στον πόλεμο με το Ιράν, οι ΗΠΑ χρησιμοποιούν τεχνητή νοημοσύνη και μηχανική μάθηση για να βοηθήσουν στη στρατιωτική στόχευση και επιτήρηση. Οι ειδικοί το παρομοιάζουν με μια στρατιωτική εκδοχή της Uber.
Το chatbot Claude της Anthropic είναι ενσωματωμένο στο Maven Smart System. Χρησιμοποιήθηκε στην Επιχείρηση Epic Fury για την ανάλυση πληροφοριών. Θεωρητικά, θα μπορούσε να συγκεντρώσει δεδομένα ανοιχτού κώδικα σχετικά με το τι συμβαίνει στο εσωτερικό της ιρανικής κυβέρνησης.
Διαθέτει αυστηρές πολιτικές χρήσης και δεν χρησιμοποιείται για στρατιωτική στόχευση. Η Anthropic πιστεύει ότι οι άνθρωποι πρέπει να είναι υπεύθυνοι για τον προσδιορισμό των στόχων και τη λήψη αποφάσεων σχετικά με τις επιθέσεις. Η κυβέρνηση Τραμπ έχει πλέον βάλει την εταιρεία στη μαύρη λίστα, προκαλώντας σοκ στους αξιωματούχους της Ουάσιγκτον.
Παρότι το λογισμικό της Palantir έχει ήδη χρησιμοποιηθεί στον πόλεμο στην Ουκρανία, ο Σίλβια δήλωσε ότι η κλίμακα των επιχειρήσεων στη Μέση Ανατολή είναι «πολύ πιο δραματική».
Ο ίδιος δήλωσε ότι οι πηγές των δεδομένων θα είναι διαφορετικές και ότι οι ΗΠΑ και το Ισραήλ χρησιμοποιούν διαφορετικά συστήματα από αυτά που χρησιμοποιούνται στην Ουκρανία - όπλα μακράς εμβέλειας, αντί για πυροβολικό και drones με οπτική γωνία πρώτου προσώπου. «Είναι θεμελιωδώς διαφορετικό λόγω της γεωγραφικής έκτασης των επιχειρήσεων και της τάξης μεγέθους τους», δήλωσε ο Σίλβια.
«Η ανατολική Ουκρανία είναι μικροσκοπική σε σύγκριση με το Ιράν. Η δυνατότητα να πραγματοποιηθούν επιθέσεις σε μεγάλο μέρος του Ιράν απαιτεί πολύ περισσότερα δεδομένα και πολύ πιο σημαντικά συστήματα για την επεξεργασία των δεδομένων».
Με αυτό, όπως εξήγησε, προκύπτουν και κίνδυνοι, επισημαίνοντας ότι οι εμπορικές εταιρείες αναπτύσσουν συνεχώς πιο προηγμένα μοντέλα και ότι το προσωπικό που τα χειρίζεται πρέπει να είναι πλήρως έτοιμο και καταρτισμένο για να τα αξιοποιεί σωστά. Εξέφρασε ανησυχίες σχετικά με την «ταχεία ανάπτυξη της τεχνολογίας και την έλλειψη τεχνικής εμπειρογνωμοσύνης του προσωπικού».
«Όταν επικρατεί επείγουσα κατάσταση, οι άνθρωποι μπορούν να συνεισφέρουν μόνο μέχρι ένα όριο. Καθώς ο πόλεμος αυξάνει τον ρυθμό των επιχειρήσεων, όλο και περισσότερο σε πρωτοφανή κλίμακα, θα δούμε με την πάροδο του χρόνου αυξήσεις στο επίπεδο αυτονομίας σε ορισμένα συστήματα. Αυτό εγείρει το ερώτημα, πόσο άνετα αισθάνονται οι άνθρωποι γι' αυτό;»
Η Έλκε Σβαρτς, καθηγήτρια πολιτικής θεωρίας στο Πανεπιστήμιο Queen Mary του Λονδίνου, δήλωσε ότι τα συστήματα που πρότειναν χιλιάδες στόχους καθημερινά δημιούργησαν μια «προκατάληψη αυτοματοποίησης», δηλαδή έγιναν ουσιαστικά η τελική αυθεντία στις αποφάσεις. «Ο άνθρωπος έχει περιορισμένες γνωστικές ικανότητες για να υπερισχύσει αυτής της ικανότητας», είπε.
Υπήρχε επίσης μια «προκατάληψη δράσης», είπε, αναφερόμενη στην ταχεία απόφαση της μηχανής που δημιουργούσε μια επείγουσα ανάγκη για δράση. «Οι άνθρωποι χρειάζονται χρόνο για να σκεφτούν, και αυτή η σκέψη είναι ζωτικής σημασίας για τη νομική και ηθική αξιολόγηση».
Η ίδια τόνισε ότι 42 προτεινόμενοι στόχοι ανά ώρα είναι «πολλοί και γίνεται δύσκολο να αξιολογηθεί η εγκυρότητα όλων αυτών των στόχων όταν προτεραιότητα δίνεται στην ταχύτητα και την κλίμακα».
Οι ειδικοί στον τομέα αυτό φοβούνται για το μέλλον των συγκρούσεων και προειδοποιούν για «ερπυσμό των αποστολών». Η Σβαρτς επισήμανε ότι τα μελλοντικά συστήματα τεχνητής νοημοσύνης ίσως να εντοπίζουν όχι μόνο πιθανούς στόχους με ταχύτητα και σε μεγάλη κλίμακα, αλλά και «ύποπτες» συμπεριφορές ή κινήσεις, που στη συνέχεια θα μπορούσαν να πυροδοτήσουν προληπτικές επιθέσεις.
Η ίδια ανέφερε επίσης: «Πρέπει να θεωρήσουμε ότι η τεχνητή νοημοσύνη θα παίξει έναν ολοένα και μεγαλύτερο ρόλο στην απόφαση για χρήση βίας – στην απόφαση για έναρξη σύγκρουσης – και αυτό είναι τρομακτικό».
ΠΗΓΗ: Times Media Ltd / News
En