Ο Τζέφρι Χίντον (Geoffrey Hinton), ένας από τους τρεις θρυλικούς επιστήµονες υπολογιστών που έχουν γίνει γνωστοί ως οι νονοί της τεχνητής νοηµοσύνης (Artificial Intelligence), προειδοποιεί άλλη µια φορά ότι η ταχέως αναπτυσσόµενη και ελαφρώς ρυθµιζόµενη βιοµηχανία τεχνητής νοηµοσύνης αποτελεί απειλή για την ανθρωπότητα. Ο Χίντον είπε ότι οι άνθρωποι δεν καταλαβαίνουν τι έρχεται και πως υπάρχει 10 έως 20 τοις εκατό πιθανότητα η τεχνητή νοηµοσύνη τελικά να αφαιρέσει τον έλεγχο από τους ανθρώπους. Ήταν οι ιδέες του Χίντον που δηµιούργησαν τα τεχνικά θεµέλια που καθιστούν δυνατή τη δηµιουργία µοντέλων µεγάλης κλίµακας, όπως το ChatGPT, συµπεριλαµβανοµένου του πρώτου πρακτικού τρόπου εκπαίδευσης βαθιών στοιβών (deep stacks) τεχνητών νευρώνων από άκρο σε άκρο.

Νόµπελ Φυσικής

Μιλώντας σε συνέντευξη που έδωσε νωρίτερα αυτόν τον µήνα, η οποία µεταδόθηκε στο CBS το περασµένο Σάββατο το πρωί, ο Χίντον, ο οποίος κέρδισε από κοινού το βραβείο Νόµπελ Φυσικής πέρυσι, εξέδωσε µια προειδοποίηση σχετικά µε την κατεύθυνση στην οποία οδεύει η ανάπτυξη της τεχνητής νοηµοσύνης. «Ο καλύτερος τρόπος για να το καταλάβουµε συναισθηµατικά είναι να είµαστε σαν κάποιον που έχει αυτό το πολύ χαριτωµένο τιγράκι», είπε ο Χίντον. «Εκτός αν µπορείς να είσαι απόλυτα σίγουρος ότι δεν θα θέλει να σε σκοτώσει όταν µεγαλώσει, θα πρέπει να ανησυχείς». . . «Ο κόσµος δεν το έχει καταλάβει ακόµα, ο κόσµος δεν έχει καταλάβει τι έρχεται», προειδοποίησε. Παρά τη συµβολή του στην τεχνολογία, ο Χίντον προειδοποιεί εδώ και καιρό για το τι θα µπορούσε να συµβεί εάν η ανάπτυξη της τεχνητής νοηµοσύνης συνεχιστεί µε ταχύτητα και χωρίς διασφαλίσεις.

Έφυγε από την Google το 2023, ώστε να µπορεί να µιλάει για τους κινδύνους της χωρίς να επηρεάζει την εταιρεία στην οποία εργαζόταν. «∆είτε πώς ήταν πριν από πέντε χρόνια και πώς είναι τώρα», είπε ο Χίντον για την κατάσταση της τεχνητής νοηµοσύνης εκείνη την εποχή. «Πάρτε τη διαφορά και διαδώστε τη προς τα εµπρός. Αυτό είναι τροµακτικό», πρόσθεσε. Ο καθηγητής έχει επίσης επανειληµµένως εκφράσει ανησυχίες ότι η τεχνητή νοηµοσύνη θα µπορούσε να προκαλέσει ένα συµβάν επιπέδου εξαφάνισης, ειδικά καθώς η τεχνολογία βρίσκει ολοένα και περισσότερο τον δρόµο της σε στρατιωτικά όπλα και οχήµατα. Ο Χίντον είπε ότι ο κίνδυνος είναι οι εταιρείες τεχνολογίας να αποφεύγουν την ασφάλεια υπέρ τού να ξεπερνούν τους ανταγωνιστές στην αγορά και να φτάνουν σε τεχνολογικά ορόσηµα. «Βρίσκοµαι στη δυσάρεστη θέση να συµφωνώ µε τον Έλον Μασκ σε αυτό, ότι δηλαδή υπάρχει 10 έως 20 τοις εκατό πιθανότητα αυτά τα πράγµατα να κυριαρχήσουν, αλλά αυτή είναι απλώς µια αβάσιµη εικασία», είπε ο Χίντον. Ενώ πλέον περνάει περισσότερο χρόνο µαχόµενος την τεχνητή νοηµοσύνη στα δικαστήρια και προωθώντας το δικό του Grok ως chatbot, ο Mασκ µιλούσε συχνά για την υπαρξιακή απειλή που αυτή θέτει.

Ο Χίντον επανέλαβε τις ανησυχίες του σχετικά µε το γεγονός ότι οι εταιρείες τεχνητής νοηµοσύνης δίνουν προτεραιότητα στα κέρδη έναντι της ασφάλειας. «Αν κοιτάξετε τι κάνουν οι µεγάλες εταιρείες αυτή τη στιγµή - ασκούν πιέσεις για να επιτύχουν λιγότερη ρύθµιση για την τεχνητή νοηµοσύνη. ∆εν υπάρχει σχεδόν καθόλου ρύθµιση αυτή τη στιγµή, αλλά θέλουν λιγότερη», είπε. Ο Χίντον πιστεύει ότι οι εταιρείες θα πρέπει να αφιερώσουν πολύ περισσότερο από τη διαθέσιµη υπολογιστική ισχύ τους, περίπου το ένα τρίτο, στην έρευνα για την ασφάλεια, αντί για το ελάχιστο κλάσµα που διατίθεται σήµερα. Ο ίδιος είναι επίσης ιδιαίτερα απογοητευµένος από την Google, που αθέτησε τον λόγο της να µην επιτρέψει ποτέ τη χρήση της τεχνητής νοηµοσύνης για στρατιωτικές εφαρµογές. Η εταιρεία, η οποία δεν χρησιµοποιεί πλέον το σύνθηµα «Μην είσαι κακός», έκανε αλλαγές στην πολιτική της για την τεχνητή νοηµοσύνη νωρίτερα φέτος, ανοίγοντας τον δρόµο για τη χρήση της τεχνολογίας της σε στρατιωτικά όπλα.

Ασυδοσία

Ο νονός της τεχνητής νοηµοσύνης δεν είναι κατά της. Όπως και ο Μπιλ Γκέιτς, πιστεύει ότι η τεχνολογία θα µπορούσε να µεταµορφώσει την εκπαίδευση, την ιατρική, την επιστήµη και ενδεχοµένως να λύσει το πρόβληµα της κλιµατικής αλλαγής - δηλαδή της κρίσης που οφείλεται στην ασυδοσία του χυδαίου καπιταλισµού, για να ξέρουµε τι λέµε. Την ποικιλία της επιστηµονικής τριάδας σφραγίζει ο καθηγητής Γιαν Λεκάν (Yann LeCun), ο τρίτος από τους τρεις νονούς της τεχνητής νοηµοσύνης, ο οποίος ανησυχεί λιγότερο για την ταχεία ανάπτυξή της, έχοντας δηλώσει ήδη από το 2023 ότι η υποτιθέµενη απειλή για την ανθρωπότητα είναι «απαράδεκτα γελοία». Κάποιοι πάντως θα έλεγαν ότι το θέµα µάλλον είναι απαράδεκτα εφιαλτικό.