Οι deepfake απάτες έχουν γίνει μια από τις πιο επικίνδυνες μορφές κυβερνοεγκληματικότητας. Η Τεχνητή Νοημοσύνη επιτρέπει σε απατεώνες να δημιουργούν εξαιρετικά ρεαλιστικά πλαστά βίντεο διασημοτήτων. Πρόσφατα στατιστικά δείχνουν ότι οι απάτες με deepfake τεχνολογία αυξήθηκαν κατά 22% τον τελευταίο χρόνο. Αυτό τις καθιστά μία από τις ταχύτερα αναπτυσσόμενες μορφές διαδικτυακής εξαπάτησης.

Τι είναι τα Deepfake και πώς λειτουργούν οι απάτες με διασημότητες

Τα deepfake είναι ψηφιακά μέσα που δημιουργούνται με αλγόριθμους μηχανικής μάθησης. Η Τεχνητή Νοημοσύνη αντικαθιστά πρόσωπα ή φωνές σε υπάρχοντα βίντεο και ήχους. Αυτή η τεχνολογία μπορεί να δημιουργήσει εξαιρετικά ρεαλιστικά πλαστά μέσα που είναι πολύ δύσκολο να διακριθούν από τα αυθεντικά. Η AI αποκρυπτογραφεί κινήσεις και ομιλίες ενός ατόμου, «διαβάζει» δηλαδή τον τρόπο που κινείται όταν μιλάει και το ηχόχρωμα της φωνής του.

Οι απάτες με διασημότητες βασίζονται στη χρήση προηγμένης AI τεχνολογίας. Δημιουργούν ψεύτικα βίντεο ή ηχητικά μηνύματα που μοιάζουν ρεαλιστικά. Τα θύματα πιστεύουν ότι αλληλοεπιδρούν με μία γνωστή προσωπικότητα. Οι άνθρωποι αισθάνονται οικειότητα και θαυμασμό προς διασημότητες. Αυτό τους καθιστά πιο ευάλωτους στην εξαπάτηση.

Οι απάτες πραγματοποιούνται κυρίως μέσω ηλεκτρονικού ψαρέματος (phishing) με τους απατεώνες να χρησιμοποιούν deepfake για πλαστά βίντεο από γνωστά πρόσωπα. Αυτά τα πλαστά μέσα εξαπατούν θύματα να αποκαλύψουν προσωπικές πληροφορίες. Ζητούν επίσης μεταφορά χρημάτων.

Παράδειγμα deepfake απάτης:


Πέντε διάσημες deepfake
απάτες

5.Not authentic: Η φήμη του Έρικ Άισβερτ, διευθυντή σχολείου στο Μέριλαντ, δέχτηκε τεράστιο πλήγμα όταν ένα φτιαγμένο με Τεχνητή Νοημοσύνη ηχητικό απόσπασμα, στο οποίο παρουσιαζόταν να κάνει υποτιμητικά και ρατσιστικά σχόλια, διέρρευσε στο διαδίκτυο συγκεντρώνοντας εκατ. προβολές. Μέχρι να επιβεβαιωθεί από τις Αρχές ότι επρόκειτο για πλαστό, ο Έρικ δεχόταν καθημερινώς υβριστικά μηνύματα και απειλές θανάτου.

4.Στόχος κυβερνοεγκληματιών: Το 2024 ο CEO της WPP, Μαρκ Ριντ βρέθηκε στο στόχαστρο μιας περίτεχνης deepfake απάτης. Υποδυόμενοι τον Ριντ χρησιμοποιώντας έναν κλώνο φωνής και βίντεο του από το YouTube, οι απατεώνες δημιούργησαν μια συνάντηση στο Teams με στόχο να ζητήσουν χρήματα και προσωπικά στοιχεία από έναν agency leader της εταιρείας για μια νέα επιχείρηση. «Ευτυχώς οι επιτιθέμενοι δεν ήταν επιτυχείς», όπως είπε ο ίδιος.

3.Deepfake νοθεία: Χαρακτηριστικό παράδειγμα η περίπτωση μιας AI ρομποτικής κλήσης που υποδυόταν τον Τζο Μπάιντεν και ενθάρρυνε τους Δημοκρατικούς να μην ψηφίσουν στις προκριματικές εκλογές στο Νιου Χάμσαϊρ. Σύμφωνα με το Reuters , η Lingo Telecom, ο πάροχος φωνητικών υπηρεσιών που διένειμε τις AI ρομποκλήσεις μέσω «πλαστών» τηλεφωνικών αριθμών, συμφώνησε να πληρώσει πρόστιμο 1 εκατομμυρίου δολαρίων για το ρόλο της στην απάτη.

2.Biggest Scammer: Viral έγιναν το περασμένο έτος τα deepfake βίντεο με πρωταγωνιστή τον Έλον Μασκ. Πεπεισμένος για τη γνησιότητα τους, ο 82χρονος Στιβ Μποσαμπ εξάντλησε το συνταξιοδοτικό του ταμείο και επένδυσε 690.000 δολάρια σε μια τέτοια απάτη με τα χρήματα του να γίνονται καπνός. «Έμοιαζε με τον Έλον Μασκ, ακουγόταν σαν τον Έλον Μασκ», είπε η Χάιντι Σουάν η οποία μετέφερε 10.000 δολάρια σε απατεώνες πέφτοντας θύμα μιας διαφήμισης στα social.

1.Απάτη εκατομμυρίων: Στις αρχές του 2024 η βρετανική εταιρεία Αρούπ έπεσε θύμα απάτης, όταν ένας εργαζόμενος της πείστηκε να μεταφέρει ένα τεράστιο ποσό. Κατά τη διάρκεια μιας τηλεδιάσκεψης στην οποία συμμετείχαν deepfakes που υποδύονταν τον Οικονομικό Διευθυντή της εταιρείας και άλλους υπαλλήλους, ένα μέλος του προσωπικού πραγματοποίησε 15 συναλλαγές συνολικού ύψους 25 εκατ. δολαρίων σε 5 τραπεζικούς λογαριασμούς στο Χονγκ Κονγκ.


Πώς να αναγνωρίζετε μια d
eepfake απάτη

Η τεχνολογία των deepfake γίνεται ολοένα πιο εξελιγμένη γι΄αυτό είναι σημαντικό να υπάρχει επαγρύπνηση για τα εξής σημάδια:

Οπτικές Ανωμαλίες:

  • Θολές άκρες γύρω από το πρόσωπο
  • Ασυνέπειες στον φωτισμό
  • Περίεργες αντανακλάσεις
  • Λάθη στα μαλλιά, νύχια ή δόντια

Ηχητικά Προβλήματα:

  • Ο ήχος δε ταιριάζει με την κίνηση των χειλιών
  • Αφύσικος ρομποτικός τόνος
  • Υπερβολικά «καθαρός» και επεξεργασμένος ήχος

Χαμηλή Ποιότητα:

  • Τα deepfake μπορεί να έχουν χαμηλότερη ποιότητα εικόνας από αυθεντικά βίντεο.

Ασύμβατη Συμπεριφορά:

  • Περίεργη συμπεριφορά ή ακατάλληλες δηλώσεις που δεν ταιριάζουν με το άτομο.

Πώς μπορεί να κατασκευαστεί μια κλωνοποίηση φωνής


Τι να κάνετε σε περίπτωση που πέσετε θύμα

Εάν πιστεύετε ότι έχετε πέσει θύμα απάτης, αναφέρετε το περιστατικό στις αρμόδιες αρχές. Επικοινωνήστε με τον πάροχο υπηρεσιών σας.

Αλλάξτε άμεσα τους κωδικούς πρόσβασης για όλους τους λογαριασμούς σας. Παρακολουθείτε στενά τις τραπεζικές συναλλαγές για ενδείξεις απάτης.

Μην εμπιστεύεστε εύκολα άγνωστα άτομα ή αιτήματα για χρήματα. Δείτε ιδιαίτερη προσοχή σε αιτήματα που απαιτούν άμεση δράση. Οι deepfake απάτες συχνά δημιουργούν ψεύτικη επείγουσα ανάγκη.

 

Πώς να τις αποτρέψετε: Εργαλεία ανίχνευσης και κωδικοί ασφαλείας

Χρησιμοποιείτε ισχυρούς κωδικούς πρόσβασης και αποφεύγετε ύποπτους συνδέσμους. Ενεργοποιήστε την αυθεντικοποίηση δύο παραγόντων σε όλους τους λογαριασμούς. Ενημερώνετε τακτικά το λογισμικό ασφαλείας σας.

Υπάρχουν εξειδικευμένα εργαλεία που μπορούν να εντοπίσουν deepfake περιεχόμενο. Πολλοί browsers προσφέρουν επεκτάσεις για ανίχνευση πλαστού περιεχομένου. Η Τεχνητή Νοημοσύνη χρησιμοποιείται τόσο για δημιουργία όσο και για ανίχνευση deepfakes.

Ειδικοί στον τομέα της AI προτείνουν τη δημιουργία μυστικών κωδικών. Αυτοί οι προσωπικοί κωδικοί λειτουργούν ως τελευταία γραμμή άμυνας. Σε περίπτωση που κάποιος λάβει ύποπτο βίντεο ή κλήση, μπορεί να ζητήσει τον κωδικό επαλήθευσης. Οι deepfake απάτες δεν μπορούν να παρακάμψουν αυτή την προσωπική γνώση.




Η εξέλιξη των deepfake τεχνολογιών και οι μελλοντικοί κίνδυνοι

Η τεχνολογία deepfake εμφανίστηκε για πρώτη φορά το 2017 και έκτοτε έχει εξελιχθεί με εκθετικούς ρυθμούς. Οι πρώτες εφαρμογές απαιτούσαν εξειδικευμένο εξοπλισμό και προχωρημένες γνώσεις προγραμματισμού. Σήμερα, απλές εφαρμογές κινητών τηλεφώνων μπορούν να δημιουργήσουν βασικά deepfake.

Η δημοκρατικοποίηση αυτής της τεχνολογίας έχει αυξήσει σημαντικά τον κίνδυνο απάτων. Κυβερνοεγκληματίες χρησιμοποιούν πλέον εύκολα προσβάσιμα εργαλεία για τη δημιουργία πειστικών deepfake βίντεο. Νέοι αλγόριθμοι μπορούν να δημιουργήσουν πειστικά βίντεο με λιγότερα δεδομένα εκπαίδευσης. Η επεξεργασία σε πραγματικό χρόνο γίνεται όλο και πιο εφικτή.

Οι ειδικοί προβλέπουν ότι μέσα στα επόμενα πέντε χρόνια, τα deepfake θα είναι πρακτικά αδιάκριτα από αυθεντικό περιεχόμενο. Αυτό θα κάνει τις απάτες ακόμη πιο επικίνδυνες και δύσκολες στον εντοπισμό. Από την άλλη πλευρά, η ανάπτυξη αντίστοιχων τεχνολογιών ανίχνευσης προχωρά με βραδύτερους ρυθμούς.

Πέρα από τα βίντεο, οι deepfake τεχνολογίες επεκτείνονται σε νέους τομείς. Πλαστές φωνές γίνονται όλο και πιο συνηθισμένες στις απάτες αφού οι κλωνοποιήσεις μπορεί να γίνουν με λίγα δευτερόλεπτα ηχογράφησης.

Η Τεχνητή Νοημοσύνη επιτρέπει επίσης τη δημιουργία πλαστών γραπτών κειμένων που μιμούνται το στυλ συγγραφής συγκεκριμένων ατόμων. Αυτό ανοίγει νέες δυνατότητες για εξαπάτηση μέσω email και μηνυμάτων.

Συμπέρασμα: Οι deepfake απάτες εξελίσσονται σε πολυδιάστατες επιθέσεις.