Τεχνητή νοημοσύνη: "Παγκόσμια μάστιγα οι εφαρμογές που γδύνουν γυναίκες χωρίς τη συναίνεσή τους"
Σύμφωνα με το Bloomberg, μόνο τον Σεπτέμβριο 24 εκατ. άνθρωποι επισκέφθηκαν ιστοσελίδες τεχνητής νοημοσύνης που παρείχαν τέτοιες υπηρεσίες, σύμφωνα με εταιρεία ανάλυσης κοινωνικών δικτύων
Αυξάνεται ραγδαία η επισκεψιμότητα σε εφαρμογές και ιστοσελίδες που χρησιμοποιούν τεχνητή νοημοσύνη για να γδύσουν γυναικείες φωτογραφίες.
Σύμφωνα με την εταιρεία ανάλυσης κοινωνικών δικτύων Graphika, μόνο τον Σεπτέμβριο 24 εκατομμύρια άνθρωποι επισκέφθηκαν ιστοσελίδες που παρείχαν τέτοιες υπηρεσίες. Παράλληλα, από τις αρχές του 2023, ο αριθμός των συνδέσμων στο διαδίκτυο που διαφημίζουν εφαρμογές που γδύνουν γυναίκες αυξήθηκε πάνω από 2.400% σε μέσα κοινωνικής δικτύωσης, όπως ανέφεραν οι ερευνητές.
Σύμφωνα με το Bloomberg, αυτές οι εφαρμογές αποτελούν μέρος μιας ανησυχητικής τάσης μη συναινετικής πορνογραφίας που αναπτύσσεται και διανέμεται λόγω της προόδου της τεχνητής νοημοσύνης, που είναι γνωστό ως deepfake πορνογραφία. Η διάδοσή της προσκρούει σε σοβαρά νομικά και ηθικά εμπόδια, καθώς οι εικόνες συχνά λαμβάνονται από τα μέσα κοινωνικής δικτύωσης και διανέμονται χωρίς τη συγκατάθεση, τον έλεγχο ή τη γνώση του ατόμου.
«Βλέπουμε ότι όλο και περισσότερα από αυτά γίνονται από συνηθισμένους ανθρώπους», δήλωσε η Εύα Γκάλπεριν, διευθύντρια κυβερνοασφάλειας στο Electronic Frontier Foundation. «Το βλέπουμε μεταξύ μαθητών και φοιτητών». Πολλά από τα θύματα δεν μαθαίνουν ποτέ για την αλλοίωση των φωτογραφιών τους, αλλά ακόμη κι αν το μάθουν, καθίσταται δύσκολο να ερευνηθεί το θέμα ή να χρηματοδοτηθεί μια ενδεχόμενη παραπομπή της υπόθεσης στη Δικαιοσύνη, πρόσθεσε η Γκάλπεριν.
Εκπρόσωπος της Google δήλωσε ότι η εταιρεία δεν επιτρέπει διαφημίσεις «που περιέχουν σεξουαλικό περιεχόμενο. Εξετάσαμε τις εν λόγω διαφημίσεις και αφαιρούμε όσες παραβιάζουν τις πολιτικές μας». Από την πλευρά τους, το X και το Reddit δεν έχουν απαντήσει σε αιτήματα για σχολιασμό.
Η μη συναινετική πορνογραφία δημόσιων προσώπων αποτελεί εδώ και καιρό μάστιγα του διαδικτύου, αλλά οι ειδικοί σε θέματα προστασίας της ιδιωτικής ζωής ανησυχούν ολοένα και περισσότερο για το γεγονός ότι οι εξελίξεις στην τεχνολογία τεχνητής νοημοσύνης έχουν καταστήσει το λογισμικό deepfake ευκολότερο.
Πριν από μερικές ημέρες στη χώρα μας αποκαλύφθηκε έπειτα από την καταγγελία που έκανε στις Αρχές ο διευθυντής του 1ου Γυμνασίου Ναυπάκτου ότι ένας 13χρονος μαθητής δημιούργησε μέσω εφαρμογής γυμνές φωτογραφίες μαθητριών και τις έδειχνε σε άλλους μαθητές.
Στο πλαίσιο της προανάκρισης, κατέθεσε σχετικά στις Αρχές και ο πατέρας μιας μαθήτριας, ο οποίος κατήγγειλε ότι, όπως πληροφορήθηκε από την κόρη του, ο 13χρονος μαζί με ακόμη έναν συμμαθητή του δημιουργούν μέσω εφαρμογής γυμνές φωτογραφίες με τα πρόσωπα διάφορων ανήλικων μαθητριών του γυμνασίου, μία εκ των οποίων και η κόρη του, 13 ετών.
Από την έρευνα της ΕΛ.ΑΣ. προέκυψε ότι τον τελευταίο μήνα οι δύο μαθητές μέσω συγκεκριμένης εφαρμογής δημιουργούσαν γυμνές φωτογραφίες κοριτσιών, αφαιρώντας τους τα ρούχα, και τις διαμοίραζαν σε διάφορα άτομα. Επιπλέον προέκυψε ότι ένας από τους δύο 13χρονους ήταν μέλος σε ιδιωτικό γκρουπ στο Telegram, όπου διακινούνταν πορνογραφικό υλικό κοριτσιών και γυναικών.
Σύμφωνα με την εταιρεία ανάλυσης κοινωνικών δικτύων Graphika, μόνο τον Σεπτέμβριο 24 εκατομμύρια άνθρωποι επισκέφθηκαν ιστοσελίδες που παρείχαν τέτοιες υπηρεσίες. Παράλληλα, από τις αρχές του 2023, ο αριθμός των συνδέσμων στο διαδίκτυο που διαφημίζουν εφαρμογές που γδύνουν γυναίκες αυξήθηκε πάνω από 2.400% σε μέσα κοινωνικής δικτύωσης, όπως ανέφεραν οι ερευνητές.
Bloomberg: Η διάδοση της deepfake πορνογραφίας προσκρούει σε σοβαρά νομικά και ηθικά εμπόδια
Σύμφωνα με το Bloomberg, αυτές οι εφαρμογές αποτελούν μέρος μιας ανησυχητικής τάσης μη συναινετικής πορνογραφίας που αναπτύσσεται και διανέμεται λόγω της προόδου της τεχνητής νοημοσύνης, που είναι γνωστό ως deepfake πορνογραφία. Η διάδοσή της προσκρούει σε σοβαρά νομικά και ηθικά εμπόδια, καθώς οι εικόνες συχνά λαμβάνονται από τα μέσα κοινωνικής δικτύωσης και διανέμονται χωρίς τη συγκατάθεση, τον έλεγχο ή τη γνώση του ατόμου.
«Βλέπουμε ότι όλο και περισσότερα από αυτά γίνονται από συνηθισμένους ανθρώπους», δήλωσε η Εύα Γκάλπεριν, διευθύντρια κυβερνοασφάλειας στο Electronic Frontier Foundation. «Το βλέπουμε μεταξύ μαθητών και φοιτητών». Πολλά από τα θύματα δεν μαθαίνουν ποτέ για την αλλοίωση των φωτογραφιών τους, αλλά ακόμη κι αν το μάθουν, καθίσταται δύσκολο να ερευνηθεί το θέμα ή να χρηματοδοτηθεί μια ενδεχόμενη παραπομπή της υπόθεσης στη Δικαιοσύνη, πρόσθεσε η Γκάλπεριν.
Εκπρόσωπος της Google δήλωσε ότι η εταιρεία δεν επιτρέπει διαφημίσεις «που περιέχουν σεξουαλικό περιεχόμενο. Εξετάσαμε τις εν λόγω διαφημίσεις και αφαιρούμε όσες παραβιάζουν τις πολιτικές μας». Από την πλευρά τους, το X και το Reddit δεν έχουν απαντήσει σε αιτήματα για σχολιασμό.
Η μη συναινετική πορνογραφία δημόσιων προσώπων αποτελεί εδώ και καιρό μάστιγα του διαδικτύου, αλλά οι ειδικοί σε θέματα προστασίας της ιδιωτικής ζωής ανησυχούν ολοένα και περισσότερο για το γεγονός ότι οι εξελίξεις στην τεχνολογία τεχνητής νοημοσύνης έχουν καταστήσει το λογισμικό deepfake ευκολότερο.
Μαθητές γυμνασίου στη Ναύπακτο διαμοίραζαν ψεύτικες γυμνές φωτογραφίες συμμαθητριών τους
Πριν από μερικές ημέρες στη χώρα μας αποκαλύφθηκε έπειτα από την καταγγελία που έκανε στις Αρχές ο διευθυντής του 1ου Γυμνασίου Ναυπάκτου ότι ένας 13χρονος μαθητής δημιούργησε μέσω εφαρμογής γυμνές φωτογραφίες μαθητριών και τις έδειχνε σε άλλους μαθητές.
Στο πλαίσιο της προανάκρισης, κατέθεσε σχετικά στις Αρχές και ο πατέρας μιας μαθήτριας, ο οποίος κατήγγειλε ότι, όπως πληροφορήθηκε από την κόρη του, ο 13χρονος μαζί με ακόμη έναν συμμαθητή του δημιουργούν μέσω εφαρμογής γυμνές φωτογραφίες με τα πρόσωπα διάφορων ανήλικων μαθητριών του γυμνασίου, μία εκ των οποίων και η κόρη του, 13 ετών.
Από την έρευνα της ΕΛ.ΑΣ. προέκυψε ότι τον τελευταίο μήνα οι δύο μαθητές μέσω συγκεκριμένης εφαρμογής δημιουργούσαν γυμνές φωτογραφίες κοριτσιών, αφαιρώντας τους τα ρούχα, και τις διαμοίραζαν σε διάφορα άτομα. Επιπλέον προέκυψε ότι ένας από τους δύο 13χρονους ήταν μέλος σε ιδιωτικό γκρουπ στο Telegram, όπου διακινούνταν πορνογραφικό υλικό κοριτσιών και γυναικών.