Το Ίδρυμα Internet Watch Foundation (IWF) δήλωσε ότι βρήκε σχεδόν 3.000 εικόνες κακοποίησης που δημιουργήθηκαν από τεχνητή νοημοσύνη και παραβίαζαν τη νομοθεσία του Ηνωμένου Βασιλείου.
Η οργάνωση με έδρα στο Ηνωμένο Βασίλειο είπε ότι υπάρχουσες εικόνες θυμάτων κακοποίησης στην πραγματική ζωή ενσωματώνονται σε μοντέλα τεχνητής νοημοσύνης, τα οποία στη συνέχεια παράγουν νέες απεικονίσεις τους.
Σύμφωνα με την οργάνωση, η τεχνολογία αυτή χρησιμοποιήθηκε επίσης για τη δημιουργία εικόνων διασημοτήτων που έχουν «απογηρανθεί» και στη συνέχεια απεικονίζονται ως παιδιά σε σενάρια σεξουαλικής κακοποίησης. Άλλα παραδείγματα υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) περιελάμβαναν τη χρήση εργαλείων τεχνητής νοημοσύνης για «εκγύμνωση» εικόνων ντυμένων παιδιών που βρέθηκαν στο διαδίκτυο.
Η IWF είχε προειδοποιήσει το καλοκαίρι ότι είχαν αρχίσει να εμφανίζονται αποδεικτικά στοιχεία για κατάχρηση της τεχνητής νοημοσύνης, αλλά είπε ότι η τελευταία έκθεσή της είχε δείξει επιτάχυνση στη χρήση της τεχνολογίας. Η Σούζι Χαργκρέιβς, διευθύνουσα σύμβουλος της IWF, είπε ότι οι χειρότεροι εφιάλτες της οργάνωσης έγιναν πραγματικότητα.
«Νωρίτερα αυτό το έτος, προειδοποιήσαμε ότι οι εικόνες τεχνητής νοημοσύνης θα μπορούσαν σύντομα να γίνουν δυσδιάκριτες από τις πραγματικές εικόνες παιδιών που υποφέρουν από σεξουαλική κακοποίηση και ότι θα μπορούσαμε να αρχίσουμε να βλέπουμε αυτές τις εικόνες να πολλαπλασιάζονται σε πολύ μεγαλύτερους αριθμούς. Τώρα έχουμε ξεπεράσει αυτό το σημείο», είπε σύμφωνα με τη Guardian.
«Είναι ανατριχιαστικό, βλέπουμε εγκληματίες να χρησιμοποιούν σκόπιμα την τεχνητή νοημοσύνη σε εικόνες πραγματικών θυμάτων που έχουν ήδη υποστεί κακοποίηση. Παιδιά που έχουν βιαστεί στο παρελθόν ενσωματώνονται τώρα σε νέα σενάρια επειδή κάποιος, κάπου, θέλει να το δει».
Η IWF είπε ότι είχε δει επίσης στοιχεία για εικόνες που δημιουργήθηκαν από τεχνητή νοημοσύνη να πωλούνται στο διαδίκτυο.
Τα τελευταία ευρήματά της βασίστηκαν σε μια έρευνα που κράτησε ένα μήνα σε ένα φόρουμ κακοποίησης παιδιών στο σκοτεινό ιστό (dark web), ένα τμήμα του Διαδικτύου το οποίο μπορεί να προσπελαστεί μόνο από ένα ειδικό πρόγραμμα περιήγησης.
Διερεύνησε 11.108 εικόνες στο φόρουμ, με 2.978 από αυτές να παραβιάζουν τη βρετανική νομοθεσία απεικονίζοντας σεξουαλική κακοποίηση παιδιών.
Το υλικό που δημιουργείται από την τεχνητή νοημοσύνη (CSAM) είναι παράνομο σύμφωνα με τον Νόμο για την Προστασία των Παιδιών του 1978, ο οποίος ποινικοποιεί τη λήψη, τη διανομή και την κατοχή «άσεμνης φωτογραφίας ή ψεύτικων φωτογραφιών» παιδιού. Η IWF είπε ότι η συντριπτική πλειονότητα του παράνομου υλικού που είχε βρει παραβιάζει τον νόμο περί προστασίας των παιδιών, με περισσότερες από μία στις πέντε από αυτές τις εικόνες να ταξινομούνται ως κατηγορία Α, το πιο σοβαρό είδος περιεχομένου που μπορεί να απεικονίσει βιασμό και σεξουαλικό βασανιστήριο.
Η οργάνωση φοβάται ότι ένα κύμα αυτού του υλικού που δημιουργείται από την τεχνητή νοημοσύνη θα αποσπάσει την προσοχή των Αρχών από τον εντοπισμό πραγματικής κακοποίησης και την παροχή βοήθειας στα θύματα.
«Αν δεν καταλάβουμε αυτήν την απειλή, αυτό το υλικό απειλεί να κατακλύσει το Διαδίκτυο», είπε η Χάργκρειβς.