Η ταχεία ανάπτυξη και υιοθέτηση της γενετικής τεχνητής νοημοσύνης– η οποία μπορεί να δημιουργήσει κείμενο, εικόνες και βίντεο σε δευτερόλεπτα- έχει προκαλέσει φόβους ότι η εν λόγω τεχνολογία μπορεί να χρησιμοποιηθεί για την εξαπάτηση των ψηφοφόρων. Νωρίτερα αυτόν τον μήνα, η Meta, η Microsoft η OpenAI και 17 άλλες εταιρείες τεχνολογίας συμφώνησαν να συνεργαστούν για να αποτρέψουν το παραπλανητικό περιεχόμενο τεχνητής νοημοσύνης. Ειδικότερα, θα στοχεύουν στα deepfakes, τεχνητά βίντεο που χρησιμοποιούν παραπλανητικό ήχο και εικόνα για να μιμηθούν επώνυμους ή για να δώσουν ψευδείς πληροφορίες.
Η πλατφόρμα κοινωνικής δικτύωσης TikTok ανακοίνωσε τον Φεβρουάριο ότι θα λανσάρει «εκλογικά κέντρα» στην εφαρμογή της, σε τοπικές γλώσσες για καθένα από τα 27 κράτη-μέλη της ΕΕ, τα οποία θα φιλοξενούν έγκυρες πληροφορίες.
Ο επικεφαλής των υποθέσεων ΕΕ της Meta, Μάρκο Παντσίνι, έγραψε σε ανάρτησή του στο blog της εταιρείας ότι θα συστήσει «ένα ειδικό εκλογικό κέντρο επιχειρήσεων για την ΕΕ» που θα «εντοπίζει πιθανές απειλές και θα μετριάζει το περιεχόμενο στις εφαρμογές και τεχνολογίες σε πραγματικό χρόνο».
«Από το 2016, έχουμε επενδύσει περισσότερα από 20 δισεκατομμύρια δολάρια στην ασφάλεια και έχουμε τετραπλασιάσει το μέγεθος της παγκόσμιας ομάδας μας που εργάζεται σε αυτόν τον τομέα σε περίπου 40.000 άτομα», είπε.
«Αυτό περιλαμβάνει 15.000 επιμελητές που αξιολογούν περιεχόμενο σε Facebook, Instagram και Threads σε περισσότερες από 70 γλώσσες – συμπεριλαμβανομένων και των 24 επίσημων γλωσσών της ΕΕ» πρόσθεσε.
Στο έργο αυτό συνεργάζονται εμπειρογνώμονες από διαφορετικές ομάδες σε όλη την εταιρεία, συμπεριλαμβανομένων εκείνων που εργάζονται στη μηχανική, την επιστήμη δεδομένων και τη νομοθεσία.
Ωστόσο, ο Deepak Padmanabhan από το Queen’s University του Μπέλφαστ, ο οποίος έχει συν-συγγράψει μια μελέτη για τις εκλογές και την τεχνητή νοημοσύνη, εκτιμά ότι η στρατηγική της εταιρείας είναι προβληματική και ελλιπής. Ένα από τα προβλήματα της στρατηγικής της Meta, σύμφωνα με τον ειδικό, είναι ο τρόπος με τον οποίο η εταιρεία σχεδιάζει να αντιμετωπίσει τις εικόνες που δημιουργούνται με τη βοήθεια της τεχνητής νοημοσύνης.
Για παράδειγμα, θα είναι δύσκολο να επιβεβαιωθεί ως αυθεντική μια φωτογραφία που απεικονίζει αγρότες να συγκρούονται με αστυνομικούς.
«Για να αποδείξουμε ότι είναι ψεύτικη θα πρέπει να είμαστε σίγουροι ότι το συγκεκριμένο γεγονός δεν συνέβη και ότι οι αστυνομικοί που απεικονίζονται δεν συγκρούστηκαν με τους αγρότες. Αυτό μπορεί να είναι ανέφικτο τόσο για την τεχνολογία όσο και για τους ανθρώπους», σημείωσε.
«Πώς μπορεί οποιαδήποτε τεχνολογία να καταλάβει αν είναι ψεύτικο ή πραγματικό; Επομένως, δεν είναι πολύ σαφές πόσο αποτελεσματική θα μπορούσε να είναι η στρατηγική της Meta για τη γενετική τεχνητή νοημοσύνη – υπάρχουν σοβαροί περιορισμοί» πρόσθεσε.
Η Meta, η οποία επί του παρόντος συνεργάζεται με 26 ανεξάρτητους οργανισμούς ελέγχου δεδομένων σε ολόκληρη την ΕΕ, δήλωσε ότι θα προσθέσει τρεις νέους εταίρους στη Βουλγαρία, τη Γαλλία και τη Σλοβακία.
Ο Παντσίνι τόνισε ότι το έργο της εταιρείας ήταν αποτέλεσμα συνεργασίας και ότι απαιτείται περαιτέρω συντονισμός στο μέλλον.
«Από τη στιγμή που το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη εμφανίζεται στο διαδίκτυο, συνεργαζόμαστε και με άλλες εταιρείες του κλάδου μας για κοινά πρότυπα και κατευθυντήριες γραμμές», είπε.
«Αυτό το έργο είναι μεγαλύτερο από οποιαδήποτε εταιρεία και θα απαιτήσει τεράστια προσπάθεια από τη βιομηχανία, την κυβέρνηση και την κοινωνία των πολιτών», κατέληξε ο Παντσίνι.