Ενώ ο αμερικανικός στρατός είναι πρόθυμος να χρησιμοποιήσει τη τεχνητή νοημοσύνη, ο ανώτερος αξιωματούχος του Πενταγώνου που είναι υπεύθυνος για την επιτάχυνση των δυνατοτήτων τεχνητής νοημοσύνης προειδοποιεί ότι θα μπορούσε επίσης να γίνει το «τέλειο εργαλείο» για παραπληροφόρηση.
«Ναι, φοβάμαι μέχρι θανάτου. Αυτή είναι η άποψή μου», δήλωσε ο Κραιγκ Μαρτέλ (Craig Martell), επικεφαλής τεχνητής νοημοσύνης του Υπουργείου Άμυνας των ΗΠΑ, στο συνέδριο TechNet Cyber της AFCEA στη Βαλτιμόρη, όταν ρωτήθηκε για τις σκέψεις του σχετικά με τη τεχνητή νοημοσύνη.
Ο Μαρτέλ αναφερόταν συγκεκριμένα σε παραγωγικά μοντέλα γλώσσας τεχνητής νοημοσύνης, όπως το ChatGPT, τα οποία θέτουν ένα «συναρπαστικό πρόβλημα»: δεν κατανοούν το πλαίσιο και οι άνθρωποι θα εκλάβουν τα λόγια τους ως γεγονότα επειδή τα μοντέλα μιλούν αυθόρμητα, είπε ο Μαρτέλ.
«Εδώ είναι ο μεγαλύτερος φόβος μου για το ChatGPT», είπε. «Έχει εκπαιδευτεί να εκφράζεται με ευχέρεια. Μιλάει άπταιστα και αυθεντικά. Έτσι, το πιστεύετε ακόμα και όταν είναι λάθος… Και αυτό σημαίνει ότι είναι ένα τέλειο εργαλείο για παραπληροφόρηση… Χρειαζόμαστε πραγματικά εργαλεία για να μπορούμε να ανιχνεύουμε πότε συμβαίνει αυτό και να μπορούμε να προειδοποιούμε πότε συμβαίνει αυτό. Και δεν έχουμε αυτά τα εργαλεία», συνέχισε. «Είμαστε πίσω σε αυτόν τον αγώνα».
Ο Μαρτέλ, ο οποίος προσλήφθηκε στο Υπουργείο Άμυνας πέρυσι από τον ιδιωτικό τομέα, έχει μεγάλη εμπειρία στην τεχνητή νοημοσύνη. Πριν από την εργασία του στο CDAO, ήταν επικεφαλής μηχανικής μάθησης στα Lyft και Dropbox, ηγήθηκε πολλών ομάδων τεχνητής νοημοσύνης στο LinkedIn και ήταν καθηγητής στη Ναυτική Μεταπτυχιακή Σχολή για πάνω από μια δεκαετία μελετώντας τεχνητή νοημοσύνη για τον στρατό.
Παρακάλεσε τη βιομηχανία στο συνέδριο να δημιουργήσει τα απαραίτητα εργαλεία για να διασφαλίσει ότι οι πληροφορίες που παράγονται από όλα τα παραγωγικά μοντέλα τεχνητής νοημοσύνης — από τη γλώσσα έως τις εικόνες — είναι ακριβείς.
Η προειδοποίηση του Μαρτέλ έρχεται καθώς οι ηγέτες του Πενταγώνου προβλέπουν τρόπους χρήσης της γενετικής τεχνητής νοημοσύνης για συλλογή πληροφοριών και μελλοντικές πολεμικές συγκρούσεις. Την Τρίτη στο συνέδριο, ο υποστράτηγος Ρόμπερτ Σκίνερ, διευθυντής της Υπηρεσίας Αμυντικών Πληροφοριακών Συστημάτων (DISA), ξεκίνησε την κεντρική ομιλία του χρησιμοποιώντας μια τεχνητή νοημοσύνη που κλωνοποίησε τη φωνή του και εκφώνησε τις εναρκτήριες παρατηρήσεις του.
«Το Generative AI, είναι πιθανώς μια από τις πιο ενοχλητικές τεχνολογίες και πρωτοβουλίες εδώ και πολύ μεγάλο χρονικό διάστημα», είπε ο Σκίνερ αφού αποκάλυψε ότι η εισαγωγή του δημιουργήθηκε από την AI. «Αυτοί που το εκμεταλλεύονται και μπορούν να καταλάβουν πώς να το αξιοποιήσουν καλύτερα, αλλά και πώς να προστατευτούν καλύτερα από αυτό, θα είναι αυτοί που θα έχουν το υψηλό έδαφος».
Ο Στέφεν Γουάλας (Stephen Wallace), επικεφαλής τεχνολογίας της DISA, είπε ότι ο οργανισμός εξετάζει την αξιοποίηση της τεχνητής νοημοσύνης με διάφορους τρόπους, από «δυνατότητες back office… δημιουργία συμβολαίων, επισήμανση δεδομένων».