Ο σύμβουλος της ειδικής ομάδας για την Τεχνητή Νοημοσύνη του πρωθυπουργού του Ηνωμένου Βασιλείου δήλωσε ότι τα μεγάλα μοντέλα τεχνητής νοημοσύνης θα χρειαστούν ρύθμιση και έλεγχο τα επόμενα δύο χρόνια για να περιοριστούν οι μεγάλοι υπαρξιακοί κίνδυνοι.
Σε συνέντευξή του σε τοπικό μέσο ενημέρωσης του Ηνωμένου Βασιλείου, ο Ματ Κλίφορντ, ο οποίος είναι επίσης πρόεδρος του κυβερνητικού Οργανισμού Προηγμένης Έρευνας και Καινοτομίας (ARIA), τόνισε ότι τα σημερινά συστήματα γίνονται "όλο και πιο ικανά με ολοένα και αυξανόμενο ρυθμό".
Συνέχισε λέγοντας ότι αν οι αξιωματούχοι δεν εξετάσουν την ασφάλεια και τους κανονισμούς τώρα, τα συστήματα θα γίνουν "πολύ ισχυρά" σε δύο χρόνια. "Έχουμε δύο χρόνια για να θέσουμε σε εφαρμογή ένα πλαίσιο που καθιστά τόσο τον έλεγχο όσο και τη ρύθμιση αυτών των πολύ μεγάλων μοντέλων πολύ πιο εφικτό από ό,τι σήμερα".
Ο Κλίφορντ προειδοποίησε ότι υπάρχουν "πολλοί διαφορετικοί τύποι κινδύνων" όσον αφορά την τεχνητή νοημοσύνη, τόσο βραχυπρόθεσμα όσο και μακροπρόθεσμα, τους οποίους χαρακτήρισε "αρκετά τρομαχτικούς".
Η συνέντευξη ήρθε μετά από μια πρόσφατη ανοιχτή επιστολή που δημοσιεύθηκε από το Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης, την οποία υπέγραψαν 350 ειδικοί της Τεχνητής Νοημοσύνης, συμπεριλαμβανομένου του διευθύνοντος συμβούλου της OpenAI Σαμ Άλτμαν, και η οποία ανέφερε ότι η Τεχνητή Νοημοσύνη θα πρέπει να αντιμετωπίζεται ως υπαρξιακή απειλή παρόμοια με εκείνη των πυρηνικών όπλων και των πανδημιών.
"Μιλάνε για το τι θα συμβεί όταν ουσιαστικά δημιουργήσουμε ένα νέο είδος νοημοσύνης που είναι ισχυρότερης από των ανθρώπων".
Ο σύμβουλος της ειδικής ομάδας για την τεχνητή νοημοσύνη δήλωσε ότι αυτές οι απειλές που θέτει η τεχνητή νοημοσύνη θα μπορούσαν να είναι "πολύ επικίνδυνες".
Σύμφωνα με τον Κλίφορντ, η πρωταρχική εστίαση των ρυθμιστικών αρχών και των προγραμματιστών θα πρέπει να είναι η κατανόηση του τρόπου ελέγχου των μοντέλων και στη συνέχεια η εφαρμογή κανονισμών σε παγκόσμια κλίμακα.
Προς το παρόν, δήλωσε ότι ο μεγαλύτερος φόβος του είναι η έλλειψη κατανόησης του γιατί τα μοντέλα τεχνητής νοημοσύνης συμπεριφέρονται με τον τρόπο που συμπεριφέρονται. "Οι άνθρωποι που κατασκευάζουν τα πιο ικανά συστήματα παραδέχονται ελεύθερα ότι δεν καταλαβαίνουν ακριβώς πώς [τα συστήματα τεχνητής νοημοσύνης] παρουσιάζουν τις συμπεριφορές που παρουσιάζουν".
Ο Κλίφορντ υπογράμμισε ότι πολλοί από τους ηγέτες των οργανισμών που κατασκευάζουν AI συμφωνούν επίσης ότι τα ισχυρά μοντέλα AI πρέπει να υποβάλλονται σε κάποιου είδους διαδικασία ελέγχου και αξιολόγησης πριν από την ανάπτυξη.
Επί του παρόντος, οι ρυθμιστικές αρχές παγκοσμίως προσπαθούν να κατανοήσουν την τεχνολογία και τις επιπτώσεις της, ενώ παράλληλα προσπαθούν να δημιουργήσουν κανονισμούς που να προστατεύουν τους χρήστες και να επιτρέπουν την καινοτομία.
Στις 5 Ιουνίου, αξιωματούχοι της Ευρωπαϊκής Ένωσης έφτασαν στο σημείο να προτείνουν την υποχρεωτική επισήμανση όλου του περιεχομένου που παράγεται με τεχνητή νοημοσύνη, ώστε να αποτραπεί η παραπληροφόρηση.
Στο Ηνωμένο Βασίλειο, ένα πρωτοκλασάτο μέλος του Εργατικού Κόμματος της αντιπολίτευσης επανέλαβε τα αισθήματα που αναφέρονται στην επιστολή του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης, λέγοντας ότι η τεχνολογία θα πρέπει να ρυθμίζεται όπως η ιατρική και η πυρηνική ενέργεια.