«Πρέπει να είμαστε προσεκτικοί εδώ», είπε ο 37χρονος Άλτμαν στο ABC News την περασμένη εβδομάδα, προσθέτοντας «νομίζω ότι οι άνθρωποι πρέπει να είναι χαρούμενοι που φοβόμαστε λίγο αυτό».
«Ανησυχώ ιδιαίτερα ότι αυτά τα μοντέλα θα μπορούσαν να χρησιμοποιηθούν για παραπληροφόρηση μεγάλης κλίμακας… Τώρα που γίνονται καλύτερα στη σύνταξη κώδικα υπολογιστή, [θα μπορούσαν] να χρησιμοποιηθούν για επιθετικές κυβερνοεπιθέσεις».
Τούτου λεχθέντος, ο Άλτμαν πιστεύει επίσης ότι θα μπορούσε να είναι «η μεγαλύτερη τεχνολογία που έχει αναπτύξει έως τώρα η ανθρωπότητα».
Η OpenAI είναι η εταιρεία πίσω από το Chat GPT, η οποία κυκλοφόρησε το "GPT-4" πριν από λιγότερο από δύο εβδομάδες. Το εξαιρετικά εξελιγμένο chatbot μπορεί να επιτύχει σχεδόν τέλειες βαθμολογίες στα μαθηματικά τεστ SAT και να επιτύχει 90% στις εξετάσεις δικηγόρων στις ΗΠΑ. Και έχει ανταγωνιστές...
Άλλες νεοσύστατες επιχειρήσεις που βασίζονται στην τεχνητή νοημοσύνη πραγματοποιούν εκπληκτικές προόδους και στον τομέα. Η RAD AI κυκλοφόρησε πρόσφατα την πρώτη πλατφόρμα μάρκετινγκ τεχνητής νοημοσύνης που κατασκευάστηκε για την κατανόηση των συναισθημάτων και μερικές από τις μεγαλύτερες εταιρείες στον πλανήτη τη χρησιμοποιούν ήδη.
Το GenesisAI είναι μια startup που δημιουργεί μια αγορά που επιτρέπει σε κάθε επιχείρηση να ενσωματώσει την τεχνητή νοημοσύνη και την αυτοματοποίηση στην επιχείρησή της. Αυτό σημαίνει ότι σύντομα η τεχνητή νοημοσύνη μπορεί να είναι εξίσου αναπόσπαστο μέρος μιας επιχείρησης όσο και οι ίδιοι οι εργαζόμενοι.
Σύμφωνα με τον Άλτμαν, ωστόσο, το ChatGPT-4 χρησιμοποιεί επαγωγικό συλλογισμό έναντι απομνημόνευσης, κάτι που μπορεί να οδηγήσει σε ανακριβή αποτελέσματα.
«Αυτό που προσπαθώ να προειδοποιήσω περισσότερο τους ανθρώπους είναι αυτό που ονομάζουμε «πρόβλημα των ψευδαισθήσεων»», είπε ο Άλτμαν στο ABC News. «Το μοντέλο θα δηλώσει με σιγουριά τα πράγματα σαν να ήταν γεγονότα (αλλά είναι εξ ολοκλήρου κατασκευασμένα)».
Ο Άλτμαν πιστεύει ότι υπάρχει ανάγκη για ρύθμιση της τεχνητής νοημοσύνης γενικά. «Θα υπάρξουν άλλοι άνθρωποι που δεν θέτουν κάποια από τα όρια ασφαλείας που θέτουμε», είπε. «Η κοινωνία, νομίζω, έχει περιορισμένο χρόνο για να καταλάβει πώς να αντιδράσει σε αυτό, πώς να το ρυθμίσει, πώς να το χειριστεί».
Ανησυχεί επίσης για το GPT-4 και παρόμοια τεχνητή νοημοσύνη ο Φανγκ Μπινγκσίνγκ, ο πατέρας του λεγόμενου Great Firewall της Κίνας. Σύμφωνα με τον Φανγκ, τέτοια chatbots μπορούν να οδηγήσουν σε ένα «κουκούλι πληροφοριών».
«Οι προοπτικές των ανθρώπων μπορούν να χειραγωγηθούν καθώς αναζητούν κάθε είδους απαντήσεις από την τεχνητή νοημοσύνη», είπε στο Red Star News, ένα θυγατρικό μέσων ενημέρωσης της Chengdu Economic Daily που υποστηρίζεται από το κράτος, όπως αναφέρει η SCMP.
Ο Φανγκ, ένας επιστήμονας υπολογιστών και πρώην κυβερνητικός αξιωματούχος, θεωρείται ευρέως ο επικεφαλής σχεδιαστής του διαβόητου συστήματος λογοκρισίας και παρακολούθησης του Διαδικτύου της Κίνας. Έπαιξε βασικό ρόλο στη δημιουργία και την ανάπτυξη του Great Firewall, ενός εξελιγμένου συστήματος φίλτρων και μπλοκ Διαδικτύου που επιτρέπει στην κινεζική κυβέρνηση να ελέγχει τι μπορούν να έχουν πρόσβαση οι πολίτες της στο διαδίκτυο.
Το Great Firewall έχει ενισχυθεί την τελευταία δεκαετία, εμποδίζοντας την πρόσβαση των Κινέζων διαδικτυακών χρηστών σε ένα ευρύ φάσμα ξένων ιστοσελίδων και διαδικτυακών υπηρεσιών, συμπεριλαμβανομένων των Facebook, Twitter και Google.
Ο Φανγκ προειδοποίησε επίσης ότι όταν η τεχνητή νοημοσύνη εξελιχθεί περαιτέρω, θα μπορούσε να αποτελέσει απειλή για την ανθρωπότητα.
«Τώρα είναι απλώς λογισμικό που χρησιμοποιείται σε ένα σενάριο διαδικτυακής συνομιλίας. Εάν ενσωματωθεί σε ρομπότ και αυτοκίνητα, πρέπει να παραμείνουμε σε επαγρύπνηση για την πιθανή βλάβη που θα μπορούσαν να προκαλέσουν στους ανθρώπους».