Τεχνολογία

Τεχνητή νοημοσύνη η αλλιώς Al: Το χρονικό μιας προαναγγελθείσας κρίσης

Υπάρχουν πολλοί κίνδυνοι που σχετίζονται με την τεχνητή νοημοσύνη και άπτονται της καθημερινής μας ζωής. Αυτοί οι κίνδυνοι δεν είναι όλοι τόσο τρομακτικοί όσο κάποια «δολοφονικά ρομπότ» ή ενσυνείδητα συστήματα τεχνητής νοημοσύνης. Προς το παρόν οι κίνδυνοι έχουν να κάνουν με θέματα όπως η διασφάλιση προσωπικών δεδομένων, ο μεροληπτικός προγραμματισμός, ή ακόμη και η ρυθμιστική και κανονιστική  ασάφεια που υπάρχει γύρω από το ζήτημα. Ωστόσο, οι μελλοντικοί κίνδυνοι φαίνεται να αυξάνονται εκθετικά.

Τα συστήματα – προγράμματα τεχνητής νοημοσύνης είναι προγράμματα που τρέχουν πάνω σε μηχανές, και οι μηχανές φθείρονται, δυσλειτουργούν, ή απλά χαλάνε. Επίσης είναι και αυτά τεχνουργήματα, δηλαδή υπόκεινται στις μεροληψίες, τις προτιμήσεις και τις προκαταλήψεις αυτών που τα σχεδίασαν.

Από την επιστημονική φαντασία στην πραγματικότητα

Στο διήγημά του «Runaround», το 1942, ο Αμερικανός συγγραφέας επιστημονικής φαντασίας Ισαάκ Ασίμοφ διατύπωσε αυτό που ονόμασε Οι Τρεις Νόμοι της Ρομποτικής, που θα έπρεπε να διέπουν τις σχέσεις μεταξύ ανθρώπων και ρομπότ-σκεπτόμενων μηχανών:

  • Πρώτος νόμος – Ένα ρομπότ δεν μπορεί να βλάψει έναν άνθρωπο ή, μέσω της αδράνειάς του, να επιτρέψει να πάθει κακό κάποιος άνθρωπος.
  • Δεύτερος Νόμος – Ένα ρομπότ πρέπει να υπακούει στις εντολές που του δίνονται από τα ανθρώπινα όντα, εκτός εάν τέτοιες εντολές έρχονται σε αντίθεση με τον Πρώτο Νόμο.
  • Τρίτος Νόμος – Ένα ρομπότ πρέπει να προστατεύει την ύπαρξή του, εφόσον αυτή η αυτοπροστασία δεν έρχεται σε αντίθεση με τον Πρώτο ή τον Δεύτερο Νόμο.

Πολλοί ειδικοί πιστεύουν πλέον ότι χρειαζόμαστε ένα εξίσου σαφές και ολοκληρωμένο πλαίσιο αρχών για την προστασία της ανθρωπότητας από πιθανές καταχρήσεις τεχνητής νοημοσύνης.

Φωνές απ’ το παρελθόν

Το 1951, ο επιστήμονας υπολογιστών Άλαν Τούρινγκ έγραψε ένα άρθρο με τίτλο Ευφυής Μηχανή, Μια Αιρετική Θεωρία, στο οποίο υποστήριζε ότι η τεχνητή γενική νοημοσύνη πιθανότατα θα «έλεγχε» τον κόσμο καθώς θα γινόταν πιο ευφυής από τα ανθρώπινα όντα: «Ας υποθέσουμε τώρα, για λόγους επιχειρηματολογίας, ότι οι [ευφυείς] μηχανές είναι μια πραγματική δυνατότητα, και ας δούμε τις συνέπειες της κατασκευής τους… Δεν θα υπήρχε θέμα θανάτου των μηχανών και θα μπορούσαν να συνομιλούν η μια με την άλλη για να ακονίσουν το μυαλό τους. Σε κάποιο στάδιο, επομένως, θα πρέπει να περιμένουμε ότι οι μηχανές θα πάρουν τον έλεγχο, με τον τρόπο που αναφέρεται στο Erewhon του Samuel Butler».

Το 1965, ο I. Τ. Γκουντ εφηύρε την έννοια «έκρηξη πληροφοριών» τονίζοντας ότι οι κίνδυνοι υποτιμήθηκαν: «Ας ορίσουμε την υπερέξυπνη μηχανή ως μια μηχανή που μπορεί να ξεπεράσει κατά πολύ όλες τις πνευματικές δραστηριότητες οποιουδήποτε ανθρώπου όσο έξυπνος κι αν είναι… μια υπερέξυπνη μηχανή θα μπορούσε να σχεδιάσει ακόμα καλύτερες μηχανές…  μια «έκρηξη νοημοσύνης» και η νοημοσύνη του ανθρώπου θα έμενε πολύ πίσω. Έτσι, το πρώτο υπερέξυπνο μηχάνημα είναι η τελευταία εφεύρεση που χρειάζεται να κάνει ο άνθρωπος. Μερικές φορές αξίζει τον κόπο να παίρνετε στα σοβαρά την επιστημονική φαντασία.»

Στην εμβληματική ταινία «2001: Η Οδύσσεια του διαστήματος», ο Στάνλει Κιούμπρικ μας δείχνει ένα ενσυναίσθητο σύστημα τεχνητής νοημοσύνης, ονόματι HAL, που διαχειρίζεται ένα τεράστιο διαστημόπλοιο, το οποίο παθαίνει βλάβη. Όταν το διμελές πλήρωμα προσπαθεί να διορθώσει την βλάβη απενεργοποιώντας το τμήμα τεχνητής νοημοσύνης, ο HAL το αντιλαμβάνεται ως πρόβλημα επιβίωσης για αυτόν και προσπαθεί να τους σκοτώσει.

Αυξανόμενοι φόβοι

Το 2014, ο αείμνηστος καθηγητής Στίβεν Χόκιν απαντώντας σε ερώτηση του BBC σχετικά με την αναβαθμισμένη τεχνολογία που χρησιμοποιούσε για να επικοινωνεί, η οποία περιλάμβανε βασική μορφή τεχνητής νοημοσύνης, είπε στο BBC: «Η ανάπτυξη πλήρους τεχνητής νοημοσύνης θα μπορούσε να σημάνει το τέλος του ανθρώπινου είδους».

«Θα απογειωνόταν από μόνη της και θα επανασχεδιαζόταν με ολοένα αυξανόμενο ρυθμό… Οι άνθρωποι, που περιορίζονται από την αργή βιολογική εξέλιξη, δεν θα μπορούσαν να ανταγωνιστούν και θα αντικατασταθούν».

Το 2022, μια έρευνα ερευνητών τεχνητής νοημοσύνης διαπίστωσε ότι περισσότεροι από τους μισούς ερωτηθέντες, με ποσοστό ανταπόκρισης 17%, πίστευαν ότι υπάρχει πιθανότητα 10% ή μεγαλύτερη, η ανικανότητά μας να ελέγξουμε την τεχνητή νοημοσύνη να προκαλέσει υπαρξιακή καταστροφή.

Στα τέλη Μαρτίου, περισσότεροι από 1.000 leaders του κλάδου της τεχνολογίας, ερευνητές και άλλοι ειδικοί που εργάζονται στην τεχνητή νοημοσύνη και γύρω από αυτήν υπέγραψαν μια ανοιχτή επιστολή προειδοποιώντας ότι τεχνολογίες τεχνητής νοημοσύνης παρουσιάζουν «τεράστιους κινδύνους για την κοινωνία και την ανθρωπότητα».

Η υπογράφοντες προέτρεψαν τους δημιουργούς τεχνητής νοημοσύνης να σταματήσουν την ανάπτυξη των πιο ισχυρών συστημάτων τους για έξι μήνες, ώστε να κατανοήσουν καλύτερα τους κινδύνους πίσω από την τεχνολογία.

Η επιστολή, η οποία τώρα έχει πάνω από 27.000 υπογραφές, ήταν λιτή αλλά είχε εύρος. Και μερικά από τα ονόματα πίσω από την επιστολή φαινόταν να έχουν αντικρουόμενη σχέση με την τεχνητή νοημοσύνη. Το αφεντικό της Tesla και του Twitter Ίλον Μασκ, για παράδειγμα, φτιάχνει τη δική του start-up, τεχνητής νοημοσύνης και είναι ένας από τους κύριους δωρητές στον οργανισμό που έγραψε την επιστολή.

Οι φόβοι του σημαντικότερου επιστήμονα στο τομέα

Ο Δρ Γιόσουα Μπένιο που δούλεψε με τον Τζέφρι Χίντον, μέχρι πρόσφατα ερευνητή στην Google, και τον Γιαν ΛεΚουν, τώρα επικεφαλής τεχνητής νοημοσύνης στο Meta, ιδιοκτήτη του Facebook, και τιμήθηκε μαζί τους το 2018, με το βραβείο Turing, το «Βραβείο Νόμπελ υπολογιστών», για την εργασία τους στα νευρωνικά δίκτυα, είναι ίσως το πιο σημαντικό πρόσωπο που έχει υπογράψει την επιστολή.

Ο ερευνητής τόνισε την ανάγκη να μειωθεί η παρούσα επιτάχυνση της ανάπτυξης συστημάτων τεχνητής νοημοσύνης που πραγματοποιείται σε βάρος της αρχής της προφύλαξης και της ηθικής.

«Τώρα έχουμε συστήματα που μπορούν να αλληλεπιδράσουν μαζί μας μέσω της φυσικής γλώσσας και δεν μπορούμε να ξεχωρίσουμε το αληθινό από το ψεύτικο», είπε ο Δρ Μπένιο.

«Δεν υπάρχει καμία εγγύηση ότι κάποιος στο άμεσο μέλλον δεν θα αναπτύξει επικίνδυνα αυτόνομα συστήματα τεχνητής νοημοσύνης με συμπεριφορές που αποκλίνουν από τους ανθρώπινους στόχους και αξίες. Οι βραχυπρόθεσμοι και μεσοπρόθεσμοι κίνδυνοι –χειραγώγηση της κοινής γνώμης για πολιτικούς σκοπούς, ειδικά μέσω παραπληροφόρησης– είναι εύκολο να προβλεφθούν, σε αντίθεση με τους μακροπρόθεσμους κινδύνους – όπως συστήματα τεχνητής νοημοσύνης που είναι επιβλαβή παρά τους στόχους των προγραμματιστών» τονίζει ο Μπένιο στον δικό του ιστότοπο

Ο «νονός» της ΑΙ προειδοποιεί

Πριν μερικές μέρες ο πρωτοπόρος του κλάδου Δρ. Τζέφρι Χίντον, συχνά αποκαλούμενος και «νονός της τεχνητής νοημοσύνης» εγκατέλειψε τη δουλειά του στη Google, όπου εργάστηκε για περισσότερο από μια δεκαετία, ώστε να μπορεί να μιλήσει ελεύθερα για τους κινδύνους της τεχνητής νοημοσύνης. Ένα κομμάτι του εαυτού του, είπε, τώρα μετανιώνει για αυτό το έργο ζωής. «Παρηγορώ τον εαυτό μου με την κανονική δικαιολογία: Αν δεν το είχα κάνει εγώ, κάποιος άλλος θα το έκανε», είπε ο Δρ. Ο Χίντον είπε κατά τη διάρκεια συνέντευξης με τους NY Times.

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ

«Έφυγα για να μπορέσω να μιλήσω για τους κινδύνους της τεχνητής νοημοσύνης χωρίς να σκεφτώ πώς αυτό επηρεάζει την Google», έγραψε ο Χίντον στο Twitter

Πλέον πρεσβεύει δημόσια ότι οι μεγαλύτερες εταιρείες της βιομηχανίας τεχνολογίας που πιστεύουν ότι είναι το κλειδί για το μέλλον τους βαδίζουν ολοταχώς προς τον κίνδυνο με την επιθετική τους προώθηση δημιουργίςα προϊόντων που βασίζονται στη αναπαραγωγική τεχνητή νοημοσύνη, την τεχνολογία που τροφοδοτεί δημοφιλή chatbots όπως το ChatGPT.

Οι συμβουλές του Μασκ

Την πρωτομαγιά, ο Διευθύνων Σύμβουλος της Tesla, Ίλον Μασκ, προειδοποίησε ότι ακόμη και μια «καλοήθης εξάρτηση» από αυτά τα πολύπλοκα μηχανήματα μπορεί να απειλήσει τον πολιτισμό».

Δεν είναι η πρώτη φορά που ο Μασκ προειδοποιεί για αυτό τον κίνδυνο. «Αυτή είναι μια περίπτωση όπου υπάρχει πολύ σοβαρός κίνδυνος για το κοινό», είχε πει ο Ίλον Μασκ κατά τη διάρκεια της ομιλίας του στο τεχνολογικό συνέδριο SXSW το 2018. «Με τρομάζει φρικτά [η τεχνητή νοημοσύνη]… Είναι ικανή να κάνει πολύ περισσότερα από όσα γνωρίζουν σχεδόν όλοι και ο ρυθμός βελτίωσης της είναι εκθετικός».

Το σκεπτικό του Μασκ ήταν ότι η εξάρτηση από την τεχνητή νοημοσύνη όπως η εκτέλεση φαινομενικά απλών εργασιών μπορεί, με την πάροδο του χρόνου, να δημιουργήσει ένα περιβάλλον στο οποίο οι άνθρωποι ξεχνούν πώς να χειρίζονται τα μηχανήματα που επέτρεψαν την δημιουργία της τεχνητής νοημοσύνης

«Ακόμη και η καλοήθης εξάρτηση από την τεχνητή νοημοσύνη/αυτοματοποίηση είναι επικίνδυνη για τον πολιτισμό, αν φτάσει τόσο μακριά που τελικά ξεχνάμε πώς λειτουργούν οι μηχανές», έγραψε ο Μασκ στο Twitter.

Σε μια επόμενη ανάρτηση, ο Μασκ αναφέρεται στο δυστοπικό διήγημα του 1909 του E.M. Φόρστερ, «The Machine Stops», που προέβλεπε ένα μέλλον στο οποίο η ανθρωπότητα εξαρτάται υπερβολικά και υποτάσσεται στις μηχανές.

O Γιουβάλ Νόα Χαράρι προβλέπει το τέλος της ανθρωπότητας

«Η τεχνητή νοημοσύνη έχει αποκτήσει μερικές αξιοσημείωτες ικανότητες χειρισμού και δημιουργίας γλώσσας, είτε με λέξεις, ήχους ή εικόνες. Με τον τρόπο αυτόν έχει χακάρει το λειτουργικό σύστημα του πολιτισμού μας», έγραψε πρόσφατα ο φιλόσοφος και ιστορικός  Γιουβάλ Νόα Χαράρι.

Η γλώσσα είναι το υλικό από το οποίο αποτελείται σχεδόν όλος ο ανθρώπινος πολιτισμός, και με αυτή εκφράζονται άυλα δημιουργήματα και αφηρημένες έννοιες όπως τα ανθρώπινα δικαιώματα, και η θρησκεία, ακόμη και το χρήμα είναι πολιτιστικά αντικείμενα που δημιούργησε η ανθρωπότητα, τονίζει ο Χαράρι. «Τι θα συνέβαινε όταν μια μη ανθρώπινη νοημοσύνη γίνει καλύτερη από τον μέσο άνθρωπο στο να λέει ιστορίες, να συνθέτει μελωδίες, να σχεδιάζει εικόνες και να γράφει νόμους και γραφές;» αναρωτιέται ο κορυφαίος διανοητής.

«Τα νέα εργαλεία τεχνητής νοημοσύνης θα είχαν τεράστια επιρροή στις απόψεις και τις κοσμοθεωρίες μας. Οι άνθρωποι μπορεί να φτάσουν να χρησιμοποιούν έναν και μόνο σύμβουλο τεχνητής νοημοσύνης ως μαντείο-παντογνώστη» φοβάται ο Χαράρι.

Οι προτροπές του Ποντίφικα

Αναγνωρίζοντας τα πρακτικά οφέλη της επιστήμης και της τεχνολογίας, κατά την διάρκεια ετήσιας συγκέντρωσης υψηλού επιπέδου επιστημόνων και ειδικών «Minerva Dialogues», στα τέλη Μαρτίου, ο Πάπας Φραγκίσκος σημείωσε ότι, ««είμαι πεπεισμένος ότι η ανάπτυξη της τεχνητής νοημοσύνης και της μηχανικής μάθησης έχει τη δυνατότητα να συμβάλει με θετικό τρόπο στο μέλλον της ανθρωπότητας».

«Ταυτόχρονα», προειδοποίησε ο Ποντίφικας, «Είμαι βέβαιος ότι αυτή η δυνατότητα θα αξιοποιηθεί μόνο εάν υπάρχει σταθερή και συνεπής δέσμευση από την πλευρά αυτών που αναπτύσσουν αυτές τις τεχνολογίες να ενεργούν με ηθική και υπευθυνότητα… Είναι καθησυχαστικό να γνωρίζουμε ότι πολλοί άνθρωποι σε αυτούς τους τομείς εργάζονται για να διασφαλίσουν ότι η τεχνολογία παραμένει ανθρωποκεντρική, ηθικά γειωμένη και προσανατολισμένη προς το καλό».

Εξέφρασε την εκτίμησή του για τη συναίνεση που έχει προκύψει σχετικά με την ανάγκη «αναπτυξιακών διαδικασιών» να «σεβαστούν αξίες όπως η ένταξη, η διαφάνεια, η ασφάλεια, η ισότητα, η ιδιωτικότητα και η αξιοπιστία». Χαιρέτισε επίσης τις προσπάθειες διεθνών οργανισμών να ρυθμίσουν αυτές τις τεχνολογίες, ώστε «να προωθούν την πραγματική πρόοδο, συμβάλλοντας, δηλαδή, σε έναν καλύτερο κόσμο και μια αναπόσπαστα υψηλότερη ποιότητα ζωής».

Οι σοφοί μιλούν… αλλά ποιος ακούει;

Κάποιοι φοβούνται ότι, ανεξάρτητα από το πόσο ισχυρές φυσιογνωμίες  επισημαίνουν τους κινδύνους της τεχνητής νοημοσύνης, αρκετοί θα συνεχίσουν να πιέζουν για την ανάπτυξη της εάν μπορούν να βγάλουν χρήματα αυτή

Αλλά όπως προειδοποίησαν οι ερευνητές της τεχνητής νοημοσύνης του Πανεπιστημίου Στάνφορντ, Φέι-Φέι Λι και Τζον Ετσεμέντι σε μια ανάρτηση ιστολογίου του 2019:

«Οι δημιουργοί της τεχνητής νοημοσύνης πρέπει να αναζητήσουν τις γνώσεις, τις εμπειρίες και τις ανησυχίες ανθρώπων από διάφορες εθνικότητες, φύλα, πολιτισμούς και κοινωνικοοικονομικές ομάδες, καθώς και από άλλους τομείς, όπως η οικονομία, το δίκαιο, η ιατρική, η φιλοσοφία, η ιστορία, η κοινωνιολογία, οι επικοινωνίες. , αλληλεπίδραση ανθρώπου-υπολογιστή, ψυχολογία και Επιστήμες και Τεχνολογικές Σπουδές (STS)» ώστε να υπάρξει εθνική και παγκόσμια ηγεσία στη ρύθμιση της τεχνητής νοημοσύνης.

Ακολουθήστε το Πενταπόσταγμα στο Google news Google News

ΔΗΜΟΦΙΛΗ

Ένοπλες Συρράξεις 0

Σοκάρει ο ρωσικός πυραύλος Oreshnik! Η Ουκρανία παρουσίασε τα συντρίμμια του-"Πρώτη φορά ανακαλύπτεται κάτι τέτοιο"-(βίντεο-εικόνες)

Ο πύραυλος είχε έξι πολεμικές κεφαλές, καθεμία από τις οποίες έφερε έξι υποπυρομαχικά, και πετούσε με μέγιστη ταχύτητα...