Κόσμος

Προειδοποίηση από κορυφαίο ειδικό! Είμαστε πιο κοντά από ποτέ σε οικονομικό κραχ και σε πυρηνικό αφανισμό

 Ποια σενάρια μπορεί να εκτυλιχτούν τους επόμενους μήνες και χρόνια, καθώς τα εξαιρετικά προηγμένα, αυτόνομα μοντέλα όπως το o1 του OpenAI ενσωματώνονται στις κεφαλαιαγορές — και δυνητικά αξιοποιούνται ή οπλίζονται στην παγκόσμια οικονομία.

Τα συστήματα τεχνητής νοημοσύνης γίνονται όλο και πιο ισχυρά και, όπως λένε πολλοί επικριτές, όλο και πιο δύσκολα ελέγξιμα

Σήμερα, οι εφαρμογές της τεχνητής νοημοσύνης στις υπηρεσίες του αμερικανικού Πενταγώνου έχουν σαφώς επεκταθεί.

Περιλαμβάνουν καθημερινές λειτουργίες, όπως η χρήση του ChatGPT.

Όμως το μέλλον, γράφει το Undark, επιφυλάσσει υψηλότερα και πιο εντυπωσιακά διακυβεύματα.

Σε αυτά συγκαταλέγονται τα θανατηφόρα αυτόνομα οπλικά συστήματα και πλήρης ενσωμάτωση της ΑΙ σε άρματα μάχης και σε μη επανδρωμένα αεροσκάφη.

Σε εξέλιξη είναι επίσης οι έρευνες για το πρόγραμμα JADC2, το οποίο στοχεύει στη συγκέντρωση και ομαδοποίηση δεδομένων από όλες τις Ένοπλες Δυνάμεις των ΗΠΑ.

Ένα ενοποιημένο σύστημα, που θα μπορούσε ωστόσο να είναι πιο ευάλωτο, όπως π.χ. σε κυβερνοεπιθέσεις.

Αυτά, ενώ ο διεθνής ανταγωνισμός για τη στρατιωτική χρήση της τεχνητής νοημοσύνης εντείνεται…

 Ο Jim Rickards είναι ο συντάκτης του ενημερωτικού δελτίου Strategic Intelligence και συγγραφέας πολλών βιβλίων που πρέπει να διαβάσετε. Είναι επίσης επενδυτικός σύμβουλος, δικηγόρος, εφευρέτης και οικονομολόγος. Σε αυτήν την ειδική έκδοση του Financial Sense Newshour , ο Jim επισημαίνει τις ευκαιρίες και τους κινδύνους που θέτει ο αυξανόμενος ρόλος της AI στις στρατηγικές συναλλαγών, στη διαχείριση κινδύνου και στη λήψη αποφάσεων στις κεφαλαιαγορές, όπως αναφέρει το financialsense.com

Ειδικότερα, στο νέο του βιβλίο με τίτλο «Money GPT: AI και η Απειλή για την Παγκόσμια Οικονομία», ο Rickards εξηγεί τις καταστροφές που θα μπορούσε να προκαλέσει το AI, από τον οικονομικό τομέα έως τον πυρηνικό πόλεμο.

Μια κατάρρευση του Χρηματιστηρίου είναι κακή, ωστόσο ο Πυρηνικός Αφανισμός είναι πολύ χειρότερος, υποστηρίζει σε συνέντευξή του ο γνωστός αναλυτής και συγγραφέας επτά οικονομικών best-sellers Jim Rickards, προτρέποντας: «Μη βάλετε το AI (τεχνητή νοημοσύνη) στην αλυσίδα του θανάτου»

Ειδικότερα, στο νέο του βιβλίο με τίτλο «Money GPT: AI και η Απειλή για την Παγκόσμια Οικονομία», ο Rickards εξηγεί τις καταστροφές που θα μπορούσε να προκαλέσει το AI, από τον οικονομικό τομέα έως τον πυρηνικό πόλεμο.

Ο Rickards λέει: «Στο μεγαλύτερο χρηματιστήριο του κόσμου, στη Wall Street, περίπου πέντε μετοχές αποτελούν πάνω από το 40% του δείκτη S&P 500.
Σχεδόν όλα αυτά τα κέρδη προέρχονται από εταιρείες που σχετίζονται με το AI: Nvidia, AMD, Microsoft, Apple, Facebook/Meta και Google.

Τα ονόματά τους είναι γνωστά. Η αγορά ανεβαίνει λόγω της AI, και κανείς δεν θέλει να πει κάτι αρνητικό για αυτήν.
Έχω μελετήσει το θέμα πολύ προσεκτικά, και υπάρχουν τεράστιοι κίνδυνοι για τους επενδυτές τους οποίου οφείλουν να γνωρίζουν.
Αν υπάρξει κατάρρευση, θα γράψει Ιστορία, επειδή το AI θα την επιταχύνει».

Σε έναν κόσμο που κινείται από το AI, τα πράγματα θα γίνουν χειρότερα, ιδιαίτερα όταν πρόκειται για πυρηνικό πόλεμο.
Το AI μπορεί και θα επιταχύνει και αυτόν τον τομέα. Ο Rickards εξηγεί:
«Δεν μπορείς να διδάξεις σε έναν υπολογιστή κοινή λογική.
Μπορείς να τον διδάξεις κανόνες. Μπορείς να τον κάνεις να ανέβει την κλίμακα κλιμάκωσης για πόλεμο.

Μια κατάρρευση του χρηματιστηρίου είναι αρκετά κακή, αλλά ο πυρηνικός αφανισμός είναι πολύ χειρότερος.
Προσφέρω εποικοδομητικές συμβουλές στο βιβλίο λέγοντας ποιο είναι το πρόβλημα. Να μην βάλετε το AI στην αλυσίδα θανάτου, γιατί στο τέλος θα σας σκοτώσει».

Είτε πρόκειται για συστήματα τεχνητής νοημοσύνης στην αλυσίδα πυρηνικών θανάτων, είτε για συστήματα τεχνητής νοημοσύνης σε αποφάσεις χρηματιστηρίου και κατανομές χαρτοφυλακίου, είτε απλά GPT που συνθέτουν πράγματα, υπάρχουν κίνδυνοι.

Υπάρχουν παραπλανητικές πληροφορίες και υπάρχουν πραγματικά πολύ επικίνδυνες αναδρομικές συναρτήσεις, που θα μπορούσαν να οδηγήσουν την αγορά κατευθείαν στην καταστροφή, επειδή θα μιμηθεί το μέρος των ανθρώπων που θέλουν να πουλήσουν τα πάντα και να βγουν έξω, αλλά δεν θα έχει το μέρος των ανθρώπων που χρησιμοποιούν λίγη κρίση και ένστικτο.

Μην βάλετε την τεχνητή νοημοσύνη στην αλυσίδα πυρηνικών θανάτων. Μην το κάνετε. Αν θέλετε να την έχετε ως πηγή ή σε κάποιο άλλο συμπλήρωμα ίσως, αλλά μην την βάλετε στην αλυσίδα kill γιατί θα σκοτωθείτε. Θα ξεκινήσετε έναν πυρηνικό πόλεμο και δεν θα μπορείτε να τον σταματήσετε με τον τρόπο που μπόρεσαν οι άνθρωποι.

Προσπαθώ να εξηγήσω στους ανθρώπους πώς η τεχνητή νοημοσύνη είναι γεμάτη κινδύνους και κατά κάποιον τρόπο τους αγνοούμε στη βιασύνη να την εφαρμόσουμε.Λοιπόν αυτή η συμβουλή μου προς το Πεντάγωνο και ελπίζω να το ακούνε. 

 

 

Ακολουθήστε το Πενταπόσταγμα στο Google news Google News

ΔΗΜΟΦΙΛΗ