Βάζοντας τέλος στις αμέτρητες φήμες και εικασίες της τελευταίας περιόδου, η OpenAI μόλις ανακοίνωσε και επίσημα το GPT-4, το νέο της AI μοντέλο, το οποίο θα χρησιμοποιεί από εδώ και πέρα το ChatGPT και υπόσχεται επαναστατικά αποτελέσματα.
Περνώντας σε λεπτομέρειες, η επίσημη ανακοίνωση επισημαίνει χαρακτηριστικά:
Δημιουργήσαμε το GPT-4, το τελευταίο ορόσημο στην προσπάθεια της OpenAI για την κλιμάκωση του deep learning. Το GPT-4 είναι ένα μεγάλο multimodal μοντέλο (δέχεται εισόδους εικόνας και κειμένου και βγάζει εξόδους κειμένου), το οποίο, αν και λιγότερο ικανό από τον άνθρωπο σε πολλά σενάρια του πραγματικού κόσμου, παρουσιάζει επιδόσεις ανθρώπινου επιπέδου σε διάφορα επαγγελματικά και ακαδημαϊκά benchmarks.
Ναι, καλά διαβάσατε. Χάρη στο ολοκαίνουργιο GPT-4 μοντέλο, το οποίο θα είναι αρχικά διαθέσιμο μόνο για τους επί πληρωμή συνδρομητές του ChatGPT Plus, το chatbot θα είναι ακόμη πιο «ανθρώπινο», κάνοντας δυσκολότερο για τον αναγνώστη να καταλάβει αν μιλάει με τεχνητή νοημοσύνη ή κάποιο άνθρωπο.
Για να αντιληφθείτε πόσο τεράστια είναι αυτή η αναβάθμιση, το νέο μοντέλο της OpenAI μπορεί να περάσει μια προσομοιωμένη εξέταση με βαθμολογία που το κατατάσσει μέσα στο 10% των αριστούχων. Στην αντίπερα όχθη, η βαθμολογία του GPT-3.5 στο ίδιο τεστ ήταν στο 10% των χειρότερων αποτελεσμάτων. Παρακάτω μπορείτε να δείτε ένα γράφημα με την τρομακτικά υψηλή απόδοση του GPT-4 σε εξετάσεις που κανονικά έχουν σχεδιαστεί για ανθρώπους:
Μάλιστα, αξιοποιώντας την τεχνολογία του Azure Translate της Microsoft, το GPT-4 είναι τρομερά πιο αποτελεσματικό και σε άλλες γλώσσες, όπως τα ελληνικά.
Φυσικά, πέρα από την τρομερή βελτίωση των αποτελεσμάτων, η πιο εντυπωσιακή πτυχή του GPT-4 είναι η multimodal φύση του. Πλέον το μοντέλο μπορεί να κατανοήσει και εικόνες. Οι χρήστες θα μπορούν να το τροφοδοτήσουν με εικόνες, ζητώντας του για παράδειγμα να εξηγήσει τι βλέπει ή αν «κοιτάζει» κάποιο meme να τους πει ποιο είναι το αστείο.