Σοβαρές ανησυχίες σχετικά με τους «καρπούς» της δουλειάς του στην τεχνητή νοημοσύνη (Α.Ι) έχει ο Τζέφρι Χίντον, βραβευμένος επιστήμονας υπολογιστών, γνωστός και ως «νονός της τεχνητής νοημοσύνης».
Ο Χίντον ήταν ένας εκ των πρωτοπόρων στις τεχνολογίες τεχνητής νοημοσύνης που είναι κρίσιμης σημασίας για μια νέα γενιά εξαιρετικά ικανών chatbots, όπως το ευρέως γνωστό ChatGPT. Ωστόσο πρόσφατα εξέφρασε σοβαρές ανησυχίες σε συνεντεύξεις του όσον αφορά στην ανεξέλεγκτη ανάπτυξη της τεχνητής νοημοσύνης και τους κινδύνους που θα μπορούσε να συνεπάγεται για την ανθρωπότητα.
«Ξαφνικά άλλαξα άποψη σχετικά με το αν αυτά τα πράγματα θα γίνουν πιο έξυπνα από εμάς» είπε σε συνέντευξή του στο ΜΙΤ Technology Review. «Νομίζω πως είναι πολύ κοντά σε αυτό τώρα και θα είναι πολύ πιο έξυπνα από εμάς στο μέλλον…πώς θα επιβιώσουμε από αυτό;».
Ο Χίντον δεν είναι ο μόνος με τέτοιους προβληματισμούς. Λίγο μετά την κυκλοφορία του GPT-4 της υποστηριζόμενης από τη Microsoft OpenAI τον Μάρτιο, πάνω από 1.000 ερευνητές υπέγραψαν μια επιστολή στην οποία ζητούσαν εξάμηνη παύση στην ανάπτυξη της τεχνητής νοημοσύνης επειδή, όπως έλεγαν, συνεπάγεται «πρωτοφανείς κινδύνους για την κοινωνία και την ανθρωπότητα».
Ακολουθούν οι μεγαλύτερες ανησυχίες του Χίντον για το μέλλον της τεχνητής νοημοσύνης και της ανθρωπότητας.
Οι ανθρώπινοι εγκέφαλοι μπορούν να κάνουν υπολογισμούς, να οδηγούν αυτοκίνητα και άλλα πράγματα χάρη στις έμφυτες δυνατότητές τους ως προς την οργάνωση και αποθήκευση πληροφοριών και την εύρεση λύσεων σε προβλήματα. Οι σχεδόν 86 δισεκατομμύρια νευρώνες που βρίσκονται μέσα στα κρανία μας, και, το σημαντικότερο, οι 100 τρισεκατομμύρια συνδέσεις μεταξύ τους, το κάνουν αυτό δυνατόν.
Αντίθετα, η τεχνολογία στην οποία βασίζεται το ChatGPT έχει 500 δισεκατομμύρια με 1 τρισεκατομμύριο συνδέσεις, όπως είπε ο Χίντον στη συνέντευξη. Αν και αυτό θα περίμενε κανείς να αποτελεί μειονέκτημα σε σχέση με τον άνθρωπο, ο Χίντον σημειώνει πως το GPT-4, το νεότερο μοντέλο τεχνητής νοημοσύνης της OpenAI, ξέρει «εκατοντάδες φορές περισσότερα» από έναν οποιοδήποτε άνθρωπο. Ίσως, λέει, να έχει έναν «πολύ καλύτερο αλγόριθμο εκμάθησης» από εμάς, κάτι που το κάνει πιο αποτελεσματικό από εμάς σε γνωστικές/ γνωσιακές διεργασίες.
Η Α.Ι ίσως να είναι ήδη πιο έξυπνη από εμάς
Ερευνητές έχουν εδώ και καιρό υπογραμμίσει πως τα τεχνητά νευρωνικά δίκτυα χρειάζονται πολύ περισσότερο χρόνο για να απορροφήσουν και να θέσουν σε εφαρμογή νέα γνώση σε σχέση με τους ανθρώπους, καθώς η εκπαίδευσή τους απαιτεί μεγάλες ποσότητες ενέργειας και δεδομένων. Αυτό δεν ισχύει πλέον, λέει ο Χίντον, σημειώνοντας ότι συστήματα σαν το GPT-4 μπορούν να μαθαίνουν νέα πράγματα πολύ γρήγορα εάν εκπαιδευτούν σωστά από ερευνητές. Αυτό μοιάζει με τον τρόπο που πχ ένας γιατρός μπορεί να κατανοεί πολύ καλύτερα τα νέα ευρήματα πειραμάτων από έναν μαθητή λυκείου.
Αυτό οδηγεί τον Χίντον στο συμπέρασμα πως τα συστήματα τεχνητής νοημοσύνης ίσως να είναι ήδη πιο έξυπνα από εμάς. Όχι μόνο τα συστήματα Α.Ι μπορούν να μαθαίνουν πράγματα γρηγορότερα, σημειώνει, μπορούν να μοιράζονται επίσης αντίγραφα των γνώσεών τους μεταξύ τους σχεδόν αμέσως. «Είναι μια εντελώς διαφορετική μορφή νοημοσύνης» σχολιάζει σχετικά. «Μια νέα και καλύτερη μορφή νοημοσύνης».
Πόλεμοι και φήμες πολέμων
Τι θα μπορούσαν να κάνουν συστήματα νοημοσύνης που είναι εξυπνότερα από τον άνθρωπο; Μία ανησυχητική πιθανότητα είναι πως κακόβουλα άτομα, ομάδες/ οργανώσεις ή κράτη θα μπορούσαν να τα χρησιμοποιήσουν για δικούς τους σκοπούς. Ο Χίντον ανησυχεί πως αυτά τα εργαλεία θα μπορούσαν να εκπαιδευτούν έτσι ώστε να επηρεάζουν εκλογές, ακόμα και να διεξάγουν πολέμους. Η παραπληροφόρηση σχετικά με εκλογές που εξαπλώνεται μέσω chatbots τεχνητής νοημοσύνης, για παράδειγμα, θα μπορούσε να αποτελέσει τον διάδοχο της παραπληροφόρησης για εκλογές που εξαπλώνεται μέσω Facebook και άλλων πλατφορμών κοινωνικής δικτύωσης. Και αυτό θα μπορούσε να είναι μόνο η αρχή: «Μη νομίζετε πως ο Πούτιν δεν θα έφτιαχνε υπερ-ευφυή ρομπότ με στόχο να σκοτώνουν Ουκρανούς» σημειώνει στο άρθρο ο επιστήμονας. «Δεν θα δίσταζε».
Έλλειψη λύσεων
Αυτό που είναι ασαφές είναι πώς θα μπορούσε οποιοσδήποτε να εμποδίσει μια δύναμη όπως η Ρωσία να χρησιμοποιήσει τεχνολογία Α.Ι για να κυριαρχήσει επί των γειτόνων της ή των ίδιων της των πολιτών. Ο Χίντον υποδεικνύει πως μια παγκόσμια συμφωνία παρόμοια με τη Σύμβαση για τα Χημικά Όπλα το 1997 θα ήταν ένα καλό πρώτο βήμα προς την κατεύθυνση της δημιουργίας διεθνών κανόνων/ κανονισμών κατά της χρήσης τεχνητής νοημοσύνης ως όπλου. Ωστόσο αξίζει να σημειωθεί ότι αυτό δεν εμπόδισε αυτό που θεωρήθηκε ότι ήταν μάλλον συριακές επιθέσεις με αέρια χλωρίνης και αέριο νεύρων σαρίν κατά αμάχων το 2017 και το 2018 κατά αμάχων, στο πλαίσιο του εμφυλίου στη χώρα.
Με πληροφορίες από Associated Press
ΠΗΓΗ huffingtonpost.gr