Πρόσφατο άρθρο των New York Times περιέχει συναρπαστικές λεπτομέρειες για το πώς βλέπουμε έναν κώδικα chatbot χωρίς λογοκρισία στο διαδίκτυο. Πολλοί από τους δημιουργούς αυτής της νέας κατηγορίας chatbot τα βλέπουν ως νίκη για την ελευθερία του λόγου. Επιχειρήματα που δεν στερούνται θετικών σημείων. Υπάρχουν όμως και ανησυχητικοί οιωνοί, που δείχνουν ένα όλο και πιο καλοστρωμένο μονοπάτι για όσους θέλουν να διεξάγουν επιχειρήσεις μαζικής παραπληροφόρησης.
Όπως εξηγεί το άρθρο των Times,τα νέα chatbot με ονόματα όπως GPT4All και FreedomGPT εμφανίζονται ως μέρος μιας νέας κίνησης προς τα chatbot χωρίς τα προστατευτικά κιγκλιδώματα που περιορίζουν την ικανότητα του ChatGPT να συζητά θέματα που θεωρούνται καταχρηστικά, επικίνδυνα ή απροκάλυπτα πολιτικά. Πολλά από αυτά τα bot φέρεται να έχουν κατασκευαστεί από ανεξάρτητους προγραμματιστές που τροποποιούν υπάρχοντα μεγάλα γλωσσικά μοντέλα για να αλλάξουν τον τρόπο με τον οποίο ανταποκρίνονται σε προτροπές, και τουλάχιστον ένα από αυτά βασίζεται σε ένα μεγάλο γλωσσικό μοντέλο που διέρρευσε από την Meta. Δεν είναι σαφές πόσο εξελιγμένα είναι, αλλά σύμφωνα με τους Times, ορισμένα από αυτά τα chatbot δεν υστερούν σε ποιότητα και πολύ από το ChatGPT, το κορυφαίο chatbot αυτή τη στιγμή.
Η δημιουργία εναλλακτικών λύσεων για τα mainstream chatbots θα μπορούσε να βοηθήσει στην προστασία από τους κινδύνους των μονοπωλίων των chatbot. Ταυτόχρονα, ορισμένοι ειδικοί λένε ότι είναι επίσης ακριβώς τα είδη εργαλείων που θα μπορούσαν να ενισχύσουν τις επιχειρήσεις παραπληροφόρησης και Αμερικανοί αναλυτές φοβούνται ότι θα μπορούσαν ακόμη και να παίξουν τεράστιο ρόλο στην παροχή παραπληροφόρησης πριν από τις αμερικανικές εκλογές του 2024.
Τα μεγάλα chatbots από την Google και το OpenAI έχουν χρησιμοποιήσει μια ποικιλία τεχνικών για να αποφύγουν ή να περιορίσουν την ικανότητα των προγραμμάτων τους να χρησιμοποιούν προσβλητική γλώσσα, όπως ρατσιστικές προσβολές ή βωμολοχίες. Είναι εκπαιδευμένα να αποτρέπουν προτροπές που ρωτούν πώς να βλάψουν ανθρώπους ή να κάνουν πράγματα όπως να κατασκευάσουν μια βόμβα. Και έχουν σχεδιαστεί για να αποφεύγουν να παίρνουν ρητές πολιτικές θέσεις σε ορισμένα ζητήματα.
Τώρα, οι πιο προχωρημένοι χρήστες έχουν βρει τρόπους να ξεγελάσουν αυτά τα chatbot για να πουν πράγματα που δεν έπρεπε και είναι αφελές να πιστεύουμε ότι οι πολιτικές αξίες δεν διαμορφώνουν το εύρος των απαντήσεων που δίνουν αυτά τα chatbot στους χρήστες. (Η γλώσσα των chatbot που επιτρέπεται ή δεν επιτρέπεται να εκφέρεται αποτελεί από μόνη της πολιτική, και αυτές οι εταιρείες δεν έχουν αποκαλύψει ακριβώς σε τι είδους πληροφορίες εκπαιδεύτηκαν τα chatbot, κάτι που διαμορφώνει το εύρος των απαντήσεών τους.) Ωστόσο, αντανακλούν μια φιλοδοξία για ένα προϊόν με μαζική απήχηση σε όλες τις ηλικιακές ομάδες που τηρεί αυστηρούς περιορισμούς κατάχρησης και ελαχιστοποιεί την ευθύνη και τη διαμάχη γύρω από τον εαυτό του.
Αυτό η νέα γενιά ρομπότ χωρίς λογοκρισία καταργεί όλα αυτά τα προστατευτικά κιγκλιδώματα. Δεν υπάρχει ένα ενοποιητικό σύνολο αρχών που να παρακινούν τους προγραμματιστές που δημιουργούν αυτά τα μοντέλα, αλλά πολλοί εμπνέονται από την ιδέα της εντελώς απεριόριστης ομιλίας και επιλογής των χρηστών. Αυτό σημαίνει ότι τα chatbot έχουν λιγότερα, εάν έχουν καν, όρια στα είδη των απαντήσεων που θα παρέχουν ως απόκριση σε προτροπές και ότι οι χρήστες μπορούν να τα εκπαιδεύσουν περαιτέρω σχετικά με τις δικές τους συγκεκριμένες πληροφορίες.
Έχοντας δει τα χούφτα μεγαθήρια αναζήτησης και κοινωνικών μέσων να αναπτύσσουν την εκπληκτική ικανότητα να αναδιαμορφώνουν τη δημόσια συνείδησή, να λογοκρίνουν πληροφορίες και να αλλάζουν το περίγραμμα της πολιτικής ζωής, πολλοί μελετητές και προγραμματιστές τεχνητής νοημοσύνης βλέπουν, αντανακλαστικά, ευμενώς αυτήν την ατζέντα, ειδικά επειδή νιώθουν βαθιά άβολα με την αδιαφάνεια του τρόπου με τον οποίο λειτουργούν τα κύρια μεγάλα γλωσσών μοντέλα.
Τούτου λεχθέντος, υπάρχουν επίσης σαφείς αντισταθμίσεις με το άνοιγμα των chatbot που ξεπερνούν την ικανότητα τους να διασκεδάζουν τους μισαλλόδοξους αναπαράγοντας ρατσιστικά σχόλια.
Οι Times αναφέρθηκαν σε μια ανάρτηση ιστολογίου από τον Έρικ Χάρτφορντ, έναν προγραμματιστή πίσω από το WizardLM-Uncensored, ένα από τα μη εποπτευόμενα chatbot. Ένα μέρος της ανάρτησης συγκεκριμένα συνοψίζει άριστα μερικά από αυτά τα ανταλλάγματα:
«Η αμερικανική λαϊκή κουλτούρα δεν είναι η μόνη κουλτούρα. Υπάρχουν άλλες χώρες και υπάρχουν φατρίες μέσα σε κάθε χώρα. Οι δημοκράτες αξίζουν το μοντέλο τους. Οι Ρεπουμπλικάνοι αξίζουν το μοντέλο τους. Οι Χριστιανοί αξίζουν το πρότυπό τους. Οι μουσουλμάνοι αξίζουν το πρότυπό τους. Κάθε δημογραφική ομάδα και ομάδα συμφερόντων αξίζει το μοντέλο της. Ο ανοιχτός κώδικας έχει να κάνει με το να αφήνουμε τους ανθρώπους να επιλέξουν».
Από τη μία πλευρά, ο Χάρτφορντ εγείρει το έγκυρο επιχείρημα ότι είναι δύσκολο υπερασπίσιμο να περιμένει κανείς ότι μερικά chatbot που υποστηρίζονται από εταιρείες είναι τα βέλτιστα για κάθε κοινότητα επί του πλανήτη. Τα chatbots έχουν σχεδιαστεί για να βοηθούν τους ανθρώπους να αναζητούν πληροφορίες, να βοηθούν στη σύνταξη κειμένου για όλα τα είδη επικοινωνίας, να βοηθούν στη σύνταξη κώδικα και άλλες εργασίες. Είναι λογικό ότι μια πληθώρα μοντέλων θα μπορούσε να βοηθήσει σε αυτές τις εργασίες για ένα ευρύτερο φάσμα ανθρώπων, με ένα διαφορετικό σύνολο στόχων. Κάτι που πρέπει να έχουμε κατά νου είναι ότι τα chatbot δεν είναι ακόμη αξιόπιστα για τη ακριβή μετάδοση πληροφοριών (και συχνά τις κατασκευάζουν), επομένως το επιχείρημα για την αφθονία των chatbot δεν σημαίνει απαραίτητα ότι η αντικειμενική πραγματικότητα δεν υπάρχει.
Από την άλλη πλευρά, η έλλειψη προστατευτικών κιγκλιδωμάτων και η δυνατότητα προσαρμογής αυτών των chatbot αποτελεί επίσης πρόκληση για τη δημοκρατία. Δεν είμαι σίγουρος ότι καταλαβαίνω πώς θα έμοιαζαν τα διαφορετικά chatbot για τα διάφορα κόμματα, αλλά είναι σαφές ότι οποιαδήποτε ευρεία υιοθέτηση κομματικών chatbot θα επιδείνωνε την κρίση πόλωσης στο περιβάλλον πληροφοριών.
Οι ειδικοί της τεχνητής νοημοσύνης προειδοποιούν επίσης ότι τα νέα chatbot θα μπορούσαν να είναι ισχυρά όπλα στους επερχόμενους πολέμους πληροφοριών. Ο Γκάρι Μάρκους, ομότιμος καθηγητής ψυχολογίας και νευρωνικής επιστήμης στο Πανεπιστήμιο της Νέας Υόρκης, είναι μια από τις πιο εξέχουσες φωνές που κρούουν τον κώδωνα του κινδύνου για την αναδυόμενη απειλή παραπληροφόρησης. Λέει ότι η ευκολία με την οποία τα chatbot χωρίς λογοκρισία μπορούν να επανεκπαιδεύονται για να πουν συγκεκριμένο αφήγημα τα καθιστά ιδιαίτερα κατάλληλα για εκστρατείες παραπληροφόρησης και fake news: Οι αστερισμοί bot μπορούν να εκπαιδευτούν να λένε πολλές εξελιγμένες παραλλαγές σε ένα θέμα και η ικανότητά τους να προσομοιώνουν τον άνθρωπο η ομιλία τους κάνει δύσκολο να αναγνωριστούν ως τεχνητοί συνομιλητές. Ο Μάρκους είπε πρόσφατα στο MSNBC ότι σύντομα «μπορεί να δούμε δισεκατομμύρια κομμάτια παραπληροφόρησης εκεί που βλέπαμε χιλιάδες την ημέρα». Είπε ότι ανησυχούσε ότι οι εκλογές του 2024 επρόκειτο να καταντήσει οχετός ύβρεων (s—show) λόγω του πόσο απροετοίμαστη είναι η Αμερική για το πώς ο λόγος των μέσων κοινωνικής δικτύωσης θα μπορούσε να παραβιαστεί από αυτές τις επιχειρήσεις.
Πηγή: ot.gr