Μπορεί το ChatGPT να σου πει εμμέσως τι να ψηφίσεις;
Η τεχνητή νοημοσύνη μπορεί να είναι μία πολύ πιεστική δύναμη χειραγώγησης
Στους μήνες που προηγήθηκαν των περσινών προεδρικών εκλογών, περισσότεροι από 2.000 Αμερικάνοι, σχεδόν χωρισμένοι κατά κομματικές παρατάξεις, προσλήφθηκαν για ένα πείραμα:
Μπορεί ένα μοντέλο τεχνητής νοημοσύνης να επηρεάσει τις πολιτικές τάσεις;
Η υπόθεση ήταν απλή -θα άφηναν τους ανθρώπους να περάσουν μερικά λεπτά μιλώντας σε ένα chatbot, σχεδιασμένο να προωθεί την Kamala Harris ή τον Donald Trump- και μετά θα έβλεπαν αν οι εκλογικές τους προτιμήσεις είχαν κάποια αλλαγή.
Τα bots ήταν αποτελεσματικά. Αφού μίλησαν με ένα bot υπέρ του Trump, μόνο ένα από τα 35 άτομα που αρχικά είχαν δηλώσει ότι δεν θα ψήφιζε τον Trump, άλλαξε γνώμη και είπε ότι θα τον ψήφιζε. Ο αριθμός εκείνων που άλλαξαν γνώμη μετά από συνομιλία με ένα bot υπέρ της Harris ήταν ακόμη μεγαλύτερος, περίπου ένας στους 21. Έναν μήνα αργότερα, όταν οι συμμετέχοντες ρωτήθηκαν ξανά, το μεγαλύτερο μέρος της επίδρασης παρέμεινε. Τα αποτελέσματα υποστηρίζουν ότι η τεχνητή νοημοσύνη “δημιουργεί πολλές ευκαιρίες να χειραγωγεί τις πεποιθήσεις και τις στάσεις των ανθρώπων” είπε ο David Rand, ηλικιωμένος συγγραφέας της μελέτης.
O Rand δεν σταμάτησε με τις γενικές εκλογές στις Ηνωμένες Πολιτείες. Αυτός και οι συνεργάτες του έλεγξαν επίσης την ικανότητα πίεσης των bots τεχνητής νοημοσύνης σε έντονα αμφισβητούμενες εθνικές εκλογές στον Καναδά και στην Πολωνία -και οι συνέπειες που είχε ο Rand, ο οποίος μελέτησε τις επιστημονικές πληροφορίες στην Κορνουάλη “εντελώς εντυπωσιασμένος”.
Και στις δύο αυτές περιπτώσεις, είπε, ότι περίπου ένας στους 10 συμμετέχοντες θα άλλαζε την ψήφο του, μετά την συνομιλία του με ένα chatbot. Τα μοντέλα τεχνητής νοημοσύνης παίρνουν τον ρόλο ενός ευγενικού αλλά αυστηρού συνομιλητή, προσφέροντας επιχειρήματα και αποδείξεις υπέρ του υποψηφίου που παρουσίασαν. “Αν μπορούσε να το κάνει σε μεγάλη κλίμακα” είπε ο Rand “θα μπορούσε πραγματικά να αλλάξει το αποτέλεσμα των εκλογών.”
Τα chatbots πέτυχαν να αλλάξουν την γνώμη των ανθρώπων, στην ουσία, με την «βία».
Μία ξεχωριστή συνοδευτική μελέτη του Rand και των συνεργατών του εξέτασε ποιοι παράγοντες κάνουν ένα chatbot πιο πειστικό από ένα άλλο και βρήκαν ότι τα μοντέλα τεχνητής νοημοσύνης δεν χρειάζεται να γίνουν πιο ισχυρά, πιο εξατομικευμένα ή πιο ικανά σε προχωρημένες ρητορικές τεχνικές για να είναι πιο πειστικά. Αντ’ αυτού, τα chatbots ήταν πιο αποτελεσματικά όταν έριξαν στον χρήστη ισχυρισμούς που έμοιαζαν με γεγονότα: Τα πιο πειστικά μοντέλα τεχνητής νοημοσύνης ήταν αυτά που παρείχαν τα περισσότερα “στοιχεία” για να υποστηρίξουν τα επιχειρήματα τους, άσχετα με το αν τα στοιχεία είχαν κάποια σχέση με την πραγματικότητα. Στην πραγματικότητα, τα πιο πειστικά chatbots ήταν και τα λιγότερο ακριβή.
Ανεξάρτητοι ειδικοί, είπαν ότι δύο μελέτες του Rand εντάσσονται σε ένα αυξανόμενο σώμα ερευνών που δείχνει ότι τα μοντέλα γεννητικής τεχνητής νοημοσύνης είναι, όντως, ικανά να πείθουν:
Αυτά τα bots είναι υπομονετικά, σχεδιασμένα να θεωρούνται βοηθητικά, μπορούν να αντλήσουν πληροφορίες από μια θάλασσα αποδεικτικών στοιχείων και να εμφανιστούν σε πολλούς ως αξιόπιστα. Βέβαια υπάρχουν επιφυλάξεις.
Είναι ασαφές πόσο πολλοί άνθρωποι θα είχαν ποτέ τόσo άμεσες, πληροφοριακά πυκνές συζητήσεις με chatbots σχετικά με το ποιον θα ψηφίσουν, ειδικά όταν αυτοί δεν πληρώνονται για να συμμετάσχουν σε μια μελέτη.
Οι μελέτες δεν δοκίμασαν τα chatbots σε σύγκριση με πιο επιθετικές μορφές πειθούς, όπως ένα φυλλάδιο ή ένας άνθρωπος, είπε ο Jordan Boyd-Graber, ένας ερευνητής της τεχνητής νοημοσύνης στο πανεπιστήμιο του Maryland, ο οποίος δεν συμμετείχε στην έρευνα.
Παραδοσιακή εκστρατεία προσέγγισης (ηλεκτρονικό ταχυδρομείο, τηλεφωνήματα, τηλεοπτικές διαφημίσεις κ.λπ.) τυπικά είναι μη αποδοτική για τους επικείμενους ψηφοφόρους, είπε η Jennifer Pan, μία πολιτική επιστήμονας Stanford, η οποία δεν συμμετείχε στην έρευνα. Η τεχνητή νοημοσύνη θα μπορούσε κάλλιστα να είναι πολύ διαφορετική -η καινούρια έρευνα ισχυρίζεται ότι τα bots τεχνητής νοημοσύνης ήταν πολύ πιο πειστικά από τις παραδοσιακές διαφημίσεις στις προηγούμενες προεδρικές εκλογές των Ηνωμένων Πολιτειών- αλλά η Pan προειδοποίησε ότι είναι πολύ νωρίς για να πούμε εάν ένα chatbot με ευδιάκριτη σύνδεση με έναν υποψήφιο μπορεί να έχει ευρεία χρήση.
Ακόμη κι έτσι, ο Boyd-Graber λέει ότι η τεχνητή νοημοσύνη “μπορεί να είναι μία πολύ πιεστική δύναμη χειραγώγησης” η οποία επιτρέπει στους πολιτικούς ή στους ακτιβιστές με σχετικά λίγους πόρους να επηρεάζουν πολύ περισσότερους ανθρώπους -ειδικά αν τα μηνύματα τους προέρχονται από γνωστές πλατφόρμες.
Εκατομμύρια άνθρωποι ρωτούν το Chat GPT
Κάθε βδομάδα εκατοντάδες εκατομμύρια άνθρωποι κάνουν ερωτήσεις στο ChatGPT και πολλοί περισσότεροι λαμβάνουν απαντήσεις γραμμένες από την τεχνητή νοημοσύνη σε ερωτήσεις που αναζήτησαν στο Google. Η εταιρία Meta έχει φτιάξει εργαλεία τεχνητής νοημοσύνης στο Facebook και στο Instagram και ο Elon Musk χρησιμοποιεί το chatbot Grok για να επεξεργάζεται τις προτάσεις του αλγορίθμου του Χ.
Άρθρα παραγμένα από την τεχνητή νοημοσύνη και δημοσιεύσεις στα μέσα κοινωνικής δικτύωσης αφθονούν. Είτε με δική σου θέληση είτε όχι, ένα μεγάλο κομμάτι των πληροφοριών που έμαθες τον τελευταίο χρόνο πιθανότατα έχει περάσει από φίλτρο τεχνητής νοημοσύνης. Σαφώς οι πολιτικές καμπάνιες θέλουν να χρησιμοποιούν chatbots προκειμένου να επηρεάσουν τους ψηφοφόρους, ακριβώς όπως χρησιμοποιούσαν παραδοσιακές διαφημίσεις και μέσα κοινωνικής δικτύωσης στο παρελθόν.
Αλλά η νέα έρευνα επίσης αυξάνει μια ξεχωριστή ανησυχία: ότι τα chatbots και τα άλλα προϊόντα τεχνητής νοημοσύνης, σε μεγάλο βαθμό ανεξέλεγκτα αλλά ήδη χαρακτηριστικά της καθημερινής ζωής, θα μπορούσαν θα χρησιμοποιηθούν απ’ τις εταιρίες τεχνολογίας προκειμένου να χειραγωγήσουν τους χρήστες για πολιτικούς σκοπούς. “Αλλά ο Sam Altman αποφάσισε ότι υπήρχε κάτι που δεν ήθελε οι άνθρωποι να νομίζουν και ήθελε το ChatGPT να ωθεί τους ανθρώπους προς την μία ή την άλλη κατεύθυνση” είπε ο Rand, η έρευνα του υποδηλώνει ότι η εταιρία “μπορούσε να το κάνει” αν και καμία από τις δύο μελέτες δεν εξετάζει συγκεκριμένα αυτή την πιθανότητα.
Σκέψου τον Musk, τον πλουσιότερο άνθρωπο του κόσμου και τον ιδιοκτήτη του chatbot, ότι σύντομα αποκαλεί τον εαυτό του ως “MechaHitler.” Ο Musk έχει ρητά προσπαθήσει να διαμορφώσει τον Grok ώστε να ταιριάζει με τις ρατσιστικές και συνωμοσιολογικές του πεποιθήσεις, και το έχει χρησιμοποιήσει για να δημιουργήσει την δική του εκδοχή της Wikipedia.
Η σημερινή έρευνα υποδηλώνει ότι τα βουνά με μερικές φορές ψευδείς “αποδείξεις” που προβάλλει ο Grok μπορεί επίσης να είναι αρκετά για να πείσουν μερικούς ανθρώπους να αποδεχτούν τις απόψεις του Musk ως γεγονός. Τα μοντέλα οργανώθηκαν “σε ορισμένες περιπτώσεις με περισσότερα από 30 ‘γεγονότα’ ανά συζήτηση.” Ο Kobi Hackenburg, ερευνητής στο βρετανικό ινστιτούτο ασφαλείας τεχνητής νοημοσύνης και κύριος συγγραφέας στην εργασία του Science, είπε “Και όλα αυτά ακούγονται και φαίνονται πραγματικά πιθανά και το μοντέλο τα εφαρμόζει με πραγματική κομψότητα και αυτοπεποίθηση.” Αυτό το κάνει απαιτητικό για τους χρήστες να διακρίνουν την αλήθεια από τη φαντασία, είπε ο Hackenburg: Η παράσταση μετράει όσο και οι αποδείξεις.
Αυτό δεν είναι τόσο δύσκολο φυσικά, απ’ όλη την παραπληροφόρηση που ήδη κυκλοφορεί στο διαδίκτυο. Αλλά αντίθετα απ’ την ροή στο Facebook και στο TikTok, τα chatbots παράγουν “γεγονότα” κατ’ εντολή όποτε το ζητήσει ο χρήστης, προσφέροντας μοναδικά διατυπωμένες αποδείξεις ως απάντηση σε ερωτήματα από οπουδήποτε. Και αν και η ροή των μέσων κοινωνικής δικτύωσης φαίνεται διαφορετική για τον καθένα, κάνουν στο τέλος της μέρας, παρουσιάζουν μια θορυβώδης μείξη των μέσων από δημόσιες πηγές: Τα chatbots είναι ιδιωτικά και κατά παραγγελία για το κάθε άτομο.
Η τεχνητή νοημοσύνη ήδη φαίνεται ότι “έχει αρκετά σημαντικές επιπτώσεις σχετικά με το πώς οι άνθρωποι διαμορφώνουν τις πεποιθήσεις τους” είπε η Renée DiResta, ερευνήτρια των μέσων κοινωνικής δικτύωσης και της προπαγάνδας στο Georgetown. Υπάρχει το Grok φυσικά και η DiResta βρήκε ότι η μηχανή αναζήτησης της τεχνητής νοημοσύνης για το truth social του προέδρου Donald Trump, το οποίο βασίζεται στην τεχνολογία της πολυπλοκότητας, φαίνεται να αντλεί πηγές μόνο από συντηρητικά μέσα ενημέρωσης, όπως τα Fox, Just the News και Newsmax.
Πραγματικό ή φανταστικό, το φάντασμα της τεχνητής νοημοσύνης, εμπνευσμένο από καμπάνιες, θα παράξει τροφή για ακόμη περισσότερες πολιτικές μάχες. Νωρίτερα αυτόν τον χρόνο, ο Trump υπέγραψε ένα εκτελεστικό διάταγμα που απαγορεύει στην ομοσπονδιακή κυβέρνηση να συνάπτει συμβόλαια με “προοδευτικές” εταιρείες. Τα μοντέλα τεχνητής νοημοσύνης, όπως αυτές που ενσωματώνουν τις έννοιες του συστηματικού ρατσισμού. Πρέπει τα chatbots να γίνονται από μόνα τους τόσο αμφιλεγόμενα όσο το MSNBC ή το Fox, δεν θα αλλάζουν την κοινή γνώμη τόσο όσο να βαθαίνει το γνωσιολογικό χάσμα του έθνους.
Με κάποιο τρόπο, όλη αυτή η συζήτηση για τις πολιτικές προκαταλήψεις και τις ικανότητες πίεσης των προϊόντων τεχνητής νοημοσύνης είναι λίγο μια απόσπαση της προσοχής. Φυσικά τα chatbots είναι σχεδιασμένα για να μπορούν να επηρεάζουν την ανθρώπινη συμπεριφορά και φυσικά αυτή η επιρροή είναι μεροληπτική υπέρ των δημιουργών των μοντέλων τεχνητής νοημοσύνης -για να σε κάνουν να συνομιλείς περισσότερη ώρα, να κάνεις κλικ σε μία διαφήμιση, να αναπαράγεις άλλο ένα βίντεο. Η πραγματική πειστική απάτη με τα χέρια για να πείσει δισεκατομμύρια ανθρώπινους χρήστες ότι τα ενδιαφέροντα τους ευθυγραμμίζονται με τις εταιρίες τεχνολογίας -χρησιμοποιώντας ένα chatbot πάνω από οτιδήποτε άλλο είναι η καλύτερη.
Μετάφραση από άρθρο του The Atlantic
