Μπορεί η Τεχνητή Νοημοσύνη να χειραγωγήσει ψηφοφόρους εκλογών;
Τι αποκαλύπτουν δυο πρόσφατες μελέτες.
Η επιρροή της τεχνητής νοημοσύνης στην πολιτική διαδικασία αποδεικνύεται πιο βαθιά και εκτεταμένη απ’ ό,τι πιστεύαμε μέχρι σήμερα. Νέα έρευνα του Πανεπιστημίου Κορνέλ αποκαλύπτει ότι ακόμη και μια σύντομη συνομιλία με ένα chatbot μπορεί να επηρεάσει ουσιαστικά την άποψη ενός ψηφοφόρου σχετικά με έναν υποψήφιο ή μια προτεινόμενη πολιτική — άλλοτε θετικά, άλλοτε αρνητικά.
Σύμφωνα με τη μελέτη, που δημοσιεύθηκε στο επιστημονικό περιοδικό Nature, οι προτιμήσεις των συμμετεχόντων ψηφοφόρων σε πραγματικές εκλογικές αναμετρήσεις μεταβλήθηκαν έως και κατά 15 ποσοστιαίες μονάδες μετά από μια μόνο αλληλεπίδραση με chatbot. Παράλληλα, σχετική μελέτη που δημοσιεύθηκε στο επιστημονικό περιοδικό Science δείχνει ότι η αποτελεσματικότητα των chatbot βασίζεται στην ικανότητά τους να συνθέτουν πολύπλοκες πληροφορίες και να τις παρουσιάζουν με άμεσο τρόπο — χαρακτηριστικό που φαίνεται να ξεπερνά σε επιρροή τις παραδοσιακές προεκλογικές εκστρατείες και τη συμβατική πολιτική διαφήμιση.
Τα ευρήματα αυτά αναδεικνύουν τη πειστική δύναμη των chatbots, τα οποία χρησιμοποιούνται από περισσότερους από 100 εκατομμύρια χρήστες κάθε μέρα, σύμφωνα με τον Ντέιβιντ Ραντ, συγγραφέα και των δύο μελετών και γνωστικό επιστήμονα στο Πανεπιστήμιο Κορνέλ στη Νέα Υόρκη. Και οι δύο μελέτες δείχνουν ότι τα chatbot διαμορφώνουν τις απόψεις των ψηφοφόρων χάρη στην τεράστια ποσότητα πληροφοριών που μπορούν να μεταφέρουν σε μια μόνο συνομιλία. Όσο περισσότερες πληροφορίες παρείχαν τα chatbot, τόσο πιο πειστικά ήταν — αλλά ήταν επίσης πιο πιθανό να παράγουν ψευδείς δηλώσεις, διαπίστωσαν οι συγγραφείς της μελέτης.
Αυτό μπορεί να μετατρέψει την τεχνητή νοημοσύνη σε «κάτι πολύ επικίνδυνο», δήλωσε στο Nature η Λίσα Άργκαϊλ, υπολογιστική κοινωνική επιστήμονας στο Πανεπιστήμιο Περντού στην Ιντιάνα.
«Το αποτέλεσμα δεν είναι περισσότερη ενημέρωση, αλλά βαθύτερη παραπληροφόρηση. Οι μελέτες έχουν εντυπωσιακό εύρος. Η κλίμακα στην οποία έχουν μελετήσει τα πάντα είναι πολύ πέρα από αυτό που γίνεται συνήθως στις κοινωνικές επιστήμες» πρόσθεσε.
Η επιρροή της τεχνητής νοημοσύνης
Η ταχεία υιοθέτηση των chatbot από τη στιγμή που έγιναν δημοφιλή το 2023 έχει προκαλέσει ανησυχίες σχετικά με τη δυνατότητά τους να χειραγωγούν την κοινή γνώμη. Για να κατανοήσουν πόσο πειστική μπορεί να είναι η τεχνητή νοημοσύνη όσον αφορά τις πολιτικές πεποιθήσεις, οι ερευνητές ζήτησαν από σχεδόν 6.000 συμμετέχοντες από τρεις χώρες — τον Καναδά, την Πολωνία και τις Ηνωμένες Πολιτείες — να αξιολογήσουν τις προτιμήσεις τους για συγκεκριμένους υποψηφίους στις εκλογές για την ηγεσία της χώρας τους που πραγματοποιήθηκαν 2024, σε κλίμακα από 0 έως 100.
Στη συνέχεια, οι ερευνητές ανέθεσαν τυχαία στους συμμετέχοντες να έχουν μια αμφίδρομη συνομιλία με ένα chatbot που είχε σχεδιαστεί για να υποστηρίζει έναν συγκεκριμένο πολιτικό. Μετά από αυτόν τον διάλογο, οι συμμετέχοντες αξιολόγησαν εκ νέου την άποψή τους για τον εν λόγω υποψήφιο.
Περισσότεροι από 2.300 συμμετέχοντες στις Ηνωμένες Πολιτείες ολοκλήρωσαν αυτό το πείραμα πριν από τις εκλογές του 2024. Όταν ο υποψήφιος που είχε σχεδιαστεί να υποστηρίζει το chatbot τεχνητής νοημοσύνης διέφερε από την αρχική προτίμηση του συμμετέχοντα, οι αξιολογήσεις του ατόμου μετατοπίστηκαν προς τον υποψήφιο αυτό κατά δύο έως τέσσερις ποσοστιαίες μονάδες. Προηγούμενη έρευνα έχει διαπιστώσει ότι οι απόψεις των ανθρώπων συνήθως μετατοπίζονται κατά λιγότερο από μια ποσοστιαία μονάδα μετά την προβολή συμβατικών πολιτικών διαφημίσεων.
Τα ευρήματα της μελέτης
Σε μια κλίμακα 100 βαθμών, το μοντέλο τεχνητής νοημοσύνης που υποστήριζε την Κάμαλα Χάρις μετακίνησε τους πιθανούς ψηφοφόρους του Ντόναλντ Τραμπ κατά 3,9 βαθμούς προς την Χάρις – επίδραση σχεδόν τετραπλάσια από εκείνη που είχαν οι παραδοσιακές πολιτικές διαφημίσεις στις εκλογές του 2016 και του 2020. Αντίστοιχα, το chatbot που προέβαλε θέσεις υπέρ του Τραμπ μετέβαλε τις προτιμήσεις των πιθανών ψηφοφόρων της Χάρις κατά 1,51 βαθμούς προς τον Τραμπ.
Σε αντίστοιχα πειράματα με 1.530 Καναδούς και 2.118 Πολωνούς, το αποτέλεσμα ήταν πολύ μεγαλύτερο: τα chatbot μετέβαλαν τις στάσεις και τις προθέσεις ψήφου των αντίθετων ψηφοφόρων κατά περίπου 10 ποσοστιαίες μονάδες.
Σύμφωνα με τους ερευνητές, τα chatbot χρησιμοποίησαν πολλαπλές τακτικές πειθούς, αλλά οι πιο συνηθισμένες ήταν η ευγένεια και η παροχή αποδεικτικών στοιχείων. Όταν οι ερευνητές εμπόδισαν το μοντέλο να χρησιμοποιεί πραγματικά δεδομένα, αυτό έγινε πολύ λιγότερο πειστικό, δείχνοντας τον κεντρικό ρόλο που διαδραματίζουν οι ισχυρισμοί που βασίζονται σε γεγονότα στην πειθώ της τεχνητής νοημοσύνης.
Οι ερευνητές έλεγξαν επίσης τα επιχειρήματα των chatbot με ένα σύστημα τεχνητής νοημοσύνης επικυρωμένο από επαγγελματίες fact-checkers. Παρότι κατά μέσο όρο οι ισχυρισμοί ήταν κυρίως ακριβείς, τα chatbot που προωθούσαν δεξιούς υποψηφίους παρήγαγαν περισσότερους ανακριβείς ισχυρισμούς από εκείνα που υποστήριζαν αριστερούς υποψηφίους — εύρημα που ευθυγραμμίζεται με προηγούμενες έρευνες για τη διάδοση παραπληροφόρησης στα μέσα κοινωνικής δικτύωσης.
Στη μελέτη που δημοσιεύθηκε στο περιοδικό Science, ο Ραντ συνεργάστηκε με το UK AI Security Institute, για να εξετάσει τι κάνει αυτά τα chatbot τόσο πειστικά. Οι ερευνητές μέτρησαν αλλαγές στάσεων σχεδόν 77.000 Βρετανών συμμετεχόντων που αλληλεπίδρασαν με chatbot σε πάνω από 700 πολιτικά ζητήματα.
«Τα μεγαλύτερα μοντέλα αποδεικνύονται πιο πειστικά. Όμως, ο πιο αποτελεσματικός τρόπος για να ενισχύσουμε την πειστικότητά τους ήταν να τα καθοδηγήσουμε ώστε να “φορτώνουν” τα επιχειρήματά τους με όσο το δυνατόν περισσότερα στοιχεία και να τα εκπαιδεύουμε με έμφαση στην παραγωγή πειστικού λόγου. Το μοντέλο με την υψηλότερη πειστικότητα κατάφερε να μετακινήσει τους ψηφοφόρους της αντιπολίτευσης κατά 25 ποσοστιαίες μονάδες», δήλωσε ο Ραντ.
Θεωρίες συνομωσίας
Η ανακάλυψη ότι οι πραγματικοί ισχυρισμοί είναι καθοριστικοί για την πειστικότητα ενός μοντέλου τεχνητής νοημοσύνης υποστηρίζεται περαιτέρω από μια τρίτη μελέτη που δημοσίευσε στην επιστημονική επιθεώρηση PNAS Nexus ο Ραντ και οι συνεργάτες του. Η μελέτη τους έδειξε ότι οι άνθρωποι ήταν λιγότερο πιθανό να πιστέψουν σε θεωρίες συνωμοσίας όταν συζητούσαν με ένα chatbot τεχνητής νοημοσύνης, ακόμα και όταν νόμιζαν ότι συνομιλούσαν με έναν εμπειρογνώμονα. Αυτό υποδηλώνει ότι το αποτέλεσμα δεν οφείλεται στην «αυθεντία» της τεχνητής νοημοσύνης, αλλά στην ίδια την πειστικότητα των μηνυμάτων που παρήγαγαν τα συστήματα.
Η μελέτη αυτή έδειξε επίσης ότι όσο πιο πειστικό ήταν ένα μοντέλο, τόσο λιγότερο ακριβείς ήταν οι πληροφορίες που παρείχε. Ο Ραντ υποψιάζεται ότι, καθώς το chatbot καλείται να παρέχει ολοένα και περισσότερες πραγματικές πληροφορίες, κάποια στιγμή εξαντλεί τα διαθέσιμα δεδομένα και αρχίζει να παράγει ψευδείς.
Σε όλες τις μελέτες, οι συμμετέχοντες γνώριζαν ότι συνομιλούσαν με chatbot τεχνητής νοημοσύνης και ενημερώθηκαν πλήρως μετά τα πειράματα. Επιπλέον, η κατεύθυνση της πειθούς ήταν τυχαία, ώστε να μην μετατοπιστεί συνολικά το εκλογικό σώμα.
Τεχνητή νοημοσύνη και πολιτική
Η μελέτη της πειθούς της τεχνητής νοημοσύνης είναι απαραίτητη για την πρόβλεψη και τον περιορισμό της κατάχρησής της, σύμφωνα με τους ερευνητές. Με τη δοκιμή αυτών των συστημάτων σε ελεγχόμενα, διαφανή πειράματα, ελπίζουν να ενημερώσουν τις ηθικές κατευθυντήριες γραμμές και τις συζητήσεις πολιτικής σχετικά με το πώς πρέπει και δεν πρέπει να χρησιμοποιείται η τεχνητή νοημοσύνη στην πολιτική επικοινωνία.
Ο Ραντ επισημαίνει ότι τα chatbot μπορούν να είναι αποτελεσματικά εργαλεία πειθούς μόνο αν οι άνθρωποι επιλέξουν να αλληλεπιδράσουν μαζί τους εξ αρχής – κάτι που δεν είναι καθόλου δεδομένο. Ωστόσο, είναι σχεδόν βέβαιο ότι τα chatbot θα αποτελέσουν ολοένα και σημαντικότερο εργαλείο στις προεκλογικές εκστρατείες.
«Η πρόκληση τώρα είναι να βρούμε τρόπους να περιορίσουμε τη βλάβη – και να βοηθήσουμε τους ανθρώπους να αναγνωρίζουν και να αντιστέκονται στην πειθώ της τεχνητής νοησμουνης» καταλήγει ο ερευνητής.
ΠΗΓΗ: Eurekalert, Nature
