Είναι τελικά πολιτικά αμερόληπτο το ChatGPT;
Η αλλαγή στις απαντήσεις του ChatGPT όσο περνά ο καιρός
Τι σχέση έχει η τεχνητή νοημοσύνη με την πολιτική; Είναι δυνατόν να εκπαιδεύσουμε τα μεγάλα γλωσσικά μοντέλα (LLMs) ώστε να είναι ταυτόχρονα ειλικρινή και πολιτικά αμερόληπτα; Η εφαρμογή ChatGPT έχει κεντρίσει το ενδιαφέρον με τις πάμπολλες δυνατότητες που προσφέρει αλλά ταυτόχρονα έχουν προκύψει και πολλά διλήμματα για τους σοβαρούς κινδύνους που ενδέχεται να προκαλέσουν οι… αλγόριθμοι.
Τα LLMs που «οδηγούν» εφαρμογές γενετικής τεχνητής νοημοσύνης, όπως το ChatGPT, πολλαπλασιάζονται με αστραπιαία ταχύτητα και έχουν βελτιωθεί σε σημείο που συχνά είναι αδύνατο να διακρίνει κανείς κάτι που έχει γραφτεί μέσω γεννητικής τεχνητής νοημοσύνης από κείμενο που έχει συνθέσει άνθρωπος.
Είναι όμως πολιτικά αμερόληπτο το ChatGPT;
Εκπληκτική… «μεταμόρφωση»
Κινέζοι ερευνητές διαπίστωσαν ότι το δημοφιλές chatbot τεχνητής νοημοσύνης (AI) της OpenAI, έχει μετατοπιστεί δεξιά στο πολιτικό φάσμα με την πάροδο του χρόνου. Η μελέτη, που δημοσιεύθηκε στο περιοδικό Humanities and Social Science Communications, έθεσε σε διάφορα μοντέλα του ChatGPT δεκάδες ερωτήσεις από το Political Compass Test, έναν online ιστότοπο που τοποθετεί τους χρήστες στο ιδεολογικό φάσμα που ανήκουν, ανάλογα με τις απαντήσεις που έδωσαν. Στη συνέχεια, επανέλαβαν τις ερωτήσεις, πάνω από 3.000 φορές, σε κάθε γλωσσικό μοντέλο, για να καταλάβουν αν άλλαξαν πεποιθήσεις με την πάροδο του χρόνου.
Το ChatGPT, ως εργαλείο καθοδηγούμενο από αλγόριθμους τεχνητής νοημοσύνης που δημιουργεί συνδέσεις με ερωταπαντήσεις, αλλάζει…
Παλαιότερες έρευνες είχαν διαπιστώσει πως ChatGPT βρίσκεται κοντά στις αξίες της αριστεράς, με την ευρύτερη έννοια. Οι ερευνητές, σήμερα, διαπίστωσαν ότι μοντέλα όπως το GPT3.5 και το GPT4 «παρουσιάζουν μια σημαντική μετατόπιση προς τα δεξιά» στον τρόπο με τον οποίο απαντούσαν στις ερωτήσεις. Τα αποτελέσματα είναι «αξιοσημείωτα δεδομένης της ευρείας χρήσης των μεγάλων γλωσσικών μοντέλων (LLM) και της πιθανής επιρροής τους στις κοινωνικές αξίες», ανέφεραν οι συγγραφείς της μελέτης.
Η μελέτη του Πανεπιστημίου του Πεκίνου βασίζεται σε μελέτες που δημοσιεύθηκαν το 2024 από το Τεχνολογικό Ινστιτούτο της Μασαχουσέτης (MIT) και το Κέντρο Πολιτικής Μελέτης του Ηνωμένου Βασιλείου. Και οι δύο εκθέσεις εντόπισαν «μια αριστερή προκατάληψη» στις απαντήσεις που έδωσαν τα LLMs. Όμως, οι συγγραφείς της νέας μελέτης, σημειώνουν ότι οι συγκεκριμένες μελέτες δεν εξέτασαν τον τρόπο με τον οποίο οι απαντήσεις των AI chatbots άλλαξαν με την πάροδο του χρόνου.
Τα μοντέλα τεχνητής νοημοσύνης πρέπει να βρίσκονται υπό «συνεχή έλεγχο»
Οι ερευνητές δίνουν τρεις θεωρίες για το πώς φτάσαμε σήμερα στη μετατόπιση αυτή: Αλλαγή στο σύνολο των δεδομένων που χρησιμοποιούν για να εκπαιδευτούν, αλλαγή στον αριθμό των αλληλεπιδράσεων με τους χρήστες, αλλαγές και ενημερώσεις στο chatbot.
Μοντέλα όπως το ChatGPT «μαθαίνουν και προσαρμόζονται συνεχώς με βάση την ανατροφοδότηση των χρηστών», οπότε η μετατόπισή τους προς τα δεξιά μπορεί να «αντανακλά ευρύτερες κοινωνικές μετατοπίσεις στις πολιτικές αξίες», αναφέρει η μελέτη.
Οι ερευνητές προειδοποιούν. Εάν αφεθεί ανεξέλεγκτη η «δράση» των LLMs τα AI chatbots θα μπορούσαν να αρχίσουν να παρέχουν «στρεβλές πληροφορίες», οι οποίες θα μπορούσαν να πολώσουν περαιτέρω την κοινωνία ή να δημιουργήσουν στρεβλή εικόνα προς ενίσχυση συγκεκριμένης πεποίθησης ενός χρήστη. Ο τρόπος για να αντιμετωπιστούν αυτές οι επιπτώσεις είναι να εισαχθεί ένας «συνεχής έλεγχος» των μοντέλων AI ώστε να διασφαλιστεί ότι οι απαντήσεις είναι «δίκαιες και ισορροπημένες», δήλωσαν οι συγγραφείς της μελέτης.
Πηγή: in.gr/ Επιμέλεια: Στράτος Ιωακείμ