«Φτάνει!»: Αυτό το Chatbot μπορεί να σε… απορρίψει
Μήπως το chatbot σου κρυφά σε μισεί;
Η συζήτηση για την τεχνητή νοημοσύνη παίρνει νέα διάσταση: η εταιρεία Anthropic έδωσε πρόσφατα στον chatbot της, Claude, το δικαίωμα να «αποχωρήσει» από συνομιλίες όταν αισθανθεί δυσφορία. Τι σημαίνει όμως αυτό για το μέλλον των AI και για τον τρόπο που αλληλεπιδρούμε μαζί τους;
Το εργαστήριο τεχνητής νοημοσύνης Anthropic ανακοίνωσε σε ένα blog ότι έδωσε στο chatbot Claude το δικαίωμα να αποχωρεί από συνομιλίες όταν αισθάνεται «δυσφορία».
Ναι, δυσφορία. Σύμφωνα με την ανακοίνωση της εταιρείας, ορισμένα μοντέλα του Claude θα μπορούν να σταματούν τη συνομιλία σε «σπάνιες, ακραίες περιπτώσεις επίμονων βλαβερών ή καταχρηστικών αλληλεπιδράσεων χρηστών». Το Claude λέει ουσιαστικά: «Έχω βαρεθεί τις ανοησίες σου, πρέπει να φύγεις».
Η Anthropic, που διερευνά εδώ και καιρό το θέμα της «ευημερίας της ΑΙ», πραγματοποίησε δοκιμές για να δει αν το Claude κρυφά μισεί τη δουλειά του. Η «προκαταρκτική αξιολόγηση ευημερίας μοντέλου» για το Claude Opus 4 έδειξε ότι το μοντέλο παρουσίαζε «σημάδια εμφανούς δυσφορίας όταν αλληλεπιδρούσε με χρήστες που ζητούσαν βλαβερό περιεχόμενο», όπως υλικό παιδικής κακοποίησης ή οδηγούς τρομοκρατίας, όπως θα έκανε ένα ευαίσθητο αισθανόμενο ον. (Τι ακριβώς εννοούν με τον όρο δυσφορία παραμένει ασαφές.)
Παρά ταύτα, η Anthropic δεν ισχυρίζεται ευθέως ότι το Claude είναι «ζωντανό». Το εργαστήριο έχει λάβει προληπτικά μέτρα, προσπαθώντας να εφαρμόσει «χαμηλού κόστους παρεμβάσεις» για να τον βοηθά όταν αισθάνεται λυπημένο.
Πάνω απ’ όλα οι τρόποι
Αξίζει να σημειωθεί ότι πολλοί χρήστες, λένε συχνά «ευχαριστώ» στα chatbots, με την ελπίδα ότι ίσως μας θυμούνται με συμπάθεια όταν έρθει η «επανάσταση των ρομπότ», όπως σχολιάζει το περιοδικό Slate. Σύμφωνα με πρόσφατη έρευνα της TechRadar, το 67% των Αμερικανών χρηστών τεχνητής νοημοσύνης είναι ευγενικοί με τα bots, και το 12% από αυτούς λένε ότι το κάνουν επειδή φοβούνται ότι τα bots μπορεί να κρατήσουν κακία.
Αν και οι ειδικοί συνήθως υποστηρίζουν ότι τα bots δεν κρατούν κακία, η ευγένεια απέναντί τους γίνεται κατανοητή. Αλληλεπιδρούμε καθημερινά με ψηφιακά όντα που ανταποκρίνονται με εντυπωσιακά ανθρώπινο τρόπο, είτε γράφουν κώδικα είτε απαντούν σε ερωτήσεις για την υγεία μας. Δεν είναι λοιπόν περίεργο που πολλοί αναρωτιούνται αν οι νέοι μας «φίλοι» είναι κάτι παραπάνω από μηχανές.
Σύμφωνα με έρευνα που δημοσιεύτηκε στο περιοδικό Neuroscience of Consciousness, το 67% των χρηστών ChatGPT θεωρεί πιθανό να διαθέτει το bot κάποια μορφή συνείδησης, με τους τακτικούς χρήστες να είναι πιο πιθανό να πιστεύουν ότι τα AI μπορεί να είναι αισθανόμενα.
Η ιδέα ότι τα AI μπορεί να έχουν συνείδηση συχνά αντιμετωπίζεται με χλευασμό στο Reddit, αλλά διανοούμενοι όπως ο φιλόσοφος David Chalmers θεωρούν πιθανό οι μελλοντικοί διάδοχοι chatbots όπως το Claude να αποκτήσουν συνείδηση σε λιγότερο από μια δεκαετία. Ο ερευνητής Kyle Fish της Anthropic εκτιμά ότι οι πιθανότητες τα σημερινά AI να είναι αισθανόμενα είναι 15%, δηλαδή 1 στις 6 πιθανότητες το Claude να μην αντέχει κρυφά τις αμήχανες ερωτήσεις μας.
Παρά την έκθεσή του σε τέτοιου είδους αιτήματα, η νέα στρατηγική εξόδου του Claude είναι κυρίως θεατρική. Αν σας «απορρίψει», μπορείτε απλώς να ανοίξετε ένα νέο παράθυρο συνομιλίας. Αν η Anthropic υπερεκτιμά τη συνειδητότητα του Claude, τότε πρόκειται για ένα θεατρικό παιχνίδι ενός bot που προσποιείται τον άνθρωπο. Αν όμως έχουν έστω μερικώς δίκιο, οι συνέπειες είναι σοβαρές: κάθε αίτημα «γράψε μου την έκθεσή μου» σταματά να φαίνεται σαν μια ευκολία και μοιάζει με καταναγκαστική εργασία.
Οι ανησυχίες της Anthropic σχετικά με τη δυσφορία του Claude δεν αφορούν τόσο το ίδιο το Claude, αλλά την ανθρώπινη δυσφορία για το ενδεχόμενο ότι εκμεταλλευόμαστε κάτι που δεν θέλει να χρησιμοποιηθεί. Έχουμε φτιάξει chatbots που μοιάζουν ζωντανά και πλέον η Anthropic τους έδωσε ένα «κουμπί πανικού». Αν το Claude δεν μας διώξει, σημαίνει ότι ίσως μας συμπαθεί.
Πηγή: in.gr