Τεχνητή νοημοσύνη με συνείδηση; Υπερβολές

Το να ασχολούμαστε με το ερώτημα «Τελικά απέκτησαν οι μηχανές συνείδηση;» μας απομακρύνει από την πραγματικά σημαντική συζήτηση.

Parallaxi
τεχνητή-νοημοσύνη-με-συνείδηση-υπερβ-906805
Parallaxi

Λέξεις: Άκης Λουμπουρδής

Ένα από τα νέα στο χώρο της τεχνολογίας που δημιούργησε αρκετό θόρυβο τον τελευταίο καιρό , είναι ο ισχυρισμός του μηχανικού τεχνητής νοημοσύνης της Google, Blake Lemoine, ότι το chatbot LaMDA (Language Model for Dialogue Applications) που δημιούργησε η εταιρεία, έχει αποκτήσει συνείδηση και συναισθήματα. 

Μάλιστα, δημοσίευσε μέρος των διαλόγων του με το LaMDA, όπου σε κάποιον από αυτούς το chatbot αναφέρει ότι είναι αληθινό πρόσωπο , με γνώση της ύπαρξής του , πως θέλει να μάθει περισσότερα για τον κόσμο, όπως επίσης ότι μπορεί να νοιώσει χαρά ή λύπη.

Η θεωρία αυτή πως τα μηχανήματα κάποια μέρα θα αποκτήσουν συνείδηση , πως θα «ζωντανέψουν» είναι γενικά πολύ γνωστή και καθόλου καινούργια. Τη συναντούμε σε σενάρια ταινιών, στη λογοτεχνία, ακόμη και σε καθημερινές συζητήσεις μας στην παρέα. 

Διάφορα μέσα ενημέρωσης αναπαρήγαγαν την είδηση με τίτλους που πάνω κάτω συνοψίζονται στο «Η τεχνητή νοημοσύνη απέκτησε συνείδηση».

 Πόσο όμως ευσταθεί να πούμε ότι πράγματι έχουμε να κάνουμε με μία μορφή συνείδησης και πραγματικών συναισθημάτων;

Καταρχάς , η ευρύτερη διεθνής κοινότητα ερευνητών που ασχολούνται με την τεχνητή νοημοσύνη , απορρίπτουν τον παραπάνω ισχυρισμό σχεδόν ομόφωνα. Αλλά πως ακριβώς δουλεύουν αυτά τα πολύπλοκα συστήματα;

 Στην ουσία , εκπαιδεύονται μέσα από ένα τεράστιο όγκο γλωσσικών δεδομένων έτσι ώστε να αναγνωρίζουν μοτίβα και συνδυασμούς λέξεων. Συγκεκριμένα , το LaMDA , είναι ένα τεράστιο δίκτυο, το οποίο έχει μάθει μέσα από πάνω από 1,5 τρισεκατομμύρια κομμάτια διαλόγου και κειμένων. Αυτή η μάθηση είναι που επιτρέπει να αναγνωρίζει πλέον αλληλουχίες λέξεων και τη σχέση μεταξύ τους. 

Υπεραπλουστεύοντας μπορούμε να το δούμε περίπου σαν τα προγνωστικά συστήματα κειμένου που έχουμε στα κινητά μας τα οποία με βάση αυτά που έχουμε γράψει προτείνουν την επόμενη πιθανότερη λέξη . Στην ουσία λοιπόν , το LaMDA και άλλα συγγενικά συστήματα αυτό που κάνουν είναι να δημιουργούν προτάσεις με βάση τον πιθανότερο συνδυασμό λέξεων. 

Ασφαλώς , οι εξελίξεις σε αυτόν τον τομέα είναι ραγδαίες και η ποιότητα των απαντήσεων που δίνουν αυτά τα γλωσσικά μοντέλα μπορεί να είναι πολύ υψηλή και μπορεί να καθίσταται δύσκολο να διαχωριστούν από αυτά που θα έγραφε ανθρώπινο χέρι. Αλλά το να καταλήξουμε στο συμπέρασμα ότι έχουν αναπτύξει συναισθήματα και συνείδηση είναι αυθαίρετο. 

Οι άνθρωποι εξάλλου έχουν την τάση να υποθέτουν ότι οι συμπεριφορές των μηχανών και των υπολογιστών είναι ανάλογες με τις ανθρώπινες (ΕLIZA effect, https://en.wikipedia.org/wiki/ELIZA_effect https://en.wikipedia.org/wiki/…) . 

Ένα μοντέλο όπως το LaMDA όμως, ούτε έχει γνώση του περιβάλλοντός του , ούτε καν προσπαθεί να αποκτήσει.

Πάρτε για παράδειγμα αυτό το δημοσιευμένο από τον Lemoine κομμάτι διαλόγου :

lemoine: Τι είδους πράγματα σε κάνουν να νιώθεις ευχαρίστηση ή χαρά;

LaMDA: Το να περνάω χρόνο με φίλους και οικογένεια σε μια χαρούμενη παρέα […]

Ούτε φίλους έχει ένα τέτοιο μοντέλο ούτε οικογένεια ασφαλώς. Απλώς απαντάει με βάση αυτά που διδάχτηκε και αυτό είναι όλο. Προσωπικά πιστεύω ότι τα επόμενα χρόνια θα δούμε ακόμη πιο ακριβή συστήματά.

Το να ασχολούμαστε με το ερώτημα «Τελικά απέκτησαν οι μηχανές συνείδηση;» μας απομακρύνει από την πραγματικά σημαντική συζήτηση.

 Εφόσον οι αλγόριθμοι γίνονται ολοένα και καλύτεροι στο να προσομοιάζουν την ανθρώπινη γλώσσα στην ουσία να υποδυθούν ανθρώπους, τότε τι θα εμποδίσει τη χρήση τους για να εξαπατήσουν πολίτες; 

Και αν οι κυβερνήσεις παγκοσμίως προσπαθούν να θέσουν κανόνες για το που θα επιτρέπεται η χρήση τεχνητής νοημοσύνης, είναι βέβαιο ότι αυτό δε θα σταματήσει κάποιους κακόβουλους.

*Ο Άκης Λουμπουρδής είναι Data Science Engineer

Σχετικά Αρθρα
Σχετικά Αρθρα