Τεχνολογία

Τεχνητή νοημοσύνη: Μπορούμε να ξεχωρίσουμε τις ψευδείς από τις αληθινές ειδήσεις;

Το fake περιεχόμενο εγείρει πλέον αμέσως υποψίες

Parallaxi
τεχνητή-νοημοσύνη-μπορούμε-να-ξεχωρί-1031463
Parallaxi

Πλέον με λίγα κλικς μπορεί να δημιουργηθεί ψευδές, αλλά απολύτως ρεαλιστικό περιεχόμενο, με τη βοήθεια της ΑΙ φυσικά. Ας πούμε στο Tik Tok υπάρχει λογαριασμός όπου ένα fake Τομ Κρουζ, τραγουδάει, φορώντας μωβ ρόμπα, το “Tiny Dancer” στην (πραγματική) Paris Hilton, η οποία κρατάει στα χέρια της ένα σκυλάκι.

Αυτό το delulu θέαμα έχει προσελκύσει 5,1 εκατομμύρια followers. Και αν μη τι άλλο είναι κάτι διασκεδαστικό. Ταυτόχρονα όμως, συνιστά και μια βαθιά αλλαγή στις κοινωνίες που μέχρι πρότινος θεωρούσαν ότι οι φωτογραφίες, τα βίντεο και τα ηχητικά ντοκουμέντα είναι στοιχεία, αποτελούν αδιάσειστη απόδειξη ενός γεγονός, προσυπογράφουν ότι κάτι συνέβη στην πραγματικότητα. Παραδόξως η ΑΙ δεν δημιουργεί ένα νέο πρόβλημα, απλώς υπενθυμίζει ένα παλιό

Παλιά, οι απατεώνες που παγίδευαν αθώους ανθρώπους στο τηλέφωνο, χρειαζόταν απλώς να μιμηθούν πειστικά τις φωνές των αγαπημένων τους, για να τους πείσουν ότι είχαν κάποιο ατύχημα ή ότι διατρέχουν κίνδυνο και χρειάζονται χρήματα. Σήμερα, οι απατεώνες που παίζουν στα δάχτυλα την Τεχνητή Νοημοσύνη βάζουν τον Tom Hanks, την Taylor Swift και άλλους διάσημους να διαφημίσουν αμφιλεγόμενα προϊόντα στο διαδίκτυο, τη στιγμή που τα deep fakes πολιτικών πολλαπλασιάζονται κάθε δευτερόλεπτο που περνάει.

Ωστόσο, το βασικό, θεμελιώδες πρόβλημα εδώ δεν είναι καινούριο. Για την ακρίβεια είναι πολύ παλιό: Από την τυπογραφία μέχρι το διαδίκτυο, οι νέες τεχνολογίες συχνά διευκόλυναν τη διάδοση αναληθειών ή τη μίμηση προσώπων με κύρος που παρουσιάζονταν να λένε ή να κάνουν κάτι που δεν είπαν ή δεν έκαναν.

Συνήθως, επίσημες αρχές και απλοί χρήστες του διαδικτύου χρησιμοποιούσαν μερικές βασικές μεθόδους για να ξεχωρίσουν το ψέμα από την αλήθεια: για παράδειγμα, ένας υπερβολικά μεγάλος αριθμός ορθογραφικών λαθών υποδηλώνει ότι ένα μήνυμα ηλεκτρονικού ταχυδρομείου μπορεί να είναι επίθεση phishing. Πιο πρόσφατα, οι εικόνες ανθρώπων που δημιουργούνται από τεχνητή νοημοσύνη έχουν συχνά προδοθεί από τα παράξενα χέρια τους με τα καραμπινάτα περισσεύουμενα δάχτυλα. Επίσης, τα fake βίντεο μπορούν εύκολα να εντοπιστούν από την ασυνέπεια εικόνας – ήχου. Το στόμα αυτού που υποτίθεται ότι μιλάει δεν συγχρονίζεται με τον ήχο που ακούγεται.

Η ΑΙ δημιουργεί προηγμένης τεχνολογίας απατεώνες, αλλά και νέους τρόπους διασταύρωσης

Το fake περιεχόμενο εγείρει πλέον αμέσως υποψίες σε όσους γνωρίζουν τι είναι ικανή να κάνει η τεχνητή νοημοσύνη. Το ουσιαστικό πρόβλημα είναι ότι τα deep fakes γίνεται όλο και πιο δύσκολο να εντοπιστούν κάθε μέρα που περνάει. Η τεχνητή νοημοσύνη βελτιώνεται συνεχώς, καθώς τα δεδομένα με τα οποία την «ταΐζουν» σε καθημερινή βάση γίνονται όλο και πιο άφθονα, όλο και πιο εξειδικευμένα.

Θα μπορούσε το λογισμικό ανίχνευσης ψεύτικων ιστοσελίδων με τεχνητή νοημοσύνη, ενσωματωμένο στους φυλλομετρητές της αναζήτησής μας, να εντοπίζει περιεχόμενο που έχει δημιουργηθεί από υπολογιστή; Δυστυχώς όχι. Η κούρσα που έχει ξεσπάσει στο τεχνολογικό σύμπαν ανάμεσα σε εξοπλισμούς που παράγουν deep fake και εργαλείων ανίχνευσής τους ευνοεί τους… πλαστογράφους.

Οι πιθανότητες για ένα απολύτως δυστοπικό μέλλον, όπου ο ένοχος θα θριαμβεύει και ο αθώος θα καταδικάζεται αυξάνονται δραματικά μέρα με τη μέρα. Για παράδειγμα, θα είναι εξαιρετικά δύσκολο να αποφύγουμε έναν κόσμο στον οποίο οποιαδήποτε φωτογραφία ενός ατόμου μπορεί να γίνει πορνογραφική από κάποιον που χρησιμοποιεί ένα μοντέλο ανοιχτού κώδικα στο υπόγειό του, και στη συνέχεια να χρησιμοποιηθεί για εκβιασμό – μια τακτική για την οποία έχει ήδη προειδοποιήσει το FBI.

Ίσως ο καθένας να είναι σε θέση να δημιουργήσει ένα βίντεο με τον πρόεδρο ή τον πρωθυπουργό να ανακοινώνει ένα πρώτο πυρηνικό χτύπημα, θέτοντας στιγμιαία τον κόσμο σε κατάσταση συναγερμού

Αν μπορεί να συμβεί κάτι τέτοιο, απλώς φανταστείτε τι άνθηση θα γνωρίσει η δουλειά των απατεώνων που ψάχνουν θύματα από το τηλέφωνο.

Τι γίνεται τότε; Απλά –ή και όχι τόσο απλά- οι κοινωνίες θα προσαρμοστούν στο να αναγνωρίζουν τους απατεώνες και τις τρομακτικά πειστικές απάτες τους. Οι πολίτες θα αρχίσουν –αργά και επώδυνα, ίσως- να μαθαίνουν και να καταλαβαίνουν ότι ένα ηχητικό «ντοκουμέντο» ή ένα βίντεο δεν αποδεικνύουν ότι κάτι συνέβη.

Καμία ΑΙ: Μόνο αξιόπιστες πηγές

Το διαδικτυακό περιεχόμενο δεν θα είναι πλέον εφικτό να επαληθευτεί, οπότε το ποιος δημοσίευσε κάτι θα γίνει εξίσου σημαντικό, ίσως και περισσότερο, από το τι δημοσιεύθηκε. Αν υποθέσουμε ότι οι αξιόπιστες πηγές μπορούν να συνεχίσουν να αυτοπροσδιορίζονται με ασφάλεια -μέσω url, διευθύνσεων ηλεκτρονικού ταχυδρομείου και πλατφορμών κοινωνικής δικτύωσης-, η φήμη και η προέλευση (της οποιασδήποτε είδησης, μίας εικόνας, ενός βίντεο, οτιδή θα γίνουν πιο σημαντικές από ποτέ.

Μπορεί να ακούγεται παράξενο, αλλά αυτό ίσχυε –για τις ειδήσεις και για τη διασταύρωση τους- όλα τα προηγούμενα χρόνια. Πρακτικά από τότε που υπάρχουν γεγονότα. Από πάντα, δηλαδή. Όμως, το ότι οι άνθρωποι μπορεί σύντομα να δυσκολεύονται να εντοπίσουν το αόρατο χέρι της ΑΙ, δεν σημαίνει ότι η αγορά ιδεών είναι καταδικασμένη. Με τον καιρό, τα μόνα deep fakes που θα γνωρίζουν επιτυχία, θα είναι κυρίως τα χιουμοριστικά. Απλώς μέχρι τότε θα πρέπει να προσαρμοστούμε σε μια νέα πραγματικότητα. Που είναι φτιαγμένη από πολλά ψέματα.

Πηγή: Lifo / Economist

Σχετικά Αρθρα
Σχετικά Αρθρα