Τεχνολογία

Θα μπορέσουν τελικά οι κυβερνήσεις να τιθασεύσουν την Τεχνητή Νοημοσύνη πριν να είναι αργά;

«Δεν ξέρουν τι στο διάολο κάνουν».

Parallaxi
θα-μπορέσουν-τελικά-οι-κυβερνήσεις-να-1003361
Parallaxi

H Τεχνητή Νοημοσύνη είναι πια βέβαιο πως θα αλλάξει τα πάντα στη ζωή μας. Το ερώτημα είναι θα καταφέρουν οι κυβερνήσεις να την τιθασεύσουν προτού είναι πολύ αργά; 

Έχοντας κατά νου το σημαντικό αυτό ερώτημα, διαβάστε παρακάτω το κείμενο του in.gr το οποίο έχει επιμεληθεί ο Ευάγγελος Γεωργίου:

Στα μέση του Ιουνίου του 2023, ο σκληροπυρηνικός Ρεπουμπλικάνος γερουσιαστής Τεντ Κρουζ, σε διαδικτυακή συνέντευξη ήταν κάτι παραπάνω από ειλικρινής, όσον αφορά τη νομοθεσία για τη τεχνητή νοημοσύνη: Το Κογκρέσο «δεν ξέρει τι στο διάολο κάνει»! Τα νέα δεν είναι καθόλου καλά.

Η υπερ-εξελικτική της φύση καθιστά την επίλυση των προκλήσεων σταδιακά πιο δύσκολη. Αυτό είναι το παράδοξο ισχύος της τεχνητής νοημοσύνης. Ο ρυθμός της προόδου είναι συγκλονιστικός. Με κάθε νέα τάξη μεγέθους, αναδύονται απροσδόκητες δυνατότητες. Λίγοι προέβλεψαν ότι η εκπαίδευση σε ακατέργαστο κείμενο θα επέτρεπε σε μεγάλα γλωσσικά μοντέλα να παράγουν συνεκτικές, πρωτότυπες, ακόμη και δημιουργικές προτάσεις. Σύντομα, οι προγραμματιστές τεχνητής νοημοσύνης πιθανότατα θα καταφέρουν να δημιουργήσουν συστήματα με δυνατότητες αυτοβελτίωσης!

Η τεχνητή νοημοσύνη διαφέρει επίσης από τις παλαιότερες τεχνολογίες στο ότι σχεδόν όλες μπορούν να χαρακτηριστούν ως «διπλής χρήσης», δηλαδή μπορεί να χρησιμοποιηθούν τόσο για ειρηνικούς όσο και στρατιωτικούς σκοπούς.

Το ίδιο σύστημα μπορεί να οδηγήσει αυτοκίνητο, αλλά και ένα άρμα μάχης. Μια εφαρμογή τεχνητής νοημοσύνης που έχει δημιουργηθεί για τη διάγνωση ασθενειών μπορεί να είναι σε θέση να δημιουργήσει μια νέα ασθένεια. Η τεχνητή νοημοσύνη θα μπορούσε επίσης να καταστρέψει εκατομμύρια θέσεις εργασίας, επιδεινώνοντας τις υπάρχουσες ανισότητες και δημιουργώντας νέες.

Σε αντίθεση με τα προηγούμενα όπλα, τα συστήματα τεχνητής νοημοσύνης θα γίνουν μεγαλύτερα, καλύτερα, φθηνότερα και πιο πανταχού παρόντα. Κάθε έθνος και εταιρεία θα έχει μια εκδοχή αυτού του όπλου.

Τα συστήματα τεχνητής νοημοσύνης που δημιουργούνται μπορούν ήδη να γράφουν πιο καθαρά και πειστικά από τους περισσότερους ανθρώπους και μπορούν να παράγουν πρωτότυπες εικόνες, έργα τέχνης, ακόμη και κώδικα υπολογιστή με βάση απλές γλωσσικές προτροπές. Και η γενετική τεχνητή νοημοσύνη είναι μόνο η κορυφή του παγόβουνου.

Η πολυπλοκότητα της τεχνολογίας και η ταχύτητα της προόδου της θα καταστήσει σχεδόν αδύνατο για τις κυβερνήσεις να θεσπίσουν σχετικούς κανόνες με λογικό ρυθμό. Εάν οι κυβερνήσεις δεν καλύψουν τη διαφορά σύντομα, είναι πιθανό να μην το κάνουν ποτέ.

Η ρύθμιση της τεχνητής νοημοσύνης σε ορισμένες χώρες είναι ελάχιστη, εάν παραμένει ανεξέλεγκτη σε άλλες. Με εκτενές άρθρο τους στο περιοδικό Foreign Affairs ο πολιτικός επιστήμονας και πρόεδρος της συμβουλευτικής Eurasia Group και ο Βρετανός ερευνητής και επιχειρηματίας τεχνητής νοημοσύνης και συνιδρυτής της DeepMind, Mustafa Suleyman κρούουν τον κώδωνα του κινδύνου.

«Δεν ξέρουν τι στο διάολο κάνουν»

Ευτυχώς, οι υπεύθυνοι χάραξης πολιτικής σε όλο τον κόσμο έχουν αρχίσει να ξυπνούν με τις προκλήσεις που θέτει η τεχνητή νοημοσύνη και να παλεύουν με το πώς να το κυβερνήσουν. Τον Μάιο του 2023, το G-7 ξεκίνησε τη «διαδικασία τεχνητής νοημοσύνης της Χιροσίμα», ένα φόρουμ αφιερωμένο στην εναρμόνιση της διακυβέρνησης της τεχνητής νοημοσύνης.

Τον Ιούνιο, το Ευρωπαϊκό Κοινοβούλιο ενέκρινε ένα προσχέδιο του νόμου της ΕΕ για την τεχνητή νοημοσύνη, την πρώτη συνολική προσπάθεια της EΕ να δημιουργήσει διασφαλίσεις γύρω από τον κλάδο της τεχνητής νοημοσύνης. Και τον Ιούλιο, ο Γενικός Γραμματέας των Ηνωμένων Εθνών Αντόνιο Γκουτέρες ζήτησε τη σύσταση ενός παγκόσμιου ρυθμιστικού φορέα τεχνητής νοημοσύνης. Εν τω μεταξύ, στις Ηνωμένες Πολιτείες, οι πολιτικοί και στις δύο πλευρές του διαδρόμου ζητούν ρυθμιστική δράση. Αλλά πολλοί συμφωνούν με τον Τεντ Κρουζ, τον Ρεπουμπλικανό γερουσιαστή από το Τέξας, ο οποίος κατέληξε στο συμπέρασμα τον Ιούνιο ότι το Κογκρέσο «δεν ξέρει τι στο διάολο κάνει».

Δυστυχώς, μεγάλο μέρος της συζήτησης σχετικά με τη διακυβέρνηση της τεχνητής νοημοσύνης παραμένει παγιδευμένο σε ένα επικίνδυνο ψευδές δίλημμα: να αξιοποιήσει την τεχνητή νοημοσύνη για να επεκτείνει την εθνική ισχύ ή να την καταπνίξει για να αποφύγει τους κινδύνους της. Ακόμη και εκείνοι που διαγιγνώσκουν με ακρίβεια το πρόβλημα προσπαθούν να το λύσουν με την τοποθέτηση της τεχνητής νοημοσύνης σε υπάρχοντα ή ιστορικά πλαίσια διακυβέρνησης. Ωστόσο, η τεχνητή νοημοσύνη δεν μπορεί να κυβερνηθεί όπως οποιαδήποτε προηγούμενη τεχνολογία, και ήδη μεταβάλλει τις παραδοσιακές έννοιες της γεωπολιτικής ισχύος.

Η πρόκληση είναι ξεκάθαρη: να σχεδιαστεί ένα νέο πλαίσιο διακυβέρνησης κατάλληλο για αυτή τη μοναδική τεχνολογία. Για να καταστεί δυνατή η παγκόσμια διακυβέρνηση της τεχνητής νοημοσύνης, το διεθνές σύστημα πρέπει να ξεπεράσει τις παραδοσιακές αντιλήψεις περί κυριαρχίας και να καλωσορίσει τις εταιρείες τεχνολογίας στο τραπέζι. Αυτοί οι φορείς μπορεί να μην αντλούν νομιμότητα από ένα κοινωνικό συμβόλαιο, τη δημοκρατία ή την παροχή δημόσιων αγαθών, αλλά χωρίς αυτούς, η αποτελεσματική διακυβέρνηση της τεχνητής νοημοσύνης δεν θα έχει καμία ευκαιρία. Αυτό είναι ένα παράδειγμα του πώς η διεθνής κοινότητα θα χρειαστεί να επανεξετάσει τις βασικές υποθέσεις σχετικά με τη γεωπολιτική τάξη. Δεν είναι όμως το μόνο.

Για αρχή, οποιοδήποτε πλαίσιο διακυβέρνησης θα πρέπει να είναι προληπτικό, ευέλικτο, περιεκτικό, αδιαπέραστο και στοχευμένο. Βασιζόμενοι σε αυτές τις αρχές, οι υπεύθυνοι χάραξης πολιτικής θα πρέπει να δημιουργήσουν τουλάχιστον τρία αλληλεπικαλυπτόμενα καθεστώτα διακυβέρνησης: ένα για τη διαπίστωση γεγονότων και την παροχή συμβουλών στις κυβερνήσεις σχετικά με τους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη, ένα για την αποτροπή μιας συνολικής κούρσας εξοπλισμών μεταξύ τους και ένα για τη διαχείριση των ανατρεπτικών δυνάμεων ενός τεχνολογία σε αντίθεση με οτιδήποτε έχει δει ο κόσμος.

Παιχνίδι μηδενικού αθροίσματος

Εντός των χωρών, η τεχνητή νοημοσύνη θα εξουσιοδοτήσει αυτούς που την χρησιμοποιούν να παρακολουθούν, να εξαπατούν, ακόμη και να ελέγχουν πληθυσμούς, επιβαρύνοντας τη συλλογή και εμπορική χρήση προσωπικών δεδομένων στις δημοκρατίες και ακονίζοντας τα εργαλεία καταστολής που χρησιμοποιούν οι αυταρχικές κυβερνήσεις για να υποτάξουν τις κοινωνίες τους. Σε όλες τις χώρες, η τεχνητή νοημοσύνη θα είναι το επίκεντρο του έντονου γεωπολιτικού ανταγωνισμού. Είτε για τις κατασταλτικές της ικανότητες, το οικονομικό δυναμικό ή το στρατιωτικό της πλεονέκτημα, η υπεροχή της τεχνητής νοημοσύνης θα είναι στρατηγικός στόχος κάθε κυβέρνησης με τους πόρους για να ανταγωνιστεί.

Η συντριπτική πλειοψηφία των χωρών δεν έχει ούτε τα χρήματα ούτε την τεχνολογική τεχνογνωσία για να ανταγωνιστεί για την ηγεσία της τεχνητής νοημοσύνης. Η πρόσβασή τους στη συνοριακή τεχνητή νοημοσύνη θα καθορίζεται από τις σχέσεις τους με μια χούφτα ήδη πλούσιες και ισχυρές εταιρείες και κράτη. Αυτή η εξάρτηση απειλεί να επιδεινώσει τις τρέχουσες γεωπολιτικές ανισορροπίες ισχύος. Οι πιο ισχυρές κυβερνήσεις θα αγωνιστούν για να ελέγξουν τον πιο πολύτιμο πόρο του κόσμου, ενώ, για άλλη μια φορά, οι χώρες στον παγκόσμιο Νότο θα μείνουν πίσω. Αυτό δεν σημαίνει ότι μόνο οι πλουσιότεροι θα επωφεληθούν από την επανάσταση της τεχνητής νοημοσύνης. Όπως το Διαδίκτυο και τα smartphone, η τεχνητή νοημοσύνη θα πολλαπλασιαστεί χωρίς σεβασμό των συνόρων, όπως και τα κέρδη παραγωγικότητας που απελευθερώνει.

Και όπως η ενέργεια και η πράσινη τεχνολογία, η τεχνητή νοημοσύνη θα ωφελήσει πολλές χώρες που δεν την ελέγχουν, συμπεριλαμβανομένων εκείνων που συμβάλλουν στην παραγωγή εισροών τεχνητής νοημοσύνης, όπως οι ημιαγωγοί.

Το AI δεν είναι απλώς ένα άλλο εργαλείο ή όπλο που μπορεί να φέρει κύρος, δύναμη ή πλούτο. Έχει τη δυνατότητα να επιτρέψει ένα σημαντικό στρατιωτικό και οικονομικό πλεονέκτημα έναντι των αντιπάλων. Δικαίως ή αδίκως, οι δύο μεγάλοι παγκόσμιοι αντίπαλοι Κίνα και ΗΠΑ θα βλέπουν την ανάπτυξη της τεχνητής νοημοσύνης ως ένα παιχνίδι μηδενικού αθροίσματος που θα δώσει στον νικητή ένα αποφασιστικό στρατηγικό πλεονέκτημα στις επόμενες δεκαετίες.

Κατά την άποψή τους, μια «παύση» στην ανάπτυξη για την αξιολόγηση των κινδύνων, όπως έχουν ζητήσει ορισμένοι ηγέτες του κλάδου της τεχνητής νοημοσύνης, θα ισοδυναμούσε με ανόητο μονομερή αφοπλισμό.

Είναι χειρότερα από τα πυρηνικά

Οι ρυθμιστικές προσπάθειες μέχρι σήμερα είναι σε αρχικό στάδιο και εξακολουθούν να είναι ανεπαρκείς. Μπορεί η ΕΕ να έχει κάνει ίσως τα μεγαλύτερα βήματα, αλλά μέχρι να εφαρμοστεί η σχετική νομοθεσία, το 2026, τα μοντέλα τεχνητής νοημοσύνης θα έχουν ξεφύγει.

Το Ηνωμένο Βασίλειο έχει προτείνει μια ακόμη πιο χαλαρή, εθελοντική προσέγγιση για τη ρύθμιση της τεχνητής νοημοσύνης, αλλά δεν έχει τα δόντια για να είναι αποτελεσματική.

Πολλοί επιχειρούν να δαμάσουν τη τεχνητή νοημοσύνη πάνω στο μοντέλο του ελέγχου των πυρηνικών όπλων. Αλλά τα συστήματα τεχνητής νοημοσύνης δεν είναι μόνο απείρως ευκολότερα στην ανάπτυξη, την κλοπή και την αντιγραφή από τα πυρηνικά όπλα, αλλά ελέγχονται από ιδιωτικές εταιρείες και όχι από κυβερνήσεις.

Καθώς η νέα γενιά μοντέλων τεχνητής νοημοσύνης διαχέεται πιο γρήγορα από ποτέ, η σύγκριση των πυρηνικών φαίνεται ολοένα και πιο ξεπερασμένη. Ακόμη και αν οι κυβερνήσεις μπορούν να ελέγξουν με επιτυχία την πρόσβαση στα υλικά που χρειάζονται για την κατασκευή των πιο προηγμένων μοντέλων -όπως προσπαθεί να κάνει η κυβέρνηση Μπάιντεν εμποδίζοντας την Κίνα να αποκτήσει προηγμένα τσιπ- δεν μπορούν να κάνουν λίγα για να σταματήσουν τη διάδοση αυτών των μοντέλων μόλις εκπαιδευτούν. Η καλύτερη άμυνα είναι η πρόληψη και ευελιξία

Ο πρωταρχικός στόχος οποιασδήποτε παγκόσμιας ρυθμιστικής αρχιτεκτονικής τεχνητής νοημοσύνης θα πρέπει να είναι ο εντοπισμός και ο μετριασμός των κινδύνων για την παγκόσμια σταθερότητα χωρίς να πνίγεται η καινοτομία της τεχνητής νοημοσύνης και οι ευκαιρίες που απορρέουν από αυτήν. Έτσι θα μπορούσαν να δημιουργηθούν φορείς που να λειτουργούν προληπτικά, όπως είναι τα παγκόσμια χρηματοπιστωτικά ιδρύματα -πχ Συμβούλιο Χρηματοπιστωτικής Σταθερότητας, η Τράπεζα Διεθνών Διακανονισμών, ΔΝΤ- που εντοπίζουν και μετριάζουν τους κινδύνους για την παγκόσμια χρηματοπιστωτική σταθερότητα χωρίς να τεθεί σε κίνδυνο η οικονομική ανάπτυξη.

Αυτοί οι μηχανισμοί, με τη σειρά τους, θα καθοδηγούνται από κοινές αρχές που είναι προσαρμοσμένες στα μοναδικά χαρακτηριστικά της τεχνητής νοημοσύνης και αντικατοπτρίζουν τη νέα τεχνολογική ισορροπία δυνάμεων που έχει βάλει τις εταιρείες τεχνολογίας στη θέση του οδηγού. Αυτές οι αρχές θα βοηθούσαν τους υπεύθυνους χάραξης πολιτικής να καταρτίσουν πιο αναλυτικά ρυθμιστικά πλαίσια για να διέπουν την τεχνητή νοημοσύνη καθώς εξελίσσεται και γίνεται πιο διεισδυτική δύναμη.

Εδώ θέλει προσοχή όμως γιατί ο μέγιστος περιορισμός της τεχνητής νοημοσύνης θα σήμαινε την παραίτηση από τα θετικά της που αλλάζουν τη ζωή, αλλά η μέγιστη απελευθέρωσή της θα σήμαινε ότι θα διακινδυνεύσει όλα τα δυνητικά καταστροφικά μειονεκτήματά της. Με άλλα λόγια, το προφίλ κινδύνου-ανταμοιβής για την τεχνητή νοημοσύνη είναι ασύμμετρο.

Δεδομένης της ριζικής αβεβαιότητας σχετικά με την κλίμακα και το μη αναστρέψιμο ορισμένων από τις πιθανές βλάβες της τεχνητής νοημοσύνης, η διακυβέρνηση της τεχνητής νοημοσύνης πρέπει να στοχεύει στην πρόληψη αυτών των κινδύνων προτού υλοποιηθούν αντί να τους μετριάσει εκ των υστέρων.

Η διακυβέρνηση της τεχνητής νοημοσύνης πρέπει επίσης να είναι ευέλικτη, ώστε να μπορεί να προσαρμοστεί και να διορθώσει την πορεία της καθώς η τεχνητή νοημοσύνη εξελίσσεται και βελτιώνεται. Αυτό βέβαια δεν σημαίνει ότι πρέπει να υιοθετηθεί ο ανήθικος κανόνας της Silicon Valley, «προχώρα μπροστά και σπάσε τους κανόνες», αλλά θα πρέπει να αντικατοπτρίζει περισσότερο τη φύση της τεχνολογίας που επιδιώκει να περιέχει.

Μια διακυβέρνηση που θα έχεις του πάντες στο τιμόνι

Για να ρυθμιστεί η τεχνητή νοημοσύνη πρέπει να επιστρατευτούν οι πάντες, δηλαδή δεν μπορεί να είναι αποκλειστικά κρατική, καθώς οι κυβερνήσεις ούτε κατανοούν ούτε ελέγχουν τη τεχνητή νοημοσύνη, ενώ οι ιδιωτικές εταιρείες τεχνολογίας διαθέτουν έχουν το πάνω χέρι στον ψηφιακό κόσμο. Βέβαια, σε αυτούς τους μη κρατικούς φορείς δεν πρέπει να παραχωρούνται τα ίδια δικαιώματα και προνόμια με τα κράτη, τα οποία αναγνωρίζεται διεθνώς ότι ενεργούν για λογαριασμό των πολιτών τους. Θα πρέπει όμως να είναι συμβαλλόμενα μέρη σε διεθνείς συνόδους κορυφής και να έχουν υπογράψει οποιεσδήποτε συμφωνίες για την τεχνητή νοημοσύνη.

Η πρόσκληση των προγραμματιστών τεχνητής νοημοσύνης να συμμετάσχουν στη διαδικασία θέσπισης κανόνων από την αρχή θα βοηθούσε στη δημιουργία μιας πιο συνεργατικής κουλτούρας διακυβέρνησης της τεχνητής νοημοσύνης, μειώνοντας την ανάγκη χαλάρωσης αυτών των εταιρειών μετά το γεγονός με δαπανηρές και αντίθετες ρυθμίσεις.

Οι εταιρείες τεχνολογίας δεν πρέπει να έχουν πάντα λόγο. Ορισμένες πτυχές της διακυβέρνησης της τεχνητής νοημοσύνης αφήνονται καλύτερα στις κυβερνήσεις και είναι αυτονόητο ότι τα κράτη πρέπει πάντα να διατηρούν το τελικό δικαίωμα αρνησικυρίας στις αποφάσεις πολιτικής. Οι κυβερνήσεις πρέπει επίσης να προφυλάσσονται από καταστάσεις που η κανονισμοί θα εξυπηρετούν συμφέροντα εταιρειών (regulatory capture). Χρειάζεται ένα περιεκτικό, πολυμετοχικό μοντέλο διακυβέρνησης κυβερνήσεις, εταιρείες τεχνολογίας, επιστήμονες, ειδήμονες σε θέματα ηθικής, συνδικάτα, κοινωνία των πολιτών και άλλες φωνές.

Πρέπει να είναι αδιαπέραστη

Η διακυβέρνηση της τεχνητής νοημοσύνης πρέπει επίσης να είναι όσο το δυνατόν πιο αδιαπέραστη. Σε αντίθεση με τον μετριασμό της κλιματικής αλλαγής, όπου η επιτυχία θα καθοριστεί από το άθροισμα όλων των μεμονωμένων προσπαθειών, η ασφάλεια της τεχνητής νοημοσύνης καθορίζεται από τον χαμηλότερο κοινό παρονομαστή: ένας μόνο αλγόριθμος θα μπορούσε να προκαλέσει ανείπωτη ζημιά.

Η παγκόσμια διακυβέρνηση της τεχνητής νοημοσύνης πρέπει να είναι παντού στεγανοποιημένη από κακές επιρροές, κάνοντας εξαιρετικά εύκολο για να συμμετέχει κάποιος, αλλά πολύ δαπανηρό για να αποτρέψει τη μη συμμόρφωση. Ένα μόνο παραθυράκι, ένας αδύναμος κρίκος ή ένας ζαβολιάρης αποστάτης θα ανοίξει την ενθαρρύνει και άλλους παραβάτες.

Η διακυβέρνηση αυτή θα πρέπει να καλύπτει ολόκληρη την αλυσίδα εφοδιασμού — από την κατασκευή έως το υλικό, το λογισμικό έως τις υπηρεσίες και τους παρόχους έως τους χρήστες. Αυτό σημαίνει προληπτική ρύθμιση και επίβλεψη σε κάθε κόμβο της αλυσίδας, από τη παραγωγή τσιπ τεχνητής νοημοσύνης έως τη συλλογή δεδομένων, την εκπαίδευση μοντέλων έως την τελική χρήση και σε ολόκληρη τη στοίβα τεχνολογιών που χρησιμοποιούνται σε μια δεδομένη εφαρμογή. Έτσι, αυτή η στεγανότητα θα εξασφαλίσει ότι δεν υπάρχουν ρυθμιστικές γκρίζες ζώνες προς εκμετάλλευση.

Στοχευμένες παρεμβάσεις… ότι συνταγές παντός καιρού

Τέλος, η διακυβέρνηση της τεχνητής νοημοσύνης θα πρέπει να είναι στοχευμένη, αντί να ταιριάζει σε όλους. Επειδή η τεχνητή νοημοσύνη είναι μια τεχνολογία γενικής χρήσης, θέτει πολυδιάστατες απειλές. Ένα ενιαίο εργαλείο διακυβέρνησης δεν επαρκεί για την αντιμετώπιση των διαφόρων πηγών κινδύνου τεχνητής νοημοσύνης. Στην πράξη, ο προσδιορισμός των εργαλείων που είναι κατάλληλα για τη στόχευση των κινδύνων θα απαιτήσει την ανάπτυξη μιας ταξινομίας ζωντανής και αναπνοής όλων των πιθανών επιπτώσεων που θα μπορούσε να έχει η τεχνητή νοημοσύνη – και πώς μπορεί να ρυθμιστεί καλύτερα το καθένα.

Για παράδειγμα, η τεχνητή νοημοσύνη θα είναι εξελικτική σε ορισμένες εφαρμογές, επιδεινώνοντας τα τρέχοντα προβλήματα, όπως παραβιάσεις της ιδιωτικής ζωής, και επαναστατική σε άλλες, δημιουργώντας εντελώς νέες βλάβες. Μερικές φορές, το καλύτερο μέρος για παρέμβαση είναι το μέρος όπου συλλέγονται δεδομένα. Άλλες φορές, θα είναι το σημείο στο οποίο πωλούνται προηγμένες μάρκες – διασφαλίζοντας ότι δεν θα πέσουν σε λάθος χέρια. Η αντιμετώπιση της παραπληροφόρησης θα απαιτήσει διαφορετικά εργαλεία από την αντιμετώπιση των κινδύνων του AGI και άλλων αβέβαιων τεχνολογιών με πιθανές υπαρξιακές επιπτώσεις. Ένα ελαφρύ ρυθμιστικό άγγιγμα και εθελοντική καθοδήγηση θα λειτουργήσουν σε ορισμένες περιπτώσεις. Σε άλλες, οι κυβερνήσεις θα πρέπει να επιβάλλουν αυστηρά τη συμμόρφωση.

Τρεις παγκόσμιες προκλήσεις που εμπνέουν

Παράλληλα με τις αρχές που διατυπώνουν οι δύο εμπειρογνώμονες όμως, επισημαίνουν ότι η διακυβέρνηση της Τεχνητής Νοημοσύνης μπορεί να επιτευχθεί αντλώντας έμπνευση από τις υπάρχουσες ρυθμίσεις για την αντιμετώπιση κλιματικής αλλαγής, τη διάδοση των όπλων και τη χρηματοπιστωτική σταθερότητα.

Το πρώτο καθεστώς θα επικεντρωνόταν στη διαπίστωση στοιχείων και θα έπαιρνε τη μορφή ενός παγκόσμιου επιστημονικού φορέα που θα συμβουλεύει αντικειμενικά τις κυβερνήσεις και τους διεθνείς φορείς σε ζητήματα τόσο βασικά όπως το τι είναι η τεχνητή νοημοσύνη και τι είδους προκλήσεις πολιτικής θέτει. Εάν κανείς δεν μπορεί να συμφωνήσει σχετικά με τον ορισμό της τεχνητής νοημοσύνης ή την πιθανή έκταση των βλαβών της, η αποτελεσματική χάραξη πολιτικής θα είναι αδύνατη.

Εδώ, η κλιματική αλλαγή είναι διδακτική. Μέση της Διακυβερνητικής Επιτροπής για τη Κλιματική Αλλαγή ο ΟΗΕ παρέχει στους υπεύθυνους χάραξης πολιτικής τακτικές αξιολογήσεις της επιστημονικής βάσης της κλιματικής αλλαγής, των επιπτώσεών της και των μελλοντικών κινδύνων και των επιλογών για προσαρμογή και μετριασμό. Η τεχνητή νοημοσύνη χρειάζεται έναν παρόμοιο φορέα για να αξιολογεί τακτικά την κατάσταση της τεχνητής νοημοσύνης, να αξιολογεί αμερόληπτα τους κινδύνους και τις πιθανές επιπτώσεις της, να προβλέπει σενάρια και να εξετάζει λύσεις τεχνικής πολιτικής για την προστασία του παγκόσμιου δημόσιου συμφέροντος.

Ο κόσμος χρειάζεται επίσης έναν τρόπο να διαχειριστεί τις εντάσεις μεταξύ των μεγάλων δυνάμεων της τεχνητής νοημοσύνης και να αποτρέψει τη διάδοση επικίνδυνων προηγμένων συστημάτων τεχνητής νοημοσύνης, όπως συνέβη και με τις ρυθμίσεις για τον περιορισμό των όπλων.

Μπορεί Κίνα και ΗΠΑ να βρίσκονται σε σύγκρουση, αλλά μια ανεξέλεγκτη κούρσα τεχνητής νοημοσύνης θα μπορούσε να καταστρέψει κάθε ελπίδα για τη σφυρηλάτηση μιας διεθνούς συναίνεσης για τη διακυβέρνηση της τεχνητής νοημοσύνης. Πεκίνο και Ουάσιγκτον θα μπορούσαν να συνεργαστούν για την επιβράδυνση της εξάπλωσης ισχυρών συστημάτων που θα μπορούσαν να θέσουν σε κίνδυνο την εξουσία των εθνικών κρατών. Στο ακραίο επίπεδο, η απειλή των ανεξέλεγκτων, αυτοαναπαραγόμενων AGI θα παρείχε ισχυρά κίνητρα για συντονισμό σε θέματα ασφάλειας και περιορισμού. Εδώ, οι προσεγγίσεις παρακολούθησης και επαλήθευσης που απαντώνται συχνά σε καθεστώτα ελέγχου όπλων, μπορεί να εφαρμοστούν στις πιο σημαντικές εισόδους τεχνητής νοημοσύνης, ειδικά σε εκείνες που σχετίζονται με υπολογιστικό υλικό, συμπεριλαμβανομένων προηγμένων ημιαγωγών και κέντρων δεδομένων.

Τρίτον, όπως το Συμβούλιο Χρηματοπιστωτικής Σταθερότητας, που αποτελείται από κεντρικούς τραπεζίτες, υπουργεία Οικονομικών και εποπτικές και ρυθμιστικές αρχές από όλο τον κόσμο, εργάζεται για την πρόληψη της παγκόσμιας χρηματοπιστωτικής αστάθειας αξιολογώντας συστημικές ευπάθειες και συντονίζοντας τις απαραίτητες ενέργειες για την αντιμετώπισή τους μεταξύ των εθνικών και διεθνών αρχών. Ένα παρόμοιο τεχνοκρατικό όργανο για τον κίνδυνο της τεχνητής νοημοσύνης – ονομάστε το Geotechnology Stability Board – θα μπορούσε να εργαστεί για να διατηρήσει τη γεωπολιτική σταθερότητα εν μέσω ταχείας αλλαγής που βασίζεται στην τεχνητή νοημοσύνη.

Με την υποστήριξη των εθνικών ρυθμιστικών αρχών και των διεθνών φορέων θέσπισης προτύπων, θα συγκεντρώσει εμπειρογνωμοσύνη και πόρους για να προλάβει ή να ανταποκριθεί σε κρίσεις που σχετίζονται με την τεχνητή νοημοσύνη, μειώνοντας τον κίνδυνο μετάδοσης. Αλλά θα συνεργαστεί άμεσα με τον ιδιωτικό τομέα, αναγνωρίζοντας ότι οι βασικοί πολυεθνικοί τεχνολογικοί παράγοντες διαδραματίζουν κρίσιμο ρόλο στη διατήρηση της γεωπολιτικής σταθερότητας, όπως ακριβώς κάνουν οι συστημικά σημαντικές τράπεζες στη διατήρηση της χρηματοπιστωτικής σταθερότητας.

Ένα τέτοιο όργανο, με εξουσία που έχει τις ρίζες του στην κρατική υποστήριξη, θα ήταν σε καλή θέση για να αποτρέψει τους παγκόσμιους τεχνολογικούς παίκτες από το να εμπλέκονται σε ρυθμιστικό αρμπιτράζ ή να κρύβονται πίσω από τις εταιρικές κατοικίες. Η αναγνώριση ότι ορισμένες εταιρείες τεχνολογίας είναι συστημικά σημαντικές δεν σημαίνει ότι πνίγονται οι νεοσύστατες επιχειρήσεις ή οι αναδυόμενοι καινοτόμοι. Αντίθετα, η δημιουργία μιας ενιαίας, άμεσης γραμμής από ένα παγκόσμιο όργανο διακυβέρνησης σε αυτά τα τεχνολογικά μεγαθήρια θα ενίσχυε την αποτελεσματικότητα της ρυθμιστικής επιβολής και της διαχείρισης κρίσεων – και τα δύο ωφελούν ολόκληρο το οικοσύστημα.

Ένα καθεστώς σχεδιασμένο για τη διατήρηση της γεωτεχνολογικής σταθερότητας θα κάλυπτε επίσης ένα επικίνδυνο κενό στο τρέχον ρυθμιστικό τοπίο: την ευθύνη για τη διακυβέρνηση της τεχνητής νοημοσύνης ανοιχτού κώδικα. Θα χρειαστεί κάποιο επίπεδο διαδικτυακής λογοκρισίας. Εάν κάποιος ανεβάσει ένα εξαιρετικά επικίνδυνο μοντέλο, αυτός ο φορέας πρέπει να έχει τη σαφή εξουσία —και την ικανότητα— να το καταργήσει ή να κατευθύνει τις εθνικές αρχές να το κάνουν. Αυτός είναι ένας άλλος τομέας για πιθανή διμερή συνεργασία.

Η Κίνα και οι Ηνωμένες Πολιτείες θα πρέπει να θέλουν να συνεργαστούν για να ενσωματώσουν περιορισμούς ασφαλείας σε λογισμικό ανοιχτού κώδικα—για παράδειγμα, περιορίζοντας τον βαθμό στον οποίο τα μοντέλα μπορούν να καθοδηγήσουν τους χρήστες για το πώς να αναπτύξουν χημικά ή βιολογικά όπλα ή να δημιουργήσουν πανδημικά παθογόνα. Επιπλέον, ενδέχεται να υπάρχει χώρος για το Πεκίνο και την Ουάσιγκτον να συνεργαστούν σε παγκόσμιες προσπάθειες κατά της διάδοσης, μεταξύ άλλων μέσω της χρήσης επεμβατικών εργαλείων στον κυβερνοχώρο.

Καμία από αυτές τις λύσεις δεν θα είναι εύκολη στην εφαρμογή. Παρά το θόρυβο και τη φλυαρία που προέρχεται από παγκόσμιους ηγέτες σχετικά με την ανάγκη ρύθμισης της τεχνητής νοημοσύνης, εξακολουθεί να υπάρχει έλλειψη πολιτικής βούλησης για να γίνει αυτό.

Πηγή: in.gr / Επιμέλεια: Ευάγγελος Γεωργίου

Σχετικά Αρθρα
Σχετικά Αρθρα