Ευρωπαϊκό Κοινοβούλιο: Πέρασε ο πρώτος νόμος για τη ρύθμιση της τεχνητής νοημοσύνης
Αποτελεί το πρώτο παγκοσμίως σημαντικό σύνολο ρυθμιστικών κανόνων που θα διέπουν την τεχνητή νοημοσύνη
Το Ευρωπαϊκό Κοινοβούλιο ενέκρινε την Τετάρτη το πρώτο παγκοσμίως σημαντικό σύνολο ρυθμιστικών κανόνων που θα διέπουν την τεχνητή νοημοσύνη, η οποία αποτελεί το επίκεντρο των τεχνολογικών επενδύσεων.
Η ΕΕ εξασφάλισε προσωρινή πολιτική συναίνεση στις αρχές Δεκεμβρίου και στη συνέχεια επικυρώθηκε στη συνεδρίαση του Κοινοβουλίου την Τετάρτη, με 523 ψήφους υπέρ, 46 κατά και 49 λευκές ψήφους.
“Η Ευρώπη αποτελεί ΤΩΡΑ παγκόσμιο πρότυπο στην τεχνητή νοημοσύνη”, έγραψε ο Thierry Breton, ο Ευρωπαίος επίτροπος για την εσωτερική αγορά, στο X.
Η πρόεδρος του Ευρωπαϊκού Κοινοβουλίου, Roberta Metsola, χαρακτήρισε την πράξη πρωτοποριακή, λέγοντας ότι θα επιτρέψει την καινοτομία, διασφαλίζοντας παράλληλα τα θεμελιώδη δικαιώματα.
“Η τεχνητή νοημοσύνη είναι ήδη σε μεγάλο βαθμό μέρος της καθημερινότητάς μας. Τώρα, θα είναι και μέρος της νομοθεσίας μας”, έγραψε σε ανάρτηση στα μέσα κοινωνικής δικτύωσης.
Από την πλευρά του ο Dragos Tudorache, νομοθέτης που επέβλεψε τις διαπραγματεύσεις της ΕΕ για τη συμφωνία, χαιρέτισε τη συμφωνία, αλλά σημείωσε ότι το μεγαλύτερο εμπόδιο παραμένει η εφαρμογή.
Γεννημένη το 2021, η Πράξη της ΕΕ για την Τεχνητή Νοημοσύνη χωρίζει την τεχνολογία σε κατηγορίες κινδύνου, από “απαράδεκτη” – που θα οδηγούσε στην απαγόρευση της τεχνολογίας – έως υψηλού, μεσαίου και χαμηλού κινδύνου.
Ο κανονισμός αναμένεται να τεθεί σε ισχύ στο τέλος της νομοθετικής περιόδου τον Μάιο, αφού περάσει τους οριστικούς ελέγχους και λάβει την έγκριση του Ευρωπαϊκού Συμβουλίου. Η εφαρμογή του θα ξεκινήσει σταδιακά από το 2025 και μετά.
Απαγορευμένες εφαρμογές
Οι νέοι κανονισμοί απαγορεύουν ορισμένες εφαρμογές τεχνητής νοημοσύνης, που απειλούν τα δικαιώματα των πολιτών. Σε αυτές περιλαμβάνονται η βιομετρική κατηγοριοποίηση με βάση ευαίσθητα χαρακτηριστικά και η μη στοχευμένη ανάγνωση απεικονίσεων προσώπου από το διαδίκτυο ή από κάμερες παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων. Τα συστήματα αναγνώρισης συναισθημάτων στον χώρο εργασίας και στα σχολεία και η αξιολόγηση της κοινωνικής συμπεριφοράς με τη χρήση AI θα απαγορεύονται επίσης στο μέλλον.
Η προληπτική επιτήρηση, που βασίζεται αποκλειστικά στην κατάρτιση προφίλ ή στην αξιολόγηση των χαρακτηριστικών ενός ατόμου και η χρήση τεχνητής νοημοσύνης για τον επηρεασμό της συμπεριφοράς των ανθρώπων ή την εκμετάλλευση των αδυναμιών τους δεν επιτρέπεται επίσης βάσει των νέων κανόνων.
Εξαιρέσεις για τις αρχές επιβολής του νόμου
Απαγορεύεται η χρήση συστημάτων βιομετρικής ταυτοποίησης εξ αποστάσεως από τις αρχές επιβολής του νόμου. Ωστόσο, υπάρχουν ορισμένες εξαιρέσεις, όπως η εξ αποστάσεως ταυτοποίηση σε πραγματικό χρόνο, η οποία επιτρέπεται μόνο εάν τηρούνται αυστηροί κανονισμοί ασφαλείας,συμπεριλαμβανομένων χρονικών και χωρικών περιορισμών, με προηγούμενη ειδική άδεια από τις δικαστικές ή τις διοικητικές αρχές.
Τέτοια συστήματα μπορούν να χρησιμοποιηθούν, για παράδειγμα, για την ειδική αναζήτηση ενός αγνοούμενου προσώπου ή για την αποτροπή τρομοκρατικής επίθεσης. Η χρήση συστημάτων τεχνητής νοημοσύνης για την αναδρομική εξ αποστάσεως ταυτοποίηση θεωρείται ιδιαίτερα επικίνδυνη. Για αυτό απαιτείται δικαστική άδεια, η οποία πρέπει να συνδέεται με ποινικό αδίκημα.
Υποχρεώσεις για συστήματα υψηλού κινδύνου
Ο νέος κανονισμός προβλέπει κάποιες υποχρεώσεις για τα άλλα συστήματα τεχνητής νοημοσύνης, που θεωρούνται υψηλού κινδύνου, καθώς μπορεί να αποτελέσουν σημαντική απειλή για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου.
Τα συστήματα AI που χρησιμοποιούνται στους τομείς των κρίσιμων υποδομών, της εκπαίδευσης και κατάρτισης ή της απασχόλησης κατηγοριοποιούνται ως συστήματα υψηλού κινδύνου. Τα συστήματα AI που χρησιμοποιούνται για βασικές ιδιωτικές και δημόσιες υπηρεσίες -όπως στην υγειονομική περίθαλψη ή τις τράπεζες-, σε ορισμένους τομείς επιβολής του νόμου και σε σχέση με τη μετανάστευση και τη διαχείριση των συνόρων, τη δικαιοσύνη και τις δημοκρατικές διαδικασίες (για παράδειγμα για να επηρεάσουν τις εκλογές) θεωρούνται επίσης υψηλού κινδύνου.
Τα συστήματα αυτά πρέπει να αξιολογούν και να ελαχιστοποιούν τους κινδύνους, να τηρούν αρχεία καταγραφής της χρήσης τους, να είναι διαφανή και ακριβή και να εποπτεύονται από ανθρώπους. Στο μέλλον, οι πολίτες θα έχουν το δικαίωμα να υποβάλλουν καταγγελίες για τα συστήματα ΑΙ και να λαμβάνουν εξηγήσεις για τις αποφάσεις που ελήφθησαν με βάση συστήματα ΑΙ υψηλού κινδύνου και θίγουν τα δικαιώματά τους.
Απαιτήσεις διαφάνειας
Τα συστήματα τεχνητής νοημοσύνης γενικής χρήσης και τα μοντέλα στα οποία βασίζονται πρέπει να πληρούν ορισμένες απαιτήσεις διαφάνειας, συμπεριλαμβανομένης της συμμόρφωσης με τη νομοθεσία της ΕΕ περί πνευματικών δικαιωμάτων και της δημοσίευσης λεπτομερών περιλήψεων του περιεχομένου που χρησιμοποιείται για την εκπαίδευση. Για τα πιο ισχυρά μοντέλα που θα μπορούσαν να υποκρύπτουν συστημικούς κινδύνους, θα ισχύουν στο μέλλον πρόσθετες απαιτήσεις, όπως για παράδειγμα, η αξιολόγησή τους, ν και ο περιορισμός των συστημικών κινδύνων και η υποβολή εκθέσεων σχετικά με τα περιστατικά.
Επιπλέον, οι τεχνητά παραγόμενες ή επεξεργασμένες εικόνες ή το περιεχόμενο ήχου και βίντεο (τα λεγόμενα deepfakes) θα πρέπει να επισημαίνονται.
Μέτρα για την προώθηση της καινοτομίας και των ΜΜΕ
Στα κράτη μέλη πρέπει να δημιουργηθούν “εργαστήρια” πραγματικών συνθηκών και να διεξαχθούν δοκιμές υπό πραγματικές συνθήκες. Αυτά τα “εργαστήρια” πρέπει να είναι προσβάσιμα στις μικρομεσαίες επιχειρήσεις και τις νεοφυείς επιχειρήσεις, ώστε να μπορούν να αναπτύσσουν και να εκπαιδεύουν καινοτόμα συστήματα AI πριν από την κυκλοφορία τους στην αγορά.
Πηγή: money-tourism.gr