Πρόκειται για μια θεσμική παρέμβαση-ορόσημο της Ευρώπης στην ραγδαίως ανερχόμενη τεχνολογία της τεχνητής νοημοσύνης, η οποία, όταν ολοκληρωθεί, θα συνιστά το πρώτο σύνολο ολοκληρωμένων κανόνων στον κόσμο για τη διαχείριση του ρίσκου, που ενέχει το ΑΙ.
Οι ευρωβουλευτές αναμένεται να στηρίξουν την απαγόρευση των συστημάτων εξ αποστάσεως βιομετρικής ταυτοποίησης, της κατηγοριοποίησης βάσει ευαίσθητων χαρακτηριστικών, της προληπτικής αστυνόμευσης και των συστημάτων αναγνώρισης συναισθημάτων.
Προτείνουν, επίσης, εξατομικευμένους κανόνες για τη λεγόμενη παραγωγική τεχνητή νοημοσύνη, όπως το ChatGPT, συμπεριλαμβανομένης της σήμανσης περιεχομένου, που παράγεται από τεχνητή νοημοσύνη και της δημοσιοποίησης περιλήψεων των δεδομένων, που προστατεύονται από δικαιώματα πνευματικής ιδιοκτησίας που χρησιμοποιούνται για την μάθηση των εφαρμογών αυτών.
Εξαιρέσεις
Για την τόνωση της καινοτομίας, οι ευρωβουλευτές προτείνουν εξαιρέσεις για ερευνητικές δραστηριότητες και τμήματα τεχνητής νοημοσύνης ανοικτού κώδικα, καθώς και για τη χρήση των λεγόμενων “ρυθμιστικών δοκιμαστηρίων” ή ελεγχόμενων περιβαλλόντων, που δημιουργούνται από τις δημόσιες αρχές για δοκιμές πριν την διάθεση των εφαρμογών.
Το προσχέδιο των κανόνων έχει χαραχτεί βάσει αξιολόγησης κινδύνων και στοχεύει να θεσπιστούν υποχρεώσεις για τους παρόχους και τους χρήστες ανάλογα με το επίπεδο ρίσκου που αντιπροσωπεύει η χρήση τεχνητής νοημοσύνης. Τα συστήματα, που λειτουργούν με μη αποδεκτά επίπεδα κινδύνου, θα απαγορευτούν.
Αποσκοπεί δε στην προώθηση των χρήσεων της τεχνολογίας αυτής σε ευθυγράμμιση με τις αξίες της Ε.Ε., συμπεριλαμβανομένης της ανθρώπινης εποπτείας, της προστασίας της ιδιωτικής ζωής και της απαγόρευσης των διακρίσεων.
Επί της διαδικασίας, μόλις το Κοινοβούλιο εγκρίνει τη θέση του, μπορούν να αρχίσουν συνομιλίες με το Συμβούλιο σχετικά με την τελική μορφή της νομοθεσίας.
Δικλείδες ασφαλείας
Η Ε.Ε. επιχειρεί να δημιουργήσει δικλείδες ασφαλείας για τη χρήση των συστημάτων ΑΙ, ακολουθώντας μια προσέγγιση “βασισμένη στον κίνδυνο”, θεσπίζοντας υποχρεώσεις για τους παρόχους και τους χρήστες, ανάλογα με το επίπεδο κινδύνου που μπορεί να δημιουργήσει η τεχνητή νοημοσύνη.
Συστήματα τεχνητής νοημοσύνης με απαράδεκτο επίπεδο κινδύνου για την ασφάλεια των ανθρώπων θα απαγορεύονται αυστηρά, συμπεριλαμβανομένων συστημάτων που αναπτύσσουν υποσυνείδητες ή σκόπιμες τεχνικές χειραγώγησης, εκμεταλλεύονται τα τρωτά σημεία των ανθρώπων ή χρησιμοποιούνται για “κοινωνική αξιολόγηση” (ταξινόμηση ατόμων με βάση την κοινωνική τους συμπεριφορά, την κοινωνικοοικονομική κατάσταση, την προσωπική τους κατάσταση, τα χαρακτηριστικά τους).
Οι ευρωβουλευτές συμπεριέλαβαν στην πρότασή τους απαγορεύσεις για παρεμβατικές και μεροληπτικές χρήσεις συστημάτων ΑΙ, όπως:
- Απομακρυσμένα βιομετρικά συστήματα αναγνώρισης “σε πραγματικό χρόνο” σε χώρους προσβάσιμους από το κοινό.
- “Αποστολή” απομακρυσμένων βιομετρικών συστημάτων ταυτοποίησης, με μόνη εξαίρεση τις αρχές επιβολής του νόμου για τη δίωξη σοβαρών εγκλημάτων και μόνο μετά από δικαστική εξουσιοδότηση.
- Συστήματα βιομετρικής κατηγοριοποίησης, που χρησιμοποιούν ευαίσθητα χαρακτηριστικά (π.χ. φύλο, φυλή, εθνικότητα, ιθαγένεια, θρησκεία, πολιτικός προσανατολισμός).
- Συστήματα πρόβλεψης αστυνόμευσης (με βάση το προφίλ, την τοποθεσία ή την προηγούμενη εγκληματική συμπεριφορά).
- Συστήματα αναγνώρισης συναισθημάτων στην επιβολή του νόμου, τη διαχείριση των συνόρων, τους χώρους εργασίας και τα εκπαιδευτικά ιδρύματα.
- Αδιάκριτη απόσπαση βιομετρικών δεδομένων από μέσα κοινωνικής δικτύωσης για τη δημιουργία βάσεων δεδομένων αναγνώρισης προσώπου (παραβίαση των ανθρωπίνων δικαιωμάτων και του δικαιώματος στην ιδιωτική ζωή).
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν, στο reporter.gr