Ο Επίτροπος διαβεβαιώνει ότι, η χρήση της τεχνητής νοημοσύνης στον τομέα της απασχόλησης, ιδίως δε των εργαλείων που χρησιμοποιούνται για την πρόσληψη και την παρακολούθηση της συμπεριφοράς των εργαζομένων, μπορεί να επιφέρει αρνητικά αποτελέσματα στην ψυχική υγεία των εργαζομένων, με αυξημένο κίνδυνο άγχους και πίεσης.
Επιπλέον, συμπληρώνει, τα συστήματα αυτά μπορούν να επηρεάσουν αρνητικά τα θεμελιώδη δικαιώματα, εάν δεν αναπτυχθούν και δεν χρησιμοποιηθούν σωστά.
Στην ερώτηση τους οι 6 ευρωβουλευτές (Kim Van Sparrentak Konstantinos Arvanitis, Lina Gálvez Muñoz, Alexandra Geese, Elisabetta Gualmini , Kira Marie Peter-Hansen ), υποστήριζαν ότι η χρήση τεχνητής νοημοσύνης και αλγοριθμικής διαχείρισης στον χώρο εργασίας, συμπεριλαμβανομένων εργαλείων για την πρόβλεψη της συμπεριφοράς των εργαζομένων και τον εντοπισμό ή την αποτροπή της παραβίασης κανόνων ή περιπτώσεων απάτης από εργαζομένους και για την παρακολούθηση της προόδου και των επιδόσεων σε πραγματικό χρόνο, καθώς και η χρήση εφαρμογών καταγραφής του χρόνου, αυτοματοποιημένης συμπεριφορικής ώθησης και άσκοπης παρακολούθησης, μπορούν να οδηγήσουν σε υπερβολική πίεση χρόνου, εκμετάλλευση και μη ασφαλείς καταστάσεις.
Ρωτούσαν δε την Κομισιόν αν σχεδιάζει να προτείνει νομοθεσία σχετικά με την προστασία της υγείας και της ασφάλειας των εργαζομένων έναντι της αλγοριθμικής διαχείρισης και της ρομποτοποίησης της εργασίας, επιπλέον των υφιστάμενων νόμων για την υγεία και την ασφάλεια στην εργασία
Ακολουθεί ολόκληρη η διαφωτιστική απάντηση του Επιτρόπου:
Απάντηση του κ. Breton, εξ ονόματος της Ευρωπαϊκής Επιτροπής
(13.9.2021)
Ένας από τους βασικούς στόχους του προσφάτως εγκριθέντος στρατηγικού πλαισίου της ΕΕ για την υγεία και την ασφάλεια στην εργασία για την περίοδο 2021-2027 είναι η πρόβλεψη και η διαχείριση των αλλαγών που επιφέρουν οι ψηφιακές μεταβάσεις, συμπεριλαμβανομένης της τεχνητής νοημοσύνης, στους χώρους εργασίας. Ο στόχος αυτός θα ληφθεί επίσης υπόψη κατά την εν εξελίξει επανεξέταση των οδηγιών για τους χώρους εργασίας και τις οθόνες οπτικής απεικόνισης (οδηγία 89/654/ΕΟΚ του Συμβουλίου και οδηγία 90/270/ΕΟΚ του Συμβουλίου).
Την 21η Απριλίου 2021, η Επιτροπή πρότεινε το πρώτο νομικό πλαίσιο για την τεχνητή νοημοσύνη (στο εξής: πράξη για την τεχνητή νοημοσύνη), ως συνέχεια της Λευκής Βίβλου του 2020. Οι προτεινόμενοι κανόνες ακολουθούν μια προσέγγιση βάσει κινδύνου όσον αφορά τη διάθεση στην αγορά και τη χρήση συστημάτων τεχνητής νοημοσύνης στην ΕΕ.
Η χρήση της τεχνητής νοημοσύνης στον τομέα της απασχόλησης, ιδίως δε των εργαλείων που χρησιμοποιούνται για την πρόσληψη και την παρακολούθηση της συμπεριφοράς των εργαζομένων, μπορεί να επιφέρει αρνητικά αποτελέσματα στην ψυχική υγεία των εργαζομένων, με αυξημένο κίνδυνο άγχους και πίεσης. Επιπλέον, τα συστήματα αυτά μπορούν να επηρεάσουν αρνητικά τα θεμελιώδη δικαιώματα, εάν δεν αναπτυχθούν και δεν χρησιμοποιηθούν σωστά.
Ως εκ τούτου, η προτεινόμενη πράξη για την τεχνητή νοημοσύνη κατηγοριοποιεί ορισμένα συστήματα τεχνητής νοημοσύνης (π.χ. για τη λήψη αποφάσεων σχετικά με προαγωγές ή για την παρακολούθηση και την αξιολόγηση των επιδόσεων και της συμπεριφοράς ατόμων), μεταξύ άλλων όσα χρησιμεύουν για την αναγνώριση συναισθημάτων στον χώρο εργασίας, ως συστήματα υψηλού κινδύνου. Σύμφωνα με την προτεινόμενη πράξη για την τεχνητή νοημοσύνη, τα εν λόγω συστήματα υψηλού κινδύνου πρέπει να συμμορφώνονται με τις απαιτήσεις και να υποβάλλονται σε αξιολόγηση της συμμόρφωσης. Η πρόταση προβλέπει επίσης ότι τα συστήματα αναγνώρισης συναισθημάτων και βιομετρικής κατηγοριοποίησης θα υπόκεινται πάντοτε σε ειδικές υποχρεώσεις διαφάνειας, έτσι ώστε οι εργαζόμενοι να γνωρίζουν ανά πάσα στιγμή πότε τα εν λόγω συστήματα χρησιμοποιούνται.
Η προτεινόμενη πράξη για την τεχνητή νοημοσύνη συζητείται επί του παρόντος από το Ευρωπαϊκό Κοινοβούλιο και το Συμβούλιο. Οι συννομοθέτες ενδέχεται να προτείνουν πιθανές τροποποιήσεις στην πρόταση.
Νίκος Ρούσσης – Στρασβούργο
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν, στο reporter.gr