Η Μεθοδολογία HUDERIA είναι ειδικά προσαρμοσμένη για την προστασία και την προώθηση των ανθρωπίνων δικαιωμάτων, της δημοκρατίας και του κράτους δικαίου. Μπορεί να χρησιμοποιηθεί τόσο από δημόσιους όσο και από ιδιωτικούς φορείς για να βοηθήσει στον εντοπισμό και την αντιμετώπιση κινδύνων και επιπτώσεων στα ανθρώπινα δικαιώματα, τη δημοκρατία και το κράτος δικαίου καθ' όλη τη διάρκεια του κύκλου ζωής των συστημάτων τεχνητής νοημοσύνης.
Η μεθοδολογία προβλέπει τη δημιουργία ενός σχεδίου μετριασμού του κινδύνου για την ελαχιστοποίηση ή την εξάλειψη των εντοπισθέντων κινδύνων, προστατεύοντας το κοινό από πιθανή βλάβη.
Εάν ένα σύστημα τεχνητής νοημοσύνης που χρησιμοποιείται για παράδειγμα στις προσλήψεις διαπιστωθεί ότι είναι προκατειλημμένο έναντι ορισμένων δημογραφικών ομάδων, το σχέδιο μετριασμού μπορεί να περιλαμβάνει προσαρμογή του αλγορίθμου ή εφαρμογή ανθρώπινης επίβλεψης.
Η μεθοδολογία απαιτεί τακτικές επαναξιολογήσεις για να διασφαλιστεί ότι το σύστημα τεχνητής νοημοσύνης συνεχίζει να λειτουργεί με ασφάλεια και ηθική καθώς το πλαίσιο και η τεχνολογία εξελίσσονται. Αυτή η προσέγγιση διασφαλίζει ότι το κοινό προστατεύεται από αναδυόμενους κινδύνους σε όλο τον κύκλο ζωής του συστήματος AI.
Η Μεθοδολογία HUDERIA εγκρίθηκε από την Επιτροπή Τεχνητής Νοημοσύνης (CAI) του Συμβουλίου της Ευρώπης στη 12η σύνοδο ολομέλειάς της, που πραγματοποιήθηκε στο Στρασβούργο στις 26-28 Νοεμβρίου. Θα συμπληρωθεί το 2025 από το μοντέλο HUDERIA, το οποίο θα παρέχει υποστηρικτικά υλικά και πόρους, συμπεριλαμβανομένων ευέλικτων εργαλείων και επεκτάσιμων συστάσεων.
Νίκος Ρούσσης - Στρασβούργο
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν, στο reporter.gr