Σύμφωνα με έρευνα της F2 Strategy, περισσότερες από τις μισές εταιρείες διαχείρισης πλούτου έχουν ήδη σε εξέλιξη ένα έργο τεχνητής νοημοσύνης. Ενδιαφέρονται για προγνωστικές αναλύσεις σχετικά με τις συνθήκες της αγοράς και τις αλλαγές τίτλων με την πάροδο του χρόνου, οπτική αναγνώριση χαρακτήρων για την ανάλυση εγγράφων, αυτοματοποίηση ροής εργασίας, chatbots και πολλά άλλα. Οι δυνατότητες είναι σαφείς - η τεχνητή νοημοσύνη μπορεί να μειώσει τον ανθρώπινο χρόνο που δαπανάται σε αυτές τις εργασίες έως και 90%. Ταυτόχρονα, πάνω από το 60% των επιχειρήσεων δηλώνουν ότι χρειάζονται περισσότερη εκπαίδευση σχετικά με την τεχνητή νοημοσύνη. Έτσι, ενώ η ανοδική πορεία είναι αναμφισβήτητη, η αξία σε σύγκριση με τον κίνδυνο είναι λιγότερο σαφής.
Αυτή η δυναμική είναι ιδιαίτερα σημαντική για τον οικονομικό σχεδιασμό, όπου το διακύβευμα είναι υψηλότερο – τα χρήματα οικογενειών και ατόμων κινδυνεύουν άμεσα. Ενώ οι εξατομικευμένες υπηρεσίες διαχείρισης πλούτου συνήθως απευθύνονται σε άτομα υψηλού οικονομικού status, η τεχνητή νοημοσύνη καθιστά δυνατή την προσφορά αυτών των υπηρεσιών σε μια ευρύτερη ομάδα ανθρώπων. Οι σύμβουλοι μπορούν να αναπτύξουν προφίλ πελατών και να παραδώσουν εξατομικευμένα σχέδια με βάση την ηλικία, τα περιουσιακά στοιχεία, τους κινδύνους, τους στόχους και τις ανάγκες σε πολύ λίγο χρόνο, πράγμα που σημαίνει ότι οι επιχειρήσεις μπορούν να το προσφέρουν σε περισσότερους ανθρώπους. Αυτό αντιπροσωπεύει μια νέα αγορά για τους διαχειριστές πλούτου, αλλά και μια μεγαλύτερη δεξαμενή κινδύνων.
Πρέπει πάντα να θυμόμαστε ότι οι φορείς απειλής χρησιμοποιούν επίσης AI. Προσφέρει στους επιτιθέμενους τα ίδια ακριβώς οφέλη - είναι ένας πολλαπλασιαστής δύναμης που τους επιτρέπει να αυξήσουν την κλίμακα και την αποτελεσματικότητα των εκστρατειών τους. Μπορούν ακόμη και να δηλητηριάσουν το ίδιο το μοντέλο AI για να αποκαλύψουν ευαίσθητες πληροφορίες ή να παραδώσουν κακόβουλα αποτελέσματα. Επιπλέον, οι εργαζόμενοι που δεν είναι επαρκώς εκπαιδευμένοι μπορούν ακούσια να εκθέσουν ευαίσθητες πληροφορίες μέσω των πληροφοριών που εισάγουν σε εργαλεία τεχνητής νοημοσύνης, τα οποία στη συνέχεια τις ενσωματώνουν στις δραστηριότητες μηχανικής μάθησης. Έχουμε ήδη δει περιπτώσεις όπου αυτό ακυρώνει αξιώσεις πνευματικής ιδιοκτησίας.
Ως εκ τούτου, οι έλεγχοι ασφαλείας πρέπει να ενσωματώνονται σε ολόκληρο τον κύκλο ζωής της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της κατάρτισης των εργαζομένων. Πριν χρησιμοποιήσουν οποιοδήποτε εργαλείο AI, οι οργανισμοί πρέπει να κατανοήσουν την ταξινόμηση απορρήτου όλων των δεδομένων που ενδέχεται να εισαχθούν, την πηγή των δεδομένων που χρησιμοποιούνται για την εκπαίδευση των εργαλείων AI και τις ιδιαιτερότητες των πρωτοκόλλων ασφαλείας που εφαρμόζονται για την προστασία ευαίσθητων πληροφοριών. Αυτό πρέπει να αποτελεί μέρος της ανάπτυξης AI από την πρώτη μέρα. Τα ανοικτά συστήματα τεχνητής νοημοσύνης ενέχουν ακόμη μεγαλύτερο κίνδυνο, καθώς έχουν σχεδιαστεί για να είναι προσβάσιμα στο κοινό, γεγονός που τους επιτρέπει να μαθαίνουν από ένα πολύ μεγαλύτερο σύνολο δεδομένων, αλλά επιτρέπει επίσης τη χειραγώγηση από κακούς παράγοντες. Τα κλειστά συστήματα είναι πιο ασφαλή, αλλά απαιτούν πιο πρακτική διαχείριση και εκπαίδευση. Οι εργαζόμενοι θα πρέπει να εκπαιδευτούν ουσιαστικά σχετικά με το εργαλείο και τον τρόπο λειτουργίας του και τον τρόπο χρήσης του με ασφάλεια - δίνοντας έμφαση στα δεδομένα που μπορούν να χρησιμοποιηθούν και ποια δεν πρέπει ποτέ να εκτίθενται σε ένα μεγάλο γλωσσικό μοντέλο (LLM) όπως το είδος που τροφοδοτεί τις εφαρμογές τεχνητής νοημοσύνης.
Κατά την εφαρμογή μιας λύσης που βασίζεται σε AI, είναι σημαντικό να προσδιορίσετε το πεδίο εφαρμογής του εργαλείου και να περιορίσετε την πρόσβαση στα δεδομένα του σε ό, τι είναι απολύτως απαραίτητο για την εκπαίδευσή του. Αναπτύξτε μια ολοκληρωμένη κατανόηση του απορρήτου των πληροφοριών, της πηγής των δεδομένων του μοντέλου και των εγγενών μηχανισμών ασφαλείας που είναι ενσωματωμένοι. Πολλά εργαλεία τεχνητής νοημοσύνης έχουν ενσωματωμένες άμυνες για προστασία από ανήθικη χρήση – ένα καλό παράδειγμα είναι οι κανόνες του ChatGPT που επιδιώκουν να αποτρέψουν τους ανθρώπους από το να το χρησιμοποιούν για κακόβουλους σκοπούς, όπως η δημιουργία κακόβουλου λογισμικού. Ωστόσο, είναι επίσης σαφές ότι αυτοί οι κανόνες μπορούν να παρακαμφθούν μέσω έξυπνα διατυπωμένων προτροπών που αποκρύπτουν την πρόθεση του χρήστη. Αυτός είναι ένας τύπος άμεσης επίθεσης έγχυσης, ο οποίος είναι μια κατηγορία απειλών μοναδική για συστήματα που βασίζονται σε AI. Πρέπει να υπάρχουν ισχυροί έλεγχοι για την πρόληψη αυτών των επιθέσεων πριν συμβούν. Σε γενικές γραμμές, αυτοί οι έλεγχοι εμπίπτουν στο πεδίο εφαρμογής των στρατηγικών μηδενικής εμπιστοσύνης στον κυβερνοχώρο.
Τα εργαλεία τεχνητής νοημοσύνης, ειδικά τα LLM που επιτρέπουν τη γενετική τεχνητή νοημοσύνη, δεν πρέπει να αντιμετωπίζονται ως τυπικό εργαλείο λογισμικού. Μοιάζουν περισσότερο με ένα υβρίδιο μεταξύ ενός εργαλείου και ενός χρήστη. Τα προγράμματα μηδενικής εμπιστοσύνης περιορίζουν την πρόσβαση σε πόρους με βάση την ατομική λειτουργία εργασίας, το πεδίο εφαρμογής και τις ανάγκες ενός ατόμου. Αυτό περιορίζει τη ζημιά που μπορεί να κάνει ένας εισβολέας θέτοντας σε κίνδυνο έναν μόνο υπάλληλο, επειδή περιορίζει το εύρος των κινήσεων του. Πρέπει να θυμόμαστε ότι η προσθήκη οποιουδήποτε εργαλείου λογισμικού αυξάνει επίσης την επιφάνεια επίθεσης προσφέροντας περισσότερα σημεία εισόδου σε έναν εισβολέα. Ο συμβιβασμός ενός εργαλείου - όπως ένα εργαλείο AI - που έχει απεριόριστη πρόσβαση σε προσωπικά αναγνωρίσιμες πληροφορίες, εταιρικά μυστικά, ιδιόκτητα εργαλεία, στρατηγικές προβλέψεις, ανταγωνιστική ανάλυση και πολλά άλλα θα μπορούσε να είναι καταστροφικό. Η πρόληψη αυτού του είδους παραβίασης πρέπει να βρίσκεται στην πρώτη γραμμή της συζήτησης σε επίπεδο στρατηγικής για την εφαρμογή εργαλείων τεχνητής νοημοσύνης από την αρχή. Μετά από ένα περιστατικό ασφάλειας στον κυβερνοχώρο, είναι συχνά πολύ αργά.
Ενώ τα περισσότερα εργαλεία AI διαθέτουν ενσωματωμένη ασφάλεια, οι οργανισμοί πρέπει να φροντίσουν να τα προσαρμόσουν στις συγκεκριμένες ανάγκες τους, πόσο μάλλον να τις υπερβούν. Παρά τις ομοιότητες, κάθε οργανισμός θα έχει μοναδικές περιπτώσεις χρήσης και η βαθμονόμηση της άμυνας ώστε να ταιριάζει με αυτές τις δυναμικές είναι το διακύβευμα για την ασφάλεια στον κυβερνοχώρο το 2024. Το κόστος του εγκλήματος στον κυβερνοχώρο έφτασε τα 8 τρισεκατομμύρια δολάρια το 2023, σύμφωνα με έκθεση της Cybersecurity Ventures. Σαφώς, αυτό δεν είναι μια εξειδικευμένη απειλή. Μπορεί εύλογα να θεωρηθεί μεταξύ των πρωταρχικών απειλών που αντιμετωπίζει κάθε επιχείρηση σήμερα και η προληπτική ασφάλεια είναι επομένως ένα θεμέλιο για την επιχειρηματική δραστηριότητα.
Όταν μιλάμε για AI, η ασφάλεια είναι ακόμη πιο σημαντική. Η τεχνητή νοημοσύνη δεν θα αντικαταστήσει τους οικονομικούς συμβούλους, αλλά θα οδηγήσει τη βιομηχανία στο επόμενο στάδιο εξέλιξής της, και αυτό σημαίνει νέες απειλές. Η κλίμακα των μοντέλων και τα δεδομένα που απορροφούν επεκτείνουν εκθετικά την επιφάνεια επίθεσης και μόνο μία παραβίαση μπορεί να αναιρέσει όλα τα κέρδη που αποκομίζει μια εταιρεία αξιοποιώντας την τεχνητή νοημοσύνη. Η ανάλυση και ο έλεγχος της ασφάλειας στον κυβερνοχώρο, στο πλαίσιο ενός μοντέλου μηδενικής εμπιστοσύνης, είναι απαραίτητη για την απελευθέρωση του πλήρους δυναμικού οποιουδήποτε εργαλείου που βασίζεται στην τεχνητή νοημοσύνη.
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν, στο reporter.gr