Το deepfake δημιουργεί εικόνα και ήχο ενός πραγματικού προσώπου και οι απατεώνες "χρησιμοποιούν" ουσιαστικά αυτό το πρόσωπο για να αποκομίσουν κέρδη.
Για παράδειγμα, σε μια από τις πιο γνωστές περιπτώσεις που καταγράφηκαν φέτος, ένας χρηματοοικονομικός υπάλληλος στο Χονγκ Κονγκ εξαπατήθηκε και μετέφερε περισσότερα από 25 εκατομμύρια δολάρια σε απατεώνες, οι οποίοι χρησιμοποιώντας τεχνολογία deepfake «μεταμφιέστηκαν» σε συναδέλφους του σε μια βιντεοκλήση.
Έπεισαν λοιπόν τον υπάλληλο να τους μεταφέρει χρήματα υποτίθεται για την επιχείρηση στην οποία εργάζονταν όλοι μαζί.
Την περασμένη εβδομάδα η βρετανική εταιρεία υπηρεσιών σχεδιασμού, μηχανικής και αρχιτεκτονικής Arup επιβεβαίωσε στο CNBC ότι είναι το "θύμα" της εν λόγω υπόθεσης, αλλά δεν μπορούσε να υπεισέλθει σε λεπτομέρειες, λόγω της διεξαγόμενης έρευνας. Η Arup επιβεβαίωσε, πάντως, ότι στο περιστατικό χρησιμοποιήθηκαν «ψεύτικες φωνές και εικόνες», προσθέτοντας ότι «ο αριθμός και η πολυπλοκότητα αυτών των επιθέσεων έχει αυξηθεί απότομα τους τελευταίους μήνες».
Καταλύτης το Chat GPT
Τέτοιες απειλές έχουν αυξηθεί ως αποτέλεσμα της διάδοσης του Chat GPT της Open AI - που ξεκίνησε το 2022 - το οποίο εκτόξευσε γρήγορα την τεχνολογία generative AI στην επικρατούσα τάση, δήλωσε ο David Fairman, επικεφαλής πληροφοριών και ασφάλειας στην εταιρεία κυβερνοασφάλειας Netskope.
«Η προσβασιμότητα αυτών των υπηρεσιών μείωσε το εμπόδιο εισόδου για τους εγκληματίες του κυβερνοχώρου - δεν χρειάζεται πλέον να έχουν ειδικές τεχνολογικές δεξιότητες», δήλωσε ο Fairman.
Ο όγκος και η πολυπλοκότητα των απατών έχουν διευρυνθεί καθώς η τεχνολογία τεχνητής νοημοσύνης συνεχίζει να εξελίσσεται, πρόσθεσε.
Διάφορες υπηρεσίες Τεχνητής Νοημοσύνης μπορούν να χρησιμοποιηθούν για τη δημιουργία περιεχομένου κειμένου, εικόνας και βίντεο που μοιάζει με τον άνθρωπο και, ως εκ τούτου, μπορούν να λειτουργήσουν ως ισχυρά εργαλεία για παράνομους φορείς που προσπαθούν να χειραγωγήσουν ψηφιακά και να αναπαραστήσουν ορισμένα άτομα.
Τα κινεζικά κρατικά μέσα ενημέρωσης ανέφεραν μια παρόμοια περίπτωση στην επαρχία Shanxi φέτος που αφορούσε μια γυναίκα υπάλληλο του χρηματοπιστωτικού τομέα, η οποία εξαπατήθηκε για να μεταφέρει 1,86 εκατομμύρια γιουάν (262.000 δολάρια) σε λογαριασμό απατεώνα μετά από μια βιντεοκλήση με ένα deepfake του αφεντικού της.
Το 2019, ο διευθύνων σύμβουλος ενός βρετανικού παρόχου ενέργειας φέρεται να μετέφερε 220.000 ευρώ (238.000 δολάρια) σε έναν απατεώνα, ο οποίος είχε μιμηθεί ψηφιακά τον επικεφαλής της μητρικής του εταιρείας και ζητούσε να γίνει έμβασμα σε έναν υποτιθέμενο προμηθευτή σε ένα τηλεφώνημα.
Τον Αύγουστο του περασμένου έτους, ερευνητές του Google κατέγραψαν μια σειρά περιπτώσεων παράνομων φορέων που χρησιμοποιούσαν τεχνολογία AI και deepfake για απάτες phishing, παραπληροφόρηση και άλλους παράνομους σκοπούς.
Τότε, η εταιρεία δήλωσε ότι η χρήση της τεχνολογίας για τέτοιες δραστηριότητες ήταν περιορισμένη, αλλά ότι η αυξανόμενη διαθεσιμότητα νέων εργαλείων Τεχνητής Νοημοσύνης θα επιταχύνει την εφαρμογή της από κακόβουλους φορείς.
Επιθέσεις και άμυνα
Εκτός από τις άμεσες επιθέσεις, οι εταιρείες ανησυχούν όλο και περισσότερο για άλλους τρόπους με τους οποίους οι φωτογραφίες, τα βίντεο ή οι ομιλίες των ανώτερων στελεχών τους θα μπορούσαν να χρησιμοποιηθούν με κακόβουλο τρόπο, λένε οι ειδικοί σε θέματα κυβερνοασφάλειας.
Σύμφωνα με τον Jason Hogg, εμπειρογνώμονα κυβερνοασφάλειας και executive-in-residence στην Great Hill Partners, τα deepfakes υψηλόβαθμων μελών της εταιρείας μπορούν να χρησιμοποιηθούν για τη διάδοση ψευδών ειδήσεων με σκοπό τη χειραγώγηση των τιμών των μετοχών, τη δυσφήμιση του εμπορικού σήματος και των πωλήσεων μιας εταιρείας και τη διάδοση άλλης επιβλαβούς παραπληροφόρησης.
Τόνισε ότι η Τεχνητή Νοημοσύνη είναι σε θέση να δημιουργεί βαθιά ψεύδη με βάση έναν θησαυρό ψηφιακών πληροφοριών, όπως το δημόσια διαθέσιμο περιεχόμενο που φιλοξενείται στα μέσα κοινωνικής δικτύωσης και σε άλλες πλατφόρμες μέσων ενημέρωσης.
Το 2022, ο Patrick Hillmann, επικεφαλής επικοινωνίας της Binance, ισχυρίστηκε σε ανάρτηση στο blog ότι οι απατεώνες είχαν δημιουργήσει ένα deepfake του με βάση προηγούμενες συνεντεύξεις στις ειδήσεις και τηλεοπτικές εμφανίσεις, χρησιμοποιώντας το για να εξαπατήσουν πελάτες και επαφές σε συναντήσεις.
Ο Fairman της Netskope δήλωσε ότι οι κίνδυνοι αυτοί οδήγησαν ορισμένα στελέχη να αρχίσουν να περιορίζουν την παρουσία τους στο διαδίκτυο από φόβο ότι θα μπορούσαν να χρησιμοποιηθούν ως πυρομαχικά από εγκληματίες του κυβερνοχώρου.
Σύμφωνα με τον Hogg, τα ευρύτερα ζητήματα θα επιταχυνθούν και θα επιδεινωθούν για ένα χρονικό διάστημα, καθώς η πρόληψη του εγκλήματος στον κυβερνοχώρο απαιτεί προσεκτική ανάλυση προκειμένου να αναπτυχθούν συστήματα, πρακτικές και έλεγχοι για την άμυνα απέναντι στις νέες τεχνολογίες.
Εμπειρογνώμονες σε θέματα κυβερνοασφάλειας δήλωσαν στο CNBC ότι οι επιχειρήσεις μπορούν να ενισχύσουν την άμυνα στις απειλές με Τεχνητή Νοημοσύνη μέσω της βελτιωμένης εκπαίδευσης του προσωπικού, των δοκιμών κυβερνοασφάλειας και της απαίτησης κωδικών λέξεων και πολλαπλών επιπέδων εγκρίσεων για όλες τις συναλλαγές - κάτι που θα μπορούσε να έχει αποτρέψει περιπτώσεις όπως αυτή της Arup.
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν, στο reporter.gr