Skip to main content
24 January 2025 06:48

Τι επιφυλάσσει το 2025 για κυβερνοασφάλεια και AI

Το 2024, η τεχνητή νοημοσύνη αναβάθμισε τον ανταγωνισμό στον τομέα της κυβερνοασφάλειας και το ίδιο αναμένεται να ισχύσει και το 2025. Αυτή η εξέλιξη φέρνει σημαντικές προκλήσεις για τις ομάδες κυβερνοασφάλειας, τις εταιρείες, αλλά και τους καθημερινούς χρήστες του διαδικτύου, όπως εξηγεί ο κος Phil Muncaster της ESET. Παρόλο που η AI παρέχει ισχυρά εργαλεία για την ενίσχυση της άμυνας, οι κακόβουλοι παράγοντες αξιοποιούν την ίδια τεχνολογία για να ενισχύσουν τις επιθέσεις τους. Oπότε θα πρέπει να περιμένουμε άνοδο στις ηλεκτρονικές απάτες, την κοινωνική μηχανική, την παραβίαση λογαριασμών, την παραπληροφόρηση και άλλες κυβερνοαπειλές.

Στις αρχές του 2024, το Εθνικό Κέντρο Κυβερνοασφάλειας του Ηνωμένου Βασιλείου (NCSC) εξέδωσε προειδοποίηση ότι η τεχνητή νοημοσύνη αξιοποιείται ήδη από κυβερνοεγκληματίες. Σύμφωνα με το NCSC, «είναι σχεδόν βέβαιο ότι θα αυξηθούν τόσο ο όγκος όσο και ο αντίκτυπος των κυβερνοεπιθέσεων μέσα στα επόμενα δύο χρόνια». Η απειλή αυτή είναι ιδιαίτερα έντονη στον τομέα της κοινωνικής μηχανικής, όπου η παραγωγική τεχνητή νοημοσύνη δίνει τη δυνατότητα στους κυβερνοεγκληματίες να σχεδιάζουν εξαιρετικά πειστικές εκστρατείες, προσαρμοσμένες σε πολλές γλώσσες. Επιπλέον, η AI μπορεί να αυτοματοποιήσει τον εντοπισμό περιουσιακών στοιχείων, διευκολύνοντας την επιλογή στόχων.

Καθώς αυτές οι τάσεις αναμένεται να συνεχιστούν και το 2025, είναι πιθανό να δούμε την τεχνητή νοημοσύνη να χρησιμοποιείται και σε άλλους τομείς, αναφέρει ο κος Muncaster, όπως:

Παράκαμψη υπηρεσιών αυθεντικοποίησης χρηστών: Η τεχνολογία Deepfake χρησιμοποιείται για να βοηθήσει απατεώνες να υποδυθούν πελάτες κατά τη διαδικασία ελέγχων ταυτότητας που βασίζονται σε φωτογραφίες και βίντεο. Αυτό διευκολύνει τη δημιουργία νέων λογαριασμών και την πρόσβαση σε ήδη υπάρχοντες.

Παραβίαση επαγγελματικού ηλεκτρονικού ταχυδρομείου (BEC): Η AI ενισχύει τις τεχνικές κοινωνικής μηχανικής, πείθοντας υπαλλήλους να μεταφέρουν χρήματα σε λογαριασμούς απατεώνων. Χρησιμοποιούνται επίσης Deepfake ήχου και βίντεο, για να υποδυθούν ανώτατα στελέχη κατά τη διάρκεια τηλεφωνικών κλήσεων ή εικονικών συναντήσεων.

Απάτες πλαστοπροσωπίας: Η αξιοποίηση μεγάλων γλωσσικών μοντέλων ανοίγει νέους δρόμους για τους απατεώνες. Με την εκπαίδευση των μοντέλων σε δεδομένα από παραβιασμένους ή δημόσια προσβάσιμους λογαριασμούς κοινωνικής δικτύωσης, οι δράστες μπορούν να υποδυθούν τα θύματα σε εικονικές απαγωγές και άλλες απάτες, εξαπατώντας φίλους και συγγενείς.

Απάτες influencer: Κατά παρόμοιο τρόπο, αναμένουμε να δούμε τη χρήση της παραγωγικής τεχνητής νοημοσύνης από απατεώνες το 2025 για τη δημιουργία πλαστών ή διπλών λογαριασμών στα μέσα κοινωνικής δικτύωσης που αντιγράφουν λογαριασμούς διάσημων, influencers και άλλων γνωστών προσωπικοτήτων. Με τη χρήση βίντεο Deepfake μπορούν να παρασύρουν τους θαυμαστές να μοιραστούν προσωπικές πληροφορίες και χρήματα, για παράδειγμα σε απάτες επενδύσεων και κρυπτογράφησης, όπως επισημαίνεται στην τελευταία έκθεση απειλών που δημοσίευσε η ESET. Αυτό θα ασκήσει μεγαλύτερη πίεση στις πλατφόρμες κοινωνικής δικτύωσης να προσφέρουν αποτελεσματικά εργαλεία επαλήθευσης λογαριασμού και σήματα, καθώς και στους χρήστες για να παραμείνουν σε επαγρύπνηση.

Παραπληροφόρηση: Εχθρικά κράτη και οργανωμένες ομάδες αναμένεται να αξιοποιήσουν την παραγωγική τεχνητή νοημοσύνη για τη δημιουργία ψεύτικου περιεχομένου. Ο στόχος τους θα είναι να παρασύρουν ευκολόπιστους χρήστες των μέσων κοινωνικής δικτύωσης να ακολουθούν ψεύτικους λογαριασμούς. Στη συνέχεια, αυτοί οι χρήστες θα αξιοποιούνται για τη διάδοση ψευδών πληροφοριών, υποστηρίζοντας επιχειρήσεις επιρροής με τρόπους που είναι πιο αποτελεσματικοί και δύσκολα ανιχνεύσιμοι από τις παραδοσιακές φάρμες περιεχομένου ή τρολ.

Σπάσιμο κωδικών πρόσβασης: Η τεχνητή νοημοσύνη θα αξιοποιηθεί για να αποκαλύπτει διαπιστευτήρια χρηστών σε ελάχιστο χρόνο, διευκολύνοντας την πρόσβαση σε εταιρικά δίκτυα, δεδομένα και λογαριασμούς πελατών.

ΤΕΥΧΟΣ 659

ΑΛΛΑ ΑΡΘΡΑ ΣΕ ΑΥΤΗ ΤΗΝ ΚΑΤΗΓΟΡΙΑ