TM_270
10 24|4|2023 #270 Το ChatGPT, το δημόσιο γεννητικό AI που κυκλοφόρησε τον Νοέμβριο του 2022, έχει προκαλέσει σημαντική ανησυχία σχετικά με τη δυνατότητα ενίσχυσης της σοβαρότητας και της πολυπλοκότητας των κυβερνοαπειλών. Πράγματι, αμέσως μετά την ανακοίνωση της κυκλοφορίας από την OpenAI, πολ- λοί ήταν οι ειδικοί ασφαλείας που προέβλεψαν ότι είναι θέμα χρόνου να χρησιμοποιηθεί το AI chatbot από επιτιθέμενους για τη δημιουργία malware ή ακόμα και για ενίσχυση των επι- θέσεων phishing. Οι υποψίες επιβεβαιώθηκαν γρήγορα, καθώς ανακαλύφθηκε ότι οι κυβερνοεγκληματίες έχουν ήδη αρχίσει να χρησιμοποι- ούν αυτό το εργαλείο με βάση το μοντέλο γλώσσας AI GPT-3 για την αναπαραγωγή τύπων κακόβουλου λογισμικού και τη διάπραξη διαφορετικών τύπων επιθέσεων. Οι κυβερνοεγκλη- ματίες χρειάζεται απλώς να έχουν έναν λογαριασμό OpenAI, τον οποίο μπορούν να δημι- ουργήσουν δωρεάν από τον ιστότοπό τους, και στη συνέ- χεια, να θέσουν ένα ερώτημα. Όπως περιγράφεται σε ενημερωτικό άρθρο της WatchGuard, oι επιτιθέμενοι μπορούν να εκμεταλλευ- τούν την γεννητική τεχνητή νοημοσύνη του ChatGPT για να δημιουργήσουν κακό- βουλη δραστηριότητα , συ- μπεριλαμβανομένων: Απάτες phishing Οι απειλητικοί παράγοντες μπορούν να χρησιμοποιήσουν το μεγάλο μοντέλο γλώσσας- Large Language Model (LLM) του συστήματος ChatGPT για να απομακρυνθούν από τα καθολικά φορμάτ και να αυτοματοποιήσουν τη δημιουργία μοναδικών emails phishing ή spoofing, γραμμένων με τέλεια γραμματική και φυσικά μοτίβα λόγου που προσαρμόζονται σε κάθε στόχο. Αυτό σημαίνει ότι επιθέσεις email που δημιουρ- γήθηκαν με τη βοήθεια της συγκεκριμένης τεχνολογίας δεί- χνουν πολύ πιο πειστικές, καθιστώντας πιο δύσκολο για τους αποδέκτες να τις ανιχνεύσουν και να αποφύγουν το κλικ που οδηγεί σε κακόβουλους συνδέσμους και ενδέχεται να περιέ- χουν malware. Κλοπή ταυτότητας Εκτός από το phishing, κακόβουλοι δράστες μπορούν να χρη- σιμοποιήσουν το ChatGPT για να προσποιηθούν μια αξιόπι- στη οντότητα, χάρη στη δυνατότητα της τεχνολογίας να ανα- παράγει τον επιχειρησιακό τόνο και τον τρόπο επικοινωνίας με μία τράπεζα ή ενός φορέα και στη συνέχεια να εκμεταλλευ- τούν αυτά τα μηνύματα στα μέσα κοινωνικής δικτύωσης, σε SMS ή μέσω ηλεκτρονικού ταχυδρομείου για να αποκτήσουν πρόσβαση σε προσωπικές και χρηματοοικονομικές πληροφο- ρίες των ανθρώπων. Κακόβουλοι δράστες μπορούν, επίσης, να γράψουν αναρτήσεις στα μέσα κοινωνικής δικτύωσης προ- σποιούμενοι διάσημους αξιοποιώντας αυτήν τη δυνατότητα. Άλλες επιθέσεις κοινωνικής μηχανικής Οι επιθέσεις κοινωνικής μηχανικής μπορούν επίσης να πραγ- ματοποιηθούν κάθε φορά που οι δράστες χρησιμοποιούν το μοντέλο για τη δημιουργία ψεύτικων προφίλ στα κοινωνικά μέσα, καθιστώντας τα πολύ ρεαλιστικά, και στη συνέχεια να απατούν τους ανθρώπους, ώστε να κάνουν κλικ σε κακόβου- λους συνδέσμους ή να τους πείσουν να μοιραστούν προσωπι- κές πληροφορίες. Δημιουργία κακόβουλων bots Το ChatGPT μπορεί να χρησιμοποιηθεί για τη δημιουργία chatbots, καθώς διαθέτει ένα API που μπορεί να τροφοδοτήσει άλλες συνομιλίες. Το φιλικό προς τον χρήστη περιβάλλον του, σχεδιασμένο για επωφελείς χρήσεις, μπορεί να χρησιμοποιηθεί για να εξαπατήσει ανθρώπους και να εκτελέσει πειστικές απά- τες, καθώς και για να εξαπλωθεί ανεπιθύμητη αλληλογραφία ή να εκτελέσει επιθέσεις phishing. Κακόβουλο Λογισμικό Το ChatGPT μπορεί να βοηθήσει στην εκτέλεση μιας εργασίας που συνήθως απαιτεί δεξιότητες υψηλού επιπέδου προγραμ- ματισμού, όπως τη δημιουργία κώδικα σε διάφορες γλώσσες προγραμματισμού. Το μοντέλο επιτρέπει στους κακόβουλους χρήστες με περιορισμένες ή και καθόλου δεξιότητες προγραμ- ματισμού, να αναπτύξουν κα- κόβουλο λογισμικό. Αυτό μπο- ρεί να γίνει καθώς το ChatGPT έχει τη δυνατότητα να συντάξει τον κώδικα, γνωρίζοντας απλά ποια λειτουργικότητα θα πρέ- πει να έχει το κακόβουλο λογι- σμικό. Αντίστοιχα, οι προηγμένοι κυ- βερνοεγκληματίες μπορούν να χρησιμοποιήσουν αυτήν την τεχνολογία για να κατα- στήσουν τις απειλές τους πιο αποτελεσματικές ή να θέσουν εκτός λειτουργίας υπάρχοντα παραθυράκια ασφαλείας. Σε ένα περιστατικό που μοιρά- στηκε ένας εγκληματίας σε ένα φόρουμ, το ChatGPT χρησιμο- ποιήθηκε για να δημιουργήσει malware χρησιμοποιώντας έναν κώδικα βασισμένο σε Python που μπορεί να αναζητά, αντιγρά- φει και εξαγάγει 12 κοινούς τύπους αρχείων, όπως έγγραφα Office, PDF και εικόνες από ένα μολυσμένο σύστημα. Με άλλα λόγια, αν εντοπίσει ένα αρχείο που παρουσιάζει ενδιαφέρον, το malware το αντιγράφει σε έναν προσωρινό φάκελο, το συμπιέ- ζει και το στέλνει μέσω web. Ο ίδιος «συντάκτης» malware έδει- ξε, επίσης, πώς χρησιμοποίησε το ChatGPT για να γράψει κώδι- κα Java, ώστε να κατεβάσει τον client PuTTY SSH και το telnet, αλλά και να το τρέξει στο σύστημα μέσω του PowerShell. Προηγμένες απειλές απαιτούν προηγμένες λύσεις Οι προηγμένες κυβερνοαπειλές πρέπει να αντιμετωπίζονται με λύσεις που να είναι αντάξιες της πρόκλησης. Το WatchGuard EPDR συνδυάζει δυνατότητες προστασίας (EPP), ανίχνευσης και απόκρισης (EDR) σε μια μόνο λύση. Χάρη στα νέα και αναδυ- όμενα μοντέλα τεχνητής νοημοσύνης, μηχανικής μάθησης και βαθιάς γνώσης, το WatchGuard EPDR προστατεύει από προηγ- μένες απειλές, επίμονες προηγμένες απειλές (APTs), κακόβουλο λογισμικό zero day, κρυπτογραφημένο κακόβουλο λογισμικό, ψεύτικα email (phishing), rootkits, ευπάθειες μνήμης και επιθέ- σεις χωρίς κακόβουλο λογισμικό, ενώ παρέχει πλήρη ορατότητα και παρακολούθηση των συστημάτων και των δραστηριοτήτων, ανιχνεύοντας κακόβουλη δραστηριότητα που μπορεί να ξεγλι- στρήσει από τις περισσότερες παραδοσιακές λύσεις antivirus. Επίσης, παρακολουθεί συνεχώς όλες τις εφαρμογές και ανι- χνεύει κακόβουλη συμπεριφορά, ακόμα και αν προέρχεται από νόμιμες εφαρμογές. Είναι, ακόμη, ικανό να οργανώνει μια αυ- τοματοποιημένη αντίδραση και, ανταλλάζοντας πληροφορίες μέσω δεικτών προηγούμενης επίθεσης, να επιτρέπει την πλήρη έρευνα κάθε προσπάθειας επίθεσης μέσω προηγμένων δεικτών επίθεσης (IoA). ΗWatchGuard προειδοποιεί Κυβερνοέγκλημα και ChatGPT
Made with FlippingBook
RkJQdWJsaXNoZXIy NjE3Njcz