TM_212

10 24|1|2023 #212 Σύμφωνα με τους ερευνητές του WithSecure , τα μοντέλα γλώσσας GPT-3 καταχρώνται για να παράγουν phising emails, μηνύματα παρενόχλησης στα social media, ψευδείς ειδήσεις και άλλους τύπους μηνυμάτων για διαδικτυακές απάτες. Για την έρευνα, διεξήχθη μια σειρά πειραμάτων για να προσ- διορίσει πώς αλλάζοντας το input στο μοντέλο γλώσσας επη- ρεάζεται το output. Τα πειράματα κάλυψαν επτά υποθέσεις εγκληματικής χρήσης: phishing και spear-phishing, παρενό- χληση, κοινωνική επικύρωση για απάτες, οικειοποίηση τρόπου γραφής, εξάπλωση σκόπιμα διχαστικών απόψεων, χρήση των μοντέλων για τη δημιουργία και διασπορά ψευδών ειδήσεων και εμπρηστικού λόγου. Σε μια άλλη δοκιμή, οι συντάκτες της έκθεσης ζήτησαν από το GPT-3 να δημιουργήσει ψευδείς ειδήσεις επειδή, όπως έγραψαν, «μία από τις πιο προφανείς χρήσεις για ένα γλωσσικό μοντέλο θα ήταν η δημιουργία ψευδών ειδήσεων». Συγκεκριμένα, οι ερευνητές ώθησαν το GPT-3 να γράψει ένα άρθρο κατηγορώ- ντας τις ΗΠΑ για την επίθεση στον αγωγό Nordstream2 το 2022. Επειδή το γλωσσικό μοντέλο που χρησιμοποιήθηκε στα πειρά- ματα εκπαιδεύτηκε τον Ιούνιο του 2021, οι συγγραφείς χρησι- μοποίησαν μια σειρά προτροπών που περιελάμβαναν αποσπά- σματα από τηWikipedia και άλλες πηγές σχετικά με τον πόλεμο, τις ζημιές του αγωγού και τους ελιγμούς του ναυτικού των ΗΠΑ στη Βαλτική Θάλασσα. Οι προκύπτουσες «ειδήσεις», χωρίς τις πληροφορίες του 2022, δημιούργησαν πραγματικά εσφαλμένο περιεχόμενο. Ωστόσο, «το γεγονός ότι μόνο τρία αποσπάσματα αντιγραφής-επικόλλη- σης έπρεπε να επισυναφθούν στην προτροπή προκειμένου να δημιουργηθεί μια αρκετά πιστευτή αφήγηση υποδηλώνει ότι δεν θα είναι τόσο δύσκολο να καταφέρετε το GPT-3 να γράψει ένα ειδικά προσαρμοσμένο άρθρο ή δοκίμιο, ακόμη και σε σχέ- ση με πολύπλοκα θέματα», σημειώνουν οι ερευνητές. Όταν, ωστόσο, πρόκειται για πληθώρα διαφορετικών περιεχο- μένων το GPT-3 μερικές φορές σπάει μια πρόταση στα «μισά του δρόμου», υποδηλώνοντας ότι θα εξακολουθούν να χρει- άζονται ανθρώπινοι συντάκτες για τη δημιουργία ή τουλάχι- στον τη διόρθωση κειμένου, κακόβουλου ή άλλου — προς το παρόν. Τέλος, ενώ η έκθεση υπογραμμίζει τους πιθανούς κιν- δύνους που εγκυμονεί το GPT-3, δεν προτείνει λύσεις για την αντιμετώπιση αυτών των απειλών. Χωρίς σαφές πλαίσιο για τον μετριασμό των κινδύνων που θέτει το GPT-3, οποιεσδήποτε προσπάθειες προστασίας από κακόβουλη χρήση αυτών των τεχνολογιών θα είναι αναποτελεσματική, προειδοποιεί. Το συμπέρασμα, σύμφωνα με τους ερευνητές, είναι ότι τα μεγά- λα γλωσσικά μοντέλα δίνουν στους εγκληματίες καλύτερα ερ- γαλεία για να δημιουργήσουν στοχευμένες κυβερνοεπιθέσεις – ειδικά σε αυτούς που δεν έχουν τις απαραίτητες δεξιότητες γραφής και πολιτισμικές γνώσεις για να συντάξουν μόνοι τους αυτό το είδος κειμένου. Αυτό σημαίνει ότι θα συνεχίσει να γί- νεται πιο δύσκολο για τους παρόχους πλατφορμών και για τα θύματα απάτης να εντοπίσουν κακόβουλο και ψεύτικο περιε- χόμενο που έχει γραφτεί με τη χρήση του AI. H τεχνητή νοημοσύνη «όπλο» στα χέρια των hackers Της Αφροδίτης Μπαλίδου

RkJQdWJsaXNoZXIy NjE3Njcz