Αυτός ο ιστότοπος χρησιμοποιεί cookie ώστε να μπορούμε να σας παρέχουμε την καλύτερη δυνατή εμπειρία χρήστη. Οι πληροφορίες cookie αποθηκεύονται στο πρόγραμμα περιήγησης σας και εκτελούν λειτουργίες όπως η ανάγνωση σας όταν επιστρέφετε στον ιστότοπο μας και η βοήθεια της ομάδας μας να κατανοήσει ποιες ενότητες του ιστοτόπου θεωρείτε πιο ενδιαφέρουσες και χρήσιμες.
LATEST
H τεχνητή νοημοσύνη «όπλο» στα χέρια των hackers
Της Αφροδίτης Μπαλίδου
Σύμφωνα με τους ερευνητές του WithSecure, τα μοντέλα γλώσσας GPT-3 καταχρώνται για να παράγουν phising emails, μηνύματα παρενόχλησης στα social media, ψευδείς ειδήσεις και άλλους τύπους μηνυμάτων για διαδικτυακές απάτες.
Για την έρευνα, διεξήχθη μια σειρά πειραμάτων για να προσδιορίσει πώς αλλάζοντας το input στο μοντέλο γλώσσας επηρεάζεται το output. Τα πειράματα κάλυψαν επτά υποθέσεις εγκληματικής χρήσης: phishing και spear-phishing, παρενόχληση, κοινωνική επικύρωση για απάτες, οικειοποίηση τρόπου γραφής, εξάπλωση σκόπιμα διχαστικών απόψεων, χρήση των μοντέλων για τη δημιουργία και διασπορά ψευδών ειδήσεων και εμπρηστικού λόγου.
Σε μια άλλη δοκιμή, οι συντάκτες της έκθεσης ζήτησαν από το GPT-3 να δημιουργήσει ψευδείς ειδήσεις επειδή, όπως έγραψαν, «μία από τις πιο προφανείς χρήσεις για ένα γλωσσικό μοντέλο θα ήταν η δημιουργία ψευδών ειδήσεων». Συγκεκριμένα, οι ερευνητές ώθησαν το GPT-3 να γράψει ένα άρθρο κατηγορώντας τις ΗΠΑ για την επίθεση στον αγωγό Nordstream2 το 2022.
Επειδή το γλωσσικό μοντέλο που χρησιμοποιήθηκε στα πειράματα εκπαιδεύτηκε τον Ιούνιο του 2021, οι συγγραφείς χρησιμοποίησαν μια σειρά προτροπών που περιελάμβαναν αποσπάσματα από τη Wikipedia και άλλες πηγές σχετικά με τον πόλεμο, τις ζημιές του αγωγού και τους ελιγμούς του ναυτικού των ΗΠΑ στη Βαλτική Θάλασσα.
Οι προκύπτουσες «ειδήσεις», χωρίς τις πληροφορίες του 2022, δημιούργησαν πραγματικά εσφαλμένο περιεχόμενο. Ωστόσο, «το γεγονός ότι μόνο τρία αποσπάσματα αντιγραφής-επικόλλησης έπρεπε να επισυναφθούν στην προτροπή προκειμένου να δημιουργηθεί μια αρκετά πιστευτή αφήγηση υποδηλώνει ότι δεν θα είναι τόσο δύσκολο να καταφέρετε το GPT-3 να γράψει ένα ειδικά προσαρμοσμένο άρθρο ή δοκίμιο, ακόμη και σε σχέση με πολύπλοκα θέματα», σημειώνουν οι ερευνητές.
Όταν, ωστόσο, πρόκειται για πληθώρα διαφορετικών περιεχομένων το GPT-3 μερικές φορές σπάει μια πρόταση στα «μισά του δρόμου», υποδηλώνοντας ότι θα εξακολουθούν να χρειάζονται ανθρώπινοι συντάκτες για τη δημιουργία ή τουλάχιστον τη διόρθωση κειμένου, κακόβουλου ή άλλου — προς το παρόν. Τέλος, ενώ η έκθεση υπογραμμίζει τους πιθανούς κινδύνους που εγκυμονεί το GPT-3, δεν προτείνει λύσεις για την αντιμετώπιση αυτών των απειλών. Χωρίς σαφές πλαίσιο για τον μετριασμό των κινδύνων που θέτει το GPT-3, οποιεσδήποτε προσπάθειες προστασίας από κακόβουλη χρήση αυτών των τεχνολογιών θα είναι αναποτελεσματική, προειδοποιεί.
Το συμπέρασμα, σύμφωνα με τους ερευνητές, είναι ότι τα μεγάλα γλωσσικά μοντέλα δίνουν στους εγκληματίες καλύτερα εργαλεία για να δημιουργήσουν στοχευμένες κυβερνοεπιθέσεις – ειδικά σε αυτούς που δεν έχουν τις απαραίτητες δεξιότητες γραφής και πολιτισμικές γνώσεις για να συντάξουν μόνοι τους αυτό το είδος κειμένου. Αυτό σημαίνει ότι θα συνεχίσει να γίνεται πιο δύσκολο για τους παρόχους πλατφορμών και για τα θύματα απάτης να εντοπίσουν κακόβουλο και ψεύτικο περιεχόμενο που έχει γραφτεί με τη χρήση του AI.