Skip to main content
26 July 2024 06:48

Πρακτικός οδηγός προς CISOs για την GenAI

Η Deloitte παρουσιάζει έναν πρακτικό οδηγό γύρω από το Generative ΑΙ και την προστιθέμενη αξία που αυτό προσφέρει στον ιδιαίτερα ευαίσθητο τομέα της Ασφάλειας Πληροφοριών. Ο οδηγός περιέχει, μεταξύ άλλων, πληροφορίες για τις ευκαιρίες που κρύβει το GenAI για τον κλάδο, τα βασικά συμπεράσματα που έχουν προκύψει από τη χρήση του, καθώς και οι ενέργειες που σήμερα αποτελούν προτεραιότητα, προκειμένου να ενσωματωθεί αποτελεσματικότερα στη λειτουργία των επιχειρήσεων ανά τον κόσμο.

Το GenAI υπόσχεται πολλά τόσο για τους οργανισμούς, όσο και για τις κυβερνήσεις που πρέπει να προστατευτούν, να δημιουργήσουν εργαλεία για την αυτοματοποίηση των αναφορών και της νοημοσύνης, να μειώσουν το κόστος, να αναπτυχθούν πιο αποτελεσματικά, να ταξινομήσουν το συνεχώς μεταβαλλόμενο ρυθμιστικό – νομοθετικό περιβάλλον και αρκετά ακόμα.

Οι επικεφαλής κυβερνοασφάλειας (CISOs) είναι λογικό να ανησυχούν για το πώς κακόβουλοι χρήστες μπορεί να χρησιμοποιήσουν το GenAI, όμως με τη σωστή προσέγγιση και διακυβέρνηση, το GenAI μπορεί να βοηθήσει έναν οργανισμό να θωρακιστεί στον κυβερνοχώρο, να ξεπεράσει τις προκλήσεις εύρεσης και διακράτησης του κατάλληλου ανθρώπινου δυναμικού και να δημιουργήσει νέους «οδικούς χάρτες» για την ανίχνευση και την αντιμετώπιση απειλών. Για να ξεκλειδώσουν τις δυνατότητες της GenAI, οι CISOs θα πρέπει πρώτα να κατανοήσουν πού μπορεί να βοηθήσει, τους τύπους δεδομένων που χρειάζεται και πώς να αναπτύξουν ένα σχέδιο δράσης που περιλαμβάνει εκτιμήσεις για την ασφάλεια, την ανθεκτικότητα και την αξιοπιστία.

Το AI μπορεί να λειτουργήσει αποτελεσματικά σε συγκεκριμένες μόνο περιπτώσεις. Όμως με το GenAI και τα μεγάλα γλωσσικά μοντέλα (LLM) τα δεδομένα αλλάζουν. Το GenAI χρησιμοποιεί θεμελιώδη μοντέλα νευρωνικών δικτύων που τροφοδοτούνται, αλλά και εκπαιδεύονται από τεράστιες ποσότητες δεδομένων, δουλεύοντας σε διάφορες δομές και λειτουργώντας ως γέφυρα μεταξύ συνόλων δεδομένων. Η διαδικασία αυτή προσφέρει μια πιο φυσική μέθοδο για τον εντοπισμό, τη σύνθεση και τη σύνοψη των γνώσεων.

Το GenAI υποστηρίζει την πρόβλεψη, κατηγοριοποίηση κινδύνων και πρόταση προληπτικών μέτρων μέσα από την ανάλυση δεδομένων, αρχείων ασφαλείας, πληροφοριών σχετικών με απειλές. Παράλληλα συνεισφέρει στην ερμηνεία, παρέχει συνεκτικές περιλήψεις των κινδύνων, καθώς και ειδοποιήσεις. Μέσα από το GenAI, οι επιχειρήσεις έχουν την ευκαιρία να προχωρήσουν σε προσομοίωση και ασκήσεις διαχείρισης κινδύνων, στην αυτοματοποίηση της λειτουργίας τους μέσα από αναλυτικά εγχειρίδια αντιμετώπισης περιστατικών, στην αλληλεπίδραση μέσα από εξατομικευμένες και στοχευμένες εκπαιδεύσεις με βάση τους ρόλους, τις αρμοδιότητες και τις απαιτήσεις της εργασίας και στην ανίχνευση συγκεκριμένων απαντήσεων που μπορούν να καθοδηγήσουν τους αναλυτές ασφαλείας στα μέτρα αποκατάστασης.

Τα παλαιότερα συστήματα ΑΙ ήταν ανιχνεύσιμα και ήταν δυνατή η κατανόηση ορισμένων μόνο αποτελεσμάτων μέσω των δεδομένων τους. Αλλά το GenAI είναι ένα διαφορετικό εργαλείο με πολλαπλές παραμέτρους που μπορεί να καταστήσει πιο απαιτητική την παρακολούθηση των αποτελεσμάτων. Το GenAI εκπαιδεύεται επίσης σε πολύ μεγαλύτερα σύνολα δεδομένων από το παραδοσιακό AI, γεγονός που μπορεί να καταστήσει πιο δύσκολο να γνωρίζουμε πού και πώς μπορεί να έχουν τροποποιηθεί τα δεδομένα ή πού μπορεί να υπάρχουν αμφιβολίες για την ποιότητά τους. Τα συνεχώς εξελισσόμενα προφίλ κινδύνου απαιτούν μια διαφορετική οπτική. Ορισμένοι κίνδυνοι στον κυβερνοχώρο για το GenAI μπορεί να είναι:

Παραβίαση δεδομένων: Η κοινή χρήση ευαίσθητων δεδομένων με εξωτερικούς προμηθευτές GenAI για την εκπαίδευση μοντέλων μπορεί να οδηγήσει σε διαρροή εμπιστευτικών ή/και προσωπικών πληροφοριών. Μπορούν επίσης να χρησιμοποιηθούν επιθέσεις αντιπάλων για την εξαπάτηση του μοντέλου ML με την αλλαγή των δεδομένων εισόδου.

Μη ασφαλής ενσωμάτωση: Η ακατάλληλη ενσωμάτωση των εργαλείων GenAI με άλλα οργανωτικά συστήματα μπορεί να οδηγήσει σε πιθανές ευπάθειες (π.χ. μη ασφαλείς δίαυλοι δεδομένων) και αδυναμίες άμυνας.

Κίνδυνος φήμης: Οι κακόβουλοι παράγοντες μπορούν να αξιοποιήσουν τα εργαλεία GenAI για την ευρεία και ταχεία διάδοση παραπληροφόρησης, γεγονός που μπορεί να πλήξει την ασφάλεια των πληροφοριών και την αξιοπιστία ενός οργανισμού.

Ρυθμιστικός κίνδυνος: Οι οργανισμοί που χρησιμοποιούν GenAI ενδέχεται να χρειαστεί να ανταποκριθούν σε νέες απαιτήσεις συμμόρφωσης, καθώς οι αυξανόμενες ανησυχίες επηρεάζουν νέους νόμους, κανονισμούς και κατευθυντήριες γραμμές, όπως το προτεινόμενο Πλαίσιο Διαχείρισης Κινδύνου Τεχνητής Νοημοσύνης του Εθνικού Ινστιτούτου Προτύπων και Τεχνολογίας και οι νέοι κανονισμοί της ΕΕ για τα συστήματα Τεχνητής Νοημοσύνης γενικού σκοπού.

ΤΕΥΧΟΣ 557

ΑΛΛΑ ΑΡΘΡΑ ΣΕ ΑΥΤΗ ΤΗΝ ΚΑΤΗΓΟΡΙΑ