Skip to main content

ΕΓΓΡΑΦΗ ΣΤΟ NEWSLETTER

13 June 2023 05:51

Η Google παρουσιάζει το Secure AI Framework

Της Αφροδίτης Μπαλίδου

Η Google, ιδιοκτήτρια του generative AI chatbot Bard και μητρική εταιρεία του ερευνητικού εργαστηρίου AI DeepMind, παρουσίασε το Secure AI Framework (SAIF) στις 8 Ιουνίου 2023. Το SAIF πρόκειται να είναι «ένα τολμηρό και υπεύθυνο, […] εννοιολογικό πλαίσιο που θα βοηθήσει στη συνεργατική ασφάλεια της τεχνολογίας AI», έγραψαν η κα Royal Hansen, Αντιπρόεδρος Μηχανικής της Google για την προστασία της ιδιωτικής ζωής και την ασφάλεια, και ο κος Phil Venables, CISO του Google Cloud, σε αναφορά τους.

Η προσπάθεια βασίζεται στην εμπειρία της Google στην ανάπτυξη μοντέλων ασφαλείας στον κυβερνοχώρο, όπως το συνεργατικό πλαίσιο Supply-chain Levels for Software Artifacts (SLSA) και το BeyondCorp, την αρχιτεκτονική μηδενικής εμπιστοσύνης που χρησιμοποιείται από πολλούς οργανισμούς. Συγκεκριμένα, το SAIF είναι ένα «πρώτο βήμα» που έχει σχεδιαστεί για να βοηθήσει στον μετριασμό των κινδύνων που αφορούν ειδικά στα συστήματα τεχνητής νοημοσύνης, όπως η κλοπή του μοντέλου, η «δηλητηρίαση» των δεδομένων εκπαίδευσης, οι κακόβουλες εισροές μέσω prompt injection και η εξαγωγή εμπιστευτικών πληροφοριών στα δεδομένα εκπαίδευσης.

Το SAIF βασίζεται σε έξι βασικές αρχές:

Επέκταση ισχυρών βάσεων ασφάλειας στο οικοσύστημα AI, συμπεριλαμβανομένης της αξιοποίησης των προστατευτικών υποδομών της υποδομής secure-by-default (π.χ. τεχνικές μετριασμού της έγχυσης SQL).

Επέκταση της ανίχνευσης και της απόκρισης για να εισαχθεί το AI στο σύμπαν απειλών ενός οργανισμού.

Αυτοματοποίηση της άμυνας για να συμβαδίζει με τις υπάρχουσες και τις νέες απειλές.

Εναρμόνιση των ελέγχων σε επίπεδο πλατφόρμας για να διασφαλιστεί συνεπής ασφάλεια σε ολόκληρο τον οργανισμό, ξεκινώντας με το Vertex AI και το Security AI Workbench που ανήκουν στην Google και το Perspective API, ένα δωρεάν API ανοικτού κώδικα που αναπτύχθηκε από τις ομάδες Jigsaw και Counter Abuse Technology της Google και χρησιμοποιεί μηχανική μάθηση για τον εντοπισμό «τοξικών» σχολίων στο διαδίκτυο.

Προσαρμογή των ελέγχων για την προσαρμογή των μετριασμών και τη δημιουργία ταχύτερων βρόχων ανατροφοδότησης για την ανάπτυξη του AI.

Συμπερίληψη των κινδύνων του συστήματος AI στις περιβάλλουσες επιχειρησιακές διαδικασίες.

Τεύχος 304

ΑΛΛΑ ΑΡΘΡΑ ΣΕ ΑΥΤΗ ΤΗΝ ΚΑΤΗΓΟΡΙΑ