Αυτός ο ιστότοπος χρησιμοποιεί cookie ώστε να μπορούμε να σας παρέχουμε την καλύτερη δυνατή εμπειρία χρήστη. Οι πληροφορίες cookie αποθηκεύονται στο πρόγραμμα περιήγησης σας και εκτελούν λειτουργίες όπως η ανάγνωση σας όταν επιστρέφετε στον ιστότοπο μας και η βοήθεια της ομάδας μας να κατανοήσει ποιες ενότητες του ιστοτόπου θεωρείτε πιο ενδιαφέρουσες και χρήσιμες.
LATEST
Διασφάλιση των εργαλείων τεχνητής νοημοσύνης
«Το καθήκον των επαγγελματιών στον χώρο της κυβερνοασφάλειας είναι να διασφαλίσουν ότι τα εργαλεία τεχνητής νοημοσύνης αξιοποιούνται μόνο για κοινωνικό καλό», ήταν ένα ισχυρό μήνυμα στο συνέδριο RSA 2024. Η χρήση της τεχνητής νοημοσύνης μπορεί να προσφέρει – και προσφέρει ήδη – πολλά στον πραγματικό κόσμο, όπως είναι, για παράδειγμα, η ταχύτερη και ακριβέστερη διάγνωση των περιστατικών υγείας.
Ωστόσο, με τον πρωτοφανή ρυθμό της καινοτομίας και της υιοθέτησης της τεχνητής νοημοσύνης να επιταχύνεται, οι μπάρες ασφαλείας πρέπει να τεθούν έγκαιρα, σύμφωνα με την έκκληση πολλών. Αυτό πρέπει να γίνει με γνώμονα έννοιες, όπως η ιδιωτικότητα και η δικαιοσύνη. Ο κος Dan Hendrycks, Ιδρυτής του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης, δήλωσε ότι υπάρχει ένας τεράστιος αριθμός κινδύνων συνδεδεμένος με την τεχνητή νοημοσύνη, τόσο κοινωνικοί, όσο και τεχνικοί, δεδομένης της αυξανόμενης επιρροής και των δυνατοτήτων της στον φυσικό κόσμο.
Οι εργαζόμενοι χρησιμοποιούν δημόσια διαθέσιμα εργαλεία δημιουργικής τεχνητής νοημοσύνης, όπως το ChatGPT, για την εργασία τους, ένα φαινόμενο που ο κος Dan Lohrmann, CISO της Presidio, ανέφερε ως Bring Your Own AI.
Ο κος Mike Aiello, Επικεφαλής τεχνολογίας της Secureworks, δήλωσε ότι βλέπει μια αναλογία με τις υπηρεσίες Secure Access Service Edge (SASE), οι οποίες οδήγησαν πολλούς υπαλλήλους να αποκτήσουν συνδρομές. Αυτή η τάση δημιουργεί πολλές ανησυχίες για την ασφάλεια και την προστασία της ιδιωτικής ζωής των επιχειρήσεων, όπως η εισαγωγή ευαίσθητων εταιρικών δεδομένων σε αυτά τα μοντέλα – γεγονός που θα μπορούσε να καταστήσει τις πληροφορίες διαθέσιμες στο κοινό.
Άλλα ζητήματα απειλούν την ακεραιότητα των αποτελεσμάτων των εργαλείων τεχνητής νοημοσύνης. Σε αυτά περιλαμβάνονται η «δηλητηρίαση» δεδομένων, κατά την οποία η συμπεριφορά των μοντέλων αλλάζει, είτε κατά λάθος είτε σκόπιμα, με την τροποποίηση των δεδομένων στα οποία εκπαιδεύονται και οι επιθέσεις prompt injection, κατά τις οποίες τα μοντέλα τεχνητής νοημοσύνης χειραγωγούνται, ώστε να εκτελούν ακούσιες ενέργειες.
Οι εμπειρογνώμονες που μίλησαν στο συνέδριο RSA υποστήριξαν ότι οι οργανισμοί πρέπει να αντιμετωπίζουν τα εργαλεία AI, όπως οποιεσδήποτε άλλες εφαρμογές που πρέπει να διασφαλίσουν.