Αυτός ο ιστότοπος χρησιμοποιεί cookie ώστε να μπορούμε να σας παρέχουμε την καλύτερη δυνατή εμπειρία χρήστη. Οι πληροφορίες cookie αποθηκεύονται στο πρόγραμμα περιήγησης σας και εκτελούν λειτουργίες όπως η ανάγνωση σας όταν επιστρέφετε στον ιστότοπο μας και η βοήθεια της ομάδας μας να κατανοήσει ποιες ενότητες του ιστοτόπου θεωρείτε πιο ενδιαφέρουσες και χρήσιμες.
LATEST
Αντιμετώπιση των απειλών της AI στον χρηματοπιστωτικό τομέα
Το Υπουργείο Οικονομικών των ΗΠΑ προειδοποίησε για τους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη για τον χρηματοπιστωτικό τομέα. Η έκθεση, η οποία συντάχθηκε κατ’ εντολή του προεδρικού διατάγματος 14110 για την ασφαλή και αξιόπιστη ανάπτυξη και χρήση της τεχνητής νοημοσύνης, διατυπώνει επίσης μια σειρά συστάσεων για τα χρηματοπιστωτικά ιδρύματα σχετικά με τον τρόπο μετριασμού των κινδύνων αυτών.
Οι εταιρείες χρηματοπιστωτικών υπηρεσιών και οι εταιρείες που σχετίζονται με την τεχνολογία, από τις οποίες ζητήθηκαν συνεντεύξεις στην έκθεση, αναγνώρισαν την απειλή που συνιστούν τα προηγμένα εργαλεία τεχνητής νοημοσύνης, όπως η γενεσιουργός τεχνητή νοημοσύνη, με ορισμένους να πιστεύουν ότι αρχικά θα δώσουν στους φορείς απειλών το «πάνω χέρι».
Αυτό οφείλεται στο γεγονός ότι οι τεχνολογίες αυτές βελτιώνουν την πολυπλοκότητα των επιθέσεων, όπως το κακόβουλο λογισμικό και η κοινωνική μηχανική, καθώς και στη μείωση των εμποδίων εισόδου για λιγότερο ειδικευμένους επιτιθέμενους.
Άλλοι τρόποι με τους οποίους οι φορείς απειλών στον κυβερνοχώρο μπορούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη για να στοχεύσουν τα χρηματοπιστωτικά συστήματα, που επισημάνθηκαν, ήταν η ανακάλυψη ευπαθειών και η παραπληροφόρηση – συμπεριλαμβανομένης της χρήσης deepfakes για να υποδυθούν άτομα για να εξαπατήσουν εταιρείες, όπως διευθύνοντες σύμβουλους.
Η έκθεση αναγνώρισε ότι τα χρηματοπιστωτικά ιδρύματα χρησιμοποιούν συστήματα τεχνητής νοημοσύνης για την υποστήριξη λειτουργιών εδώ και αρκετά χρόνια, μεταξύ άλλων σε μέτρα κυβερνοασφάλειας και καταπολέμησης της απάτης. Ωστόσο, ορισμένα από τα ιδρύματα που συμπεριλήφθηκαν στη μελέτη ανέφεραν ότι τα υφιστάμενα πλαίσια διαχείρισης κινδύνων ενδέχεται να μην είναι επαρκή για να καλύψουν τις αναδυόμενες τεχνολογίες ΤΝ, όπως η γενετική ΤΝ.
Ορισμένοι από τους ερωτηθέντες δήλωσαν ότι δίνουν προσοχή στις μοναδικές απειλές στον κυβερνοχώρο για τα συστήματα AI που χρησιμοποιούνται σε χρηματοπιστωτικούς οργανισμούς, τα οποία θα μπορούσαν να αποτελέσουν ιδιαίτερο στόχο για παράγοντες εσωτερικών απειλών. Σε αυτές περιλαμβάνονται επιθέσεις δηλητηρίασης δεδομένων, οι οποίες αποσκοπούν στην αλλοίωση των δεδομένων εκπαίδευσης του μοντέλου AI.
Μια άλλη ανησυχία σχετικά με τις εσωτερικές λύσεις AI που εντοπίζονται στην έκθεση είναι ότι οι απαιτήσεις σε πόρους των συστημάτων της θα αυξήσουν γενικά την άμεση και έμμεση εξάρτηση των ιδρυμάτων από υποδομές και δεδομένα τεχνητής νοημοσύνης τρίτων.
Παράγοντες όπως ο τρόπος συλλογής και χειρισμού των δεδομένων εκπαίδευσης θα μπορούσαν να εκθέσουν τους χρηματοπιστωτικούς οργανισμούς σε πρόσθετους οικονομικούς, νομικούς κινδύνους και κινδύνους ασφαλείας, σύμφωνα με τους ερωτηθέντες.