Αυτός ο ιστότοπος χρησιμοποιεί cookie ώστε να μπορούμε να σας παρέχουμε την καλύτερη δυνατή εμπειρία χρήστη. Οι πληροφορίες cookie αποθηκεύονται στο πρόγραμμα περιήγησης σας και εκτελούν λειτουργίες όπως η ανάγνωση σας όταν επιστρέφετε στον ιστότοπο μας και η βοήθεια της ομάδας μας να κατανοήσει ποιες ενότητες του ιστοτόπου θεωρείτε πιο ενδιαφέρουσες και χρήσιμες.
LATEST
Το ICO προειδοποιεί για ανωριμότητα των βιομετρικών τεχνολογιών
Του Στάθη Ασπιώτη
Το Information Commissioner’s Office – ICO προειδοποίησε τους οργανισμούς που χρησιμοποιούν ή αναπτύσσουν τεχνολογία «ανάλυσης συναισθημάτων» να ενεργούν υπεύθυνα, διαφορετικά κινδυνεύουν να ερευνηθούν επίσημα.
Συγκεκριμένα, οι ανώριμοι αλγόριθμοι που δεν μπορούν να ανιχνεύσουν με ακρίβεια συναισθηματικές ενδείξεις, θα μπορούσαν να αυξήσουν τον κίνδυνο συστημικής προκατάληψης, ανακρίβειας και διακρίσεων, ενώ παράλληλα θέτουν σε κίνδυνο την προστασία δεδομένων.
Η τεχνολογία συναισθηματικής ανάλυσης μπορεί να παρακολουθεί το βλέμμα, το συναίσθημα, τις κινήσεις του προσώπου, το βάδισμα, τον καρδιακό παλμό, την έκφραση του προσώπου, ακόμη και την υγρασία του δέρματος για να επιτύχει διάφορους σκοπούς, όπως η παρακολούθηση της υγείας εν ώρα εργασίας, ανέφερε το ICO.
Ως εκ τούτου, είναι ακόμα πιο επικίνδυνη από την επεξεργασία βιομετρικών δεδομένων για επαλήθευση ταυτότητας, προειδοποίησε η ρυθμιστική αρχή.
Ο αναπληρωτής επίτροπος, Stephen Bonner, είπε ότι η αγορά βιομετρικών και συναισθηματικής τεχνητής νοημοσύνης μπορεί να μην ωριμάσει ποτέ και, στο μεταξύ, παρουσιάζει κινδύνους για την προστασία των δεδομένων. «Ενώ υπάρχουν ευκαιρίες, οι κίνδυνοι σήμερα είναι μεγαλύτεροι. Στο ICO, ανησυχούμε ότι η εσφαλμένη ανάλυση δεδομένων θα μπορούσε να οδηγήσει σε υποθέσεις και κρίσεις για ένα άτομο που είναι ανακριβείς και οδηγούν σε διακρίσεις», υποστήριξε.
«Οι μόνες βιώσιμες βιομετρικές αναπτύξεις θα είναι αυτές που είναι πλήρως λειτουργικές, υπεύθυνες και υποστηρίζονται από την επιστήμη. Προς το παρόν, δεν έχουμε δει ακόμα καμία τεχνολογία AI να αναπτύσσεται με τρόπο που να ικανοποιεί τις απαιτήσεις προστασίας δεδομένων και έχουμε γενικότερα ερωτήματα σχετικά με την αναλογικότητα, τη δικαιοσύνη και τη διαφάνεια σε αυτόν τον τομέα».