TM_562

8 2|8|2024 #562 Σε εφαρμογή τέθηκε και επίσημα από την Πέμπτη, 1 Αυγούστου, ο νόμος ορό- σημο της Ευρωπαϊκής Ένωσης για την τεχνητή νοημοσύνη, που έχει ως στόχο να ρυθμίσει τον τρόπο με τον οποίο οι εταιρείες αναπτύσσουν, χρησιμοποιούν και εφαρμόζουν την ΑΙ. Ο κανονισμός θα στοχεύσει κυρίως τις μεγάλες αμερι- κανικές εταιρείες τεχνολογίας, οι οποίες είναι σήμερα οι κύριοι κατασκευαστές των προηγμένων συστημάτων τεχνητής νοημοσύνης. Ωστόσο, πολλές άλλες επι- χειρήσεις θα εμπίπτουν στο πεδίο εφαρ- μογής των κανόνων – ακόμη και επιχει- ρήσεις μη τεχνολογικού χαρακτήρα. Ο κανονισμός καθορίζει ένα ολοκλη- ρωμένο και εναρμονισμένο ρυθμιστικό πλαίσιο για την ΑΙ σε ολόκληρη την ΕΕ, εφαρμόζοντας μια προσέγγιση με βάση τον κίνδυνο για τη ρύθμιση της συγκε- κριμένης τεχνολογίας. Στόχος της νέας νομοθεσίας, σύμφωνα με σχετική ανακοίνωση του Ευρωκοινο- βουλίου, είναι να προστατέψει τα θεμε- λιώδη δικαιώματα, τη δημοκρατία, το κράτος δικαίου και την περιβαλλοντική βιωσιμότητα από τα συστήματα τεχνη- τής νοημοσύνης υψηλού κινδύνου, αλλά και να ενισχύσει παράλληλα την καινο- τομία και να αναδείξει την Ευρώπη ως πρωτοπόρο δύναμη στον τομέα αυτό. Γι’ αυτόν τον σκοπό, ο κανονισμός ορίζει διαφορετικές υποχρεώσεις για τα συστή- ματα τεχνητής νοημοσύνης, ανάλογα με τους πιθανούς κινδύνους και τις επιπτώ- σεις που ενέχει η χρήση τους. Οι νέοι κανόνες απαγορεύουν τις εφαρ- μογές της τεχνητής νοημοσύνης που απειλούν τα δικαιώματα των πολιτών, όπως είναι τα συστήματα βιομετρικής κατηγοριοποίησης που βασίζονται σε ευαίσθητα χαρακτηριστικά και η μη στοχοθετημένη συλλογή εικόνων προ- σώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθη- σης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώ- πων. Θα απαγορεύονται επίσης η ανα- γνώριση συναισθημάτων στον χώρο εργασίας και το σχολείο, η κοινωνική βαθ- μολόγηση, η προληπτική αστυνόμευση και η τεχνητή νοημοσύνη που χειραγωγεί την ανθρώπινη συμπεριφορά ή εκμεταλ- λεύεται τα τρωτά σημεία των ανθρώπων. Η χρήση συστημάτων βιομετρικής ταυ- τοποίησης από τις αρχές επιβολής του νόμου απαγορεύεται κατά κανόνα, με εξαίρεση τις συγκεκριμένες περιπτώσεις που παραθέτει και ορίζει λεπτομερώς ο νέος κανονισμός. Η χρήση συστη- μάτων βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο» επιτρέπεται μόνο υπό αυστηρές προϋποθέσεις: Αν, για παράδειγμα, η βιομετρική ταυτοποίηση χρησιμοποιηθεί μόνο για περιορισμένο χρόνο και σε περιορισμένη γεωγραφική έκταση, με προηγούμενη ειδική άδεια από τις δικαστικές ή τις διοικητικές αρ- χές. Τέτοιες περιπτώσεις μπορεί να είναι η στοχευμένη αναζήτηση αγνοουμένου προσώπου ή η πρόληψη μιας τρομοκρα- τικής επίθεσης. Η χρήση συστημάτων βιομετρικής ταυτοποίησης «σε ύστερο χρόνο» θεωρείται υψηλού κινδύνου και απαιτεί δικαστική έγκριση που θα συν- δέεται με κάποιο ποινικό αδίκημα. Ο νέος κανονισμός θέτει σαφείς υποχρε- ώσεις και για τα υπόλοιπα συστήματα τεχνητής νοημοσύνης που θεωρούνται υψηλού κινδύνου, λόγω των σημαντικών επιβλαβών επιπτώσεων που ενδέχεται να έχουν στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου. Το κείμενο απαριθμεί τους τομείς στους οποίους χρησιμοποιούνται ή ενδέχεται να χρησιμοποιηθούν τέτοια συστήματα και οι οποίοι είναι οι κρίσιμες υποδομές, η εκπαίδευση και η επαγγελματική κατάρ- τιση, η απασχόληση, βασικές ιδιωτικές και δημόσιες υπηρεσίες, η επιβολή του νόμου, η διαχείριση της μετανάστευσης και των συνόρων, καθώς και οι δικαστι- κές και δημοκρατικές διαδικασίες. Τα συ- στήματα αυτά πρέπει να αξιολογούν και να ελαχιστοποιούν τους κινδύνους, να τηρούν αρχεία καταγραφής της χρήσης τους, να είναι διαφανή και ακριβή και να εποπτεύονται από ανθρώπους. Οι πολί- τες θα έχουν το δικαίωμα να υποβάλλουν καταγγελίες για τα συστήματα τεχνητής νοημοσύνης και να λαμβάνουν εξηγήσεις για τυχόν αποφάσεις που βασίστηκαν σε συστήματα υψηλού κινδύνου και επηρε- άζουν τα δικαιώματά τους. Τα συστήματα τεχνητής νοημοσύνης «γενικής χρήσης» και τα μοντέλα στα οποία βασίζονται πρέπει να πληρούν ορισμένες απαιτήσεις διαφάνειας, συ- μπεριλαμβανομένης της συμμόρφω- σής τους με τη νομοθεσία της ΕΕ για τα δικαιώματα πνευματικής ιδιοκτησίας και της δημοσιοποίησης λεπτομερών περιλήψεων του περιεχομένου που χρησιμοποιούν για την εκπαίδευση των μοντέλων τους. Για τα ισχυρότερα μο- ντέλα που μπορούν να δημιουργήσουν συστημικούς κινδύνους θα ισχύουν επι- πλέον απαιτήσεις, όπως η αξιολόγησή τους, η εκτίμηση και ο περιορισμός των συστημικών κινδύνων και η υποβολή εκθέσεων σχετικά με περιστατικά και δυ- σλειτουργίες. Επιπλέον, αν οποιοδήποτε οπτικοακουστικό υλικό είναι τεχνητό ή παραποιημένο (τα λεγόμενα «προϊόντα βαθυπαραποίησης» ή «deepfakes») θα πρέπει να επισημαίνεται σαφώς. Οι εθνικές αρχές κάθε χώρας θα πρέπει να δημιουργήσουν «ρυθμιστικά δοκιμα- στήρια» για να δοκιμάζονται σε πραγμα- τικές συνθήκες τα συστήματα τεχνητής νοημοσύνης. Οι δομές αυτές θα πρέπει να είναι προσβάσιμες στις μικρές και μεσαίες επιχειρήσεις, καθώς και στις νε- οφυείς επιχειρήσεις, για να μπορούν να αναπτύσσουν και να εκπαιδεύουν και- νοτόμα μοντέλα τεχνητής νοημοσύνης πριν από τη διάθεσή τους στην αγορά. Ποιες αλλαγές φέρνει ο πρώτος νόμος για τη ρύθμιση της AI;

RkJQdWJsaXNoZXIy NjE3Njcz