Η «Πράξη για την Τεχνητή Νοημοσύνη» εφαρμόζεται μόνο σε τομείς που εμπίπτουν στο Δίκαιο της ΕΕ και προβλέπει εξαιρέσεις, όπως για συστήματα που χρησιμοποιούνται αποκλειστικά για στρατιωτικούς και αμυντικούς σκοπούς, καθώς και για ερευνητικούς σκοπούς.
«Πράσινο φως» από το Ευρωπαϊκό Συμβούλιο στους πρώτους διεθνείς κανόνες για την AI
Shutterstock
Shutterstock
Πράξη για την Τεχνητή Νοημοσύνη

«Πράσινο φως» από το Ευρωπαϊκό Συμβούλιο στους πρώτους διεθνείς κανόνες για την AI

Η «Πράξη για την Τεχνητή Νοημοσύνη» εφαρμόζεται μόνο σε τομείς που εμπίπτουν στο Δίκαιο της ΕΕ και προβλέπει εξαιρέσεις, όπως για συστήματα που χρησιμοποιούνται αποκλειστικά για στρατιωτικούς και αμυντικούς σκοπούς, καθώς και για ερευνητικούς σκοπούς.

Ημέρα – ορόσημο για τις Νέες Τεχνολογίες καθίσταται η 21η Μαΐου, καθώς το Ευρωπαϊκό Συμβούλιο ενέκρινε τη νομοθετική «Πράξη για την Τεχνητή Νοημοσύνη», έναν πρωτοποριακό νόμο, με στόχο την εναρμόνιση των κανόνων για την AI.

Το σημαντικότερο, ίσως, δεδομένο, που ακολουθεί η εμβληματική νομοθετική πράξη της ΕΕ είναι ότι ακολουθεί μια προσέγγιση «βάσει κινδύνου»: Αυτό, με απλά λόγια, σημαίνει πως όσο μεγαλύτερος είναι ο κίνδυνος πρόκλησης βλάβης στην κοινωνία, τόσο αυστηρότεροι είναι οι κανόνες. Το νέο νομοθέτημα είναι το πρώτο στο είδος του στον κόσμο και θέτει τις βάσει για τη θεσμοθέτηση ενός νέου, παγκόσμιου προτύπου για την ρύθμιση της Τεχνητής Νοημοσύνης.

Ειδικότερα, η «Πράξη για την Τεχνητή Νοημοσύνη» αποσκοπεί στην προώθηση της ανάπτυξης και της υιοθέτησης ασφαλών και αξιόπιστων συστημάτων AI σε ολόκληρη την ενιαία αγορά της ΕΕ τόσο από ιδιωτικούς όσο και από δημόσιους φορείς. Παράλληλα, αποσκοπεί στη διασφάλιση του σεβασμού των θεμελιωδών δικαιωμάτων των πολιτών της ΕΕ και στην τόνωση των επενδύσεων και της καινοτομίας στον τομέα της Τεχνητής Νοημοσύνης στην Ευρώπη.

Η «Πράξη για την Τεχνητή Νοημοσύνη» εφαρμόζεται μόνο σε τομείς που εμπίπτουν στο Δίκαιο της ΕΕ και προβλέπει εξαιρέσεις, όπως για συστήματα που χρησιμοποιούνται αποκλειστικά για στρατιωτικούς και αμυντικούς σκοπούς, καθώς και για ερευνητικούς σκοπούς.

Σε δήλωσή του, ο Ματιέ Μισέλ, υφυπουργός Ψηφιακής Διακυβέρνησης του Βελγίου δήλωσε χαρακτηριστικά: «Η έκδοση της Πράξης για την Τεχνητή Νοημοσύνη αποτελεί σημαντικό ορόσημο για την Ευρωπαϊκή Ένωση. Αυτός ο νόμος - ορόσημο, ο πρώτος του είδους του στον κόσμο, αντιμετωπίζει μια παγκόσμια τεχνολογική πρόκληση που δημιουργεί επίσης ευκαιρίες για τις κοινωνίες και τις οικονομίες μας. Με την πράξη για την τεχνητή νοημοσύνη, η Ευρώπη υπογραμμίζει τη σημασία της εμπιστοσύνης, της διαφάνειας και της λογοδοσίας κατά την ενασχόληση με τις νέες τεχνολογίες, ενώ ταυτόχρονα διασφαλίζει ότι αυτή η ταχέως μεταβαλλόμενη τεχνολογία μπορεί να ανθίσει και να δώσει ώθηση στην ευρωπαϊκή καινοτομία».

Ταξινόμηση των συστημάτων Τεχνητής Νοημοσύνης ως υψηλού κινδύνου και απαγορευμένες πρακτικές AI

Ο νέος νόμος κατηγοριοποιεί τα διάφορα είδη τεχνητής νοημοσύνης ανάλογα με τον κίνδυνο. Τα συστήματα τεχνητής νοημοσύνης που παρουσιάζουν μόνο περιορισμένο κίνδυνο θα υπόκεινται σε πολύ ελαφρές υποχρεώσεις διαφάνειας, ενώ τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα εγκρίνονται μεν, αλλά θα υπόκεινται σε μια σειρά απαιτήσεων και υποχρεώσεων για να αποκτήσουν πρόσβαση στην αγορά της ΕΕ. Συστήματα τεχνητής νοημοσύνης όπως, για παράδειγμα, η γνωστική χειραγώγηση της συμπεριφοράς και η κοινωνική βαθμολόγηση θα απαγορευτούν από την ΕΕ, επειδή ο κίνδυνος τους θεωρείται απαράδεκτος.

H νομοθεσία απαγορεύει επίσης τη χρήση της Τεχνητής Νοημοσύνης για την προγνωστική αστυνόμευση με βάση την κατάρτιση προφίλ και τα συστήματα που χρησιμοποιούν βιομετρικά δεδομένα για την κατηγοριοποίηση των ανθρώπων σύμφωνα με συγκεκριμένες κατηγορίες, όπως η φυλή, η θρησκεία ή ο σεξουαλικός προσανατολισμός. 

Μοντέλα Τεχνητής Νοημοσύνης γενικού σκοπού (General Purpose Artificial Intelligence - GPAI)

Η Νομοθετική Πράξη για την Τεχνητή Νοημοσύνη αφορά επίσης τη χρήση μοντέλων ΑΙ γενικού σκοπού (GPAI).

Τα μοντέλα GPAI που δεν ενέχουν συστημικούς κινδύνους θα υπόκεινται σε ορισμένες περιορισμένες απαιτήσεις, για παράδειγμα όσον αφορά τη διαφάνεια, αλλά εκείνα που ενέχουν συστημικούς κινδύνους θα πρέπει να συμμορφώνονται με αυστηρότερους κανόνες. 

Μια νέα αρχιτεκτονική διακυβέρνησης

Για να διασφαλιστεί η ορθή εφαρμογή, δημιουργούνται διάφορα διοικητικά όργανα:

  • Γραφείο AI εντός της Επιτροπής για την επιβολή των κοινών κανόνων σε ολόκληρη την ΕΕ
  • Mια επιστημονική ομάδα ανεξάρτητων εμπειρογνωμόνων για την υποστήριξη των δραστηριοτήτων επιβολής
  • Ένα συμβούλιο AI με εκπροσώπους των κρατών μελών για να συμβουλεύει και να βοηθά την Επιτροπή και τα κράτη μέλη στη συνεπή και αποτελεσματική εφαρμογή της Νομοθετικής Πράξης για την Τεχνητή Νοημοσύνης.
  • Ένα συμβουλευτικό φόρουμ για τα ενδιαφερόμενα μέρη που θα παρέχει τεχνική εμπειρογνωμοσύνη στο συμβούλιο ΑΙ και στην Επιτροπή 

Οι κυρώσεις που προβλέπονται

Τα πρόστιμα για τις παραβάσεις της Πράξη για την Τεχνητή Νοημοσύνη καθορίζονται ως ποσοστό του συνολικού ετήσιου κύκλου εργασιών της παραβάτριας εταιρείας κατά το προηγούμενο οικονομικό έτος ή ως προκαθορισμένο ποσό, ανάλογα με το ποιο είναι υψηλότερο.

Οι μικρομεσαίες και οι νεοσύστατες επιχειρήσεις υπόκεινται σε αναλογικά διοικητικά πρόστιμα. 

Διαφάνεια και προστασία των θεμελιωδών δικαιωμάτων

Πριν από την ανάπτυξη ενός συστήματος τεχνητής νοημοσύνης υψηλού κινδύνου από ορισμένους φορείς που παρέχουν δημόσιες υπηρεσίες, θα πρέπει να αξιολογηθεί ο αντίκτυπος στα θεμελιώδη δικαιώματα. Ο κανονισμός προβλέπει επίσης αυξημένη διαφάνεια όσον αφορά την ανάπτυξη και τη χρήση συστημάτων AI υψηλού κινδύνου. Τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, καθώς και ορισμένοι χρήστες ενός συστήματος τεχνητής νοημοσύνης υψηλού κινδύνου που είναι δημόσιοι φορείς θα πρέπει να καταχωρίζονται στη βάση δεδομένων της ΕΕ για τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, ενώ οι χρήστες ενός συστήματος αναγνώρισης συναισθημάτων θα πρέπει να ενημερώνουν τα φυσικά πρόσωπα όταν εκτίθενται σε ένα τέτοιο σύστημα.

Μέτρα για τη στήριξη της καινοτομίας

Ο νόμος για την ΤΝ προβλέπει ένα νομικό πλαίσιο φιλικό προς την καινοτομία και αποσκοπεί στην προώθηση της κανονιστικής μάθησης με βάση τα αποδεικτικά στοιχεία. Ο νέος νόμος προβλέπει ότι τα ρυθμιστικά sandboxes ΤΝ, που επιτρέπουν ένα ελεγχόμενο περιβάλλον για την ανάπτυξη, τη δοκιμή και την επικύρωση καινοτόμων συστημάτων ΤΝ, θα πρέπει επίσης να επιτρέπουν τη δοκιμή καινοτόμων συστημάτων ΤΝ σε πραγματικές συνθήκες. 

Επόμενα βήματα

Αφού υπογραφεί από τους προέδρους του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου, η νομοθετική πράξη θα δημοσιευθεί στην Επίσημη Εφημερίδα της ΕΕ τις προσεχείς ημέρες και θα τεθεί σε ισχύ είκοσι ημέρες μετά τη δημοσίευση αυτή. Ο νέος κανονισμός θα εφαρμοστεί δύο χρόνια μετά την έναρξη ισχύος του, με ορισμένες εξαιρέσεις για συγκεκριμένες διατάξεις. 

Ιστορικό

Η πράξη για την ΤΝ αποτελεί βασικό στοιχείο της πολιτικής της ΕΕ για την προώθηση της ανάπτυξης και υιοθέτησης σε ολόκληρη την ενιαία αγορά ασφαλούς και νόμιμης ΤΝ που σέβεται τα θεμελιώδη δικαιώματα. Η Επιτροπή (Τιερί Μπρετόν, επίτροπος για την εσωτερική αγορά) υπέβαλε την πρόταση για την πράξη ΤΝ τον Απρίλιο του 2021. Ο Μπράντο Μπενιφέρι (Σοσιαλδημοκράτες - Ιταλία) και ο Ντράγκος Τουντοράχε (Renew Europe / Ρουμανία) ήταν οι εισηγητές του Ευρωπαϊκού Κοινοβουλίου για τον εν λόγω φάκελο και στις 8 Δεκεμβρίου 2023 επιτεύχθηκε προσωρινή συμφωνία μεταξύ των συννομοθετών.

Διαβάστε παρακάτω αναλυτικά τι προβλέπει η Πράξη για την Τεχνητή Νοημοσύνη