Καλιφόρνια: «Αποδυναμώνει» το νομοσχέδιο για την ασφαλέστερη ανάπτυξη ΑΙ
Shutterstock
Shutterstock

Καλιφόρνια: «Αποδυναμώνει» το νομοσχέδιο για την ασφαλέστερη ανάπτυξη ΑΙ

Το νομοσχέδιο της πολιτείας της Καλιφόρνιας για την ασφαλέστερη ανάπτυξη μοντέλων Τεχνητής Νοημοσύνης, το λεγόμενο SB 1047 (Safe and Secure Innovation for Frontier Artificial Intelligence Models Act.), έχει αντιμετωπίσει σημαντικές αντιδράσεις από πολλούς κολοσσούς της Silicon Valley. Σήμερα, οι νομοθέτες της Καλιφόρνια υπέκυψαν ελαφρώς σε αυτή την πίεση, προσθέτοντας αρκετές τροπολογίες, σύμφωνα με προτάσεις που είχε καταθέσει η εταιρεία AI Anthropic και άλλοι ανταγωνιστές στην κούρσα της Τεχνητής Νοημοσύνης.

Όπως μεταδίδει το TechCrunch, την Πέμπτη το νομοσχέδιο «πέρασε» σε επίπεδο επιτροπής, κάνοντας ένα σημαντικό βήμα προς κατεύθυνση να γίνει νόμος, με αρκετές βασικές αλλαγές.

«Δεχθήκαμε έναν αριθμό πολύ λογικών τροποποιήσεων που προτάθηκαν και πιστεύω ότι αντιμετωπίσαμε τις βασικές ανησυχίες που εξέφρασε η Anthropic και πολλοί άλλοι στον κλάδο», δήλωσε ο γερουσιαστής Γουίνερ, σε δήλωσή του στο TechCrunch. «Αυτές οι τροποποιήσεις βασίζονται σε σημαντικές αλλαγές στο SB 1047 που έκανα προηγουμένως για να ικανοποιήσω τις ξεχωριστές ανάγκες της κοινότητας ανοιχτού κώδικα, η οποία αποτελεί σημαντική πηγή καινοτομίας».

Το SB 1047 εξακολουθεί να αποσκοπεί στο να αποτρέψει τα μεγάλα συστήματα Τεχνητής Νοημοσύνης από πράξεις βίας ή συμβάντα κυβερνοασφάλειας που κοστίζουν πάνω από 500 εκατομμύρια δολάρια, καθιστώντας τους προγραμματιστές υπεύθυνους για τα μοντέλα τους. Ωστόσο, το νομοσχέδιο παραχωρεί πλέον στην κυβέρνηση της Καλιφόρνιας λιγότερη εξουσία για να θέσει τα εργαστήρια Τεχνητής Νοημοσύνης προ των ευθυνών τους.

Τι αλλάζει στο SB 1047;

Το νομοσχέδιο δεν επιτρέπει πλέον στον Γενικό Εισαγγελέα της Καλιφόρνιας να μηνύει εταιρείες ΑΙ για ελλείπεις πρακτικές ασφαλείας πριν συμβεί ένα «καταστροφικό συμβάν», ακολουθώντας την πρόταση της Anthropic.

Αντ' αυτού, ο γενικός εισαγγελέας μπορεί να ζητήσει μέτρα ασφαλείας, ζητώντας από μια εταιρεία να σταματήσει μια συγκεκριμένη λειτουργία που θεωρεί επικίνδυνη, και μπορεί ακόμα να μηνύσει έναν προγραμματιστή ΤΝ αν το μοντέλο του προκαλέσει ένα καταστροφικό συμβάν.

Επιπλέον, το SB 1047 δεν προβλέπει πλέον τη δημιουργία του Frontier Model Division (FMD), μια κυβερνητική υπηρεσία που περιλαμβανόταν προηγουμένως στο νομοσχέδιο. Ωστόσο, το νομοσχέδιο εξακολουθεί να προβλεπει το Board of Frontier Models - τον πυρήνα του FMD.

Το Board of Frontier Models θα εξακολουθεί να καθορίζει τα υπολογιστικά όρια, να εκδίδει οδηγίες ασφαλείας και κανονισμούς.

Επιπλέον, άλλη τροποποίηση προβλέπει ότι τα εργαστήρια ΑΙ δεν θα διώκονται ποινικά εάν δεν υποβάλλουν πιστοποιήσεις των αποτελεσμάτων των δοκιμών ασφαλείας. Τώρα, τα εργαστήρια ΑΙ υποχρεούνται απλώς να υποβάλλουν δημόσιες «δηλώσεις» που περιγράφουν τις πρακτικές ασφαλείας τους, αλλά το νομοσχέδιο δεν επιβάλλει πλέον καμία ποινική ευθύνη.

Εξάλλου,  οι νομοθέτες πρόσθεσαν μια προστασία για τα τελειοποιημένα μοντέλα ανοικτού κώδικα. Εάν κάποιος δαπανά λιγότερα από 10 εκατομμύρια δολάρια για την τελειοποίηση ενός μοντέλου, δεν θεωρείται προγραμματιστής από το SB 1047. Η ευθύνη εξακολουθεί να βαρύνει τον αρχικό, μεγαλύτερο προγραμματιστή του μοντέλου.

Γιατί όλες αυτές οι αλλαγές τώρα;

Ενώ το νομοσχέδιο αντιμετώπισε σημαντικές αντιδράσεις από Αμερικανούς βουλευτές, διάσημους ερευνητές στο τομέα του ΑΙ, μεγάλες εταιρείες τεχνολογίας και επενδυτές, το SB 1047 πέρασε με σχετική ευκολία από το νομοθετικό σώμα της Καλιφόρνιας. Αυτές οι τροποποιήσεις είναι πιθανό να ηρεμήσουν τα πνεύματα και να παρουσιάσουν στον κυβερνήτη της πολιτείας ένα λιγότερο αμφιλεγόμενο νομοσχέδιο που μπορεί να υπογράψει σε νόμο, χωρίς να χάσει την υποστήριξη της βιομηχανίας ΑΙ.

Η Anthropic δηλώνει στο TechCrunch ότι εξετάζει τις αλλαγές του SB 1047 πριν πάρει θέση. Δεν υιοθετήθηκαν όλες οι προτεινόμενες τροποποιήσεις της Anthropic από τον γερουσιαστή.

«Ο στόχος του SB 1047 είναι -και ήταν πάντα- να προωθήσει την ασφάλεια της AI, επιτρέποντας παράλληλα την καινοτομία σε όλο το οικοσύστημα», δήλωσε ο Νέιθαν Κάλβιν, ανώτερος σύμβουλος πολιτικής του Center for AI Safety Action Fund. «Οι νέες τροποποιήσεις θα υποστηρίξουν αυτόν τον στόχο».

Το SB 1047 εξακολουθεί να καθιστά τους προγραμματιστές υπεύθυνους για τους κινδύνους των μοντέλων Τεχνητής Νοημοσύνης τους. 

Πηγή: TechCrunch