Μήπως πρέπει να ξαναδούμε τις κυρίαρχες αφηγήσεις για την τεχνητή νοημοσύνη;
Shutterstock
Shutterstock

Μήπως πρέπει να ξαναδούμε τις κυρίαρχες αφηγήσεις για την τεχνητή νοημοσύνη;

Των Brent Orrell και Shane Tews 

Μερικές φορές είναι δύσκολο να πεις τι απ’ όλα είναι πιθανότερο να αποδειχθεί πιο επαναστατικό: η τεχνητή νοημοσύνη (ΤΝ), ή οι ολοένα και περισσότερες προσπάθειες να ρυθμιστεί αυτή η ισχυρή, δυνητικά ανατρεπτική και εξαιρετικά ωφέλιμη τεχνολογία. Καθώς διατυπώνονται πολυάριθμες εκκλήσεις για παύση της εξέλιξης της ΤΝ και για νέες ρυθμίσεις, είναι σαφές ότι βρισκόμαστε σε μια κρίσιμη στιγμή ενός διαλόγου που θα μπορούσε είτε να αφήσει ανοιχτό το μονοπάτι προς μια νέα εποχή ευημερίας είτε να εμποδίσει τις ΗΠΑ να οδηγήσουν το δρόμο προς ένα καλύτερο και πλουσιότερο μέλλον με την τεχνητή νοημοσύνη. 

Πρόσφατα φιλοξενήσαμε μια εκδήλωση στο AEI με δύο καθηγητές του Πανεπιστημίου του Στάνφορντ, τον Robert Reich και τον Jeremy Weinstein, για να συζητήσουμε μερικά από τα μεγάλα ζητήματα που αφορούν το μέλλον της ΤΝ. Αυτοί οι δύο πολιτικοί επιστήμονες προσέγγισαν με λεπτομερή και τεκμηριωμένο τρόπο την τεχνητή νοημοσύνη, αφήνοντας πολλά ακόμη περιθώρια για μια έντονη συζήτηση. Ήταν ένα ευπρόσδεκτο διάλειμμα από την καταστροφολογία και τον χιλιασμό που χαρακτηρίζει μεγάλο μέρος της συζήτησης. 

Οι καταστροφολόγοι της τεχνητής νοημοσύνης συχνά πέφτουν θύματα μιας μεροληψίας αρνητικότητας, καθιστώντας τους επιρρεπείς στο να παραβλέψουν το κόστος ευκαιρίας της παύσης ή της διακοπής της έρευνας τεχνητής νοημοσύνης. Άλλοι υιοθετούν την «αρχή της προφύλαξης», μια μη παραγωγική και εξαντλητική μορφή σκιώδους πυγμαχίας για το περιεχόμενο των πολιτικών. Οι Ράιχ και Γουάινσταϊν γνωρίζουν καλά τα οφέλη που μπορεί να αποφέρει η τεχνητή νοημοσύνη και είναι δεόντως επιφυλακτικοί ως προς τις εκκλήσεις για παύση της εξέλιξής της και τα επιχειρήματα υπαρξιακού κινδύνου που μιλούν για κινδύνους που μοιάζουν με επιστημονική φαντασία. Ακριβώς όπως οι δύσκολες υποθέσεις δημιουργούν κακούς νόμους, έτσι και τα χειρότερα δυνατά σενάρια βάζουν τον φόβο στη θέση του ρυθμιστικού οδηγού. 

Οι κύριοι τομείς αντιπαράθεσης σχετικά με τη ρύθμιση της τεχνητής νοημοσύνης χωρίζονται σε τρεις κατηγορίες: το αν η τεχνητή νοημοσύνη απολαμβάνει ή όχι μια «ρυθμιστική όαση», το πώς να προσφέρει τα οφέλη της χωρίς να παραδοθεί σε μια νοοτροπία «βελτιστοποίησης» που αγνοεί τον αντίκτυπο στον άνθρωπο, και το πώς να εξισσοροπήσουμε τις ευκαιρίες με τους κινδύνους στην ανάπτυξη της τεχνητής νοημοσύνης. 

Η θεωρία της ρυθμιστικής όασης υποστηρίζει ότι από τα μέσα της δεκαετίας του 1990 οι διαδικτυακές πλατφόρμες απολαμβάνουν ένα υγιές επίπεδο νομικής προστασίας. Ωστόσο, η Ενότητα 230 (Section 230), ο νόμος που περιγράφεται ως προστασία των διαδικτυακών πλατφορμών από νομικές ενέργειες που σχετίζονται με περιεχόμενο που δημοσιεύεται από άλλους, ενδέχεται να μην καλύπτει την τεχνητή νοημοσύνη. Αυτό εγείρει ανησυχίες σχετικά με τις νομικές υποχρεώσεις ως προς την εργασία που δημιουργούνται από την τεχνητή νοημοσύνη και τον κατάλληλο ρόλο της κυβέρνησης σ’ αυτό. 

Όπως υποστηρίζουν άλλοι ειδικοί, η ομοσπονδιακή κυβέρνηση ήδη ασχολείται ενεργά με ρυθμιστικά ζητήματα τεχνητής νοημοσύνης. Το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας (National Institute of Standards and Technology - NIST), το Γραφείο Πολιτικών για την Επιστήμη και τη Τεχνολογία του Λευκού Οίκου, η Υπηρεσία Τροφίμων και Φαρμάκων, η Εθνική Διοίκηση Ασφάλειας Οδικής Κυκλοφορίας και η Επιτροπή Ίσων Ευκαιριών Απασχόλησης έχουν ασχοληθεί άμεσα με το θέμα της τεχνητής νοημοσύνης και αναπτύσσουν ρυθμιστικά πλαίσια. Το Πλαίσιο Διαχείρισης Κινδύνων Τεχνητής Νοημοσύνης του NIST παρέχει ισχυρές κατευθυντήριες γραμμές για την ανάπτυξη της τεχνητής νοημοσύνης και μια ενδελεχή ανάλυση των κινδύνων που αυτή ενέχει. Ο σχετικός κατάλογος είναι μακρύς. 

Οι Γουάινσταϊν και Ράιχ ανησυχούν πολύ για τη «νοοτροπία βελτιστοποίησης» των μηχανικών και των προγραμματιστών τεχνητής νοημοσύνης. Ο κίνδυνος τον οποίο επισημαίνουν είναι ότι μια ακατάπαυστη εστίαση στη βελτιστοποίηση των συνόλων δεδομένων και των τεχνολογικών εφαρμογών θα μπορούσε άθελά της να βλάψει τους χρήστες και την κοινωνία γενικότερα την ώρα που κυριαρχεί το ήθος «go fast, break things». 

Πρόκειται για μια δίκαιη κριτική. Ταυτόχρονα, η βελτιστοποίηση συνδέεται στενά με έννοιες όπως η αποδοτικότητα και η παραγωγικότητα, και τα δύο αναπόσπαστα στοιχεία για την αύξηση των εισοδημάτων και του βιοτικού επιπέδου. Με άλλα λόγια, το πρόβλημα αφορά λιγότερο τη βελτιστοποίηση από ό,τι την αστόχαστη βελτιστοποίηση — και την έλλειψη αναστοχασμού σχετικά με τους σκοπούς που επιδιώκουμε από την τεχνολογία. 

Το επιχείρημα σχετικά με τη βελτιστοποίηση ευθυγραμμίζεται με το ερώτημα του πώς να ρυθμίσουμε την τεχνητή νοημοσύνη για να αποτρέψουμε τα χειρότερα αποτελέσματα. Εάν επικαλεστούμε τη λεγόμενη αρχή της προφύλαξης, η οποία ευνοεί τη ρύθμιση πριν εκδηλωθεί βλάβη, αυτό μπορεί να προκαλέσει τόση ζημιά όση θα προσπαθήσουμε να αποφύγουμε καθώς θα καταπνιγεί η καινοτομία και θα παρεμποδιστούν τα οφέλη που μπορεί να φέρει η τεχνητή νοημοσύνη στην κοινωνία. 

Αυτά τα οφέλη είναι εύκολο να παραβλεφθούν επειδή η μεροληψία της αρνητικότητας παρουσιάζει εντονότερα τα πιθανά μειονεκτήματα σε σχέση με τα πιθανά κέρδη, αλλά αυτά τα οφέλη αξίζουν την ίδια προσοχή από μας. Τον Ιούνιο, μια μελέτη της McKinsey & Company προέβλεψε ότι η πλήρως αναπτυγμένη τεχνητή νοημοσύνη θα μπορούσε να προσθέσει από 17,1 έως 25,6 τρισεκατομμύρια δολάρια στην παγκόσμια οικονομία ετησίως. Η μελέτη εκτίμησε επίσης την επίδραση της πρώιμης και όψιμης εφαρμογής της τεχνητής νοημοσύνης. Σχεδόν όλα τα μακροπρόθεσμα οφέλη προκύπτουν μόνο όταν υιοθετούμε τη σχετική τεχνολογία νωρίς. Ενώ η τεχνητή νοημοσύνη μπορεί να εισάγει κινδύνους, θα μπορούσε επίσης να λύσει και μερικά από τα μεγαλύτερα προβλήματά μας, πολλά από τα οποία έχουν υπαρξιακό χαρακτήρα. Η επιφυλακτικότητα φαίνεται συνετή και «δωρεάν»—αλλά συχνά δεν είναι τίποτα από τα δύο. 

Αυτό δεν σημαίνει ότι πρέπει να παραβλέψουμε τους κινδύνους της τεχνητής νοημοσύνης και να τη θωρακίσουμε από τον έλεγχο και τη ρύθμιση. Ωστόσο, κατά τη ρύθμιση της τεχνολογίας θα πρέπει να δώσουμε προτεραιότητα στην πλήρη καταγραφή των κινδύνων και των ανταμοιβών. Η υιοθέτηση μιας πιο ισορροπημένης και ευέλικτης προσέγγισης θα μας επιτρέψει να πλοηγηθούμε στα πολυπλοκότητα ζητήματα της τεχνητής νοημοσύνης χωρίς να στερηθούμε μεγάλο μέρος των δυνητικών της ωφελειών. 

-- 

Ο Brent Orrell είναι στέλεχος του American Enterprise Institute και έχει εργαστεί στο παρελθόν σε φορείς της νομοθετικής και εκτελεστικής εξουσίας των ΗΠΑ.  H Shane Tews είναι διακεκριμένο στέλεχος του American Enterprise Institute, όπου εστιάζει σε ζητήματα κυβερνοασφάλειας. Είναι μεταξύ άλλων αντιπρόεδρος του διοικητικού συμβουλίου του Internet Education Foundation και πρόεδρος της Internet Society στην πόλη της Ουάσιγκτον. 

Το άρθρο δημοσιεύθηκε στα αγγλικά στις 14 Ιουλίου 2023 και παρουσιάζεται στα ελληνικά με την άδεια του American Enterprise Institute και τη συνεργασία του Κέντρου Φιλελεύθερων Μελετών.