Η δημοσίευση ενός νέου πλαισίου πέντε αρχών για την ανάπτυξη της AGI φέρνει την OpenAI σε νέα φάση δημόσιας τοποθέτησης, καθώς η εταιρεία επιχειρεί να περιγράψει πώς αντιλαμβάνεται την πρόσβαση, τη διακυβέρνηση, την ασφάλεια και την προσαρμογή γύρω από την τεχνητή νοημοσύνη γενικής χρήσης. Το κείμενο, με τίτλο «Our principles», παρουσιάστηκε στις 21 Απριλίου και αποτελεί μία από τις πιο σαφείς δημόσιες τοποθετήσεις της εταιρείας μετά το Charter του 2018, σε μια περίοδο κατά την οποία η δραστηριότητα των frontier AI labs βρίσκεται υπό αυξημένη θεσμική και δημόσια παρακολούθηση.
Στο κέντρο του νέου πλαισίου βρίσκονται η δημοκρατικοποίηση, η ενδυνάμωση των χρηστών, η καθολική ευημερία, η ανθεκτικότητα και η προσαρμοστικότητα. Η OpenAI αναφέρει ότι στόχος της είναι η AGI να ωφελήσει «όλη την ανθρωπότητα», ενώ υποστηρίζει ότι η ισχύς που μπορεί να προκύψει από την υπερνοημοσύνη δεν πρέπει να συγκεντρωθεί σε λίγες εταιρείες. Η θέση αυτή διατυπώνεται ως επιδίωξη για ευρύτερη πρόσβαση στην τεχνητή νοημοσύνη και για λήψη βασικών αποφάσεων μέσω δημοκρατικών διαδικασιών, όχι αποκλειστικά από τα ίδια τα εργαστήρια AI.
Οι πέντε αρχές της OpenAI
Η πρώτη αρχή, η δημοκρατικοποίηση, εστιάζει στην αποφυγή συγκέντρωσης ισχύος γύρω από την τεχνολογία. Η δεύτερη, η ενδυνάμωση, αφορά την παροχή μεγαλύτερης αυτονομίας στους χρήστες, με την εταιρεία να αναφέρει ότι θέλει να επιτρέπει όσο το δυνατόν ευρύτερη χρήση των υπηρεσιών της, διατηρώντας ταυτόχρονα δικλείδες ασφαλείας. Στο ίδιο σημείο, η OpenAI σημειώνει ότι ενδέχεται να επιλέγει πιο προσεκτική στάση όταν οι επιπτώσεις μιας χρήσης δεν είναι σαφείς, ιδίως σε περιπτώσεις που σχετίζονται με σοβαρή ή κοινωνικά διαβρωτική βλάβη.
Η τρίτη αρχή, η καθολική ευημερία, συνδέεται από την εταιρεία με την ανάγκη για μεγάλες επενδύσεις σε υποδομές AI και τεχνολογίες που μπορούν να μειώσουν το κόστος χρήσης της τεχνητής νοημοσύνης. Η OpenAI αποδίδει σε αυτή τη λογική επιλογές όπως η αγορά μεγάλων ποσοτήτων compute, η κάθετη ολοκλήρωση και η ανάπτυξη datacenters σε διάφορες περιοχές του κόσμου. Η εταιρεία υποστηρίζει ότι η διάθεση εύχρηστων συστημάτων AI με μεγάλη υπολογιστική ισχύ μπορεί να επιτρέψει νέους τρόπους δημιουργίας αξίας, ιδίως μέσα από την επιστημονική ανακάλυψη.
Υποδομές, κίνδυνοι και ανθεκτικότητα
Η τέταρτη αρχή αφορά την ανθεκτικότητα και αναγνωρίζει ότι η AI μπορεί να εισαγάγει νέους κινδύνους. Η OpenAI αναφέρει ως παραδείγματα τα μοντέλα που θα μπορούσαν να διευκολύνουν τη δημιουργία νέου παθογόνου, αλλά και την αύξηση των δυνατοτήτων των μοντέλων στον τομέα της κυβερνοασφάλειας. Σε αυτό το πλαίσιο, η εταιρεία κάνει λόγο για συνεργασία με άλλες εταιρείες, κυβερνήσεις, οικοσυστήματα και την κοινωνία, ενώ σημειώνει ότι θα αξιοποιήσει πόρους του Foundation για την υποστήριξη σχετικών δράσεων.
Η ίδια αρχή συνδέεται και με τη στρατηγική του iterative deployment, δηλαδή τη σταδιακή διάθεση συστημάτων, ώστε η κοινωνία να μπορεί να προσαρμόζεται σε κάθε νέο επίπεδο δυνατοτήτων. Η OpenAI τονίζει ότι κανένα εργαστήριο AI δεν μπορεί να διασφαλίσει μόνο του μια θετική έκβαση και ότι, σε ορισμένες περιόδους, μπορεί να απαιτηθεί συνεργασία με κυβερνήσεις, διεθνείς οργανισμούς και άλλες προσπάθειες γύρω από την AGI. Η εταιρεία διευκρινίζει, πάντως, ότι αυτό δεν αποτελεί τη μοναδική στρατηγική ασφάλειας, καθώς παραπέμπει και στην ανάγκη για ασφαλή συστήματα και τεχνική ευθυγράμμιση.
Η αναγνώριση του μεγαλύτερου ρόλου
Η πέμπτη αρχή, η προσαρμοστικότητα, είναι και το σημείο όπου η OpenAI αναγνωρίζει πιο άμεσα τη μεταβολή του δικού της ρόλου. Ο Sam Altman σημειώνει ότι η εταιρεία είναι πλέον πολύ μεγαλύτερη δύναμη στον κόσμο σε σχέση με πριν από λίγα χρόνια και αναφέρει ότι οι αρχές λειτουργίας της μπορεί να αλλάζουν, με διαφάνεια ως προς το πότε, το πώς και το γιατί. Ως παράδειγμα, η εταιρεία αναφέρει ότι μπορεί στο μέλλον να χρειαστεί να περιορίσει μέρος της ενδυνάμωσης των χρηστών προς όφελος της ανθεκτικότητας.
Στο ίδιο κείμενο, ο Altman επιστρέφει στην απόφαση του 2019 να καθυστερήσει η δημοσιοποίηση των weights του GPT-2, σημειώνοντας ότι εκ των υστέρων η ανησυχία ήταν λανθασμένη, αλλά οδήγησε στην υιοθέτηση της στρατηγικής της σταδιακής διάθεσης. Η OpenAI αναφέρει ότι η τεχνολογική εξέλιξη θα συνεχίσει να φέρνει απρόβλεπτες συμπεριφορές και ότι η εταιρεία θα επιδιώξει να προχωρά προσεκτικά, να αναπτύσσει τα συστήματα σταδιακά και να προσαρμόζεται με βάση την αλληλεπίδρασή τους με τον κόσμο.
Το πλαίσιο της νέας τοποθέτησης
Το νέο κείμενο αρχών έρχεται μετά την επικαιροποίηση του Preparedness Framework της OpenAI, το οποίο οργανώνει τις δυνατότητες των μοντέλων σε κατηγορίες με υφιστάμενες αξιολογήσεις και σε ερευνητικές κατηγορίες που παραμένουν υπό ανάπτυξη. Οι υφιστάμενες κατηγορίες αφορούν μεταξύ άλλων βιολογικούς και χημικούς κινδύνους, κυβερνοασφάλεια και αυτοβελτίωση AI, ενώ οι ερευνητικές περιοχές περιλαμβάνουν ζητήματα όπως το sandbagging, η αυτόνομη αναπαραγωγή και η υπονόμευση safeguards. Το νέο πλαίσιο λειτουργεί ως πολιτική τοποθέτηση πάνω από αυτές τις τεχνικές διαδικασίες.
Η δημοσίευση δεν περιλαμβάνει νέες χρηματοδοτικές δεσμεύσεις, αλλά παραπέμπει σε υφιστάμενες συνεργασίες με το Frontier Model Forum και με τα AI safety institutes των ΗΠΑ και του Ηνωμένου Βασιλείου. Ο Altman κλείνει το κείμενο αναγνωρίζοντας ότι η OpenAI δεν θα πάρει όλες τις αποφάσεις σωστά και ότι υπόκειται σε αυξημένο έλεγχο λόγω της βαρύτητας του έργου της. Η διατύπωση αυτή εντάσσει τις νέες αρχές σε ένα ευρύτερο περιβάλλον πίεσης, όπου η ανάπτυξη της AGI συνδέεται όλο και περισσότερο με ζητήματα διακυβέρνησης, υποδομών και δημόσιας λογοδοσίας.
VIA: www.infocom.gr


