Η έρευνα για την τεχνητή νοημοσύνη προχωράει σήμερα με εντυπωσιακό ρυθμό. Όλο και περισσότεροι παράγοντες της βιομηχανίας αναμένουν τώρα την άφιξη της πρώτης τεχνητής γενικής νοημοσύνης (AGI), με τις δυνατότητες λογικής ανώτερης από τους ανθρώπους μέσα σε λίγα χρόνια. Μια προοπτική τόσο συναρπαστική όσο και ανησυχητική, και για καλό λόγο: οι ειδικοί έχουν από καιρό πιστεύουν ότι ένα τέτοιο σύστημα θα μπορούσε να βλάψει την ανθρωπότητα και να σπείρει πρωτοφανή διαφωνία στον πολιτισμό μας.
Είναι ένα θέμα που συχνά διερευνήθηκε από συγγραφείς μυθοπλασίας σε έργα όπως το 2001: Η Οδύσσεια του Διαστήματος, ο Τερματισμός ή ο Πρόεδρος, για να αναφέρουμε μόνο λίγους. Όσο εντυπωσιακά, αυτά τα σενάρια είναι προφανώς αρκετά “κινηματογραφικά”.
Εάν μια εξαιρετικά προηγμένη τεχνητή νοημοσύνη είναι πάντα να βλάψει την ανθρωπότητα, μπορεί να το κάνει με πιο λεπτές και λιγότερο ακραίες τρόπους. Για να αποφευχθεί μια πιθανή καταστροφή, πρέπει τώρα να εισαχθεί ένα ισχυρό σύνολο κατευθυντήριων γραμμών. Και αυτό είναι ακριβώς το νόημά της Το τελευταίο τεχνικό έργο του DeepMind που βρήκε Ars Technica .
Για όσους δεν είναι εξοικειωμένοι, αυτή η βιομηχανία Google είναι μία από τις πιο προηγμένες εταιρείες του κλάδου. Από τη θεωρία των τυχερών παιχνιδιών (Alphazero, Alphago) έως τη δομική βιολογία (AlphaFold), την πρόγνωση του καιρού και την πυρηνική σύντηξη, έχει αναπτύξει πολλά συστήματα που βασίζονται σε τεχνητή νοημοσύνη για την αντιμετώπιση προβλημάτων που κάποτε φαινόταν τελείως αδύνατο.
Πρόσφατα, οι ερευνητές του δημοσίευσαν ένα εκτεταμένη εργασία που διερευνά διαφορετικές προσεγγίσεις για τον περιορισμό των κινδύνων που συνδέονται με την ανάπτυξη ενός AGI. Επικεντρώνεται ιδιαίτερα στους διάφορους τύπους κινδύνων που σχετίζονται με ένα τέτοιο σύστημα. Συνολικά, οι συγγραφείς εντόπισαν τέσσερις ευρείες κατηγορίες.
Ένα όπλο για κακόβουλους ανθρώπους
Το πρώτο αφορά αυτό που περιγράφει το DeepMind ως “κατάχρηση”. Σε αυτή την περίπτωση, δεν είναι το ίδιο το σύστημα που είναι άμεσα προβληματικό, αλλά οι άνθρωποι που το χειρίζονται. Φαίνεται σαφές ότι ένα εργαλείο τόσο ισχυρό όσο ένα AGI θα μπορούσε να προκαλέσει σοβαρή ζημιά εάν πέσει στα χέρια των κακόβουλων παραγόντων. Για παράδειγμα, θα μπορούσαν να του ζητήσουν να επωφεληθεί από τις κρίσιμες ευπάθειες στον κυβερνοχώρο, ειδικά σε κρίσιμες υποδομές, όπως πυρηνικούς σταθμούς, να δημιουργούν τρομερά βακτηριολογικά όπλα και ούτω καθεξής.
Ως εκ τούτου, η DeepMind πιστεύει ότι οι εταιρείες θα πρέπει να εφαρμόσουν εξαιρετικά ισχυρά πρωτόκολλα επικύρωσης και ασφάλειας, ξεκινώντας τώρα. Οι συγγραφείς υπογραμμίζουν επίσης τη σημασία της ανάπτυξης τεχνικών που αναγκάζουν τα μοντέλα τεχνητής νοημοσύνης να «ξεχάσουν» τα δεδομένα έτσι ώστε να μπορούν να ανακάμψουν σε περίπτωση έκτακτης ανάγκης εάν αρχίσει να εμφανίζεται το χειρότερο σενάριο.
Σφάλματα ευθυγράμμισης
Η δεύτερη κατηγορία περιλαμβάνει όλα τα ζητήματα που σχετίζονται με αυτό που ονομάζεται ευθυγράμμιση – εξασφαλίζοντας ότι αυτά τα μοντέλα τεχνητής νοημοσύνης “κατανοούν” τις ανθρώπινες αξίες και τις προσδοκίες και ιεραρχικά να αναλάβουν δράση. Ένα μη ευθυγραμμισμένο σύστημα, από την άλλη πλευρά, μπορεί επομένως να αναλάβει δράση για το οποίο γνωρίζει πολύ καλά ότι δεν αντιστοιχούν στο όραμα του δημιουργού τους.
Αυτό είναι το σενάριο που εμφανίζεται πιο συχνά στη μυθοπλασία. Για παράδειγμα, εάν το HAL 9000 προσπαθεί να εξαλείψει το πλήρωμα του πλοίου το 2001: μια διαστημική οδύσσεια, είναι επειδή θεωρεί την επιτυχία της αποστολής πιο πολύτιμη από την ανθρώπινη ζωή. Το ίδιο ισχύει και για το Skynet στην ιστορία του Terminator: ενώ αρχικά σχεδιάστηκε για να υπερασπιστεί την ανθρωπότητα, κατέληξε τελικά στο συμπέρασμα ότι ήταν μια απειλή που αξίζει να εξαλειφθεί με κάθε κόστος.
Για να αποφευχθεί αυτό το είδος σεναρίου, το DeepMind προσφέρει μια ενδιαφέρουσα πρώτη λύση: το AGIS λειτουργεί σε ζευγάρια. Αντί να εξελίσσονται μόνοι τους, θα εποπτεύονται συνεχώς από έναν αυστηρά πανομοιότυπο κλώνο, μειώνοντας έτσι τον κίνδυνο παρεκτροπής. Αλλά οι συντάκτες της μελέτης αναγνωρίζουν ότι αυτή η προσέγγιση πιθανότατα δεν θα ήταν αδιαμφισβήτητη.
Ταυτόχρονα, συνιστούν την εκτέλεση του μελλοντικού IAG σε “εικονικά sandboxes”. Αυτός ο όρος αναφέρεται σε ψηφιακούς χώρους που απομονώνονται από το υπόλοιπο σύστημα, οι οποίοι σήμερα χρησιμοποιούνται κυρίως στην ασφάλεια στον κυβερνοχώρο για τη δοκιμή ευαίσθητων προγραμμάτων χωρίς να διακινδυνεύσουν την υπόλοιπη υποδομή. Θεωρητικά, εάν προκύψει πρόβλημα, αρκεί να απενεργοποιήσετε αυτό το sandbox για να στερήσει την Agi από την ικανότητά του να βλάψει. Κάποιος θα μπορούσε, ωστόσο, να αναρωτηθεί αν ένα τέτοιο σύστημα πονηρά θα μπορούσε να βρει έναν τρόπο να δραπετεύσει … και τελικά να βλάψει την ανθρωπότητα.
Όταν η τεχνητή νοημοσύνη χάνει τον έλεγχο
Η τρίτη κατηγορία, με τίτλο “Σφάλματα”, μπορεί να μοιάζει με προβλήματα ευθυγράμμισης. Αλλά βασίζεται σε μια κρίσιμη διάκριση: εδώ, το μοντέλο τεχνητής νοημοσύνης δεν γνωρίζει τις επιβλαβείς συνέπειες των ενεργειών του. Πιστεύει ότι κάνει το σωστό, ενώ είναι εντελώς λάθος, όπως όταν η επισκόπηση της τεχνητής νοημοσύνης της Google συμβούλευσε τους ανθρώπους να κολλήσουν στις πίτσες τους για να αποτρέψουν την ολίσθηση του λιωμένου τυριού.
Αυτό το παράδειγμα μπορεί να φαίνεται αστείο, αλλά μπορεί εύκολα να φανταστεί καταστάσεις όπου τέτοια σφάλματα (μερικές φορές ονομάζονται ψευδαισθήσεις) θα μπορούσαν να έχουν τρομερές συνέπειες. Φανταστείτε, για παράδειγμα, ότι ένας στρατιωτικός προσανατολισμένος AGI πιστεύει ότι μπορεί να ανιχνεύσει τα προειδοποιητικά σημάδια μιας πυρηνικής επίθεσης. Θα μπορούσε στη συνέχεια να προκαλέσει εντελώς αδικαιολόγητα “αντίποινα”, γεγονός που θα οδηγούσε στην πλήρη εξαφάνιση ενός μέρους του πλανήτη με βάση ένα απλό λάθος.
Τα κακά νέα είναι ότι δεν υπάρχει πραγματικά γενικευμένη προσέγγιση για τον περιορισμό αυτών των σφαλμάτων. Επομένως, η σταδιακή ανάπτυξη των μελλοντικών AGIs θα είναι ζωτικής σημασίας, με αυστηρές δοκιμές σε κάθε στάδιο. Και, πάνω απ ‘όλα, ο περιορισμός της ικανότητας να ενεργεί αυτόνομα, προκειμένου να περιορίσει τη δυνατότητα βλάβης της ανθρωπότητας.
Μεγάλοι διαρθρωτικοί κίνδυνοι
Η τελευταία κατηγορία, και ίσως η πιο ενδιαφέρουσα, είναι αυτό που ο DeepMind ονομάζει “διαρθρωτικούς κινδύνους”. Εδώ, το πρόβλημα δεν θα προέκυπτε από ένα μόνο απομονωμένο σύστημα, αλλά από τις αλληλεπιδράσεις μεταξύ αρκετών σύνθετων συστημάτων που ενσωματώνονται σε διαφορετικά επίπεδα της κοινωνίας μας.
Μαζί, αυτά τα διαδραστικά συστήματα θα μπορούσαν να «συσσωρεύουν συνεχώς τον αυξανόμενο έλεγχο των οικονομικών και πολιτικών συστημάτων μας, τη ροή πληροφοριών και ούτω καθεξής. Με άλλα λόγια, η γνωστική τεχνητή νοημοσύνη (γνήσια) θα αναλάβει τελικά τον έλεγχο ολόκληρης της κοινωνίας μας, ενώ οι άνθρωποι δεν θα γίνουν τίποτα περισσότερο από ασήμαντα οργανικά πιόνια σε ένα τεράστιο εικονικό σκακιέρα. Ένα δυστοπικό σενάριο που είναι αναμφισβήτητα ανατριχιαστικό.
Οι ερευνητές επισημαίνουν ότι αυτή η κατηγορία κινδύνου θα είναι πιθανώς η πιο δύσκολη αντιμετώπιση, καθώς οι πιθανές συνέπειες εξαρτώνται άμεσα από τον τρόπο λειτουργίας των ανθρώπων, των υποδομών και των θεσμών. Είναι λογικά επικεντρώνεται σε μια πολύ πιθανότητα βλάβης της ανθρωπότητας.
Προς το παρόν, κανείς δεν ξέρει ακριβώς πότε – ή ακόμα και αν – μια πραγματική γεωγραφική τεχνητή νοημοσύνη (GNN) θα εμφανιστεί στην πραγματικότητα. Αλλά στο σημερινό πλαίσιο, θα ήταν πολύ απερίσκεπτο να μην λάβουμε σοβαρά υπόψη αυτή τη δυνατότητα. Επομένως, θα είναι ενδιαφέρον να δούμε αν ο OpenAI και άλλοι θα βασίσουν το μελλοντικό τους έργο σε αυτό το βεβαίως αφηρημένο, αλλά παρ ‘όλα αυτά πολύ ενδιαφέρον, δουλειά.
——————
Μπορούμε να λάβουμε ένα μικρό ποσοστό εάν κάνετε κλικ σε έναν σύνδεσμο και να αγοράσετε ένα προϊόν. Για περισσότερες λεπτομέρειες, εδώ Μπορείτε να μάθετε πώς χρησιμοποιούμε συνδέσμους συνεργατών. Σας ευχαριστούμε για την υποστήριξή σας.
——————
Ακολουθήστε το Gizchina Ελλάδα στο Google News Για ειδήσεις και ειδήσεις στον τομέα της τεχνολογίας. Αν ψάχνετε για καυτές προσφορές και κουπόνια για κινητά και gadgets, εγγραφείτε στο Το κανάλι μας να Τηλεγράφημα.
——————
VIA: gr.gizchina.com