Η Anthropic, η εταιρεία πίσω από τον Claude AI, είχε μια μετεωρική άνοδο. Από την ίδρυσή της, έχει μετατραπεί από μια ελάχιστα γνωστή εταιρεία έρευνας τεχνητής νοημοσύνης σε μια παγκόσμια δύναμη, ανταγωνιζόμενη με την OpenAI και την Google.
Ωστόσο, σε έναν κόσμο όπου η τεχνητή νοημοσύνη είναι παντού, στο smartphone, στο ψυγείο και στα παιχνίδια του παιδιού σας, το Anthropic είναι εκπληκτικά χαμηλών τόνων στο στυλ ανάπτυξής του. Δεν κάνει γεννήτριες εικόνων ή βίντεο με τεχνητή νοημοσύνη και ο Claude, το δικό του chatbot, είναι σχεδόν τόσο ελάχιστο, καθώς λείπει από τα περισσότερα καμπανάκια και σφυρίχτρες που παρατηρούνται στους ανταγωνιστές του.
Επιπλέον, η Anthropic φαίνεται να ανησυχεί πολύ περισσότερο για το μέλλον της τεχνητής νοημοσύνης από τους ανταγωνιστές της. Ο Dario Amodei, ο διευθύνων σύμβουλος της εταιρείας ήταν ανοιχτά κριτική για την τεχνητή νοημοσύνη και τους κινδύνους της και η εταιρεία στο σύνολό της έχει αφιερώσει χρόνια τονίζοντας τους κινδύνους της τεχνητής νοημοσύνης.
Η ασφάλεια πρώτα
Το AI είναι εγγενώς ακατάστατο. Με τα χρόνια, έχουμε δει τα chatbot να παρουσιάζουν προβλήματα, να υιοθετούν παράξενες προσωπικότητες και να καταρρέουν μπροστά στα μάτια μας. Υπήρξε ένας μακρύς κατάλογος με ανησυχητικές παραισθήσεις και ανησυχίες σχετικά με το πόσο καλά μπορεί να αναλάβει αυτή η τεχνολογία τους ρόλους που της δίνονται. Ο Anthropic φαίνεται ότι θέλει να το αποφύγει όσο το δυνατόν περισσότερο.
“Προσπαθούμε να κατασκευάσουμε ασφαλή, ερμηνεύσιμα, κατευθυνόμενα συστήματα AI. Αυτά τα πράγματα γίνονται όλο και πιο ισχυρά και επειδή είναι πιο ισχυρά, γίνονται σχεδόν απαραίτητα πιο επικίνδυνα εκτός κι αν τοποθετήσετε προστατευτικά κιγκλιδώματα γύρω τους για να τα κάνετε ασφαλή σκόπιμα”, εξήγησε ο Scott.
“Θέλουμε να βελτιώσουμε τα σύνορα της νοημοσύνης, αλλά το κάνουμε με τρόπο που να είναι ασφαλής και ερμηνεύσιμος. Χρειάζεται σχεδόν απαραίτητα να καινοτομήσουμε στην ασφάλεια προκειμένου να επιτύχουμε την αποστολή μας να αναπτύξουμε ένα μετασχηματιστικό AI.”
Όταν κυκλοφόρησε το Anthropic Το Claude Opus 4.5 στα τέλη του περασμένου έτους, ισχυρίστηκαν ότι ήταν το πιο σταθερά ευθυγραμμισμένο μοντέλο που είχαν κυκλοφορήσει, πιο ικανό να αποφύγει τους χάκερ, τους εγκληματίες του κυβερνοχώρου και τους κακόβουλους χρήστες από τους ανταγωνιστές του.
Στην πραγματικότητα, μεταξύ παραγόντων όπως οι τρέχουσες βλάβες, η υπαρξιακή ασφάλεια, η αξιολόγηση κινδύνου και άλλα, το Anthropic βαθμολογήθηκε ως το υψηλότερο μοντέλο τεχνητής νοημοσύνης για ασφάλεια στον Δείκτη Ασφάλειαςξεπερνώντας οριακά το OpenAI.
Τον τελευταίο καιρό, οι ανησυχίες της τεχνητής νοημοσύνης δεν αφορούν μόνο το πόσο κατευθυνόμενη είναι η τεχνητή νοημοσύνη. Εταιρείες όπως η Grok και η ChatGPT έχουν κατηγορηθεί ότι είναι υπερβολικά ευχάριστες ή πολύ πρόθυμες να ωθήσουν τους καταναλωτές προς ορισμένες κατευθύνσεις.
Όταν ρωτήθηκε αν αυτό είναι κάτι που λαμβάνει υπόψη η ομάδα όταν σχεδιάζει ασφαλή AI, ο White δεν σχολίασε πολύ βαθιά, αλλά συμφώνησε ότι ήταν κάτι που σκέφτηκε η ομάδα στη διαδικασία σχεδιασμού.
Ο White συνέχισε εξηγώντας ότι η προτεραιότητα γύρω από την ασφάλεια δεν πρέπει να θεωρείται κάτι που τους εμποδίζει, αλλά αντίθετα ως θετική.
“Η ασφάλεια είναι απλώς μέρος της διασφάλισης ότι χτίζουμε ισχυρά πράγματα. Δεν χρειάζεται να σκεφτόμαστε την ασφάλεια ως συμβιβασμό, είναι απλώς μια απαραίτητη προϋπόθεση και μπορείτε να το κάνετε και να δείξετε σε όλους ότι είναι δυνατό. Αυτό είναι το πιο σημαντικό για μένα, να δείξω ότι η ασφάλεια δεν είναι περιορισμός.”
Προγράμματα περιήγησης και πράκτορες
Τους τελευταίους μήνες, είδαμε την τεχνητή νοημοσύνη να εκρήγνυται από τα συνηθισμένα της όρια. Όπου περιοριζόταν σε chatbot και μικρά εργαλεία, μερικές από τις μεγαλύτερες εταιρείες έχουν δημιουργήσει τα δικά τους προγράμματα περιήγησης, επεκτάσεις και πρόσθετα.
Με την κυκλοφορία αυτών των εργαλείων προέκυψαν νέοι κίνδυνοι για την ασφάλεια. Ο Atlas του OpenAI δέχτηκε πυρά, μαζί με τον Comet του Perplexity για τον κίνδυνο έγκαιρων ενέσεων. Αυτό είναι όπου κάποιος κρύβει κακόβουλες οδηγίες για ένα AI μέσα σε μια ιστοσελίδα ή κείμενο με το οποίο αλληλεπιδρά. Όταν το AI το διαβάσει αυτό, θα εκτελέσει αυτόματα την προτροπή.
Εκτός των ορίων των chatbot, όπου η τεχνητή νοημοσύνη δεν μπορούσε να αλληλεπιδράσει με τον έξω κόσμο, ήταν πολύ πιο ασφαλή, αλλά ο κίνδυνος έρχεται όταν αρχίσουν να αλληλεπιδρούν περισσότερο με το Διαδίκτυο, αναλαμβάνοντας ορισμένα στοιχεία ελέγχου ή αποκτώντας πρόσβαση σε ιστοσελίδες.
«Τους τελευταίους δύο μήνες, όταν κατασκευάζαμε την επέκταση του προγράμματος περιήγησης Claude, η οποία επιτρέπει στον Claude να ελέγχει το πρόγραμμα περιήγησής σας και να κάνει ενέργειες από μόνος του, ανακαλύψαμε ότι υπήρχαν νέοι κίνδυνοι άμεσης έγχυσης», εξήγησε ο White.
«Αντί να το λανσάρουμε σε όλους, το λανσάραμε σε ένα πολύ μικρό σύνολο πειραματικών χρηστών που κατανοούσαν τους κινδύνους, επιτρέποντάς μας να δοκιμάσουμε την τεχνολογία πριν κυκλοφορήσει ευρύτερα».
Ενώ η επέκταση του προγράμματος περιήγησης του Claude έχει αποδειχθεί επιτυχημένη, είναι πολύ πιο περιορισμένη σε ό,τι μπορεί να κάνει σε σύγκριση με προγράμματα όπως το CoPilot ή προγράμματα περιήγησης τόσο από το Perplexity όσο και από το OpenAI. Όταν ρωτήθηκε αν ο Claude θα αναπτύξει ποτέ κάτι παρόμοιο με ένα πρόγραμμα περιήγησης, ο White ήταν διστακτικός.
“Ο Claude ξεκίνησε ως ένα πολύ απλό chatbot και τώρα μοιάζει περισσότερο με έναν πραγματικά ικανό συνεργάτη που μπορεί να αλληλεπιδρά με όλα αυτά τα διαφορετικά εργαλεία και βάσεις γνώσεων. Αυτές είναι σημαντικές εργασίες που θα χρειαζόταν ένας άνθρωπος πολλές ώρες για να κάνει μόνος του”, είπε ο White.
“Αλλά έχοντας πρόσβαση σε όλα αυτά τα συστήματα, προσθέτει νέους φορείς κινδύνου. Αλλά αντί να πούμε ότι δεν πρόκειται να κάνουμε κάτι νέο, θα λύσουμε αυτά τα διανύσματα. Θα συνεχίσουμε να διερευνούμε νέους τρόπους χρήσης του Claude και νέους τρόπους για να αφαιρέσουμε πράγματα από τα χέρια σας, αλλά θα το κάνουμε με ασφάλεια.”
Οι καμπάνες και οι σφυρίχτρες
Ο Claude έχει επικεντρωθεί με λέιζερ στους στόχους του. Σε αντίθεση με τους ανταγωνιστές του, δεν υπήρχε χρόνος για δημιουργία εικόνων ή βίντεο και φαινομενική έλλειψη ενδιαφέροντος για οποιοδήποτε χαρακτηριστικό που δεν παρέχει πρακτικές περιπτώσεις χρήσης.
“Έχουμε δώσει προτεραιότητα σε τομείς που μπορούν να βοηθήσουν τον Claude να προωθήσει τους ανθρώπους και να ωθήσει τη σκέψη τους προς τα εμπρός, βοηθώντας τους να λύσουν μεγαλύτερες προκλήσεις και αυτό ήταν μόλις το πιο κρίσιμο μονοπάτι για εμάς”, δήλωσε ο White.
“Πραγματικά απλώς προσπαθούμε να δημιουργήσουμε ασφαλές AGI και η πραγματικότητα είναι ότι ο δρόμος προς το ασφαλές AGI επιλύει πολύ δύσκολα προβλήματα, συχνά σε επαγγελματικά πλαίσια, αλλά και σε προσωπικές καταστάσεις. Επομένως, εργαζόμαστε σε μεγαλύτερες ταχύτητες, καλύτερη βελτιστοποίηση και ασφαλέστερα μοντέλα.”
Μιλώντας για το πώς βλέπει τον ρόλο του Claude, ο White εξήγησε ότι ήθελε ο Claude να είναι ένα πραγματικά χρήσιμο εργαλείο που θα μπορούσε να εξαλείψει τα προβλήματα στη ζωή σας. Αυτό, στο μέλλον, ήλπιζε ότι θα έφτανε στο σημείο ενός εργαλείου που θα μπορούσε να χειριστεί μερικές από τις μεγαλύτερες προκλήσεις της ζωής, ελευθερώνοντας ώρες της ημέρας μας για άλλα πράγματα.
Δεν είναι μόνο χαρακτηριστικά όπως οι γεννήτριες εικόνων. Η Anthropic αισθάνεται σαν μια συνολικά πιο σοβαρή εταιρεία από τους ανταγωνιστές της. Ο χρόνος και η προσπάθεια δαπανώνται στην έρευνα, ενδιαφέρεται λιγότερο να προσελκύσει την ευρύτερη καταναλωτική αγορά και τα εργαλεία στα οποία εστιάζει είναι αφιερωμένα στην κωδικοποίηση, τις ροές εργασίας και την παραγωγικότητα.
Ακολουθώ Οδηγός Tom’s στις Ειδήσεις Google και προσθέστε μας ως προτιμώμενη πηγή για να λαμβάνετε τα ενημερωμένα νέα, τις αναλύσεις και τις κριτικές μας στις ροές σας.
Περισσότερα από το Tom’s Guide
Επιστροφή στους φορητούς υπολογιστές

