Η Anthropic έχει υπογραμμίσει συνεχώς την εστίασή του στην υπεύθυνη ΑΙ και δίνει προτεραιότητα στην ασφάλεια, η οποία παρέμεινε μία από τις βασικές της αξίες. Η εταιρεία πραγματοποίησε πρόσφατα το πρώτο της συνέδριο προγραμματιστών και αυτό που υποτίθεται ότι ήταν μια μνημειώδη στιγμή για την εταιρεία κατέληξε να είναι ένας ανεμοστρόβιλος των αντιπαραθέσεων και πήρε το επίκεντρο μακριά από τις μεγάλες ανακοινώσεις που σχεδιάστηκαν. Ο Anthropic έπρεπε να αποκαλύψει το τελευταίο και πιο ισχυρό γλωσσικό μοντέλο του, το μοντέλο CLAUDE 4 OPUS, αλλά ο τρόπος μετρώντας στο μοντέλο οδήγησε σε αναστάτωση στην κοινότητα, αμφισβητώντας και επικρίνοντας τις βασικές αξίες της εταιρείας και δημιουργώντας κάποιες σοβαρές ανησυχίες σχετικά με την ασφάλεια και την προστασία της ιδιωτικής ζωής.
Το μοντέλο CLAUDE 4 OPUS της Anthropic είναι υπό πυρκαγιά για την ικανότητά του να επικοινωνήσει αυτόματα αρχές εάν ανιχνευθεί ανήθικη συμπεριφορά
Το Anthropic έχει υπογραμμίσει μακρά τη συνταγματική ΑΙ, η οποία βασικά πιέζει για ηθική εξέταση όταν χρησιμοποιεί αυτά τα μοντέλα AI. Ωστόσο, όταν η εταιρεία παρουσίασε το τελευταίο μοντέλο της, Claude 4 Opus, στο πρώτο της συνέδριο προγραμματιστών, για το τι θα έπρεπε να έχει μιλήσει για να είναι τόσο ισχυρό μοντέλο LLM επισκιάστηκε από διαμάχη. Πολλοί προγραμματιστές και χρήστες της AI αντέδρασαν στην ικανότητα του μοντέλου να αναφέρουν αυτόνομα τους χρήστες στις αρχές εάν εντοπιστεί οποιαδήποτε ανήθικη πράξη, όπως επισημαίνεται από Εγχειρίδια.
Η ιδέα ότι ένα μοντέλο AI μπορεί να κρίνει την ηθική κάποιου και στη συνέχεια να περάσει αυτή την κρίση σε ένα εξωτερικό κόμμα δημιουργεί σοβαρές ανησυχίες μεταξύ όχι μόνο της τεχνολογικής κοινότητας, αλλά και του ευρύτερου κοινού για τα θολωτά όρια μεταξύ ασφάλειας και επιτήρησης. Αυτή η τεχνική θεωρείται ότι συμβιβάζει εξαιρετικά την ιδιωτική ζωή των χρηστών και την εμπιστοσύνη και την απομάκρυνση της έννοιας της υπηρεσίας.
Η αναφορά αναδεικνύει επίσης τον Sam Bowman’s θέση, Που αφορά τα εργαλεία γραμμής εντολών CLAUDE 4 OPUS που θα μπορούσαν να αναφέρουν τις αρχές και να κλειδώσουν τους χρήστες εκτός συστημάτων εάν ανιχνευθεί ανήθικη συμπεριφορά. Ο Bowman είναι ο ερευνητής ευθυγράμμισης AI στο Anthropic.
Ωστόσο, ο Bowman αργότερα διέγραψε το tweet, εξηγώντας ότι τα σχόλιά του παρερμηνεύθηκαν και συνέχισαν να διευκρινίζουν τι εννοούσε πραγματικά. Εξήγησε ότι η συμπεριφορά συνέβη μόνο όταν το μοντέλο ήταν σε πειραματικό περιβάλλον δοκιμών, όπου δόθηκαν ειδικά δικαιώματα και ασυνήθιστες προτροπές που δεν αντικατοπτρίζουν τον τρόπο με τον οποίο η πραγματική χρήση θα ήταν καθώς δεν αποτελεί μέρος τυπικών λειτουργιών.
Ενώ ο Bowman περιγράφει λεπτομερώς τη λειτουργία ριπής, η συμπεριφορά που προκαλεί σφύριγμα εξακολουθεί να αναβαθμίζει την εταιρεία και αντί να αποδείξει την ηθική ευθύνη που αντιπροσωπεύει, κατέληξε να διαβρώνει την εμπιστοσύνη των χρηστών και να αμφισβητήσει τις αμφιβολίες για την ιδιωτική τους ζωή, η οποία θα μπορούσε να είναι επιζήμια για την εικόνα της εικόνας και πρέπει να εξετάσει αμέσως τον αέρα της δυσπιστίας.
VIA: wccftech.com