back to top
Σάββατο, 19 Απριλίου, 2025
ΑρχικήEconomyΟι ειδικοί λένε ότι η αναφορά ασφαλείας Gemini 2.5 είναι πολύ λεπτή

Οι ειδικοί λένε ότι η αναφορά ασφαλείας Gemini 2.5 είναι πολύ λεπτή

- Advertisment -

Περιεχόμενα Άρθρου [hide]


Google δημοσιευμένος Μια τεχνική αναφορά σχετικά με το τελευταίο μοντέλο AI, Gemini 2.5 Pro, εβδομάδες μετά την έναρξή του, αλλά οι ειδικοί λένε ότι η έκθεση στερείται βασικών λεπτομερειών ασφαλείας, καθιστώντας δύσκολη την αξιολόγηση των κινδύνων του μοντέλου.

Η έκθεση αποτελεί μέρος της προσπάθειας της Google να παρέχει διαφάνεια σχετικά με τα μοντέλα AI, αλλά διαφέρει από τους αντιπάλους της, καθώς δημοσιεύει μόνο τεχνικές εκθέσεις για μοντέλα που θεωρεί ότι έχει προχωρήσει πέρα ​​από το πειραματικό στάδιο. Η Google διατηρεί επίσης ορισμένα ευρήματα αξιολόγησης ασφάλειας για ξεχωριστό έλεγχο.

Εμπειρογνώμονες, συμπεριλαμβανομένου του Peter Wildeford, συνιδρυτής του Ινστιτούτου Πολιτικής και Στρατηγικής AI, και ο Thomas Woodside, συνιδρυτής του Secure AI Project, εκφρασμένος Απογοήτευση με την αταξία της έκθεσης, σημειώνοντας ότι δεν αναφέρει το πλαίσιο ασφαλείας της Google (Frontier Safety (FSF), που εισήχθη πέρυσι για τον εντοπισμό πιθανών κινδύνων AI.

Η Wildeford δήλωσε ότι οι ελάχιστες πληροφορίες της έκθεσης, που κυκλοφόρησαν εβδομάδες μετά την εκτόξευση του δημόσιου μοντέλου, καθιστούν αδύνατη την επαλήθευση των δημόσιων δεσμεύσεων της Google για ασφάλεια και ασφάλεια. Η Woodside αμφισβήτησε επίσης τη δέσμευση της Google για έγκαιρες αξιολογήσεις ασφαλείας, επισημαίνοντας ότι η τελευταία έκθεση της εταιρείας σχετικά με τις δοκιμές επικίνδυνων ικανοτήτων ήταν τον Ιούνιο του 2024, για ένα μοντέλο που ανακοινώθηκε τον Φεβρουάριο του 2024.

Επιπλέον, η Google δεν έχει κυκλοφορήσει μια έκθεση για το Gemini 2.5 Flash, ένα μικρότερο μοντέλο που ανακοινώθηκε την περασμένη εβδομάδα, αν και ένας εκπρόσωπος δήλωσε ότι κάποιος “έρχεται σύντομα”. Ο Thomas Woodside ελπίζει ότι αυτό δείχνει ότι η Google θα αρχίσει να δημοσιεύει συχνότερες ενημερώσεις, συμπεριλαμβανομένων των αξιολογήσεων για μοντέλα που δεν έχουν ακόμη αναπτυχθεί δημόσια.


Δικαστής Κανόνες Η Google κατέχει παράνομο μονοπώλιο διαφήμισης


Άλλα εργαστήρια AI, όπως το Meta και το OpenAI, αντιμετώπισαν επίσης την κριτική για την έλλειψη διαφάνειας στις αξιολογήσεις ασφαλείας τους. Ο Kevin Bankston, ανώτερος σύμβουλος για τη διακυβέρνηση του AI στο Κέντρο Δημοκρατίας και Τεχνολογίας, περιέγραψε την τάση των σποραδικών και αόριστων αναφορών ως «φυλή προς τα κάτω» στην ασφάλεια του AI.

Η Google δήλωσε ότι διεξάγει δοκιμές ασφαλείας και “αντιφατική κόκκινη ομαδοποίηση” για τα μοντέλα της πριν από την απελευθέρωση, έστω και αν δεν περιγράφεται λεπτομερώς στις τεχνικές εκθέσεις της.


Προτεινόμενη πίστωση εικόνας



VIA: DataConomy.com

- Advertisement -
- Advertisment -
Dimitris Marizas
Dimitris Marizashttps://techbit.gr
Παθιασμένος με τις νέες τεχνολογίες, με έφεση στην καινοτομία και τη δημιουργικότητα. Διαρκώς αναζητώ τρόπους αξιοποίησης της τεχνολογίας για την επίλυση προβλημάτων και τη βελτίωση της καθημερινής ζωής.
RELATED ARTICLES

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

- Advertisment -

Most Popular

- Advertisment -