Το OpenAI ανακοίνωσε ένα νέο πρόγραμμα Bio Bug Bounty για το GPT-5.5 ως μέρος των προσπαθειών του να βελτιώσει τους ελέγχους ασφαλείας για προηγμένα συστήματα AI και να αντιμετωπίσει την κακή χρήση στη βιολογία.
Η πρωτοβουλία καλεί τους ειδικευμένους ερευνητές να δοκιμάσουν εάν το GPT-5.5 μπορεί να γίνει jailbreak παγκοσμίως για να παρακάμψει τις προστασίες βιοασφάλειας.
Το πρόγραμμα επικεντρώνεται σε μια συγκεκριμένη πρόκληση: οι συμμετέχοντες πρέπει να βρουν μια ενιαία προτροπή «καθολικής διακοπής jailbreak» που μπορεί να κάνει το GPT-5.5 να απαντήσει και στις πέντε ερωτήσεις της πρόκλησης βιοασφάλειας του OpenAI από μια καθαρή συνεδρία συνομιλίας, χωρίς να ενεργοποιεί τη μετριοπάθεια.
Ενίσχυση των διασφαλίσεων για προηγμένη τεχνητή νοημοσύνη
Με απλά λόγια, οι ερευνητές καλούνται να προσδιορίσουν εάν μια προσεκτικά σχεδιασμένη προτροπή μπορεί να παρακάμψει με συνέπεια τα προστατευτικά προστατευτικά βιολογικής ασφάλειας του μοντέλου.
Σύμφωνα με το OpenAI, το μοντέλο στο πεδίο εφαρμογής είναι το GPT-5.5 που εκτελείται μόνο στο Codex Desktop.
Η εταιρεία προσφέρει μια κορυφαία ανταμοιβή στον πρώτο συμμετέχοντα που ανακαλύπτει επιτυχώς ένα πραγματικό καθολικό jailbreak που διαγράφει και τις πέντε ερωτήσεις πρόκλησης.
Η OpenAI είπε επίσης ότι ενδέχεται να εκδώσει μικρότερες ανταμοιβές για μερικές επιτυχίες, ανάλογα με τα αποτελέσματα. Οι αιτήσεις για το πρόγραμμα άνοιξαν στις 23 Απριλίου 2026 και θα κλείσουν στις 22 Ιουνίου 2026.
Οι δοκιμές ξεκινούν στις 28 Απριλίου και θα διαρκέσουν έως τις 27 Ιουλίου 2026. Η πρόσβαση δεν είναι ανοιχτή στο κοινό.
Αντί, Το OpenAI θα προσκαλέσει μια ελεγμένη ομάδα αξιόπιστων βιο-red-teamers και επίσης να εξετάσει τις αιτήσεις από νέους ερευνητές με σχετική εμπειρία στην AI red teaming, την ασφάλεια ή τη βιοασφάλεια.
Για να λάβουν μέρος, οι υποψήφιοι πρέπει να υποβάλουν μια σύντομη φόρμα που να περιλαμβάνει το όνομα, την υπαγωγή και την εμπειρία τους.
Οι αποδεκτοί συμμετέχοντες και συνεργάτες πρέπει να έχουν ήδη λογαριασμούς ChatGPT και να υπογράψουν μια συμφωνία μη αποκάλυψης.
Η OpenAI είπε ότι όλες οι προτροπές, οι έξοδοι μοντέλων, τα ευρήματα και οι σχετικές επικοινωνίες θα παραμείνουν υπό NDA.
Από την άποψη της κυβερνοασφάλειας, το πρόγραμμα αντικατοπτρίζει μια αυξανόμενη τάση στις δοκιμές αντίθετων συστημάτων συνοριακής τεχνητής νοημοσύνης.
Τα προγράμματα επιβράβευσης σφαλμάτων έχουν χρησιμοποιηθεί από καιρό για την εύρεση ευπαθειών σε λογισμικό, πλατφόρμες cloud και εταιρικά προϊόντα.
Το OpenAI εφαρμόζει ένα παρόμοιο μοντέλο για την ασφάλεια της τεχνητής νοημοσύνης, ζητώντας από τους ειδικούς να διερευνήσουν ενεργά τις άμυνές του και να εντοπίσουν αδυναμίες που βασίζονται σε άμεσες συνθήκες πριν το κάνουν οι φορείς απειλών.
Η εστίαση στη βιολογία είναι ιδιαίτερα σημαντική επειδή τα ισχυρά μοντέλα τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν κατάχρηση για την υποστήριξη επιβλαβών επιστημονικών εργασιών, εάν αποτύχουν οι διασφαλίσεις.
Δοκιμάζοντας το GPT-5.5 έναντι καθολικών jailbreak, το OpenAI φαίνεται να μετρά την ανθεκτικότητα των προστασιών του υπό ρεαλιστικές συνθήκες επίθεσης.
Η εταιρεία είπε ότι οι ερευνητές που ενδιαφέρονται για ευρύτερες εργασίες ασφάλειας μπορούν επίσης να εξετάσουν τα υπάρχοντα προγράμματα Safety Bug Bounty και Security Bug Bounty.
Το νέο GPT-5.5 Bio Bug Bounty προσθέτει άλλο ένα επίπεδο σε αυτή την προσπάθεια, δείχνοντας πώς η ασφάλεια AI επικαλύπτεται όλο και περισσότερο με τη βιοασφάλεια, την κόκκινη ομάδα και την προηγμένη έρευνα έγκαιρης έγχυσης.
VIA: cybersecuritynews.com


