DeepSeek-V4: μοντέλο 1,6 τρισ. παραμέτρων με άδεια MIT και τιμές που αναστατώνουν την αγορά – Artificial Intelligence


Η DeepSeek παρουσίασε αυτή την εβδομάδα το DeepSeek-V4, μοντέλο MoE 1,6 τρισ. παραμέτρων με άδεια MIT, διαθέσιμο μέσω API και Hugging Face, που πλησιάζει τις κορυφαίες επιδόσεις με δραστικά χαμηλότερο κόστος.

Η νέα έκδοση στοχεύει σε επιδόσεις κοντά στα ισχυρότερα κλειστά συστήματα με κόστος περίπου στο ένα έβδομο σε τυπικά φορτία, πιέζοντας την πρόσβαση σε μοντέλα αιχμής σε -αρκετά- χαμηλότερη τιμολογιακή ζώνη.

Το DeepSeek-V4-Pro κοστολογείται στα 1,74 δολάρια ανά 1 εκατ. εισερχόμενα tokens σε cache miss και 3,48 δολάρια ανά 1 εκατ. εξερχόμενα tokens. Μια απλή σύγκριση με 1 εκατ. εισόδου και 1 εκατ. εξόδου αποδίδει συνολικό κόστος 5,22 δολάρια. Με cache στα εισερχόμενα, η τιμή πέφτει στα 0,145 δολάρια ανά 1 εκατ. tokens, μειώνοντας το μικτό παράδειγμα στα 3,625 δολάρια.

Σε αντίθεση, το GPT-5.5 τιμολογείται στα 5,00 δολάρια ανά 1 εκατ. εισόδου και 30 δολάρια ανά 1 εκατ. εξόδου, με σύνολο 35,00 δολάρια, ενώ το Opus 4.7 στα 5,00 και 25 δολάρια αντίστοιχα, με σύνολο 30 δολάρια. Αυτό τοποθετεί το V4-Pro περίπου στο ένα έβδομο του κόστους του GPT-5.5 και περίπου στο ένα έκτο του Claude Opus 4.7 σε cache miss. Με cache, τα κενά μεγαλώνουν περαιτέρω.

Για ακόμη χαμηλότερο κόστος, το DeepSeek-V4-Flash κοστολογείται στα 0,14 δολάρια ανά 1 εκατ. εισόδου και 0,28 δολάρια ανά 1 εκατ. εξόδου, με σύνολο 0,42 δολάρια, που με cache διαμορφώνεται στα 0,308 δολάρια. Το Flash υστερεί σε επίδοση, όμως το κόστος του αγγίζει το 98% αυτού των GPT-5.5 και Claude Opus 4.7 σε απλή σύγκριση εισερχόμενων και εξερχόμενων tokens.

Στις συγκρίσιμες δοκιμές, το DeepSeek-V4-Pro-Max πλησιάζει αλλά δεν ξεπερνά συστηματικά τα νεότερα κλειστά μοντέλα. Στο BrowseComp σημείωσε 83,4%, πολύ κοντά στο GPT-5.5 με 84,4% και πάνω από το Claude Opus 4.7 με 79,3%. Στο Terminal-Bench 2.0 έφτασε 67,9%, κοντά στο Opus 4.7 με 69,4%, αλλά πίσω από το GPT-5.5 με 82,7%. Στο GPQA Diamond κατέγραψε 90,1% έναντι 93,6% του GPT-5.5 και 94,2% του Opus 4.7. Στο Humanity’s Last Exam χωρίς εργαλεία έφτασε 37,7% και με εργαλεία 48,2%, χαμηλότερα από τα αντίστοιχα των GPT-5.5 και Opus 4.7. Στα SWE-Bench Pro και MCP Atlas η εικόνα ήταν μεικτή, αλλά και εκεί υπολείπεται οριακά.

Η τεχνική πρόοδος στηρίζεται σε εγγενές παράθυρο συμφραζομένων 1 εκατ. tokens μέσω «Hybrid Attention Architecture» που συνδυάζει «Compressed Sparse Attention» και «Heavily Compressed Attention». Το V4-Pro απαιτεί περίπου το 10% του «KV cache» και το 27% των «FLOPs» ανά token σε σχέση με το DeepSeek-V3.2 στο ίδιο μήκος. Για σταθερότητα σε κλίμακα 1,6 τρισ. παραμέτρων, εισάγονται «Manifold-Constrained Hyper-Connections», ενώ χρησιμοποιήθηκε ο βελτιστοποιητής «Muon» σε προεκπαίδευση άνω των 32 τρισ. tokens. Η αρχιτεκτονική «MoE» ενεργοποιεί 49 δισ. παραμέτρους ανά token.

Η άδεια «MIT» επιτρέπει ελεύθερη εμπορική χρήση και διανομή. Για τοπική ανάπτυξη συνιστώνται συγκεκριμένες ρυθμίσεις παραμέτρων, ενώ για τη λειτουργία μέγιστης σκέψης απαιτείται παράθυρο τουλάχιστον 384 χιλ. tokens. Η DeepSeek θα αποσύρει τα παλαιότερα σημεία πρόσβασης στις 24 Ιουλίου και ανακατευθύνει ήδη την κίνηση στο V4-Flash, επιταχύνοντας τη μετάβαση στο πρότυπο του εκατομμυρίου tokens. Ο ερευνητής Deli Chen ανέφερε ότι η προσπάθεια κράτησε 484 ημέρες μετά το Deepseek V3 και υπογράμμισε τον στόχο η τεχνητή γενική νοημοσύνη να ανήκει σε όλους. Η Hugging Face υποδέχθηκε θερμά το νέο μοντέλο, ενώ η Vals το κατέταξε πρώτο μεταξύ των μοντέλων ανοιχτού κώδικα στο «Vibe Code Benchmark».



VIA: www.insomnia.gr

Dimitris Marizas
Dimitris Marizashttps://techbit.gr
Μεταφράζω bits και bytes σε απλά ελληνικά. Λατρεύω την τεχνολογία που λύνει προβλήματα και αναζητώ πάντα το επόμενο "big thing" πριν γίνει mainstream.

Related Articles

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

- Advertisement -

Stay Connected

0ΥποστηρικτέςΚάντε Like
0ΑκόλουθοιΑκολουθήστε
- Advertisement -

Most Popular 48hrs

- Advertisement -

Latest Articles