Η νέα έκδοση στοχεύει σε επιδόσεις κοντά στα ισχυρότερα κλειστά συστήματα με κόστος περίπου στο ένα έβδομο σε τυπικά φορτία, πιέζοντας την πρόσβαση σε μοντέλα αιχμής σε -αρκετά- χαμηλότερη τιμολογιακή ζώνη.
Το DeepSeek-V4-Pro κοστολογείται στα 1,74 δολάρια ανά 1 εκατ. εισερχόμενα tokens σε cache miss και 3,48 δολάρια ανά 1 εκατ. εξερχόμενα tokens. Μια απλή σύγκριση με 1 εκατ. εισόδου και 1 εκατ. εξόδου αποδίδει συνολικό κόστος 5,22 δολάρια. Με cache στα εισερχόμενα, η τιμή πέφτει στα 0,145 δολάρια ανά 1 εκατ. tokens, μειώνοντας το μικτό παράδειγμα στα 3,625 δολάρια.
Σε αντίθεση, το GPT-5.5 τιμολογείται στα 5,00 δολάρια ανά 1 εκατ. εισόδου και 30 δολάρια ανά 1 εκατ. εξόδου, με σύνολο 35,00 δολάρια, ενώ το Claude Opus 4.7 στα 5,00 και 25 δολάρια αντίστοιχα, με σύνολο 30 δολάρια. Αυτό τοποθετεί το V4-Pro περίπου στο ένα έβδομο του κόστους του GPT-5.5 και περίπου στο ένα έκτο του Claude Opus 4.7 σε cache miss. Με cache, τα κενά μεγαλώνουν περαιτέρω.
Για ακόμη χαμηλότερο κόστος, το DeepSeek-V4-Flash κοστολογείται στα 0,14 δολάρια ανά 1 εκατ. εισόδου και 0,28 δολάρια ανά 1 εκατ. εξόδου, με σύνολο 0,42 δολάρια, που με cache διαμορφώνεται στα 0,308 δολάρια. Το Flash υστερεί σε επίδοση, όμως το κόστος του αγγίζει το 98% αυτού των GPT-5.5 και Claude Opus 4.7 σε απλή σύγκριση εισερχόμενων και εξερχόμενων tokens.
Στις συγκρίσιμες δοκιμές, το DeepSeek-V4-Pro-Max πλησιάζει αλλά δεν ξεπερνά συστηματικά τα νεότερα κλειστά μοντέλα. Στο BrowseComp σημείωσε 83,4%, πολύ κοντά στο GPT-5.5 με 84,4% και πάνω από το Claude Opus 4.7 με 79,3%. Στο Terminal-Bench 2.0 έφτασε 67,9%, κοντά στο Opus 4.7 με 69,4%, αλλά πίσω από το GPT-5.5 με 82,7%. Στο GPQA Diamond κατέγραψε 90,1% έναντι 93,6% του GPT-5.5 και 94,2% του Opus 4.7. Στο Humanity’s Last Exam χωρίς εργαλεία έφτασε 37,7% και με εργαλεία 48,2%, χαμηλότερα από τα αντίστοιχα των GPT-5.5 και Opus 4.7. Στα SWE-Bench Pro και MCP Atlas η εικόνα ήταν μεικτή, αλλά και εκεί υπολείπεται οριακά.
Η τεχνική πρόοδος στηρίζεται σε εγγενές παράθυρο συμφραζομένων 1 εκατ. tokens μέσω «Hybrid Attention Architecture» που συνδυάζει «Compressed Sparse Attention» και «Heavily Compressed Attention». Το V4-Pro απαιτεί περίπου το 10% του «KV cache» και το 27% των «FLOPs» ανά token σε σχέση με το DeepSeek-V3.2 στο ίδιο μήκος. Για σταθερότητα σε κλίμακα 1,6 τρισ. παραμέτρων, εισάγονται «Manifold-Constrained Hyper-Connections», ενώ χρησιμοποιήθηκε ο βελτιστοποιητής «Muon» σε προεκπαίδευση άνω των 32 τρισ. tokens. Η αρχιτεκτονική «MoE» ενεργοποιεί 49 δισ. παραμέτρους ανά token.
Η άδεια «MIT» επιτρέπει ελεύθερη εμπορική χρήση και διανομή. Για τοπική ανάπτυξη συνιστώνται συγκεκριμένες ρυθμίσεις παραμέτρων, ενώ για τη λειτουργία μέγιστης σκέψης απαιτείται παράθυρο τουλάχιστον 384 χιλ. tokens. Η DeepSeek θα αποσύρει τα παλαιότερα σημεία πρόσβασης στις 24 Ιουλίου και ανακατευθύνει ήδη την κίνηση στο V4-Flash, επιταχύνοντας τη μετάβαση στο πρότυπο του εκατομμυρίου tokens. Ο ερευνητής Deli Chen ανέφερε ότι η προσπάθεια κράτησε 484 ημέρες μετά το Deepseek V3 και υπογράμμισε τον στόχο η τεχνητή γενική νοημοσύνη να ανήκει σε όλους. Η Hugging Face υποδέχθηκε θερμά το νέο μοντέλο, ενώ η Vals AI το κατέταξε πρώτο μεταξύ των μοντέλων ανοιχτού κώδικα στο «Vibe Code Benchmark».
VIA: www.insomnia.gr

![«Σιωπηλό» ηφαίστειο στην… αυλή της Αθήνας: Θεωρούνταν ανενεργό για 100.000 χρόνια και τώρα συσσωρεύει συνεχώς μάγμα… Οι φόβοι για έκρηξη στα Μέθανα [χάρτες] «Σιωπηλό» ηφαίστειο στην... αυλή της Αθήνας: Θεωρούνταν ανενεργό για 100.000 χρόνια και τώρα συσσωρεύει συνεχώς μάγμα... Οι φόβοι για έκρηξη στα Μέθανα [χάρτες]](https://techbit.gr/wp-content/uploads/2026/04/Methana254_Razvan-Gabriel_Popa_ETH_Zurich-volcano-696x464.jpg)
