Patrick Zandl
Česká pirátská strana
Twitter
AKTIVNÍ
Obsah příspěvku
Čtvrt hodiny potom, co jsem vydal článek o modelech, vydal Deepseek nový model…
DeepSeek-V3.2 "Speciale" 🇨🇳📉
Data z nových benchmarků jsou venku a nevypadají dobře pro OpenAI:
🧮 Matematika (HMMT Feb 25):
• DeepSeek Speciale: 99.2 % 👑
• Gemini 3.0 Pro: 97.5 %
• GPT-5 High: 88.3 % (O parník pozadu!)
💻 Programování (CodeForces):
• Gemini 3.0 Pro: 2708
• DeepSeek Speciale: 2701 (čili remíza)
• GPT-5 High: 2537
💡 Není to zadarmo. "Speciale" dosahuje těchto výsledků masivním CoT (až 77k tokenů na úlohu!), což znamená vyšší latenci a náklady. Je to dříč, ne sprinter.
Ale výsledek je jasný: Pokud řešíte hard-science nebo komplexní algoritmy, GPT-5 High právě přestal být SOTA. Čína má momentálně nejchytřejší model na matematiku na světě.
Screenshot
Screenshot není k dispozici
Metadata
| Platforma | Twitter (social) |
| Publikováno | 01.12.2025 14:27 |
| První viděn | 12.04.2026 05:41 |
| Poslední kontrola | 30.04.2026 19:38 |
| Počet slov | 0 |
| Hlídač ID | 42858895b587dfef314319180353b0ff |
| Original ID | 1995499895550091424 |
| Zdrojová URL | https://x.com/tangero/status/1995499895550091424 |