Hunter Alpha, som initialt väckte spekulationer om att det kunde vara DeepSeek-V4, bekräftades av Xiaomis AI-modellteam MiMo vara en intern testversion av MiMo-V2-Pro. Modellen, som leds av den tidigare DeepSeek-forskaren Luo Fuli, är utformad för att fungera som hjärnan hos AI-agenter och kommer att samarbeta med fem stora agentramverk, inklusive OpenClaw, och erbjuda en veckas gratis åtkomst. Luo Fuli beskrev skiftet från chatt- till agentparadigm som ett 'tyst bakhåll' som skedde snabbare än väntat.
Hunter Alpha identifierade sig som en kinesisk AI-modell som främst tränats på kinesiska, med en kunskapsgräns i maj 2025, men vägrade att identifiera sin utvecklare. Enligt The Independent - Main uppgav chatbotten att den bara kände till sitt namn, parameterskala och kontextfönsterlängd. Modellen rapporteras vara en modell med 1 biljon parametrar och ett kontextfönster på upp till en miljon tokens. Ingenjören Nabil Haouam sade till The Independent - Main att kombinationen av en miljon tokens kontext med resonemangsförmåga och gratis åtkomst stack ut, och noterade att de flesta frontlinjemodeller med det kontextfönstret medför verkliga kostnader i stor skala. AI-ingenjören Daniel Dewhurst tillade att tankekedjemönstret var en stark signal om modellens träning, även om en namnlös utvecklare föreslog att Hunter Alpha sannolikt inte är DeepSeek-V4.
Jag kallar detta ett tyst bakhåll – inte för att vi planerade det, utan för att skiftet från chatt- till agentparadigm skedde så snabbt att vi knappt trodde på det själva.
Separat har DeepSeek släppt sin nya AI-modell DeepSeek-V4 i två versioner: DeepSeek-V4-Pro och DeepSeek-V4-Flash. DeepSeek uppgav att DeepSeek-V4-Pro leder andra öppen källkodsmodeller i världskunskapsriktmärken och endast är något sämre än Gemini-Pro-3.1. Företaget lyfte också fram sitt ultralånga kontext på en miljon ord, vilket uppnår ledarskap inom agentkapacitet, världskunskap och resonemangsprestanda.
Folk frågar varför vi rör oss så snabbt. Jag såg det på nära håll när jag byggde DeepSeek R1.
Kombinationen som stack ut var Hunter Alphas 1 miljon tokens kontext ihop med resonemangsförmåga och gratis åtkomst.
De flesta frontlinjemodeller med det kontextfönstret medför verkliga kostnader i stor skala.
Tankekedjemönstret är förmodligen den starkaste signalen.
Resonemangsstil är svår att dölja och tenderar att spegla hur en modell tränades.
Min analys tyder på att Hunter Alpha sannolikt inte är DeepSeek V4
har ett ultralångt kontext på en miljon ord, vilket uppnår ledarskap inom både inhemska och öppen källkodsområden inom agentkapacitet, världskunskap och resonemangsprestanda
I världskunskapsriktmärken leder DeepSeek-V4-Pro betydligt andra öppen källkodsmodeller och är endast något sämre än den toppklassiga stängda källkodsmodellen (Googles) Gemini-Pro-3.1.
