Subscribe to SOOFTWARE

Stay up to date! Get all the latest & greatest posts delivered straight to your inbox

mixtral

A collection of 2 posts

MoE(Mixture of Experts) 기초부터 DeepSeek 혁신까지 cover image
nlp, mixtral, 

MoE(Mixture of Experts) 기초부터 DeepSeek 혁신까지

MoE(Mixture of Experts) 기초부터 DeepSeek 혁신까지 작년 이맘때쯤 DeepSeek-V3가 저비용으로 엄청난 성능을 보이면서 화제가 되었습니다. 그 핵심 기술인 MoE(Mixture of Experts…

What is MoE? (Mixture of Experts) cover image
nlp, mixtral, 

What is MoE? (Mixture of Experts)

What it MoE? (Mixture of Experts) 현존 최강 LLM인 GPT-4에서 “MoE (Mixture of Experts)” 방식을 채택하여 사용하고 있다고 알려졌는데요, 최근 AI계의 뜨거운 감자 Mistral AI…