7ee4f605c3f66184239d8f93329c706d4ce9c962fda46c400bb18a53c2f10e01955bd11c9ddaa0ee61dd44546f1ff58e72f9eb9c

얼마 전 미스트랄에서 무료로 공개한 Mixtral 8x7B 

ChatGPT 4 처럼 MoE아키텍쳐를 사용한 거대 오픈소스 언어모델임  
여러개의 LLM 모델을 사용한다는 뜻 

74ebf202c4f06c8323e68394449c706c166710e779911d8f04762fee6f0fe934a95c3ee6a405fca33d67625269f71f36b5b1b4b7

각각 70억 매개변수를 가진 8개 전문모델로 구성해서 각종 AI 벤치마크에서 챗 GPT 3.5와 비비는 성능을 냄

7a9b8774c0f169f6239cf291479c7069f2ced9bee6a8074c36c22e41f8883e193a265c235a7ab493c6a27627908bdb7f603801b1


AI 업계에서도 여태것 나온 오픈소스 모델 중 최고라는 평을 듣는 중

참고로 이 모델을 공개한 Mistral AI는 얼마전 5500억 투자를 받음 

79ef8300b78561f4239e8296349c706579d6971a495a354f9fb6a1fe115be5fe2d651de9d9497417707d8dbe90693350851f03e6

문제는 GPU에서 구동하려면 
권장 사양이 VRAM 80기가 그래픽카드 2장

3천만원짜리 엔비디아 A100 80GB 버전 2장 필요함
아님 걍 CPU로 느리게 굴리던지

7de98707c7806ff523eff3e4419c706a40d52a8cce5d87aeb7e500dd42927ab1a33b3c7d8458ae09c2bd8886782e765f5604811426

7ee8f276c3861bf623ea85e0349c706e6f806d4a5e50b2384e7b814b657884434793ed571b4ae4c38b889b51061d138fdc671ebd3b

근데 애플 실리콘 맥은 통합 메모리 아키텍쳐라 GPU도 거대한 메인메모리에 그대로 접근이 가능한 구조라서 

엄청난 속도로 로컬에서 챗GPT 3.5급 언어모델 구동이 가능해짐 

M3 Max 에서 구동 (Q5)

M2 Ultra 에서 구동 (Q4)





챗GPT 공개 1년만에 비슷한 성능의 LLM을 50W짜리 저전력 노트북에서 돌리는 시대가 왔네 

1년 후엔 얼마나 발전할지 기대가 된다