https://lmstudio.ai/

LM Studio - Local AI on your computer

Run local AI models like gpt-oss, Llama, Gemma, Qwen, and DeepSeek privately on your computer.

lmstudio.ai


가서




06f08472b09c28a8699fe8b115ef046bc98a86e0


받고 설치한다

뭐 막 뜰텐데 알아서 대충 하고




06f08472bc9c28a8699fe8b115ef046f3c44902fe3

1->2(검색어: qwen3 vl 8b)->3



06f08472b29c28a8699fe8b115ef046f48e09bde39

사진에 써있는대로

ai 실행은 ㅈㄴ 무식해서 구동하려면 모델 파일 전체를 ram에 올려야 함

그래픽카드로 ai를 구동하게 되면 그래픽카드의 ram인 vram에 모델 파일을 통째로 올리게 됨

즉, 모델파일 용량+@ = 필요한 vram임

vram이 부족하면 dram에 일부분이 나눠져서 올라가는데, 그럼 속도가 1/10 토막이 나버림


아무튼 자기 컴퓨터에 알맞는 모델 파일을 받았으면




06f08473b49c28a8699fe8b115ef046cee2667e7a4

3번 꼭 체크




06f08473b79c28a8699fe8b115ef046c87eb9f7912

그리고 원하는 모델을 불러오면 된다


여기에 추가적으로




06f08473b19c28a8699fe8b115ef046f1e496dcd05

컨텍스트 길이란, 모델이 한 번에 처리할 수 있는 데이터의 크기를 말함

그냥 저거 늘리면 큰 이미지랑 많은 텍스트도 처리할 수 있게 되는 대신 vram을 많이 쳐먹게 되고

줄이면 그 반대임

4096정도면 어지간한 건 다 될텐데, 애초에 이정도에선 줄여봤자 별 차이가 없음...




06f08473b69c28a8699fe8b115ef046f9cfe3cb827

그리고 GPU 오프로딩은 무조건 최대로 해놓으샘



이런식으로 사용할 로컬 ai 모델을 올려놓으면 됨




추천하는 모델은

OCR: qwen3 vl 8b

번역: yanoljanext-rosetta-12b-2510