| 항목 | RX 7900 XTX | RTX 5070 | RTX 5060 Ti |
|---|---|---|---|
| VRAM | 24GB | 12GB | 16GB |
| 메모리 대역폭 | 960 GB/s | 672 GB/s | 448 GB/s |
| CUDA/ROCm | ROCm (AMD) | CUDA ✅ | CUDA ✅ |
| 가격대 | 약 70~80만원 | 약 60~70만원 | 약 40~50만원 |
- VRAM 24GB로 Llama 3 70B 4-bit, Mixtral 8x7B 등 대형 모델 통째로 올라감
- 대역폭 960 GB/s — 토큰 생성 속도가 세 개 중 가장 빠름
- 단점: ROCm 세팅이 가끔 귀찮음 (Ollama는 요즘 AMD 잘 지원함)
- CUDA라 Ollama, llama.cpp 세팅이 제일 편함
- 단, 12GB VRAM은 생각보다 빨리 부족해짐
- 13B 이상 모델은 양자화 필수, 30B+ 모델은 버거움
- 대역폭도 중간 수준
- VRAM은 5070보다 많지만 대역폭이 절반 수준 → 토큰 생성이 느림
- 같은 모델 띄워도 7900 XTX 대비 체감 속도 차이 큼
로컬 LLM만 본다면 7900 XTX가 압도적 1위
VRAM도 가장 많고 대역폭도 가장 높아서, 돌릴 수 있는 모델 크기와 토큰 생성 속도 모두 앞섭니다. Ollama 기준 AMD 지원도 많이 좋아져서 세팅 난이도도 예전만큼 어렵지 않아요.
게임도 같이 한다면 → 5070이 밸런스가 나을 수 있으니, 용도가 추가되면 다시 알려주세요!
아 내가 병신이다!
댓글 0