제가 농담 안하고 로컬 번역 모델 쓸 수 있는 건 다 써봤는데 젬마4 활성화 파라미터 2b 4b짜리 범용 llm이 파파고는 커녕 번역용으로 파인튜닝된 8b 12b 27b 짜리들보다 번역 잘함...