ML 이니 피지컬 AI니 하는데
말하는 것만봐도
“난 3분 걸리던데”
“공개 LLM모델이나 쓰겠지”
“ML 알못새기야”
“메모리 병목없다”
등
엔비디아 VLA(피지컬 AI용 모델) Gr00t n1.5에서도
내부 백본모델이 오픈소스 모델기반이고 데이터 센터급 아니면 이걸로 연구함
메모리 병목도 마찬가지 그냥 할 말 ㅈㄴ 많은데 넘긴다
저새기 그냥 이분야 아는게 없음
동영상 올려달라는데 뭔 지랄인지 안올라가니깐 사진 올림
어차피 구매목록 실물사진에 이거까지 올렸는데도
AI드립치는거면 그냥 믿을색기아닌거고 꼬우면 휘도라도 조정해보셈
에휴 시발 병신련 재미 ㅈ도없네
에휴 니가 이러니까 ml 못알새끼라는거다 피지컬 ai가 vla 로봇만 있는 줄아노? 그리고 반드시 llm 하고 연동해야하는 줄만아노? 미쿠야 챗지피티 그만 읽고 논문이라도 읽어봐 영어라서 번역기 돌려야겠지만 글구 주작질은 그만하고 추해보여 ㅋㅋㅋㅋ
노잼이다 이제 너도 걍 꺼져라 ㅋㅋㅋㅋ 난 너가 또 하나 사올줄 알았는데 거지색기 맞네
@ㅇㅇㅋ 너처럼 256기가 스스디 쓰는 거지새끼가?
@ㅇㅇ 응 맞아 ㅋㅋ 그래그래 나 거지야 ㅋㅋㅋ ㅋㅋㅋㅋㅋㅋㅋㅋ
@ㅇㅇㅋ 니 애미년도 거지자나
@ㅇㅇ 우리 어머니께선 연봉이 XX억인데 뭐라노 병신이 ㅋㅋㅋㅋㅋㅋㅋㅋ 까불지마라 진짜로 니가 유학가서 성공해도 우리 엄니보다 잘벌기 쉽지않다
@ㅇㅇㅋ 니애미년이? 정말로?
@ㅇㅇ ㅇㅇ 못믿겠으면 말고
@ㅇㅇㅋ 니 애미년 잘나가는년이네 남자 관계는 니 애비 말고 또 누구랑 사귀냐?
@ㅇㅇ 평생 아버지만 보고 살아오신 분이다 순애 그자체 ㅇㅇ
@ㅇㅇㅋ 니애미년 제법이네
@ㅇㅇ 이런 여자 또 없다 가정에 충실한 매출 수백억대 여성사업가
@ㅇㅇ 나도 좋은여자 만나라
@ㅇㅇ 너도
@ㅇㅇㅋ 이새끼가 약처먹었나 훈훈하노?
@ㅇㅇ 솔직히 그냥 심심했던거라서 잘 놀았다
@ㅇㅇㅋ 그래 또 서로 욕 박고 그러자고
@ㅇㅇ ㅇㅋㅇㅋ
최대토큰 얼마나 잡히는데? 한 세션당
그건 모델마다 다를거고 LLM 분야 아님 난 VLA쪽이라 출력단 hz로 말함 LLM은 120b 180토큰/s
@ㅇㅇㅋ 굳 맛저되셈
@컴갤러1(119.196) 굿굿 족발 먹음 맛저
https://m.dcinside.com/board/pridepc_new4/6524004 내가 만든 모델은 병목이 없네 씨발년아 ㅋㅋㅋ???
모델 레포 내놔봐 뱡신아 뭔 똥을 쌋는지 보게
@ㅇㅇㅋ 그전에 니애미년 면상부터 내놔야 하지 않겠누?
@ㅇㅇ 걍 닌 그렇게 사는거임 열등감에 패드립하면서 ㅇㅇ
@ㅇㅇㅋ 그건 너지 애미 뒤진새끼야 ㅋㅋㅋ
알고리즘 최적화도 모르는새끼가 어디서 vla는 주워 들어서 rtx 6000 짤 주작해서 구라질 시전하노 그럴 시간에 니 똥컴이나 갈아새끼야 ㅋㅋㅋㅋ
ㅋㅋㅋ 니보다 높으면 짤 ㅇㅈㄹ VLA는 니가 모르겠지 32기가로 뭔 병신이 피지컬 AI를 한다고
@ㅇㅇㅋ 니가 그러니까 ml 알못이라는거야 새끼야 vla 처럼 이미 레드오션 돼서 개나소나하는거나 하니까 노벨티도 없지 ㅋㅋㅋ
@ㅇㅇ 그래 그래 ㅋㅋ VLA 레드오션이라는 색긴 또 처음이네 이거보다 최신인게 뭐가 있냐 월드모델도 이쪽 계열인데
@ㅇㅇㅋ 이새끼는 이래서 ml 알못이라는거야 이쪽은 라이프 싸이클 존나 빨라서 1-2년전 기술도 개나소나 따리해서 포화상태인데 어디 깨작깨작 이미 만들어진가 파인튜닝이나 해보는새끼니까 아직도 블루오션으로 알지 ㅋㅋㅋㅋㅋ 돼지새끼 살이나 빼 ㅋㅋㅋㅋ
@ㅇㅇ 1-2년전 이라 ㅋㅋㅋ VLA 첫논문이 RT1이고 이게 나온지 1-2년쯤 제대로 주목 받은게 9개월 전쯤? 너 지금 착각하는거 같아 친구야 ㅋㅋㅋ VLM아니고 VLA야 ㅋㅋㅋㅋ 피지컬 AI한다는게 그것도 모르는거야?
@ㅇㅇㅋ vla 병신아 내가 vlm 이라고 했냐?
@ㅇㅇ 지금 엔비디아도 몇주전에 니모트론 새로공개하고 백본 삼는게 이분야고 곧 n1.7나오는데 레드라고? ㅋㅋㅋㅋㅋ 진짜로? ㅋㅋㅋ
@ㅇㅇㅋ 이미 상용화돼서 너같은 ml알못새끼도 개나소나 덤벼드는데 레드오션이지
@ㅇㅇ 그럼 뭐가 최신이야? 5090으로 풀 트레이닝이 가능한 그 ML분야가 뭔데 ㅋㅋㅋㅋㅋ
@ㅇㅇ 말을해봐 제발
@ㅇㅇㅋ 니 애미년에게 물어봐 뭐라고 하는지 ㅋㅋㅋ
@ㅇㅇ 말 또 못하네 ㅋㅋㅋㅋㅋ 이얔ㅋㅋㅋㅋ
@ㅇㅇㅋ 니 애미년에게 물어봐 vla하고 vlm 구분 못하는 멍청한 새끼에게 뭘 말해줌?
@ㅇㅇ 2년 넘은 분야라길래 니가 착각하니싶었지
@ㅇㅇㅋ 그런 개소리는 니 애미년에게 질문하라니까 ㅋㅋㅋ
@ㅇㅇ 그래 심심한가보네 ㅋㅋㅋㅋㅋ 공부열심히하고 기회되면 pro 6000써봐라 거기부터 시작이니깐
@ㅇㅇㅋ Llm 돌릴거면 dgx spark가 가성비훨낫지
@ㅇㅇㅋ 램도 128기가에 nvlink 유사하게 2개 커플링 가능
@ㅇㅇ 스파크랑 토르 써봄 ㅇㅇ 커플링해도 200GB 한계고 토르는 막상 올려도 인퍼런스 하면 cpu 병목부터옴 로봇추론쪽은 Vram이 부족한 상황은 아님
@ㅇㅇ LLM에 스파크 쓰는것도 학습은 어려움 너무 오래걸려서
@ㅇㅇㅋ 그거 성능이 4070s 급인데 그래도 브이램은 많아서 가격 생각하면 쓸만해
@ㅇㅇ 통합메모리라서 애매함 VLA 풀파인튜닝은 6000 하나로도 되는데 VLM백본 파인튜닝은 최소 8장에 데이터가 없음
@ㅇㅇ 데이터병목이 심함
@ㅇㅇㅋ 통합 메모리라도 최소 모델 구동에 100기가 이상은 쓸거니까 oom은 일단 피할 수 있을거아냐
@ㅇㅇ OOM은 지금 6000 두개로도 피하지 근데 학습에선 VRAM도 중요한데 메모리 속도가 더 문제임 호환성하고… x86에 외장 글카 둬야 할만해
@ㅇㅇ 3B기준 배치키워 풀파인튜닝하면 7-80기가쯤 먹는데 이거 AGX DGX로 하면 그냥 뻑남
@ㅇㅇㅋ 둘다 hbm 아니고 쿠다 코어 기준 성능이 2배 정도 차이일텐데
@ㅇㅇ HBM 아니래도 GDDR7은 1.7TB에 ECC박혀서 훨씬 안정적임 LPDDR5에 전용메모리 아니라서 메모리에 올라는 가는데 불안정성이 큼