0eb1d936e7dd39b46aff84e544826a7d33f7b4bb3d84f1834fdf00224287aa9fe1afd2555a6fe8e0ce519be30d0c0c8c2b


0eb1d936e7dd39b46aff84e544826a7d33f7b4bb3d84f1834fdf00224287aa9fe1afd2555a6fe8e0ce519be30b0f0c809c




0eb1d936e7dd39b46aff84e544826a7d33f7b4bb3d84f1834fdf00224287aa9fe1afd2555a6fe8e0ce519be30f090c819c38


단순한 INT 8비트, 4비트짜리 정수계산만 가능한 퀄컴 스냅드래곤, 구글 텐서, 삼성 엑시노스랑 다르게


모바일에서 유일하게 무려 FP16비트 부동소수점 가속이 되는 NPU인데다가





0eb1d936e7dd39b46aff84e544826a7d33f7b4bb3d84f1834fdf00224287aa9fe1afd2555a6fe8e0ce519be3090b0a8cb3

성능 프로파일링 도구도 굉장히 정교하게 잘 만들어져서 fine-tuning 하기에도 매우 알맞음




0eb1d936e7dd39b46aff84e544826a7d33f7b4bb3d84f1834fdf00224287aa9ca5f5c51c7eb5aee0414b6626362a10ff01

범용성도 떨어지는 안드 진영 NPU 가속기랑 달리


애플 뉴럴엔진은 FP16 신경망도 CoreML로 컨버팅만 해주면 그대로 처리가 가능하기 때문에 범용성도 훨씬 높고 정확도도 뛰어남



지금 모바일에서 AI 기술력으로 가장 앞서나가는건 애플임




a04424ad2c06782cb66f5d74eb91766d237c5613bcf24487b21a49b9391a35ace1f85c076f38246da88a9e33742c312e6f628915750f4bf8


심지어 한 AI 연구자는 아이폰에서 이미 ChatGPT 컴팩트 버전인 LLaMA를 아이폰 자체 성능으로 로컬로 돌리기까지 했음

폰에서 저런걸 저 속도로 돌리는거 보고 다들 감탄함 


정작 AI 연구자들은 애플 기술력 뛰어난거 아는데 아무것도 모르는 문외한들이 오히려 무시하는 상황이 너무 웃김 ㅋㅋ