viewimageM.php?id=physicalscience&no=29bcc427b38577a16fb3dab004c86b6fb8c469a51a456a5482032ff76e1fc8a618283ff5d10491d20aca37643182b749e87bd518222989025f49bb4a8cf514713d42ff532f4e11cb8a31633edf6c

딱 2000년대 초반까지 물리엔진의 전성기 였다.

CPU 선폭이 마이크로대에서 나노급으로 내려가고

선폭이 10배 줄어들면 성능은 넓이에 비례해서 100배 가까이 증가하고

정말 즐겁지 않겠냐?

286, 386 나올땐 막대기가 땅에 떨어지는것도 가장자리 부근은 물리계산이 힘들었는데

저 시절은 물리엔진 개발자도, 게임 개발자도, 게임 유저도 모두 행복하던 순간이었지.

하지만 선폭이 10나노 이하에서는 전자가 옆선으로 점핑하는 문제가 발견되고

이제 선폭만 줄인다고 성능이 올라가던 시절은 막을 내리지.

선폭 못 줄이면 멀티코어로 가서 3D로 설계하면 되지 않느냐고 하지만

이건 또 나름대로 발열을 못 잡아서 \'망\'이다.

지금까지 그래왔듯이 앞으로 어떤 새로운 개념의 CPU 설계법이 나오기 전까진


성능 향상은 더이상 힘들다는 거지.

양자식 CPU 같은것들이 물망에 오르고 있는데 우리같은 타전공자들은 일단 지켜보면 될 듯 하다.

어쨋든 그래서 요즘의 물리엔진들은 통계적인 빅데이터로 흘러가고 있다.

축구게임의 경우 발로차면 어디로 날아갈지의 계산은

축구화와 공의 충돌 단면에 따라 계산해야 하지만

더 빠른 계산을 위해 그냥 확률적으로 따져서 확률에 맞게 날아가게 만드는거지.

이렇게 하면 1초에 수십만에서 수백만개의 CPU-TIME을 줄일 수 있다.

우스운 이야기지만 이런짓을 물리학과 출신들이 게임회사에 취직해서 지금도 하고 있다.

우리같은 이론학자들은 절대 타협하지 못할 이야기지만

응용학자들에겐 CPU 성능 정체기 시대에 어쩔수 없는 효과적인 대안일 듯 싶다.

바둑의 알파고도 바둑의 알고리즘보다 승리한 데이터를 바탕으로 한 통계에 기반하듯이

앞으로의 물리엔진도 당분간은 계산 알고리즘보다는 응용통계를 기반으로 하지 않을까 싶다.

물론 응용통계도 우스운 학문은 아니지만 기초과학자에겐 상종못할 사기꾼인 것 같은 냄세는 지울 수 없네.