딱 2000년대 초반까지 물리엔진의 전성기 였다.
CPU 선폭이 마이크로대에서 나노급으로 내려가고
선폭이 10배 줄어들면 성능은 넓이에 비례해서 100배 가까이 증가하고
정말 즐겁지 않겠냐?
286, 386 나올땐 막대기가 땅에 떨어지는것도 가장자리 부근은 물리계산이 힘들었는데
저 시절은 물리엔진 개발자도, 게임 개발자도, 게임 유저도 모두 행복하던 순간이었지.
하지만 선폭이 10나노 이하에서는 전자가 옆선으로 점핑하는 문제가 발견되고
이제 선폭만 줄인다고 성능이 올라가던 시절은 막을 내리지.
선폭 못 줄이면 멀티코어로 가서 3D로 설계하면 되지 않느냐고 하지만
이건 또 나름대로 발열을 못 잡아서 \'망\'이다.
지금까지 그래왔듯이 앞으로 어떤 새로운 개념의 CPU 설계법이 나오기 전까진
성능 향상은 더이상 힘들다는 거지.
양자식 CPU 같은것들이 물망에 오르고 있는데 우리같은 타전공자들은 일단 지켜보면 될 듯 하다.
어쨋든 그래서 요즘의 물리엔진들은 통계적인 빅데이터로 흘러가고 있다.
축구게임의 경우 발로차면 어디로 날아갈지의 계산은
축구화와 공의 충돌 단면에 따라 계산해야 하지만
더 빠른 계산을 위해 그냥 확률적으로 따져서 확률에 맞게 날아가게 만드는거지.
이렇게 하면 1초에 수십만에서 수백만개의 CPU-TIME을 줄일 수 있다.
우스운 이야기지만 이런짓을 물리학과 출신들이 게임회사에 취직해서 지금도 하고 있다.
우리같은 이론학자들은 절대 타협하지 못할 이야기지만
응용학자들에겐 CPU 성능 정체기 시대에 어쩔수 없는 효과적인 대안일 듯 싶다.
바둑의 알파고도 바둑의 알고리즘보다 승리한 데이터를 바탕으로 한 통계에 기반하듯이
앞으로의 물리엔진도 당분간은 계산 알고리즘보다는 응용통계를 기반으로 하지 않을까 싶다.
물론 응용통계도 우스운 학문은 아니지만 기초과학자에겐 상종못할 사기꾼인 것 같은 냄세는 지울 수 없네.
결론적으로 정확하진 않다는 얘기네요....
재밌게 읽었음
ㄴ 뭐 그렇지. 완벽하게 정확하지 않다는 건데 그래도 꽤나 정확하다고 생각하면 될꺼야. 계산상으로 완전하지 않을 뿐이지.
좋은 글 잘 읽었음. 근데 딴지 하나 걸자면 1초에 수십~수백만의 CPU TIME을 줄인다고 했는데, 최소 억단위 클럭 아님? CPU 클럭이 얼만데 수십~수백만 클럭은 티도 안남
그런데는 공학자들이 더 어울릴지도 모르겟습니다
ㄴ 글쎄...억단위 차이가 날수도 있겠다. 어셈블리로 코드 짜서 돌려보면 알 수 있겠네. 두개의 sphere에서 접촉되어 있는 position과 velocity vector를 주고 collision 계산하고 random number 이용한 값을 주고 계산시간 차이 구해보면 되겠네.
컴공 애들은 저런것도 계산 잘 못해. 기하적분 같은걸 잘해야하는데 물리학과나 수학과 나온 애들이 계산 가능하지.
아인슈타인이 신은 주사위놀이를 하지 않는다고 광분한게 이해는 가지만....결국 정답은 통계인 것 같아서 나도 씁쓸하긴 하다.
그래서 알파고도 순 반칙이라는 것임. 마치 수만명의 전문가가 기보 빅데이터를 가지고 승률높은 수를 상의해서 두는 것과 같음. 약간의 계산이야 하겠지만 네트웍 끊기면 아마 단 보다도 못할 수준일 것임.
알못들 지린다 퍄
배필의 프로스트바이트 3 미만 잡