몸의 움직임을 활용한 입체 음향
2009년에 한국 HCI 학회에서 이정모 교수님의 체화된 인지 발표를 듣고 떠오른 내용을 정리했다.
게임기 Wii의 컨트롤러인 Wiimote에 싸구려 모노 스피커가 달려 있는 것을 보고 크게 감탄한 적이 있다. 보통 입체 음향을 구현하기 위한 솔루션으로 다채널(5.1 혹은 7.1 등) 스피커를 방안에 둘러치는 사치스러운 방법 혹은 더미헤드 기법 등으로 음향을 녹음한 뒤 이어폰으로 재생하는 번거로운 방법 등이 활용되어 왔는데, Wii는 이걸 아주 놀랍고 획기적인 방법으로 구현하고 있다.
손에 쥔 컨트롤러에서 소리가 나오게 하는 것이다.
예를 들어 컨트롤러를 휘둘러서 야구공을 맞추면 컨트롤러에서 “깡” 소리가 난다. Gestural interface의 특성상, 소리가 날 당시에 컨트롤러는 정확히 소리가 발생되어야 하는 공간상 지점에 위치하게 되기 때문에 아주 자연스럽게 그리고 저비용으로 3D 입체 음향이 구현되는 것이다.
이러한 발상의 전환은 아마도 누군가의 천재적 영감에 의존한 바가 크지 않을까 싶다. 체화된 인지 관점이 확립되고 이에 기반한 “체화된 인지공학” 같은 것이 발달하게 된다면, 이러한 인터페이스를 개발하는 일에 있어서 천재적 영감에 대한 의존도를 약간이나마 낮출 수 있게 되지 않을까 하는 생각을 해보았다.