영화 ‘마이너리티 리포트’와 ‘아바타’에서는 차세대 컴퓨팅을 엿볼 수 있는 장치가 등장합니다. 손으로 휙휙 휘저으면 사진이나 영상 등이 이리 저리 움직이며 심지어는 다른 디바이스로 이동도 아주 쉽게 되는 장면을 목격하셨을겁니다. 사실 그러한 영상은 꽤 오래전부터 실제 여러 유수의 Lab에서 구현을 시도하고 있었고, 다양한 형태의 O/S 또는 Interface등으로 구현이 되어 왔습니다. 물론 아직 상업적으로 판매가 되지는 않기는 하지만, 이러한 변화는 분명 21세기에 살고 있는 우리가 즐기기에 충분한 시각적인 즐거움이자 근거리의 미래에 대한 기대감을 불러일으킵니다.
다양한 컴퓨팅 기술의 발전은 점점 더 사용자로 하여금 Interface, 또는 O/S라는 거추장스러운 이름을 달지 않더라도 ‘선택하고, 넘기고, 보고, 닫고, 분류하고, 저장하고, 이동시키고 다시 선택하고…’ 등 마우스와 키보드가 수행해 주었던 일련의 행동들을 그대로 디바이스들과 연계할 수 있게 도와주겠지요?
아래의 영상은 TED in 2010에서 진행되었던 영상입니다. 사실 이 팀은 몇 년전에 시제품(?)이었던 ‘g-speak’으로 이미 유튜브에서 인기를 끌었었는데요. 그 영상과도 함께 비교해서 보시면 사뭇 달라진 Interface를 느끼실 수 있으실겁니다.
이런 영상도 있습니다. ‘MIT Students Turn Internet into a Sixth Human Sense’라는 영상으로 유명한데, 증강현실(AR)을 구현하기도 합니다. 이 모든 디바이스는 사실 어깨에 메고 있는 장비와 손가락에 붙어있는 몇가지 센서를 통해서 통신을 합니다. 물론 인터넷과의 연결은 당연하겠지요. 중간에 사람을 비추면 그 사람의 정보가 태그클라우드 처럼 나오는 씬이 있는데 이건 좀 싫은데요? ㅎ
Jeff Han이 소속되어 있는 ‘Perceptive Pixel’사에서 2007년 진행했던 ‘Multi-Touch Interaction Research’영상도 있습니다. 마지막으로, MS Surface를 기반으로 한 게임도 있습니다. 요거 나오면 PC방의 퀄리티가 높아질 것 같은 기대감이 증폭됩니다. ^^
우리가 늘 이야기했던 미래는 정말 미래가 아닐지도 모르겠습니다. 아직 자동차가 날지는 않지만, SF영화에서 나오던 컴퓨터와 네트워크 그리고 디바이스간의 경계가 사용자는 알기 힘든 저 구름속으로 들어가버리고 언제든지 네트워크에 접속해서 수 많은 정보들을 즉시 얻고 소비하는 그런 시대가 바로 코앞에 온 것 같죠?