Rewind I/O #1: 젤리빈, 그리고 검색의 미래

구글 I/O가 끝나갑니다. 일반인들의 관심이 높은 키노트는 벌써 두 차례 모두 지나갔죠. 저도 이제 짐을 쌀 시간입니다. 기사도 열심히 쓴다고 썼지만, 보고 듣고 배운 건 많은데 써놓은 내용은 턱없이 적었습니다. 지면 제약으로 못 다 적은 얘기들을 하나씩 나눠서 적어볼 생각입니다.
첫번째는 젤리빈입니다. 구글에서는 안드로이드 개발자들에게 직접 써보고 느끼면서 제대로 앱을 만들어보라는 취지로 참가자 모두에게 갤럭시넥서스 스마트폰과 넥서스7 태블릿, 넥서스Q 미디어허브를 모두 제공했죠. 그래서 저도 덕분에 폰과 태블릿에서 이틀 동안 열심히 젤리빈을 써봤습니다. 버전 번호로는 겨우 4.0에서 4.1로 업데이트됐을 뿐이지만, 체감하는 느낌은 이보다 훨씬 더 개선됐습니다. 기본적인 아이스크림샌드위치의 구조는 거의 손대지 않은채 사용자 편의성 부분만 대폭 개선한 덕분일 겁니다.

갤럭시넥서스가 처음 나왔을 때, 안드로이드폰의 고질적인 문제였던 카메라 기능이 대폭 개선됐다는 점에서 많은 분들이 높게 평가하셨죠. 셔터랙도 거의 없고, 잠금 화면에서 바로 카메라로 빠르게 접근 가능하다는 점이 유용했습니다. 물론 구글의 클라우드 저장공간에(구글플러스의 사진 앨범에) 찍은 사진들이 바로바로 올라가 저장된다는 점도 장점이었습니다. 애플의 사진스트림 기능처럼 1000장 제한 등이 있는 게 아니라, 저장공간 용량이 허락하는 한 사진은 계속 올라가 저장되는 것도 특징이었죠. 이번에는 키노트에서 밝힌 대로 사진 촬영 뒤의 확인 기능이 대폭 개선됐습니다. 촬영을 하다가 스크린을 좌우로 밀면 바로 촬영된 영상 확인이 가능하죠. 잠깐, 이거 어디서 많이 본 기능입니다. 아이폰의 카메라 촬영과 리뷰가 딱 이런 식으로 작동하거든요. 애플이 곧 구글에 디자인 침해 소송이라도 걸지 모를 일입니다. 알림 기능도 개선되어 알림에 뜬 내용을 탭하면 바로 다음 작업으로 넘어갑니다. 이 또한 iOS에서 진작에 되던 기능입니다. 하지만 애플도 이런 식으로 iOS5부터 안드로이드의 기능을 잔뜩 베껴오기 시작했죠. 위에서 아래로 쓸어내리는 제스처가 알림 화면을 보여주는 것 자체가 안드로이드에서 먼저 시작한 것이니까요. 서로가 서로를 베끼는 세상입니다. 이러면서 특허전쟁을 벌이는 걸 보면 거참…

하지만 젤리빈의 압권은 역시 ‘구글 나우’입니다. 딱 이틀, 그것도 영어로 썼을 뿐인데 정말 엄청나게 편리하더군요. 오른 쪽에 ‘열기’, 왼쪽에 ‘카메라’가 있던 기존의 잠금화면 동그라미가 젤리빈부터는 위쪽으로 ‘구글’ 로고가 하나 더 생긴 모양으로 바뀌었습니다. 잠긴 스마트폰을 위로 밀어 열 때마다 바로 구글 검색창이 나오는 방식입니다. 그리고 그렇게 자동으로 열리는 검색결과는 내가 입력한 내용에 대한 결과가 아닙니다. 구글 나우가 알아서 ‘내게 필요한 정보’를 판단해 검색해 놓은 결과가 담겨 있습니다. 기가 막히는 기능입니다. 제 경우를 보면, 구글 I/O 세션 가운데 듣고 싶은 세션을 캘린더에 저장해 놓았을 뿐이었는데도 스마트폰을 열었더니 바로 다음 일정 안내가 나오더군요. 아무 일도 없이 아침에 일어나 스마트폰을 열었을 땐 오늘의 날씨가 나왔습니다. 한 번은 조금 떨어진 곳으로 이동하려고 장소를 지도에서 검색하다가 잠시 다른 일이 생겨 지도 검색을 잊고서 다른 일을 했던 적이 있었습니다. 그 때 스마트폰을 무심코 집어들었더니 내가 직전에 찾아보던 장소까지 가는 길 가운데 막히지 않고 이동하는 경로를 찾아놓았던 겁니다. 구글 I/O앱을 쓰기 위해 임시로 갤럭시 넥서스를 쓰다가 다시 아이폰으로 돌아오려니까 가장 아쉬웠던 게 바로 이 구글 나우 기능입니다.

구글 나우에는 구글이 미국에서만 우선적으로 선보였던 ‘지식그래프'(Knowledge Graph) 검색 기능이 사용됐습니다. 전날 벤 곰즈 부사장과 인터뷰할 때 지식그래프는 모바일의 작은 화면에서 어떻게 사용하느냐 물어본 일이 있었습니다. 벤은 시침을 뚝떼고 아이폰 화면을 보여주면서 “어찌어찌 볼만하다”고 설명하더군요. 그런데 이날 왜 그랬는지 이유가 발표됐습니다. 모바일에선 데스크톱 형태를 줄여놓은 형태로 지식그래프 검색결과를 보여주는 대신, 카드 형태로 보여주는 형태를 디자인했던 겁니다. 알고리듬이 자동으로 찾아낸 정보이면서도 마치 사람이 손으로 답을 골라준 것처럼 보이게 말이죠. 여기에 음성검색을 결합시키니까 애플의 시리(Siri)와 비슷한 느낌입니다. 예를 들어 “누가 한국 대통령이지?”라고 물으면 이명박 대통령 사진이 담긴 카드를 보여줍니다.

구글 나우는 지식 그래프와 스마트폰의 정보, 새로운 디자인 등을 통합한 독창적인 모바일 검색입니다. 스마트폰은 기본적으로 내가 지금 어디 있는지를 늘 파악하고 있습니다. 안드로이드폰은 여기에 더해 사용자의 구글 계정과 구글이 통합 수집한 개인정보까지 이용할 수 있죠. 그러면 안드로이드폰은 나의 취향과 일반적인 이동경로 등을 다 파악하게 됩니다. 이외에도 지금이 몇시인지, 오늘 뉴스가 무엇인지, 주가는 어떻게 변하고 있으며 스포츠 중계는 어떻게 끝나는지 등이 함께 파악됩니다. 인터넷과 연결돼 있으니 사람이 신경쓸 필요 없이 기계가 미리 이런 정보들을 받아두면 되거든요. 구글 나우는 이 모든 정보를 활용해 개인별 맞춤형 정보를 알려줍니다. 집에 가는 길에 평소 퇴근길 길이 막히면 우회로를 알려준다거나, 낯선 길을 걷고 있으면 인근에 새로 가볼 만한 곳을 알려주는 식입니다.

환상적인 기능이긴 한데, 이거 약간 섬찟합니다. 기계가 나를 너무 잘 알고 있으니까요. 어찌 보면 우리 가족들보다도 핸드폰이 나를 더 잘 파악하게 되는 게 아닌가 싶기도 합니다. 왜, 일 중독인 사람들이 가족보다 비서와 훨씬 더 많은 삶을 공유하는 것처럼 말입니다. 어쨌든 구글 검색의 궁극적 목표는 검색이 필요없는 검색이라고 합니다. 과거에 이런 식의 검색에 대한 내용을 이 블로그에서 약간 다룬 적도 있습니다. 앰비언트 파인더빌리티(Ambient Findability)에 관한 얘기였습니다. 번역하자면’ 어디에나 존재하는 발견가능성’ 정도가 될까요? 아직도 적절한 한국어 번역을 못 찾겠습니다. 내용을 보자면, 미래의 인터넷은 우리가 무언가를 능동적으로 ‘찾아내는’ 방식으로 움직이는 대신 우리가 무언가를 ‘발견’할 수 있도록 도와주는 검색을 해준다는 얘기입니다. 그러니까 그냥 숨만 쉬어도 정보가 알아서 주위에서 발견되는 앰비언트 파인더빌리티의 미래가 다가오고 있다는 것이죠. 3년 전 이 시리즈를 연재할 때만 해도(그 땐 아이폰도 들어오기 전이었습니다.) 제가 이런 얘길 하면 무슨 허무맹랑한 소리처럼 들으시는 분들이 많았습니다. 하지만 3년 만에 구글은 공상과학을 현실로 만들어내기 시작했습니다. 진짜 대단한 회사입니다.

산업적인 의미도 큽니다. 휴고 바라 안드로이드총괄 이사는 구글 나우가 자동차와 결합하면 차가 얼마나 똑똑하게 진화할는지 기대하라고 얘기했습니다. 애플은 이미 주요 자동차 업체들과 손잡고 시리를 이용한 초기 단계의 스마트카 사업에 한 발을 담그고 있습니다. ‘Eyes Free’라는 이름으로. 구글도 당연히 이 수순으로 가게 될 겁니다. 구글이 검색 사업을 하면서 애플에게 밀린다? 구글 입장에서는 상상도 할 수 없는 일일 겁니다. 젤리빈은 그런 측면에서 구글이 얼마나 대단한 회사인지를 증명하는 서비스였습니다.

참, 또 한 가지. 구글의 푸시 서버 서비스인 C2DM도 함께 소개됐습니다. 메신저 업체들에게 맘껏 이용하라는 얘기죠. 애플은 벌써 몇년전부터 안정적으로 제공하던 기능인데, 이제야 본격적으로 무제한 서비스를 시작한다니 좀 늦었다는 생각입니다. 인프라는 세계 최고인 구글이 왜이리 늦었을까요. 아무래도 푸시에 대한 고민이 처음에 그리 깊지 않았으리라는 생각이 듭니다. 어쨌든 이제 카카오 같은 회사는 신났군요. 통신사 통하지 않고도 큰소리 치면서 메신저 사업을 벌일 수 있는 기반이 생긴 셈입니다.

Advertisements

“Rewind I/O #1: 젤리빈, 그리고 검색의 미래”에 대한 1개의 생각

댓글은 닫혔습니다.