d라이브러리









우리가 알고 있는 지금까지의 컴퓨터는 모든 사용법을 기계에 맞춰야 했다. 그러나 앞으로 등장할 새로운 인터페이스의 컴퓨터는 기계가 사람의 음성, 표정, 제스처를 읽어내 스스로 원하는 작업을 수행한다.

통신기기회사인 퍼콤사 김 이사의 아침은 지능 침대의 감미로운 모닝콜로 시작된다. 날이 밝아 기상시간인 6시가 되면 “일어날 시간입니다”라는 음성 메시지와 함께 침대가 어깨와 허리를 주무르기 시작한다. 자리에 누운 채 “오늘 날씨는 어때?” 하고 묻자 “지금은 맑지만 오전부터 구름이 끼다가 오후 늦게부터는 비가 온답니다” 라는 대답을 듣는다.

“오늘 뉴스는 뭐야?”

“뉴스를 텔레비전으로 보시겠습니까, 아니면 라디오로 들으시겠습니까?”

“우선 들려줘”

라디오 아나운서의 목소리로 요약된 간 밤의 중요 뉴스를 다 듣고 일어난 그는 아침 샤워를 끝내고 식당으로 향한다. 예의 습관대로 “커피는?” 하고 묻는 그의 요구에 “준비 다 됐습니다” 라는 소리가 마루에서 들려온다. 신선한 향기가 담긴 커피잔을 들고 창가로 가며 “커튼 좀 열지” 라고 말하자 커튼이 양쪽으로 열린다. 곧이어 “환기 좀 시켜야 겠는데” 라는 말이 끝나자 에어컨이 켜지며 신선한 밖의 공기가 공기정화기를 거쳐 실내로 들어온다.

컴퓨터가 놓인 책상 앞으로 다가 갔다. 주인이 가까이 오는 것을 알아 채고 스스로 켜진 컴퓨터는 “오늘은 96년 9월 23일, 월요일입니다. 오늘은 오전 10시에 삼동물산 조두형 이사와 업무 약속이 있고, 점심은 고교동창인 김근수씨와 하기로 돼 있습니다. 현재 컴퓨터와 통신 시스템, 집안 가전제품과의 커뮤니케이션에는 이상 없습니다”라고 보고한다.

많은 사람들은 이같은 상황을 공상과학영화나 만화의 한부분으로 치부할지도 모른다. 그러나 현실은 훨씬 우리 가까이에 이미 다가와 있다.
 

현재 이루어지고 있는 인터페이스  연구의 상당 부분은 '장애인도 수월하게 다루는 도구의 개발'에 초점을 맞추고 있다. 사진은 GPS장치를 이용해 맹인에게 길을 안내하는 장치다.


컴맹은 무죄

1960년대 이후 세계는 소위 ‘하이테크시대’ 로 돌입했다. 이전의 과학기술에 반도체, 컴퓨터, 소프트웨어 등 새로운 개념의 테크놀러지가 더해진 것이다. 이에 따라 이전까지 인간이 손과 몸으로 직접 하던 상당 부분은 기계가 대신하게 됐다. 육체 노동에서 정신 노동으로 노동의 중심이 이동한 것도 이 즈음이다.

그러나 기계화와 자동화가 인간을 일로부터 해방시킨 것은 아니다. 오히려 새로운 기계가 속속 등장함에 따라 인간이 해야 할 일은 더 늘어났다. 기계화, 자동화가 인간의 삶을 향상시키려는 능동적인 필요에 의해 이루어지기 보다는 기계에 자신의 생활을 적응시키도록 강요당한 결과다. 우선 기계를 도입해놓고 그 기계의 기능에 맞는 일을 만드는 형식이 된 것이다. ‘필요는 발명의 어머니’ 가 아니라 ‘발명이 필요의 어머니’ 가 되는 역설적인 상황이 벌어진 것이다.

언제부터인가 우리는 새로운 제품을 구입하면 제품 사용설명서를 보며 우리 앞에 놓인 ‘괴물’ 의 정체를 이해하기 위해 진땀을 흘리고 있다. 컴퓨터도 예외는 아니다. 컴퓨터를 다룰줄 모르면 인생의 낙오자가 될 것 같은 사회 분위기가 지속되고 있지만, 여전히 많은 사람들은 기계를 충분히 활용하는데 필요한 지적 수준에 미달돼 있다. 결국 여기에 속하는 사람은 열등감이나 공포감, 피해의식에서 벗어나지 못하고 있는 것이다.

인간이 컴퓨터를 사용하기 어렵다는 것은 양자 간에 원활한 커뮤니케이션이 이루어지지 않고 있다는 것을 의미한다. 그러나 앞으로는 기계가 인간에게 적응하도록 해야만 한다. 이것이 인간과 기계 사이에 새로운 인터페이스가 필요한 이유다.

사람의 언어와 얼굴표정, 몸짓 등을 알아듣는 기계가 있어 할 일을 지시하면 이를 정확하게 수행할 뿐 아니라, 그 결과도 우리가 쉽게 알아들을 수 있는 목소리로 전달해준다면, 또 지시받은 일을 하기 위해서 기계와 기계가 서로 커뮤니케이션한다면, 인간의 생활은 지금보다 더욱 편리하고 만족스러울 것이다. 우리들이 아직도 이 가능성을 이해하지 못하고 있는 가장 큰 이유는 인간이 기계를 이해하고 그 특성에 적응해야 한다는, 과거의 시각으로 새로운 기술을 보고 있기 때문이다.
 

음성인식 연구는 모든 사람의 말을 알아듣는 '완벽한 자연어 처리'를 목표로 하고 있지만, 대부분의 기계가 개인화되고 있는 경향에 비추어 현재 기술이 도달한 '화자 종속'을 더욱 강화할 필요가 있다. 사진은 IBM에서 개발한 음성인식 컴퓨터의 실연 장면.


더 이상 컴퓨터가 아니다

인간과 컴퓨터(기계)의 관계를 어떻게 설정할 것인가 하는 문제는 컴퓨터의 등장 이래 지속돼온 중요한 연구 테마다. 인간-기계 인터페이스(Human-Machine Interface), 인간-컴퓨터 인터페이스(Human-Computer Interface) 등으로 불리는 이들 연구는 최근까지 주로 인간의 신체적 특성과 기계 사이의 관계에 치중해 있었다. 이에 따라 연구 방향도 인간공학적 접근, 즉 테이블의 높이, 의자의 높이와 폭, 디스플레이의 위치, 손잡이의 크기와 모양, 기계작동에 필요한 힘 등 기계의 사용성 향상에 초점이 맞추어져 있었다.

그러나 최근 세계 유수의 연구소들이 행하고 있는 접근 방법은 사뭇 다르다. 이들은 기계에 사람을 맞추는 것이 아니라 기계가 사람의 욕구에 맞출 것을 요구한다. 다시 말해 인간과 인간 사이의 의사소통 방법을 인간과 기계의 영역으로까지 확장시키려 하고 있는 것이다.

미국 카네기멜론대학의 ‘오즈(OZ)프로젝트’, 스탠포드대학의 ‘아르키메데스(Archimedes)프로젝트’, 그리고 MIT 미디어랩에서 추진하고 있는 ‘생각하는 사물’(Things That Think) 등으로 대표되는 새로운 인터페이스 연구는 오늘날의 개인용 컴퓨터가 ‘개인용’ 이란 이름에 걸맞는 제 역할을 못하고 있다는 현실 인식에서 출발한다.

우리의 책상 한 부분을 차지하고 있는 컴퓨터는 ‘나만의 것’ 이다. 그러나 이 기계가 ‘나를 위해’ 하는 일이라곤 매우 제한적이다. 심하게 말하자면 하루 중 책상에 앉아 있는 시간을 제외하고 컴퓨터는 나를 위해 ‘아무 일도 하지 않는다’. 물론 노트북 컴퓨터가 등장하면서 공간적 한계는 많이 극복됐다고 하지만, 여전히 작업 내용을 보기 위해서는 모니터를 켜야 하고, 자료를 입력하기 위해서 손가락으로 키보드와 마우스를 조작해야 한다.

그러나 새로운 인터페이스의 컴퓨터는 CPU와 모니터, 키보드에 얽메인 ‘컴퓨터 신화’를 깰 것을 요구한다. 연구자들에게 컴퓨터란 안경처럼 코에 걸치거나 옷처럼 입을 수 있으며, 상황에 맞추어 개인과 ‘대화’ 를 나눌 수 있는 친절한 기계다.

카네기멜론대학의 OZ 프로젝트는 인간과 상호작용하는 ‘컴퓨터 인물’ 을 개발하려는 계획이다. 이 컴퓨터 인물은 감정을 가지고 있어 사람이 부드럽게 이야기하면 밝은 표정을 짓고, 험악한 말투에는 겁먹은 표정과 함께 움츠려드는 행동을 보여준다. 또 다른 컴퓨터 인물들과 상호작용을 하며 주어진 공간 내에서 변화하기도 한다.

스탠포드대학의 아르키메데스 프로젝트는 장애인을 위한 컴퓨터의 개발에 초점을 맞추고 있다. 여기서 특히 강조되는 부분은 언어를 이용한 컴퓨터 조작이다. 목 아래 전신이 마비된 대학원생이 머리를 움직여 컴퓨터의 커서를 이동시키고, 말로 컴퓨터를 조작해 논문을 쓰고 전자우편을 보낸다. 불완전한 문장을 인식하는 기술, 눈동자 움직임을 추적해 컴퓨터의 커서를 이동시키는 기술을 이용하면 언어를 제대로 구사하지 못하는 언어장애자도 컴퓨터를 자유자재로 활용할 수 있다.

아르키메데스 프로젝트에서는 컴퓨터 사용자와 컴퓨터의 성격을 일치시켜 업무 효과와 사용만족성을 높이려는 시도도 이루어지고 있다. 사람들은 자신과 비슷한 성격의 사람과 잘 어울린다는 사회심리학적 사실을 바탕에 둔 이 연구는 개인의 성격을 공격적인 성격과 부드러운 성격 등으로 분류하고 컴퓨터도 사용자의 성격에 따라 동일하게 반응하도록 했다.

이 연구의 일부는 마이크로소프트사의 컴퓨터 운영시스템 ‘밥’(Bob)에 활용됐으나 일반인들의 관심을 끌지는 못했다. 그러나 앞으로 컴퓨터가 진정한 의미의 개인화를 이루고, 컴퓨터와 사용자 사이의 대화가 이루어진다면 연구의 결과는 중요하게 활용될 것이다.

생각하는 사물

한편 MIT 미디어랩에서는 현재 ‘생각하는 사물’(TTT)이란 이름 아래 무려 1백52개의 차세대 인터페이스 관련 연구가 진행되고 있다. 작년 10월 10일 미디어랩 창립 10주년을 기념하는 자리에서 발표된 이 프로젝트는 연간 2천5백만 달러에 이르는 예산을 사용하며 향후 10년동안 지속된다. 사람과 기계, 컴퓨터가 서로 대화하며 인간이 처리하기 어려운 모든 일을 컴퓨터가 대신하는 ‘무엇’을 만들어내는 것이 목표다.

빵굽는 토스터, 문의 손잡이, 신발 등 하루에도 몇번씩 사용하는 일상적인 사물들이 사람의 움직임이나 감정을 읽어낼 뿐만 아니라 사용자의 습관을 학습한다. 그리고 기계끼리의 커뮤니케이션을 통해 사용자의 요구에 맞춰 문제를 해결한다.

미디어랩의 TTT는 컴퓨터가 생활 전면에 드러나는 것이 아니라 우리 생활의 배경으로 자리잡는 점에서 제록스 팔로알토연구소(PARC)가 지난 84년부터 94년까지 1차 연구를 끝낸 ‘유비큐토스(ubiquitous:어디에나 있는) 컴퓨팅’과 동일한 개념이다.

이 분야 연구자들은 컴퓨터 발달사를 크게 세 시기로 구분한다. 먼저 1세대인 메인프레임 전성기에는 1대의 컴퓨터를 여러 사람이 나누어 썼다. 그리고 한사람이 1대의 컴퓨터를 사용하는 현재의 PC전성기는 2세대에 해당한다. 반면 유비큐토스 컴퓨팅으로 대표되는 3세대는 한사람을 위해 여러대의 컴퓨터가 동원된다. 목소리, 표정, 제스처 등을 포함한 인간 감각을 컴퓨터가 이해해 인간과 인간, 인간과 기계, 나아가 인간과 환경 사이의 원활한 커뮤니케이션이 실현된다.

유비큐토스 컴퓨팅의 개념은 이른바 ‘가상현실’과 비교해볼 때 쉽게 드러난다. 양자는 얼핏 매우 유사한 것처럼 보이지만, 실상 정반대의 의미를 내포하고 있다. 가상현실은 컴퓨터가 생성한 세계에 사람을 몰입시키는 반면, 유비큐토스 컴퓨팅은 사람의 일상생활이 도처에 깔린 컴퓨터와 함께 이루어지는 것이다.

혹자는 이같은 감각적·지각적 인테페이스 개념이 실현 불가능할 것으로 생각할 수도 있다. 하지만 우리 주위에 있는 대부분의 기계들은 이미 내부에 컴퓨터 칩을 내장하고 있다. 심지어 생일축하카드나 신용카드처럼 하찮은 물건에까지 컴퓨터 칩이 내장돼 있다. 앞으로 거의 모든 제품은 반도체나 컴퓨터 칩을 포함할 것이며, 이는 이들 제품이 어느 정도 지능과 커뮤니케이션 기능을 가질 수 있음을 의미한다.

낡은 인터페이스는 가라

이 첨단의 개념들은 언제쯤이나 우리에게 모습을 보일 것인가. TTT나 유비큐토스 컴퓨팅와 같은 첨단 인터페이스의 컴퓨터 환경이 현실화되기 위해서는 수많은 무선 컴퓨터기기와 사람, 사무실, 가정이 새로운 시스템에 의해 조합돼야 한다. 이를 위해서는 지금과는 또다른 개념의 운영체제, 디스플레이, 네트워크, 그리고 인터페이스가 필요하다.

하지만 어쩌면 이같은 기계적 접근은 인간에 대한 연구보다 부차적인 문제인지도 모른다. 컴퓨터가 인간의 언어와 표정, 제스처 등을 인식해 인간의 의도를 정확하게 파악하는 것이 가장 중요하기 때문이다. 이것이 해결되지 않고서는 기계끼리 정보를 교환하고 협력하도록 하는 연구는 한발짝도 나갈 수 없다.

인간이 자신의 의사를 표현하고 다른 사람의 의사나 감정을 받아 들이는데 가장 자연스럽고 편리하게 사용하는 도구는 언어다. 언어는 다른 어떤 수단보다 빠르고 정확한 정보를 교환할 수 있도록 해준다. 여기에 얼굴표정 변화나 제스처와 같은 시각정보가 덧붙여진다면 상대와의 커뮤니케이션에 어려움이 없을 것이다.

그러나 인간은 기계와의 커뮤니케이션에 오랫동안 손이나 발과 같은 신체만을 이용해 왔다. 느리고 부정확하며, 쉽게 피로해져 능률과 신뢰성 측면에서 낮은 수준인 신체적 인터페이스에만 집착한 것이다.

현재 전세계에서는 기계가 사람의 말을 알아듣도록 하는 음성인식 연구가 경쟁적으로 수행되고 있다. 이들 대부분은 사람이 자연스럽게 하는 말을 누구나 알아 듣는 이른바 ‘완벽한 자연어처리’를 목표로 삼고 있다. 하지만 이 목표는 앞으로도 짧은 기간내에 달성하기 어렵다는 것이 연구자들의 중론이다.

원래 음성인식기술은 미국 공군에서 본격적으로 연구되기 시작한 분야다. 복잡한 계기판이 나열된 전투기 조종석에서 손과 발만으로는 많은 장치들을 충분히 조작할 수 없어 새로운 기계조작 방법을 추가하기 위한 방편이었다. 언어를 이용한 기계의 조작은 빠르고 정확하며 다양한 명령을 수행할 수 있다는데 있다. 그러나 이와 함께 주변의 소음에 영향을 받을 수 있으며, 일상적인 언어와 기계조작 명령을 혼동해 실수를 유발할 가능성도 함께 존재한다.
 

물건을 담기만 하면 알아서 계산되는 슈퍼마켓 수레. 우리가 매일 사용하는 모든 도구는 상당부분 지능을 갖출 것으로 전망된다.


‘자가용’이 아니라 ‘자기용’

최근에 목격되는 경향 중 하나는 새로 등장하는 각종 커뮤니케이션 도구들이 모두 개인화되고 있다는 점이다. 즉 가족, 사무실 동료 모두가 함께 이용하던 ‘자가용’, ‘사무실 공용’ 시기를 벗어나 이제 ‘자기용’으로 전환되고 있다.

이같은 변화는 첨단 기술의 새로운 활로를 제시한다. 음성인식기술이 활용될 분야는 개인화된 것들이다. 컴퓨터가 말을 알아들어야 하는 대상은 그들의 주인 한 사람이거나 주변의 몇몇 사람에 한정될 것이다. 일반인 모두의 다른 말투나 사투리까지 인식할 필요는 없다. 개인이 업무와 관련해 컴퓨터와 나누는 대화는 한정된 수의 단어 내에서 이루어진다. 따라서 몇만 단어 수준의 언어를 인식하는 컴퓨터가 개발될 때까지 기다린다는 것은 의미없는 일이다.

기계나 컴퓨터와의 대화를 통한 생활의 편리성 추구와 인간중심의 생활영위는 멀리 있지 않다. 중요한 것은 기계나 컴퓨터 등 우리들이 사용하는 각종 커뮤니케이션 수단을 친근하게 사용하겠다는 의지, 그리고 이의 실현을 위한 제품개발 요구다.

옷처럼 편안하고 언제나 함께 하는 「입는 컴퓨터」

내가 가는 어디라도 갖고 다니면서 언제라도 편안하게 컴퓨터를 사용할 수 있는 방법은 무엇일까. 노트북이 등장하면서 붙박이 데스크톱 컴퓨터에 상당한 휴대성이 가미되긴 했지만, 여전히 노트북은 들고 다녀야 하는 불편함이 있다.

두 손의 자유가 보장되면서도 가장 편안하게 물건을 휴대하는 방법은 옷처럼 입는 것이다. 몸에 걸친 옷은 항상 사람과 함께 움직이며, 입은 옷을 귀찮다고 여기는 사람은 없기 때문이다. 이같은 희망을 현실화 시키기 위한 개념이 바로 MIT 미디어랩을 중심으로 구체화되고 있는 '입는 컴퓨터'(wearable computer)다.

입는 컴퓨터는 입력장치와 출력장치, 그리고 연산장치가 모두 몸에 달라 붙어는 개인용 컴퓨터다. 물론 이들 장치는 기존의 키보드나 모니터, 커다란 덩치의 본체와는 판이한 모습이다. 입력과 출력의 상당부분이 음성인식장치를 통해 이루어지며, 눈으로 보기만해도 컴퓨터에 입력되는 꿈같은 일이 현실화된다. 여기에 무선 통신 네트워크 기능이 추가됨으로써 완벽한 컴퓨팅 환경을 갖추는 것이다. 이들의 전원은 배터리 벨트에 의해 공급된다.

현재 이 컴퓨터가 가장 활발하게 활용될 것으로 보이는 부분은 바로 군사 분야다. 최근의 전쟁 양상은 전자전이다. 컴퓨터가 전쟁을 대신하고 있다. 그러나 총을 비롯한 개인화기 외에도 탄창, 배낭, 헬멧 등 가뜩이나 짐이 많은 군인들이 또 한손에 노트북을 들고 전장으로 나갈 수는 없는 노릇, 여기에 컴퓨터를 입을 수 있다면 사정은 엄청나게 달라진다.

한편 이같은 접근과 전혀 개념이 다른 입는 컴퓨터도 시도되고 있다. 인공지능의 아버지로 불리는 이 마빈 민스키 박사는 지능 옷(smart clothes)이라 불리는 또 다른 방향의 입는 컴퓨터를 연구하고 있다. 앞의 것이 입는 '컴퓨터' 라면 이는 '입는' 컴퓨터다.

'입는'컴퓨터는 그 자체가 컴퓨터이자 옷이다. 옷이 가진 일반적인 기능, 즉 온도를 비롯한 외부의 환경으로부터 신체를 보호해주고, 멋있게 보이는 패션조화를 컴퓨터가 알아서 해준다. 미디어랩에서 선보인 지능 옷의 프로토타입은 온도 센서를 옷에 꿰매어 달아 작동하는 선에 머물고 있지만, 앞으로는 상황에 맞추어 의복을 코디네이션하는 장치의 개발에 더 힘을 쏟을 예정이다. 바야흐로 컴퓨터와 일상 생활 용품의 구별이 쉽지 않은 세상이 다가오고 있는 것이다.
 

1996년 10월 과학동아 정보

  • 이구형 수석연구원

🎓️ 진로 추천

  • 컴퓨터공학
  • 정보·통신공학
  • 소프트웨어공학
이 기사를 읽은 분이 본
다른 인기기사는?