극장에 들어섰을때 처음에는 눈앞이 캄캄하지만 곧 주변이 보이기 시작한다.붉은 노을이 물든 황혼 무렵 푸른 소나무의 고유한 색상을 식별한다.현재 컴퓨터가 흉내내지 못하는 사람 눈의 특성이다.인간의 시각을 닮은 기계를 만들 수 있을까.
산업혁명과 컴퓨터혁명에 이은 제3의 혁명, 즉 인공두뇌 혁명이 다가오고 있다. 이는 다른 어떤 혁명보다 인류 사회를 더욱 크게 바꿀 것으로 인식된다. 인공두뇌를 장착한 지능시스템의 지원으로 윤택하게 사는 인류! 이것이 뇌연구자가 보는 21세기의 인류 사회이다.
그런데 여기서 ‘인공’의 의미를 확실히 파악할 필요가 있다. 사실 ‘인공’이라는 말은 분야에 따라 매우 다르게 사용된다. 의학에서 사용되는 ‘인공장기’는 손상된 장기 대신 이식수술을 할 수 있는, 인간이 만든 장기를 의미한다. 하지만 ‘인공지능’에서의 ‘인공’은 인간이 만든 지능이라는 의미일 뿐 이식수술을 통해 인간의 지능을 대체한다는 의미가 아니다. 따라서 인공두뇌는 예를 들어 뇌사 판정을 받은 사람의 뇌를 대체할 수 있는 것이 아니다. 단지 ‘인간의 두뇌 기능을 수행하는 인공시스템’을 의미한다.
특수 환경에서는 인간보다 월등
그렇다면 인간의 뇌기능이란 무엇을 의미할까. 한마디로 외부로부터 시각과 청각을 중심으로 정보를 받아, 스스로 생각하고 행동하는 기능으로 정의할 수 있다. 즉 시각, 청각, 인지·추론, 그리고 행동의 4가지 기능이다. 이는 공자님의 “예의가 아니면 보지 말고, 듣지 말고, 말하지 말고, 행동하지 말라”는 말씀과 일치한다. 여기서 ‘말’은 단순한 음파를 의미하는 것이 아니라, 사람이 생각한 결과가 밖으로 표현되는 것으로 볼 수 있기 때문에 ‘말’에 해당하는 뇌기능을 ‘인지·추론’으로 파악하는 것이 적절하다. 이 가운데 우선 시각을 인공적으로 실현시키는 기술을 살펴보자.
인간은 감각기관을 통해 주위를 인식하고 생존에 필요한 정보를 획득한다. 이러한 감각기능 중에서 가장 중요한 역할을 하는 것은 단연 시각이다. 시각은 청각, 촉각 등의 다른 감각기능과 비교할 때 인간에게 가장 직접적이고 종합적인 정보를 제공한다. 따라서 생명이 진화하는 과정에서 시각은 고등동물일수록 더욱 중요한 역할을 담당해 왔다.
1960년대 초기 인공지능을 연구한 과학자들은 인공시각을 아주 쉽게 구현할 수 있을 것으로 믿었다. 인공지능분야의 대부인 MIT 인공지능연구소의 마빈 민스키 교수가 학생들에게 불과 한학기 동안 시각을 인공적으로 구현하는 과제를 내준 것은 잘 알려진 일화다. 하지만 이후 40년이 지난 현재에도 인간의 시각과 비교할만한 인공시각기술은 존재하지 않는다. 물론 앞으로도 많은 시간과 노력이 필요할 것으로 예상된다.
현재 인공시각에 대한 연구는 어느 정도 수준에 와있을까. 흥미롭게도 ‘제한된’ 상황에서 인간보다 우수한 능력을 발휘하는 경우가 존재한다. 예를 들어 컴퓨터 기판이나 반도체칩을 검사할 때 수만개의 부품들이 제대로 부착됐는지 여부를 인간보다 빠르고 정확하게 그리고 지속적으로 알아낼 수 있다. 또 과속감시카메라는 과속차량의 번호판을 인식해 자동으로 고지서를 발급해주고 있다. 인간의 얼굴, 지문, 망막 패턴 등을 인식해 보안용으로 사용하는 생체인식기술도 최근 국내외에서 상당히 많이 실용화되고 있다. 또한 인공시각기술은 초기부터 군사적인 목적으로 많이 연구돼 현재 각종 무인병기와 정찰용 병기의 핵심기술로 사용되고 있다.
그러나 이런 사례들은 매우 특수한 목적으로 이용되는 시각기능일 뿐이다. 아직까지 인간의 시각처럼 다양한 환경에서 물체를 인식·추적하고 3차원 환경을 제대로 이해할 수 있는 ‘범용인공시각시스템’은 존재하지 않는다. 인간 시각의 원리를 이해하고 이를 기반으로 인간다운 시각시스템을 만들 수는 없을까? 그 가능성을 점쳐보기 위해 지금까지 알려진 인간 시각의 특성은 어떤 것이 있으며, 이를 반영한 인공시각 연구 결과에 대해 살펴보자.
조명 달라도 정확히 색상 구분
인간의 시각기능에는 조명의 밝기와 색상 변화에도 불구하고 물체의 밝기와 색을 정확하게 인지할 수 있는 두가지 능력, 즉 ‘밝기 적응성’과 ‘색상 항상성’이 있다. 어두운 극장에 막 들어갔을 때 눈앞이 캄캄하지만 조금 시간이 지나면 주변이 보이기 시작하는 현상이 밝기 적응성이다. 또 색상 항상성은 이를테면 아침의 푸르스름한 조명이나 황혼의 붉은 조명 아래서도 원래 물체 고유의 색상을 되살려주는 기능이다.
최근 이러한 기능의 원리가 부분적으로 밝혀지면서 인간과 유사한 밝기 적응성과 색상 항상성을 컴퓨터로 구현할 수 있게 됐다. 예를 들어 어두운 지하주차장 내부에서 외부와 연결된 출구를 관찰하는 경우 기존의 인공시각시스템에 비쳐진 영상은 온통 검은 환경에 밝은 출구뿐이다(그림 1). 이 영상에 밝기 적응성 기능을 적용하면 마치 인간의 시각과 같이 주차장 내부의 윤곽이 환하게 드러난다. 주변이 지나치게 환하거나 어둡거나 간에 사물의 윤곽과 모양이 선명히 나타나는 것이다.
색상 항상성이 적용된 사례를 살펴보자. 과일바구니를 붉은색, 흰색, 그리고 파란색 조명 아래에 놓으면 각 경우 기존의 인공시각시스템은 과일색을 다르게 인식한다(그림 2). 하지만 색상 항상성 기능을 적용시키면 마치 인간이 인식하는 것처럼 원래의 색을 제대로 복원해낸다.
몸짓도 채점하는 DDR
눈의 망막에서부터 대뇌의 시각피질 사이에 이르는 초기 시각처리 과정은 어느 정도 원리가 알려져 있다. 그래서 이를 활용해 실제 생물학적 구조와 유사한 집적회로를 만들 수 있다. 이 집적회로를 인공망막칩이라 부른다.
지금까지 세계의 많은 대학과 회사에서 인공망막칩 개발을 시도해 왔다. 현재 인공망막칩은 영상의 존재를 감지할 수 있을 뿐 아니라, 밝기 적응, 움직임 검출, 그리고 간단한 사물 윤곽 인식을 수행할 수 있다.
앞으로 인공망막칩은 컴퓨터, 가전제품, 감시카메라, 게임기 등에 부착돼 눈으로 사람이나 사물을 보고 능동적으로 반응하는 제품으로 개발될 전망이다.
예를 들어 인공망막칩을 게임기에 장착하면 사용자는 기존의 손동작에서 벗어나 몸동작 전체를 통해 게임 캐릭터를 조종할 수 있을 것이다. 또 현재의 DDR 게임기는 발의 움직임만을 인식해 점수를 매기고 있지만, 앞으로 인공망막칩이 적용되면 전신의 춤동작이 제대로 이뤄지고 있는지가 종합적으로 평가될 것이다. 소파에 앉아 주방의 가전제품을 손짓으로 켜거나 끌 수도 있다. 또 감시카메라의 경우 움직이는 물체만 골라서 기록함으로써 효율을 극대화시킬 수 있다.
인공망막칩의 연구결과는 맹인용 인공망막으로 사용될 수 있다. 대표적으로 미국 존스홉킨스 대학에서는 맹인의 눈에 인공망막칩을 이식해 시력을 회복시키는 연구를 수행하고 있다. 아직 간단한 문자와 기호를 겨우 알아볼 수 있는 수준이지만 오래지 않아 맹인에게 인공망막을 이식해 시력회복에 큰 도움을 줄 것으로 기대된다.
두가지 종류 눈 갖춘 코그
인간의 시각이 가지는 또다른 특징은 필요한 정보만을 선택적으로 골라 처리한다는 점이다. 이러한 성질은 매우 좁은 시야에서만 선명하게 사물을 볼 수 있는 사례에서 잘 나타난다. 눈의 시야는 약 50도 정도의 영역을 갖지만 글씨를 알아볼 수 있는 시야는 불과 3도 정도밖에 안된다. 그래서 물체를 인식하고 공간을 인지하는 동안 사람은 끊임없이 눈을 움직인다.
MIT 인공지능연구실에서 개발하고 있는 휴먼로봇 코그는 인간과 비슷한 눈의 구조와 시각 기능을 갖고 있다. 코그의 두 눈은 인간의 눈을 흉내내어 광각과 협각 2개씩 총 4개의 카메라로 구성돼 있다. 코그의 광각 카메라는 넓은 범위를 살펴보면서 움직임이 있는 영역을 검출할 수 있다. 또 협각 카메라는 인간이 글씨를 보는 경우처럼 구체적인 사물을 인식하는데 쓰인다. 게다가 코그의 눈은 안구운동 기능을 갖추고 있어 움직이는 물체가 나타나면 그 방향으로 시선을 돌릴 수 있다. 앞으로는 코그에게 눈으로 보고 손으로 물체를 조작할 수 있는 능력을 단계적으로 적용시킬 계획이다.
학습 능력을 가진 로봇
뇌와 인간 시각에 숨겨진 비밀 중에 가장 신비한 것은 학습 능력이다. 막 태어났을 때 인간의 시각은 불완전하다. 그러나 생물의 시각 기능은 빛과 환경에 의한 자극과의 상호작용 중에 학습을 통해 스스로 형성되는 성질이 있다. 예를 들어 글자를 익혀나갈 때 처음에는 글자 하나하나 읽기에도 벅찬 반면, 어느 정도 익숙해지면 문장 전체가 한눈에 들어오게 된다. 이 원리를 이해할 수 있다면 자연 환경의 복잡성과 다양성에 대처할 수 있는 인공시각시스템을 만들 수 있다.
학습 능력을 가진 인공시각 연구는 어디까지 와있을까. 미국 카네기멜론 대학에서는 10여년 동안 무인자동차 내브랩(NavLab)을 개발해왔다. 흥미롭게도 내브랩의 핵심적인 부위인 지능시각시스템(ALVINN)은 스스로 운전 기술을 익힐 수 있다.
방법은 간단하다. 인간이 내브랩에 타고 여러 상황에서 운전을 하면 된다. 인간은 운전을 하는 도중 도로의 커브 정도나 지면상태를 눈으로 보면서 적절하게 핸들을 꺽는다. 내브랩에 장착된 카메라는 인간의 눈처럼 도로의 상태를 계속 감시하고, 다른 한편에서는 핸들이 꺽이는 정도를 기록한다. ALVINN은 이 두가지 데이터를 종합적으로 분석하고, 사람이 타지 않았을 때 카메라를 통해 들어오는 도로의 영상을 보며 적절하게 핸들을 조작한다. 예를 들어 ‘이 도로에서는 30도 오른쪽으로 핸들을 돌려야 한다’는 학습이 이뤄지는 것이다. 내브랩 연구는 다양한 환경에 적응할 수 있는 인공시각시스템을 만들어낼 수 있는 가능성을 보여주고 있다.
이제 인간다운 시각시스템을 개발하려는 노력은 새로운 도약기를 맞고 있다. 인간의 눈을 닮은 망막, 인간 시각의 적응력, 두뇌의 학습 방식에 대한 연구를 통해 다양한 환경에서 움직이는 물체를 추적하고 인식할 수 있는 인공눈의 개발이 가능해지고 있다. 그러나 인간 시각과 견줄만한 인공시각시스템을 개발하기 위해서는 아직도 많은 연구가 필요하다.