1. 로봇은 아군과 적군을 어떻게 구별할까?
사람이 직접 조종하지 않아도 알아서 싸울 수 있는 로봇을 만드는 데 가장 큰 걸림돌은 뭘까. 아군과 적군을 구별하는 기술이다. 영상을 통해 얼굴을 인식하는 기술은 사람에 크게 미치지 못한다. 얼굴을 인식하기 위해서는 영상에서 얼굴 영역을 찾아 낸 뒤 눈썹, 눈, 코, 입 등 사람을 구분할 수 있는 부위의 밝기와 색채 정보를 추출한다. 이 정보를 데이터베이스에 있는 얼굴 정보와 비교해 가장 닮은 얼굴을 찾는다.
이때 가장 중요한 요소는 조명이다. 얼굴 인식 기술을 사람 수준으로 끌어올리기 위해 현재 가장 시급하게 해결해야 할 문제는 다양한 조명 아래서 인식률이 떨어진다는 점이다. 특히 전쟁터에서는 일반적인 환경보다 조명이 수시로 바뀐다. 얼굴 자체도 평소와 다르다. 병사들은 위장크림을 바를 수도 있고, 먼지를 뒤집어쓰거나, 부상을 당해 피범벅이 될 수도 있다. 헬멧과 같은 장비가 얼굴을 가릴 수 있기 때문에 얼굴 일부분만가지고도 인식할 수 있는 기술도 필요하다.
한국과학기술연구원(KIST) 유범재 인지로봇연구단장은 “지금 연구하는 기술을 이용하면 일정한 조명에서 가만히 있을 때 97% 이상의 정확도로 사람의 얼굴을 인식할 수 있지만 환경이 극심하게 변하는 전쟁터에서는 불가능하다”며 “영상 처리 속도와 소프트웨어 알고리듬이 지금보다 많이 발달해야 한다”고 설명했다. 포스텍 컴퓨터공학과의 김대진 교수도 “아군과 적군의 얼굴이 모두 등록돼 있고 카메라를 통해 들어오는 영상이 깨끗하고 명확하다면 가능하겠지만, 현실적으로는 불가능하다”고 밝혔다.
얼굴 인식 기술이 완성된다고 해도 데이터베이스에 등록돼 있지 않은 적군을 알아볼 수는 없다. 사실 사람도 얼굴로 적군을 알아본다기보다는 군복과 같은 다른 정보를 이용한다. 김 교수는 “만약 적군과 아군, 민간인의 복장 색깔이 잘 구분돼 있다면 이런 정보를 이용해 구분할 가능성은 있다”고 말했다. 총과 같은 특정 물체를 인식해 군인과 민간인을 구별할 수도 있다. 하지만 적군이 아군으로 위장하거나 민간인이 군복을 입고 총을 드는 경우에는 영상만으로 구별할 수 없다.
유 단장은 이런 문제를 해결하기 위해 “군번표에 전자태그(RFID)를 심어 로봇이 신호를 인식해 아군과 적군을 구별하게 하는 것과 같이 영상뿐만 아니라 다른 기술을 추가로 써야 한다”고 덧붙였다.
2. 로봇은 어떻게 스스로 움직이고 판단해 싸울 수 있을까?
목적지까지 스스로 움직이는 자율 주행은 전투 로봇의 핵심적인 기술이다. 국방과학연구소는 자율 주행 수준을 10단계로 구분한다. 가장 초보적인 1~2단계는 원격 조정을 뜻하고, 인간 병사처럼 임무를 스스로 알아서 수행하는 완전자율 수준이 10단계다. 현재 미국은 6단계를 일부분 완성한 상태다. 우리나라는 4단계를 완성하고 5단계 연구를 진행하고 있다.
로봇이 스스로 목적지를 찾아가기 위해서는 먼저 자기 위치를 정확히 알아야 한다. 위치를 확인하기 위해 가장 많이 쓰는 장비는 GPS지만, 민간용 GPS는 오차가 10m 가까이 생긴다. 국민대 무인차량로봇연구센터의 김재환 연구원은 “보통 차량 내비게이션에 쓰이는 GPS는 사람이 운전하는 상태에서 보조용으로 사용하는 데는 지장이 없지만 전투 로봇의 자율주행에는 턱없이 부족하다”며 “사소한 오차도 사고로 이어질 수 있기 때문에 군사용 GPS는 오차 범위가 10cm를 넘지 않는다”고 설명했다.
터널처럼 하늘이 막혀서 GPS가 작동하지 않는 곳을 움직일 때는 관성항법장치(INS)로 위치를 파악한다. 관성항법장치는 가속도계와 자이로스코프로 측정한 속도와 이동방향을 바탕으로 위치를 구한다. 일정 시간 동안 움직였을 때의 가속도를 적분해 속도를 구하고 다시 이동한 거리를 계산한다. 처음에 있었던 위치에 움직인 거리와 방향을 적용하면 현재 위치를 알 수 있다.
움직이는 길목에 있는 장애물을 파악하는 데는 레이저와 레이더가 많이 쓰인다. 레이저를 이용한 거리측정기(LIDAR)는 발사한 레이저가 물체에 반사돼 돌아올 때까지 걸리는 시간으로 거리를 알아낸다. 레이저를 전방을 향해 좌우, 상하로 회전시키면서 거리를 측정하면 장애물의 정확한 형태를 입체영상으로 볼 수 있다. 레이더도 비슷한 역할을 한다. 레이저보다는 정확도가 떨어지지만 속도가 빠르다. 영상도 장애물을 인식하는 데 쓸 수 있지만 얼굴 인식 기술과 마찬가지로 야외에서는 조명이 일정하지 않아 판별력이 떨어진다. 실제 자율주행에서는 이런 기술을 함께 이용한다.
그러나 로봇이 전장에서 홀로 움직이며 싸우지는 않을 전망이다. 손웅희 생기원 부장은 “병사들도 전투, 통신, 보급, 의무 등 각자 맡은 임무가 있는 것처럼 로봇도 협조제어를 통해 집단으로 운용해야 한다”고 설명했다. 유범재 단장 역시 “결국에는 네트워크로 갈 것”이라며 “서로 다른 역할을 맡은 로봇과 인공위성이 네트워크를 이뤄 임무에 따라 유기적으로 움직여야 한다”고 말했다. 네트워크로 연결된 군집로봇은 텔레파시로 연결된 병사에 비유할 수 있다. 유 단장은 적군과 지형 등의 주위 환경을 인식하는 기술과 자율주행, 네트워크 기술이 합쳐지면 상황에 맞는 전술을 구사할 수 있을 것으로 전망했다.
3 . 인간형 로봇은 언제 전장에 등장할까?
영화 ‘터미네이터’를 보면 다양한 전투 로봇이 등장한다. 그러나 영화 속에서 궁극의 병기는 사람 모양을 한 터미네이터다. 인간형 전투 로봇은 과연 어떤 장점이 있고 언제쯤 등장할까.가까운 미래에 인간형 전투 로봇이 전쟁에서 활약할 가능성은 높지 않다. 현재 인간형 로봇은 달리는 수준까지 이르렀지만, 다양한 지형에서 균형을 잡으며 자유롭게 움직일 수는 없다. 손웅희 부장은 “인간형 전투 로봇이 병사를 대체하려면 사람보다 움직임이 뛰어나면서 동력, 유지보수, 비용 등이 사람보다 유리해야 한다”며 “향후 10~20년 안에는 가능하지 않을 것”이라고 밝혔다. 오히려 ‘입는 로봇’이 훨씬 더 가능성이 있다. 입는 로봇은 외골격처럼 생긴 기계 장치로, 병사가 입고 움직이면 그 힘을 증폭시킨다. 평소보다 무거운 짐을 지고 행군하거나 더 크고 무거운 무기를 쓸 수 있게 해 준다. 다리로 움직이는 인간형 로봇은 장점이 많다. 바퀴나 캐터필러로 움직이는 로봇과 달리 다양한 지형에서도 움직일 수 있다. 한국형 견마로봇 ‘진풍’을 만들고 있는 생기원 박상덕 민군실용로봇사업장은 “산악 지형이 많은 우리나라에서는 산길을 오르내릴 수 있는 로봇이 필요하다”며 다리로 움직이는 로봇의 필요성을 강조했다. 다만 생기원 연구팀은 현재 다리가 네 개인 동물의 움직임을 본뜬 로봇을 주로 개발 중이다.
인간형 로봇이 사람만큼 자연스럽게 움직인다면 어떤 장점이 있을까. 유범재 단장은 “오히려 전투보다 공병 작업을 할 때 유리할 것”이라고 의견을 밝혔다. 인간형 로봇은 전투만 따진다면 그다지 유리하지 않지만 인간 병사가 하는 힘든 작업을 대신 할 수 있다는 것이다. 물론 여기에도 ‘인간처럼 움직일 수 있다면’이라는 단서가 붙으며 그 날이 언제 올지는 아직 알 수 없다.
취재를 위해 만난 전문가들 모두 인간이 관여하지 않는 전쟁에 대해서는 회의적이었다. 로봇이 전쟁을 수행할 수 있다고 해도 전략·전술적인 판단은 인간이 내려야 한다는 것이 공통적인 주장이었다. 기술이 발달한다고 해도 로봇의 판단력이 사람보다 뛰어나기는 어렵다는 문제와 법적, 윤리적인 문제가 있기 때문이다. 터미네이터와 같은 로봇이 전쟁터를 활보하는 모습을 빠른 시간 안에 보기는 힘들 전망이다.
▼관련기사를 계속 보시려면?
이제는 로봇이 싸운다
스스로 싸우는 전투 로봇 가능할까
“10년 후, 로봇이 한반도 지킨다”