10월 9일 경기도 과천에 위치한 국립과천과학관에 화학자이자 10권 이상의 책을 편 곽재식 SF 작가, KAIST에서 뇌를 연구하고 있는 송민령 연구원, 그리고 과학동아 독자 4명이 모였다. SF 작품 속 과학기술에 대해 함께 이야기를 나누기 위해서다. 과학기술이 우리 사회를 어떻게 바꿀지, 그때 우리는 어떻게 대처해야 할지, 독자가 묻고 전문가가 답했다.
(※편집자 주 : 이번 강연은 과학동아 커뮤니티 사이트 ‘사이언스 보드(www.scienceboard.co.kr)’ 내 SF 보드 행사이자, 국립과천과학관의 SF 축제 ‘SF2020’의 사전 행사로 진행됐습니다.
10월 9일 오후 2시 유튜브 ‘동아사이언스’ 채널과 ‘국립과천과학관’ 채널을 통해 90분간 생중계된 강연 내용을 일목요연하게 정리했습니다. 강연 영상은 QR코드를 스캔하면 볼 수 있습니다.)
[02:00 PM]
TOPIC ① 생명공학 기술 안전할까
지금부터 본격적으로 SF 작품 속에 등장하는 미래 과학기술과 윤리 문제에 대해 이야기 나눠보겠습니다. 사이언스 보드 홈페이지를 통해 과학동아 독자들이 어떤 기술과 윤리 문제에 관심이 있는지 미리 조사해 봤는데요. 크게 4가지 주제였습니다. 첫 번째 주제부터 시작해볼까요.
2016년 개봉한 ‘인페르노’라는 영화를 보면, 첨단 용기에 바이러스가 담겨 있습니다. 이 바이러스는 바이오테러를 목적으로 만들어졌는데요. 이처럼 유전자 편집이나 생물체 대량 배양 등 생명공학 기술이 발전할수록 바이오테러로 악용되진 않을까 두려워하는 분들이 많습니다. 생명공학 기술을 안전하게 발전시킬 방법이 있을까요.
핵폭탄이나 미사일 같은 무기는 특수한 공장에서도 만들기 쉽지 않은데, 바이러스 같은 생화학 물질은 그에 비하면 쉽게 만들 수 있습니다. 유전자 편집을 비롯한 생명공학 기술이 저렴하고 손쉽게 다룰 수 있는 방향으로 발전하고 있기도 합니다.
가령 누군가가 나쁜 마음을 먹고 조류인플루엔자에 걸린 닭의 침을 모아 보관했다가, 자신이 원할 때 의도적으로 뿌리고 다닐 수도 있지 않을까요. 이런 생각을 하는 수많은 사람 중에 한 명 정도는 성공할 수도 있는 노릇입니다. SF 작품에서는 이런 상황이 많이 등장하곤 하죠.
실제로 이와 비슷한 사례가 2018년에 있었습니다. 캐나다의 한 대학 연구팀이 DNA 조각을 구입한 뒤 유전자 편집 기술로 천연두 바이러스와 유사한 물질을 만들어 낸 거죠. 그나마 이런 대학이나 연구소는 생물안전등급(BSL) 관리를 받지만, 개인은 이런 제한조차 없이 자신의 집에서 생물 실험에 필요한 것을 사거나 만들수 있습니다. 이들을 바이오해커라고 부릅니다.
생명공학 기술을 비롯해 우리 삶에 직접적인 영향을 미치는 과학기술이 늘어나고 있는 만큼 어떤 연구가 더 필요한지, 이를 안전하게 적용할 방법은 무엇인지 찾는 과정엔 시민들의 의견을 반영할 필요가 있습니다.
홍종익(서울 목운중 3)
바이러스를 이용한 전쟁도 일어날까요?
가능하죠. 다만 바이러스는 전쟁에 유용하지 않은 수단일 수 있습니다. 전쟁은 원하는 때에 시작했다가 끝낼 수 있어야 하는데, 바이러스로는 원하는 시기에 적을 공격하고 멈추는 게 어렵습니다. 그에 반해 테러는 피해를 일으키기만 하면 되기 때문에 조직화되지 않은 사람들조차 저비용으로 쉽게 저지를 수 있다는 점이 염려됩니다.
[02:30 PM]
TOPIC ② 빅브라더 사회와 개인의 자유
이번에는 SF 영화 ‘마이너리티 리포트’에 대해 얘기해볼까요. 영화 초반부를 보면 남자 주인공이 범죄를 저지를 것으로 의심되는 사람의 영상을 보고, 기관이 갖고 있는 신분증 데이터들과 대조해 누구인지 또 어디에 거주하는지 순식간에 알아냅니다. 그리고 바로 잡으러 출동하죠.
이처럼 정부나 기업 등 특정 집단에서 대량의 정보를 보유하고 사회를 통제하는 걸 ‘빅브라더 사회’라고 부르는데요. 빅브라더 사회에서 개인의 자유가 침해되지 않을까 우려하는 분들이 많습니다. 어떻게 보시나요.
빅브라더 사회에서는 문제점을 찾아내고 그것을 해결하는 과정이 매우 빠르게 진행될 것입니다. 가령 하루에 크림빵을 3개 이상 먹으면 테러리스트라는 연구결과가 나왔다고 해봅시다. 이로 인해 테러리스트 방지법이 만들어진다면, 빅데이터를 통해 크림빵을 3개 이상 먹은 사람이 누구인지 굉장히 빨리 파악할 수 있습니다. 과거에 크림빵 3개를 먹었다는 이유로 잡혀갈 수도 있고요.
이처럼 빠르게 정보를 파악할 때, 정부나 사회는 어떤 것이 옳고 그른지, 또 그런 기준이 사람들에게 어떤 영향을 미칠지 제대로 판단할 수 있어야 합니다. 많은 사람들이 의문을 갖는 부분이 바로 이런 부분입니다.
빅데이터 시대를 막을 수는 없습니다. 빅데이터를 유용하게 사용할 방법이 너무 많기 때문입니다. 기후변화 대응에도 빅데이터가 필요합니다. 기후변화를 막기 위해서는 필요한 만큼만 생산하고 버려서 자원을 절약해야 하는데, 빅데이터로 이를 훨씬 원활하게 할 수 있습니다.
흔히 빅브라더라고 하면 정부를 떠올리지만 최근에는 구글, 아마존 같은 다국적 기업이 더 많은 정보를 소유하고 있습니다. 이들이 사회에 어떤 영향을 미칠지가 앞으로 중요한 문제가 될 것입니다.
그럼 특정 몇 개 기업에서 데이터를 독점하고 있는 걸 규제해야 할까요.
기업이 많은 정보를 확보하고 이를 공유하는 걸 막을 도리는 없습니다. 대신 기업에서 데이터를 보호할 장치를 마련해야 하죠. 예를 들어 고객의 키나 몸무게 같은 정보를 갖고 있다고 하더라도, 그 정보가 누구의 것인지 알지 못하게 정보를 변환해 놓아야 합니다.
또 개인 정보 보호 규정을 지키지 않는 기업은 즉시 퇴출하거나, 기업의 데이터 관리를 감독하는 기관을 세우는 방법도 있을 겁니다.
이수연(경기 광남중 1)
유출이나 사생활 침해와 같은 문제를 감수하면서까지 개인 정보를 공개해야 할까요.
개인의 건강 정보는 자칫 약점이 될 수 있는중요한 정보입니다. 공개하는 게 위험할 수도 있겠죠. 그러나 한편으로는 본인의 건강 정보를 많이 공개할수록 더 적합하고 다양한 의료 서비스를 받을 수 있다는 장점도 있습니다.
[02:50 PM]
TOPIC③ 인공지능(AI)이 인간 위협할까
SF계의 거장, 아이작 아시모프의 원작을 바 탕으로 한 SF 영화 ‘아이, 로봇’은 인공지능(AI) 로봇의 반란을 소재로 삼고 있습니다. 감정과 자아를 지닌 인공지능 로봇이 사람에 대항하고, 전쟁까지 감행하는데요. 미래 인공지능이 정말 인간을 위협할까요.
물론 인공지능 로봇에게 성격이라 할 수 있는 개별 특성(personality)이 생길 수 있습 니다. 그렇다고 해서 인간과 로봇이 같다고 할 수 있을까요.
인간과 인공지능 로봇의 경계를 어디로 정할지는 우리가 인간에 대해 얼마나 알고 있는 지에 달려 있습니다. 예를 들어 인간이 A, B, C라는 특성을 갖는다고 알고 있다면, 인공지능 로봇이 A, B, C 특성을 가질 때 인간과 같다고 볼 겁니다. 하지만 훗날 인간의 특성이 A, B, C, D라는 것이 밝혀지면 그땐 또 인공지능 로봇은 인간과 다르다고 하겠죠.
아직 우리는 인간에 대해서 알아야 할 것들이 많습니다. 그래서 인간과 인공지능 로봇이 같은지 다른지에 주목할 게 아니라, 우리가 무엇을 인간이라고 생각할지를 더 중요하게 생각해봐야 합니다.
먼 훗날이겠지만, 만약 인간과 정말 유사한 인공지능 로봇이 현실에 등장한다면 어떻게 관리해야 할지는 깊이 고민해봐야 합니다. 가령 인간성 검사를 해서 일정 점수를 넘는 로봇에게 인간의 권리를 어느 정도 줄 수도 있습니다.
하지만 그렇게 되면 소비자가 인격체로 대우받는 인공지능 로봇을 마음대로 하지 못하니 구매를 안 할 수도 있고, 또 그러면 로봇 제조사에서는 의도적으로 성능을 낮춰서 개발할 수도 있습니다. 고민해야 할 것들이 참 많죠.
먼 미래에 일어날 상황이기는 하지만 지금부터 논의를 해봐야 한다고 생각합니다.
이런 고민을 하는 데 SF 작품의 역할이 굉장히 중요합니다. 특히 국내 SF 작품들은 우리나라 사회를 잘 반영하고 있어서 사람들이 과학기술에 대한 고민을 여러 측면에서 할 수 있습니다. 2016년 인공지능 바둑 프로그램 알파고가 세상에 나왔을 때처럼 갑작스럽게 등장한 과학기술에 충격을 받지 않기 위해서는 미래 과학기술을 미리 알고 논의를 숙성시켜나가야 합니다.
김보준(경기 시온고 1)
인간과 로봇이 비슷한 수준의 대우를 받는다면, 아시모프 로봇 3원칙은 어떻게 될까요. 그대로 충분할까요. 아니면 수정이 필요할까요.
많은 사람들이 아시모프의 로봇 3원칙을 중요하게 생각하지 만, 사실 1950년대 한 SF 작가가 소설을 쓰며 언급한 내용에 불과합니다. 때문에 실제 인공지능 로봇 연구 현장에서는 그 원칙들을 크게 신경쓰지 않습니다. 무조건 로봇 3원칙을 지켜야 한다고 가둬두는 것보다, 앞으로 어떤 원칙하에 로봇을 만들어야 할지 스스로 생각해보는 것이 더 중요하다고 생각합니다.
[03:05 PM]
TOPIC ④ 점점 커지는 인공지능 의존도
오늘 소개할 마지막 영화입니다. 미래의 계급사회를 배경으로 하는 ‘엘리시움’인데요. 영화 후반부에 한 아이의 불치병을 2초 만에 진단하고 치료하는 인공지능 기계가 등장합니다. 이처럼 순간 판단이 중요한 일에 인공지능이 쓰여 오류가 일어날 가능성은 없을까요.
인공지능은 빅데이터로부터 판단의 기준점을 확립합니다. 문제는 인공지능에 입력되는 대부분의 데이터가 ‘백인’ ‘유럽인’ ‘선진국’ ‘민주주의 국가’ 등의 편향된 집단에서 비롯됐다는 점입니다. 그러다보니 인공지능 역시 편견을 학습하게 되는 경우가 있습니다.
예를 들어 최근 사람의 표정으로 감정을 파악하는 인공지능이 한창 개발되고 있습니다. 이전에는 전 세계 사람들의 표정이 공통된 특징을 갖고 있다고 알려져 있었지만, 최근 연구결과에 따르면 인종별, 민족별로 표정이 제각각 다릅니다. 유럽 일부 사람들의 표정 데이터만 학습한 인공지능이라면 그 외의 사람들의 표정을 볼 때 사실과 다르게 판단할 수도 있습니다.
기술이 발달한 나라들이 주로 선진국들이다 보니 그 나라에서 신경 쓰는 문제들 위주로 기술이 발전해 갈 수밖에 없습니다. 하지만 과학기술 연구자들만큼은 소외된 사람들을 둘러봐야 한다고 생각합니다.
가령 일부 사람들을 위해 돌돌 말리거나 펼쳐지는 디스플레이를 개발할 수도 있지만, 모두를 위해 오랜 시간 봐도 눈이 안 나빠지는 디스플레이를 만드는 것도 중요하지 않을까요.
이선재(경기 정평중 2)
정신과에서 상담을 해주는 인공지능 로봇을 개발했는데, 환자들이 사람을 대할 때보다도 자신의 감정을 잘 털어놓는다는 소식을 들었습니다. 그러나 때로는 인공지능 로봇이 인간 상담사라면 하지 않았을 법한 말을 해 환자들이 혼란을 겪기도 한다는데요. 이런 상담 인공지능을 허용하는 게 과연 옳을까요.
정신과 상담을 필요로 하는 사람이 많은 현재 상황상, 상담 인공지능의 역할은 앞으로도 중요할 겁니다. 마찬가지로 지금까지 여러 과학기술 이야기를 했는데, 사람들의 수요가 있는 한 이들 기술의 발전을 막을 수는 없습니다. 어떻게 더 안전하게 적용할 수 있을지를 고민하는 게 중요하죠. 오늘 모인 여러분과 같이 과학에 관심이 많은 시민들이 질문을 던지고 의견이 내는 것이 중요하다고 생각합니다.