핵심 요약
ㆍ 2024 노벨 화학상 수상자인 데이비드 베이커 교수는 AI 오용 방지를 위해 90여 명의 연구자들과 협약을 체결했다. 해당 협약은 생화학 무기 개발 등 AI 악용 가능성을 줄이고 사회적 책임을 강조하는 10개의 조항을 포함한다.
ㆍ AI 기술 발전과 함께 국내외 연구자들이 협약에 참여하며, 연구의 책임감과 윤리적 문제 해결이 중요한 과제로 부각되고 있다.
✔ 물리학상 힌턴 교수, 자신이 토대 닦은 AI 위험성 경고
ㆍ 지난해 AI 위험성에 대해 경고하며 구글 퇴사 😔: 올해 노벨물리학상을 수상한 제프리 힌턴 교수는 얀 르쿤 뉴욕대 교수, 요슈아 벤지오 몬트리올대 교수, 앤드루 응 스탠퍼드대 교수와 함께 ‘인공지능(AI) 4대 천왕’으로 불리는 석학이다. 구글에서도 석학 연구원을 겸임하며 AI 연구를 이어가던 중 2023년 AI의 위험성에 대해 경고하며 퇴사한 것으로 잘 알려져 있다.
ㆍ 딥러닝의 대부 💻 : 2006년 힌턴 교수는 인공신경망을 효율적으로 학습시키는 방법을 제시하면서 딥러닝이라는 신기술을 등장시켰다. 힌턴 교수는 자신이 개발한 딥러닝 기술을 기반으로 2012년 이미지 인식 경연대회에서 우승해 딥러닝의 실현 가능성을 입증했다. 당시 머신러닝 업체 ‘DNN리서치’를 창업했고 2013년 구글이 이 기업을 4억 4000만 캐나다달러(약 4470억 원)에 사들였다. 그러면서 힌턴 교수는 약 10년간 구글의 AI 연구를 겸임했다.
ㆍ AI 인간 사회 지배 가능성 있다고 경고 🚨 : 올해 일본 니혼게이자이신문에 보도된 인터뷰에서 힌턴 교수는 인류를 위협할 존재로 AI를 보는 이유와 관련해 “AI에게 목표를 주면 해결책으로 인간에게 나쁜 방법을 찾아낼지도 모른다”면서 “예를 들어 AI에게 기후변화를 막도록 지시하면 이 목적 달성을 위해 인간을 배제하는 게 필요하다고 생각하고서 실행에 옮길 위험성이 걱정된다”고 말한 바 있다. 또 그는 “생성형 AI가 인류 지능을 넘어서 인간사회를 지배할 가능성이 있다”고 경고했다. 생성형 AI가 초래할 위험으로는 우선 가짜 뉴스를 이용한 선거 조작을 꼽았다. AI가 공격 목표를 자동으로 설정하는 무기 시스템이 실용화되면 전쟁을 제어할 수 없게 될 것이란 경고도 내놨다. 또 AI가 인간의 일자리를 빼앗으면서 빈부격차가 확대될 것이라고 우려했다.
ㆍ 인류 지능 뛰어넘었을 때를 걱정해야 한다 🚨 : 노벨상 발표 이후 공개된 전화 인터뷰에서 힌턴 교수는 “AI는 우리 사회에 산업 혁명처럼 막대한 영향을 미칠 것이다. 하지만 우리는 우리보다 더 똑똑한 것이 어떤 것인지에 대한 경험이 없다”면서 “우리는 또한 (AI가 가져올 수 있는) 여러 가지 가능한 나쁜 결과, 특히 이러한 일들이 통제 불능이 될 위협에 대해서도 걱정해야 한다”라고 경고했다.
조정효 서울대 물리교육과 교수는 “인류가 AI를 막연히 두려워하는 것도, 모든 걸 해줄 것처럼 기대하는 것도 문제다. 이 문제를 해결하기 위해 AI가 어떻게 작동하는지 파악하는 것이 중요하다”
면서 “AI가 어떻게 작동하는지 잘 모르더라도 우리 사회에 어떤 영향을 줄 것인지에 대해 고민하고 (AI로 인해 발생할) 윤리적인 문제 등에 대해 진지하게 고민해 볼 필요가 있다”고 말했다. 이번 노벨상을 계기로 인류가 AI가 가져올 여러 변화에 대해 진지하게 고민해야 한다는 설명이다.
✔ 화학상 베이커 교수, AI 오용 방지 협약 진행
ㆍ AI 생화학 무기 나올까 우려 😰 : AI가 악용될 가능성에 대한 우려의 목소리가 계속 제기되고 있다. 특히 생화학 무기가 개발되는 데 활용될 우려가 커지고 있다. 아다리오 아모데이 앤트로픽 최고경영자는 지난해 미국 상원 사법위원회 소위원회 청문회에서 “악의적인 누군가가 생물학 무기를 개발하는 데 AI가 도움이 될 수 있다”며 해로운 인공 단백질 생성 가능성에 우려를 표했다.
ㆍ AI 연구 규제 필요 📓: AI 기술 발전과 함께 규제책 마련의 필요성을 인지하면서 2024 노벨 화학상 수상자인 데이비드 베이커 교수의 주도 하에 오용 방지를 위한 협약이 지난 3월 이뤄졌다. 그는 전 세계 생물학자 및 AI 연구자 90여명과 함께 ‘책임감 있는 AI X 바이오디자인’에 서명했다.
ㆍ AI 바이오 연구로 인한 위험 가능성 낮추는 조항 포함👉 : 협약은 총 10개의 조항으로 이뤄져 있다. 그 중에는 ‘연구의 이점과 위험에 대해 소통한다’, ‘사회의 이익을 위해 연구를 수행하고 오용을 조장할 가능성이 있는 연구를 삼간다’, ‘위험한 생체분자를 제조하기 전 DNA 합성 스크리닝을 개선하기 위한 새로운 전략 개발을 한다' 등 AI 바이오 연구로 인한 위험 가능성을 낮추기 위한 조항이 포함돼 있다. 관련 전문가들은 해당 협약을 바탕으로 AI 개발자 및 과학자들이 프로그램 코드와 소스를 공개하는 분위기를 형성해야 나가야 한다고 보고 있다.
ㆍ 국내 연구자도 서명 📃 : 국내에서도 AI 단백질 구조 예측 및 설계 분야 연구가 더욱 활발해지면 비슷한 논의가 제기될 것으로 예상된다. 베이커 교수가 주도한 협약에는 백민경 서울대 생명과학부 교수, 박한범 한국과학기술연구원(KIST) 뇌과학연구소 선임연구원 등 국내 연구자들도 참여했다.
추천 탐구 활동
AI가 인간 사회에 미칠 수 있는 긍정적, 부정적 사례를 조사하고 이를 분석
2. AI 오용 방지 방안 연구
2024 노벨 화학상 수상자인 데이비드 베이커 교수의 AI 오용 방지 협약 내용을 알아보고 실제 연구에 적용할 수 있는 방안을 모색
3. AI 발전에 따른 철학적·사회적 논쟁 탐구
AI의 발전이 철학적, 사회적 논쟁을 불러일으킨 사례를 탐구하고 앞으로 AI를 어떻게 활용하는 것이 좋을지 방안에 관해 토의
관련교과
ㆍ 2022 개정 : 물리학, 화학, 생명과학, 데이터과학, 생활과 윤리
관련계열 및 학과
ㆍ 공학 계열 : 컴퓨터공학과/소프트웨어공학과, 전기전자공학과,생명공학과, 데이터과학과/AI학과
ㆍ 교육 계열 : 물리교육과, 컴퓨터교육과, 생물교육과, 화학교육과
ㆍ 의학 계열 : 의예과, 약학과, 의생명공학과
ㆍ 인문 계열 : 심리학과, 철학과, 윤리학과