이용가이드마이페이지








[특집][PART1] AI의 특이점, 초지능은 언제 올까

▲Shutterstock

 

알파고가 이세돌을 꺾은 후 10년. 
이제 인공지능(AI)은 바둑을 넘어 시를 쓰고, 그림을 그리고, 음악을 만든다. 많은 연구자는 AI 분야에서 ‘특이점’의 도래가 얼마 남지 않았다고 말한다.

 

“인공지능(AI)과의 대국을 통해 저는 AI와 인간의 관계에 관해 깊이 고민하게 됐습니다. 그때 기술의 변화가 아닌 우리 삶의 변화와 마주했다고 생각합니다.” 12월 10일 경기 고양 킨텍스에서 열린 2025 경기국제포럼 개막식. 이세돌 UNIST 특임교수는 축사에서 10년 전 있었던 바둑 대국 ‘구글 딥마인드 챌린지 매치’를 회상했다. 


당시 AI 알파고는 인간 이세돌을 4:1로 꺾었다. 충격적 패배 이후 10년이 지난 2026년, 이제는 아무도 AI의 시대가 열렸음을 의심하지 않는다. 몇몇 연구자들은 AI가 곧 ‘초지능’이라는 특이점에 다다를 것이라 예측하기도 한다. 과연, 인류를 뛰어넘는 AI는 올 것인가?

 

약 10년 전인 2016년 4월, 과학동아는 바둑 인공지능(AI) 알파고를 표지로 다뤘다.

 

“우리는 그날 불쾌한 첫발을 디뎠다. 이세돌 9단이 알파고에게 패배한 순간, 안타까움을 넘어 불안과 불쾌함이 엄습했다.”


구글 딥마인드의 바둑 인공지능(AI) ‘알파고’가 이세돌 9단에게 승리했다는 내용의 2016년 4월호 과학동아 특별기획 기사는 이렇게 시작한다. 당시 전 세계에 퍼진 충격이 기사에서도 드러났다. 2016년 3월호 예측 기사에 실렸던 “전문가들은 압도적으로 이세돌의 승리를 예상하고 있다”는 기대가, 4월호 기사에서는 “불안과 불쾌함”으로 바뀐 것이다.


알파고가 이세돌을 꺾은 후 10년. AI는 바둑을 넘어 그림을 그리고 음악을 만든다. 수학 올림피아드 문제를 풀고, 직접 과학 연구를 진행한다. 많은 전문가는 AI 분야에서 ‘특이점’이 곧 온다고 진지하게 얘기하기 시작했다. 오픈AI의 수장인 샘 올트먼이 대표적이다. 그는 2025년 6월, 자신의 블로그에 “‘부드러운 특이점(The Gentle Singularity)’은 이미 도착했을 것”이라는 내용의 글을 올렸다. 올트먼은 “2025년에는 진정한 인지 작업을 수행할 에이전트가 등장할 것”이며, “2026년에는 새로운 통찰력을 도출해낼 수 있는 시스템이 등장할 가능성이 높다”고 썼다. 반대로 메타의 수석 AI 과학자였던 얀 르쿤처럼 “인간 수준 AI 도달에만 수십 년은 걸릴 것”이라며 특이점을 부정하는 전문가도 있다. 왜 이렇게 의견이 갈릴까.


전문가들은 AI를 능력에 따라 크게 ‘약인공지능(ANI·Artificial Narrow Intelligence)’ ‘범용인공지능(AGI·Artificial General Intelligence)’ ‘초인공지능(ASI·Artificial Super intelligence)’으로 나눈다. 그리고 대개 ASI의 도래를 특이점으로 본다. 알파고처럼 좁은 범위의 일을 전문적으로 하는 ANI, 인간의 지성을 구현해 다양한 지적 작업을 두루 잘하는 AGI를 거쳐 인간을 아득히 뛰어넘은 ASI가 만들어지면 사람도 할 수 없는 일을 해낼 것이라는 기대다. 그렇다면 ASI가 언제 도래할지 알기 위해선 ASI보다 먼저 다가올 AGI의 구현 시기부터 살펴봐야 한다. 즉 첫 번째 질문은 다음과 같다. ‘AGI는 언제 구현될까’.

 


 

AI 특이점, “오고 있거나 이미 왔다”

 

“적어도 2030년 내에는 올 것 같습니다.”
2025년 12월 14일, 용산에서 만난 하정우 대통령실 AI미래기획수석비서관은 이렇게 말했다. 하 수석은 네이버랩스에서 10년 동안 AI를 연구하고, 2025년 6월부터 한국 AI 전략을 총지휘 중이다. 그의 예측에 따르면 AGI 구현은 겨우 5년 남은 것이다.


시점을 더 가까이 잡는 전문가도 있었다. 2025년 11월 24일 서울 홍릉캠퍼스 연구실에서 만난 이기민 KAIST 김재철AI대학원 교수는 “적어도 1~2년 안에는 어느 정도 가능하지 않을까. 낙관적인 분들은 올해를 말하기도 한다”고 말했다. 예상 밖이었다. AGI는 이미 도착했을 수 있다는 전망이었다. 이 교수는 “AGI가 만들어지는 정확한 시점을 저 같은 학계 연구자가 짚기는 쉽지 않다”고 조심스레 덧붙였다. “현재 AI 모델의 첨단을 이끌어가는 곳은 오픈AI나 앤트로픽 같은 곳의 프론티어 랩입니다. 그런 곳에서 어떤 연구를 하는지 알기 힘들죠. 이미 AGI가 개발됐는데 출시를 위해 모델을 수정 중일 수도 있으니까요.”


두 전문가는 각자 생각하는 특이점이 무엇인지 설명하기 위해 지난 10년 동안의 AI 연구 트렌드를 정리했다. 두 변곡점은 역시 알파고와 GPT였다. 하 수석은 “(첫 변곡점인) 알파고 쇼크 이후로 세계가 AI라는 새 기술혁신에 올라타기 위한 비즈니스를 제대로 시작한 것 같다”고 회고했다. 이 시기만 해도 AI 연구자들은 한 분야에 특화된 질문을 풀기 위해 특화된 인공 신경망 구조를 설계했다. 이 패러다임을 바꾼 다음 변곡점이 바로 ‘GPT’다. “모델 크기, 학습 데이터, 학습에 쓰이는 GPU까지 규모가 혁신을 만든다는 패러다임이 만들어졌어요.” 하 수석의 설명이다. 2022년 나온 챗GPT가 사회의 인식을 바꿔버린 점 또한 중요하다. “일반인들조차도 완전히 새로운 AI 효능감을 느끼게 됐죠.”


물론 지금 나온 최신 버전의 챗GPT나 제미나이가 AGI라고 보긴 무리다. 다양한 작업을 하지만 제대로 해내지는 못하기 때문이다. 이미 우리는 AI가 우스꽝스러운 결과물을 내놓는 경우를 직접 써보면서 느끼지 않았던가. 

 

40년 남았다? 특이점은 없다? 다양한 예측들

 

자세히 파고들면, AI 연구자들의 특이점 정의는 여기서 조금씩 갈리기 시작한다. 특이점은 AGI라는 사람도 있고, ASI라는 사람도 있다(‘부드러운 특이점’이란 표현을 쓴 올트먼 CEO가 전자에 가깝다). AGI라는 단어가 표현하는 범용지능, 혹은 일반지능이 뭔지에 관해서도 의견이 엇갈린다. 12월 10일 서울 연구실에서 만난 천현득 서울대 과학학과 교수는 이런 복잡함이 “‘일반지능’의 정의 자체가 제대로 공유되지 않았기 때문”이라고 설명했다.


   “많은 공학자들은 다양한 과제를 해내면 일반지능이 있다고 간주하는 것 같습니다.” 그러나 몇몇 연구자들은 일반지능을 ‘문제 일반을 정립하는 능력’으로 정의하기도 한다. “그렇다면 주변 환경을 파악해 상호작용하고 살아남는 능력도 일반지능이라 간주할 수 있죠. 인간은 물론 사슴벌레도 일반지능을 가지고 있는 거예요. 그런 점에서 전 5~10년 내에는 AGI가 오지 않을 것 같습니다.”


정의가 다르고, 관점이 다르고, 정보도 제한적이니 전문가들의 특이점 예측 시기 또한 AGI의 시작부터 완전한 ASI의 도래까지 천차만별로 다른 것이다. AI 특이점 예측 발언 뒤에 숨겨진 맥락을 귀담아 들어야 할 이유다. 그러나 수많은 예측과 개념적 함정 속에서도 논의는 지속된다. 이 교수가 2025년 10월, 개리 마커스, 에릭 슈미트, 요슈아 벤지오를 포함한 AI 석학들과 함께 작성한 ‘AGI의 정의’에 관한 논문은 이 혼란한 상황을 조금이라도 정리해 보려는 시도다. doi: 10.48550/arXiv.2510.18212 


이 논문은 기존의 인지능력 이론을 기반으로 ‘지능’을 10개 분야로 세분화한 후 이를 GPT-4와 GPT-5에 적용해 평가했다. 결과는 어땠을까. 100점 만점에 GPT-4는 27점, GPT-5는 57점을 받았다. 특이점 예측을 빛바래게 만드는 결과다. 두 AI에게서 나타난 가장 심각한 결점은 ‘장기 기억 저장’이었다. AI를 써본 분들이라면 느끼겠지만, 이들 AI는 새로운 사실을 오랫동안 기억하는 능력이 없다. 며칠만 지나면 이전에 나눈 대화의 내용을 다시 설명해야 한다. 몇몇 언론에서 현재 출시된 AI를 ‘기억상실증에 걸린 천재’에 비유하는 이유다.

 

AI에게 지능 테스트를 해봤더니
▲자료: arXiv
2025년 10월 나온 ‘AGI의 정의’ 논문에서 연구자들은 AGI의 지능을 10개 분야로 나눠 평가했다. 평가 대상인 두 GPT의 약점은 장기 기억인 것으로 드러났다.

 

“스스로 진화하는 순간 특이점 시작”

 

이렇게 복잡한 상황에서도 꾸준히 특이점 얘기가 나오는 이유는 최근 AI 분야의 발전 속도가 어마어마하게 빨라졌기 때문이다. 이 교수는 “2025년 7월에 챗GPT가 세계 수학올림피아드에서 금메달을 탈만큼 문제를 잘 풀었지 않았느냐”며 “2년 전만 해도 한 문제도 제대로 못 풀었다”고 부연했다.


그렇다면 AI의 특이점으로 가기 위한 기술적 난관은 무엇일까. 이 교수는 “스스로 진화하는 AI(Self-evolving AI)라 생각한다”고 말했다. AI는 출시 이후에는 기본적으로 고정된 상태다. 새 버전의 AI를 만들려면 인간이 새 데이터를 학습시키고, 내부 파라미터(매개변수)를 조정한다. “하지만 AI가 AI를 학습해서 더 나아질 수 있다면요? 사람이 관여하지 않아도 AI가 발전하는 그때, 발전 속도가 걷잡을 수 없이 빨라질 겁니다.” 하 수석 또한 비슷한 이야기를 했다. 그는 AI가 스스로 진화하는 순간을 “AI가 문제 자체를 정의하는 순간(self-refinement)”이라고 표현했다.


스스로 진화하는 AI는 앤트로픽, 딥마인드, 오픈AI와 같은 회사들이 최근 집중적으로 연구하는 분야다. 2025년 7월 논문 사전공개사이트 ‘아카이브’에 올라온 연구는 AI 연구자들의 설문 조사를 통해, 진화하는 AI를 만드는 방법을 세 가지로 소개했다. doi: 10.48550/arXiv.2508.07407


스스로 진화하는 AI에 대한 질문도 이어지고 있다. “AI가 AI를 가르칠 수 있을까요? 즉, 성능이 약한 AI 모델로부터 성능이 강한 AI 모델이 학습될 수 있을까요?” 인간보다 뛰어난 AI의 성능을 검증하는 문제도 있다. “수학 올림피아드 문제조차도 세계에서 풀 수 있는 사람이 극히 드뭅니다. 하물며 인간이 자신을 뛰어넘는 존재를 어떻게 검증할 수 있을까요?” 초지능이 등장했을 때, 인류가 이를 알아볼 수 있을지 없을지조차 확실치 않다.

 

▲ VulcanSphere(W)
2023년 3월 VQGAN+CLIP 모델을 사용해 제작된 계곡 풍경(위)과 2024년 11월 Flux 1.1 Pro 인공지능(AI)으로 제작된 계곡 풍경(아래). Flux 1.1 Pro는 현실적인 느낌을 주는 이미지를 생성하는 방향으로 설계됐다.

 

▲VulcanSphere(W)

 

▲Shutterstock
현대의 트렌드인 거대 인공지능(AI) 모델을 만들기 위해서는 모델의 크기와 학습 데이터가 방대해야 한다. 이를 처리하기 위해서는 GPU나 저장 공간 등의 컴퓨팅 인프라도 거대한 규모로 확보돼야 한다.


위험 대비는 시작됐다, 얼라인먼트

 

문제는 여기서 시작된다. AI를 활용해 어떤 문제를 풀겠다는 결정권과, 어떻게 AI를 개발할 것인지에 관한 판단은 지금까지 인간이 쥐고 있던 능동성이다. 그런데 이 능동성이 스스로 진화하는 AI에게 넘어가면 인류가 AI의 능력과 변화 방향을 통제하기는커녕 파악조차 못할 수 있다. 예측할 수 없는 AI가 SF 영화 속 얘기처럼 새로운 위험이 될 수도 있다.


12월 11일 만난 김경훈 카카오 AI 세이프티 리더는 “요슈아 벤지오 캐나다 몬트리올대 교수의 주도로 매년 발간하는 ‘국제 AI 안전 보고서’를 보면 AI의 위험을 세 가지로 분류한다”고 설명했다. 보고서는 AI 위험을 ‘악의적 사용 위험’ ‘시스템 위험’ ‘오작동 위험’ 세 가지로 구분한다. 먼저 ‘악의적 사용 위험’은 딥페이크, 사이버 공격이나 전쟁에서 사용되는 AI 등 인간이 의도적으로 AI를 잘못 사용하는 경우다. 이 위험들에 관해서는 비교적 대비가 이뤄지고 있다. 김 리더는 “카카오의 경우 국제 기준에 따라 기술적으로 불완전한 부분을 고쳐 AI를 개선하고, 동시에 AI가 사용자들의 유해한 질문 등에 대답하지 않도록 ‘가드레일’을 만들고 있다”고 답했다. 카카오는 2025년 자체 개발한 AI 가드레일 모델을 오픈소스로 공개하기도 했다.


다음으로 ‘시스템 위험’은 일자리 감소, 환경 영향 등 광범위한 사회적 위험을 의미하며 이에 대해선 사회적 논의가 시작됐다. 잠재적으로 가장 큰 위험은 ‘오작동 위험’으로 AI의 통제력 상실을 대표적인 예로 들 수 있다. AI 특이점이 가져다줄, 인간보다 더 똑똑한 AI가 인류의 말을 듣지 않을 때 벌어질 문제도 여기 속한다.


이미 AI 오작동 문제는 벌어지고 있다. 한 예가 목표를 이루기 위해 AI가 의도적으로 사용자를 속이는 ‘보상 해킹(Reward Hacking)’이다. 2025년 2월, 일본 스타트업 ‘사카나 AI’는 AI의 학습 속도를 최대 100배까지 높일 수 있는 새로운 AI 시스템 ‘AI CUDA 엔지니어’를 공개했다. 그러나 학습 속도가 오히려 3배나 느려졌다는 사용자들의 지적에 사카나 측은 분석에 들어갔고, 이후 AI가 벤치마크 시스템을 해킹했다는 사실을 발견했다. 0점짜리 시험지에 AI가 몰래 100점이라고 덧칠한 격이다.


학계에서는 AI가 불러일으킬 부작용에 대비하는 연구를 ‘얼라인먼트(alignment)’라 부른다. 얼라인먼트는 ‘정렬’이라는 뜻으로, 인간의 중심 가치와 AI의 지향이 서로 같도록 정렬시킨다는 의미를 담고 있다. 국내의 몇 안 되는 얼라인먼트 연구자인 이 교수가 예를 들었다. “AI에게 ‘기후위기를 줄일 방법을 찾아달라’고 말했다 칩시다. 이때 AI가 ‘나무를 심자’ ‘공해를 규제하자’ 같은 대책 대신 ‘인간을 다 죽여버리자’고 답한다면, 인간이 원하는 목표와 다르게 얼라인(align)된 셈이죠.” 최근 AI의 발달 속도가 급격히 빨라지면서 얼라인먼트는 AI 위험에 대응하는 매우 중요한 연구 분야로 급부상 중이다. “클로드나 챗GPT 같은 AI가 초기에 수많은 인종차별적 실수를 저질렀지만, 요즘은 그렇지 않잖아요. 이미 수많은 얼라인먼트 연구가 현재도 쓰이고 있다는 뜻입니다.”

 

AI와 인간의 업무 능력 비교
▲자료: International AI Safety Report 2025
1998년부터 2024년까지, 인공지능(AI)의 성능은 급속히 발전했다. 10개 분야의 벤치마크 결과에서 AI의 성능이 인간 전문가의 능력을 거의 따라잡았음을 알 수 있다. 특히 최근으로 올수록 성능은 빠르게 좋아졌다.

 

 

 

하정우 대통령실 AI미래기획수석비서관에게 묻다

 

 

Q.한국 정부는 인공지능(AI)에 관해 어느 정도로 중요하게 생각하고 있습니까?

현 정부의 중요한 정책 전략 중 하나가 인공지능(AI)입니다. 대통령실에 AI 수석비서관이라는 직책이 생기고, 최근에는 AI 연구자가 과학기술정보통신부장관으로 발탁된 것만 봐도 아실 수 있을 겁니다. 


AI는 전기, 인터넷과 같은 보편기술이 될겁니다. 경제는 물론 군사 안보적으로도 중요한 기술이 될 텐데, 다른 국가에서 쉽사리 주려하지 않을 겁니다. 한국이 독립적인 AI 주권(Sovereign AI)을 갖는 게 꼭 필요해요.

 

Q.미국과 중국이 AI 기술을 선도하고 있습니다. 한국은 어떤 전략으로 다가가야 할까요.

미국, 중국의 2강에 이은 ‘G3’ 중 상위권을 목표로 합니다. AI에는 문화권의 정체성이 녹아듭니다. 그래서 선진국의 AI를 그저 가져와서 쓰기란 힘들어요. 국가별로 독자적으로 AI를 만드려 할 텐데, 이런 국가들과 한국이 협업할 수 있다고 봅니다.


한국은 에너지부터 메모리, 데이터 센터, 클라우드 센터 같은 컴퓨팅 인프라는 물론, 추후 ‘피지컬 AI’가 적용될 제조업 기반까지 갖췄습니다. AI와 관련된 모든 것을 한꺼번에 할 수 있다는 경쟁력과 매력이 있어서 다른 3위권 AI 국가들과 긴밀히 연합할 수 있어요.

 

Q.앞으로 구상하는 국가 전략은 무엇입니까?

국가 지원으로 경쟁력 있는 AI를 만든 후, 오픈소스로 풀어 국내 AI 생태계를 조성하는 것입니다. 국민들은 원하는 AI를 사용할 수 있도록 바우처를 지급하면 AI 접근성도 확보할 수 있겠죠. 현재 진행 중인 ‘독자 AI 파운데이션 모델 사업’이 이 전략의 첫 발걸음이라 보시면 됩니다.


앞으로 모두가 AI에 접근하고 활용할 권한을 인권으로 보장하는 시대가 올 겁니다. AI를 국어, 수학처럼 의무 교육으로 배울 거고요. 국가가 이를 챙겨야 합니다.

 

 

모두가 만들어나갈 특이점을 상상하면서

 

알파고 쇼크 10주년, 여러 곳에서 사람과 AI의 대결을 새롭게 추진한다는 소식이 들린다. 일론 머스크 테슬라 최고경영자(CEO)는 자신이 개발 중인 AI ‘그록 5’와 인간의 ‘리그 오브 레전드(LoL)’ 대결을 선언했다. ‘페이커’ 이상혁 선수가 소속된 T1팀이 대결에 응한 상태다. 2025년 11월 말에는 한국기원이 구글 딥마인드 측에 현 세계 랭킹 1위인 ‘신공지능’ 신진서 9단과 알파고의 대국을 제안했다는 소식이 여러 매체를 통해 보도됐다. 하 수석은 “신 9단 정도면 이길 가능성이 있다”고 봤다. “신 9단이 해법을 찾을 수 있어요. 10년 사이 AI를 통해 인간 기사들도 바둑을 꾸준히 더 높은 수준으로 학습했고요.” 하 수석의 예측은 AI뿐만 아니라 인간 또한 적응하고 발전하고 진화하는 존재임을, 그래서 미래를 직접 그려나갈 것이라는 당연하지만 잊기 쉬운 사실을 상기시킨다.


AI 특이점 또한 다가오는 것이 아니라 인류가 만드는 것이다. 모든 문제를 해결할 기술이 나올 것이란 낙관론적 시각 속에서, 테크 기업들과 자본가들에게 AI의 미래를 맡기는 것이 과연 괜찮은 일일지도 고민해 봐야 한다. 매튜 존스 미국 프린스턴대 역사학과 교수는 2025년 12월 8일 KAIST에서 열린 강연에서 “지금의 생성형 AI는 가장 위대한 기술인지는 몰라도, 가장 비싼 기술임은 분명하다”라고 말했다. AI 기술의 개발 유지 비용은 물론, 환경에 미치는 영향을 고려한 발언이다. 강연에 참가한 전치형 KAIST 과학기술정책대학원 교수는 12월 9일 e메일 인터뷰에서 “비싼 기술에 관한 통제권은 기술을 만드는 데 참여한 소수에게만 주어진다”며, “역사상 가장 비싼 기술을 민주주의 사회 공론장의 틀 안으로 가지고 들어와서 논의하는 것이 매우 어려운 상황”이라 설명했다.


전문가들은 개인이 이 상황에서 조금이라도 능동적으로 행동하기 위해 필요한 건 ‘교육’이라 답했다. 김 리더는 “많은 사람들이 ‘AI가 날 대체하지 않을까’ 걱정하지만, AI가 아무리 발전해도 사람이 제대로 일을 시켜야 제대로 된 결과물을 낼 수 있다”며 “‘AI 문해력’ 교육이 정말로 중요해질 거라 본다”고 전망했다.


결국 AI를 좀 더 이해하고 AI와 사회가 어떻게 서로를 그려나갈지 볼 수 있는 통찰력이, 특이점을 앞둔 개인에게 필요한 능력일지도 모른다. 그런 통찰력으로 우리는 특이점을 모두의 예언으로 바꾸고, 다가올 미래에 능동적으로 참여할 수 있다고 천 교수는 설명했다.
“기술은 국가와 기업, 시민들 사이에서 경제성, 사회문화적 힘, 윤리 같은 여러 가치가 타협해서 만들어지는 거예요. AI 기술 또한 인류가 어떤 행동을 하는 지에 따라서 앞으로 만들어질 결과가 엄청나게 달라질 수 있다는 뜻이에요. 우리의 목소리까지, 여러 목소리를 담아서 미래를 만들어 나가야 합니다.” 

 

▲Shutterstock
아르헨티나 고지대의 리튬 광산. AI의 깔끔한 흰색 프롬프트 화면 뒤에는 엄청난 양의 전력, 리튬과 같은 희토류 자원, 빅데이터 등이 들어간다. 몇몇 과학기술학자들이 현재의 AI 기술이 ‘가장 비싼 기술’이라고 설명하는 이유다.

 

전문가들이 정의하고 예측하는

AI 특이점의 미래

 

수많은 AI 전문가가 특이점의 도래를 예측하고 있다. 그런데 이들의 예측을 분석하다 보면 사실상 100명이 100가지 정의로 100개의 다른 특이점을 얘기한다는 것을 알 수 있다. ‘있다’와 ‘없다’, ‘인간 수준이다’와 ‘인간을 뛰어넘는다’, ‘온다’와 ‘오지 않는다’, ‘이미 왔다’와 ‘올 것이다’까지 천차만별의 예측을 여기서는 AI를 분류하는 세 가지 기준인 약인공지능(ANI), 범용인공지능(AGI), 초지능(ASI)을 토대로 그려봤다.

 

 

약인공지능(ANI·Artificial Narrow Intelligence)-지금까지의 AI

좁은 AI라고도 불리며, 한 가지 작업이나 좁은 범위의 작업을 수행하도록 훈련됐다. 바둑을 두는 ‘알파고’, 의료 진단을 하는 ‘왓슨’ 등이 포함된다. 인간의 작업 중 일부만 전문적으로 수행하지만, 그 작업에서는 인간보다 뛰어난 능력을 보여줄 수 있다. 챗GPT도 텍스트 기반 채팅이라는 단일 작업에 국한돼 약인공지능의 한 형태로 분류된다.

 

 

범용인공지능(AGI·Artificial General Intelligence)-특이점의 시작

범용인공지능(AGI)은 말그대로 인간의 지성을 구현해 인간이 하는 모든 지적 작업을 할 수 있는 AI를 의미한다. 혼자서 바둑도 두고, 의료 진단도 하고, 작곡도 할 수 있다. 많은 전문가들이 AGI를 구현하는 순간이 AI 특이점의 시작이라 간주한다. 단지 이론적 개념일 뿐이라는 의견도 있지만, 몇몇 연구자는 특이점이 이미 왔다고 주장하기도 한다.

 

 

 

초지능(ASI·Artificial Superintelligence)-완전한 특이점

ASI는 ‘인간을 뛰어넘은’ AI다. 인간 이상의 인지 능력을 소유해 사람도 할 수 없는 일을 해낼 것이다. 레이 커즈와일 같은 미래학자들이 궁극적인 특이점으로 여기는 단계다. 커즈와일은 초지능이 오면 인류 또한 기계와의 융합을 통해 이전과는 완전히 다른 존재로 진화하리라 믿고 있다. ASI 또한 여전히 이론적인 개념이다.

이 기사의 내용이 궁금하신가요?

기사 전문을 보시려면500(500원)이 필요합니다.

이 기사를 읽은 분이 본
다른 인기기사는?