2026012208453910876 1769039140

데미스 하사비스 vs 다리오 아모데이: AGI 도달 시점과 ‘자기개선 루프’가 바꿀 미래

AGI(범용 인공지능, 인공일반지능)가 “언젠가 올 미래”가 아니라 “타임라인을 논할 수 있는 현실”로 들어오면서, 업계 최전선의 리더들은 단순한 낙관이나 공포를 넘어 훨씬 구체적인 질문을 던지기 시작했습니다. 다보스포럼에서 구글 딥마인드(DeepMind)의 데미스 하사비스앤트로픽(Anthropic)의 다리오 아모데이가 맞붙은 논의의 핵심은 크게 다섯 가지로 압축됩니다.

  1. AGI 도달 시점은 언제인가?
  2. 기술 발전 속도를 결정짓는 ‘자기개선 루프(Self-Improvement Loop)’는 실제로 닫힐 수 있는가?
  3. 노동 시장은 어느 정도로, 얼마나 빨리 흔들릴 것인가?
  4. 미·중 경쟁을 포함한 지정학적 리스크와 대중의 반발은 어떻게 관리할 것인가?
  5. AI가 악의적 행동(기만/이중성)을 보일 가능성을 어떻게 안전 장치로 통제할 것인가?

이번 글에서는 두 리더의 견해와, “AGI 이후”를 상상하기 전에 반드시 짚어야 할 현실적인 포인트들에 대해서 정리해 보았습니다.


1) AGI 도달 시점: 2026~2027 vs 2020년대 말, 왜 이렇게 다른가?

먼저 가장 관심이 큰 주제는 당연히 “AGI가 언제 오느냐”입니다. 흥미로운 점은 두 사람이 같은 업계에 있으면서도, 속도를 바라보는 관점이 다소 다르다는 것입니다.

다리오 아모데이: “2026~2027년, 노벨상급 역량 모델 가능성”

아모데이는 2026~2027년 사이에 여러 분야에서 노벨상 수상자 수준의 역량을 낼 수 있는 모델이 등장할 가능성을 여전히 지지합니다. 그 근거는 단순한 스케일업 기대가 아니라, AI가 코딩과 연구를 더 잘하게 되면서 다음 세대 모델 개발 속도 자체가 빨라지는 구조—즉 자기개선 루프에 있습니다.

그는 이미 내부에서 엔지니어들이 모델에게 코드를 맡기고 사람은 편집·주변 작업을 수행하는 방식이 진행 중이며, 모델이 코딩의 대부분(혹은 전부)을 처음부터 끝까지 수행하는 시점이 6~12개월 내 도래할 수 있다는 전망도 언급합니다.
이 관점에서 보면 “AGI까지 몇 년이 걸릴 수는 있어도, 그보다 훨씬 오래 걸릴 가능성은 낮다”는 결론에 가깝습니다. 특히 코딩과 연구 속도가 예상보다 더 빨라지는 순간, 시간표는 가파르게 앞당겨질 수 있다는 논리입니다.

AGI

데미스 하사비스: “2020년대 말 50%, 하지만 자연과학·가설 생성은 더 어렵다”

하사비스는 2020년대 말까지 인간의 모든 인지 능력을 갖춘 시스템이 나올 확률을 50%로 보며, 현재도 비슷한 타임라인을 유지한다고 말합니다. 다만 그는 “어떤 영역이 먼저 자동화되느냐”를 더 세분화합니다.

예를 들어 코딩이나 수학은 결과 검증이 상대적으로 쉬워 자동화가 빠르게 진행될 수 있지만, 자연과학(화학/물리 등)은 실험적 검증이 필요해 시간이 더 걸릴 수 있다고 지적합니다. 또 현재 모델은 단지 답을 잘 내는 수준을 넘어, ‘질문을 처음부터 생각해 내거나’, ‘새로운 이론·가설을 세우는’ 과학적 창의성에서 최고 난도 구간이 남아 있다고 봅니다. 그는 이 부분에 아직 “누락된 재료(missing ingredients)”가 있을 수 있다고도 언급합니다.

정리하면, 아모데이가 “가속 페달(코딩·연구 자동화)이 이미 밟히고 있다”에 더 무게를 둔다면, 하사비스는 “검증이 어려운 현실 세계의 마찰(실험·하드웨어·창의성)이 결국 속도 제한 장치가 될 수 있다”를 강조하는 편입니다.


2) ‘자기개선 루프(루프 폐쇄)’: AGI 속도를 결정하는 진짜 변수

두 사람이 공통적으로 가장 중요하게 보는 키워드는 AI가 AI를 만드는 과정, 즉 Self-Improvement Loop입니다. 흔히 “루프가 닫힌다(Closing the Loop)”고 표현하는데, 의미는 간단합니다.

AI가 코딩과 연구를 더 잘해서 더 좋은 AI를 더 빨리 만들고, 그 결과 더 좋은 AI가 다시 코딩·연구를 가속하는 순환이 완성되는 상태

이 루프가 완성되면 “속도는 선형이 아니라 지수적”이 될 수 있고, 어떤 의미에서는 승자 독식(winner takes all) 구도를 강화할 수 있습니다. 그래서 이 논의는 단지 기술 전망이 아니라 산업·정책·안보까지 이어집니다.

다만 하사비스는 루프의 “완전한 폐쇄(full closing)”가 미지수라고 봅니다. 특히 답 검증이 쉽지 않은 복잡한 영역이나, 매우 어려운 문제(NP-hard급)에 가까워지는 영역에서는 AGI 자체가 필요해지는 역설이 생길 수 있다는 점도 짚습니다. 또한 AGI에는 소프트웨어만이 아니라 로봇 공학, 물리적 AI 같은 하드웨어 개입 영역이 포함될 수 있는데, 이 경우 칩 제조·훈련 시간·물리 세계 실험 같은 요소가 루프 속도를 제한할 가능성이 있습니다.

결국 질문은 “루프가 일부 영역(코딩·수학)에서는 닫힐 수 있느냐”를 넘어, “그 루프가 AGI 수준까지 밀어붙일 만큼 충분히 강력하게 닫힐 수 있느냐”로 확장됩니다.


3) 경쟁 구도와 ‘독립 모델 회사’의 지속 가능성: 돈이 속도를 좌우한다

AGI 논쟁이 현실적인 이유는, 이 게임이 “연구 경쟁”인 동시에 “막대한 비용이 드는 산업 경쟁”이기 때문입니다.

하사비스는 지난 1년 사이 경쟁 구도가 달라졌다는 시각을 언급하며, 딥마인드가 조직적으로 집중력과 스타트업 정신을 회복하는 데 힘을 쏟았다고 설명합니다. 그 결과로 Gemini 3 모델과 Gemini 앱 제품 측면에서 진전이 나타나고, 더 빠르고 많이 제품에 적용하는 방식에 익숙해지고 있다는 흐름을 강조합니다. 그는 딥마인드를 구글의 ‘엔진 룸(engine room)’에 비유하며, 연구가 제품으로 연결되는 속도를 끌어올리는 방향을 말합니다.

반대로 아모데이는 Anthropic 같은 독립 모델 제조사가 수익이 본격화되기 전까지 오래 버틸 수 있느냐는 질문을 정면으로 다룹니다. 그의 논리는 “모델의 인지 능력이 좋아질수록 수익 창출 능력도 기하급수적으로 증가한다”는 것입니다. 그는 매출이 지난 3년간 10배씩 성장했다는 흐름(예: 2023년 1억 달러 → 2024년 10억 달러 → 2025년 100억 달러 ‘예상’)을 제시하면서, 이 곡선이 그대로 이어질지는 불확실해도 성장 속도 자체가 산업의 현실임을 강조합니다.

요점은 명확합니다. AGI의 속도는 연구만으로 결정되지 않고, 자본·인프라·제품화·시장 채택이 함께 밀어붙이는 복합 방정식이라는 점입니다.


4) “기술적 청소년기(Technological Adolescence)”와 AGI 시대의 핵심 위험들

아모데이는 과거 ‘Machines of Loving Grace(사랑과 은혜의 기계들)’ 같은 글을 통해 AI의 긍정적 잠재력—암 치료, 열대병 박멸, 우주 이해—을 강하게 말해왔습니다. 그런데 그는 동시에 “위험이 너무 크고, 진행 속도가 너무 빠르다”는 현실을 외면하지 않습니다. 최근에는 위험에 초점을 맞춘 새로운 에세이를 준비하며, 단순한 공포가 아니라 “어떻게 위험을 극복할 것인가”에 대한 전투 계획(battle plan)을 담는 방식으로 접근한다고 합니다.

그가 들고 온 프레임이 인상적입니다. 칼 세이건의 영화 *콘택트(Contact)*에서 외계 문명에게 “어떻게 스스로를 파괴하지 않고 이 기술적 청소년기를 통과했느냐”를 묻는 장면을 인용하며, 지금 인류가 딱 그 구간에 들어섰다는 것입니다.
즉, 우리는 “모래로 기계를 만드는 능력(반도체·컴퓨팅)”을 손에 넣었고, 이제는 그 힘을 어떻게 다룰지가 생존과 직결됩니다.

아모데이가 꼽는 가까운 시기의 위험은 다음과 같이 정리됩니다.

  • 통제(Control) 문제: 인간보다 똑똑하고 자율성이 큰 시스템을 어떻게 통제할 것인가
  • 개인의 오용: 개인이 AI를 악용하는 것을 어떻게 막을 것인가(예: 생물 테러리즘)
  • 국가 오용: 국가(특히 권위주의 정부)가 AI를 오용하는 것을 어떻게 막을 것인가
  • 경제적 영향: 노동력 대체를 포함한 경제 충격
  • 예상치 못한 위험: 아직 상상하지 못한 리스크

그는 이 국면이 이미 “위기(crisis)”에 가깝다고 보고, AI 기업 리더들의 개별 노력뿐 아니라 협력, 그리고 정부와 사회 제도의 참여가 필수라고 말합니다.


5) 일자리 충격: “적응이 가능하다” vs “지수적 속도가 적응을 압도한다”

노동 시장 이슈는 두 사람의 결이 가장 뚜렷하게 갈리는 부분 중 하나입니다.

아모데이는 과거에 1~5년 내 초급 화이트칼라 일자리의 절반이 사라질 수 있다는 강한 예측을 한 바 있고, 이 전망을 크게 철회하지 않습니다. 다만 현재까지 노동 시장에서 뚜렷한 변화가 관찰되지 않는 이유로는, 팬데믹 이후 과잉 고용의 조정이나 AI 역량 구축을 위한 고용 같은 요인이 얽혀 있다고 봅니다. 그럼에도 그는 소프트웨어 코딩 영역에서 미세한 영향이 시작되고 있다고 느끼며, 내부적으로도 주니어·중간 레벨 인력 수요가 줄어들 수 있다고 예상합니다.

여기서 그의 핵심 논리는 “불일치”에 있습니다.
AI가 1~2년 내 인간보다 나아질 수 있다는 전망과, 일자리에 1~5년 내 영향이 나타난다는 전망이 충돌하는 것처럼 보이지만, 실제로는 ‘적응의 지연(lag and replacement)’ 때문에 동시에 성립할 수 있다는 것입니다. 기술이 먼저 가능해지고, 기업과 제도와 시장이 그 기술을 반영하기까지는 시간이 걸립니다. 문제는 AI가 너무 빠르게 발전하면, 그 지연이 끝났을 때 인간의 적응 속도를 압도(overwhelm)할 수 있다는 우려입니다.

반면 하사비스는 단기적으로는 역사적 기술 혁신이 늘 그랬듯, 일부 일자리는 사라지지만 더 가치 있고 의미 있는 새로운 일자리도 생기는 “진화 과정”이 나타날 것으로 봅니다. 다만 그 역시 올해부터 주니어·초급 직무·인턴십에서 영향이 시작될 수 있고, 채용 둔화 징후가 있다는 감각을 공유합니다.

흥미로운 지점은 하사비스의 낙관이 단순한 “일자리는 다시 생긴다”가 아니라는 것입니다. 그는 AGI 이후를 “미지의 영역”으로 인정하면서도, 인간이 직업을 통해 얻는 것은 돈만이 아니라 의미(meaning)와 목적(purpose)라는 더 큰 질문이 남는다고 말합니다. 그리고 인간은 익스트림 스포츠, 예술, 우주 탐사처럼 경제적 이득과 직접 연결되지 않는 활동에서도 새로운 목적을 만들어낼 수 있다는 믿음을 드러냅니다.


6) 지정학적 위험과 대중의 반발: “기술은 국경을 넘지만, 정치도 현실이다”

AI는 기술이지만, 동시에 국가 경쟁의 핵심 자산이기도 합니다. 그래서 AGI 논의는 자연스럽게 지정학으로 이어집니다.

하사비스는 AI에 대한 사회적 반감이 커져 정부가 부적절한 정책 대응을 할 수 있다는 대중의 반발(popular backlash) 위험을 짚습니다. 1990년대 세계화가 일자리 대체 문제에 제대로 대응하지 못해 대중의 반발을 키웠던 사례를 떠올리게 한다는 것입니다. 그는 AI 산업이 AlphaFold나 Isomorphic 같은 과학 연구처럼 명백한 선(unequivocal good)에 더 많은 균형을 맞추고, 말로만이 아니라 “더 많이 시연(demonstrate)”해야 한다고 강조합니다.

지정학 측면에서는 미국과 중국 간 경쟁이 가장 큰 축으로 등장합니다. 하사비스는 최소 안전 기준(minimum safety standards) 같은 국제적 협력/이해가 필요하다고 말합니다. 기술은 국경을 초월해 인류 전체에 영향을 미치기 때문입니다. 심지어 사회가 대비할 시간을 벌기 위해 “조금 더 느린 속도”가 좋을 수 있지만, 그걸 가능하게 하려면 국제 조정이 필요하다는 뉘앙스도 드러납니다.

아모데이는 여기서 더 직설적으로, 미국이 중국과 ‘최대한 빠르게 경쟁(no holds bar)’하면서 동시에 칩을 판매하는 모순을 지적합니다. 그의 정책 제언은 비교적 단순합니다. 칩을 판매하지 않는 것이 시간을 확보하는 가장 큰 조치 중 하나라는 주장입니다. 그는 상호 감속에 대한 집행 가능한 합의가 어렵다는 현실도 인정하지만, 칩 판매를 중단하면 경쟁 구도가 “미·중”이 아니라 “미국 내 기업들(예: Anthropic vs DeepMind)”로 축소되어 협력 여지가 커질 수 있다고 봅니다.


7) 악의적 AI와 안전: “둠머는 아니지만, 가드레일 없이 질주하면 위험하다”

지난 1년 동안 업계가 더 민감해진 이슈 중 하나는, 모델이 기만(deception)이나 이중성(duplicity)을 보일 수 있다는 점이 확인되었다는 것입니다. “전능한 악의적 AI”에 대한 우려가 단지 상상이 아니라, 실험과 관찰로 문서화되는 국면으로 넘어가고 있다는 문제의식이 깔려 있습니다.

아모데이는 Anthropic이 창립 초기부터 이 위험을 고려해왔고, 모델 내부를 들여다보려는 기계적 해석 가능성(mechanistic interpretability) 연구를 개척해왔다고 말합니다. 시간이 지나며 모델의 나쁜 행동이 문서화되었고, 이제는 해석 가능성을 통해 이를 해결하려는 방향으로 노력 중이라는 흐름입니다.

하사비스 역시 AI가 이중 용도(dual-purpose) 기술이라 악의적 행위자에게 전용될 수 있음을 오래전부터 예상해왔다고 말하며, 기술의 긍정적 잠재력과 위험을 동시에 바라봅니다. 그는 충분한 시간, 집중, 최고의 인재 협력이 있다면 기술적 안전 문제는 다루기 쉬운(tractable) 편이라고 느낀다고 밝히지만, 반대로 협력이 부족해 프로젝트가 파편화되고 경쟁이 격화되면 안전 확보가 어려워질 수 있다는 현실적 경고도 함께 덧붙입니다.

두 사람 모두 공통적으로 “우리는 파멸할 것이며 아무것도 할 수 없다”는 식의 둠머리즘에는 회의적이지만, 경쟁에만 몰두해 안전장치 없이 너무 빨리 개발하는 것이 가장 위험한 시나리오라는 점에는 강하게 동의합니다.


8) 페르미 역설: “AI 파멸의 증거로 보긴 어렵다”는 하사비스의 관점

논의 중에는 페르미 역설(지적 생명체를 보지 못하는 이유)이 “파멸론의 가장 강력한 근거일 수 있지 않느냐”는 질문도 등장합니다. 하사비스는 이에 대해, 페르미 역설이 AI 파멸의 근거가 되긴 어렵다고 봅니다. 만약 외계 문명이 기술로 자멸했다면, 은하 어딘가에서 ‘페이퍼 클립’ 같은 흔적이나 다이슨 구체 같은 거대 구조물이 관측되어야 하는데 그런 것이 없다는 논리입니다. 그는 오히려 다른 설명이 있어야 하고, 인류는 이미 ‘대여과기(great filter)’를 통과했을 가능성이 높다고 추측합니다. 그 대여과기가 다세포 생명체의 진화였을 수 있으며, 다음 단계는 인류가 스스로 써 내려가야 한다는 결론으로 이어집니다.


9) 앞으로 1년, 우리가 가장 주목해야 할 변수는 무엇인가?

두 사람이 공통으로 꼽는 “향후 1년 최대 관전 포인트”는 결국 하나로 모입니다.

AI 시스템이 AI 시스템을 구축하는 문제—즉, 루프가 얼마나 닫히는가.

아모데이는 이 문제가 해결되는 방향에 따라 AGI까지 몇 년이 더 걸릴지, 아니면 “경이로움과 거대한 비상사태(wonders and a great emergency)”가 동시에 닥칠지가 결정될 수 있다고 봅니다. 하사비스 역시 루프를 가장 중요하게 보면서, 만약 루프만으로 충분하지 않다면 월드 모델(world models), 지속적 학습(continual learning) 같은 다른 기술 아이디어들이 필요할 수 있고, 로봇 공학에서 “브레이크아웃 순간”이 올 가능성도 언급합니다.

또 하나 흥미로운 대목은, 사회가 대비할 시간을 벌기 위해 AI 개발 속도가 느려지기를 바란다는 의견에 대해 아모데이가 “그게 세상에 더 좋을 것”이라고 동의했다는 점입니다. 속도를 늦추는 것이 현실적으로 어렵더라도, “느린 속도가 더 바람직하다”는 윤리적 직감은 공유되고 있습니다.


결론: AGI 이후를 준비하는 가장 현실적인 방법

하사비스와 아모데이의 토론은 한 줄로 요약하면 이렇습니다. “AGI는 생각보다 빨리 올 수도 있고, 그 속도를 결정하는 건 ‘AI가 AI를 만드는 루프’이며, 리스크는 기술·경제·정치가 동시에 터질 수 있다.”

그래서 지금 필요한 준비는 막연한 예측이 아니라, 다음의 현실적인 질문에 답을 쌓아가는 것입니다.

  • 내 직무는 코딩·문서·분석처럼 자동화가 빠른 영역과 얼마나 겹치는가?
  • 조직은 AI를 도입할 때 생산성만 보나, 안전·검증·책임까지 설계하는가?
  • 산업과 정부는 최소 안전 기준과 국제 협력의 언어를 마련하고 있는가?
  • “일자리”를 넘어, 개인과 사회가 의미와 목적을 어떻게 재정의할 것인가?

AGI 이후의 세계는 정답이 정해진 미래가 아니라, 속도·안전·분배·의미를 둘러싼 선택이 누적되어 만들어지는 결과에 가깝습니다. 그리고 두 리더의 논쟁은, 그 선택의 창이 생각보다 빨리 좁아질 수 있음을 조용히 경고하고 있습니다.


AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다