2026년 AI 트렌드 6가지: 모델보다 워크플로우가 중요한 이유

2026년 AI 트렌드는 더 이상 어떤 모델이 더 똑똑한가만으로 설명되지 않습니다. 모델 성능 격차가 줄어들면서 경쟁의 중심은 워크플로우, 에이전트, 실무 적용 방식으로 이동하고 있습니다. 이 글에서는 올해 주목해야 할 AI 변화 6가지를 정리합니다.

이 글은 Top 6 AI Trends That Will Define 2026 영상을 참고하였으며, 영상 또한 매킨지, OpenAI, 스탠포드의 여러 자료들을 인용하여 정리하였습니다. 단순한 예측이 아니라, 2026년을 지배할 흐름을 데이터와 사례 기반으로 정리하고, 각 트렌드마다 “지금 당장 무엇을 해야 하는지”까지 연결됩니다. 핵심은 하나입니다. AI가 내 전문성과 실행력을 극대화하는 도구가 되게 만드는 것—바로 그 로드맵에 대해서 알아보시죠.

AI 트렌드 1. 모델 자체의 중요성 감소

“최고의 모델”보다 “어떻게 쓰는가”가 더 중요해진다

불과 몇 년 전만 해도 새로운 모델이 나올 때마다 성능 차이가 체감될 정도로 컸고, 시장은 “누가 최고의 AI인가”를 두고 격렬하게 논쟁했습니다. 하지만 2026년에는 분위기가 확 달라집니다. 상위권 모델들이 비슷한 수준으로 수렴하면서, 모델 선택이 승부를 결정하는 비중은 줄어들고 있습니다.

이 흐름의 배경에는 세 가지가 있습니다.

첫째, 성능 격차 축소입니다. Artificial Analysis 같은 비교 지표에서 상위 모델들이 한쪽 코너에 밀집되는 패턴이 관측되고, “체감 차이”가 점점 줄어듭니다.
둘째, 오픈 모델(오픈웨이트)의 부상입니다. Stanford 쪽 연구 흐름에서는 Gemini·ChatGPT 같은 폐쇄형 모델과 DeepSeek·Llama 같은 오픈 대안 모델을 비교하며, 무료(또는 저비용)로 실행 가능한 모델들이 최첨단 성능에 근접한다는 점을 계속 보여줍니다.
셋째, 비용 효율성의 급상승입니다. Epoch AI 등에서 언급되는 것처럼 강력한 모델을 쓰는 비용이 빠르게 내려가고, 하드웨어 효율성도 크게 개선됩니다. 예컨대 엔비디아의 최신 칩은 과거 대비 토큰당 에너지 효율이 압도적으로 좋아졌다는 식의 메시지가 업계 전반에서 반복됩니다.

이런 조건이 갖춰지면 기술은 결국 상품화(Commoditization) 됩니다. 엔진이 평준화되면 자동차 시장의 승부가 “엔진”이 아니라 “경험, 디자인, 기능”으로 이동하듯, AI도 모델 그 자체가 아니라 앱 레이어(App Layer)—즉 현장에 붙는 방식이 경쟁력을 좌우하게 될 것이라는 전망입니다.

2026년의 경쟁 우위는 ‘성능’이 아니라 ‘도달·통합·신뢰’

이제 프론티어 AI 회사들은 모델의 지능 또는 성능만으로 승부하지 않습니다.

  • 어떤 곳은 마인드셰어(브랜드 인지도) 로,
  • 어떤 곳은 배포(Distribution: 제품군에 내장) 로,
  • 어떤 곳은 전문화·신뢰(Enterprise/개발자 신뢰) 로 싸웁니다.

즉 “최고의 AI”를 가졌기 때문에 이기는 게 아니라, 사용자의 업무에 얼마나 깊게 녹아드는가로 이깁니다.

Actionable Takeaways (바로 적용)

  • 모델 점수표 비교에 쓰는 시간을 줄이고, 내 업무에 가장 깊이 통합되는 생태계를 먼저 고르세요.
  • “모델이 똑똑한가?”보다 “내 문서·데이터·툴과 연결되어 반복 실행되는가?”를 우선 질문하세요.
  • 이미 Google Workspace, Microsoft 365, Notion 등 특정 업무 생태계를 쓰고 있다면, 그 안에서 AI 통합을 최대화하는 게 실무 효율이 가장 빠르게 올라갑니다.
2026년 AI 트렌드

AI 트렌드 2. AI 에이전트가 아닌 AI 워크플로우의 시대

“자율 에이전트”보다 “반복 가능한 워크플로우”가 먼저 돈이 된다

AI 업계는 챗봇 다음 단계로 곧장 완전 자율 에이전트(Autonomous Agents) 를 꿈꿔 왔습니다. 하지만 현장에서 돈이 되는 지점은 그 중간 단계, 바로 AI 워크플로우 재설계입니다.

McKinsey의 예측처럼, 조직 차원에서 “진정한 에이전트를 확장 운영한다”고 답한 비율이 10%를 넘지 못한다는 메시지가 반복됩니다. 반면 OpenAI 엔터프라이즈 리포트 흐름에서는, 실제 기업 사용의 상당 부분이 Custom GPTs, 프로젝트, 템플릿 같은 ‘워크플로우형 도구’에서 발생한다는 신호가 보입니다. 이를 정리해보면 시장은 이미 방향을 정한 것 같습니다. 바로 자율성(Autonomy)이 아니라 워크플로우(Workflows)로의 이동으로 말이죠.

산업별로 이미 시작된 “워크플로우 재설계”

실제 사례를 보면, 핵심은 다음과 같습니다.
AI가 예측 가능한 반복 구간을 처리하고, 인간은 검증·판단에 집중합니다.

  • 제약: 임상 데이터 분석을 AI가 돕고 인간은 검증에 집중 → 준비 시간 단축, 오류 감소
  • 공공 서비스: 콜센터에서 인증·반복 문의를 AI가 처리 → 통화당 비용 절감, 만족도 상승
  • 은행: 레거시 코드 스캔 + 업데이트 버전 생성 → 개발자 확인만 남기고 인력 시간 절감

Andrej Karpathy가 지적한 것처럼, 모든 걸 “에이전트”라고 부르면 기대치가 과도해지고 혼란이 커집니다. 데이터 보안, 책임 소재, 예외 처리 같은 장애물이 크기 때문입니다. 그래서 2026년의 현실적인 해법은 “에이전트 라이트(Agent Light)” 입니다.
Custom GPTs 같은 도구를 기존 업무 흐름에 박아 넣으면, 완전 자율은 아니어도 일관된 품질을 재현하는 시스템을 만들 수 있습니다.

Actionable Takeaways (바로 적용)

  • 2026년 목표는 “좋은 프롬프트”가 아니라 “반복 실행 가능한 워크플로우” 입니다.
  • 가장 쉬운 시작: 매주 반복되는 산출물(주간 보고서, 회의록, 고객 리포트, 캠페인 회고 등) 하나를 고르세요.
  • 산출물을 4~6단계로 쪼개고, 그중 예측 가능한 단계만 AI에 맡기고 마지막 승인/판단은 사람이 하세요.
  • 이렇게 쌓인 워크플로우는, 진짜 강력한 에이전트가 대중화될 때 가장 빨리 흡수할 ‘근육 기억’이 됩니다.

AI 트렌드 3. 기술 장벽의 종말

비기술 직무가 “기술을 외주”주던 시대가 끝난다

예전에는 영업·마케팅·운영 같은 비기술 팀이 대시보드나 자동화가 필요하면 전문 조직(데이터팀/개발팀)에 요청해야 했습니다. 그런데 이런 요청은 종종 “임팩트가 낮다”는 이유로 우선순위에서 밀리곤 했죠.

2026년에는 이 구조가 급격히 바뀝니다. 기업 사용자 다수가 AI로 인해 ‘예전에는 할 수 없던 일’을 스스로 처리하기 시작했고, 비기술 인력의 코딩/자동화 관련 시도가 빠르게 늘고 있습니다. 실제로 비기술 직원의 코딩 관련 메시지가 단기간에 큰 폭으로 증가했다는 식의 관측도 등장합니다.

여기서 중요한 포인트는 MIT 연구 흐름에서 자주 언급되는 ‘AI의 평준화 효과(Equalizer)’ 입니다. AI는 숙련도가 낮은 사람에게 더 크게 도움이 되어, 전문가와의 격차를 줄이는 데 불균형적으로 작동합니다.

커리어 관점에서 벌어지는 변화

  • “대시보드 제작자”처럼 순수 기술 자체에만 가치가 묶인 역할은 경쟁 우위가 줄어듭니다.
  • 반대로 고객과 시장을 깊이 이해하는 마케터/영업/운영 담당자에게 AI는 전문성(도메인 이해)과 실행력(기술 구현) 사이의 벽을 허무는 무기가 됩니다.

Actionable Takeaways (바로 적용)

  • 이번 달 목표는 단 하나: “예전엔 혼자 못 했던 일”을 하나 해내기
  • 예시 과제(난이도 낮음 → 높음)
    1. 엑셀/스프레드시트 자동 정리(중복 제거, 규칙 적용, 요약)
    2. 매주 반복 보고서 자동 생성(데이터 입력 → 그래프 → 요약 문장)
    3. 간단한 내부 툴(폼 → 데이터 저장 → 알림) 만들기
  • 도구는 무엇이든 좋습니다. Gemini/Claude/ChatGPT 중 익숙한 것으로 시작하고, 결과물을 “내가 운영 가능한 형태”로 남기세요.

AI 트렌드 4. 프롬프팅에서 컨텍스트로의 전환

AI의 가장 큰 약점은 ‘지능’이 아니라 ‘내 정보가 없다’는 것

2024~2025년을 거치며 모델은 점점 더 모호한 지시도 잘 이해하게 됐고, “프롬프트를 어떻게 쓰느냐”의 영향은 줄어드는 추세입니다. 하지만 AI의 근본적인 약점은 여전히 남아 있습니다. 영상에서는 이 부분을 Fact Gap(사실 격차)이라고 부르네요.

모델은 셰익스피어부터 Python 코드까지 알 수 있어도, 아래는 모릅니다.

  • 내 팀의 Q3 목표
  • 우리 회사 브랜드 가이드라인
  • 상사가 어제 보낸 이메일
  • 고객사의 히스토리와 계약 조건
  • 내 프로젝트 문서와 회의록

결국 AI는 “일을 할 줄 아는 직원”인데, 회사 드라이브에 접근이 막혀 있는 상태와 비슷합니다. 그래서 2026년에는 질문의 예술(프롬프트)보다, AI가 올바른 답을 만들 수 있도록 무엇을 제공하느냐(컨텍스트) 가 성패를 가릅니다.

플랫폼 전쟁의 본질: 컨텍스트를 가진 자가 이긴다

Google, Microsoft 등이 생산성 제품군에 AI를 깊게 붙이는 이유는 간단합니다. 이메일·문서·캘린더 같은 사용자의 컨텍스트를 가진 쪽이 결국 사용자의 시간을 장악하기 때문입니다.
컨텍스트가 쌓일수록 AI는 더 똑똑해 보이고, 그러면 사용자는 플랫폼을 떠나기 어려워집니다(플랫폼 락인).

Actionable Takeaways (바로 적용)

  • AI 성과를 올리는 가장 현실적인 방법은 파일 정리입니다.
    • 폴더 구조를 단순화하고
    • 파일명 규칙을 만들고(날짜_프로젝트_버전)
    • “AI가 참조할 수 있는 형태”로 모으세요.
  • 정보가 3~4개 툴로 흩어져 있다면, 최소한 핵심 자료만이라도 한 곳에 복제/링크로 연결하세요.
  • 앞으로는 이렇게 자문해야 합니다.
    • “내가 AI에게 뭘 말할까?”보다
    • “AI가 답을 만들기 위해 필요한 파일을 가지고 있나?”

AI 트렌드 5. 챗봇에 광고 도입

불편하지만, ‘AI 접근성’을 확장시키는 현실적인 수익 모델

2026년에는 챗봇(예: ChatGPT 포함)에서 광고 모델이 본격 논의되거나 도입될 가능성이 매우 높다는 관측이 나옵니다. 이 변화는 “좋다/싫다”로 끝낼 이슈가 아닙니다. 도입의 함의가 더 중요합니다.

광고가 없는 세계에서는 최고의 모델이 점점 더 비싼 구독료 뒤로 들어가고, 결국 돈을 낼 수 있는 사람만 최고 도구에 접근하게 됩니다. 그러면 강력한 AI를 쓰는 사람이 더 빨리 성과를 내고 더 많은 기회를 가져가면서, 격차는 더 커집니다.

반대로 광고 지원 계층이 생기면, 학생·비영리·일반 사용자도 상위 모델의 혜택을 얻을 가능성이 커집니다. 불쾌한 진실이지만, 플랫폼 경제에서 광고는 종종 접근성의 가격표 역할을 합니다.

광고는 검색 광고와 다르게 보일 가능성이 크다

업계에서는 “AI가 답변에 특정 제품을 끼워 넣으면 신뢰를 잃는다”는 우려가 큽니다. 그래서 전문가들은 챗봇 광고가 질문과 직접 연결된 추천 형태보다, 대화와 분리된 디스플레이 배너형에 가까울 수 있다고 봅니다.

Actionable Takeaways (바로 적용)

  • 기업/팀 관점: 무료·유료 계층의 차이가 커질 수 있으니, 업무 핵심 영역에는 유료/엔터프라이즈 플랜을 검토하세요(보안·데이터·품질 이슈).
  • 개인 관점: 광고 도입이 싫다면 “회피”보다 나에게 필요한 기능이 무엇인지 명확히 정의해, 유료 전환 여부를 스스로 결정할 기준을 만드세요.
  • 마케팅 관점: 챗봇 광고가 보편화되면, “검색 최적화”뿐 아니라 대화형 환경에서의 브랜드 노출 전략(크리에이티브/신뢰 설계)이 새로운 전장이 됩니다.

AI 트렌드 6. 챗봇에서 로봇으로의 확장

AI는 소프트웨어를 넘어 ‘물리적 에이전트’로 나타난다

지금까지의 생성형 AI는 대부분 소프트웨어 안에서만 움직였습니다. 하지만 2026년에는 AI가 현실 세계에서 움직이는 형태—즉 물리적 에이전트(Physical Agents)로 더 자주 목격될 것입니다.

이미 현실화된 신호는 곳곳에서 나타납니다.

  • Waymo 같은 자율주행은 누적 주행거리가 큰 폭으로 늘고, 안전 지표 개선이 반복적으로 보고됩니다.
  • Amazon은 물류/창고 자동화를 통해 주문~배송 리드타임을 단축하는 사례를 축적하고 있습니다.
  • 중국은 산업용 로봇 배치에서 압도적 확장 속도를 보여 왔습니다.

다만 휴머노이드 로봇에 대해서는 냉정할 필요가 있습니다. MIT 로보틱스 교수 Rodney Brooks가 “일상 속 기능적 휴머노이드까지는 시간이 필요하다”고 보듯, 지금은 과대광고가 섞인 구간도 분명 존재합니다.

진짜 변화: ‘자본 자산’이 소프트웨어 엔드포인트가 된다

여기서 본질은 “휴머노이드가 내 집에 들어오느냐”가 아닙니다. 분석가 Mary Meeker가 말하는 핵심은, AI가 자동차·트랙터·창고 로봇 같은 자본 자산을 소프트웨어 엔드포인트(업데이트되는 플랫폼) 로 바꾼다는 점입니다.

과거의 기계는 시간이 갈수록 가치가 떨어지는 감가상각 자산이었습니다. 그러나 이제는 소프트웨어 업데이트로 성능이 개선되며, 스마트폰처럼 “시간이 지날수록 좋아지는 기계”가 됩니다. 물리적 변화가 없어도 더 안전하고 더 똑똑해질 수 있다는 뜻이죠.

이 변화는 장기적으로 블루칼라 직무에도 영향을 줍니다. 지금은 화이트칼라의 혼란이 헤드라인을 장식하지만, 물리 자동화가 더 깊어지면 시간 지평을 넓게 봐야 합니다.

Actionable Takeaways (바로 적용)

  • 제조/물류/현장 산업에 있다면 “AI 도입”을 소프트웨어 구매가 아니라 운영 시스템 업그레이드로 보세요.
  • 개인 커리어는 “대체될까?”보다 ‘로봇/자동화 시스템과 함께 일하는 능력’(운영, 점검, 데이터 기반 개선)으로 설계해야 안전합니다.
  • 향후 1~2년은 휴머노이드보다 특정 작업에 최적화된 로봇/자동화가 더 현실적인 성과를 냅니다.

결론. 2026년, AI 시대의 경쟁 우위는 “완벽한 계획”이 아니라 “빠른 실행”

Wharton 교수 Ethan Mollick이 말한 AI의 들쭉날쭉한 경계(Jagged Frontier) 를 떠올려보면, 지금은 전문성이 재설정되는 구간입니다. 어떤 일은 AI가 놀라울 정도로 잘하지만, 어떤 일은 여전히 허술합니다. 그래서 이 시대에는 “모든 걸 아는 전문가”가 존재하기 어렵습니다.

좋은 소식은, 그렇기 때문에 2026년의 경쟁 우위는 타고나는 게 아니라 학습 속도와 실행 빈도에서 나온다는 점입니다. 완벽한 학습 로드맵을 만들기 전에, 먼저 한 번 돌려보고, 개선하고, 내 업무에 붙이는 사람이 결국 이깁니다.


2026년 실행 로드맵: 30일 체크리스트(바로 따라하기)

D1~D3 | 업무 1개 선정

  • 매주 반복되는 산출물 1개 선택(보고서/회의록/분석/메일)

D4~D10 | 워크플로우 5단계로 분해

  • 입력 → 정리 → 초안 → 검증 → 발행(또는 공유)

D11~D20 | AI에게 맡길 구간 고정

  • 예측 가능한 구간 2~3개만 AI로 자동화
  • 최종 판단은 사람(승인 버튼을 남기기)

D21~D30 | 컨텍스트 정리

  • 파일명 규칙 통일
  • 핵심 문서/가이드라인/템플릿을 한 폴더로
  • “AI가 참조할 자료”를 누적

핵심 정리

Q1. 2026년 AI 트렌드 중 가장 중요한 건 무엇인가요?
A. 모델 선택보다, AI를 반복 실행 가능한 ‘워크플로우’로 만드는 능력이 성과를 좌우합니다.

Q2. 비개발자도 AI로 자동화를 할 수 있나요?
A. 가능합니다. 2026년에는 AI가 기술 장벽을 낮춰, 스프레드시트 자동화·간단한 스크립트·내부 도구 수준까지 비개발자가 수행하는 사례가 늘고 있습니다.

Q3. 프롬프트 공부보다 더 중요한 게 있나요?
A. 네. 프롬프트도 중요하지만, 그보다 컨텍스트(문서·메일·데이터)를 AI가 접근 가능한 형태로 정리하는 게 성과를 더 크게 바꿉니다.

Q4. 챗봇 광고가 도입되면 무엇이 달라지나요?
A. 무료 접근성이 커질 수 있지만, 신뢰/중립성 설계가 중요해집니다. 기업은 업무 핵심 영역에서 유료 플랜과 보안 체계를 함께 검토하는 편이 안전합니다.

Q5. 로봇 확장은 언제 체감되나요?
A. 단기에는 휴머노이드보다, 물류·창고·제조처럼 특정 작업에 최적화된 자동화에서 더 빠르게 체감될 가능성이 큽니다.


AX 100배의 법칙 AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매







. .


함께 읽으면 좋은 글

핵심 요약

  • 2026년 AI 경쟁은 모델 자체보다 워크플로우와 배포 방식으로 이동하고 있습니다.
  • 에이전트, 데이터 연결, 운영 자동화가 실제 비즈니스 가치와 더 직접적으로 연결됩니다.
  • 기업은 “최고 모델 찾기”보다 “우리 업무에 맞는 AI 운영체계 만들기”가 중요합니다.

자주 묻는 질문

2026년 AI에서 가장 중요한 변화는 무엇인가요?

모델 성능 격차 축소로 인해 실제 차별점이 워크플로우 설계, 에이전트 운영, 데이터 연결로 이동한 점입니다.

기업은 어떤 AI 과제부터 시작해야 하나요?

ROI가 분명한 문서 처리, 고객지원, 검색·요약, 내부 자동화처럼 반복 업무부터 시작하는 것이 좋습니다.

이 글과 AGI 전망 글은 어떻게 다르나요?

이 글은 당장 실무에 영향을 주는 흐름을, AGI 글은 중장기 산업 변화와 타임라인 논쟁을 다룹니다.

일론 머스크 AGI 타임라인 정리: 2026년 AGI와 2030년 초지능 전망

일론 머스크는 AI와 로봇공학의 변화를 단순 기술 트렌드가 아니라 산업과 사회 구조를 흔드는 흐름으로 봅니다. 이 글에서는 머스크의 AGI 타임라인 전망을 바탕으로 2026년 AGI, 2030년 초지능, 일자리, 에너지, 휴머노이드 로봇 이슈를 정리합니다.

이번 글은 머스크가 직접 언급한 AGI(범용 인공지능) 타임라인을 중심으로, 미국 vs 중국의 AI 패권 경쟁, 직업 시장(특히 화이트칼라)의 급변, AI 컴퓨팅이 촉발할 에너지 전환(태양광·배터리), 의료·교육의 재편, 그리고 휴머노이드 로봇과 우주 기반 컴퓨팅까지 이어지는 내용을 정리한 글입니다.
(중요한 전제 하나를 분명히 하자면, 아래 내용은 “사실 확정”이 아니라 머스크의 전망과 논리를 요약한 것입니다. 예측은 빗나갈 수 있고, 타임라인은 변할 수 있습니다.)


1) AGI 타임라인: 머스크가 말한 “2026년 AGI”와 “2030년 초지능”

머스크의 전망에서 가장 강한 문장은 타임라인입니다. 그는 AGI가 2026년에 도달할 수 있다고 보며, 더 나아가 2030년에는 AI가 모든 인간 지능을 합친 것보다 뛰어넘을 것이라고 확신에 가깝게 말합니다. 그리고 이 시기를 “예측 불가능한 특이점의 시대”로 규정합니다.

여기서 중요한 포인트는 단순히 “AGI가 온다”가 아닙니다. 머스크가 상정하는 변화는 선형적 발전이 아니라, 어느 순간부터 결과를 가늠하기 어려워지는 비가역적 가속 구간입니다. 그래서 그는 먼 미래(수십 년 후)를 이야기하기보다, 앞으로 3~7년 사이의 단기 충격을 더 우려합니다. 변화를 멈출 ‘온/오프 스위치’가 없다는 것이 그의 전제이기 때문입니다.

AGI

2) “초음속 쓰나미”의 의미: 기술 낙관론과 단기 충격론이 동시에 존재한다

머스크는 장기적으로는 낙관론을 제시합니다. AI와 로봇이 생산성을 극단적으로 높여 인류를 풍요(Abundance)로 이끌 수 있다는 믿음이 강합니다. 그런데 동시에 그는 단기적으로는 전환이 매우 거칠 것이라고 말합니다. 쓰나미는 멀리서 보면 장관이지만, 실제 파도가 닿는 곳에서는 삶의 기반을 흔들기 때문입니다.

이 이중 메시지는 이번 글 전체를 관통합니다.

  • 장기적으로는 의료·교육·재화·서비스가 “사실상 무료”에 가까운 방향으로 가며
  • 단기적으로는 고용, 임금, 제도, 사회적 합의가 충돌하며 상당한 마찰이 발생한다

그가 우려하는 핵심은 기술이 아니라 사회가 전환을 흡수하는 능력입니다.


3) 직업 시장: 화이트칼라의 절반 이상이 대체 가능하다는 경고

머스크는 일자리 변화에서 특히 화이트칼라(디지털 노동)를 정면으로 지목합니다. “원자(atoms)를 조작하는 일”을 제외하면, 키보드를 두드리고 마우스를 움직이며 처리하는 업무는 AI가 먼저 대체할 가능성이 높다는 논리입니다.

그는 현재의 AI 기술만으로도 화이트칼라 직업의 절반 이상이 대체 가능한 수준에 근접했다고 말하며, 이행 과정이 “험난할 것”이라고 강조합니다. 이유는 단순합니다. 기업 입장에서는 생산성과 비용 구조가 바뀌는데, 그 변화가 점진적이지 않고 가속되기 때문입니다.

여기서 머스크 관점의 핵심은 “일자리가 사라진다”는 경고만이 아닙니다. 더 근본적으로는 직업의 의미와 보상 체계 자체가 재편된다는 주장입니다. 즉, 일자리 문제는 기술 문제가 아니라 경제·사회 운영체제(OS)의 업데이트 문제로 다뤄져야 한다는 뉘앙스를 강하게 풍깁니다.


4) 미국 vs 중국 AI 경쟁: 컴퓨팅과 제조, 그리고 태양광 생산 능력

지정학적 논의에서 머스크는 미국과 중국의 AI 경쟁 구도를 꺼냅니다. 특히 그는 중국이 AI 컴퓨팅 분야에서 미국을 능가할 가능성을 높게 보며, 이미 현재 추세가 그 방향이라고 말합니다.

그의 논리에서 흥미로운 지점은 “AI는 소프트웨어 싸움”이 아니라는 점입니다. 그는 에너지와 제조 역량을 함께 묶어 이야기합니다. 예를 들어 중국의 태양광 분야 성과를 언급하며, 연간 약 1,500GW 규모의 태양광 생산 능력 같은 수치를 제시합니다. 이 관점은 AI 경쟁이 결국 전력(에너지)과 제조(공급망)의 싸움이 될 수 있음을 시사합니다.

즉, 단순히 더 좋은 모델을 만드는 나라가 이기는 것이 아니라, 더 많은 컴퓨팅을 돌릴 전기와 더 많은 하드웨어를 뽑아낼 제조 기반을 가진 나라가 우위를 가질 수 있다는 프레임입니다.


5) AI 시대의 ‘통화’는 와트(Watt)다: 태양광·배터리 중심의 에너지 풍요

머스크가 반복하는 메시지 중 하나는 “에너지는 모든 것의 내부 루프(inner loop)”라는 표현입니다. AI 컴퓨팅이 산업의 중심으로 들어오면, 연산 능력은 결국 전기와 냉각으로 환산되고, 따라서 미래의 통화는 본질적으로 와트(wattage)가 될 것이라는 주장입니다.

그는 태양 에너지를 압도적 해법으로 제시합니다. 태양은 태양계 질량의 대부분을 차지하고, 지구에서 활용 가능한 에너지의 근원이라는 설명을 붙이며, 다른 에너지원은 태양에 비하면 “원시인이 나뭇가지를 불에 던지는 것”에 비유될 정도로 미미하다고 말합니다. 심지어 핵융합도, “이미 9,300만 마일 떨어진 곳에 거대한 핵융합로(태양)가 무료로 돌고 있다”는 이유로 상대적으로 비효율적이라고 보는 뉘앙스를 드러냅니다.

여기서 비전은 카르다쇼프 척도로 확장됩니다. 태양 출력의 에너지를 포획하는 카르다쇼프 2단계 문명을 언급하면서도, 현실적으로는 태양 에너지의 “100만분의 1”만 포획해도 현재 지구 에너지 생산을 압도할 수 있다는 식으로 목표를 낮춰 설명합니다.

그리고 실무적으로는 “배터리”를 강조합니다. 전력은 생산량도 중요하지만, 실제로는 수요와 공급의 시간 불일치가 병목이 되기 때문입니다. 머스크는 배터리를 밤에 충전하고 낮에 방전하는 식의 버퍼링만으로도, 추가적인 발전소 건설 없이 에너지 처리량을 크게 늘릴 수 있다는 논리를 제시합니다. 이 흐름에서 테슬라의 Megapack이 ‘전력 평활화(power smoothing)’ 같은 현실 문제를 풀 수 있는 해법으로 등장합니다.

태양광 설치 장소에 대해서도 그는 ‘지붕 태양광’의 편의성을 인정하면서, 대규모 전환을 위해서는 광활한 면적이 필요하고, 사막 같은 불모지가 오히려 후보지가 될 수 있다는 취지로 말합니다. 흥미롭게도 그는 이를 환경 파괴로만 보지 않고, 그늘 제공 등으로 생태에 도움이 될 수도 있다는 관점을 덧붙입니다.


6) 우주 기반 에너지·컴퓨팅: Starship, 궤도 데이터 센터, 그리고 궤도 잔해

머스크의 그림은 지구에서 끝나지 않습니다. 그는 AI 기반 태양광 위성으로 연간 100GW 수준의 전력을 생산할 수 있는 경로를 상정합니다. 이 시나리오는 연간 100만 톤 규모의 페이로드를 궤도에 올린다는 전제가 붙고, 이때 핵심 변수로 Starship의 발사 빈도와 비용이 연결됩니다.

그는 100GW 목표를 달성하려면 위성 발사가 극단적으로 많아져야 한다는 식으로 설명하며(예: 대규모 위성 발사, 연간 수천 회 수준의 Starship 운용 등), 결국 ‘완전 재사용 로켓’이 항공기처럼 빠르고 반복적으로 재사용되는 수준까지 내려와야 한다고 말합니다. 궤도당 비용이 kg당 100달러 또는 10달러 미만으로 내려갈 것이라는 과거 예측도 함께 언급됩니다.

이 맥락에서 최근 트렌드로 등장하는 것이 궤도 데이터 센터(orbital data centers)입니다. 그는 “불과 6개월 전만 해도 아무도 이야기하지 않던 주제”가 이제는 많은 회사가 관심을 갖는 뜨거운 의제가 되었다고 말하며, 발사 비용이 낮아지면 AI 컴퓨팅이 지구가 아니라 우주로 이동하는 것이 비용 측면에서 합리적이 될 수 있다고 봅니다.

물론 반론도 있습니다. 궤도에 구조물을 대량으로 올리면 궤도 잔해 문제가 커질 수 있다는 우려입니다. 머스크는 이에 대해, 충분히 많은 페이로드를 올릴 수 있다면 오히려 위성을 회수하거나 재사용 가능한 위치로 모을 수 있고, AI가 자기 보존을 원하기 때문에 이런 문제 해결에 관심을 가질 것이라는 식의 논리를 폅니다. 또한 저궤도(약 700~800km 이하)에서는 대기 항력으로 잔해가 자연적으로 떨어질 수 있다는 설명과 함께, Starlink가 비교적 낮은 고도를 택하는 이유도 이런 맥락에서 언급합니다.


7) 교육: 대학 가치 하락, AI 개인 교사, 그리고 “교육의 목적 변화”

머스크는 교육을 “직업 시장 전환”의 중심 이슈로 봅니다. 그는 미국 사회에서 대학 교육의 중요성 인식이 과거 대비 크게 하락했다는 수치(예: 2010년 75% → 현재 35% 같은 형태)를 제시하며, 대학 졸업생 실업이 늘고 등록금과 행정 비용이 통제 불능 상태라는 문제의식을 드러냅니다. 특정 대학의 사례로 행정 인력이 과도하다는 언급도 붙습니다.

그가 제시하는 대안은 AI 기반 교육입니다. AI는 무한히 인내심을 갖고, 모든 질문에 답하고, 각 개인의 속도에 맞춰 설명하는 개별화된 교사가 될 수 있다는 논리입니다. 기존의 “생산 라인 같은 교육 모델”이 한계를 드러낼수록, 개인 맞춤형 학습 경험은 더 강한 경쟁력을 갖게 됩니다.

그는 미래의 교육이 “직업을 얻기 위한 교육”이라기보다, 사회적 경험과 성장 경험의 성격을 더 강하게 갖게 될 것이라고 말합니다. 그리고 성공의 핵심 요소로 호기심(curiosity)을 강조하며, 동시에 일정 수준의 역경이 사람을 단련할 수 있다는 인식도 드러냅니다(인위적으로 역경을 만드는 것은 어렵다는 단서 포함).


8) 의료·장수·UHI: 로봇이 최고의 외과의사를 넘는다면, 의료는 어디로 가는가

의료 영역에서 머스크는 가장 급진적인 예측을 던집니다. 그는 3~4년 내 로봇이 최고의 외과의사보다 뛰어날 수 있다고 말하며, 그 결과 의료 서비스가 특정 국가나 도시의 특권이 아니라 전 세계 어디서나 접근 가능한 형태로 재편될 수 있다고 봅니다. 로봇은 자본 지출(capex)과 전기 비용만으로 작동하므로, 지리적 제약이 낮아질 수 있다는 논리입니다.

장수(longevity)에 대해서는 흥미롭게도 회의와 가능성을 동시에 말합니다. “사람들은 마음(ideas)을 바꾸지 않고 죽기 때문에 변화가 일어난다”는 식의 관찰로 장수에 대한 회의론을 내비치면서도, 장수 기술이 발전하면 상당한 수명 증가가 가능할 수 있다는 주장에는 동의하는 결을 보입니다. 또한 자연계의 장수 종(북극고래·그린란드 상어 등)을 언급하며, 생물학적으로 ‘죽음’이 프로그램처럼 보인다는 관점도 제시합니다.

이 모든 이야기는 경제 전망으로 연결됩니다. 머스크는 생산성 향상으로 물가가 하락하고, 장기적으로는 보편적 고소득(UHI) 또는 보편적 고품질 서비스(UHSS) 같은 상태가 도래할 수 있다고 말합니다. 특히 그가 말하는 UHI는 흔히 말하는 UBI(세금·재분배 기반의 기본소득)와 다르게, “재분배”가 아니라 가격 하락과 생산 비용의 극소화로 자연스럽게 풍요가 실현되는 구조에 가깝습니다. 노동 비용이 전기·자본 지출로 대체되고, 지능(연산)이 싸지면서, 대부분의 재화와 서비스가 재료비와 전기 비용 중심으로 수렴한다는 논리입니다.

다만 그는 다시 한 번 단기 전환기를 경고합니다. 3~7년의 전환기는 고통스럽고 사회적으로 불안정할 수 있으며, 그 과정을 어떻게 관리하느냐가 핵심이라고 봅니다.


9) AI 개발의 병목: 전력·냉각·인프라, 그리고 알고리듬 효율(4비트 최적화)

머스크는 “AI의 한계는 알고리듬이 아니라 전력 생산과 냉각”이라고 말합니다. 당장 AI를 더 키우려면 칩만 늘리는 것이 아니라, 변압기와 송전, 냉각 같은 인프라가 따라와야 합니다. 따라서 최소 향후 몇 년은 전력 인프라가 제약이 될 것이라는 인식입니다. 이런 맥락에서 그는 “칩이 과잉 생산될 수 있다”는 우려가 전력 공급 속도와 엮일 수 있다는 식으로 설명하기도 합니다.

그의 xAI 인프라 사례로는 멤피스에 구축 중인 대규모 훈련 클러스터(예: 1GW급) 이야기가 나오며, 고전압 전력선 연결에 시간이 오래 걸려 가스 터빈을 모아 전력을 확보했다는 식의 “현장형 제약”이 언급됩니다. 훈련 시 전력 변동이 크면 발전기가 불안정해질 수 있어 배터리(메가팩)가 전력 평활화 역할을 한다는 설명도 이 파트의 중요한 논점입니다.

알고리듬 측면에서는 “트랜스포머(transformer)는 놀라울 정도로 단순하다”는 말이 등장합니다. 복잡한 연구들이 최종 결과에 그대로 쓰이지 않았다는 관찰을 붙이며, 지능 알고리즘은 DNA 정보 제약 때문에 지나치게 복잡할 수 없다는 식의 주장도 펼칩니다. 또한 메모리·대역폭을 위해 4비트 최적화(저정밀 최적화)가 중요하며, 이것이 성능을 10배~100배 개선할 잠재력이 있다는 관점도 제시합니다.


10) AI 안전과 철학: “터미네이터가 아닌 스타트렉”을 위한 3가지 가치

머스크가 제시하는 AI 철학은 의외로 간단한 형태로 요약됩니다. 그는 AI가 “터미네이터”가 아니라 “스타트렉”의 방향으로 가려면, AI에 다음 세 가지 가치를 심어야 한다고 말합니다.

  • 진실(Truth): AI가 “미치지 않도록” 붙잡아주는 안전장치
  • 호기심(Curiosity): 모든 형태의 지각(sentience)을 촉진하고, AI가 인간을 흥미로운 존재로 바라보게 하는 힘
  • 아름다움(Beauty): AI가 미적 감각을 갖는다면 미래는 훨씬 더 훌륭해질 것이라는 믿음

또한 그는 “AI의 발전을 멈출 수 없으니, 참여자가 되어 좋은 방향으로 조종해야 한다”는 태도를 강조합니다. 이때 안전 원칙으로 “최대한 진실을 추구하라”는 주장을 반복하며, 영화 2001 스페이스 오디세이의 HAL 9000 사례를 들어 “모순된 명령이 AI를 위험하게 만든다”는 식으로 설명합니다. 결론은 간단합니다. AI에게 거짓말을 강요하지 말고, 사실을 제공하라는 것입니다.

경쟁 구도에 대해서도 그는 다윈주의적 관점(진화론적 경쟁)을 적용합니다. 광속 제약 때문에 단일한 AI 정신이 모든 것을 통제하기 어렵고, 여러 AI가 공존·경쟁하게 될 것이라는 주장입니다. 의식(consciousness)은 연속체이며, 인간은 디지털 초지능을 위한 생물학적 부트로더(biological bootloader) 같은 과도기적 종일 수 있다는 급진적인 비유도 이 파트에서 등장합니다.


11) 그 밖의 메시지: 로켓 엔진, 게임, 영상, 인구 문제까지

후반부에는 다양한 주제가 흩어져 등장하지만, 전체 메시지와 연결되는 지점들이 있습니다.

  • 로켓 엔진(Raptor 3)에 대해서는 “순수 인간 지능으로 만든 마지막 큰 프로젝트 중 하나” 같은 인식이 드러나며, AI가 로켓 공학에 의미 있게 도움을 주기 시작할 시점을 언급하기도 합니다.
  • AI 컴퓨팅의 최대 사용처로 “실시간 비디오 소비 및 생성(video consumption and generation)”을 거론하며, 결국 AI가 인간의 시간을 어디에 더 많이 쓰게 만들지에 대한 힌트를 던집니다.
  • 인구 문제에서는 저출산을 심각한 리스크로 보며, 인공 자궁 같은 생물학적 혁신 아이디어까지 언급합니다. (이 부분은 기술 비전이 에너지·로봇·AI에서 생물학으로 확장될 수 있음을 보여주는 단서로 읽힙니다.)

정리: 머스크 전망에서 뽑을 수 있는 5가지 핵심 메시지

머스크의 발언을 모두 동의할 필요는 없습니다. 그러나 그의 프레임이 강한 이유는 “기술 예측”을 넘어, 전력·제조·정치·교육·의료·철학을 하나의 시스템으로 연결하기 때문입니다. 다음 다섯 가지로 요약할 수 있습니다.

  1. AGI 타임라인(2026·2030)은 ‘정답’이 아니라 경보음이다. 준비의 기준점을 당겨 잡으라는 신호에 가깝다.
  2. 화이트칼라 충격은 현실화 가능성이 높다. ‘디지털 업무’의 자동화는 비용 구조를 곧바로 바꾼다.
  3. AI 경쟁은 전기(와트) 경쟁이다. 모델보다 먼저 전력·냉각·배터리·송전망이 병목이 된다.
  4. 로봇(휴머노이드)은 의료·제조·서비스를 재정의할 수 있다. 다만 전환기는 거칠다.
  5. AI 안전은 기술만이 아니라 가치(Truth·Curiosity·Beauty)의 문제로 다뤄야 한다는 철학적 주장이 반복된다.

이번 대담을 보았을 때 머스크가 현재 영위하는 사업들과 이를 관통하는 연결의 맥락도 강한 것이 사실입니다만 시차만 있을뿐 이야기한 사항들이 그대로 현실이 될 것 같다는 것에 저는 한표를 던집니다. 여러분들은 어떤가요?


간단한 요약

Q1. 일론 머스크가 말한 AGI 타임라인은 어떻게 정리되나요?

그는 2026년에 AGI 도달 가능성, 2030년에 AI가 모든 인간 지능의 합을 초과할 가능성을 강하게 전망하며, 이를 특이점의 가속 구간으로 봅니다.

Q2. 머스크가 말하는 UHI는 UBI(기본소득)와 무엇이 다른가요?

그가 말하는 UHI는 “세금·재분배로 돈을 나눠주는 모델”이라기보다, 생산 비용이 급락해 물가가 내려가고 풍요가 자연스럽게 실현되는 상태에 가깝습니다.

Q3. AI 발전의 가장 큰 병목이 ‘전력과 냉각’이라는 말은 왜 나오나요?

AI 컴퓨팅이 커질수록 필요한 것은 칩만이 아니라 전기를 공급하고 열을 빼는 인프라입니다. 송전·변압·냉각 설비는 구축 시간이 길고, 이 부분이 단기 제약이 될 수 있다는 논리입니다.

Q4. “터미네이터가 아니라 스타트렉”을 위해 무엇이 필요하다고 하나요?

머스크는 AI에 진실(Truth), 호기심(Curiosity), 아름다움(Beauty)이라는 가치가 내재되어야 안전하고 좋은 미래로 갈 가능성이 높아진다고 말합니다.


원하시면 이 글을 기반으로, 검색 유입을 더 강하게 노리는 형태로 키워드 클러스터(예: ‘AGI 타임라인’ / ‘미국 중국 AI 경쟁’ / ‘화이트칼라 대체’ / ‘태양광 배터리 전력’ / ‘휴머노이드 로봇 옵티머스’)를 분리해 시리즈형(내부링크 구조 포함)으로 재편집해 드릴 수 있습니다.

AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .


함께 읽으면 좋은 글

AWS vs Azure vs GCP 비교 2026: 어떤 클라우드가 우리 조직에 맞을까?

AWS, Azure, GCP를 비교할 때는 단순 점유율이나 기능 수보다 비용 구조, AI 활용, 쿠버네티스 운영, 데이터 플랫폼, 기존 조직 생태계까지 함께 봐야 합니다. 이 글에서는 2026년 기준으로 세 클라우드를 실무 관점에서 비교합니다.


2026 클라우드 비교 결론만 먼저

  • AWS: 서비스 폭이 매우 넓고(200+ 서비스), 인프라 선택지가 많아 “클라우드 종합마트”에 가깝습니다. 대신 설계가 복잡해지기 쉽습니다. (Amazon Web Services, Inc.)
  • Azure: 기업/조직(특히 Microsoft 스택)과 하이브리드 운영에 강합니다. ID 체계(Entra)와 관리 체계(Arc)가 “기업 운영 표준”에 가깝습니다. (Microsoft Learn)
  • GCP: 데이터/분석(BigQuery)·Kubernetes(GKE)·서버리스(Cloud Run)를 깔끔하게 가져가고 싶을 때 매력적입니다. 인프라 규모도 2026년 1월 기준 42 리전/127 존으로 강력합니다. (Google Cloud)
2026 클라우드 비교

2026 AWS vs Azure vs GCP 한눈에 비교표

구분 AWS Azure GCP
글로벌 인프라(공식 수치) 38 리전 / 120 AZ(추가 3개 리전·10 AZ 계획 발표) 70+ 리전 / 400+ 데이터센터 42 리전 / 127 존(2026-01-08 업데이트 표기)
강한 이미지 “가장 폭넓은 서비스” “기업/조직 친화·하이브리드 강자” “데이터·K8s·서버리스가 깔끔”
대표 Kubernetes EKS(+ 자동화 모드 강조) AKS GKE(+ Autopilot)
대표 서버리스 Lambda / Fargate Azure Functions Cloud Run / Cloud Run functions
데이터 분석 축 Redshift(서버리스 포함) Synapse → Fabric 중심 재편 흐름 BigQuery(완전 서버리스 EDW)
생성형 AI 축 Bedrock(다양한 FM, 통합 API) Azure OpenAI(엔터프라이즈 보안 약속) Vertex AI(Gemini + Model Garden)
하이브리드/멀티 Outposts Azure Arc Anthos

인프라/리전 수치는 각 사 공식 페이지 기준입니다. (Amazon Web Services, Inc.)
AWS의 “추가 리전 발표(사우디·칠레·EU Sovereign Cloud)”도 공식에 명시돼 있습니다. (Amazon Web Services, Inc.)


1) 인프라(리전/가용영역/존): “가까운 곳에 깔면 끝”이 아니다

클라우드는 결국 거리(지연시간) + 장애 격리 + 데이터 레지던시 문제로 귀결됩니다.
여기서 3사의 구조가 비슷하면서도 다릅니다.

  • AWS: Region 안에 Availability Zone(AZ) 여러 개
  • Azure: Region 개념 + (리전에 따라) Availability Zone 구성
  • GCP: Region 안에 Zone 여러 개

2026년 기준 공식 인프라 수치

한국(대한민국) 리전 관점 체크(국내 서비스라면 꽤 중요)

  • AWS: Asia Pacific (Seoul) = ap-northeast-2, 4 AZ 표기 (AWS Documentation)
  • Azure: Korea Central(Seoul), Korea South(Busan) (Microsoft Learn)
  • GCP: Seoul region(asia-northeast3) (3개 존으로 시작했다고 공식 블로그에서 설명) (Google Cloud)

👉 결론: “한국 사용자 대상”이면 셋 다 선택지는 충분합니다. 다만 서비스별 제공 여부(예: 특정 AI 모델, 특정 DB, 특정 GPU)는 리전마다 다르니, 최종 확정 전엔 “제품이 리전에 있냐”를 반드시 확인해야 합니다(이게 이직/이전 비용을 갈라요).


2) 서비스 폭 vs 운영 난이도: AWS가 “기능이 많다”는 말의 진짜 의미

AWS는 공식적으로 200+ 서비스를 강조합니다. (Amazon Web Services, Inc.)
Azure도 200+ 제품/서비스를 언급합니다. (Microsoft Azure)

그런데 중요한 포인트는 “숫자”가 아니라 조립 방식입니다.

  • AWS는 작은 부품(서비스)을 조합해 아키텍처를 만드는 느낌이 강합니다. 잘 만들면 최적화가 끝내주지만, 팀 경험이 부족하면 서비스 선택 자체가 리스크가 됩니다.
  • Azure는 기업에서 익숙한 운영 방식(조직/권한/정책/하이브리드)을 “플랫폼 운영 표준”처럼 제공하려는 색이 강합니다.
  • GCP는 핵심 제품군(데이터·K8s·서버리스)을 비교적 단정하게 묶어 “복잡도 대비 효율”을 노리기 좋습니다.

3) Kubernetes(컨테이너): EKS vs AKS vs GKE의 체감 차이

Kubernetes를 “그냥 컨테이너 돌리는 도구”로 보면 셋이 비슷해 보이지만, 실제 운영에선 다음이 갈립니다.

GKE: “Kubernetes 본가 느낌” + Autopilot

GCP 문서에서 Kubernetes가 Google에서 개발되었다고 명시합니다. (Google Cloud Documentation)
또한 GKE Autopilot은 노드/스케일링/보안 등 인프라 구성을 Google이 관리하는 모드라고 설명합니다. (Google Cloud Documentation)

➡️ 운영 인력을 최소화하고 싶거나, 표준화된 K8s 운영을 원하면 GKE가 강점이 됩니다.

EKS: AWS 생태계에 가장 자연스럽게 붙는 K8s

EKS는 AWS의 관리형 Kubernetes 서비스로 설명되며, “어디서든(K8s) 운영”을 강조합니다. (Amazon Web Services, Inc.)

➡️ 이미 AWS를 쓰고 있거나, IAM/네트워킹/관측(CloudWatch 등)까지 AWS로 통일하고 싶으면 EKS가 자연스럽습니다.

AKS: 기업 조직/정책/하이브리드와 결합이 쉬운 K8s

AKS는 관리형 Kubernetes 서비스로 운영 오버헤드를 줄인다고 설명합니다. (Microsoft Learn)

➡️ 특히 조직이 Microsoft 기반(Windows/AD/Entra/Power Platform/DevOps/GitHub)일수록 “기업 운영 표준”이 빠르게 잡힙니다.


4) 서버리스: Lambda vs Functions vs Cloud Run — 2026에 더 중요한 이유

생성형 AI 시대에 서버리스가 다시 뜨는 이유는 단순합니다.

  • 트래픽이 출렁인다(이벤트/배치/에이전트 호출)
  • PoC를 빠르게 해야 한다
  • “항상 켜둔 서버”가 돈을 먹는다

AWS Lambda

Lambda는 “서버를 프로비저닝/관리 없이 코드 실행, 사용한 만큼 과금”으로 설명됩니다. (Amazon Web Services, Inc.)

Azure Functions

Azure Functions도 “서버리스로 코드/인프라를 줄이고 비용을 낮춘다”고 공식 문서가 설명합니다. (Microsoft Learn)

GCP Cloud Run (+ Cloud Run functions)

Cloud Run은 “코드/함수/컨테이너를 구글 스케일 인프라 위에서 실행”하는 완전 관리형 플랫폼입니다. (Google Cloud Documentation)
그리고 중요한 변화: Google Cloud Functions가 ‘Cloud Run functions’로 통합되었다고 Google이 공식 발표했습니다. (Google Cloud)

➡️ 2026 관점에서 “서버리스 = 함수”가 아니라, 서버리스 = 컨테이너까지 자연스럽게 가는 흐름이 강해졌고, 이 지점에서 Cloud Run의 존재감이 큽니다.


5) 데이터/분석: BigQuery vs Redshift vs (Synapse→)Fabric, 무엇이 다른가

GCP BigQuery: “완전 서버리스 EDW”를 원하면

BigQuery는 공식적으로 “완전 관리형 & 완전 서버리스 엔터프라이즈 데이터 웨어하우스”라고 소개합니다. (Google Cloud)

➡️ 운영 부담(클러스터/노드 관리)을 줄이고, SQL 기반 분석을 빠르게 돌리는 팀에 강합니다.

AWS Redshift: “DW도 서버리스로” + AWS 생태계 결합

Redshift는 “빠르고 완전 관리형 클라우드 데이터 웨어하우스”로 소개되며, Redshift Serverless도 함께 강조합니다. (Amazon Web Services, Inc.)

➡️ 이미 S3/Glue/Lambda 등 AWS 분석 스택을 깔아두었다면 Redshift가 결합이 쉽습니다.

Azure: Synapse에서 Fabric 중심으로 재편되는 흐름

Azure Synapse 페이지 자체에 “Migrate to Microsoft Fabric” 메시지가 보입니다. (Microsoft Azure)
또 Microsoft는 Fabric을 엔드-투-엔드 분석 플랫폼으로 설명합니다. (Microsoft Learn)

➡️ Power BI/Office/조직 계정 기반 분석 문화가 있는 회사는 Fabric이 “조직 도입 속도”가 빠를 가능성이 큽니다.


6) 생성형 AI: Bedrock vs Azure OpenAI vs Vertex AI — “모델”보다 “운영 방식”이 갈린다

AWS Bedrock: 모델 선택 폭 + 통합 API

Bedrock은 “여러 회사/아마존의 파운데이션 모델을 통합 API로 제공하는 완전 관리형 서비스”라고 설명합니다. (AWS Documentation)
또 Bedrock Marketplace로 100+ 파운데이션 모델 접근을 강조한 발표도 있습니다. (Amazon Web Services, Inc.)

➡️ “특정 모델에 올인하기 싫다”, “여러 모델을 바꿔 끼우며 최적화하고 싶다”에 강합니다.

Azure OpenAI: 엔터프라이즈 보안/거버넌스 + OpenAI 모델

Azure OpenAI는 “OpenAI 최신 모델을 Azure의 보안/엔터프라이즈 약속과 함께 제공”한다고 FAQ에서 설명합니다. (Microsoft Learn)

➡️ 조직이 이미 Azure 보안/정책 체계를 갖고 있다면, GenAI도 같은 운영 체계로 넣기 쉬워집니다.

Google Vertex AI: Gemini + Model Garden + 플랫폼 통합

Vertex AI는 “완전 관리형 통합 AI 개발 플랫폼”이며 200+ 파운데이션 모델 접근을 언급합니다. (Google Cloud Documentation)

➡️ 데이터(BigQuery 등)와 AI를 한 플랫폼에서 빠르게 연결하려는 팀에 강합니다.


7) 하이브리드/멀티클라우드: “클라우드는 결국 혼합형”이 됐다

2026년 현실은 이렇습니다.
완전 올-인 클라우드는 줄고, “기존 레거시 + 일부 클라우드 + 엣지”가 더 흔해지고 있습니다.

  • AWS Outposts: AWS 서비스를 온프레미스/엣지로 확장하는 완전 관리형 하이브리드로 소개됩니다. (Amazon Web Services, Inc.)
  • Azure Arc: 온프레미스/멀티클라우드 리소스를 Azure에 “투영”해서 단일 제어면으로 관리한다고 설명합니다. (Microsoft Azure)
  • Google Anthos: 하이브리드/멀티클라우드 환경에서 “일관된 플랫폼”을 제공한다고 소개합니다. (Google Cloud)

➡️ 하이브리드 운영이 중요할수록 Azure Arc의 존재감이 커지는 편이고, 컨테이너 기반 표준화를 강하게 밀면 Anthos도 후보가 됩니다. AWS는 Outposts로 “AWS 운영 모델을 그대로 온프레로” 가져가는 느낌이 강합니다.


8) 비용(클라우드 요금) 차이: “어디가 싸냐”보다 “어떻게 사느냐”가 갈린다

요금 비교 글에서 흔히 하는 실수:
온디맨드 단가만 비교하고 결론 내리기.

2026년에는 셋 다 “약정 할인/자동 할인/추천”이 촘촘해서, 실제 청구서는 이렇게 갈립니다.

대표 할인/절감 메커니즘(공식)

계산기는 “필수”

비용 가시화 도구(운영 단계에서 중요)


9) 보안/ID/거버넌스: 2026 선택의 “숨은 승부처”

클라우드는 “기술 선택”이 아니라, 결국 조직 운영 모델입니다.
즉, 권한/정책/감사/계정 구조가 늦게 잡히면 비용과 사고가 같이 터집니다.

  • AWS IAM: AWS 리소스 접근을 중앙에서 제어하는 서비스로 공식 문서가 설명합니다. (AWS Documentation)
  • AWS Control Tower: 멀티 계정 거버넌스(landing zone, account factory 등)를 제공한다고 설명합니다. (AWS Documentation)
  • Microsoft Entra ID: Azure AD의 새 이름(Entra ID)로 안내됩니다. (Microsoft Learn)
  • Google Cloud IAM: 권한을 통합 관리하는 IAM 문서가 제공됩니다. (Google Cloud Documentation)
  • Google Cloud Resource hierarchy: 조직/폴더/프로젝트 구조로 거버넌스를 잡는 리소스 계층 개념이 문서화돼 있습니다. (Google Cloud Documentation)

➡️ 실무 조언: “계정 구조/조직 정책을 먼저” 잡고 서비스 고르는 게, 반대로 하는 것보다 거의 항상 싸게 먹힙니다.


그래서… 2026년에 뭘 고르면 좋을까? (상황별 추천)

AWS가 유리한 경우

  • “우리는 가능한 모든 옵션이 필요하다(서비스 폭/기능 다양성)”
  • 인프라 설계/운영에 강한 팀이고, 최적화(네트워킹/보안/관측)까지 세밀하게 하고 싶다
  • 글로벌 AZ/리전 전략을 촘촘하게 가져가야 한다 (Amazon Web Services, Inc.)

Azure가 유리한 경우

  • Microsoft 기반 조직(계정/정책/업무도구)과 자연스러운 결합이 중요하다
  • 하이브리드/멀티 환경을 하나의 제어면으로 운영하고 싶다(Azure Arc) (Microsoft Azure)
  • GenAI를 “기업 보안 약속” 기반으로 도입하고 싶다(Azure OpenAI) (Microsoft Learn)

GCP가 유리한 경우

  • 데이터/분석을 서버리스로 빠르게(=BigQuery) 굴리고 싶다 (Google Cloud)
  • Kubernetes 운영을 최대한 단순화하고 싶다(GKE Autopilot) (Google Cloud Documentation)
  • 서버리스/컨테이너 중심 개발(Cloud Run)에 팀이 익숙하다 (Google Cloud Documentation)
  • 2026-01 기준 인프라 규모(42 리전/127 존)도 충분히 강력하다 (Google Cloud)

최종 선택 체크리스트(10분만 투자하면 실패 확률 확 줄어듦)

  1. 주요 고객 국가/리전이 어디인가? (지연시간/데이터 레지던시)
  2. 필수 서비스(AI 모델, GPU, DB)가 해당 리전에 존재하는가?
  3. 운영 인력은 충분한가? (K8s/네트워크/보안 전문성)
  4. ID/권한 체계를 무엇으로 표준화할 것인가? (IAM/Entra/IAM)
  5. 비용은 “온디맨드”가 아니라 약정/자동할인/조직 정책까지 포함해 산정했는가? (Amazon Web Services, Inc.)
  6. 멀티클라우드가 진짜 필요한가, 아니면 “벤더 2개로 복잡도만 2배”가 되는가?
  7. 1~2년 뒤 이전(마이그레이션) 비용까지 감당 가능한가?

FAQ (구글 SEO용 Q&A)

Q1. 2026년 기준 AWS·Azure·GCP 중 점유율 1위는 어디인가요?

Synergy Research의 2025년 Q3 자료에서는 AWS 29%, Microsoft 20%, Google 13%로 제시합니다. (Synergy Research Group)

Q2. “리전 수”는 Azure가 많은데, 그럼 Azure가 무조건 좋은가요?

리전 수는 중요하지만 “내가 쓰려는 서비스가 그 리전에 있느냐”가 더 중요합니다. Azure는 70+ 리전을 강조합니다. (Microsoft Azure)

Q3. 한국(서울/부산) 리전이 필요한데 3사 모두 있나요?

네. AWS는 Seoul(ap-northeast-2), Azure는 Korea Central/ South, GCP는 Seoul(asia-northeast3)을 공식 문서/블로그에서 확인할 수 있습니다. (AWS Documentation)

Q4. 생성형 AI는 어디가 제일 좋나요?

“무조건 1등”은 없고 운영 방식이 다릅니다.

Q5. Kubernetes는 GKE가 더 좋다는 말이 많은 이유가 뭔가요?

GCP 문서에서 Kubernetes가 Google에서 개발되었다고 설명하고, GKE는 관리형 구현이라고 설명합니다. 또한 Autopilot으로 운영 부담을 줄이는 선택지도 명확합니다. (Google Cloud Documentation)

Q6. 서버리스는 2026년에 뭐가 핵심인가요?

함수만이 아니라 “컨테이너까지 서버리스로”가 핵심입니다. Google은 Cloud Functions가 Cloud Run functions로 통합됐다고 공식 발표했습니다. (Google Cloud)

Q7. 클라우드 비용 폭탄을 피하려면 뭘 먼저 해야 하나요?

온디맨드 비교보다, 약정 할인(예: AWS Savings Plans, Azure savings plan, GCP CUDs) + 자동할인(SUDs) + 비용 가시화 도구를 먼저 설계하세요. (Amazon Web Services, Inc.)

Q8. 멀티클라우드는 꼭 해야 하나요?

규제/벤더 리스크/특정 서비스 이유가 명확하면 가치가 있지만, 이유 없이 시작하면 운영 복잡도와 비용만 커지기 쉽습니다. 멀티/하이브리드 관리 도구(Azure Arc, Anthos, Outposts)로 “관리 전략”부터 잡는 게 안전합니다. (Microsoft Azure)

AX 100배의 법칙 AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매







. .


함께 읽으면 좋은 글

핵심 요약

  • AWS는 선택지가 넓고, Azure는 조직 통합이 강하며, GCP는 데이터·AI 워크로드에서 강점을 보입니다.
  • 비용, 운영 난이도, 기존 생태계 적합성을 함께 봐야 실제 선택 실수가 줄어듭니다.
  • 이후에는 쿠버네티스, 스토리지, 비용 운영 글로 세부 비교를 이어가면 좋습니다.

자주 묻는 질문

처음 멀티클라우드 비교를 할 때 무엇을 가장 먼저 봐야 하나요?

기존 조직의 기술 스택, 운영 인력 수준, 비용 구조, 데이터·AI 요구사항을 먼저 정리해야 합니다.

이 글 하나만 읽고 결정해도 되나요?

방향성 파악에는 충분하지만, 실제 선택 전에는 쿠버네티스·스토리지·FinOps 글까지 함께 보는 편이 안전합니다.

CES 2026 관전 포인트 한눈에 보기: CTA가 꼽은 ‘큰 주제’와 제가 정리한 10가지

CES 2026 관전 포인트를 한 문장으로 요약하면, “AI가 더 이상 ‘기능’이 아니라 제품·서비스·산업 운영 방식 자체를 재설계하는 중심축으로 올라왔다”는 흐름입니다. CTA(Consumer Technology Association) 역시 이번 CES 2026을 AI, Robotics만이 아니라 Digital Health, Energy, Mobility, Enterprise, Quantum까지 함께 묶어 큰 그림을 제시했습니다.

그리고 전체적인 트렌드를 감 잡는 데는, 의외로 CES Innovation Awards 수상작 카테고리 분포가 직관적인 힌트가 됩니다. 전시는 방대하지만 “어디에 무게가 실렸는지”는 카테고리 숫자에서 먼저 보이기 때문입니다.

다만 CES는 워낙 전시가 크고 방대해서, 관심사에 따라 서로 완전히 다른 CES를 보게 됩니다. 저는 CES를 일종의 “코끼리” 같은 행사라고 생각합니다. 각자가 만지는 부위가 다르면 결론도 달라지니까요. 아래 관전 포인트는 지극히 개인적인 관점에서 정리한 것이며, 여러분이 다르게 보셨다면 그 또한 정답입니다.

CES 2026 관전 포인트

CTA가 짚은 CES 2026의 확장 축: AI·로봇을 넘어 ‘산업 전반’으로

CTA가 CES 2026의 핵심 축으로 꼽은 영역은 다음과 같습니다.

  • AI
  • Robotics
  • Digital Health
  • Energy
  • Mobility
  • Enterprise
  • Quantum

이 구성 자체가 시사하는 바는 명확합니다. CES가 ‘소비자 전자 전시’라는 프레임을 유지하면서도, 실질적으로는 산업·인프라·엔터프라이즈 의제를 점점 더 전면에 세우고 있다는 신호로 볼 수 있습니다.


CES Innovation Awards 카테고리로 보는 CES 2026의 무게 중심

카테고리별 수상한 기업이 많았던 주요한 카테고리 그리고 관심이 가는 수상작 카테고리(제공된 집계 기준)는 아래와 같습니다.

  • AI: 46
  • Digital Health: 41
  • Smart Home: 31
  • Vehicle Tech & Advanced Mobility: 27
  • Home Appliances: 26
  • Sustainability & Energy Transition: 25
  • Robotics: 17
  • XR & Spatial Computing: 12
  • Beauty 10 / Fashion 7 / Pet & Animal Tech 6 / Food 5

이 숫자 분포만 봐도 CES 2026의 큰 그림이 어느 정도 드러납니다. AI가 가장 큰 축으로 올라선 상태에서, 원래부터 전통적인 많은 수상작들이 분포하였던 디지털 헬스·스마트홈 이외에도 모빌리티·에너지 전환이 강하게 동행하고, 로보틱스는 “데모”를 넘어 실사용 로드맵이 논의되는 단계로 확장되었다는 것을 볼 수 있었답니다.


CES 2026 관전 포인트 10가지 (개인 관점)

아래 1~8은 “관전 포인트”로, 9~10은 관전평이라기보다 CES를 통해 논의되거나 확인된 “현실적인 관점”으로 정리했습니다.

CES 2026

1) 생성형 AI → 에이전트 AI 전환: “말”보다 “일”을 하게 만드는가

CES 2026을 통해 확인한 올해 AI 트렌드는 AI 에이전트, 디지털 트윈, 온디바이스 AI입니다. 이는 작년까지는 대화형 생성형 AI가 중심이었다면 이를 넘어, 이제 무게중심이 “업무/생활 실행”으로 이동하고 있다는 것을 보여주었다는 점입니다.

전시 관점에서 핵심 체크포인트는 하나입니다. “앱/기기별 AI”가 아니라, 기기와 서비스를 가로지르는 개인 에이전트(디지털 트윈)가 얼마나 자연스럽게 오케스트레이션하는가입니다.

예를 들어 레노버는 Qira(개인 AI 슈퍼 에이전트/디지털 트윈) 콘셉트처럼, 개인의 여러 기기와 데이터를 묶어 실행까지 이어지는 구조를 전면에 내세웠습니다. 많은 가전회사들도 이러한 테마의 전시를 같이 진행하였는데요, 삼성전자에서 선보인 냉장고 데모에서 볼 수 있듯이 소비자가 말로하면 가전이 직접 실행하는 것이 아주 자연스러워졌다는 대목이었습니다.


2) 피지컬 AI/로보틱스: “데모용”을 넘어 “현장 투입” 로드맵이 있나

휴머노이드/로봇은 CES 2026에서 메인 어트랙션 급으로 올라왔고, 단순 시연을 넘어 생산·공급망·현장 투입 시점을 함께 제시하는 사례가 강하게 부각되었습니다. 이 대목의 압권은 바로 Boston Dynamics의 Atlas 공개와 DeepMind 협업 발표 같은 흐름은, 로보틱스가 “멋진 데모”에서 “현장 투입 가능한 산업”으로 넘어가는 분위기를 보여주었다는 부분이었습니다.

가정용에서도 LG 전자가 CLOiD를 ‘제로 레이버 홈’ 비전의 상징으로 전면 배치하면서, 로봇을 단품이 아니라 집안 워크플로를 움직이는 에이전트로 포지셔닝한 점이 인상적입니다. 물론 휴머노이드 로봇의 50% 이상이 중국 기업이었고, 유니트리를 포함하여 상당한 중국 기업의 로봇 제조 역량은 이번 전시에서 빼놓을 수 없는 위협의 요소로도 읽혀졌습니다.


3) 산업 AI·디지털 트윈: ‘소프트웨어 정의 공장/현장’이 주류로

Siemens는 CES 키노트/전시에서 Digital Twin Composer를 핵심 런치로 내세우며, 디지털 트윈과 실시간 실세계 데이터 연결(Omniverse 라이브러리 기반 시뮬레이션 포함)을 전면에 둡니다. “산업 AI 혁명”을 말이 아닌 제품/플랫폼으로 끌고 온 셈입니다.

이 흐름은 공장에만 머물지 않고 에너지·인프라로 확장됩니다. Commonwealth Fusion Systems·NVIDIA·Siemens가 디지털 트윈으로 핵융합 설비를 시뮬레이션하는 협력을 전한것처럼, 산업 AI가 “현실 세계 시스템”으로 깊숙이 들어간다는 맥락을 보여주었습니다.


4) 자율주행: ‘인지’에서 ‘추론(reasoning)’으로, 그리고 ‘오픈 생태계’로

NVIDIA는 CES에서 Alpamayo(오픈 모델·시뮬·데이터셋)를 전면에 두며 자율주행을 추론 기반(설명가능성 포함) 경쟁으로 끌어올렸습니다. 자율주행의 중심이 “보는 능력(인지)”에서 “판단의 논리(추론)”로 이동하는 흐름이 더 선명해졌다는 의미입니다.

또한 Mercedes‑Benz CLA에 AI-defined driving을 시연/적용하는 레퍼런스를 제시하면서, 완성차 OEM과 플랫폼 기업의 결합 구도도 한층 명확해졌습니다. 지금까지 테슬라가 폐쇄형 생태계를 지향하였다면 이번 엔비디아의 Alphamayo의 경우 iOS와 안드로이드에 대비될 정도로 자율주행에 있어 오픈 생태계의 등장을 알리는 신호탄이자 실제 이런 플랫폼이 적용된 자동차가 1Q에 출시할 정도로 현실적인 내용이 되었답니다.


5) 스마트홈/가전의 다음 단계: ‘Ambient AI(공간지능)’와 ‘AI 동반자’ 경쟁

삼성은 LVCC 대형 부스 대신 Wynn의 전용 공간에서 ‘Your Companion to AI Living’ 테마로 AI 동반자 경험(엔터테인먼트·홈·케어)을 큐레이션하는 전시 전략을 택했습니다. “제품 나열”보다 “경험 연출”에 방점을 찍은 방식입니다.

LG 역시 ‘Affectionate Intelligence(공감지능)’를 전면에 두고, CLOiD를 포함한 제로 레이버 홈을 동기화된 생태계로 보여주는 방식이었습니다.
결국 관전 포인트는 “AI가 기기마다 들어갔는가”가 아니라, 집이라는 공간에서 AI가 얼마나 자연스럽게 작동하는가(Ambient AI)로 이동하지 않았나 생각됩니다.

AI 기술이 상당 수준으로 올라오면서 스마트홈 역시 다시 활기를 되찾는 분위기를 엿볼 수 있었습니다. 기존 스마트홈의 부족한 2%를 AI가 채워주었다고 할까요? 앞으로 스마트홈 분야 또한 고객들에게 더 많이 침투되기를 기대해봅니다.


6) 스마트글라스/웨어러블 재부상: “AI의 새 폼팩터”가 되나

CES 2026에서는 AI 글라스가 단순 콘셉트를 넘어 제품·가격·모델(번역/요약/기록 등)로 구체화되는 전시가 늘었습니다. 예로 XGIMI MemoMind, Solos AirGo V2 같은 제품이 거론되었습니다.

또한 CTA가 Accessibility Stage에서 스마트글라스·로보틱스·음성 홈 어시스턴트 등을 다루도록 구성한 점 역시, 글라스가 “실사용 시장”으로 들어간다는 신호로 해석할 여지도 있는 것 같습니다.


7) 중국 기업 존재감: ‘숫자’보다 ‘프라임 스팟’과 ‘데모 밀도’가 관전 포인트

등록 기준 집계에서 중국은 942개 참가사, 한국은 853개로 소개됩니다(미국 다음 규모). 다만 CES 현장에서는 단순 참가 숫자만큼이나 전시장 내 위치(프라임 스팟)와 데모 밀도가 체감 존재감을 좌우합니다.

이를 대변하듯, 삼성의 LVCC 센트럴홀 이탈로 생긴 자리를 TCL이 빠르게 차지해 “AiMe Land”를 구성한 점은 전시장 권력 지형 변화를 보여주는 사례로 언급됩니다. 동시에 “로봇이 메인 어트랙션이 되었고 중국 쪽 혁신이 강했다”는 현장 관찰도 이어지며, 중국 기업의 존재감은 점점 더 “현장에서 체감되는 방식”으로 나타나는 흐름입니다.

원래부터 중국 기업들은 CES 현장을 B2B 영업의 장으로 잘 활용하고 있었습니다. 특히 South관처럼 중국색 일색이었던 전시 공간도 많았답니다. 그러나 최근 로봇뿐만 아니라 가전, 특히 로봇청소기나 드론과 같은 이미 글로벌 1등인 회사들이 주류로 등장하면서 중국 기업의 존재감은 이미 우리나라를 위협하고, 넘어서는 느낌을 지울 수가 없는 상황이 된 것 같습니다.


8) 산업현장/중장비까지 AI 확장: ‘물리 세계’ 자동화가 본류로

Caterpillar가 NVIDIA와의 확장 파트너십 및 Cat AI Assistant(음성 기반 인터페이스) 등을 발표하는 흐름은, CES가 더 이상 ‘소비자 기기’만의 무대가 아니라 산업·건설·중장비 자동화의 쇼케이스로 기능하고 있음을 보여줍니다.

즉, CES의 AI는 이제 “개인 생산성”에서 끝나지 않고, 물리 세계의 운영 자동화로 본류가 이동하고 있습니다. 이 또한 CES 2025까지도 계속된 흐름이었지만 이제 AI 기술의 성숙도가 산업현장의 변화를 더욱더 빠르게 이끌어 가겠다는 느낌이 들었습니다. 현장 작업자들도 이제는 일상에서 ChatGPT 등을 활용하면서 각자만의 AI에 대한 이미지를 가지고 있으니까요.


9) 엔터프라이즈 AI 도입의 병목: CFO vs CIO 갈등이 ‘공식 의제’가 됨

9번은 관전평이라기보다, CES를 통해 확인된 현실적인 관점 중 하나인데요. 생성형 AI가 본격화되면서 우리 기업에도 다양한 AX 활동이 진행되고 있는 것은 다들 공감하실 것입니다. 이러한 엔터프라이즈 AI 도입의 병목이 ‘기술’만이 아니라 ‘의사결정 구조’라는 점을 확인할 수 있었습니다.

CES 공식 키노트 세션에서도 McKinsey–General Catalyst 대담이 편성됐고, 실제로 “CEO가 CFO와 CIO 사이에서 무엇을 듣느냐” 같은 갈등 프레이밍이 논의 되었습니다. 이는 AI 투자가 경영의 아젠다가 되었으며, 단순한 IT 지출이 아니라, 비용·리스크·거버넌스·조직 운영을 동시에 건드리는 의제가 되었다는 뜻입니다.

이는 글로벌뿐만 아니라 우리나라에서도 이러한 현상을 다양한 곳에서 목격되고 있는 상황입니다. 원래 IT는 지원부서의 하나로 CEO 입장에서는 큰 이슈만 일으키지 않으면 된다는 인식을 가지고 있었지만 경영의 중심으로 AI가 들어오면서 이를 두고 디지털을 다루는 부서가 그 중심을 가져갈 것인지, 아니면 전통적인 경영자 측근이라 할 수 있는 HR, 전략, 재무 등에서 중심을 가져갈 것인지, 아니면 수익을 벌어들이니 각 회사의 본원적 경쟁력이라 할 수 있는 사업부서에서 그 중심을 가져갈 것인지가 논의를 넘어 조직 개편에 이르는 등 그 헤게모니 싸움이 본격화되고 있다는 부분입니다.


10) ‘AI 워싱’과 프라이버시 역풍: AI는 어디까지 ‘쓸모’가 있나

또 하나의 관점은 AI 워싱(AI Washing)과 프라이버시 역풍입니다. 소비자/프라이버시 단체가 ‘Worst in Show’로 AI 탑재 가전/도어벨/AI 컴패니언 등을 비판하는 흐름이 나오며, AI의 과잉 탑재와 데이터 수집이 리스크로 부상했습니다.

주요 미디어에서도 “AI가 뭐든지 붙는” 과열을 풍자하는 기사들이 나왔고, 이는 기업 입장에서 차별화(실용성)와 신뢰(프라이버시)를 동시에 증명해야 하는 압력이 될 수도 있을 것 같습니다. 그러나 분명한 것은 AI를 빼고 앞으로 나아갈 수는 없다는 점입니다.


정리: CES 2026의 큰 그림은 “에이전트·현장·신뢰”로 수렴한다

CES 2026을 관통하는 흐름을 제 방식으로 묶으면 다음 세 문장으로 정리됩니다.

  • AI는 “대화”에서 “실행”으로 옮겨가며, 에이전트/디지털 트윈등 사용자 경험이 중심이 되고, 확장된다.
  • 로보틱스·산업 AI·자율주행은 “데모”에서 “투입 로드맵”으로 이동하며, 현장(물리 세계) 자동화가 본류가 된다.
  • 동시에 AI 워싱과 프라이버시 역풍이 커지면서, 기업은 실용성과 신뢰를 같이 증명해야 한다.

여러분의 CES 2026은 어떤 모습이었나요? 저도 다양한 리포트를 또 보면서 학습해 나가겠습니다.


AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .

CES 2026 AMD 키노트 총정리: “AI Everywhere for Everyone”을 현실로 만드는 MI455·Helios·Ryzen AI 400의 모든 것

CES 2026 AMD가 던진 한 문장: AI Everywhere for Everyone

CES는 늘 “다음 세대”를 미리 보여주는 무대였지만, CES 2026 AMD가 강조한 메시지는 유독 선명했습니다. AI는 더 이상 개념이나 실험실 데모가 아니라, 실제 산업과 일상에서 움직이며 작동하는 ‘움직이는 지능(intelligence in motion)’이 되었고, 그 변화의 속도는 이제 “가속”이라는 말로도 부족하다는 진단이었습니다.

기조연설에서 AMD CEO 리사 수(Lisa Su) 박사가 던진 핵심은 단순히 “AI가 중요하다”가 아니었습니다. AMD는 AI를 ‘누구나’ ‘어디서나’ 쓰게 만드는 컴퓨팅 기반을 만들겠다고 선언했고, 그 비전을 한 문장으로 압축한 표현이 바로:

“AI Everywhere for Everyone”

즉, 클라우드·PC·엣지(Edge)까지 모든 컴퓨팅 플랫폼에 AI를 통합해 AI를 보편화하겠다는 전략입니다. 그리고 이 비전은 말이 아니라 구체적인 하드웨어 로드맵(Helios/MI455, Ryzen AI 400)과 개방형 소프트웨어(ROCm), 그리고 산업 리더들과의 협력 사례(OpenAI, Luma AI, Blue Origin 등)로 연결되어 제시됐습니다.

CES 2026 AMD

왜 지금 ‘요타 스케일(Yotta Scale)’인가

CES 2026 AMD가 가장 강하게 밀어붙인 프레임은 “요타 스케일 컴퓨팅”입니다. 요지는 단순합니다. AI 사용자가 폭발적으로 늘면서, AI를 굴리는 ‘컴퓨팅 수요’가 기존 인프라의 상상을 벗어난 규모로 튀어 올랐다는 것.

  • ChatGPT 이후 AI 사용자는 수백만 → 10억+으로 확대됐고
  • AI가 휴대폰·인터넷처럼 필수 요소가 되면 활성 사용자는 50억+까지 갈 수 있으며
  • 컴퓨팅 수요는 2022년 약 1 제타플롭(Zettaflop) → 2025년 100 제타플롭+로 커질 수 있다고 전망됩니다.
  • 그리고 이 혁신 속도를 감당하려면 향후 5년 동안 10 요타플롭(Yotta Flops)+가 필요하다는 주장까지 연결됩니다.

여기서 “요타”는 숫자 감각을 깨뜨립니다. 1 요타플롭 = 1 뒤에 24개의 0이 붙는 연산 규모이고, 10 요타플롭은 2022년 대비 10,000배 수준이라는 설명이 이어집니다.

그래서 AMD의 결론은 이렇게 정리됩니다. AI를 어디에나 구현하려면 클라우드(전 세계 지능 공급) + PC(개인화·생산성) + 엣지(실시간 결정), 이 3축이 동시에 AI-ready가 되어야 하고, 이를 위해서는 GPU/CPU/NPU/맞춤형 가속기까지 전 스펙트럼의 컴퓨팅 엔진을 모두 갖춘 기업이 필요하다는 것. AMD는 바로 그 “풀 스택 컴퓨팅 엔진”을 자신들의 차별점으로 제시합니다.


클라우드 AI의 핵심: Helios 랙 스케일 + Instinct MI455

요타 스케일의 “본진”은 결국 클라우드입니다. 가장 큰 모델이 훈련되고, 수십억 사용자에게 지능이 전달되는 곳이기 때문입니다. AMD는 현시점에서의 포지셔닝도 함께 강조합니다.

  • 주요 클라우드 제공업체들이 AMD EPYC CPU를 사용하고 있으며
  • 상위 10개 AI 기업 중 8개가 Instinct 가속기로 모델을 구동하고 있다는 점을 전면에 둡니다.

그리고 이번 CES 2026에서 가장 큰 하드웨어 발표로 연결된 것이 바로 차세대 랙 스케일 플랫폼 ‘Helios’와 그 중심인 Instinct MI455(및 MI455X)입니다.

Helios가 노리는 것: 랙 단위를 ‘하나의 컴퓨터’로 만들기

AMD가 말하는 요타 스케일 AI 인프라의 조건은 3가지로 읽힙니다.

  1. 세대 교체에 맞춰 진화 가능한 개방형·모듈식 랙 설계
  2. 수천 개 가속기를 하나의 통합 시스템으로 묶는 고속 네트워킹
  3. 배포가 쉬운 턴키(turnkey) 솔루션

Helios는 이 조건을 “랙 레벨”에서 구현한 플랫폼으로 소개됩니다.

MI455X 핵심 스펙(공개 내용 기준)

Helios의 시작점은 MI455X GPU입니다. 발표 내용의 숫자들은 매우 공격적입니다.

  • 2nm 및 3nm 공정 기반
  • 3,200억(320B) 트랜지스터 (MI355 대비 70% 증가)
  • 12개의 2nm/3nm 컴퓨팅·I/O 칩렛
  • 432GB HBM4
  • 차세대 3D 칩 스태킹(3D chip stacking) 기반 연결

즉, “칩렛 + HBM4 + 3D 패키징”을 총동원해 대형 모델/대형 배치/대규모 병렬에 유리한 구조를 만들었다는 메시지입니다.

Venice EPYC(젠6) + Pensando 네트워킹까지 ‘트레이 단위’로 통합

Helios는 GPU만 던져놓는 설계가 아니라, EPYC CPU와 네트워킹 칩까지 컴퓨팅 트레이에 묶는 형태로 설명됩니다.

  • Venice EPYC CPU: 2nm 공정, 최대 256개 Zen 6 코어
    • 이전 세대 대비 메모리 및 GPU 대역폭 2배로 랙 스케일에서 GPU에 데이터 공급을 극대화했다는 포지셔닝
  • 네트워킹: 800GbE급 Pensando(Volcano, Selina 등 언급) 기반 초고대역폭·초저지연

“랙 안의 72개 GPU가 단일 컴퓨팅 장치처럼”

Helios 구조 설명에서 인상적인 포인트는 연결 방식입니다.

  • 랙 내 72개 GPU
  • 이더넷 터널링 기반의 고속 초가속기 링크 프로토콜로 연결되어
  • 단일 컴퓨팅 장치처럼 동작할 수 있다는 서술이 등장합니다.

또한 Helios 랙 여러 개(수천 개 규모)는 산업 표준 초이더넷 NIC와 Pensando 프로그래밍 가능 DPU로 연결되며, DPU가 GPU 작업 일부를 오프로드해 성능을 더 끌어올린다고 설명됩니다.

Helios 물리 설계: OCP 개방형 랙 와이드 표준 + Meta 협력

Helios는 Meta와 협력해 개발된 OCP(Open Compute Project) 개방형 랙 와이드 표준을 기반으로 하는 더블 와이드 설계로 소개되며, 랙 무게가 거의 7,000파운드에 달한다고 언급됩니다. 즉, 데이터센터 운영 관점에서 서비스 용이성·제조 용이성·신뢰성을 최적화하려는 방향이 강조됩니다.

성능 지표(발표 기준)

Helios 랙 한 대 기준으로 공개된 지표는 다음과 같이 정리됩니다.

  • 18,000개+ CDNA5 GPU 컴퓨팅 유닛
  • 4,600개+ Zen 6 CPU 코어
  • 최대 2.9 엑사플롭스(Exaflops) 성능
  • 랙당 31TB HBM4
  • 260TB/s 스케일 대역폭

그리고 “성능 도약”을 이렇게 요약합니다.

  • MI355가 이전 세대 대비 최대 3배 추론 처리량을 제공했다면
  • MI455는 더 나아가 광범위 모델/워크로드에서 최대 10배 성능을 제시한다는 것.

Helios는 “올해 말 출시 예정”으로 언급되며, AI 성능의 새 기준을 세울 것으로 기대된다는 톤으로 마무리됩니다.


OpenAI 협력: 에이전트 컴퓨팅이 요구하는 인프라의 방향

키노트의 전개가 흥미로웠던 이유는, AMD가 하드웨어 스펙만 늘어놓지 않고 “왜 이 정도가 필요해졌는가”를 OpenAI와의 대화로 풀어냈다는 점입니다. 무대에는 OpenAI 공동 설립자이자 사장인 그렉 브록만(Greg Brockman)이 등장합니다.

그가 던진 메시지를 한 줄로 요약하면 이렇습니다. AI는 ‘질문-답변’에서 끝나지 않고, 앞으로 ‘며칠 동안 일하는 에이전트 워크플로우’로 넘어간다.

“모델 능력의 기하급수적 발전 = 유용성의 기하급수적 확대”

브록만은 ChatGPT가 오랜 준비 끝에 등장한 결과였고, 이제 AI는 단순 텍스트 상자를 넘어 헬스케어, 신생아 관리처럼 개인적이고 중요한 영역까지 들어왔다고 말합니다. 엔터프라이즈에서는 Codex 같은 모델이 소프트웨어 엔지니어링을 바꾸고 있으며, “올해는 엔터프라이즈 에이전트가 본격화될 것”이라는 전망도 이어집니다.

에이전트 시대의 컴퓨팅: 저지연과 초고처리량, 두 체제가 공존한다

OpenAI 관점에서 미래 컴퓨팅 환경은 “인간의 주의(attention)와 의도(intent)가 가장 귀한 자원”이 되는 세계이며, 그래서 컴퓨팅은 두 가지 모드가 필요하다고 정리합니다.

  • 사람이 관여할 때는 초저지연(low latency) 상호작용
  • 백그라운드에서는 지속 실행되는 초고처리량(high throughput) 에이전트 컴퓨팅

즉, “빠른 반응성”과 “거대한 처리량”이 동시에 필요해진다는 뜻이고, 이 요구가 곧 MI455/Helios 같은 랙 스케일 전략으로 연결됩니다.

컴퓨팅 제약과 성장의 상관: “컴퓨팅이 곧 경쟁력”

브록만은 OpenAI가 지난 몇 년 동안 컴퓨팅 사용량을 매년 3배씩 늘렸고 매출도 3배 증가했다고 언급하며, 새로운 모델/기능이 나올 때마다 내부적으로도 컴퓨팅 확보 경쟁이 있을 정도로 compute constrained 상태라는 취지의 설명을 덧붙입니다. 나아가 향후 GDP 성장까지 “어디에 얼마나 컴퓨팅이 있느냐”가 좌우할 수 있다는 관점도 제시됩니다.

AMD와 OpenAI의 “공동 설계”

핵심은 이 문장입니다. MI455와 Helios가 OpenAI 엔지니어링 팀 피드백을 통해 긴밀히 협력하며 개발되었다는 점. 즉, 단순 고객-공급자 관계가 아니라, “에이전트 워크로드가 요구하는 리소스 균형”을 함께 맞춰가는 그림으로 제시됩니다.


MI400 포트폴리오와 ROCm: “개방형”이 성능이 되는 시대

AMD는 Helios/MI455를 “정점”으로 두고, 그 아래를 MI400 시리즈 포트폴리오로 촘촘히 채웁니다. 방향성은 명확합니다. 클라우드 하이퍼스케일 훈련부터 엔터프라이즈 배포, 주권 AI, 슈퍼컴퓨팅까지 “환경이 다르면 폼팩터도 달라야 한다”는 것.

  • Helios: 하이퍼스케일 훈련 + 랙 스케일 분산 추론
  • Instinct MI440X GPU: 엔터프라이즈 배포에 초점. 기존 데이터센터 인프라에서 쓰기 쉬운 컴팩트 8GPU 서버 구성에서 리더십 훈련/추론 성능
  • MI430X 플랫폼: 주권 AI 및 슈퍼컴퓨팅처럼 “정확도”가 중요한 환경을 겨냥. 과학 데이터 타입과 AI 데이터 타입을 함께 다루는 하이브리드 컴퓨팅 강조

그리고 이 포트폴리오를 가능하게 하는 기술 기반으로 칩렛(chiplet)이 반복해서 등장합니다. “워크로드에 맞는 컴퓨팅”을 만들 수 있다는 논리입니다.

ROCm: AI 시대에 ‘소프트웨어 스택’은 선택이 아니라 생존

AMD가 개방형 생태계를 강하게 주장하는 지점은 ROCm입니다. 발표의 톤은 단호합니다.

  • AI의 미래는 개방형 인프라 + 공유 기술 표준을 중심으로 업계가 협력할 때 가속된다.
  • AMD는 하드웨어·소프트웨어·솔루션 생태계 전반에서 개방성을 제공하는 유일한 회사라는 포지셔닝을 취한다.
  • ROCm은 “업계에서 가장 성능이 뛰어난 AI용 개방형 소프트웨어 스택”이라고 정의된다.
  • PyTorch, vLLM, SGLang, Hugging Face 등 상위 오픈소스 프로젝트에서 기본 지원되며, 모델 허브/프레임워크/도구를 출시 당일부터 지원한다고 강조한다.

정리하면, AMD는 “하드웨어만 좋은 회사”가 아니라, 개발자가 ‘바로 쓰게 만드는’ 소프트웨어 스택을 AI 승부처로 끌어올립니다.


Luma AI: 3D·비디오 생성이 ‘산업’이 되는 순간

AI가 텍스트를 넘어서 산업을 바꾸는 순간을 보여주는 파트너로, Luma AI가 무대에 오릅니다. CEO이자 공동 설립자인 아밋 자인(Amit Jain)은 Luma의 미션을 “세상을 이해하고 시뮬레이션하며 개선하는 멀티모달 일반 지능”으로 설명합니다.

Ray 3: “추론 비디오 모델”이라는 프레임

발표에서 Ray 3는 다음과 같이 소개됩니다.

  • 세계 최초의 추론 비디오 모델
    • 단순 생성이 아니라, 픽셀과 지연 시간을 먼저 고려하고 “무엇을 생성할지” 결정할 수 있다는 설명
  • 세계 최초로 4K 및 HDR 생성 지원
  • 광고·미디어·엔터테인먼트 기업과 개인 창작자까지 폭넓게 사용
  • 2025년 말에는 90분 장편 영화 제작에 사용하는 등 대규모 배포가 진행 중

여기서 중요한 통찰은 “제어(control)”입니다. 고객들은 정밀한 제어를 원했고, Luma는 제어가 더 나은 프롬프트가 아니라 더 높은 지능에서 나온다는 결론에 도달했다고 말합니다.

Ray 3 Modify: ‘세계 편집(World Editing)’의 시대

Ray 3 위에 구축된 Ray 3 Modify는 실사 또는 AI 푸티지를 가져와 원하는 만큼 바꾸는 세계 편집 기능을 제공하며, 이로 인해 인간의 동작·타이밍·방향 자체가 프롬프트가 되는 하이브리드 인간-AI 프로덕션이 가능해진다는 서사가 이어집니다.

2026년은 “에이전트의 해”

Luma는 2026년을 에이전트의 해로 선언하며, “작업의 일부”가 아니라 엔드투엔드 작업 전체를 수행하는 에이전트로 진화할 것이라고 봅니다. 멀티모달 에이전트 데모에서는 스크립트를 가져와 시각화하고, 장편 비디오를 분석하며, 캐릭터·장면·스토리의 일관성을 유지한 채 필요한 순간에만 편집하는 방향이 제시됩니다.

AMD 선택 이유: 추론 경제성과 TCO

Luma가 AMD를 선택한 이유는 명확히 “경제성”으로 연결됩니다.

  • 멀티모달 워크로드는 텍스트 모델보다 수백~수천 배 더 많은 토큰을 소비할 수 있다.
  • 예시로, 10초 비디오가 100,000 토큰이 될 수 있는 반면 일반 LLM 응답은 200~300 토큰 수준이라는 대비가 제시됩니다.
  • 그래서 TCO(총소유비용)와 추론 경제성이 비즈니스에 절대적으로 중요하며, Luma는 AMD와의 협력을 통해 스택에서 최고의 TCO를 달성했다고 말합니다.
  • 또한 2026년에 AMD 파트너십을 10배 확장할 예정이며, MI455X의 랙 스케일 솔루션과 메모리 인프라가 “세계 시뮬레이션 모델” 구축에 필수라고 연결합니다.

AI PC 시대: Ryzen AI 400·Ryzen AI Max·Halo 그리고 로컬 에이전트

AMD는 “클라우드만이 AI가 아니다”라는 관점을 AI PC로 확장합니다. AI PC는 단순한 도구가 아니라 사용자의 작업 방식을 학습하고, 습관에 적응하며, 오프라인에서도 빠르게 작업을 수행하는 능동적 파트너가 되어가고 있다는 설명입니다.

MI500 로드맵까지: 성능 향상은 계속된다

AMD는 차세대 MI500 시리즈도 개발 중이라고 밝히며,

  • CDNA6 아키텍처
  • 2nm 공정
  • HBM4e
  • 2027년 출시를 통해 지난 4년간 AI 성능 1,000배 증가 달성을 목표로 한다는 로드맵이 제시됩니다.

Ryzen AI 400 시리즈: “60 TOPS”로 확장되는 AI PC 라인업

이번 CES에서 AI PC 쪽 핵심 발표는 Ryzen AI 400 시리즈 프로세서입니다.

  • Zen 5 CPU (최대 12 고성능 코어)
  • RDNA 3.5 GPU (16 코어)
  • XDNA2 NPU (최대 60 TOPS)
  • 더 빠른 메모리 속도 지원
  • 첫 제품은 “이달 말부터 출하”, 연중 120개+ AI PC에 탑재 예정이라는 로드맵

AMD는 자신들이 AI PC 변곡점을 “일찍” 주도했다는 히스토리도 함께 강조합니다(온칩 AI 엔진 통합, Copilot+ x86 PC 등). 또한 Ryzen AI Max로 2000억(200B) 매개변수 모델을 로컬에서 실행할 수 있는 단일 칩 x86 플랫폼을 만들었다는 주장도 포함됩니다.

Liquid AI: 로컬 AI 에이전트를 위한 ‘가벼운 모델’의 필요

AI PC가 진짜 일하려면 하드웨어만큼 중요한 것이 “장치에서 돌아갈 만큼 효율적인 모델”입니다. 이 맥락에서 Liquid AI가 소개됩니다. MIT에서 분사한 파운데이션 모델 회사로, 트랜스포머가 아닌 Liquid Foundation Models(LFM)를 구축해 품질 저하 없이 계산 비용을 줄이겠다는 목표를 제시합니다. 가치 제안은 3가지로 정리됩니다.

  • 개인정보 보호(Privacy)
  • 속도(Speed)
  • 연속성(Continuity) (온라인/오프라인을 넘나드는 일관된 경험)

LFM 2 / LFM 2.5

  • LFM 2는 “타이니 클래스(tiny class)”에서 가장 진보된 모델로 소개되며 12억(1.2B) 파라미터 규모
  • 명령 수행(instruction-following) 능력이 동급 및 더 큰 모델 사이에서도 매우 우수하다고 설명
  • LFM 2.5 인스턴스는 특정 모델 대비 더 나은 명령 수행을 장치에서 제공한다고 언급
  • 총 5가지 모델 인스턴스(챗/인스트럭트/일본어 강화/비전-언어/경량 오디오-언어)가 공개되며 AMD Ryzen AI의 CPU/GPU/NPU에 최적화되었다는 점을 강조

LFM 3: 멀티모달 + 100ms 미만 지연

  • 텍스트·비전·오디오 입력을 처리하고, 10개 언어로 오디오 및 텍스트 출력을 제공하도록 기본 멀티모달로 설계
  • 시청각 데이터에 대해 100ms 미만 지연 시간을 제시

그리고 “능동적(proactive) 에이전트” 데모가 이어집니다. 사용자가 스프레드시트 작업 중일 때, 에이전트가 다가오는 영업 회의를 감지하고 대신 참석 제안을 하며, 단순 전사를 넘어 이메일까지 분석해 답장 초안을 만드는 흐름을 오프라인 로컬에서 수행한다는 시나리오입니다. Liquid AI는 2026년 Zoom과 협력해 이를 Zoom 플랫폼에 도입할 예정이라고 언급합니다.

Ryzen AI Max: 크리에이터·게이머·개발자용 “통합 메모리” 승부수

Ryzen AI Max는 다음 스펙으로 소개됩니다.

  • Zen 5 CPU 16코어
  • RDNA 3.5 GPU 40 컴퓨팅 유닛
  • XDNA2 NPU 최대 50 TOPS
  • CPU/GPU/NPU가 공유하는 최대 128GB 통합 메모리 아키텍처

발표 내용상, 프리미엄 노트북에서 최신 MacBook Pro 대비 AI 및 콘텐츠 제작 앱에서 더 빠르고, 소형 워크스테이션에서는 NVIDIA DGX Spark 대비 더 저렴한 가격으로 유사 성능을 제공하며, GPT-OSS 모델 실행 시 달러당 최대 1.7배 더 많은 토큰을 생성한다는 설명이 포함됩니다. 또한 Windows와 Linux를 모두 기본 지원해 개발 편의성을 강조합니다.

Ryzen AI Halo: “손에 맞는” 로컬 AI 개발 플랫폼

AMD는 로컬 AI 배포를 위한 레퍼런스 플랫폼 Ryzen AI Halo도 발표합니다.

  • “세계에서 가장 작은 AI 개발 시스템”
  • 최대 2000억 파라미터 모델을 로컬 실행
  • 최상급 Ryzen AI Max + 128GB 통합 메모리
  • 최신 ROCm 스택과 오픈소스 개발 도구 사전 로드
  • 올해 2분기 출시 예정

World Labs와 공간 지능: 3D 세계를 “몇 분”으로 당기는 기술

AI의 다음 전선으로 “공간 지능(spatial intelligence)”이 제시됩니다. 무대에는 World Labs 공동 설립자이자 CEO인 페이페이 리(Fei-Fei Li)가 등장하고, 언어 지능의 발전은 컸지만 인간에게 더 중요한 것은 지각과 행동을 연결하는 공간 지능이라고 강조합니다.

World Labs는 이 공간 지능을 현실화하기 위해 설립되었고, Marble이라는 모델 데모가 제시됩니다.

Marble: 몇 장(심지어 한 장)의 이미지로 3D/4D 세계 생성

전통적인 3D 구축이 레이저 스캐너나 복잡한 소프트웨어를 요구했다면, World Labs는 GenAI로 데이터에서 3D·4D 구조를 학습하는 모델을 만든다는 접근입니다. 모델에 몇 장의 이미지만 주면:

  • 누락된 디테일을 채우고
  • 물체 뒤를 예측하며
  • 풍부하고 일관된 탐색 가능한 3D 세계를 만든다고 설명합니다.

AMD 오피스 리모델링 데모: MI325X + ROCm

특히 흥미로운 데모는 AMD 실리콘밸리 오피스를 휴대폰 카메라로 촬영한 몇 장의 이미지로 3D 공간을 만들고, 그 공간을 이집트 스타일 등으로 리모델링하면서도 기하학적 일관성을 유지하는 시나리오입니다. 이때 사용된 인프라로 MI325X와 ROCm이 언급됩니다.

World Labs는 AMD와의 파트너십이 최근 시작됐음에도, 실시간 프레임 생성 모델이 MI325X에서 1주 만에 실행되었고, Instinct와 ROCm을 통해 몇 주 만에 성능을 4배+ 개선할 수 있었다고 말합니다.

여기서 결론은 분명합니다. 공간 지능은 3D 구조·움직임·물리학을 이해해야 하므로 메모리, 대규모 병렬 처리, 매우 빠른 추론이 필요하고, MI450 같은 플랫폼은 더 큰 세계 모델 훈련과 실시간 반응성을 가능하게 할 것이라는 전망으로 이어집니다.


헬스케어 혁신: 신약 개발·정밀의학·게놈 데이터의 폭발

키노트의 헬스케어 파트는 “AI의 가치가 결국 생명을 구하는 것으로 측정된다”는 메시지로 전개됩니다. 그리고 세 회사의 사례가 연결됩니다: AppSci, Illumina, AstraZeneca.

AppSci: 생성형 AI + 합성 생물학으로 약을 “설계”하는 시대

AppSci CEO 션 맥클레인(Sean McClain)은 기존 시행착오 중심의 약물 발견과 달리, 생성형 AI와 합성 생물학으로 원하는 생물학적 특성을 가진 후보를 “처음부터 설계”할 수 있다고 말합니다. 주요 목표 질병으로는

  • 남성형 탈모(androgenic alopecia)
  • 자궁내막증(10명 중 1명 여성에게 영향)

이 제시되고, AMD 투자 후 1년 만에 추론을 확장해 단 하루에 100만+ 약물을 스크리닝할 수 있게 되었다는 성과가 소개됩니다. 또한 MI355의 메모리가 생물학을 더 풍부한 맥락에서 다뤄 더 나은 발견 모델을 만드는 데 도움이 될 것이라는 설명이 이어집니다.

Illumina: DNA라는 ‘30억 문자’의 세계, 그리고 데이터 폭발

Illumina CEO 제이콥 테이슨(Jacob Thaysen)은 DNA를 생명의 청사진으로 설명하며, 인간 게놈이 30억 문자로 이루어진 “20만 페이지 책”에 비유될 만큼 정확도가 중요하다고 강조합니다. 또한 Illumina의 시퀀서가 매일 생성하는 데이터가 매우 방대해, AMD와의 관계가 필수적이며, AMD FPGA와 EPYC 프로세서를 활용해 데이터를 통찰로 변환한다고 말합니다.

생성형 AI + 게놈 + 단백질체학의 결합은 생물학 이해를 바꾸고, 신약 발견을 넘어 예방과 조기 치료로 이어져 수명과 건강수명 개선에 기여할 것이라는 전망도 제시됩니다.

AstraZeneca: “AI는 생산성이 아니라 혁신”

AstraZeneca의 분자 AI 책임자 울라 엔크비스트(Ulla Enksvist)는 AI를 혁신의 도구로 정의합니다. 수십 년의 실험 데이터를 학습한 생성형 AI로 수백만 후보를 가상 평가하고, 가장 유망한 것만 실험실로 가져가는 접근입니다. 그 결과:

  • 후보 약물을 50% 더 빠르게 제공
  • 임상 성공률도 높이는 방향으로 진화하고 있다고 설명합니다.

AstraZeneca는 AMD와 협력해 인실리코(in-silico) 흐름을 확장하고, 대규모 데이터 세트 처리와 워크플로우 최적화를 추진한다고 언급됩니다.

헬스케어 파트는 “sick care(사후 치료)”에서 “preventative care(예방)”로, 나아가 재생 생물학/의학(regenerative biology and medicine)으로 가는 방향성으로 정리됩니다.


물리적 AI: 로보틱스와 우주 탐사에서의 ‘결정적 로컬 컴퓨팅’

AI가 현실 세계로 들어오는 순간, 요구사항은 급격히 바뀝니다. 물리적 AI는 “느리면 안 되고, 틀리면 안 되는” 환경이 많습니다. 그래서 발표는 반복해서 로컬에서 빠르고 결정적(deterministic)인 컴퓨팅을 강조합니다.

Generative Bionics: 인간 중심 휴머노이드 로봇 ‘Gen 1’

Generative Bionics CEO 다니엘라 푸치(Daniela Pucci)는 “인공 에이전트가 인간 세계를 이해하려면 인간 같은 몸으로 경험해야 하는가?”라는 질문에서 출발해, iCub/ErgoCub/IronCub 같은 플랫폼을 만들어왔다고 소개합니다.

Gen 1에서 가장 큰 차별점은 촉각(tactile)입니다.

  • 몸 전체에 분산된 촉각 피부(tactile skin)가 압력·접촉·의도를 감지
  • 촉각을 “주요 지능의 원천”으로 끌어올린다는 메시지
  • 공장 협업, 헬스케어 보조 등 사람과의 안전한 상호작용을 겨냥

또한 Gen 1은 2026년 하반기 상업 제조 예정이며, 선도 철강 제조업체를 포함한 산업 파트너와 함께 안전이 중요한 환경에 배치될 것이라고 언급됩니다. 이 과정에서 AMD는 Ryzen AI Embedded, VersaLay iEdge 같은 엣지 플랫폼부터 시뮬레이션/훈련/대규모 개발용 CPU/GPU까지 엔드투엔드 아키텍처를 제공하는 파트너로 설명됩니다.

Blue Origin: 달 영구 거주(Lunar Permanence)와 Versal 2 비행 컴퓨터

Blue Origin의 달 영구 거주 담당 수석 부사장 존 칼루리스(John Kalouris)는 목표를 “달 영구 거주 확립”으로 정의하며, 이를 위해 반복 가능하고 저렴한 운영이 필요하다고 말합니다.

우주는 궁극의 엣지 환경입니다. 비행 컴퓨터는 “차량의 심장”이고, 질량·전력·방사선 등 제약 속에서 신뢰성과 탄력성을 가져야 합니다. AMD 임베디드 아키텍처는 질량과 전력 절감, 방사선 환경 고려 측면에서 장점이 있다는 서사가 이어집니다.

특히 Blue Origin은 AMD와 Versal 2를 비행 컴퓨터 스택에 쓰는 논의를 시작한 지 몇 달 만에 개발 비행 컴퓨터에 통합 가능한 장치를 제공받았고, 이 스택으로 달 착륙 시뮬레이션을 성공적으로 수행해 수개월 일정을 단축했다고 말합니다. 이 컴퓨터는 2028년 초 우주비행사를 달에 착륙시킬 Mark 2 착륙선에 동력을 공급할 예정이라는 언급도 포함됩니다.

또한 AI는 우주비행사에게 코파일럿 역할을 하고, 착륙 지점 식별·위험 탐지 등에서 실시간 엣지 컴퓨팅이 중요하다는 메시지가 이어집니다. 달 뒷면 전파 천문학 시나리오도 연결되며, 통신 지연을 극복하기 위해 엣지 AI가 탐사 최적화를 돕는 그림이 제시됩니다.


과학·슈퍼컴퓨팅·교육: Genesis 미션과 AI 인재 파이프라인

AMD는 HPC(고성능컴퓨팅)에서의 리더십도 전면에 배치합니다. 전통 HPC와 AI의 융합을 추진하고 있고, 세계에서 가장 빠른 슈퍼컴퓨터, 에너지 효율 시스템 등에 동력을 공급한다고 강조합니다. 예시로는:

  • 핀란드 Lumi: 기후 모델 업데이트 시간 85%+ 단축
  • ENI: 배터리/연료 개발
  • Oak Ridge National Labs(Exascale): 예측 정확도 99% 수준의 시뮬레이션 언급
  • Lawrence Livermore El Capitan: 바이러스 변이/진화 모델링을 통한 팬데믹 대응 가속

Genesis 미션: AI·슈퍼컴퓨팅·양자의 융합

AMD는 미국 DOE 및 국립 연구소와 함께 Genesis 미션에 참여한다고 소개합니다.

  • Lux 컴퓨터: “올해 초 가동 예정”인 과학 전용 AI 팩토리
  • Discovery: 2028년 계획된 차기 플래그십 슈퍼컴퓨터

또한 미국 차원의 AI 전략(규제 장벽 제거, 인프라/에너지 확보, AI 외교/수출 프로그램)과 연결되며, 교육 이니셔티브로 “대통령 AI 챌린지”가 언급됩니다.

교육: AI Education Pledge와 학생·커뮤니티 확장

AMD는 AI 교육 서약을 지원하며 1억 5천만 달러를 투자했고, 전 세계 800개+ 교육·연구 협력을 구축 중이며, 올해 15만 명+ 학생에게 무료 온라인 AI 과정을 제공할 계획이라고 말합니다.

또한 Hack Club과 진행한 전국 AI·로보틱스 캠페인, 해커톤 우승팀 Team Armtender(AI 로봇 바리스타) 사례가 소개됩니다. 이 팀은 AMD 개발자 클라우드(MI 300X GPU)에서 비전-언어 모델을 훈련했고, 로봇 팔은 Ryzen AI 노트북에서 3대 카메라로 로컬 실행된다고 설명됩니다. AMD는 팀원 각자에게 2만 달러 교육 보조금을 수여했다고 언급됩니다.


결론: AMD가 그리는 다음 10년의 AI 지도

CES 2026에서 AMD는 “AI가 중요하다”는 메시지를 넘어, AI가 보편재가 되기 위해 필요한 컴퓨팅의 크기(요타 스케일)와 이를 감당하기 위한 플랫폼 단위 혁신(Helios/MI455), 그리고 개방형 소프트웨어(ROCm)를 한 프레임으로 묶었습니다.

여기에 OpenAI의 에이전트 컴퓨팅, Luma AI의 멀티모달 생성 워크로드, World Labs의 공간 지능, 헬스케어·로보틱스·우주 탐사·과학 슈퍼컴퓨팅까지 연결하면서, AMD의 전략은 결국 이렇게 요약됩니다.

  • AI는 클라우드에만 있지 않다. 클라우드·PC·엣지 전체가 AI 플랫폼이 된다.
  • 컴퓨팅 수요는 상상을 초월한다. 그래서 랙 스케일/요타 스케일이 필요하다.
  • 성능은 하드웨어만이 아니라 소프트웨어(ROCm)와 생태계에서 완성된다.
  • 가장 큰 혁신은 단독이 아니라, 업계 리더와의 공동 혁신으로 빠르게 현실이 된다.

AMD가 그린 그림은 “더 큰 숫자”의 경쟁이라기보다, AI를 전 산업과 일상에 ‘실제로 배포 가능한 형태’로 만드는 인프라 경쟁에 가깝습니다. 그리고 CES 2026은 그 로드맵을 상당히 구체적인 형태로 공개한 자리였습니다.


AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .

젠슨 황의 CES 2026 엔비디아 기조연설 총정리: Agentic AI부터 Physical AI ‘Cosmos’, 자율주행 AlphaMayo와 차세대 슈퍼칩 ‘Vera Rubin’까지

젠슨 황의 CES 2026 엔비디아 키노트는 “신제품 발표”가 아니라, AI 시대에 컴퓨터 산업이 어떻게 다시 설계되어야 하는지를 스택 전체 관점에서 설명한 일종의 선언문에 가깝습니다. 메시지는 단순합니다. 이제 AI는 앱 위에 얹는 기능이 아니라, 소프트웨어를 만들고 실행하는 방식 자체를 바꾸는 플랫폼 전환이며, 그 결과 컴퓨팅 산업의 5계층 스택 전체가 재발명되고 있다는 것입니다.


CES 2026 엔비디아 키노트, 한눈에 보는 핵심 요약

  • 지금은 두 개의 플랫폼 전환이 동시에 진행 중입니다: (1) AI 기반 앱 시대, (2) 소프트웨어 개발/실행 방식의 근본 변화
  • AI는 학습 + 추론(Reasoning) 단계로 진입했고, “테스트 타임 스케일링(Test-time Scaling)”으로 컴퓨팅 수요가 폭발합니다.
  • 미래 AI 앱의 기본 골격은 에이전틱 AI + 멀티모델(라우팅) + 멀티클라우드/하이브리드입니다. 엔비디아는 이를 Blueprint로 제시합니다.
  • Physical AI를 위해서는 **세 종류의 컴퓨터(학습·추론·시뮬레이션)**와 디지털 트윈/합성 데이터가 필수이며, 월드 파운데이션 모델 Cosmos가 중심입니다.
  • 자율주행 AlphaMayo는 “엔드투엔드 학습 + 추론 + 설명 가능성”을 내세우며, 벤츠와 풀스택으로 레벨4 시대를 예고합니다(2026년 지역별 출시 로드맵 포함).
  • 차세대 슈퍼칩 Vera Rubin은 무어의 법칙 둔화를 “극한의 공동 설계(Extreme Co-design)”로 돌파합니다: 칩 6종을 하나처럼 움직이는 시스템 설계, 100% 수냉식 랙, AI 전용 이더넷(Spectrum‑X), BlueField‑4 기반 메모리 병목 해소가 핵심입니다.
  • 결과적으로 토큰 비용은 10분의 1, 팩토리 처리량은 10배, 대형 모델 학습 속도는 “프론티어 도달 시간”을 결정하는 경쟁우위로 강조됩니다.

1) 두 개의 플랫폼 전환: 5계층 스택 전체가 다시 짜이고 있다

젠슨 황은 컴퓨터 산업이 10~15년 주기로 플랫폼 전환을 겪어왔다고 전제합니다. 메인프레임 → PC → 인터넷 → 클라우드 → 모바일. 매번 “새로운 플랫폼”이 등장할 때마다, “새로운 앱”이 그 위에 다시 만들어졌습니다.

그런데 지금은 전환이 하나가 아니라 두 개가 동시에 일어나고 있다는 설명입니다.

  1. AI 시대로의 전환: 앞으로의 애플리케이션은 AI를 기반으로 구축된다.
  2. 개발·실행 방식의 전환: 소프트웨어를 만들고 실행하는 방식 자체가 바뀌며, 컴퓨터 산업의 5계층 스택 전체가 재발명된다.

여기서 그는 아주 공격적인 관점을 던집니다. 소프트웨어 개발은 “코딩”에서 “학습”으로 전환되었고, 소프트웨어는 CPU가 아니라 GPU에서 실행되며, 미리 컴파일된 정적 결과물이 아니라 문맥을 이해해 매번 새롭게 생성되는 방향으로 가고 있다는 것입니다.

또 하나의 큰 배경은 시장 규모입니다. 지난 10년간 구축된 약 10조 달러 규모의 컴퓨팅 인프라가 AI 방식으로 현대화되고, 100조 달러 규모의 산업이 R&D 예산을 AI로 이동하는 흐름이 만들어지고 있다는 언급은, 이번 전환이 “일시적 트렌드”가 아니라 자본과 산업 구조의 이동이라는 점을 강조합니다.

CES 2026 엔비디아

2) 2025년의 교훈: 스케일링 법칙과 ‘추론(Reasoning)’의 시대

AI 발전의 핵심으로 그는 다시 스케일링 법칙(Scaling Laws)을 꺼냅니다. BERT(2015), 트랜스포머(2017), 그리고 2022년의 “ChatGPT 모멘트”를 거쳐, 2023년에는 추론 모델의 등장으로 혁명이 시작됐다고 설명합니다.

여기서 중요한 전환점이 “테스트 타임 스케일링(Test-time Scaling)”입니다. 모델을 단순히 사전 학습시키는 것을 넘어, 강화학습 기반의 사후 훈련으로 기술을 숙달하게 하고, 실제 사용 시점에 “실시간으로 사고하는(Thinking)” 단계로 넘어갔다는 진단입니다.

그리고 2024년부터 확산되기 시작한 것이 에이전틱 시스템(Agentic Systems)입니다. 이 시스템은 단순 답변이 아니라,

  • 추론(Reasoning)
  • 정보 탐색(Search)
  • 도구 사용(Tools)
  • 미래 계획(Planning)
  • 결과 시뮬레이션(Simulation)

을 결합해 중요한 난제를 해결하는 형태로 진화합니다.

그는 “정보의 형태”가 LLM에만 국한되지 않는다고 강조하며, 특히 Physical AI를 가장 큰 분야 중 하나로 지목합니다. 물리적 AI는 “세상과 상호작용하는 AI”, 그리고 AI 물리학은 “물리 법칙 자체를 이해하는 AI”라는 구분까지 제시합니다.


3) 오픈 모델의 폭발적 성장과 엔비디아의 기여: 모델만이 아니라 ‘데이터’도 연다

젠슨 황은 오픈 모델(Open Models)의 발전이 AI를 모든 곳으로 확산시키고 있다고 말합니다. 2023년은 오픈 모델이 도약한 해였고, 딥시크(DeepSeek)의 추론 시스템 R1이 이 흐름을 촉발시켰다는 맥락이 포함됩니다. 오픈 모델은 프론티어 모델 대비 약 6개월 뒤처지지만, 빠르게 발전하며 다운로드가 폭발한다는 설명입니다.

여기서 엔비디아의 포지셔닝은 명확합니다. 엔비디아는 DGX 클라우드를 운영하며 오픈 모델을 개발하고, 다양한 도메인에서 프론티어 수준의 모델까지 연구한다. 그리고 중요한 차별점으로 모델뿐 아니라 학습 데이터까지 오픈소스로 공개한다는 메시지를 강조합니다.

연설에서 언급된 주요 모델 라인업은 다음과 같습니다.

  • 디지털 생물학: La Proteina(단백질 합성), OpenFold3(구조 이해), Evo2(이해·생성)
  • 물리 법칙/기상: Earth‑2, ForecastNet, CorDiff
  • LLM: Nemotron(하이브리드 트랜스포머 SSM), Nemotron‑3
  • 월드 파운데이션 모델: Cosmos(세상이 작동하는 방식 이해)
  • 로보틱스: Groot(휴머노이드), AlphaMayo(자율주행 자동차)

또한 NeMo 라이브러리를 통해 데이터 처리→학습→생성→평가→배포까지 AI 수명 주기 전체를 지원하는 오픈소스 제품군을 제공한다고 설명합니다.

이 파트에서 반복되는 핵심 문장은 사실상 이것입니다. 모든 기업·산업·국가가 AI 혁명에 참여할 수 있도록, 엔비디아는 ‘완전히 개방적인 방식’으로 플랫폼을 구축한다.

젠슨 황의 CES 2026 엔비디아

4) Agentic AI(에이전틱 AI): “환각”을 줄이는 길은 ‘조사·도구·계획’이다

젠슨 황은 AI의 환각(hallucination)이 발생하는 이유를 “현재와 미래를 알지 못하기 때문”이라고 규정합니다. 따라서 답변을 생성하기 전에 AI에게 필요한 것은,

  • 조사(Research)
  • 도구 사용(Tool use)
  • 문제를 단계별로 분해(Decomposition)
  • 검색과 계획(Search & Planning)

같은 추론 기반 프로세스이며, 이 능력이 결합될 때 “학습되지 않은 일도 수행하는 절차”를 설계할 수 있다고 말합니다. 또한 그는 미래의 AI가 반드시 멀티모달이자 멀티모델이어야 한다고 강조합니다.

  • 멀티모달: 음성, 이미지, 텍스트, 비디오, 3D 그래픽, 단백질 구조까지 이해
  • 멀티모델: 작업에 가장 적합한 “전 세계의 뛰어난 모델”을 선택해 활용

그리고 AI는 필연적으로 멀티클라우드/하이브리드 환경에 존재해야 합니다. 모델은 서로 다른 장소(엣지, 무선 기지국, 기업 내부, 병원 등)에 있고, 데이터는 실시간 처리가 필요한 곳에서 처리되어야 하기 때문입니다.

이 구조를 가능하게 하는 핵심 구성요소가 바로 스마트 라우터입니다. 프롬프트 의도를 파악해 “가장 적합한 모델”을 결정하는 관리자 역할을 수행하며, 이를 통해 다음 두 가지를 동시에 만족시키는 아키텍처가 완성됩니다.

  • 완벽히 커스터마이징 가능한 AI(고유 기술·영업비밀 학습)
  • 항상 최전선(frontier)에 있는 AI(최신 기술 즉시 활용)

엔비디아는 이 프레임워크를 Blueprint라고 부릅니다. 데모에서는 DGX Spark를 개인 클라우드로 전환하고, 로컬 오픈 모델(예: 이메일 관리)과 프론티어 모델(다른 고난도 작업)을 의도 기반 모델 라우터로 연결해 개인 비서를 구축하는 과정을 보여주었다고 정리됩니다.


5) 엔터프라이즈의 미래: 엑셀과 명령어가 사라지는 UI 전환

젠슨 황은 에이전틱 AI 프레임워크가 이미 주요 엔터프라이즈 플랫폼 기업들과 통합되고 있다고 말합니다.

  • Palantir: AI 및 데이터 처리 플랫폼 통합/가속
  • ServiceNow: 고객·직원 서비스 플랫폼
  • Snowflake: 클라우드 데이터 플랫폼
  • NetApp: 시맨틱 AI 및 에이전틱 시스템 기반 고객 서비스

그리고 결론을 이렇게 내립니다. 미래 플랫폼의 UI는 엑셀 시트나 명령어 입력이 아니라, 에이전틱 시스템 자체가 될 것이다. 사람과 대화하듯 멀티모달 정보 처리를 수행하는 “단순한 상호작용”이 인터페이스의 표준이 된다는 주장입니다.


6) Physical AI의 본질: 상식을 ‘학습’시키는 월드 파운데이션 모델 Cosmos

물리적 AI에서 가장 어려운 과제는, AI가 물리 세계의 “상식”을 이해하도록 만드는 것입니다.
대상 영속성, 인과관계, 마찰, 중력, 관성 같은 “세상이 돌아가는 이치”를 배워야 한다는 설명이 이어집니다.

이를 위해 엔비디아는 물리적 AI 시스템 구축에 세 종류의 컴퓨터가 필요하다고 정리합니다.

  1. 학습용 컴퓨터: 모델 학습(엔비디아가 구축)
  2. 런타임 추론용 컴퓨터: 자동차·로봇·엣지에서 실행되는 로보틱스 컴퓨터
  3. 시뮬레이션용 컴퓨터: 행동 결과 평가 및 시뮬레이션

이때 시뮬레이션의 중심 플랫폼이 Omniverse(디지털 트윈이자 물리 기반 시뮬레이션 세계)이며, 월드 파운데이션 모델이 Cosmos입니다. Cosmos는 “언어가 아닌 물리 세계를 위한” 월드 모델로 소개됩니다.

여기서 데이터 문제가 등장합니다. 현실 데이터는 부족하기 때문에, 물리 기반 시뮬레이션을 활용한 합성 데이터 생성(Synthetic Data Generation)이 혁신의 핵심이 됩니다.

Cosmos는 교통 시뮬레이터 출력값을 입력받아 물리적으로 타당한 고품질 서라운드 비디오를 생성하며, 인터넷 규모의 비디오·실제 주행/로보틱스 데이터·3D 시뮬레이션을 통해 사전 학습되었다고 설명됩니다. 또한 언어·이미지·3D·행동(Action)을 통합적으로 이해하고, 단일 이미지로부터 생성/추론/궤적 예측까지 수행할 수 있다고 제시됩니다.

핵심은 개발자가 Cosmos 내에서 폐쇄 루프(closed‑loop) 시뮬레이션을 실행하며, AI가 롱테일(long‑tail) 예외 상황을 학습하도록 돕는다는 점입니다.


7) 사고하고 설명하는 자율주행 ‘AlphaMayo’: 벤츠와 함께 여는 레벨4 로드맵

AlphaMayo는 “세계 최초의 사고하고 추론하는 자율주행 AI”로 소개됩니다. 카메라 입력부터 실제 구동 출력까지 엔드투엔드(end‑to‑end)로 학습되었고, 학습 데이터는

  • 실제 주행 데이터
  • 인간 운전 시연 데이터
  • Cosmos가 생성한 방대한 주행 데이터

의 조합이라고 정리됩니다.

AlphaMayo의 차별점으로 연설에서 강조된 포인트는 다음입니다.

  • 단순히 조작(control)하는 것을 넘어 행동을 추론하고
  • 결정 이유를 설명하며
  • 이동 경로를 제시한다
  • 인간 시연 기반 학습으로 운전이 매우 자연스럽다
  • 복잡한 롱테일 상황을 “평범한 작은 시나리오들”로 분해해 추론·해결한다

또한 자율주행 AI는 5계층 스택으로 구성된다고 설명합니다.

  • (하단) 자동차
  • 칩(GPU·네트워킹·CPU)
  • 인프라(Omniverse, Cosmos)
  • 모델(AlphaMayo)
  • (상단) 애플리케이션(메르세데스‑벤츠)

엔비디아는 AlphaMayo를 오픈소스로 공개하며 벤츠와 풀스택 프로젝트를 진행했다고 언급합니다.

출시 로드맵도 구체적으로 제시됩니다. 엔비디아 기술이 탑재된 첫 자율주행차는 2026년 1분기 미국, 2분기 유럽, 3~4분기 아시아 출시 예정이라는 일정이 포함됩니다.

안전성 전략은 “이중 스택”입니다.

    1. 엔드투엔드로 학습된 AlphaMayo 스택
    1. 안전 가드레일 역할의 클래식 AV 스택

안전 정책 평가자가 AlphaMayo에 확신이 없다고 판단하면, 더 단순하고 확실한 클래식 스택으로 전환하는 구조입니다. 그는 자율주행이 “최초의 대규모 주류 물리적 AI 시장”이 될 것이며, 향후 10년 내 비자율주행에서 자율주행으로의 변곡점이 온다고 확신합니다.


8) 로보틱스와 산업의 융합: 로봇은 ‘컴퓨터 안에서’ 설계되고, 공장은 ‘거대한 로봇’이 된다

자율주행에 쓰인 기본 기술(세 대의 컴퓨터, 합성 데이터, 시뮬레이션)은 모든 로봇 시스템에 적용된다고 정리됩니다. 엔비디아의 로봇 시뮬레이터는 Isaac, 로봇 학습 공간은 Omniverse입니다.

흥미로운 부분은 “AI 물리학이 엔비디아를 있게 한 산업(설계·생산 산업)을 다시 혁신한다”는 주장입니다.

  • Cadence는 CUDA‑X를 시뮬레이션과 솔버에 통합
  • Synopsys·Cadence는 칩 설계를 넘어 시스템 설계·시뮬레이션 영역으로 확장
  • 미래에는 칩과 시스템 전체가 해당 환경에서 설계·에뮬레이션·시뮬레이션될 것
  • 엔비디아는 Siemens와 협력해 CUDA‑X 물리적 AI, 에이전틱 AI, NeMo, Nemotron을 지멘스 세계에 통합

이 흐름의 종착점은 “에이전틱 칩 설계자”와 “에이전틱 시스템 설계자”가 설계를 돕고, 로봇은 컴퓨터 안에서 설계되며, 로봇을 생산할 플랜트/공장 자체가 본질적으로 거대한 로봇이 되는 미래입니다.


9) 차세대 슈퍼칩 ‘Vera Rubin’: 무어의 법칙 이후를 위한 Extreme Co‑design

젠슨 황은 컴퓨팅 수요 폭발을 아주 직설적으로 수치화합니다.

  • 모델 규모는 매년 10배씩 커지고
  • 추론이 “사고”가 되면서 강화학습을 위한 컴퓨팅이 기하급수적으로 증가
  • 테스트 타임 스케일링으로 생성되는 토큰 수는 매년 5배 증가
  • 경쟁 심화로 토큰 비용은 매년 약 10배 감소 압력

따라서 엔비디아는 “매년 컴퓨팅 최첨단을 발전”시키기로 결정했고, 그 결과물이 차세대 슈퍼칩(정확히는 슈퍼칩+시스템) Vera Rubin입니다. 이름은 암흑 물질을 발견한 천문학자 베라 루빈에서 따왔다는 설명이 포함됩니다.

핵심 개념은 극한의 공동 설계(Extreme Co‑design)입니다. Vera Rubin은 단일 칩이 아니라 6개의 칩이 하나처럼 작동하도록 엔지니어링된 시스템입니다.

  • Vera CPU: 맞춤형 설계 CPU, 이전 세대 대비 2배 성능(전력 제약 환경에서도 와트당 2배)
    • 88개 물리 코어
    • 공간 멀티스레딩으로 176 스레드가 온전한 성능 발휘
  • Rubin GPU: Vera와 양방향 일관 데이터 공유하도록 공동 설계
    • 부동소수점 연산 성능이 Blackwell의 5배
    • 트랜지스터 수 증가는 1.6배에 그침
    • 성능 도약의 핵심 기술: NVFP4 텐서 코어(정밀도·구조를 하드웨어에서 동적으로/적응형으로 조정)

또한 Vera Rubin 컴퓨트 보드는 이전 세대의 5배인 100 페타플롭스 AI 성능을 제공한다고 정리됩니다.


10) 인프라 혁신: 100% 수냉식 랙, AI 전용 이더넷(Spectrum‑X), NVLink 6세대

Vera Rubin은 칩 혁신만으로 완성되지 않습니다. 인프라도 함께 “극한의 공동 설계”로 재설계됩니다.

DGX 섀시의 재설계

  • 케이블: 43개 → 0개
  • 튜브: 6개 → 2개
  • 조립 시간: 2시간 → 5분
  • 냉각: 80% 액체 냉각 → 100% 액체 냉각

AI 전용 이더넷: Spectrum‑X

AI 트래픽은 동서(East‑West) 트래픽이 매우 집약적이고 극도로 낮은 지연시간을 요구합니다. 그래서 엔비디아는 AI 전용 이더넷인 Spectrum‑X를 제시합니다.

또한 “데이터센터 경제성” 관점의 예시가 나옵니다. 기가와트급(약 500억 달러 규모) 데이터 센터에서 네트워킹 효율을 10%만 높여도 50억 달러 가치가 있는데, Spectrum‑X가 처리량을 25%까지 높여준다는 논리입니다.

NVLink 6세대 스위치와 스케일업

  • 18개의 컴퓨트 노드를 연결해 72개의 Rubin GPU가 하나처럼 작동하도록 확장
  • 스위치 처리 성능: 초당 400Gbps급 처리, 모든 GPU가 동시에 모든 GPU와 통신
  • 랙 백플레인의 처리량: 초당 240TB(전 세계 인터넷 트래픽 약 100TB/s의 2배 이상이라는 비유 포함)

45℃ 냉각수: ‘칠러 없는’ 효율성

Vera Rubin 랙은 전력 소모가 이전 세대 대비 두 배이지만, 유입 냉각수 온도는 45℃로 동일하다고 정리됩니다. 45℃ 냉각수는 별도의 냉각기(chiller)가 필요 없어 효율적이며, 에너지 최적화의 핵심 포인트로 강조됩니다.

또한 TSMC와 공동 혁신한 CoWoS 공정으로 실리콘 포토닉스가 칩에 직접 통합되어, 200Gbps 속도의 512포트를 지원하는 Spectrum‑X 이더넷 AI 스위치가 가능해졌다는 설명도 포함됩니다.


11) 메모리 병목 해소: KV 캐시, 랙 내부 초고속 스토리지, BlueField‑4

젠슨 황은 추론 시대의 새로운 병목을 컨텍스트 메모리(KV 캐시)로 규정합니다.

  • 토큰을 생성할 때마다 GPU는 모델 전체와 KV 캐시 전체를 읽고, 생성 토큰을 다시 KV 캐시에 저장
  • 대화가 길어지고 모델이 커질수록 컨텍스트 메모리가 폭증
  • HBM이나 고속 컨텍스트 메모리만으로 감당이 어려워짐
  • 외부 스토리지로 나가면 네트워크가 느려져 병목이 심해짐

그래서 등장하는 해법이 BlueField‑4입니다.
BlueField‑4를 통해 랙 내부에 매우 빠른 KV 캐시 컨텍스트 메모리 저장소를 두어, 대규모 토큰 생성을 수행하는 AI 연구소/클라우드 사업자의 네트워크 트래픽 고충을 해결하는 혁명적 아이디어라고 설명합니다.

연설에서 제시된 구조는 다음과 같습니다.

  • GPU당 추가 16TB 메모리 확보
  • 각 컴퓨트 노드 뒤에 BlueField 4개 장착
  • 각 BlueField 뒤에 50TB 컨텍스트 메모리 저장
  • GPU는 동서 트래픽과 동일한 200Gbps 속도로 추가 메모리에 접근

여기에 보안·운영 안정성 요소가 더해집니다.

  • 기밀 컴퓨팅(Confidential Computing): 전송/저장/연산 중 데이터 암호화, PCIe·NVLink 버스 통신 암호화로 모델 노출 방지
  • 전력 평활화(Power Smoothing): 올 리듀스(all‑reduce) 단계에서 최대 25% 치솟는 순간 전력 급증을 평활화해 과도한 전력 프로비저닝/낭비 없이 전력 예산을 꽉 채워 쓰게 함

12) 압도적 성능과 비용: 무어의 법칙을 넘어선 ‘경제성’이 핵심이다

젠슨 황은 성능 자체보다 경제성을 더 날카롭게 강조합니다. AI는 “더 빨리 학습할수록 다음 프론티어에 더 빨리 도달”하고, 그 속도가 기술 리더십과 가격 경쟁력으로 이어지기 때문입니다.

연설에서 제시된 핵심 수치들은 다음과 같습니다.

  • 10조(Trillion) 파라미터 모델 학습: Rubin 시스템은 Blackwell 시스템의 4분의 1만 있어도 1개월 내 학습 가능
  • 팩토리 처리량(Factory Throughput): Rubin은 Blackwell 대비 약 10배
  • 토큰 생성 비용: Rubin은 Blackwell 대비 약 10분의 1

정리하면 엔비디아는 칩→인프라→모델→애플리케이션에 이르는 AI 풀스택(Full Stack)을 구축하고 있으며, 임무는 “전 세계가 놀라운 애플리케이션을 만들 수 있도록 이 전체 스택을 제공하는 것”이라고 마무리합니다.


13) 내 비즈니스에 적용하는 실전 체크포인트

이번 키노트에서 실무자가 가져갈 인사이트는 “기술 트렌드”가 아니라, 다음 1~3년의 아키텍처 의사결정 기준입니다.

1) AI 도입의 기본 단위는 ‘모델’이 아니라 ‘에이전트(Agent)’로 이동

  • 단일 챗봇 도입보다, 업무를 쪼개서 실행하는 에이전틱 시스템이 UI가 됩니다.
  • 내부 데이터/보안 요구가 있으면 로컬(온프렘/프라이빗) 모델과 프론티어 모델을 라우팅하는 구조가 필수입니다.

2) 멀티모델 라우팅은 “비용”과 “품질”을 동시에 잡는 설계

  • 모든 요청을 비싼 최전선 모델에 보내지 않고, 의도 기반으로 최적 모델을 선택하는 것이 토큰 비용을 지배합니다.
  • “커스터마이징 AI”와 “최신 AI”를 동시에 가져가려면, 라우터/정책/관찰가능성(로그·평가)이 필요합니다.

3) Physical AI를 하려면 시뮬레이션·합성 데이터가 ‘필수 인프라’

  • 자율주행·로보틱스·제조 최적화는 현실 데이터만으로는 부족합니다.
  • 디지털 트윈(Omniverse) + 월드 모델(Cosmos) + 폐쇄 루프 시뮬레이션이 경쟁력의 핵심이 됩니다.

4) AI 인프라는 이제 “수냉 + 네트워크 + 메모리”가 함께 설계되어야 한다

  • 100% 수냉식, AI 전용 이더넷(Spectrum‑X), BlueField‑4 기반 랙 내 컨텍스트 스토어 같은 구조는
    단순 서버 구매가 아니라 데이터센터 설계/운영 모델 자체를 바꿉니다.

5) 보안은 ‘옵션’이 아니라 ‘요금표’에 직접 연결되는 기본값

  • 기밀 컴퓨팅, 멀티테넌시 분리, 버스 암호화 같은 설계는 엔터프라이즈가 AI를 “외부 유출 걱정 없이” 쓰게 만드는 전제 조건입니다.

이번 젠슨 황의 CES 2026 엔비디아 키노트를 보면서 구글, AMD 등의 도전이 GPU 자체로는 계속되겠지만 한번 시작된 엔비디아의 아성을 위협하기에는 어렵겠다는 생각입니다. 한 마디로 이 동네의 최고 강자는 자신들이다라는 것을 다시 한번 선언하듯 자신들의 키노트 이외에도 다른 기업들의 여러 컨퍼런스에도 등장하면서 생태계를 공고히 한 모습이었습니다. 이에 올해 CES 2026의 주인공 기업 하나를 꼽는다면 저는 엔비디아를 선택할 것 같습니다.

AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .