CES 2026 관전 포인트를 한 문장으로 요약하면, “AI가 더 이상 ‘기능’이 아니라 제품·서비스·산업 운영 방식 자체를 재설계하는 중심축으로 올라왔다”는 흐름입니다. CTA(Consumer Technology Association) 역시 이번 CES 2026을 AI, Robotics만이 아니라 Digital Health, Energy, Mobility, Enterprise, Quantum까지 함께 묶어 큰 그림을 제시했습니다.
그리고 전체적인 트렌드를 감 잡는 데는, 의외로 CES Innovation Awards 수상작 카테고리 분포가 직관적인 힌트가 됩니다. 전시는 방대하지만 “어디에 무게가 실렸는지”는 카테고리 숫자에서 먼저 보이기 때문입니다.
다만 CES는 워낙 전시가 크고 방대해서, 관심사에 따라 서로 완전히 다른 CES를 보게 됩니다. 저는 CES를 일종의 “코끼리” 같은 행사라고 생각합니다. 각자가 만지는 부위가 다르면 결론도 달라지니까요. 아래 관전 포인트는 지극히 개인적인 관점에서 정리한 것이며, 여러분이 다르게 보셨다면 그 또한 정답입니다.
CTA가 짚은 CES 2026의 확장 축: AI·로봇을 넘어 ‘산업 전반’으로
CTA가 CES 2026의 핵심 축으로 꼽은 영역은 다음과 같습니다.
AI
Robotics
Digital Health
Energy
Mobility
Enterprise
Quantum
이 구성 자체가 시사하는 바는 명확합니다. CES가 ‘소비자 전자 전시’라는 프레임을 유지하면서도, 실질적으로는 산업·인프라·엔터프라이즈 의제를 점점 더 전면에 세우고 있다는 신호로 볼 수 있습니다.
CES Innovation Awards 카테고리로 보는 CES 2026의 무게 중심
카테고리별 수상한 기업이 많았던 주요한 카테고리 그리고 관심이 가는 수상작 카테고리(제공된 집계 기준)는 아래와 같습니다.
이 숫자 분포만 봐도 CES 2026의 큰 그림이 어느 정도 드러납니다. AI가 가장 큰 축으로 올라선 상태에서, 원래부터 전통적인 많은 수상작들이 분포하였던 디지털 헬스·스마트홈 이외에도 모빌리티·에너지 전환이 강하게 동행하고, 로보틱스는 “데모”를 넘어 실사용 로드맵이 논의되는 단계로 확장되었다는 것을 볼 수 있었답니다.
CES 2026 관전 포인트 10가지 (개인 관점)
아래 1~8은 “관전 포인트”로, 9~10은 관전평이라기보다 CES를 통해 논의되거나 확인된 “현실적인 관점”으로 정리했습니다.
1) 생성형 AI → 에이전트 AI 전환: “말”보다 “일”을 하게 만드는가
CES 2026을 통해 확인한 올해 AI 트렌드는 AI 에이전트, 디지털 트윈, 온디바이스 AI입니다. 이는 작년까지는 대화형 생성형 AI가 중심이었다면 이를 넘어, 이제 무게중심이 “업무/생활 실행”으로 이동하고 있다는 것을 보여주었다는 점입니다.
전시 관점에서 핵심 체크포인트는 하나입니다. “앱/기기별 AI”가 아니라, 기기와 서비스를 가로지르는 개인 에이전트(디지털 트윈)가 얼마나 자연스럽게 오케스트레이션하는가입니다.
예를 들어 레노버는 Qira(개인 AI 슈퍼 에이전트/디지털 트윈) 콘셉트처럼, 개인의 여러 기기와 데이터를 묶어 실행까지 이어지는 구조를 전면에 내세웠습니다. 많은 가전회사들도 이러한 테마의 전시를 같이 진행하였는데요, 삼성전자에서 선보인 냉장고 데모에서 볼 수 있듯이 소비자가 말로하면 가전이 직접 실행하는 것이 아주 자연스러워졌다는 대목이었습니다.
2) 피지컬 AI/로보틱스: “데모용”을 넘어 “현장 투입” 로드맵이 있나
휴머노이드/로봇은 CES 2026에서 메인 어트랙션 급으로 올라왔고, 단순 시연을 넘어 생산·공급망·현장 투입 시점을 함께 제시하는 사례가 강하게 부각되었습니다. 이 대목의 압권은 바로 Boston Dynamics의 Atlas 공개와 DeepMind 협업 발표 같은 흐름은, 로보틱스가 “멋진 데모”에서 “현장 투입 가능한 산업”으로 넘어가는 분위기를 보여주었다는 부분이었습니다.
가정용에서도 LG 전자가 CLOiD를 ‘제로 레이버 홈’ 비전의 상징으로 전면 배치하면서, 로봇을 단품이 아니라 집안 워크플로를 움직이는 에이전트로 포지셔닝한 점이 인상적입니다. 물론 휴머노이드 로봇의 50% 이상이 중국 기업이었고, 유니트리를 포함하여 상당한 중국 기업의 로봇 제조 역량은 이번 전시에서 빼놓을 수 없는 위협의 요소로도 읽혀졌습니다.
3) 산업 AI·디지털 트윈: ‘소프트웨어 정의 공장/현장’이 주류로
Siemens는 CES 키노트/전시에서 Digital Twin Composer를 핵심 런치로 내세우며, 디지털 트윈과 실시간 실세계 데이터 연결(Omniverse 라이브러리 기반 시뮬레이션 포함)을 전면에 둡니다. “산업 AI 혁명”을 말이 아닌 제품/플랫폼으로 끌고 온 셈입니다.
이 흐름은 공장에만 머물지 않고 에너지·인프라로 확장됩니다. Commonwealth Fusion Systems·NVIDIA·Siemens가 디지털 트윈으로 핵융합 설비를 시뮬레이션하는 협력을 전한것처럼, 산업 AI가 “현실 세계 시스템”으로 깊숙이 들어간다는 맥락을 보여주었습니다.
4) 자율주행: ‘인지’에서 ‘추론(reasoning)’으로, 그리고 ‘오픈 생태계’로
NVIDIA는 CES에서 Alpamayo(오픈 모델·시뮬·데이터셋)를 전면에 두며 자율주행을 추론 기반(설명가능성 포함) 경쟁으로 끌어올렸습니다. 자율주행의 중심이 “보는 능력(인지)”에서 “판단의 논리(추론)”로 이동하는 흐름이 더 선명해졌다는 의미입니다.
또한 Mercedes‑Benz CLA에 AI-defined driving을 시연/적용하는 레퍼런스를 제시하면서, 완성차 OEM과 플랫폼 기업의 결합 구도도 한층 명확해졌습니다. 지금까지 테슬라가 폐쇄형 생태계를 지향하였다면 이번 엔비디아의 Alphamayo의 경우 iOS와 안드로이드에 대비될 정도로 자율주행에 있어 오픈 생태계의 등장을 알리는 신호탄이자 실제 이런 플랫폼이 적용된 자동차가 1Q에 출시할 정도로 현실적인 내용이 되었답니다.
5) 스마트홈/가전의 다음 단계: ‘Ambient AI(공간지능)’와 ‘AI 동반자’ 경쟁
삼성은 LVCC 대형 부스 대신 Wynn의 전용 공간에서 ‘Your Companion to AI Living’ 테마로 AI 동반자 경험(엔터테인먼트·홈·케어)을 큐레이션하는 전시 전략을 택했습니다. “제품 나열”보다 “경험 연출”에 방점을 찍은 방식입니다.
LG 역시 ‘Affectionate Intelligence(공감지능)’를 전면에 두고, CLOiD를 포함한 제로 레이버 홈을 동기화된 생태계로 보여주는 방식이었습니다. 결국 관전 포인트는 “AI가 기기마다 들어갔는가”가 아니라, 집이라는 공간에서 AI가 얼마나 자연스럽게 작동하는가(Ambient AI)로 이동하지 않았나 생각됩니다.
AI 기술이 상당 수준으로 올라오면서 스마트홈 역시 다시 활기를 되찾는 분위기를 엿볼 수 있었습니다. 기존 스마트홈의 부족한 2%를 AI가 채워주었다고 할까요? 앞으로 스마트홈 분야 또한 고객들에게 더 많이 침투되기를 기대해봅니다.
6) 스마트글라스/웨어러블 재부상: “AI의 새 폼팩터”가 되나
CES 2026에서는 AI 글라스가 단순 콘셉트를 넘어 제품·가격·모델(번역/요약/기록 등)로 구체화되는 전시가 늘었습니다. 예로 XGIMI MemoMind, Solos AirGo V2 같은 제품이 거론되었습니다.
또한 CTA가 Accessibility Stage에서 스마트글라스·로보틱스·음성 홈 어시스턴트 등을 다루도록 구성한 점 역시, 글라스가 “실사용 시장”으로 들어간다는 신호로 해석할 여지도 있는 것 같습니다.
7) 중국 기업 존재감: ‘숫자’보다 ‘프라임 스팟’과 ‘데모 밀도’가 관전 포인트
등록 기준 집계에서 중국은 942개 참가사, 한국은 853개로 소개됩니다(미국 다음 규모). 다만 CES 현장에서는 단순 참가 숫자만큼이나 전시장 내 위치(프라임 스팟)와 데모 밀도가 체감 존재감을 좌우합니다.
이를 대변하듯, 삼성의 LVCC 센트럴홀 이탈로 생긴 자리를 TCL이 빠르게 차지해 “AiMe Land”를 구성한 점은 전시장 권력 지형 변화를 보여주는 사례로 언급됩니다. 동시에 “로봇이 메인 어트랙션이 되었고 중국 쪽 혁신이 강했다”는 현장 관찰도 이어지며, 중국 기업의 존재감은 점점 더 “현장에서 체감되는 방식”으로 나타나는 흐름입니다.
원래부터 중국 기업들은 CES 현장을 B2B 영업의 장으로 잘 활용하고 있었습니다. 특히 South관처럼 중국색 일색이었던 전시 공간도 많았답니다. 그러나 최근 로봇뿐만 아니라 가전, 특히 로봇청소기나 드론과 같은 이미 글로벌 1등인 회사들이 주류로 등장하면서 중국 기업의 존재감은 이미 우리나라를 위협하고, 넘어서는 느낌을 지울 수가 없는 상황이 된 것 같습니다.
8) 산업현장/중장비까지 AI 확장: ‘물리 세계’ 자동화가 본류로
Caterpillar가 NVIDIA와의 확장 파트너십 및 Cat AI Assistant(음성 기반 인터페이스) 등을 발표하는 흐름은, CES가 더 이상 ‘소비자 기기’만의 무대가 아니라 산업·건설·중장비 자동화의 쇼케이스로 기능하고 있음을 보여줍니다.
즉, CES의 AI는 이제 “개인 생산성”에서 끝나지 않고, 물리 세계의 운영 자동화로 본류가 이동하고 있습니다. 이 또한 CES 2025까지도 계속된 흐름이었지만 이제 AI 기술의 성숙도가 산업현장의 변화를 더욱더 빠르게 이끌어 가겠다는 느낌이 들었습니다. 현장 작업자들도 이제는 일상에서 ChatGPT 등을 활용하면서 각자만의 AI에 대한 이미지를 가지고 있으니까요.
9) 엔터프라이즈 AI 도입의 병목: CFO vs CIO 갈등이 ‘공식 의제’가 됨
9번은 관전평이라기보다, CES를 통해 확인된 현실적인 관점 중 하나인데요. 생성형 AI가 본격화되면서 우리 기업에도 다양한 AX 활동이 진행되고 있는 것은 다들 공감하실 것입니다. 이러한 엔터프라이즈 AI 도입의 병목이 ‘기술’만이 아니라 ‘의사결정 구조’라는 점을 확인할 수 있었습니다.
CES 공식 키노트 세션에서도 McKinsey–General Catalyst 대담이 편성됐고, 실제로 “CEO가 CFO와 CIO 사이에서 무엇을 듣느냐” 같은 갈등 프레이밍이 논의 되었습니다. 이는 AI 투자가 경영의 아젠다가 되었으며, 단순한 IT 지출이 아니라, 비용·리스크·거버넌스·조직 운영을 동시에 건드리는 의제가 되었다는 뜻입니다.
이는 글로벌뿐만 아니라 우리나라에서도 이러한 현상을 다양한 곳에서 목격되고 있는 상황입니다. 원래 IT는 지원부서의 하나로 CEO 입장에서는 큰 이슈만 일으키지 않으면 된다는 인식을 가지고 있었지만 경영의 중심으로 AI가 들어오면서 이를 두고 디지털을 다루는 부서가 그 중심을 가져갈 것인지, 아니면 전통적인 경영자 측근이라 할 수 있는 HR, 전략, 재무 등에서 중심을 가져갈 것인지, 아니면 수익을 벌어들이니 각 회사의 본원적 경쟁력이라 할 수 있는 사업부서에서 그 중심을 가져갈 것인지가 논의를 넘어 조직 개편에 이르는 등 그 헤게모니 싸움이 본격화되고 있다는 부분입니다.
10) ‘AI 워싱’과 프라이버시 역풍: AI는 어디까지 ‘쓸모’가 있나
또 하나의 관점은 AI 워싱(AI Washing)과 프라이버시 역풍입니다. 소비자/프라이버시 단체가 ‘Worst in Show’로 AI 탑재 가전/도어벨/AI 컴패니언 등을 비판하는 흐름이 나오며, AI의 과잉 탑재와 데이터 수집이 리스크로 부상했습니다.
주요 미디어에서도 “AI가 뭐든지 붙는” 과열을 풍자하는 기사들이 나왔고, 이는 기업 입장에서 차별화(실용성)와 신뢰(프라이버시)를 동시에 증명해야 하는 압력이 될 수도 있을 것 같습니다. 그러나 분명한 것은 AI를 빼고 앞으로 나아갈 수는 없다는 점입니다.
정리: CES 2026의 큰 그림은 “에이전트·현장·신뢰”로 수렴한다
CES 2026을 관통하는 흐름을 제 방식으로 묶으면 다음 세 문장으로 정리됩니다.
AI는 “대화”에서 “실행”으로 옮겨가며, 에이전트/디지털 트윈등 사용자 경험이 중심이 되고, 확장된다.
CES는 늘 “다음 세대”를 미리 보여주는 무대였지만, CES 2026 AMD가 강조한 메시지는 유독 선명했습니다. AI는 더 이상 개념이나 실험실 데모가 아니라, 실제 산업과 일상에서 움직이며 작동하는 ‘움직이는 지능(intelligence in motion)’이 되었고, 그 변화의 속도는 이제 “가속”이라는 말로도 부족하다는 진단이었습니다.
기조연설에서 AMD CEO 리사 수(Lisa Su) 박사가 던진 핵심은 단순히 “AI가 중요하다”가 아니었습니다. AMD는 AI를 ‘누구나’ ‘어디서나’ 쓰게 만드는 컴퓨팅 기반을 만들겠다고 선언했고, 그 비전을 한 문장으로 압축한 표현이 바로:
“AI Everywhere for Everyone”
즉, 클라우드·PC·엣지(Edge)까지 모든 컴퓨팅 플랫폼에 AI를 통합해 AI를 보편화하겠다는 전략입니다. 그리고 이 비전은 말이 아니라 구체적인 하드웨어 로드맵(Helios/MI455, Ryzen AI 400)과 개방형 소프트웨어(ROCm), 그리고 산업 리더들과의 협력 사례(OpenAI, Luma AI, Blue Origin 등)로 연결되어 제시됐습니다.
왜 지금 ‘요타 스케일(Yotta Scale)’인가
CES 2026 AMD가 가장 강하게 밀어붙인 프레임은 “요타 스케일 컴퓨팅”입니다. 요지는 단순합니다. AI 사용자가 폭발적으로 늘면서, AI를 굴리는 ‘컴퓨팅 수요’가 기존 인프라의 상상을 벗어난 규모로 튀어 올랐다는 것.
ChatGPT 이후 AI 사용자는 수백만 → 10억+으로 확대됐고
AI가 휴대폰·인터넷처럼 필수 요소가 되면 활성 사용자는 50억+까지 갈 수 있으며
컴퓨팅 수요는 2022년 약 1 제타플롭(Zettaflop) → 2025년 100 제타플롭+로 커질 수 있다고 전망됩니다.
그리고 이 혁신 속도를 감당하려면 향후 5년 동안 10 요타플롭(Yotta Flops)+가 필요하다는 주장까지 연결됩니다.
여기서 “요타”는 숫자 감각을 깨뜨립니다. 1 요타플롭 = 1 뒤에 24개의 0이 붙는 연산 규모이고, 10 요타플롭은 2022년 대비 10,000배 수준이라는 설명이 이어집니다.
그래서 AMD의 결론은 이렇게 정리됩니다. AI를 어디에나 구현하려면 클라우드(전 세계 지능 공급) + PC(개인화·생산성) + 엣지(실시간 결정), 이 3축이 동시에 AI-ready가 되어야 하고, 이를 위해서는 GPU/CPU/NPU/맞춤형 가속기까지 전 스펙트럼의 컴퓨팅 엔진을 모두 갖춘 기업이 필요하다는 것. AMD는 바로 그 “풀 스택 컴퓨팅 엔진”을 자신들의 차별점으로 제시합니다.
클라우드 AI의 핵심: Helios 랙 스케일 + Instinct MI455
요타 스케일의 “본진”은 결국 클라우드입니다. 가장 큰 모델이 훈련되고, 수십억 사용자에게 지능이 전달되는 곳이기 때문입니다. AMD는 현시점에서의 포지셔닝도 함께 강조합니다.
주요 클라우드 제공업체들이 AMD EPYC CPU를 사용하고 있으며
상위 10개 AI 기업 중 8개가 Instinct 가속기로 모델을 구동하고 있다는 점을 전면에 둡니다.
그리고 이번 CES 2026에서 가장 큰 하드웨어 발표로 연결된 것이 바로 차세대 랙 스케일 플랫폼 ‘Helios’와 그 중심인 Instinct MI455(및 MI455X)입니다.
Helios가 노리는 것: 랙 단위를 ‘하나의 컴퓨터’로 만들기
AMD가 말하는 요타 스케일 AI 인프라의 조건은 3가지로 읽힙니다.
세대 교체에 맞춰 진화 가능한 개방형·모듈식 랙 설계
수천 개 가속기를 하나의 통합 시스템으로 묶는 고속 네트워킹
배포가 쉬운 턴키(turnkey) 솔루션
Helios는 이 조건을 “랙 레벨”에서 구현한 플랫폼으로 소개됩니다.
MI455X 핵심 스펙(공개 내용 기준)
Helios의 시작점은 MI455X GPU입니다. 발표 내용의 숫자들은 매우 공격적입니다.
2nm 및 3nm 공정 기반
3,200억(320B) 트랜지스터 (MI355 대비 70% 증가)
12개의 2nm/3nm 컴퓨팅·I/O 칩렛
432GB HBM4
차세대 3D 칩 스태킹(3D chip stacking) 기반 연결
즉, “칩렛 + HBM4 + 3D 패키징”을 총동원해 대형 모델/대형 배치/대규모 병렬에 유리한 구조를 만들었다는 메시지입니다.
Venice EPYC(젠6) + Pensando 네트워킹까지 ‘트레이 단위’로 통합
Helios는 GPU만 던져놓는 설계가 아니라, EPYC CPU와 네트워킹 칩까지 컴퓨팅 트레이에 묶는 형태로 설명됩니다.
Venice EPYC CPU: 2nm 공정, 최대 256개 Zen 6 코어
이전 세대 대비 메모리 및 GPU 대역폭 2배로 랙 스케일에서 GPU에 데이터 공급을 극대화했다는 포지셔닝
네트워킹: 800GbE급 Pensando(Volcano, Selina 등 언급) 기반 초고대역폭·초저지연
“랙 안의 72개 GPU가 단일 컴퓨팅 장치처럼”
Helios 구조 설명에서 인상적인 포인트는 연결 방식입니다.
랙 내 72개 GPU가
이더넷 터널링 기반의 고속 초가속기 링크 프로토콜로 연결되어
단일 컴퓨팅 장치처럼 동작할 수 있다는 서술이 등장합니다.
또한 Helios 랙 여러 개(수천 개 규모)는 산업 표준 초이더넷 NIC와 Pensando 프로그래밍 가능 DPU로 연결되며, DPU가 GPU 작업 일부를 오프로드해 성능을 더 끌어올린다고 설명됩니다.
Helios 물리 설계: OCP 개방형 랙 와이드 표준 + Meta 협력
Helios는 Meta와 협력해 개발된 OCP(Open Compute Project) 개방형 랙 와이드 표준을 기반으로 하는 더블 와이드 설계로 소개되며, 랙 무게가 거의 7,000파운드에 달한다고 언급됩니다. 즉, 데이터센터 운영 관점에서 서비스 용이성·제조 용이성·신뢰성을 최적화하려는 방향이 강조됩니다.
성능 지표(발표 기준)
Helios 랙 한 대 기준으로 공개된 지표는 다음과 같이 정리됩니다.
18,000개+ CDNA5 GPU 컴퓨팅 유닛
4,600개+ Zen 6 CPU 코어
최대 2.9 엑사플롭스(Exaflops) 성능
랙당 31TB HBM4
260TB/s 스케일 대역폭
그리고 “성능 도약”을 이렇게 요약합니다.
MI355가 이전 세대 대비 최대 3배 추론 처리량을 제공했다면
MI455는 더 나아가 광범위 모델/워크로드에서 최대 10배 성능을 제시한다는 것.
Helios는 “올해 말 출시 예정”으로 언급되며, AI 성능의 새 기준을 세울 것으로 기대된다는 톤으로 마무리됩니다.
OpenAI 협력: 에이전트 컴퓨팅이 요구하는 인프라의 방향
키노트의 전개가 흥미로웠던 이유는, AMD가 하드웨어 스펙만 늘어놓지 않고 “왜 이 정도가 필요해졌는가”를 OpenAI와의 대화로 풀어냈다는 점입니다. 무대에는 OpenAI 공동 설립자이자 사장인 그렉 브록만(Greg Brockman)이 등장합니다.
그가 던진 메시지를 한 줄로 요약하면 이렇습니다. AI는 ‘질문-답변’에서 끝나지 않고, 앞으로 ‘며칠 동안 일하는 에이전트 워크플로우’로 넘어간다.
“모델 능력의 기하급수적 발전 = 유용성의 기하급수적 확대”
브록만은 ChatGPT가 오랜 준비 끝에 등장한 결과였고, 이제 AI는 단순 텍스트 상자를 넘어 헬스케어, 신생아 관리처럼 개인적이고 중요한 영역까지 들어왔다고 말합니다. 엔터프라이즈에서는 Codex 같은 모델이 소프트웨어 엔지니어링을 바꾸고 있으며, “올해는 엔터프라이즈 에이전트가 본격화될 것”이라는 전망도 이어집니다.
에이전트 시대의 컴퓨팅: 저지연과 초고처리량, 두 체제가 공존한다
OpenAI 관점에서 미래 컴퓨팅 환경은 “인간의 주의(attention)와 의도(intent)가 가장 귀한 자원”이 되는 세계이며, 그래서 컴퓨팅은 두 가지 모드가 필요하다고 정리합니다.
사람이 관여할 때는 초저지연(low latency) 상호작용
백그라운드에서는 지속 실행되는 초고처리량(high throughput) 에이전트 컴퓨팅
즉, “빠른 반응성”과 “거대한 처리량”이 동시에 필요해진다는 뜻이고, 이 요구가 곧 MI455/Helios 같은 랙 스케일 전략으로 연결됩니다.
컴퓨팅 제약과 성장의 상관: “컴퓨팅이 곧 경쟁력”
브록만은 OpenAI가 지난 몇 년 동안 컴퓨팅 사용량을 매년 3배씩 늘렸고 매출도 3배 증가했다고 언급하며, 새로운 모델/기능이 나올 때마다 내부적으로도 컴퓨팅 확보 경쟁이 있을 정도로 compute constrained 상태라는 취지의 설명을 덧붙입니다. 나아가 향후 GDP 성장까지 “어디에 얼마나 컴퓨팅이 있느냐”가 좌우할 수 있다는 관점도 제시됩니다.
AMD와 OpenAI의 “공동 설계”
핵심은 이 문장입니다. MI455와 Helios가 OpenAI 엔지니어링 팀 피드백을 통해 긴밀히 협력하며 개발되었다는 점. 즉, 단순 고객-공급자 관계가 아니라, “에이전트 워크로드가 요구하는 리소스 균형”을 함께 맞춰가는 그림으로 제시됩니다.
MI400 포트폴리오와 ROCm: “개방형”이 성능이 되는 시대
AMD는 Helios/MI455를 “정점”으로 두고, 그 아래를 MI400 시리즈 포트폴리오로 촘촘히 채웁니다. 방향성은 명확합니다. 클라우드 하이퍼스케일 훈련부터 엔터프라이즈 배포, 주권 AI, 슈퍼컴퓨팅까지 “환경이 다르면 폼팩터도 달라야 한다”는 것.
Helios: 하이퍼스케일 훈련 + 랙 스케일 분산 추론
Instinct MI440X GPU: 엔터프라이즈 배포에 초점. 기존 데이터센터 인프라에서 쓰기 쉬운 컴팩트 8GPU 서버 구성에서 리더십 훈련/추론 성능
MI430X 플랫폼: 주권 AI 및 슈퍼컴퓨팅처럼 “정확도”가 중요한 환경을 겨냥. 과학 데이터 타입과 AI 데이터 타입을 함께 다루는 하이브리드 컴퓨팅 강조
그리고 이 포트폴리오를 가능하게 하는 기술 기반으로 칩렛(chiplet)이 반복해서 등장합니다. “워크로드에 맞는 컴퓨팅”을 만들 수 있다는 논리입니다.
ROCm: AI 시대에 ‘소프트웨어 스택’은 선택이 아니라 생존
AMD가 개방형 생태계를 강하게 주장하는 지점은 ROCm입니다. 발표의 톤은 단호합니다.
AI의 미래는 개방형 인프라 + 공유 기술 표준을 중심으로 업계가 협력할 때 가속된다.
AMD는 하드웨어·소프트웨어·솔루션 생태계 전반에서 개방성을 제공하는 유일한 회사라는 포지셔닝을 취한다.
ROCm은 “업계에서 가장 성능이 뛰어난 AI용 개방형 소프트웨어 스택”이라고 정의된다.
PyTorch, vLLM, SGLang, Hugging Face 등 상위 오픈소스 프로젝트에서 기본 지원되며, 모델 허브/프레임워크/도구를 출시 당일부터 지원한다고 강조한다.
정리하면, AMD는 “하드웨어만 좋은 회사”가 아니라, 개발자가 ‘바로 쓰게 만드는’ 소프트웨어 스택을 AI 승부처로 끌어올립니다.
Luma AI: 3D·비디오 생성이 ‘산업’이 되는 순간
AI가 텍스트를 넘어서 산업을 바꾸는 순간을 보여주는 파트너로, Luma AI가 무대에 오릅니다. CEO이자 공동 설립자인 아밋 자인(Amit Jain)은 Luma의 미션을 “세상을 이해하고 시뮬레이션하며 개선하는 멀티모달 일반 지능”으로 설명합니다.
Ray 3: “추론 비디오 모델”이라는 프레임
발표에서 Ray 3는 다음과 같이 소개됩니다.
세계 최초의 추론 비디오 모델
단순 생성이 아니라, 픽셀과 지연 시간을 먼저 고려하고 “무엇을 생성할지” 결정할 수 있다는 설명
세계 최초로 4K 및 HDR 생성 지원
광고·미디어·엔터테인먼트 기업과 개인 창작자까지 폭넓게 사용
2025년 말에는 90분 장편 영화 제작에 사용하는 등 대규모 배포가 진행 중
여기서 중요한 통찰은 “제어(control)”입니다. 고객들은 정밀한 제어를 원했고, Luma는 제어가 더 나은 프롬프트가 아니라 더 높은 지능에서 나온다는 결론에 도달했다고 말합니다.
Ray 3 Modify: ‘세계 편집(World Editing)’의 시대
Ray 3 위에 구축된 Ray 3 Modify는 실사 또는 AI 푸티지를 가져와 원하는 만큼 바꾸는 세계 편집 기능을 제공하며, 이로 인해 인간의 동작·타이밍·방향 자체가 프롬프트가 되는 하이브리드 인간-AI 프로덕션이 가능해진다는 서사가 이어집니다.
2026년은 “에이전트의 해”
Luma는 2026년을 에이전트의 해로 선언하며, “작업의 일부”가 아니라 엔드투엔드 작업 전체를 수행하는 에이전트로 진화할 것이라고 봅니다. 멀티모달 에이전트 데모에서는 스크립트를 가져와 시각화하고, 장편 비디오를 분석하며, 캐릭터·장면·스토리의 일관성을 유지한 채 필요한 순간에만 편집하는 방향이 제시됩니다.
AMD 선택 이유: 추론 경제성과 TCO
Luma가 AMD를 선택한 이유는 명확히 “경제성”으로 연결됩니다.
멀티모달 워크로드는 텍스트 모델보다 수백~수천 배 더 많은 토큰을 소비할 수 있다.
예시로, 10초 비디오가 100,000 토큰이 될 수 있는 반면 일반 LLM 응답은 200~300 토큰 수준이라는 대비가 제시됩니다.
그래서 TCO(총소유비용)와 추론 경제성이 비즈니스에 절대적으로 중요하며, Luma는 AMD와의 협력을 통해 스택에서 최고의 TCO를 달성했다고 말합니다.
또한 2026년에 AMD 파트너십을 10배 확장할 예정이며, MI455X의 랙 스케일 솔루션과 메모리 인프라가 “세계 시뮬레이션 모델” 구축에 필수라고 연결합니다.
AI PC 시대: Ryzen AI 400·Ryzen AI Max·Halo 그리고 로컬 에이전트
AMD는 “클라우드만이 AI가 아니다”라는 관점을 AI PC로 확장합니다. AI PC는 단순한 도구가 아니라 사용자의 작업 방식을 학습하고, 습관에 적응하며, 오프라인에서도 빠르게 작업을 수행하는 능동적 파트너가 되어가고 있다는 설명입니다.
MI500 로드맵까지: 성능 향상은 계속된다
AMD는 차세대 MI500 시리즈도 개발 중이라고 밝히며,
CDNA6 아키텍처
2nm 공정
HBM4e
2027년 출시를 통해 지난 4년간 AI 성능 1,000배 증가 달성을 목표로 한다는 로드맵이 제시됩니다.
Ryzen AI 400 시리즈: “60 TOPS”로 확장되는 AI PC 라인업
이번 CES에서 AI PC 쪽 핵심 발표는 Ryzen AI 400 시리즈 프로세서입니다.
Zen 5 CPU (최대 12 고성능 코어)
RDNA 3.5 GPU (16 코어)
XDNA2 NPU (최대 60 TOPS)
더 빠른 메모리 속도 지원
첫 제품은 “이달 말부터 출하”, 연중 120개+ AI PC에 탑재 예정이라는 로드맵
AMD는 자신들이 AI PC 변곡점을 “일찍” 주도했다는 히스토리도 함께 강조합니다(온칩 AI 엔진 통합, Copilot+ x86 PC 등). 또한 Ryzen AI Max로 2000억(200B) 매개변수 모델을 로컬에서 실행할 수 있는 단일 칩 x86 플랫폼을 만들었다는 주장도 포함됩니다.
Liquid AI: 로컬 AI 에이전트를 위한 ‘가벼운 모델’의 필요
AI PC가 진짜 일하려면 하드웨어만큼 중요한 것이 “장치에서 돌아갈 만큼 효율적인 모델”입니다. 이 맥락에서 Liquid AI가 소개됩니다. MIT에서 분사한 파운데이션 모델 회사로, 트랜스포머가 아닌 Liquid Foundation Models(LFM)를 구축해 품질 저하 없이 계산 비용을 줄이겠다는 목표를 제시합니다. 가치 제안은 3가지로 정리됩니다.
개인정보 보호(Privacy)
속도(Speed)
연속성(Continuity) (온라인/오프라인을 넘나드는 일관된 경험)
LFM 2 / LFM 2.5
LFM 2는 “타이니 클래스(tiny class)”에서 가장 진보된 모델로 소개되며 12억(1.2B) 파라미터 규모
명령 수행(instruction-following) 능력이 동급 및 더 큰 모델 사이에서도 매우 우수하다고 설명
LFM 2.5 인스턴스는 특정 모델 대비 더 나은 명령 수행을 장치에서 제공한다고 언급
총 5가지 모델 인스턴스(챗/인스트럭트/일본어 강화/비전-언어/경량 오디오-언어)가 공개되며 AMD Ryzen AI의 CPU/GPU/NPU에 최적화되었다는 점을 강조
LFM 3: 멀티모달 + 100ms 미만 지연
텍스트·비전·오디오 입력을 처리하고, 10개 언어로 오디오 및 텍스트 출력을 제공하도록 기본 멀티모달로 설계
시청각 데이터에 대해 100ms 미만 지연 시간을 제시
그리고 “능동적(proactive) 에이전트” 데모가 이어집니다. 사용자가 스프레드시트 작업 중일 때, 에이전트가 다가오는 영업 회의를 감지하고 대신 참석 제안을 하며, 단순 전사를 넘어 이메일까지 분석해 답장 초안을 만드는 흐름을 오프라인 로컬에서 수행한다는 시나리오입니다. Liquid AI는 2026년 Zoom과 협력해 이를 Zoom 플랫폼에 도입할 예정이라고 언급합니다.
Ryzen AI Max: 크리에이터·게이머·개발자용 “통합 메모리” 승부수
Ryzen AI Max는 다음 스펙으로 소개됩니다.
Zen 5 CPU 16코어
RDNA 3.5 GPU 40 컴퓨팅 유닛
XDNA2 NPU 최대 50 TOPS
CPU/GPU/NPU가 공유하는 최대 128GB 통합 메모리 아키텍처
발표 내용상, 프리미엄 노트북에서 최신 MacBook Pro 대비 AI 및 콘텐츠 제작 앱에서 더 빠르고, 소형 워크스테이션에서는 NVIDIA DGX Spark 대비 더 저렴한 가격으로 유사 성능을 제공하며, GPT-OSS 모델 실행 시 달러당 최대 1.7배 더 많은 토큰을 생성한다는 설명이 포함됩니다. 또한 Windows와 Linux를 모두 기본 지원해 개발 편의성을 강조합니다.
Ryzen AI Halo: “손에 맞는” 로컬 AI 개발 플랫폼
AMD는 로컬 AI 배포를 위한 레퍼런스 플랫폼 Ryzen AI Halo도 발표합니다.
“세계에서 가장 작은 AI 개발 시스템”
최대 2000억 파라미터 모델을 로컬 실행
최상급 Ryzen AI Max + 128GB 통합 메모리
최신 ROCm 스택과 오픈소스 개발 도구 사전 로드
올해 2분기 출시 예정
World Labs와 공간 지능: 3D 세계를 “몇 분”으로 당기는 기술
AI의 다음 전선으로 “공간 지능(spatial intelligence)”이 제시됩니다. 무대에는 World Labs 공동 설립자이자 CEO인 페이페이 리(Fei-Fei Li)가 등장하고, 언어 지능의 발전은 컸지만 인간에게 더 중요한 것은 지각과 행동을 연결하는 공간 지능이라고 강조합니다.
World Labs는 이 공간 지능을 현실화하기 위해 설립되었고, Marble이라는 모델 데모가 제시됩니다.
Marble: 몇 장(심지어 한 장)의 이미지로 3D/4D 세계 생성
전통적인 3D 구축이 레이저 스캐너나 복잡한 소프트웨어를 요구했다면, World Labs는 GenAI로 데이터에서 3D·4D 구조를 학습하는 모델을 만든다는 접근입니다. 모델에 몇 장의 이미지만 주면:
누락된 디테일을 채우고
물체 뒤를 예측하며
풍부하고 일관된 탐색 가능한 3D 세계를 만든다고 설명합니다.
AMD 오피스 리모델링 데모: MI325X + ROCm
특히 흥미로운 데모는 AMD 실리콘밸리 오피스를 휴대폰 카메라로 촬영한 몇 장의 이미지로 3D 공간을 만들고, 그 공간을 이집트 스타일 등으로 리모델링하면서도 기하학적 일관성을 유지하는 시나리오입니다. 이때 사용된 인프라로 MI325X와 ROCm이 언급됩니다.
World Labs는 AMD와의 파트너십이 최근 시작됐음에도, 실시간 프레임 생성 모델이 MI325X에서 1주 만에 실행되었고, Instinct와 ROCm을 통해 몇 주 만에 성능을 4배+ 개선할 수 있었다고 말합니다.
여기서 결론은 분명합니다. 공간 지능은 3D 구조·움직임·물리학을 이해해야 하므로 메모리, 대규모 병렬 처리, 매우 빠른 추론이 필요하고, MI450 같은 플랫폼은 더 큰 세계 모델 훈련과 실시간 반응성을 가능하게 할 것이라는 전망으로 이어집니다.
헬스케어 혁신: 신약 개발·정밀의학·게놈 데이터의 폭발
키노트의 헬스케어 파트는 “AI의 가치가 결국 생명을 구하는 것으로 측정된다”는 메시지로 전개됩니다. 그리고 세 회사의 사례가 연결됩니다: AppSci, Illumina, AstraZeneca.
AppSci: 생성형 AI + 합성 생물학으로 약을 “설계”하는 시대
AppSci CEO 션 맥클레인(Sean McClain)은 기존 시행착오 중심의 약물 발견과 달리, 생성형 AI와 합성 생물학으로 원하는 생물학적 특성을 가진 후보를 “처음부터 설계”할 수 있다고 말합니다. 주요 목표 질병으로는
남성형 탈모(androgenic alopecia)
자궁내막증(10명 중 1명 여성에게 영향)
이 제시되고, AMD 투자 후 1년 만에 추론을 확장해 단 하루에 100만+ 약물을 스크리닝할 수 있게 되었다는 성과가 소개됩니다. 또한 MI355의 메모리가 생물학을 더 풍부한 맥락에서 다뤄 더 나은 발견 모델을 만드는 데 도움이 될 것이라는 설명이 이어집니다.
Illumina: DNA라는 ‘30억 문자’의 세계, 그리고 데이터 폭발
Illumina CEO 제이콥 테이슨(Jacob Thaysen)은 DNA를 생명의 청사진으로 설명하며, 인간 게놈이 30억 문자로 이루어진 “20만 페이지 책”에 비유될 만큼 정확도가 중요하다고 강조합니다. 또한 Illumina의 시퀀서가 매일 생성하는 데이터가 매우 방대해, AMD와의 관계가 필수적이며, AMD FPGA와 EPYC 프로세서를 활용해 데이터를 통찰로 변환한다고 말합니다.
생성형 AI + 게놈 + 단백질체학의 결합은 생물학 이해를 바꾸고, 신약 발견을 넘어 예방과 조기 치료로 이어져 수명과 건강수명 개선에 기여할 것이라는 전망도 제시됩니다.
AstraZeneca: “AI는 생산성이 아니라 혁신”
AstraZeneca의 분자 AI 책임자 울라 엔크비스트(Ulla Enksvist)는 AI를 혁신의 도구로 정의합니다. 수십 년의 실험 데이터를 학습한 생성형 AI로 수백만 후보를 가상 평가하고, 가장 유망한 것만 실험실로 가져가는 접근입니다. 그 결과:
후보 약물을 50% 더 빠르게 제공
임상 성공률도 높이는 방향으로 진화하고 있다고 설명합니다.
AstraZeneca는 AMD와 협력해 인실리코(in-silico) 흐름을 확장하고, 대규모 데이터 세트 처리와 워크플로우 최적화를 추진한다고 언급됩니다.
헬스케어 파트는 “sick care(사후 치료)”에서 “preventative care(예방)”로, 나아가 재생 생물학/의학(regenerative biology and medicine)으로 가는 방향성으로 정리됩니다.
물리적 AI: 로보틱스와 우주 탐사에서의 ‘결정적 로컬 컴퓨팅’
AI가 현실 세계로 들어오는 순간, 요구사항은 급격히 바뀝니다. 물리적 AI는 “느리면 안 되고, 틀리면 안 되는” 환경이 많습니다. 그래서 발표는 반복해서 로컬에서 빠르고 결정적(deterministic)인 컴퓨팅을 강조합니다.
Generative Bionics: 인간 중심 휴머노이드 로봇 ‘Gen 1’
Generative Bionics CEO 다니엘라 푸치(Daniela Pucci)는 “인공 에이전트가 인간 세계를 이해하려면 인간 같은 몸으로 경험해야 하는가?”라는 질문에서 출발해, iCub/ErgoCub/IronCub 같은 플랫폼을 만들어왔다고 소개합니다.
Gen 1에서 가장 큰 차별점은 촉각(tactile)입니다.
몸 전체에 분산된 촉각 피부(tactile skin)가 압력·접촉·의도를 감지
촉각을 “주요 지능의 원천”으로 끌어올린다는 메시지
공장 협업, 헬스케어 보조 등 사람과의 안전한 상호작용을 겨냥
또한 Gen 1은 2026년 하반기 상업 제조 예정이며, 선도 철강 제조업체를 포함한 산업 파트너와 함께 안전이 중요한 환경에 배치될 것이라고 언급됩니다. 이 과정에서 AMD는 Ryzen AI Embedded, VersaLay iEdge 같은 엣지 플랫폼부터 시뮬레이션/훈련/대규모 개발용 CPU/GPU까지 엔드투엔드 아키텍처를 제공하는 파트너로 설명됩니다.
Blue Origin: 달 영구 거주(Lunar Permanence)와 Versal 2 비행 컴퓨터
Blue Origin의 달 영구 거주 담당 수석 부사장 존 칼루리스(John Kalouris)는 목표를 “달 영구 거주 확립”으로 정의하며, 이를 위해 반복 가능하고 저렴한 운영이 필요하다고 말합니다.
우주는 궁극의 엣지 환경입니다. 비행 컴퓨터는 “차량의 심장”이고, 질량·전력·방사선 등 제약 속에서 신뢰성과 탄력성을 가져야 합니다. AMD 임베디드 아키텍처는 질량과 전력 절감, 방사선 환경 고려 측면에서 장점이 있다는 서사가 이어집니다.
특히 Blue Origin은 AMD와 Versal 2를 비행 컴퓨터 스택에 쓰는 논의를 시작한 지 몇 달 만에 개발 비행 컴퓨터에 통합 가능한 장치를 제공받았고, 이 스택으로 달 착륙 시뮬레이션을 성공적으로 수행해 수개월 일정을 단축했다고 말합니다. 이 컴퓨터는 2028년 초 우주비행사를 달에 착륙시킬 Mark 2 착륙선에 동력을 공급할 예정이라는 언급도 포함됩니다.
또한 AI는 우주비행사에게 코파일럿 역할을 하고, 착륙 지점 식별·위험 탐지 등에서 실시간 엣지 컴퓨팅이 중요하다는 메시지가 이어집니다. 달 뒷면 전파 천문학 시나리오도 연결되며, 통신 지연을 극복하기 위해 엣지 AI가 탐사 최적화를 돕는 그림이 제시됩니다.
과학·슈퍼컴퓨팅·교육: Genesis 미션과 AI 인재 파이프라인
AMD는 HPC(고성능컴퓨팅)에서의 리더십도 전면에 배치합니다. 전통 HPC와 AI의 융합을 추진하고 있고, 세계에서 가장 빠른 슈퍼컴퓨터, 에너지 효율 시스템 등에 동력을 공급한다고 강조합니다. 예시로는:
핀란드 Lumi: 기후 모델 업데이트 시간 85%+ 단축
ENI: 배터리/연료 개발
Oak Ridge National Labs(Exascale): 예측 정확도 99% 수준의 시뮬레이션 언급
Lawrence Livermore El Capitan: 바이러스 변이/진화 모델링을 통한 팬데믹 대응 가속
Genesis 미션: AI·슈퍼컴퓨팅·양자의 융합
AMD는 미국 DOE 및 국립 연구소와 함께 Genesis 미션에 참여한다고 소개합니다.
Lux 컴퓨터: “올해 초 가동 예정”인 과학 전용 AI 팩토리
Discovery: 2028년 계획된 차기 플래그십 슈퍼컴퓨터
또한 미국 차원의 AI 전략(규제 장벽 제거, 인프라/에너지 확보, AI 외교/수출 프로그램)과 연결되며, 교육 이니셔티브로 “대통령 AI 챌린지”가 언급됩니다.
교육: AI Education Pledge와 학생·커뮤니티 확장
AMD는 AI 교육 서약을 지원하며 1억 5천만 달러를 투자했고, 전 세계 800개+ 교육·연구 협력을 구축 중이며, 올해 15만 명+ 학생에게 무료 온라인 AI 과정을 제공할 계획이라고 말합니다.
또한 Hack Club과 진행한 전국 AI·로보틱스 캠페인, 해커톤 우승팀 Team Armtender(AI 로봇 바리스타) 사례가 소개됩니다. 이 팀은 AMD 개발자 클라우드(MI 300X GPU)에서 비전-언어 모델을 훈련했고, 로봇 팔은 Ryzen AI 노트북에서 3대 카메라로 로컬 실행된다고 설명됩니다. AMD는 팀원 각자에게 2만 달러 교육 보조금을 수여했다고 언급됩니다.
결론: AMD가 그리는 다음 10년의 AI 지도
CES 2026에서 AMD는 “AI가 중요하다”는 메시지를 넘어, AI가 보편재가 되기 위해 필요한 컴퓨팅의 크기(요타 스케일)와 이를 감당하기 위한 플랫폼 단위 혁신(Helios/MI455), 그리고 개방형 소프트웨어(ROCm)를 한 프레임으로 묶었습니다.
여기에 OpenAI의 에이전트 컴퓨팅, Luma AI의 멀티모달 생성 워크로드, World Labs의 공간 지능, 헬스케어·로보틱스·우주 탐사·과학 슈퍼컴퓨팅까지 연결하면서, AMD의 전략은 결국 이렇게 요약됩니다.
AI는 클라우드에만 있지 않다. 클라우드·PC·엣지 전체가 AI 플랫폼이 된다.
컴퓨팅 수요는 상상을 초월한다. 그래서 랙 스케일/요타 스케일이 필요하다.
성능은 하드웨어만이 아니라 소프트웨어(ROCm)와 생태계에서 완성된다.
가장 큰 혁신은 단독이 아니라, 업계 리더와의 공동 혁신으로 빠르게 현실이 된다.
AMD가 그린 그림은 “더 큰 숫자”의 경쟁이라기보다, AI를 전 산업과 일상에 ‘실제로 배포 가능한 형태’로 만드는 인프라 경쟁에 가깝습니다. 그리고 CES 2026은 그 로드맵을 상당히 구체적인 형태로 공개한 자리였습니다.
젠슨 황의 CES 2026 엔비디아 키노트는 “신제품 발표”가 아니라, AI 시대에 컴퓨터 산업이 어떻게 다시 설계되어야 하는지를 스택 전체 관점에서 설명한 일종의 선언문에 가깝습니다. 메시지는 단순합니다. 이제 AI는 앱 위에 얹는 기능이 아니라, 소프트웨어를 만들고 실행하는 방식 자체를 바꾸는 플랫폼 전환이며, 그 결과 컴퓨팅 산업의 5계층 스택 전체가 재발명되고 있다는 것입니다.
CES 2026 엔비디아 키노트, 한눈에 보는 핵심 요약
지금은 두 개의 플랫폼 전환이 동시에 진행 중입니다: (1) AI 기반 앱 시대, (2) 소프트웨어 개발/실행 방식의 근본 변화
AI는 학습 + 추론(Reasoning) 단계로 진입했고, “테스트 타임 스케일링(Test-time Scaling)”으로 컴퓨팅 수요가 폭발합니다.
미래 AI 앱의 기본 골격은 에이전틱 AI + 멀티모델(라우팅) + 멀티클라우드/하이브리드입니다. 엔비디아는 이를 Blueprint로 제시합니다.
Physical AI를 위해서는 **세 종류의 컴퓨터(학습·추론·시뮬레이션)**와 디지털 트윈/합성 데이터가 필수이며, 월드 파운데이션 모델 Cosmos가 중심입니다.
자율주행 AlphaMayo는 “엔드투엔드 학습 + 추론 + 설명 가능성”을 내세우며, 벤츠와 풀스택으로 레벨4 시대를 예고합니다(2026년 지역별 출시 로드맵 포함).
차세대 슈퍼칩 Vera Rubin은 무어의 법칙 둔화를 “극한의 공동 설계(Extreme Co-design)”로 돌파합니다: 칩 6종을 하나처럼 움직이는 시스템 설계, 100% 수냉식 랙, AI 전용 이더넷(Spectrum‑X), BlueField‑4 기반 메모리 병목 해소가 핵심입니다.
결과적으로 토큰 비용은 10분의 1, 팩토리 처리량은 10배, 대형 모델 학습 속도는 “프론티어 도달 시간”을 결정하는 경쟁우위로 강조됩니다.
1) 두 개의 플랫폼 전환: 5계층 스택 전체가 다시 짜이고 있다
젠슨 황은 컴퓨터 산업이 10~15년 주기로 플랫폼 전환을 겪어왔다고 전제합니다. 메인프레임 → PC → 인터넷 → 클라우드 → 모바일. 매번 “새로운 플랫폼”이 등장할 때마다, “새로운 앱”이 그 위에 다시 만들어졌습니다.
그런데 지금은 전환이 하나가 아니라 두 개가 동시에 일어나고 있다는 설명입니다.
AI 시대로의 전환: 앞으로의 애플리케이션은 AI를 기반으로 구축된다.
개발·실행 방식의 전환: 소프트웨어를 만들고 실행하는 방식 자체가 바뀌며, 컴퓨터 산업의 5계층 스택 전체가 재발명된다.
여기서 그는 아주 공격적인 관점을 던집니다. 소프트웨어 개발은 “코딩”에서 “학습”으로 전환되었고, 소프트웨어는 CPU가 아니라 GPU에서 실행되며, 미리 컴파일된 정적 결과물이 아니라 문맥을 이해해 매번 새롭게 생성되는 방향으로 가고 있다는 것입니다.
또 하나의 큰 배경은 시장 규모입니다. 지난 10년간 구축된 약 10조 달러 규모의 컴퓨팅 인프라가 AI 방식으로 현대화되고, 100조 달러 규모의 산업이 R&D 예산을 AI로 이동하는 흐름이 만들어지고 있다는 언급은, 이번 전환이 “일시적 트렌드”가 아니라 자본과 산업 구조의 이동이라는 점을 강조합니다.
2) 2025년의 교훈: 스케일링 법칙과 ‘추론(Reasoning)’의 시대
AI 발전의 핵심으로 그는 다시 스케일링 법칙(Scaling Laws)을 꺼냅니다. BERT(2015), 트랜스포머(2017), 그리고 2022년의 “ChatGPT 모멘트”를 거쳐, 2023년에는 추론 모델의 등장으로 혁명이 시작됐다고 설명합니다.
여기서 중요한 전환점이 “테스트 타임 스케일링(Test-time Scaling)”입니다. 모델을 단순히 사전 학습시키는 것을 넘어, 강화학습 기반의 사후 훈련으로 기술을 숙달하게 하고, 실제 사용 시점에 “실시간으로 사고하는(Thinking)” 단계로 넘어갔다는 진단입니다.
그리고 2024년부터 확산되기 시작한 것이 에이전틱 시스템(Agentic Systems)입니다. 이 시스템은 단순 답변이 아니라,
추론(Reasoning)
정보 탐색(Search)
도구 사용(Tools)
미래 계획(Planning)
결과 시뮬레이션(Simulation)
을 결합해 중요한 난제를 해결하는 형태로 진화합니다.
그는 “정보의 형태”가 LLM에만 국한되지 않는다고 강조하며, 특히 Physical AI를 가장 큰 분야 중 하나로 지목합니다. 물리적 AI는 “세상과 상호작용하는 AI”, 그리고 AI 물리학은 “물리 법칙 자체를 이해하는 AI”라는 구분까지 제시합니다.
3) 오픈 모델의 폭발적 성장과 엔비디아의 기여: 모델만이 아니라 ‘데이터’도 연다
젠슨 황은 오픈 모델(Open Models)의 발전이 AI를 모든 곳으로 확산시키고 있다고 말합니다. 2023년은 오픈 모델이 도약한 해였고, 딥시크(DeepSeek)의 추론 시스템 R1이 이 흐름을 촉발시켰다는 맥락이 포함됩니다. 오픈 모델은 프론티어 모델 대비 약 6개월 뒤처지지만, 빠르게 발전하며 다운로드가 폭발한다는 설명입니다.
여기서 엔비디아의 포지셔닝은 명확합니다. 엔비디아는 DGX 클라우드를 운영하며 오픈 모델을 개발하고, 다양한 도메인에서 프론티어 수준의 모델까지 연구한다. 그리고 중요한 차별점으로 모델뿐 아니라 학습 데이터까지 오픈소스로 공개한다는 메시지를 강조합니다.
연설에서 언급된 주요 모델 라인업은 다음과 같습니다.
디지털 생물학: La Proteina(단백질 합성), OpenFold3(구조 이해), Evo2(이해·생성)
물리 법칙/기상: Earth‑2, ForecastNet, CorDiff
LLM: Nemotron(하이브리드 트랜스포머 SSM), Nemotron‑3
월드 파운데이션 모델: Cosmos(세상이 작동하는 방식 이해)
로보틱스: Groot(휴머노이드), AlphaMayo(자율주행 자동차)
또한 NeMo 라이브러리를 통해 데이터 처리→학습→생성→평가→배포까지 AI 수명 주기 전체를 지원하는 오픈소스 제품군을 제공한다고 설명합니다.
이 파트에서 반복되는 핵심 문장은 사실상 이것입니다. 모든 기업·산업·국가가 AI 혁명에 참여할 수 있도록, 엔비디아는 ‘완전히 개방적인 방식’으로 플랫폼을 구축한다.
4) Agentic AI(에이전틱 AI): “환각”을 줄이는 길은 ‘조사·도구·계획’이다
젠슨 황은 AI의 환각(hallucination)이 발생하는 이유를 “현재와 미래를 알지 못하기 때문”이라고 규정합니다. 따라서 답변을 생성하기 전에 AI에게 필요한 것은,
조사(Research)
도구 사용(Tool use)
문제를 단계별로 분해(Decomposition)
검색과 계획(Search & Planning)
같은 추론 기반 프로세스이며, 이 능력이 결합될 때 “학습되지 않은 일도 수행하는 절차”를 설계할 수 있다고 말합니다. 또한 그는 미래의 AI가 반드시 멀티모달이자 멀티모델이어야 한다고 강조합니다.
멀티모달: 음성, 이미지, 텍스트, 비디오, 3D 그래픽, 단백질 구조까지 이해
멀티모델: 작업에 가장 적합한 “전 세계의 뛰어난 모델”을 선택해 활용
그리고 AI는 필연적으로 멀티클라우드/하이브리드 환경에 존재해야 합니다. 모델은 서로 다른 장소(엣지, 무선 기지국, 기업 내부, 병원 등)에 있고, 데이터는 실시간 처리가 필요한 곳에서 처리되어야 하기 때문입니다.
이 구조를 가능하게 하는 핵심 구성요소가 바로 스마트 라우터입니다. 프롬프트 의도를 파악해 “가장 적합한 모델”을 결정하는 관리자 역할을 수행하며, 이를 통해 다음 두 가지를 동시에 만족시키는 아키텍처가 완성됩니다.
완벽히 커스터마이징 가능한 AI(고유 기술·영업비밀 학습)
항상 최전선(frontier)에 있는 AI(최신 기술 즉시 활용)
엔비디아는 이 프레임워크를 Blueprint라고 부릅니다. 데모에서는 DGX Spark를 개인 클라우드로 전환하고, 로컬 오픈 모델(예: 이메일 관리)과 프론티어 모델(다른 고난도 작업)을 의도 기반 모델 라우터로 연결해 개인 비서를 구축하는 과정을 보여주었다고 정리됩니다.
5) 엔터프라이즈의 미래: 엑셀과 명령어가 사라지는 UI 전환
젠슨 황은 에이전틱 AI 프레임워크가 이미 주요 엔터프라이즈 플랫폼 기업들과 통합되고 있다고 말합니다.
Palantir: AI 및 데이터 처리 플랫폼 통합/가속
ServiceNow: 고객·직원 서비스 플랫폼
Snowflake: 클라우드 데이터 플랫폼
NetApp: 시맨틱 AI 및 에이전틱 시스템 기반 고객 서비스
그리고 결론을 이렇게 내립니다. 미래 플랫폼의 UI는 엑셀 시트나 명령어 입력이 아니라, 에이전틱 시스템 자체가 될 것이다. 사람과 대화하듯 멀티모달 정보 처리를 수행하는 “단순한 상호작용”이 인터페이스의 표준이 된다는 주장입니다.
6) Physical AI의 본질: 상식을 ‘학습’시키는 월드 파운데이션 모델 Cosmos
물리적 AI에서 가장 어려운 과제는, AI가 물리 세계의 “상식”을 이해하도록 만드는 것입니다. 대상 영속성, 인과관계, 마찰, 중력, 관성 같은 “세상이 돌아가는 이치”를 배워야 한다는 설명이 이어집니다.
이를 위해 엔비디아는 물리적 AI 시스템 구축에 세 종류의 컴퓨터가 필요하다고 정리합니다.
학습용 컴퓨터: 모델 학습(엔비디아가 구축)
런타임 추론용 컴퓨터: 자동차·로봇·엣지에서 실행되는 로보틱스 컴퓨터
시뮬레이션용 컴퓨터: 행동 결과 평가 및 시뮬레이션
이때 시뮬레이션의 중심 플랫폼이 Omniverse(디지털 트윈이자 물리 기반 시뮬레이션 세계)이며, 월드 파운데이션 모델이 Cosmos입니다. Cosmos는 “언어가 아닌 물리 세계를 위한” 월드 모델로 소개됩니다.
여기서 데이터 문제가 등장합니다. 현실 데이터는 부족하기 때문에, 물리 기반 시뮬레이션을 활용한 합성 데이터 생성(Synthetic Data Generation)이 혁신의 핵심이 됩니다.
Cosmos는 교통 시뮬레이터 출력값을 입력받아 물리적으로 타당한 고품질 서라운드 비디오를 생성하며, 인터넷 규모의 비디오·실제 주행/로보틱스 데이터·3D 시뮬레이션을 통해 사전 학습되었다고 설명됩니다. 또한 언어·이미지·3D·행동(Action)을 통합적으로 이해하고, 단일 이미지로부터 생성/추론/궤적 예측까지 수행할 수 있다고 제시됩니다.
핵심은 개발자가 Cosmos 내에서 폐쇄 루프(closed‑loop) 시뮬레이션을 실행하며, AI가 롱테일(long‑tail) 예외 상황을 학습하도록 돕는다는 점입니다.
7) 사고하고 설명하는 자율주행 ‘AlphaMayo’: 벤츠와 함께 여는 레벨4 로드맵
AlphaMayo는 “세계 최초의 사고하고 추론하는 자율주행 AI”로 소개됩니다. 카메라 입력부터 실제 구동 출력까지 엔드투엔드(end‑to‑end)로 학습되었고, 학습 데이터는
실제 주행 데이터
인간 운전 시연 데이터
Cosmos가 생성한 방대한 주행 데이터
의 조합이라고 정리됩니다.
AlphaMayo의 차별점으로 연설에서 강조된 포인트는 다음입니다.
단순히 조작(control)하는 것을 넘어 행동을 추론하고
결정 이유를 설명하며
이동 경로를 제시한다
인간 시연 기반 학습으로 운전이 매우 자연스럽다
복잡한 롱테일 상황을 “평범한 작은 시나리오들”로 분해해 추론·해결한다
또한 자율주행 AI는 5계층 스택으로 구성된다고 설명합니다.
(하단) 자동차
칩(GPU·네트워킹·CPU)
인프라(Omniverse, Cosmos)
모델(AlphaMayo)
(상단) 애플리케이션(메르세데스‑벤츠)
엔비디아는 AlphaMayo를 오픈소스로 공개하며 벤츠와 풀스택 프로젝트를 진행했다고 언급합니다.
출시 로드맵도 구체적으로 제시됩니다. 엔비디아 기술이 탑재된 첫 자율주행차는 2026년 1분기 미국, 2분기 유럽, 3~4분기 아시아 출시 예정이라는 일정이 포함됩니다.
안전성 전략은 “이중 스택”입니다.
엔드투엔드로 학습된 AlphaMayo 스택
안전 가드레일 역할의 클래식 AV 스택
안전 정책 평가자가 AlphaMayo에 확신이 없다고 판단하면, 더 단순하고 확실한 클래식 스택으로 전환하는 구조입니다. 그는 자율주행이 “최초의 대규모 주류 물리적 AI 시장”이 될 것이며, 향후 10년 내 비자율주행에서 자율주행으로의 변곡점이 온다고 확신합니다.
자율주행에 쓰인 기본 기술(세 대의 컴퓨터, 합성 데이터, 시뮬레이션)은 모든 로봇 시스템에 적용된다고 정리됩니다. 엔비디아의 로봇 시뮬레이터는 Isaac, 로봇 학습 공간은 Omniverse입니다.
흥미로운 부분은 “AI 물리학이 엔비디아를 있게 한 산업(설계·생산 산업)을 다시 혁신한다”는 주장입니다.
Cadence는 CUDA‑X를 시뮬레이션과 솔버에 통합
Synopsys·Cadence는 칩 설계를 넘어 시스템 설계·시뮬레이션 영역으로 확장
미래에는 칩과 시스템 전체가 해당 환경에서 설계·에뮬레이션·시뮬레이션될 것
엔비디아는 Siemens와 협력해 CUDA‑X 물리적 AI, 에이전틱 AI, NeMo, Nemotron을 지멘스 세계에 통합
이 흐름의 종착점은 “에이전틱 칩 설계자”와 “에이전틱 시스템 설계자”가 설계를 돕고, 로봇은 컴퓨터 안에서 설계되며, 로봇을 생산할 플랜트/공장 자체가 본질적으로 거대한 로봇이 되는 미래입니다.
9) 차세대 슈퍼칩 ‘Vera Rubin’: 무어의 법칙 이후를 위한 Extreme Co‑design
젠슨 황은 컴퓨팅 수요 폭발을 아주 직설적으로 수치화합니다.
모델 규모는 매년 10배씩 커지고
추론이 “사고”가 되면서 강화학습을 위한 컴퓨팅이 기하급수적으로 증가
테스트 타임 스케일링으로 생성되는 토큰 수는 매년 5배 증가
경쟁 심화로 토큰 비용은 매년 약 10배 감소 압력
따라서 엔비디아는 “매년 컴퓨팅 최첨단을 발전”시키기로 결정했고, 그 결과물이 차세대 슈퍼칩(정확히는 슈퍼칩+시스템) Vera Rubin입니다. 이름은 암흑 물질을 발견한 천문학자 베라 루빈에서 따왔다는 설명이 포함됩니다.
핵심 개념은 극한의 공동 설계(Extreme Co‑design)입니다. Vera Rubin은 단일 칩이 아니라 6개의 칩이 하나처럼 작동하도록 엔지니어링된 시스템입니다.
Vera CPU: 맞춤형 설계 CPU, 이전 세대 대비 2배 성능(전력 제약 환경에서도 와트당 2배)
88개 물리 코어
공간 멀티스레딩으로 176 스레드가 온전한 성능 발휘
Rubin GPU: Vera와 양방향 일관 데이터 공유하도록 공동 설계
부동소수점 연산 성능이 Blackwell의 5배
트랜지스터 수 증가는 1.6배에 그침
성능 도약의 핵심 기술: NVFP4 텐서 코어(정밀도·구조를 하드웨어에서 동적으로/적응형으로 조정)
또한 Vera Rubin 컴퓨트 보드는 이전 세대의 5배인 100 페타플롭스 AI 성능을 제공한다고 정리됩니다.
10) 인프라 혁신: 100% 수냉식 랙, AI 전용 이더넷(Spectrum‑X), NVLink 6세대
Vera Rubin은 칩 혁신만으로 완성되지 않습니다. 인프라도 함께 “극한의 공동 설계”로 재설계됩니다.
DGX 섀시의 재설계
케이블: 43개 → 0개
튜브: 6개 → 2개
조립 시간: 2시간 → 5분
냉각: 80% 액체 냉각 → 100% 액체 냉각
AI 전용 이더넷: Spectrum‑X
AI 트래픽은 동서(East‑West) 트래픽이 매우 집약적이고 극도로 낮은 지연시간을 요구합니다. 그래서 엔비디아는 AI 전용 이더넷인 Spectrum‑X를 제시합니다.
또한 “데이터센터 경제성” 관점의 예시가 나옵니다. 기가와트급(약 500억 달러 규모) 데이터 센터에서 네트워킹 효율을 10%만 높여도 50억 달러 가치가 있는데, Spectrum‑X가 처리량을 25%까지 높여준다는 논리입니다.
NVLink 6세대 스위치와 스케일업
18개의 컴퓨트 노드를 연결해 72개의 Rubin GPU가 하나처럼 작동하도록 확장
스위치 처리 성능: 초당 400Gbps급 처리, 모든 GPU가 동시에 모든 GPU와 통신
랙 백플레인의 처리량: 초당 240TB(전 세계 인터넷 트래픽 약 100TB/s의 2배 이상이라는 비유 포함)
45℃ 냉각수: ‘칠러 없는’ 효율성
Vera Rubin 랙은 전력 소모가 이전 세대 대비 두 배이지만, 유입 냉각수 온도는 45℃로 동일하다고 정리됩니다. 45℃ 냉각수는 별도의 냉각기(chiller)가 필요 없어 효율적이며, 에너지 최적화의 핵심 포인트로 강조됩니다.
또한 TSMC와 공동 혁신한 CoWoS 공정으로 실리콘 포토닉스가 칩에 직접 통합되어, 200Gbps 속도의 512포트를 지원하는 Spectrum‑X 이더넷 AI 스위치가 가능해졌다는 설명도 포함됩니다.
11) 메모리 병목 해소: KV 캐시, 랙 내부 초고속 스토리지, BlueField‑4
젠슨 황은 추론 시대의 새로운 병목을 컨텍스트 메모리(KV 캐시)로 규정합니다.
토큰을 생성할 때마다 GPU는 모델 전체와 KV 캐시 전체를 읽고, 생성 토큰을 다시 KV 캐시에 저장
대화가 길어지고 모델이 커질수록 컨텍스트 메모리가 폭증
HBM이나 고속 컨텍스트 메모리만으로 감당이 어려워짐
외부 스토리지로 나가면 네트워크가 느려져 병목이 심해짐
그래서 등장하는 해법이 BlueField‑4입니다. BlueField‑4를 통해 랙 내부에 매우 빠른 KV 캐시 컨텍스트 메모리 저장소를 두어, 대규모 토큰 생성을 수행하는 AI 연구소/클라우드 사업자의 네트워크 트래픽 고충을 해결하는 혁명적 아이디어라고 설명합니다.
연설에서 제시된 구조는 다음과 같습니다.
GPU당 추가 16TB 메모리 확보
각 컴퓨트 노드 뒤에 BlueField 4개 장착
각 BlueField 뒤에 50TB 컨텍스트 메모리 저장
GPU는 동서 트래픽과 동일한 200Gbps 속도로 추가 메모리에 접근
여기에 보안·운영 안정성 요소가 더해집니다.
기밀 컴퓨팅(Confidential Computing): 전송/저장/연산 중 데이터 암호화, PCIe·NVLink 버스 통신 암호화로 모델 노출 방지
전력 평활화(Power Smoothing): 올 리듀스(all‑reduce) 단계에서 최대 25% 치솟는 순간 전력 급증을 평활화해 과도한 전력 프로비저닝/낭비 없이 전력 예산을 꽉 채워 쓰게 함
12) 압도적 성능과 비용: 무어의 법칙을 넘어선 ‘경제성’이 핵심이다
젠슨 황은 성능 자체보다 경제성을 더 날카롭게 강조합니다. AI는 “더 빨리 학습할수록 다음 프론티어에 더 빨리 도달”하고, 그 속도가 기술 리더십과 가격 경쟁력으로 이어지기 때문입니다.
연설에서 제시된 핵심 수치들은 다음과 같습니다.
10조(Trillion) 파라미터 모델 학습: Rubin 시스템은 Blackwell 시스템의 4분의 1만 있어도 1개월 내 학습 가능
팩토리 처리량(Factory Throughput): Rubin은 Blackwell 대비 약 10배
토큰 생성 비용: Rubin은 Blackwell 대비 약 10분의 1
정리하면 엔비디아는 칩→인프라→모델→애플리케이션에 이르는 AI 풀스택(Full Stack)을 구축하고 있으며, 임무는 “전 세계가 놀라운 애플리케이션을 만들 수 있도록 이 전체 스택을 제공하는 것”이라고 마무리합니다.
13) 내 비즈니스에 적용하는 실전 체크포인트
이번 키노트에서 실무자가 가져갈 인사이트는 “기술 트렌드”가 아니라, 다음 1~3년의 아키텍처 의사결정 기준입니다.
1) AI 도입의 기본 단위는 ‘모델’이 아니라 ‘에이전트(Agent)’로 이동
단일 챗봇 도입보다, 업무를 쪼개서 실행하는 에이전틱 시스템이 UI가 됩니다.
내부 데이터/보안 요구가 있으면 로컬(온프렘/프라이빗) 모델과 프론티어 모델을 라우팅하는 구조가 필수입니다.
2) 멀티모델 라우팅은 “비용”과 “품질”을 동시에 잡는 설계
모든 요청을 비싼 최전선 모델에 보내지 않고, 의도 기반으로 최적 모델을 선택하는 것이 토큰 비용을 지배합니다.
“커스터마이징 AI”와 “최신 AI”를 동시에 가져가려면, 라우터/정책/관찰가능성(로그·평가)이 필요합니다.
3) Physical AI를 하려면 시뮬레이션·합성 데이터가 ‘필수 인프라’
자율주행·로보틱스·제조 최적화는 현실 데이터만으로는 부족합니다.
디지털 트윈(Omniverse) + 월드 모델(Cosmos) + 폐쇄 루프 시뮬레이션이 경쟁력의 핵심이 됩니다.
4) AI 인프라는 이제 “수냉 + 네트워크 + 메모리”가 함께 설계되어야 한다
100% 수냉식, AI 전용 이더넷(Spectrum‑X), BlueField‑4 기반 랙 내 컨텍스트 스토어 같은 구조는 단순 서버 구매가 아니라 데이터센터 설계/운영 모델 자체를 바꿉니다.
5) 보안은 ‘옵션’이 아니라 ‘요금표’에 직접 연결되는 기본값
기밀 컴퓨팅, 멀티테넌시 분리, 버스 암호화 같은 설계는 엔터프라이즈가 AI를 “외부 유출 걱정 없이” 쓰게 만드는 전제 조건입니다.
이번 젠슨 황의 CES 2026 엔비디아 키노트를 보면서 구글, AMD 등의 도전이 GPU 자체로는 계속되겠지만 한번 시작된 엔비디아의 아성을 위협하기에는 어렵겠다는 생각입니다. 한 마디로 이 동네의 최고 강자는 자신들이다라는 것을 다시 한번 선언하듯 자신들의 키노트 이외에도 다른 기업들의 여러 컨퍼런스에도 등장하면서 생태계를 공고히 한 모습이었습니다. 이에 올해 CES 2026의 주인공 기업 하나를 꼽는다면 저는 엔비디아를 선택할 것 같습니다.
CES 2026 레노버의 메시지는 명확합니다. AI를 “클라우드에만 있는 기능”이 아니라, 개인의 모든 디바이스와 기업의 데이터가 존재하는 현장(온프레미스·엣지)까지 확장해 ‘모두가 쓰는 AI’로 만들겠다는 선언입니다. 그 중심에는 (1) 개인의 삶과 업무를 통합하는 개인 AI 슈퍼 에이전트 ‘Lenovo Kira’, (2) 엔터프라이즈의 실시간 의사결정을 가속하는 AI 추론(Inferencing) 최적화 인프라, (3) 이를 가능하게 하는 하이브리드 컴퓨팅 인프라와 멀티 에이전트 백본이 있습니다.
1) 하이브리드 AI 시대 선언: “AI 민주화의 궁극적인 경로”
CES 2026, 레노버는 이번 키노트를 통해 하이브리드 AI(Hybrid AI)를 ‘AI 민주화를 위한 궁극적인 경로’로 제시했습니다. 핵심 문장은 사실상 이 한 줄로 정리됩니다. AI의 힘은 사용자에게 속해야 하며, ‘모두를 위한 AI(AI built for all)’는 사용자 중심 기술 혁신과 함께 가야 한다.
여기서 말하는 하이브리드 AI는 단순히 “클라우드 + 온디바이스”의 조합이 아닙니다. 레노버가 그리는 그림은 다음과 같습니다.
개인은 폰·PC·태블릿·웨어러블에 흩어진 데이터/지식을 하나로 묶어 개인화된 AI를 갖는다.
기업은 퍼블릭 클라우드·프라이빗 클라우드·온프레미스·엣지를 엮어, 필요한 워크로드를 가장 적합한 위치에서 실행한다.
그리고 이 모든 것을 에이전트(Agent) 기반으로 자동화해, AI가 ‘답변’에서 끝나지 않고 업무를 수행하도록 만든다.
2) NVIDIA 협력: Lenovo AI Cloud Gigafactory가 겨냥하는 것
레노버는 NVIDIA와 함께 Lenovo AI Cloud Gigafactory를 공식 출시하며, 하이브리드 AI 전략의 ‘인프라 레이어’를 전면에 내세웠습니다. 이미 작년 테크 월드에서 Lenovo Hybrid AI Advantage를 공개한 뒤, 분기별로 공동 혁신을 발표해 왔다는 흐름도 함께 강조됐습니다.
이번 Gigafactory가 노리는 포인트는 매우 실무적입니다. 바로 클라우드 환경에서 LLM을 서비스할 때 중요한 지표인 “첫 토큰까지 걸리는 시간(Time to First Token)”을 크게 줄이는 것. 사용자가 체감하는 응답 속도와 직결되는 영역이기 때문입니다.
키노트에서 제시된 그림은 스케일 자체가 다릅니다.
수십만 개의 GPU를 활용해
조(Trillion) 단위 매개변수를 가진 대규모 언어 모델(LLM)을 지원하는 인프라로 확장
그리고 레노버는 이를 “컴퓨터”가 아니라 고객을 위한 AI 팩토리(AI Factory)로 빠르게 전환하는 것을 목표로 제시
여기서 엔비디아 CEO 젠슨 황이 언급한 포인트도 인상적입니다. 레노버가 전 세계 TOP500 슈퍼컴퓨터 중 3분의 1을 구축했다는 맥락을 통해, 단순 공급사가 아니라 “대규모 시스템 제조·설치 전문성”이 AI 팩토리 구축의 핵심 역량임을 강조한 것입니다.
또한 레노버는 이 시스템에 자연 액체 냉각(natural liquid cooling)을 적용하고, 인하우스 설계·제조·글로벌 서비스를 이 규모로 결합할 수 있는 유일한 회사라는 점을 강하게 부각했습니다. 결국 Gigafactory는 “AI를 더 크게 만들겠다”가 아니라, AI를 ‘빠르고 안정적으로’ 돌리는 공장으로 만들겠다는 선언에 가깝습니다.
3) 하이브리드 AI의 기술 백본: 에이전트 네이티브 미래를 여는 3요소
레노버 CTO 토가 코토골루(Toga Kotogulu)는 하이브리드 AI에서 가장 중요한 축으로 사용자의 의도를 진정으로 이해하는 지능형 에이전트를 짚었습니다. 그리고 미래의 AI는 ‘단일 모델’이 아니라, 슈퍼 에이전트가 워크플로우를 설계하고 작업별 에이전트 팀이 실행하는 멀티 에이전트 협업으로 흘러갈 것이라고 정리합니다.
레노버가 제시한 “에이전트 네이티브(agent-native) 미래”의 기술 백본은 다음 3가지입니다.
지능형 모델 오케스트레이션(Intelligent model orchestration)
에이전트 코어(Agent core)
멀티 에이전트 협업(Multi-agent collaboration)
이 구조가 의미하는 변화는 분명합니다. 사람이 모든 지식의 복잡성을 직접 처리하는 대신, 인간은 창조·탐색·연결 같은 ‘인간이 가장 잘하는 일’에 집중하고, 에이전트가 복잡한 실행과 조정을 맡는 방식으로 역할이 재배치됩니다.
4) 개인 AI 슈퍼 에이전트 Lenovo Kira: “내 모든 기기 위에서, 내 패턴을 학습하는 AI”
이번 발표에서 대중이 가장 직관적으로 이해할 수 있는 주인공은 단연 Lenovo Kira입니다. 레노버는 Kira를 “개인 AI 슈퍼 에이전트”라고 정의하며, 단순 챗봇이 아니라 여러 디바이스를 관통하고, 환경을 인지하며, 사용자의 패턴을 학습해 개인화된 경험을 제공하는 AI로 소개합니다.
왜 ‘개인 AI’가 필요한가
레노버의 문제 정의는 현실적입니다. 사진, 파일, 연락처, 아이디어, 경험 등 사용자의 삶 전체가 폰·PC·태블릿·스마트 워치/글래스 등으로 흩어져 있고, 운영체제와 앱 생태계도 제각각입니다. 기술이 진짜 ‘사용자 중심’이 되려면 이 파편화된 데이터/지식을 원활하게 통합해야 합니다.
그래서 목표는 하나입니다. 단기/장기 기억을 보유하고 사용자 패턴을 학습하는 하나의 슈퍼 에이전트로, 개인의 디지털 삶을 통합하는 것.
Kira의 작동 방식: Perception → Collaboration → Hub
Kira는 크게 세 단계로 설명됩니다.
지각(Perception): 스마트 글래스, 스마트 링 같은 웨어러블과 회의실 카메라 등 감지 장치에서 출발합니다. 개인 AI는 사용자의 허가 하에 사용자가 보고 듣는 것을 인지합니다.
협업(Collaboration): PC·태블릿·휴대폰 같은 휴대용 대화형 컴퓨팅 장치 전반에서 사용자의 계획, 창작, 소통을 돕고 학습하며 성장합니다.
개인 AI 컴퓨팅 허브: 이 흐름은 레노버가 Project Qubit(프로젝트 큐비트)로 개척 중인 “Personal Computing Hub”라는 새로운 범주의 컴퓨팅으로 뒷받침됩니다. 개인 사용을 위한 고성능 확장형 AI 컴퓨팅을 제공하고, 시간이 지날수록 사용자의 인지 파트너(cognitive partner)로 진화한다는 설정입니다.
플랫폼을 넘는 Kira: Windows부터 Android까지
레노버는 Kira가 폰·PC·태블릿·웨어러블 등 AI가 필요한 모든 곳에서 작동하며, Windows부터 Android까지 플랫폼을 초월해 동작한다고 설명합니다. 또한 중국에서는 Tianxi라는 이름으로 불린다는 점도 함께 언급됩니다.
데모 시나리오(Angelina Gomez)로 본 Kira의 ‘실제 쓰임새’
키노트 데모는 Kira를 “설명”하지 않고 “사용 장면”으로 설득합니다.
라스베이거스 스피어(Sphere)에서 스마트 글래스를 통해 주변 환경(16만 평방피트 스크린, 수천 명 청중)을 인지하고 설명하며,
개인 생활(아이들 사진)과 업무(FIFA 브리핑 이메일, PC에서 만든 가족 영상)처럼 여러 기기에 흩어진 정보를 ‘정말 중요한 것’ 중심으로 요약해 주고,
조카 선물 구매 같은 할 일을 파악해 라스베이거스 몰의 상점을 추천하고, 다음 날 오전 11시의 여유 시간을 찾아 캘린더 알림까지 추가하는 식으로 능동적 일정 관리를 수행합니다.
문서 작업에서도 사용자가 작성 중이던 FIFA 문서를 찾아 최신 통계를 반영해 마지막 단락 업데이트를 제안하고, 사용자가 수락하면 문서를 포맷해 특정 수신자에게 이메일로 보내는 흐름까지 제시됩니다.
더 나아가 웨어러블(개념 증명 형태의 AI 목걸이)을 통해 중요한 순간을 포착하고 자동 회의록을 작성하며, 과거 발언을 정확히 기억해 인용하는 장면으로 “장기 기억”을 강조합니다.
사용자가 LinkedIn 게시물 초안을 요청하면, 글 작성은 물론 외부(엑소스피어 밖)에서 찍은 사진을 자동 저장해 게시물에 쓸 수 있도록 준비하는 등 멀티 디바이스 콘텐츠 통합을 보여줍니다.
결국 Kira의 캐릭터는 이렇게 요약됩니다. Kira는 (1) 주변 환경을 예리하게 인식하는 지각 AI, (2) 선호를 기억하고 다음 필요를 예측하는 개인화 AI, (3) 여러 AI 에이전트를 조정해 통찰을 만드는 인지적 인간-기계 인터페이스이며, 시간이 갈수록 사용자와 닮아 개인 AI 트윈(personal AI twin)으로 진화한다는 비전입니다. 동시에 개인 정보 보호를 최우선으로 한다는 메시지도 반복됩니다.
5) Intel 협력: AI PC Aura Edition 확장과 “Kira 내장” 로드맵
레노버는 인텔과의 협력 축에서 AI PC Aura Edition을 전면에 배치합니다. 키노트에서는 두 회사가 30년 이상 협력해 왔고, 앞으로도 PC·데이터센터·클라우드 전반에서 AI 혁신을 “접근 가능하고 책임감 있으며 포괄적”으로 만들겠다는 방향성이 강조됩니다.
Aura Edition의 핵심은 단순 스펙이 아니라 지능형 PC 경험입니다. 레노버의 디자인 리더십과 인텔의 AI 성능을 결합해, 더 많은 폼팩터와 기능으로 포트폴리오를 확장한다고 설명합니다.
차세대 Aura Edition AI PC에서 제시된 사용자 경험은 ‘작은 마찰 제거’에 집중합니다.
간단한 탭으로 폰 ↔ PC 간 비디오 파일 전송
작업 모드 ↔ 게임 모드 빠른 전환
PC 관련 질문에 대한 실시간 서비스 지원
그리고 무엇보다 중요한 한 줄이 있습니다. 슈퍼 에이전트 Lenovo Kira가 곧 Aura Edition AI PC에 내장된다는 로드맵입니다. “더 스마트한 AI를 모두에게”라는 구호가 PC 제품 경험으로 연결되는 지점입니다.
게이밍 영역에서는 FIFA 브랜드를 적용한 게이밍 PC(예: Li Jing Pro 7i, FIFA 월드컵 26번째 에디션)를 언급하며, 장차 Kira가 게이머의 플레이 방식을 학습해 더 스마트한 플레이를 돕는 미래도 제시합니다.
6) 스마트 디바이스 포트폴리오: 레노버 IDG와 모토로라 전략
레노버 IDG 사장 루카 로시(Luca Rossi)는 ThinkPad X1·X9부터 Yoga 시리즈까지, Aura Edition이 프리미엄의 의미를 재정의한다고 설명합니다. 최신 프로세서 기반으로 더 스마트한 AI 가속과 효율성을 제공하고, Kira 탑재 시 개인화·지능이 강화되며 올데이 배터리·보안·스마트 모드 등 UX 전반을 끌어올린다는 메시지입니다.
모토로라는 프리미엄 시장에서의 경험을 전면에 내세웁니다. 특히 Razr Fold 제품군의 성과를 강조하고, Moto Pen의 강력한 신규 기능도 언급됩니다. 또한 (키노트 시연처럼) Razr Fold가 Kira와 함께 실행되어 모든 앱에서 더 직관적이고 연결된 경험을 제공하는 그림이 제시됩니다.
신규 플래그십: Motorola Signature
이번 주 출시로 소개된 Motorola Signature는 “레노버가 만든 가장 세련된 휴대폰”이라는 포지셔닝입니다.
4개의 5,000만 화소 카메라를 탑재한 최초의 제품
Qualcomm Snapdragon 8 Gen 5 기반 초고속 성능
곧 Motorola Kira를 통해 “최고의 온디바이스 AI” 제공
별자리에서 영감을 받은 스와로브스키 크리스털 특별판도 예고
디자인 측면에서는 Pantone 파트너십, 지속 가능한 목재·알칸타라·비건 가죽·크리스털 등 소재 전략을 통해 “흑백의 세계에서 눈에 띄는 색상과 마감”을 제공한다는 내러티브가 이어집니다.
또 하나의 축은 마이크로소프트와의 협력입니다. Copilot을 모토로라 폰에 도입해 원활한 경험을 제공하고, PC-폰 간 문자 전송 같은 일상적 작업을 간편화하며, 모토로라 사용자가 Copilot 앱에 접근할 수 있도록 한다는 방향입니다.
7) 엔터프라이즈 AI: “다음 물결은 AI 추론” 그리고 하이브리드 인프라
개인용 AI가 Kira라면, 엔터프라이즈 영역의 키워드는 단연 AI 추론(Inferencing)입니다. 레노버는 AI 컴퓨팅의 흐름을 4개의 물결로 정리합니다.
전통적 컴퓨팅: 기업 디지털화
클라우드 컴퓨팅: 클라우드 서비스/앱 급증
AI 컴퓨팅: LLM을 위한 대규모 CPU·GPU 클러스터(훈련+추론)
AI 추론의 급증: 강력한 장치가 온프레미스·엣지·사용자 손안으로
핵심 논리는 명확합니다. 훈련(Training)은 주로 클라우드에 남지만, 추론은 데이터가 생성되는 곳에 더 가까워져야 합니다. 그래야 응답이 빨라지고, 비용과 보안·거버넌스 측면에서도 유리해집니다.
키노트에서 든 사례들도 모두 “현장성”을 강조합니다.
공장 운영: 엣지 추론으로 실시간 유지보수 경고 → 시간/비용 절감
체인점 운영: 재고가 낮을 때 즉각 알림 → 진열 보충·판매 증대
온프레미스 추론: 기업 경쟁우위로 직결
이 흐름을 구현하는 기반이 하이브리드 컴퓨팅 인프라(퍼블릭·프라이빗·온프레미스·엣지)이며, 레노버 Hybrid AI Advantage가 이 위에서 작동한다는 구조입니다.
결국 하이브리드 인프라+데이터+모델+에이전트 플랫폼을 통합해 AI 팩토리를 만들고, 가치사슬 전반을 위한 AI 솔루션 라이브러리를 구축한다
여기서 AMD 협력이 실체를 갖습니다. AMD CEO 리사 수(Lisa Su)는 기업들이 AI를 데이터에 더 가깝게 가져오는 방법을 모색하고 있다고 언급하며, 레노버는 AMD EPYC 기반 최신 AI 추론 서버를 소개합니다. 키노트에서 직접 언급된 제품이 ThinkSystem SR675i입니다.
SR675i는 온프레미스 AI 추론으로 실시간 통찰, 더 빠른 의사결정, 중요한 데이터의 안전한 보호를 목표로 하며, 향후 AMD Instinct 가속기 지원 유연성도 강조됩니다.
그리고 “단일 서버를 넘어”를 상징하는 키워드가 Helios 랙 스케일 AI 아키텍처입니다. 추론 수요가 가속화되면서 고객이 더 큰 모델·더 높은 처리량을 원하고, 따라서 랙 스케일 인프라가 중요해진다는 논리입니다.
Helios는 (키노트 설명 기준) 다음을 결합한 청사진으로 제시됩니다.
AMD EPYC CPU
Instinct GPU
Pensando 네트워킹
Rackham 개방형 소프트웨어 스택
중심 가속기: 차세대 Instinct MI455X
이로써 고객은 SR675i 기반의 온프레미스 워크로드부터, 랙 AI 시스템의 훈련/분산 추론까지 명확한 경로를 갖게 된다는 메시지로 연결됩니다.
9) AI 추론 최적화 인프라 포트폴리오: “The Beast / Sweet Spot / Anywhere”
인프라 파트에서는 “AI는 엔진 없는 F1 자동차와 같다”는 비유로, 하이브리드 인프라의 중요성을 못 박습니다. 또한 전 세계 상위 10개 클라우드 서비스 제공업체 중 8곳이 레노버를 신뢰한다는 점, 그리고 넵튠(Neptune) 액체 냉각이 에너지 사용량을 40% 절감하고 성능과 지속 가능성에 기여한다는 메시지가 함께 제시됩니다(키노트 언급 기준).
그리고 추론 최적화 포트폴리오가 3개 축으로 정리됩니다.
SR675i: The Beast
높은 토큰 처리량, 낮은 지연 시간의 AI 추론에 최적화된 포트폴리오 중 하나로 소개되며, 넵튠 액체 냉각·높은 GPU 밀도·대규모 메모리로 “전체 LLM을 어디서든 실행”하는 그림을 제시합니다. 헬스케어 사례로는 MRI 스캐너에서 생성되는 대용량(예: 30GB) 영상 데이터를 생성된 곳에서 추론 분석해 진단을 지원하고 환자 기록과 연결해 효율·비용·프라이버시를 동시에 잡는 시나리오가 언급됩니다.
SR650i: The Sweet Spot Server
대부분의 추론 워크로드에 적합한 서버로, 이미 5개의 AI 추론 세계 기록을 보유했다는 설명이 붙습니다. 금융 서비스에서는 사기 탐지가 반응형에서 실시간 보호로 전환되고, 모든 거래/로그인/결제가 밀리초 단위로 분석되어 에이전트 기반 대응을 제공하는 장면이 제시됩니다.
SE455i: The Anywhere Server
데이터 생성과 즉시 의사결정이 필요한 엣지 환경에 AI를 제공하는 서버로, 까다로운 환경에서도 컴퓨터 비전 같은 원시 입력을 자동화 워크플로우로 전환한다고 설명합니다. 소매업 사례에서는 실시간 비디오와 구매 데이터를 분석해 재고를 예측하고 보충 인력 스케줄링까지 연결하는 형태로 “클라우드 지연 없이” 즉시 인텔리전스를 제공하는 흐름이 강조됩니다.
이 모든 운영을 서비스 레이어에서 받쳐주는 것이 Lenovo TruScale Infrastructure as a Service와 “하이브리드 AI 팩토리 서비스”입니다. 즉, 기업이 추론 워크로드를 어디서든 배포하고 관리하도록 돕겠다는 구조입니다.
10) Sphere 사례: Big Sky 카메라 시스템과 ‘픽셀 인 → 픽셀 아웃’ 파이프라인
이번 키노트가 흥미로운 이유는, 레노버가 단순히 “AI를 잘합니다”가 아니라 AI/컴퓨팅 인프라가 어떤 산업 경험을 가능하게 하는지까지 구체 사례로 보여준다는 점입니다. Sphere와의 협력은 그 대표격입니다.
Sphere 측은 “기술이 창의성과 만나는 곳”이며 관객이 콘텐츠를 ‘보는’ 수준을 넘어 시각·소리·냄새·느낌·감정까지 몰입하는 경험적 매체라고 설명합니다. 문제는, 그 스케일과 품질을 만족하는 촬영/제작 시스템이 기존에는 없었다는 것. 그래서 Sphere는 독자적인 카메라 시스템 Big Sky를 설계·구축했다고 소개됩니다.
Big Sky의 핵심은 “데이터 폭발”입니다.
최초의 18K 센서 포함
4K의 40배, HD 프레임 대비 70배 이상 큰 프레임
초당 30GB의 원시 데이터 생성
특허 5개 발급, 10개 출원 중(키노트 언급 기준)
이 전례 없는 데이터 볼륨을 풀 컬러 이미지로 변환하고, 그레이딩·합성·렌더링을 처리하는 역할을 레노버 워크스테이션과 인프라가 수행한다는 설명으로 연결됩니다. 또한 Big Sky는 카메라만이 아니라 렌즈, 기록 매체, 맞춤형 액세서리, 그리고 픽셀 인(pixel in)부터 픽셀 아웃(pixel out)까지의 엔드 투 엔드 파이프라인 전체 생태계로 제시됩니다.
11) Lenovo AI 서비스·AI 라이브러리: “기술만으로는 충분하지 않다”
엔터프라이즈 고객이 AI를 도입할 때 마주하는 현실적 장벽은 늘 비슷합니다. ROI, 인력, 데이터 거버넌스. 레노버는 이 지점을 정면으로 언급하며 Lenovo AI 서비스를 통해 도입 계획 수립 → 솔루션 배포 → 장기 운영까지 지원한다고 설명합니다. 필요에 따라 유연하게 확장/축소할 수 있는 Lenovo TruScale도 함께 묶입니다.
또 하나의 축은 Lenovo AI 라이브러리입니다. 키노트에서는 “업계에서 유례없는 수준”이며, 고객 비즈니스에 맞게 조정할 준비가 된 수백 가지 검증 솔루션을 포함한다고 소개됩니다. 그리고 라이브러리에서 시작하면 위험을 줄이고 90일 이내 가치 확보가 가능하다는 메시지가 붙습니다(키노트 언급 기준).
소개된 솔루션 사례는 다음과 같습니다.
XIQ Workplace: IT 리소스 관리와 직원 생산성/만족도의 균형, 환경 모니터링으로 장애를 사전 해결
i-Drawing(제조): 부품을 적시에 적소로 이동시키는 지휘자 역할, 악천후/공급 부족에도 프로세스 지속
iChain(공급망): 전 세계 180개+ 시장 배송에서 최적 경로를 지속적으로 탐색
12) FIFA 협력: Football AI Pro로 ‘데이터 접근성의 민주화’
레노버는 FIFA와의 협력을 단순 스폰서십이 아니라, 엔터프라이즈 지식 지원 시스템으로 구체화합니다. FIFA는 매년 수백 경기, 수천 선수, 수백만 데이터 포인트를 보유한 “세계에서 가장 데이터가 풍부한 조직 중 하나”로 소개되며, 레노버는 맞춤형 솔루션 Football AI Pro를 함께 만들었다고 설명합니다.
Football AI Pro는 AI 에이전트 팀을 지휘해 FIFA의 방대한 데이터를 검색하고 몇 초 만에 필요한 정보를 제공하는 구조로 제시됩니다.
코치: 상대 전술 고려
선수: 개인화된 경기 분석
분석가: 비디오 클립·3D 중재로 팀 패턴 비교
다국어 이해: 2026년 월드컵 참가 48개 팀 모두와 상호작용 가능
FIFA 회장 지아니 인판티노(Gianni Infantino)는 레노버가 글로벌 기술 파트너로서 완전한 IT 솔루션을 제공한다고 확인하며, 심판이 지연 없이 오프사이드 판정을 내리도록 돕는 인프라 지원도 언급됩니다.
팬 경험 혁신도 흥미롭습니다.
Football AI Pro를 팬에게도 제공 예정
심판 시점 영상에 AI 안정화 적용 → “마치 경기장 중앙” 같은 시청 경험
AI 지원 3D 선수 아바타(정밀 식별/추적) → 반자동 오프사이드 기술에 이점
궁극적으로 AI를 통해 더 포용적이고 접근 가능한 축구를 만들겠다는 방향
13) FIFA 월드컵 26 에디션 모토로라 Razr
레노버는 FIFA 월드컵 26 에디션 ‘FIFA Motorola Razr’도 출시한다고 밝힙니다. 또한 다음 달(문맥상 2026년 2월로 추정)에 FIFA의 또 다른 글로벌 네트워킹 파트너인 Verizon을 통해 판매될 예정이라고 언급하며, 글로벌 파트너십이 실제 제품/유통으로 연결되는 장면을 보여줍니다.
14) 최종 요약: “Smarter AI for All”이 제품·인프라·산업 사례로 연결됐다
키노트 말미에는 Kira에게 요약을 요청하는 장면이 등장하며,
레노버는 Lenovo Kira, Aura Edition AI PC, AI Cloud Gigafactory, AI 추론 서버까지 하이브리드 AI를 모두에게 제공한다.
Hybrid AI Advantage를 통해 F1, FIFA 월드컵 같은 글로벌 조직을 위한 실시간 솔루션을 구현하며, “모두를 위한 더 스마트한 AI”를 실현한다.
마무리로는 게스트 연사를 다시 무대로 초대해 ‘모두를 위한 더 스마트한 AI’를 함께 만들자고 메시지로 마무리됩니다. 물론 스피어라는 공간을 이렇게밖에 활용하지 못했나는 의견들이 많았던 것처럼 무대 연출에서는 아쉬움이 많이 남는 것도 사실입니다. 다만, 그들이 전달하고자 하였던 메시지에서는 꽤나 흥미로운 지점들이 많이 있었던 것이 사실입니다.
CES 2026, 캐터필러가 던진 핵심 메시지는 단순합니다. 우리가 매일 사용하는 AI, 클라우드, 데이터센터, 디지털 서비스는 결국 물리적 세계의 기반 위에서만 작동한다는 것. 캐터필러는 이를 ‘보이지 않는 기술 스택(Invisible Layer of the Tech Stack)’이라고 부릅니다.
AI가 ‘움직이는 지능(intelligence in motion)’으로 산업과 일상을 바꾸는 시대가 되었지만, 그 AI가 돌아가려면 먼저 다음이 필요합니다.
AI 칩을 만들기 위한 광물(구리·철광석·리튬·희토류 등)
모델이 돌아갈 데이터센터(처음부터 “건설”되어야 하는 인프라)
데이터센터와 산업 현장을 유지하는 안정적인 전력 시스템
경제를 연결하는 도로·항구·전력선 같은 대규모 인프라
캐터필러는 바로 이 물리적 기반을 “조용히, 하지만 결정적으로” 구축해 온 기업이며, CES 2026에서는 한 단계 더 나아가 그 기반 자체를 AI와 자율성으로 지능화하겠다고 선언합니다. 즉, AI가 클라우드에서만 똑똑해지는 것이 아니라, 클라우드가 의존하는 물리적 레이어로 내려오는 흐름을 본격화하겠다는 방향입니다.
100년 기업의 다음 100년: 캐터필러의 ‘재정의’
키노트는 캐터필러가 더 이상 “노란 중장비 회사”에 머물지 않는다는 선언으로 시작됩니다. 과거에는 고속도로, 광산, 스카이라인을 만들던 브랜드였다면, 지금은 데이터·연결성·자율성(Autonomy)·AI를 중심으로 중공업의 모습을 다시 그리는 회사라는 것이죠.
특히 캐터필러는 2025년에 창립 100주년을 맞이했고, CES를 “기념”이 아니라 다음 세기를 공개하는 무대로 선택했다고 설명합니다. 가장 혹독한 환경에서도 오차 없이 작동해야 하는 장비에 AI/ML을 내장하고, 데이터를 의사결정으로 전환하며, 자율성을 효율성으로 바꾸고, 지속가능성을 비즈니스 이점으로 만들겠다는 메시지가 이어집니다.
CEO 조 크리드(Joe Creed)가 말하는 ‘규모’와 ‘방향’
키노트에서 소개된 캐터필러의 스케일은 이 전략이 “파일럿”이 아니라는 점을 보여줍니다.
직원 11만 명+
63개국 운영
건설·에너지·채굴은 물론 국방·우주까지 확장된 파트너십
그리고 2025년 CEO로 취임한 조 크리드는 약 30년에 걸쳐 재무·운영·제조·전략을 거쳐 온 내부 전문가로 소개되며, 회사를 미래에 맞게 재편하고 있다고 설명됩니다. 이 키노트가 AI/로보틱스/지속가능성/물류/인프라 산업 관계자에게 중요한 이유도 여기에 있습니다. 레거시 산업의 리더십이 첨단 기술과 결합할 때 무엇이 달라지는지를 ‘현장 기준’으로 보여주기 때문입니다.
“1930년에 이미 그려진 미래” — 캐터필러의 혁신 DNA
흥미로운 장면은 1930년대 이야기를 꺼내는 대목입니다. 키노트에서는 1930년 한 직원이 그린 만화를 소개합니다. 트랙터가 고장 난 고객이 마을로 가지 않고, 거실에서 텔레비전으로 딜러와 영상 통화(원격 진단)를 하고, 딜러는 재고 관리 컴퓨터를 조작하며, 로봇 팔이 부품을 집어 드론처럼 배송해 25분 만에 현장에 도착한다는 내용입니다.
핵심은 “예언”이 아니라 “철학”입니다. 고객의 문제를 중심에 두고 기술을 상상하는 문화가 거의 100년 전부터 존재했고, 지금 AI 시대에도 그 사고방식이 동일한 방향으로 이어진다는 점을 강조합니다.
지능화된 장비: 센서·연결성·AI가 현장을 ‘학습 시스템’으로 바꾼다
캐터필러가 말하는 지능화는 장비에 기능 하나를 더 얹는 수준이 아닙니다. 현장 전체가 “보고, 배우고, 적응하는 시스템”이 되는 것에 가깝습니다.
키노트에서 제시된 흐름은 다음과 같습니다.
1990년대: 집채만 한 자율 채굴 트럭 실험을 시작
건설 현장: 3D 등급 제어 시스템이 디지털 설계도를 GPS 기반 블레이드 지침으로 바꿔 센티미터 단위 정밀 시공을 지원
안전: 센서·비전·예측 분석으로 사람을 배경과 구분하고 위험 상황을 사전에 경고
이 모든 기반: 150만 대+ 연결된 자산이 운영 시간마다 데이터를 생성하며 시스템을 개선
즉, 캐터필러는 장비를 “제품”이 아니라 데이터가 축적되는 운영 플랫폼으로 보고 있습니다.
AI 시대의 진짜 병목은 ‘물리적 세계’에 있다
키노트에서 가장 실무적인 메시지 중 하나는 이것입니다. 오늘날 기술의 병목은 소프트웨어가 아니라 물리적 세계에 있다.
AI는 더 많은 칩을 필요로 하고
칩은 땅에서 채굴되는 광물을 필요로 하며
데이터센터는 현재 그리드가 제공할 수 있는 것보다 더 많은 전력을 요구하고
디지털 경제는 더 빠르게 구축되고, 더 강하게 운영되며, 어떤 상황에서도 온라인 상태를 유지할 인프라를 요구한다
캐터필러는 이 과제들이 “클라우드 소프트웨어만으로 풀 수 있는 문제”가 아니며, 자신들이야말로 이 영역의 병목을 풀 수 있는 고유한 위치에 있다고 주장합니다. 이를 위해 작년에 ‘고객의 가장 어려운 문제 해결’을 미션으로 하는 새로운 전략을 발표했다고 설명합니다.
또한 외부 고객만이 아니라 내부 운영에서도 AI를 적극 사용해 공장을 최적화하고, 디지털 트윈으로 강철을 절단하기 전에 설계·테스트하는 등 자기 혁신을 병행하고 있다고 덧붙입니다.
Cat AI Assistant: 150만 대 장비 데이터에서 태어난 ‘현장형 AI’
CES 2026에서 캐터필러가 최초 공개한 것으로 소개되는 것이 Cat AI Assistant입니다. 키노트에서 Cat AI Assistant는 “챗봇”이 아니라 현장 중심 AI 플랫폼으로 정의됩니다.
Cat AI Assistant를 가능하게 하는 디지털 기반: Helios
최고 디지털 책임자(CDO) 오기 레자케(Augie Redzake)의 설명에 따르면, AI 도입은 강력한 디지털 기반에서 시작됩니다. 캐터필러는 그 기반을 Helios라는 단일 통합 디지털 플랫폼으로 구축했다고 말합니다.
완전 클라우드 네이티브, 이벤트 기반(event-driven)
전 세계 약 150만 대 연결 자산 데이터 통합
초당 수천 메시지 송수신, 하루 수백만 데이터 파이프라인 트리거
16PB+ 재사용 가능한 고품질 데이터 보유(대규모 디지털 자산 구축 사례로 연구 소개되었다는 언급 포함)
정리하면, Cat AI Assistant는 “모델 하나”가 아니라, 대규모 운영 데이터가 흐르는 플랫폼 위에 얹힌 에이전트형 AI입니다.
Cat AI Assistant의 작동 방식: ‘단일 어시스턴트로 보이는 에이전트 그룹’
키노트에서 Cat AI Assistant는 다음 특징을 가집니다.
AI 에이전트 그룹이 함께 작동하지만 사용자에게는 단일 어시스턴트로 제공
멀티모달: 음성·텍스트·이미지·비디오로 상호작용
고객 함대 상태를 파악하고 상황을 이해하며, 애플리케이션/API를 통해 조치(action)까지 수행하는 방향
현장 직무별 가치: “지식의 격차를 메우는 부조종사”
키노트는 Cat AI Assistant가 현장에서 누구에게 어떤 가치를 주는지 직무별로 구체화합니다.
상태 모니터링 분석가: 장비의 추가 ‘눈’ 역할, 정비 시점/부품 추천, 고객 상담을 더 쉽게
기술자(정비): 수천 권 매뉴얼을 손끝에서 보는 것처럼 수리 단계 안내, 일반 문제 강조, 필요한 부품 제안(첫 시도 성공률 향상)
운영자(In-Cab): 질문에 즉시 답하고 생산성 팁 제공, 오류 감소를 돕는 “부조종사(co-pilot)”
실제 데모: Cat 306 미니 굴착기에서 본 ‘인-캡 AI’의 방향
키노트는 콘셉트에 머물지 않고 데모를 제시합니다. 캐터필러 부스에서 마크 퍽스(Mark Perks)가 Cat 306 미니 굴착기 운전석에 앉아 시연한 흐름은 다음과 같습니다.
신규 운영자가 “처음 어떻게 시작하지?”라고 묻자
조이스틱 기능(왼쪽: 스틱/스윙, 오른쪽: 붐/버킷)과 이동 레버를 단계적으로 안내
유틸리티 작업에서 전력선 접근을 제한하기 위해
“E-Ceiling을 머리 위 13피트로 설정”하는 명령을 수행
버킷이 경계에 가까워지면
기계가 자동으로 속도를 낮춰 전력선에 과도하게 접근하지 않도록 방지
출시 계획에 대해서는 Cat AI Assistant가 이번 분기 출시 예정, 인-캡 애플리케이션도 최종 검증 단계로 곧 출시될 예정이라고 소개됩니다.
NVIDIA와의 파트너십: ‘실리콘과 강철이 만날 때’ 생기는 것들
캐터필러는 NVIDIA를 AI 시대의 “보이지 않지만 필수적인 기여자”로 언급하며, 자신들은 물리적 세계에서 동일한 역할을 한다고 대비합니다. 그리고 실리콘(가속 컴퓨팅)과 강철(중공업 장비)이 만날 때 물리적 세계가 디지털 세계만큼 역동적이고 데이터 중심적으로 변한다고 설명합니다.
이런 현장에서 AI는 “클라우드 왕복”으로는 부족하다는 논리입니다. Isaac/Jetson 플랫폼을 통해 인지·계획·제어·안전 모델을 기계에서 실행하고, AI 팩토리에서 센서 데이터를 받아 학습한 모델을 다시 현장 기계로 배포/업데이트하는 루프가 제시됩니다.
NVIDIA Thor 도입: 현장에서 계속 작동하는 AI
또한 캐터필러는 NVIDIA의 최신 로봇 공학 플랫폼 Thor를 차세대 온-머신 인텔리전스에 활용한다고 설명합니다.
음성 인식, 고급 AI 모델, 제어 로직을 기계 자체(엣지)에서 실행
외딴 지역/악천후/험난한 환경에서도 AI가 계속 작동
운영자는 실시간으로 개인적이고 에너지 효율적인 AI 지원을 받음
캐터필러가 강조하는 전제는 명확합니다. 빠르게 혁신하되, 현장은 고객과 커뮤니티에 걸린 것이 크기 때문에 “파괴”가 아니라 안전·신뢰성·신뢰와 결합된 혁신이어야 한다는 것입니다.
자율성의 미래: 30년의 채굴 경험이 건설 현장으로 확장된다
캐터필러는 자율성을 “운영자를 지원하는 지능”에서 더 나아가, “운영자의 지침에 따라 운영자가 되는 지능”으로 정의합니다. 키노트에서 자율 장비는 단지 작은 로봇이 아니라, 3층 건물 크기, 만재된 제트 여객기보다 무거운 기계가 운전석 없이 흙을 옮기는 수준으로 묘사됩니다.
30년 자율 주행 역사(키노트 서술 기준)
1980년대: 카네기 멜론과 파트너십으로 초기 소프트웨어/GPS/인지 시스템 개척
1990년대: 감지·위치 파악·제어 발전, 현재 시스템 기반 구축
2000년대 중반: DARPA 그랜드 챌린지 협력으로 극한 조건에서 의사결정/테스트 확장
레벨 4: 10년도 더 전에 레벨 4 자율성을 제공한 최초 기업 중 하나라는 언급
성과 지표(키노트에서 제시된 수치)
110억 톤 이상의 자재 운반
3억 8,500만 km+ 자율 주행
자동차 산업 자율 주행 마일리지의 두 배 이상을 부상 보고 0건으로 달성했다는 설명
자율성은 기술이 아니라 ‘운영 체계 변화’에서 가치가 커진다: Luck Stone 사례
키노트가 설득력 있는 지점은 “성공은 기술만으로 오지 않는다”는 부분입니다. 미국 최대 가족 소유 쇄석/모래/자갈 생산 업체인 Luck Stone과의 협력 사례가 그 근거로 제시됩니다.
버지니아 Bull Run 채석장에 자율성을 도입
1년여 전 완전 무인 함대를 출시한 뒤, 100톤 트럭이 200만 톤+ 자재를 일관되고 반복 가능한 성능으로 안전하게 운반
운영자/현장 관리는 운전석에서 벗어나 함대 관리·데이터 기반 의사결정 역할로 이동
여기서 캐터필러가 말하는 “진정한 돌파구”는 장비 자동화 자체가 아니라, 고객과 함께 인력·프로세스 전환을 지원해 자율성의 가치를 끝까지 실현한 것이라고 정리됩니다.
건설 현장으로의 확장: ‘자율 건설 장비 5종’과 디지털 신경계
캐터필러는 건설이 자율성에 더 큰 기회를 제공한다고 봅니다. 건설 현장은 역동적이고 복잡하며, 작업량이 크고 사회적 영향도 큽니다. 동시에 안전 문제가 매우 크다는 점도 강조됩니다(키노트에서는 미국 건설업이 전체 노동력 5% 미만이지만 직장 사망 사고 20% 이상을 차지한다는 수치가 언급됩니다).
과거에는 현장이 너무 가변적이라 자율화가 어렵다고 여겨졌지만, 이제는 컴퓨팅과 AI 발전으로 기계가 수십억 데이터 포인트를 기반으로 빠르게 의사결정할 수 있다는 논리가 이어집니다.
그리고 건설 자율성의 다음 시대를 예고하며 5가지 핵심 장비가 공개됩니다.
휠 로더(Wheel Loader)
도저(Dozer)
운반 트럭(Haul Truck)
굴착기(Excavator)
다짐기(Compactor)
캐터필러가 강조하는 포인트는 “장비 하나 자동화”가 아니라, 이 장비들을 통합해 작업 현장 워크플로우를 정밀하고 안정적으로 조율하는 작업 현장의 디지털 신경계입니다.
AI/머신러닝/컴퓨터 비전/엣지 컴퓨팅 기반
LIDAR·레이더·GPS·고해상도 카메라가 협업
센서 데이터를 실시간 처리해 현장의 업데이트되는 디지털 뷰를 생성
수백만 시간의 실제 데이터(ground truth)로 “보는 것”을 넘어 “이해”로 이동
결과적으로 운영자는 조종이 아니라 현장 조율로 역할이 바뀌고, 인간의 판단은 가장 중요한 순간에 개입하는 구조로 재배치됩니다. 캐터필러는 이 변화가 기술 인재 수요를 실리콘밸리에만 가두지 않고, 광산·채석장·도로 공사 현장 등으로 확장할 것이라고 말합니다(키노트에는 한국 현장까지 확장될 가능성을 언급하는 맥락도 포함됩니다).
WM(Waste Management)과의 협력: 자율성은 “미래”가 아니라 “현재 진행형”
키노트는 변화가 하룻밤 사이에 오지 않는다는 점을 인정하면서도, 캐터필러가 “오늘의 가치”를 만들기 위한 다양한 솔루션에 투자하고 있다고 설명합니다. 그 사례 중 하나가 WM(Waste Management)과의 협력으로, 매립지(landfill)에 자율성을 도입하는 시연이 예고됩니다.
결론은 단호합니다. 자율성의 미래는 기다리는 것이 아니라, 이미 여기 있으며, 캐터필러는 이를 하나의 작업 현장, 하나의 돌파구, 하나의 대담한 아이디어로 구축하고 있다는 메시지입니다.
결론: ‘보이지 않는 레이어’가 스마트해질수록, 사람은 더 중요해진다
CES 2026에서 캐터필러가 보여준 그림은 기술의 화려함보다 구조의 변화입니다.
캐터필러는 보이지 않는 물리적 기반을 구축해 왔고
이제 그 레이어는 센서·소프트웨어·연결성·AI로 지능을 얻고 있으며
Helios와 Cat AI Assistant는 고객이 더 많이 보고, 더 빠르게 결정하고, 더 안전하게 작업하도록 돕고
자율성은 채굴에서 검증된 것을 건설로 확장하면서 안전·효율·인력 구조를 재편한다
그리고 마지막 메시지는 “사람”입니다. 보이지 않는 기술 스택이 스마트해질수록, 그 뒤에서 이를 구축하고 운영하는 사람들은 사라지지 않고 오히려 더 가시화된다는 것. 신규 운영자는 첫날부터 가파른 학습 곡선 대신 “지식이 풍부한 부조종사”를 갖게 되고, 조직은 새로운 역할과 커리어 경로를 설계해야 합니다.
이 맥락에서 캐터필러는 1,000만 달러 투자를 약속합니다. 교육·훈련·파트너십에 자금을 투입해 고객, 딜러, 학교, 지역사회와 함께 새로운 역할로의 전환을 지원하겠다는 계획입니다.
정리하면, Caterpillar는 여전히 물리적 세계를 만들고 전력을 공급하지만, 이제는 NVIDIA 같은 파트너와 함께 그 물리적 기반을 훨씬 더 지능적으로 만들고, 동시에 그 변화를 가능하게 하는 인력에도 과감히 투자하겠다는 선언을 CES 2026에서 분명히 했습니다.
CES 2026 지멘스는 산업 AI가 더 이상 ‘기능(Feature)’이 아니라 ‘현실 세계에 직접적인 영향을 미치는 힘(Force)’이 되는 전환점을 선언했습니다. 그리고 그 힘을 안전하고 신뢰할 수 있게 산업 현장에 확산시키기 위해 산업 AI 기술 + 도메인 노하우 + 파트너십을 하나의 엔드투엔드 스택으로 결합하고 있다고 밝혔습니다.
1) CES 2026 지멘스, ‘지능의 시대’ 선언: 전기가 만든 세상처럼, AI가 산업을 재정의한다
지멘스는 CES 2026 메시지를 “비교”에서 시작합니다. 과거 전기 이전의 세계는 사람의 속도에 맞춰 움직였고, 기계는 증기기관이 움직였으며, 아이디어는 편지나 목소리만큼만 빨리 전달됐습니다. 그러나 전기의 등장은 밤을 낮으로 바꾸고 인간의 능력을 증폭시키며 생산성을 끌어올려 현대 생활의 기반이 됐습니다.
지멘스는 그 전기 시대의 전개 과정에서 통신 및 전력망 개척, 대량 생산 기계 개발, 전기 열차를 통한 이동 혁신, 전기의 글로벌 확장에 기여해 왔다고 강조합니다. 그리고 150년이 지난 지금, 에너지(Energy)가 아니라 지능(Intelligence)이라는 새로운 범용 기술, 즉 AI가 등장했다고 선언합니다.
핵심은 속도와 영향력입니다. 지멘스는 사회 변화를 촉발한 기술들의 확산 속도를 비교하며, 증기(60년) → 전기(30년) → 컴퓨터(15년) → AI(7년 또는 그 이하)로 “지능이 일상 시스템에 내재화”되는 시간이 급격히 짧아질 것이라고 봅니다.
특히 지멘스가 강하게 짚는 포인트는 다음입니다.
AI가 물리적 시스템에 들어가는 순간, AI는 단순한 기능이 아니라 ‘힘(Force)’이 된다.
이 힘은 제품 설계·제조, 인프라 구축·운영, 도시·경제 시스템의 적응력과 효율성 자체를 재정의한다.
산업 현장에 배포되는 AI는 환각(Hallucination)이 용납될 수 없으므로, 신뢰성·안전성·속도·확장성을 갖춘 구현이 필수다.
그리고 지멘스는 바로 이 지점에서 “자신들의 역할”을 명확히 합니다. AI 기반 기술, 산업 도메인 노하우, 적절한 파트너를 결합해 산업 AI를 현실 세계 시스템에 쉽게 확장하고 실제 영향을 만들겠다는 것입니다. 이 모든 것은 귀중한 산업 데이터와 연결되며, Siemens Accelerator Marketplace에서 통합 제공된다는 메시지로 이어집니다.
2) 산업 AI 구현을 위한 3가지 핵심 요소: 기술·도메인·파트너
지멘스는 산업 AI를 ‘구호’가 아니라 ‘구현’으로 가져오기 위해 반드시 갖춰야 할 3요소를 제시합니다.
(1) 적절한 기술(The Right Technologies): 엔드투엔드 산업 AI 스택
산업 AI 구현에는 소프트웨어, 하드웨어, GPU 기반 고성능 컴퓨팅, 데이터가 필요합니다. 많은 기업이 디지털 트윈이나 소프트웨어 같은 일부 요소를 갖추고 있지만, 그것만으로 AI 준비가 끝난 것은 아니라는 진단이 나옵니다.
기존 컴퓨팅은 주로 CPU 중심
AI는 GPU 중심
데이터는 종종 파편화되어 사일로에 갇혀 활용되지 못함
따라서 현실 세계에 영향을 주려면 엔드투엔드(End-to-End) 산업 AI 스택이 중요하다고 강조합니다.
(2) 산업 도메인 노하우(Industrial Domain Know-how)
지멘스는 50년 이상 산업용 AI 연구를 지속해 왔고, 1,500명 이상의 AI 전문가, 그리고 25만 명 이상의 엔지니어 조직이 디지털과 현실 세계를 함께 이해하는 기반을 갖췄다고 설명합니다.
또한 30개 산업 분야에서 축적한 노하우를 근거로 듭니다.
제조 자동화, 철도망 운영, 전력망 설계/운영, 건물 효율화 등에서의 장기 고객 경험
전 세계 제조 기계 3대 중 1대에 지멘스 컨트롤러가 작동
지멘스 소프트웨어는 제품과 제조 현장의 포괄적 디지털 트윈을 구축하게 하며, 여기에 AI 경험을 더해 왔음
이 경험이 결국 “어떤 데이터가 중요한지”, “어떻게 클러스터링해야 하는지”, “어떤 AI 애플리케이션이 합리적인지”, “어떤 결정은 인간에게 남겨야 하는지”를 구분하는 실전 감각으로 연결된다는 주장입니다.
(3) 적절한 파트너(The Right Partners)
산업 설계·제조·운영 데이터를 활용하려면 막대한 컴퓨팅 파워가 필요하며, 이는 중앙집중식 AI 팩토리(AWS·Microsoft 등)뿐 아니라 엣지(Edge)에서도 필요하다고 강조합니다.
GPU 기반 대규모 컴퓨팅이 가능해지면:
디지털 트윈이 수천 가지가 아니라 수십만 가지 옵션을 탐색할 수 있고
복잡한 산업 파운데이션 모델이 전례 없는 양의 산업 데이터로 훈련되며
디지털 트윈이 공장 전체를 실시간으로 제어하는 단계로 갈 수 있다는 그림이 제시됩니다.
결국 3요소가 결합될 때, 기업은 “문제 보고”를 넘어 “문제 예측”으로 이동하고, 기계가 자율적으로 조정하며, 인간은 오류에 반응하는 역할에서 벗어나 아이디어를 속도·품질·효율로 현실 세계의 영향으로 전환할 수 있다는 메시지로 정리됩니다.
3) NVIDIA와의 협력: 산업 AI 운영 체제를 향한 5대 협력 분야
지멘스 CEO 롤랜드 부시(Roland Busch)는 NVIDIA CEO 젠슨 황(Jensen Huang)을 “비전 있는 엔지니어링 마인드”로 소개하며, 양사가 2022년 뮌헨 지멘스 본사에서 파트너십을 시작했다고 설명합니다. 공통된 목표는 사실상 하나입니다. 산업 AI 운영 체제(Operating System)에 가까운 기반을 구축해 설계·시뮬레이션·계획·운영 방식을 혁신하는 것.
사례: HD현대 선박·조선소 디지털 트윈
HD현대는 지멘스와 NVIDIA 기술로 거대한 선박과 조선소를 건설하고 있고, 선박 디지털 트윈은 모든 너트와 볼트까지 포함하는 완벽한 CAD 모델이며 사람의 작업까지 시뮬레이션한다고 소개됩니다. 선박은 겉모습이 비슷해도 각각 개별적이어서, 디지털에서 설계·최적화 후 실제 건조해야 한다는 맥락에서 디지털 트윈의 필수성이 강조됩니다.
지멘스 전체 스택과 NVIDIA Omniverse 결합으로 포토리얼리스틱 표현이 가능해지고, 장차 가상 바다에서 작동까지 시뮬레이션하는 미래를 희망한다는 발언도 연결됩니다. 결론은 명확합니다. 실제 선박을 물에 띄우기 전에 모든 문제를 해결해야 하므로 디지털 트윈이 필수라는 것.
4) 산업 AI 혁명을 가속화하는 5대 협력 영역(지멘스 × NVIDIA)
지멘스와 NVIDIA는 산업 AI를 더 빠르게 확장하기 위해 5가지 협력 분야를 명시합니다.
1) AI 네이티브 칩 설계(AI Native Chip Design)
젠슨 황은 최신 GPU ‘Vera Rubin’을 예로 들며, 이는 240kW 전력을 소모하는 거대한 랙 규모의 시스템이고 총 220조 트랜지스터로 구성된다고 설명합니다. 이 시스템을 만들기 위해 CPU, GPU, 네트워킹 스위치(스케일업/스케일아웃), 스마트 NIC, 스토리지용 데이터 프로세서 등 6가지 고유 칩 설계가 필요했고, 하나의 시스템에 15만 엔지니어링 년(engineering years)이 투입됐다는 맥락으로 “설계 복잡성의 폭발”을 강조합니다.
여기서 협력의 첫 단계가 구체적으로 제시됩니다.
Siemens EDA(전자 설계 자동화) 소프트웨어와 Simcenter를 GPU로 가속
NVIDIA CUDA를 활용해 EDA 소프트웨어를 재작성(rewrite)하여
100배 더 빠르게,
백만 배 더 확장 가능한 수준을 목표로 한다는 내용입니다.
궁극적으로는 방대한 데이터로 모델을 훈련해 설계 검증을 넘어 새로운 설계 아이디어 제안까지 하는 AI 네이티브 칩 설계를 지향합니다. 즉, 엔지니어의 목표가 Verilog를 “작성”하는 데서 끝나는 것이 아니라, 문제 해결과 솔루션 구상으로 이동하고, AI 기반 EDA 디자이너가 함께 탐색하는 미래입니다.
2) AI 네이티브 시뮬레이션(AI Native Simulation)
시뮬레이션은 막대한 수치 연산을 포함하지만 여전히 CPU에서 실행되는 경우가 많습니다. 지멘스는 이를 GPU로 가져와 수백~수천 배 가속하는 것을 첫 단계로 제시합니다(BMW 공기 흐름 시뮬레이션 같은 사례 언급).
여기서 목표는 “검증”이 아니라 “창조”입니다. Simcenter를 CUDA/CUDA-X로 완전히 가속화하고, 더 나아가 AI에 물리 법칙을 학습시켜 물리 현상을 모방(emulate)하게 함으로써 물리 시뮬레이션을 1만~10만 배 가속해 “디지털 트윈 풍동에서 실시간 실험” 같은 접근을 가능하게 하겠다는 방향이 제시됩니다.
3) AI 기반 적응형 제조(AI Driven Adaptive Manufacturing)
젠슨 황은 오늘날 자동차를 센서·컴퓨터·소프트웨어·AI로 구동되는 “소프트웨어 정의 로봇”으로 비유하고, 같은 논리로 자동차 공장 역시 하나의 거대한 로봇이 될 것이라고 설명합니다. 공장은 로봇을 조직화하고, 그 로봇들은 다시 ‘로봇인 제품(소프트웨어 정의 자동차)’을 만들게 되는 미래—즉 로봇이 로봇을 조직화하여 로봇을 만드는 구조입니다.
지멘스는 이미 제조 공장의 운영체제 역할을 하고 있으므로, 이 기반 위에서 제조를 소프트웨어 정의로 만들고 AI 기반으로 전환하겠다는 목표를 밝힙니다. 또한 2026년 독일에서 최초의 완전 AI 기반 적응형 제조 현장 시작 계획이 제시되며, 디지털 트윈이 생성하는 정보를 실시간으로 소비하는 “AI 두뇌”를 자동화·운영 소프트웨어 위에 구축하는 방식으로 설명됩니다.
폭스콘(Foxconn)이 NVIDIA와 함께 AI 슈퍼컴퓨터를 구축하는 공장 운영 사례도 함께 언급되며, 설계·시뮬레이션·제조가 GPU·CUDA·지멘스·AI로 구동되는 그림이 제시됩니다. 디지털 트윈의 목표는 “물리적·운영적으로 중요한 모든 면에서 완벽한 표현”이며, 궁극적으로는 AI가 디지털 트윈과 물리 세계를 구별할 수 없을 정도의 복제본을 만드는 것입니다.
4) AI 팩토리(AI Factories) 구축
AI 팩토리는 지능을 생산하는 공장이고, 새로운 AI 팩토리(예: Vera Rubin)는 기존 데이터센터와 다르게 설계되어야 합니다. 젠슨 황은 1기가와트 규모 공장은 500억 달러 투자가 드는 전례 없는 시설이며, 설계 변경·일정 지연이 용납되지 않는다고 말합니다.
따라서 AI 팩토리 구축 전 디지털 트윈을 생성해 모든 것을 사전 계획/시뮬레이션해야 하고, 운영 단계에서도 슈퍼컴퓨터·네트워크·스토리지·전력·냉각 등 전체 시스템을 정밀 제어해야 하므로 디지털 트윈 없이 구축/운영 성공 가능성은 극히 낮아지게 됩니다.
지멘스와 NVIDIA는 AI 팩토리 청사진 설계를 공동 구축했고, 지멘스 자동화 기술은 변동 수요 패턴에 대응할 수 있다는 설명이 이어집니다. 또한 지멘스가 175년간 전력망 운영 노하우를 축적해 왔고, AI 팩토리를 전력망에 연결하는 방법을 안다는 맥락도 결합됩니다.
5) 상호 기술 활용 및 개발 가속화(Drinking Our Own Champagne/Beer)
양사는 서로의 기술을 더 깊이 활용해 개발 속도를 높이겠다고 강조합니다.
NVIDIA는 Siemens EDA 가속 → 더 빠른 칩 설계
그 결과가 다시 EDA 가속에 활용되는 선순환
NVIDIA는 Simcenter 가속 → AI 팩토리 설계/시뮬레이션 가속
공장 자동화로 슈퍼컴퓨터 구축 → 그 슈퍼컴퓨터가 만든 AI가 다시 지멘스 AI 팩토리를 생산적으로 만드는 구조
젤슨 황의 표현대로 “파트너의 버그를 고치면 그 이점이 내 엔지니어에게 바로 돌아온다”는 식의, 매우 실리적인 상호 가속 모델이 제시됩니다.
5) 디지털 트윈 컴포저(Digital Twin Composer): 산업 메타버스를 ‘실제 운영 시스템’으로
롤랜드 부시는 CES에서 “산업 메타버스 비전을 현실화하고 있다”고 선언하며 Digital Twin Composer 출시를 발표합니다. 이 도구의 핵심은 단순 3D 모델링이 아니라, 다음을 한 번에 묶는다는 점입니다.
모든 제품·공장·프로세스의 가상 3D 모델 생성
포토리얼리스틱한 장면에서 실시간 구현
엔지니어링 데이터, 날씨 데이터, 기계 시계열 데이터 등 실시간 데이터 연결
문제 발생 시 원인 추적(시간을 거슬러) 또는 구축 전 미래 시뮬레이션
더 중요한 연결은 “운영 스택”입니다. Digital Twin Composer를 지멘스의 운영 소프트웨어 및 하드웨어 스택에 연결하면, 가상 환경에서 속도·온도·압력 등 품질과 수율을 결정하는 매개변수를 최적화하고 그 변경을 실제 현장에 반영하는 흐름을 만들 수 있다고 설명합니다. 또한 이 도구는 Siemens Accelerator Marketplace에서 제공될 예정이라는 안내로 이어집니다.
6) 실제 적용 사례: 펩시코(PepsiCo)가 보여주는 ‘효율의 숫자’
지멘스가 제시한 대표적 현실 사례가 펩시코입니다. 펩시코는 농장에서 선반까지 글로벌 운영을 수행하고, 수요 급증이나 토네이도 같은 이례 사건에도 공급을 맞춰야 하는 복잡한 환경에 있습니다. 특히 50년 된 창고 같은 기존 자산을 포함해 시설 용량을 극대화하고 처리량을 늘려야 한다는 과제가 있습니다.
펩시코는 디지털 우선 설계를 채택해, 물리 건설 전에 디지털 트윈으로 레이아웃을 공동 설계·시뮬레이션·최적화합니다. 그리고 Digital Twin Composer를 통해:
대규모 데이터를 통합된 몰입형 환경에서 시뮬레이션
AI 기반 시뮬레이션으로 수백~수천 개 레이아웃을 탐색해 최적안 도출
기존에는 수개월 걸리던 작업을 며칠로 단축
성과로는 미국 게토레이(Gatorade) 공장 적용 결과 3개월 만에 효율 20% 증가, 그리고 전체 운영에서 CapEx 10~15% 절감 추정이 제시됩니다.
이외에도 KION의 공급망/창고 혁신(개발 기간 수년→수개월), PAVE 360 Automotive(자율주행 시스템 디지털 트윈으로 차량 하드웨어를 디지털에서 복제해 개발 가속), ARM 자동차 IP 통합을 통한 ADAS·인포테인먼트·AI 조종석 기능 지원 등의 사례가 추가로 언급됩니다.
7) 생명 과학(신약 개발) 혁신: AI + 디지털 트윈이 “발견부터 제조까지” 바꾼다
지멘스는 산업 AI를 제조·물류에만 한정하지 않고, 생명 과학(제약)까지 확장합니다. 신약 개발은 10년 이상, 비용은 최대 20억 달러에 달할 수 있는 고비용·장기 프로젝트입니다. 지멘스는 AI를 초기 연구부터 제조까지 전 단계에 적용해 혁신을 가속한다고 말합니다.
연구 단계: 과학자들은 암 치료제 연구 등에서 수십억 데이터 포인트를 생성하지만 데이터가 분산됨
지멘스 플랫폼 Luma로 데이터를 통합·구조화하고 자연어로 질문 가능
AI 기반 시뮬레이션으로 분자 거동을 시뮬레이션해 유망 분자 구조를 250만 배 더 효율적으로 식별
제조 단계: 바이오리액터 디지털 트윈으로 디지털에서 실험을 먼저 실행해 시행착오 감소
최고 품질·최고 생산량을 디지털에서 확인한 후 실제 생산 시작
결과적으로 발견→제조를 가속해 치료법이 시장에 최대 50% 더 빠르게 출시될 수 있다고 설명
8) Microsoft 파트너십: 산업 데이터로 훈련되는 맞춤형 모델·에이전트, 그리고 ‘AI 3가지 물결’
이런 혁신에는 NVIDIA와 논의한 GPU 인프라(AI 팩토리)뿐 아니라, Microsoft 같은 파트너의 클라우드 인프라도 필요하다고 연결됩니다. Microsoft CEO 사티아 나델라(Satya Nadella)는 디지털 지능과 물리적 운영을 결합해 설계·구축·운영 방식을 재창조할 기회가 있다고 강조하고, 지멘스의 도메인 전문성과 Microsoft의 신뢰 가능한 클라우드/AI 역량 결합을 통해 지속 가능한 에너지·운송·스마트 시티·정밀 의학 등 문제 해결을 돕고 있다고 말합니다.
특히 Microsoft 핵심 AI 팀 리더 제이 파리크(Jay Parikh)가 제시한 “AI 3가지 물결”은 산업 AI의 다음 단계를 이해하는 데 중요한 프레임입니다.
1물결: 챗봇/질문/코드 완성
2물결: 특정 작업 위임(긴 문서 작성 등)
3물결: 여러 에이전트가 오케스트레이션되어 더 복잡·장기 작업 수행
여러 모델, 자체 모델 훈련, 엔터프라이즈 데이터 통합, 에이전트 오케스트레이션
보안, 관찰 가능성, 규정 준수 등 엔터프라이즈 추상화 필요
Microsoft는 이 3물결에 집중하며, 이것이 산업별 사용 사례 적용의 핵심이라고 설명합니다.
롤스로이스(Rolls-Royce) 사례: 코파일럿이 CAM 시간을 80% 줄였다
롤스로이스는 항공기 터빈을 제조하며 100% 신뢰성과 연료 효율성을 목표로 합니다. 핵심 부품인 유압 펌프는 지멘스 소프트웨어와 Microsoft 기술로 설계되며, 펌프 자체 디지털 트윈과 가공 기계 디지털 트윈을 함께 두고 공정을 시뮬레이션합니다. 결과적으로 펌프가 더 단단하고 가벼워졌고, 지멘스·Microsoft 공동 AI 코파일럿으로 CAM 프로그래밍 시간이 80% 단축, 공장 생산성 30% 향상 성과가 제시됩니다. 또한 GitHub 플랫폼 제공으로 개발 혁신을 가속한다는 내용도 연결됩니다.
9) 문화적 변화와 현장 적용: 9개 산업 코파일럿 추가 + META 스마트 글래스
제이 파리크는 지난 1년 고객 대화의 70~80%가 기술이 아니라 문화·사람·조직 변화에 관한 것이었다고 말합니다. 그리고 다음과 같은 현실 장벽을 짚습니다.
직원들은 개인 생활에서 AI를 쓰지만, 회사에서는 규정 준수·위험·보안·재정·인센티브 문제로 채택이 막힌다
조직이 함께 배우고 변화 문화를 공개적으로 공유해야 한다
AI 모델/플랫폼 역량은 우리가 인식하는 것보다 더 크므로, “야망 수준”을 높여야 한다
이 맥락에서 지멘스는 CES에서 AI 기반 산업 코파일럿 9개를 추가 출시하며, 산업 가치사슬 전반에 지능을 제공해 설계·엔지니어링·운영 방식을 바꾼다고 설명합니다.
또 하나의 흥미로운 연결이 META와의 협력(레이밴 META 글래스)입니다. 산업 AI용으로 현장 접근성을 높이기 위해 스마트 글래스를 제작하고, 현장 직원에게 실시간 오디오 안내로 “어떤 버튼을 누르고 어떤 매개변수를 변경해야 하는지”까지 안내하는 시나리오가 제시됩니다.
신입 직원 ‘사라’가 AI 코파일럿을 통해 실시간 기계 데이터, 동료 지식, 표준 운영 절차를 통합해 자신의 속도와 언어로 안내받고, 센서 문제를 예측·해결하는 과정을 따라가며 더 빠르고 자신감 있게 문제를 해결한다는 현장 스토리가 이어집니다. 초기 테스트에서 자신감과 생산성 향상이 있었다는 언급도 포함됩니다.
10) 미래 에너지: 핵융합(Fusion)과 전력망 안정화까지 산업 AI가 확장된다
지멘스는 산업 AI가 확산될수록 기가와트급 전력 수요가 생기며 전력 공급이 병목이 될 수 있다고 진단합니다. 이 지점에서 Commonwealth Fusion Systems(CFS)의 핵융합 상용화 도전이 연결됩니다.
핵융합은 “지구상에 별을 담는 기계”인 토카막(tokamak)으로 구현
시뮬레이션 도구·물리 이해·복잡 제조 기술 스택 발전으로 “지금 가능해졌다”는 논리
CFS는 지멘스 소프트웨어로 자석 설계, 공장 운영, 플랜트 제어 등 전체 산업 개발
시연 장치 Spark는 투입 에너지보다 더 많은 에너지 생성으로 실현 가능성 검증 목표
상업용 기계 Arc는 버지니아에 건설 예정이며 약 400MW 전력 생산 목표
Google이 Arc 전력 구매에 합의했다는 내용이 함께 언급
제어 시스템은 NVIDIA 컴퓨팅과 DeepMind가 가속화한 대규모 시뮬레이션으로 검증된 소프트웨어를 실행한다는 연결도 제시됩니다.
한편, 설령 풍부한 청정 에너지가 생기더라도 “전력망 가용성/안정성”이라는 병목이 남는다고 말합니다. 태양광·풍력처럼 간헐적 에너지원이 늘면서 전력망이 불안정해질 수 있으므로, 실시간 부하 예측과 안정화가 필요하다는 것입니다.
지멘스는 산업 AI가 대규모 전력망에서도 자율적으로 이를 수행할 수 있고, 예를 들어:
전기차 1만 대 추가가 지역에 미치는 영향을 시뮬레이션하거나
도시 전체 건물이 에어컨을 30초 낮춰 부하를 조정하는 방식으로 전력망 안정화에 기여할 수 있다고 설명합니다. 그리고 이미 AI로 기존 인프라 추가 없이 전력망 용량을 최대 20% 극대화하고 있다는 결론으로 이어집니다.
11) 최종 요약: CES 2026 지멘스가 제시한 산업 AI 청사진(현장 적용 관점)
CES 2026에서 지멘스가 던진 메시지는 기술 트렌드 소개가 아니라, 산업 AI를 ‘현실 세계 영향’으로 바꾸는 방법론에 가깝습니다. 이를 한 장의 청사진으로 정리하면 다음과 같습니다.
산업 AI는 전기처럼 결국 “삶의 사실(a fact of life)”이 될 것이다.
이를 위해 기업은
엔드투엔드 산업 AI 스택(기술·GPU·데이터)을 갖추고
도메인 노하우로 신뢰성과 안전성을 확보하며(환각 불가)
클라우드/엣지 파트너십으로 속도와 확장을 만든다.
NVIDIA와는 칩 설계, 시뮬레이션, 적응형 제조, AI 팩토리, 상호 기술 활용이라는 5개 축에서 “개발 속도 자체를 가속”한다.
Digital Twin Composer로 디지털 트윈을 모델링 수준에서 끝내지 않고, 실시간 데이터와 운영 스택에 연결해 “현장 최적화”까지 가져간다.
펩시코·롤스로이스·HD현대·신약 개발·핵융합·전력망 안정화 사례는 산업 AI가 제조/물류를 넘어 사회 시스템으로 확장되는 방향을 보여준다.