3734550 ces video thumbnail

CES 2026 AMD 키노트 총정리: “AI Everywhere for Everyone”을 현실로 만드는 MI455·Helios·Ryzen AI 400의 모든 것

목차

CES 2026 AMD가 던진 한 문장: AI Everywhere for Everyone

CES는 늘 “다음 세대”를 미리 보여주는 무대였지만, CES 2026 AMD가 강조한 메시지는 유독 선명했습니다. AI는 더 이상 개념이나 실험실 데모가 아니라, 실제 산업과 일상에서 움직이며 작동하는 ‘움직이는 지능(intelligence in motion)’이 되었고, 그 변화의 속도는 이제 “가속”이라는 말로도 부족하다는 진단이었습니다.

기조연설에서 AMD CEO 리사 수(Lisa Su) 박사가 던진 핵심은 단순히 “AI가 중요하다”가 아니었습니다. AMD는 AI를 ‘누구나’ ‘어디서나’ 쓰게 만드는 컴퓨팅 기반을 만들겠다고 선언했고, 그 비전을 한 문장으로 압축한 표현이 바로:

“AI Everywhere for Everyone”

즉, 클라우드·PC·엣지(Edge)까지 모든 컴퓨팅 플랫폼에 AI를 통합해 AI를 보편화하겠다는 전략입니다. 그리고 이 비전은 말이 아니라 구체적인 하드웨어 로드맵(Helios/MI455, Ryzen AI 400)과 개방형 소프트웨어(ROCm), 그리고 산업 리더들과의 협력 사례(OpenAI, Luma AI, Blue Origin 등)로 연결되어 제시됐습니다.

CES 2026 AMD

왜 지금 ‘요타 스케일(Yotta Scale)’인가

CES 2026 AMD가 가장 강하게 밀어붙인 프레임은 “요타 스케일 컴퓨팅”입니다. 요지는 단순합니다. AI 사용자가 폭발적으로 늘면서, AI를 굴리는 ‘컴퓨팅 수요’가 기존 인프라의 상상을 벗어난 규모로 튀어 올랐다는 것.

  • ChatGPT 이후 AI 사용자는 수백만 → 10억+으로 확대됐고
  • AI가 휴대폰·인터넷처럼 필수 요소가 되면 활성 사용자는 50억+까지 갈 수 있으며
  • 컴퓨팅 수요는 2022년 약 1 제타플롭(Zettaflop) → 2025년 100 제타플롭+로 커질 수 있다고 전망됩니다.
  • 그리고 이 혁신 속도를 감당하려면 향후 5년 동안 10 요타플롭(Yotta Flops)+가 필요하다는 주장까지 연결됩니다.

여기서 “요타”는 숫자 감각을 깨뜨립니다. 1 요타플롭 = 1 뒤에 24개의 0이 붙는 연산 규모이고, 10 요타플롭은 2022년 대비 10,000배 수준이라는 설명이 이어집니다.

그래서 AMD의 결론은 이렇게 정리됩니다. AI를 어디에나 구현하려면 클라우드(전 세계 지능 공급) + PC(개인화·생산성) + 엣지(실시간 결정), 이 3축이 동시에 AI-ready가 되어야 하고, 이를 위해서는 GPU/CPU/NPU/맞춤형 가속기까지 전 스펙트럼의 컴퓨팅 엔진을 모두 갖춘 기업이 필요하다는 것. AMD는 바로 그 “풀 스택 컴퓨팅 엔진”을 자신들의 차별점으로 제시합니다.


클라우드 AI의 핵심: Helios 랙 스케일 + Instinct MI455

요타 스케일의 “본진”은 결국 클라우드입니다. 가장 큰 모델이 훈련되고, 수십억 사용자에게 지능이 전달되는 곳이기 때문입니다. AMD는 현시점에서의 포지셔닝도 함께 강조합니다.

  • 주요 클라우드 제공업체들이 AMD EPYC CPU를 사용하고 있으며
  • 상위 10개 AI 기업 중 8개가 Instinct 가속기로 모델을 구동하고 있다는 점을 전면에 둡니다.

그리고 이번 CES 2026에서 가장 큰 하드웨어 발표로 연결된 것이 바로 차세대 랙 스케일 플랫폼 ‘Helios’와 그 중심인 Instinct MI455(및 MI455X)입니다.

Helios가 노리는 것: 랙 단위를 ‘하나의 컴퓨터’로 만들기

AMD가 말하는 요타 스케일 AI 인프라의 조건은 3가지로 읽힙니다.

  1. 세대 교체에 맞춰 진화 가능한 개방형·모듈식 랙 설계
  2. 수천 개 가속기를 하나의 통합 시스템으로 묶는 고속 네트워킹
  3. 배포가 쉬운 턴키(turnkey) 솔루션

Helios는 이 조건을 “랙 레벨”에서 구현한 플랫폼으로 소개됩니다.

MI455X 핵심 스펙(공개 내용 기준)

Helios의 시작점은 MI455X GPU입니다. 발표 내용의 숫자들은 매우 공격적입니다.

  • 2nm 및 3nm 공정 기반
  • 3,200억(320B) 트랜지스터 (MI355 대비 70% 증가)
  • 12개의 2nm/3nm 컴퓨팅·I/O 칩렛
  • 432GB HBM4
  • 차세대 3D 칩 스태킹(3D chip stacking) 기반 연결

즉, “칩렛 + HBM4 + 3D 패키징”을 총동원해 대형 모델/대형 배치/대규모 병렬에 유리한 구조를 만들었다는 메시지입니다.

Venice EPYC(젠6) + Pensando 네트워킹까지 ‘트레이 단위’로 통합

Helios는 GPU만 던져놓는 설계가 아니라, EPYC CPU와 네트워킹 칩까지 컴퓨팅 트레이에 묶는 형태로 설명됩니다.

  • Venice EPYC CPU: 2nm 공정, 최대 256개 Zen 6 코어
    • 이전 세대 대비 메모리 및 GPU 대역폭 2배로 랙 스케일에서 GPU에 데이터 공급을 극대화했다는 포지셔닝
  • 네트워킹: 800GbE급 Pensando(Volcano, Selina 등 언급) 기반 초고대역폭·초저지연

“랙 안의 72개 GPU가 단일 컴퓨팅 장치처럼”

Helios 구조 설명에서 인상적인 포인트는 연결 방식입니다.

  • 랙 내 72개 GPU
  • 이더넷 터널링 기반의 고속 초가속기 링크 프로토콜로 연결되어
  • 단일 컴퓨팅 장치처럼 동작할 수 있다는 서술이 등장합니다.

또한 Helios 랙 여러 개(수천 개 규모)는 산업 표준 초이더넷 NIC와 Pensando 프로그래밍 가능 DPU로 연결되며, DPU가 GPU 작업 일부를 오프로드해 성능을 더 끌어올린다고 설명됩니다.

Helios 물리 설계: OCP 개방형 랙 와이드 표준 + Meta 협력

Helios는 Meta와 협력해 개발된 OCP(Open Compute Project) 개방형 랙 와이드 표준을 기반으로 하는 더블 와이드 설계로 소개되며, 랙 무게가 거의 7,000파운드에 달한다고 언급됩니다. 즉, 데이터센터 운영 관점에서 서비스 용이성·제조 용이성·신뢰성을 최적화하려는 방향이 강조됩니다.

성능 지표(발표 기준)

Helios 랙 한 대 기준으로 공개된 지표는 다음과 같이 정리됩니다.

  • 18,000개+ CDNA5 GPU 컴퓨팅 유닛
  • 4,600개+ Zen 6 CPU 코어
  • 최대 2.9 엑사플롭스(Exaflops) 성능
  • 랙당 31TB HBM4
  • 260TB/s 스케일 대역폭

그리고 “성능 도약”을 이렇게 요약합니다.

  • MI355가 이전 세대 대비 최대 3배 추론 처리량을 제공했다면
  • MI455는 더 나아가 광범위 모델/워크로드에서 최대 10배 성능을 제시한다는 것.

Helios는 “올해 말 출시 예정”으로 언급되며, AI 성능의 새 기준을 세울 것으로 기대된다는 톤으로 마무리됩니다.


OpenAI 협력: 에이전트 컴퓨팅이 요구하는 인프라의 방향

키노트의 전개가 흥미로웠던 이유는, AMD가 하드웨어 스펙만 늘어놓지 않고 “왜 이 정도가 필요해졌는가”를 OpenAI와의 대화로 풀어냈다는 점입니다. 무대에는 OpenAI 공동 설립자이자 사장인 그렉 브록만(Greg Brockman)이 등장합니다.

그가 던진 메시지를 한 줄로 요약하면 이렇습니다. AI는 ‘질문-답변’에서 끝나지 않고, 앞으로 ‘며칠 동안 일하는 에이전트 워크플로우’로 넘어간다.

“모델 능력의 기하급수적 발전 = 유용성의 기하급수적 확대”

브록만은 ChatGPT가 오랜 준비 끝에 등장한 결과였고, 이제 AI는 단순 텍스트 상자를 넘어 헬스케어, 신생아 관리처럼 개인적이고 중요한 영역까지 들어왔다고 말합니다. 엔터프라이즈에서는 Codex 같은 모델이 소프트웨어 엔지니어링을 바꾸고 있으며, “올해는 엔터프라이즈 에이전트가 본격화될 것”이라는 전망도 이어집니다.

에이전트 시대의 컴퓨팅: 저지연과 초고처리량, 두 체제가 공존한다

OpenAI 관점에서 미래 컴퓨팅 환경은 “인간의 주의(attention)와 의도(intent)가 가장 귀한 자원”이 되는 세계이며, 그래서 컴퓨팅은 두 가지 모드가 필요하다고 정리합니다.

  • 사람이 관여할 때는 초저지연(low latency) 상호작용
  • 백그라운드에서는 지속 실행되는 초고처리량(high throughput) 에이전트 컴퓨팅

즉, “빠른 반응성”과 “거대한 처리량”이 동시에 필요해진다는 뜻이고, 이 요구가 곧 MI455/Helios 같은 랙 스케일 전략으로 연결됩니다.

컴퓨팅 제약과 성장의 상관: “컴퓨팅이 곧 경쟁력”

브록만은 OpenAI가 지난 몇 년 동안 컴퓨팅 사용량을 매년 3배씩 늘렸고 매출도 3배 증가했다고 언급하며, 새로운 모델/기능이 나올 때마다 내부적으로도 컴퓨팅 확보 경쟁이 있을 정도로 compute constrained 상태라는 취지의 설명을 덧붙입니다. 나아가 향후 GDP 성장까지 “어디에 얼마나 컴퓨팅이 있느냐”가 좌우할 수 있다는 관점도 제시됩니다.

AMD와 OpenAI의 “공동 설계”

핵심은 이 문장입니다. MI455와 Helios가 OpenAI 엔지니어링 팀 피드백을 통해 긴밀히 협력하며 개발되었다는 점. 즉, 단순 고객-공급자 관계가 아니라, “에이전트 워크로드가 요구하는 리소스 균형”을 함께 맞춰가는 그림으로 제시됩니다.


MI400 포트폴리오와 ROCm: “개방형”이 성능이 되는 시대

AMD는 Helios/MI455를 “정점”으로 두고, 그 아래를 MI400 시리즈 포트폴리오로 촘촘히 채웁니다. 방향성은 명확합니다. 클라우드 하이퍼스케일 훈련부터 엔터프라이즈 배포, 주권 AI, 슈퍼컴퓨팅까지 “환경이 다르면 폼팩터도 달라야 한다”는 것.

  • Helios: 하이퍼스케일 훈련 + 랙 스케일 분산 추론
  • Instinct MI440X GPU: 엔터프라이즈 배포에 초점. 기존 데이터센터 인프라에서 쓰기 쉬운 컴팩트 8GPU 서버 구성에서 리더십 훈련/추론 성능
  • MI430X 플랫폼: 주권 AI 및 슈퍼컴퓨팅처럼 “정확도”가 중요한 환경을 겨냥. 과학 데이터 타입과 AI 데이터 타입을 함께 다루는 하이브리드 컴퓨팅 강조

그리고 이 포트폴리오를 가능하게 하는 기술 기반으로 칩렛(chiplet)이 반복해서 등장합니다. “워크로드에 맞는 컴퓨팅”을 만들 수 있다는 논리입니다.

ROCm: AI 시대에 ‘소프트웨어 스택’은 선택이 아니라 생존

AMD가 개방형 생태계를 강하게 주장하는 지점은 ROCm입니다. 발표의 톤은 단호합니다.

  • AI의 미래는 개방형 인프라 + 공유 기술 표준을 중심으로 업계가 협력할 때 가속된다.
  • AMD는 하드웨어·소프트웨어·솔루션 생태계 전반에서 개방성을 제공하는 유일한 회사라는 포지셔닝을 취한다.
  • ROCm은 “업계에서 가장 성능이 뛰어난 AI용 개방형 소프트웨어 스택”이라고 정의된다.
  • PyTorch, vLLM, SGLang, Hugging Face 등 상위 오픈소스 프로젝트에서 기본 지원되며, 모델 허브/프레임워크/도구를 출시 당일부터 지원한다고 강조한다.

정리하면, AMD는 “하드웨어만 좋은 회사”가 아니라, 개발자가 ‘바로 쓰게 만드는’ 소프트웨어 스택을 AI 승부처로 끌어올립니다.


Luma AI: 3D·비디오 생성이 ‘산업’이 되는 순간

AI가 텍스트를 넘어서 산업을 바꾸는 순간을 보여주는 파트너로, Luma AI가 무대에 오릅니다. CEO이자 공동 설립자인 아밋 자인(Amit Jain)은 Luma의 미션을 “세상을 이해하고 시뮬레이션하며 개선하는 멀티모달 일반 지능”으로 설명합니다.

Ray 3: “추론 비디오 모델”이라는 프레임

발표에서 Ray 3는 다음과 같이 소개됩니다.

  • 세계 최초의 추론 비디오 모델
    • 단순 생성이 아니라, 픽셀과 지연 시간을 먼저 고려하고 “무엇을 생성할지” 결정할 수 있다는 설명
  • 세계 최초로 4K 및 HDR 생성 지원
  • 광고·미디어·엔터테인먼트 기업과 개인 창작자까지 폭넓게 사용
  • 2025년 말에는 90분 장편 영화 제작에 사용하는 등 대규모 배포가 진행 중

여기서 중요한 통찰은 “제어(control)”입니다. 고객들은 정밀한 제어를 원했고, Luma는 제어가 더 나은 프롬프트가 아니라 더 높은 지능에서 나온다는 결론에 도달했다고 말합니다.

Ray 3 Modify: ‘세계 편집(World Editing)’의 시대

Ray 3 위에 구축된 Ray 3 Modify는 실사 또는 AI 푸티지를 가져와 원하는 만큼 바꾸는 세계 편집 기능을 제공하며, 이로 인해 인간의 동작·타이밍·방향 자체가 프롬프트가 되는 하이브리드 인간-AI 프로덕션이 가능해진다는 서사가 이어집니다.

2026년은 “에이전트의 해”

Luma는 2026년을 에이전트의 해로 선언하며, “작업의 일부”가 아니라 엔드투엔드 작업 전체를 수행하는 에이전트로 진화할 것이라고 봅니다. 멀티모달 에이전트 데모에서는 스크립트를 가져와 시각화하고, 장편 비디오를 분석하며, 캐릭터·장면·스토리의 일관성을 유지한 채 필요한 순간에만 편집하는 방향이 제시됩니다.

AMD 선택 이유: 추론 경제성과 TCO

Luma가 AMD를 선택한 이유는 명확히 “경제성”으로 연결됩니다.

  • 멀티모달 워크로드는 텍스트 모델보다 수백~수천 배 더 많은 토큰을 소비할 수 있다.
  • 예시로, 10초 비디오가 100,000 토큰이 될 수 있는 반면 일반 LLM 응답은 200~300 토큰 수준이라는 대비가 제시됩니다.
  • 그래서 TCO(총소유비용)와 추론 경제성이 비즈니스에 절대적으로 중요하며, Luma는 AMD와의 협력을 통해 스택에서 최고의 TCO를 달성했다고 말합니다.
  • 또한 2026년에 AMD 파트너십을 10배 확장할 예정이며, MI455X의 랙 스케일 솔루션과 메모리 인프라가 “세계 시뮬레이션 모델” 구축에 필수라고 연결합니다.

AI PC 시대: Ryzen AI 400·Ryzen AI Max·Halo 그리고 로컬 에이전트

AMD는 “클라우드만이 AI가 아니다”라는 관점을 AI PC로 확장합니다. AI PC는 단순한 도구가 아니라 사용자의 작업 방식을 학습하고, 습관에 적응하며, 오프라인에서도 빠르게 작업을 수행하는 능동적 파트너가 되어가고 있다는 설명입니다.

MI500 로드맵까지: 성능 향상은 계속된다

AMD는 차세대 MI500 시리즈도 개발 중이라고 밝히며,

  • CDNA6 아키텍처
  • 2nm 공정
  • HBM4e
  • 2027년 출시를 통해 지난 4년간 AI 성능 1,000배 증가 달성을 목표로 한다는 로드맵이 제시됩니다.

Ryzen AI 400 시리즈: “60 TOPS”로 확장되는 AI PC 라인업

이번 CES에서 AI PC 쪽 핵심 발표는 Ryzen AI 400 시리즈 프로세서입니다.

  • Zen 5 CPU (최대 12 고성능 코어)
  • RDNA 3.5 GPU (16 코어)
  • XDNA2 NPU (최대 60 TOPS)
  • 더 빠른 메모리 속도 지원
  • 첫 제품은 “이달 말부터 출하”, 연중 120개+ AI PC에 탑재 예정이라는 로드맵

AMD는 자신들이 AI PC 변곡점을 “일찍” 주도했다는 히스토리도 함께 강조합니다(온칩 AI 엔진 통합, Copilot+ x86 PC 등). 또한 Ryzen AI Max로 2000억(200B) 매개변수 모델을 로컬에서 실행할 수 있는 단일 칩 x86 플랫폼을 만들었다는 주장도 포함됩니다.

Liquid AI: 로컬 AI 에이전트를 위한 ‘가벼운 모델’의 필요

AI PC가 진짜 일하려면 하드웨어만큼 중요한 것이 “장치에서 돌아갈 만큼 효율적인 모델”입니다. 이 맥락에서 Liquid AI가 소개됩니다. MIT에서 분사한 파운데이션 모델 회사로, 트랜스포머가 아닌 Liquid Foundation Models(LFM)를 구축해 품질 저하 없이 계산 비용을 줄이겠다는 목표를 제시합니다. 가치 제안은 3가지로 정리됩니다.

  • 개인정보 보호(Privacy)
  • 속도(Speed)
  • 연속성(Continuity) (온라인/오프라인을 넘나드는 일관된 경험)

LFM 2 / LFM 2.5

  • LFM 2는 “타이니 클래스(tiny class)”에서 가장 진보된 모델로 소개되며 12억(1.2B) 파라미터 규모
  • 명령 수행(instruction-following) 능력이 동급 및 더 큰 모델 사이에서도 매우 우수하다고 설명
  • LFM 2.5 인스턴스는 특정 모델 대비 더 나은 명령 수행을 장치에서 제공한다고 언급
  • 총 5가지 모델 인스턴스(챗/인스트럭트/일본어 강화/비전-언어/경량 오디오-언어)가 공개되며 AMD Ryzen AI의 CPU/GPU/NPU에 최적화되었다는 점을 강조

LFM 3: 멀티모달 + 100ms 미만 지연

  • 텍스트·비전·오디오 입력을 처리하고, 10개 언어로 오디오 및 텍스트 출력을 제공하도록 기본 멀티모달로 설계
  • 시청각 데이터에 대해 100ms 미만 지연 시간을 제시

그리고 “능동적(proactive) 에이전트” 데모가 이어집니다. 사용자가 스프레드시트 작업 중일 때, 에이전트가 다가오는 영업 회의를 감지하고 대신 참석 제안을 하며, 단순 전사를 넘어 이메일까지 분석해 답장 초안을 만드는 흐름을 오프라인 로컬에서 수행한다는 시나리오입니다. Liquid AI는 2026년 Zoom과 협력해 이를 Zoom 플랫폼에 도입할 예정이라고 언급합니다.

Ryzen AI Max: 크리에이터·게이머·개발자용 “통합 메모리” 승부수

Ryzen AI Max는 다음 스펙으로 소개됩니다.

  • Zen 5 CPU 16코어
  • RDNA 3.5 GPU 40 컴퓨팅 유닛
  • XDNA2 NPU 최대 50 TOPS
  • CPU/GPU/NPU가 공유하는 최대 128GB 통합 메모리 아키텍처

발표 내용상, 프리미엄 노트북에서 최신 MacBook Pro 대비 AI 및 콘텐츠 제작 앱에서 더 빠르고, 소형 워크스테이션에서는 NVIDIA DGX Spark 대비 더 저렴한 가격으로 유사 성능을 제공하며, GPT-OSS 모델 실행 시 달러당 최대 1.7배 더 많은 토큰을 생성한다는 설명이 포함됩니다. 또한 Windows와 Linux를 모두 기본 지원해 개발 편의성을 강조합니다.

Ryzen AI Halo: “손에 맞는” 로컬 AI 개발 플랫폼

AMD는 로컬 AI 배포를 위한 레퍼런스 플랫폼 Ryzen AI Halo도 발표합니다.

  • “세계에서 가장 작은 AI 개발 시스템”
  • 최대 2000억 파라미터 모델을 로컬 실행
  • 최상급 Ryzen AI Max + 128GB 통합 메모리
  • 최신 ROCm 스택과 오픈소스 개발 도구 사전 로드
  • 올해 2분기 출시 예정

World Labs와 공간 지능: 3D 세계를 “몇 분”으로 당기는 기술

AI의 다음 전선으로 “공간 지능(spatial intelligence)”이 제시됩니다. 무대에는 World Labs 공동 설립자이자 CEO인 페이페이 리(Fei-Fei Li)가 등장하고, 언어 지능의 발전은 컸지만 인간에게 더 중요한 것은 지각과 행동을 연결하는 공간 지능이라고 강조합니다.

World Labs는 이 공간 지능을 현실화하기 위해 설립되었고, Marble이라는 모델 데모가 제시됩니다.

Marble: 몇 장(심지어 한 장)의 이미지로 3D/4D 세계 생성

전통적인 3D 구축이 레이저 스캐너나 복잡한 소프트웨어를 요구했다면, World Labs는 GenAI로 데이터에서 3D·4D 구조를 학습하는 모델을 만든다는 접근입니다. 모델에 몇 장의 이미지만 주면:

  • 누락된 디테일을 채우고
  • 물체 뒤를 예측하며
  • 풍부하고 일관된 탐색 가능한 3D 세계를 만든다고 설명합니다.

AMD 오피스 리모델링 데모: MI325X + ROCm

특히 흥미로운 데모는 AMD 실리콘밸리 오피스를 휴대폰 카메라로 촬영한 몇 장의 이미지로 3D 공간을 만들고, 그 공간을 이집트 스타일 등으로 리모델링하면서도 기하학적 일관성을 유지하는 시나리오입니다. 이때 사용된 인프라로 MI325X와 ROCm이 언급됩니다.

World Labs는 AMD와의 파트너십이 최근 시작됐음에도, 실시간 프레임 생성 모델이 MI325X에서 1주 만에 실행되었고, Instinct와 ROCm을 통해 몇 주 만에 성능을 4배+ 개선할 수 있었다고 말합니다.

여기서 결론은 분명합니다. 공간 지능은 3D 구조·움직임·물리학을 이해해야 하므로 메모리, 대규모 병렬 처리, 매우 빠른 추론이 필요하고, MI450 같은 플랫폼은 더 큰 세계 모델 훈련과 실시간 반응성을 가능하게 할 것이라는 전망으로 이어집니다.


헬스케어 혁신: 신약 개발·정밀의학·게놈 데이터의 폭발

키노트의 헬스케어 파트는 “AI의 가치가 결국 생명을 구하는 것으로 측정된다”는 메시지로 전개됩니다. 그리고 세 회사의 사례가 연결됩니다: AppSci, Illumina, AstraZeneca.

AppSci: 생성형 AI + 합성 생물학으로 약을 “설계”하는 시대

AppSci CEO 션 맥클레인(Sean McClain)은 기존 시행착오 중심의 약물 발견과 달리, 생성형 AI와 합성 생물학으로 원하는 생물학적 특성을 가진 후보를 “처음부터 설계”할 수 있다고 말합니다. 주요 목표 질병으로는

  • 남성형 탈모(androgenic alopecia)
  • 자궁내막증(10명 중 1명 여성에게 영향)

이 제시되고, AMD 투자 후 1년 만에 추론을 확장해 단 하루에 100만+ 약물을 스크리닝할 수 있게 되었다는 성과가 소개됩니다. 또한 MI355의 메모리가 생물학을 더 풍부한 맥락에서 다뤄 더 나은 발견 모델을 만드는 데 도움이 될 것이라는 설명이 이어집니다.

Illumina: DNA라는 ‘30억 문자’의 세계, 그리고 데이터 폭발

Illumina CEO 제이콥 테이슨(Jacob Thaysen)은 DNA를 생명의 청사진으로 설명하며, 인간 게놈이 30억 문자로 이루어진 “20만 페이지 책”에 비유될 만큼 정확도가 중요하다고 강조합니다. 또한 Illumina의 시퀀서가 매일 생성하는 데이터가 매우 방대해, AMD와의 관계가 필수적이며, AMD FPGA와 EPYC 프로세서를 활용해 데이터를 통찰로 변환한다고 말합니다.

생성형 AI + 게놈 + 단백질체학의 결합은 생물학 이해를 바꾸고, 신약 발견을 넘어 예방과 조기 치료로 이어져 수명과 건강수명 개선에 기여할 것이라는 전망도 제시됩니다.

AstraZeneca: “AI는 생산성이 아니라 혁신”

AstraZeneca의 분자 AI 책임자 울라 엔크비스트(Ulla Enksvist)는 AI를 혁신의 도구로 정의합니다. 수십 년의 실험 데이터를 학습한 생성형 AI로 수백만 후보를 가상 평가하고, 가장 유망한 것만 실험실로 가져가는 접근입니다. 그 결과:

  • 후보 약물을 50% 더 빠르게 제공
  • 임상 성공률도 높이는 방향으로 진화하고 있다고 설명합니다.

AstraZeneca는 AMD와 협력해 인실리코(in-silico) 흐름을 확장하고, 대규모 데이터 세트 처리와 워크플로우 최적화를 추진한다고 언급됩니다.

헬스케어 파트는 “sick care(사후 치료)”에서 “preventative care(예방)”로, 나아가 재생 생물학/의학(regenerative biology and medicine)으로 가는 방향성으로 정리됩니다.


물리적 AI: 로보틱스와 우주 탐사에서의 ‘결정적 로컬 컴퓨팅’

AI가 현실 세계로 들어오는 순간, 요구사항은 급격히 바뀝니다. 물리적 AI는 “느리면 안 되고, 틀리면 안 되는” 환경이 많습니다. 그래서 발표는 반복해서 로컬에서 빠르고 결정적(deterministic)인 컴퓨팅을 강조합니다.

Generative Bionics: 인간 중심 휴머노이드 로봇 ‘Gen 1’

Generative Bionics CEO 다니엘라 푸치(Daniela Pucci)는 “인공 에이전트가 인간 세계를 이해하려면 인간 같은 몸으로 경험해야 하는가?”라는 질문에서 출발해, iCub/ErgoCub/IronCub 같은 플랫폼을 만들어왔다고 소개합니다.

Gen 1에서 가장 큰 차별점은 촉각(tactile)입니다.

  • 몸 전체에 분산된 촉각 피부(tactile skin)가 압력·접촉·의도를 감지
  • 촉각을 “주요 지능의 원천”으로 끌어올린다는 메시지
  • 공장 협업, 헬스케어 보조 등 사람과의 안전한 상호작용을 겨냥

또한 Gen 1은 2026년 하반기 상업 제조 예정이며, 선도 철강 제조업체를 포함한 산업 파트너와 함께 안전이 중요한 환경에 배치될 것이라고 언급됩니다. 이 과정에서 AMD는 Ryzen AI Embedded, VersaLay iEdge 같은 엣지 플랫폼부터 시뮬레이션/훈련/대규모 개발용 CPU/GPU까지 엔드투엔드 아키텍처를 제공하는 파트너로 설명됩니다.

Blue Origin: 달 영구 거주(Lunar Permanence)와 Versal 2 비행 컴퓨터

Blue Origin의 달 영구 거주 담당 수석 부사장 존 칼루리스(John Kalouris)는 목표를 “달 영구 거주 확립”으로 정의하며, 이를 위해 반복 가능하고 저렴한 운영이 필요하다고 말합니다.

우주는 궁극의 엣지 환경입니다. 비행 컴퓨터는 “차량의 심장”이고, 질량·전력·방사선 등 제약 속에서 신뢰성과 탄력성을 가져야 합니다. AMD 임베디드 아키텍처는 질량과 전력 절감, 방사선 환경 고려 측면에서 장점이 있다는 서사가 이어집니다.

특히 Blue Origin은 AMD와 Versal 2를 비행 컴퓨터 스택에 쓰는 논의를 시작한 지 몇 달 만에 개발 비행 컴퓨터에 통합 가능한 장치를 제공받았고, 이 스택으로 달 착륙 시뮬레이션을 성공적으로 수행해 수개월 일정을 단축했다고 말합니다. 이 컴퓨터는 2028년 초 우주비행사를 달에 착륙시킬 Mark 2 착륙선에 동력을 공급할 예정이라는 언급도 포함됩니다.

또한 AI는 우주비행사에게 코파일럿 역할을 하고, 착륙 지점 식별·위험 탐지 등에서 실시간 엣지 컴퓨팅이 중요하다는 메시지가 이어집니다. 달 뒷면 전파 천문학 시나리오도 연결되며, 통신 지연을 극복하기 위해 엣지 AI가 탐사 최적화를 돕는 그림이 제시됩니다.


과학·슈퍼컴퓨팅·교육: Genesis 미션과 AI 인재 파이프라인

AMD는 HPC(고성능컴퓨팅)에서의 리더십도 전면에 배치합니다. 전통 HPC와 AI의 융합을 추진하고 있고, 세계에서 가장 빠른 슈퍼컴퓨터, 에너지 효율 시스템 등에 동력을 공급한다고 강조합니다. 예시로는:

  • 핀란드 Lumi: 기후 모델 업데이트 시간 85%+ 단축
  • ENI: 배터리/연료 개발
  • Oak Ridge National Labs(Exascale): 예측 정확도 99% 수준의 시뮬레이션 언급
  • Lawrence Livermore El Capitan: 바이러스 변이/진화 모델링을 통한 팬데믹 대응 가속

Genesis 미션: AI·슈퍼컴퓨팅·양자의 융합

AMD는 미국 DOE 및 국립 연구소와 함께 Genesis 미션에 참여한다고 소개합니다.

  • Lux 컴퓨터: “올해 초 가동 예정”인 과학 전용 AI 팩토리
  • Discovery: 2028년 계획된 차기 플래그십 슈퍼컴퓨터

또한 미국 차원의 AI 전략(규제 장벽 제거, 인프라/에너지 확보, AI 외교/수출 프로그램)과 연결되며, 교육 이니셔티브로 “대통령 AI 챌린지”가 언급됩니다.

교육: AI Education Pledge와 학생·커뮤니티 확장

AMD는 AI 교육 서약을 지원하며 1억 5천만 달러를 투자했고, 전 세계 800개+ 교육·연구 협력을 구축 중이며, 올해 15만 명+ 학생에게 무료 온라인 AI 과정을 제공할 계획이라고 말합니다.

또한 Hack Club과 진행한 전국 AI·로보틱스 캠페인, 해커톤 우승팀 Team Armtender(AI 로봇 바리스타) 사례가 소개됩니다. 이 팀은 AMD 개발자 클라우드(MI 300X GPU)에서 비전-언어 모델을 훈련했고, 로봇 팔은 Ryzen AI 노트북에서 3대 카메라로 로컬 실행된다고 설명됩니다. AMD는 팀원 각자에게 2만 달러 교육 보조금을 수여했다고 언급됩니다.


결론: AMD가 그리는 다음 10년의 AI 지도

CES 2026에서 AMD는 “AI가 중요하다”는 메시지를 넘어, AI가 보편재가 되기 위해 필요한 컴퓨팅의 크기(요타 스케일)와 이를 감당하기 위한 플랫폼 단위 혁신(Helios/MI455), 그리고 개방형 소프트웨어(ROCm)를 한 프레임으로 묶었습니다.

여기에 OpenAI의 에이전트 컴퓨팅, Luma AI의 멀티모달 생성 워크로드, World Labs의 공간 지능, 헬스케어·로보틱스·우주 탐사·과학 슈퍼컴퓨팅까지 연결하면서, AMD의 전략은 결국 이렇게 요약됩니다.

  • AI는 클라우드에만 있지 않다. 클라우드·PC·엣지 전체가 AI 플랫폼이 된다.
  • 컴퓨팅 수요는 상상을 초월한다. 그래서 랙 스케일/요타 스케일이 필요하다.
  • 성능은 하드웨어만이 아니라 소프트웨어(ROCm)와 생태계에서 완성된다.
  • 가장 큰 혁신은 단독이 아니라, 업계 리더와의 공동 혁신으로 빠르게 현실이 된다.

AMD가 그린 그림은 “더 큰 숫자”의 경쟁이라기보다, AI를 전 산업과 일상에 ‘실제로 배포 가능한 형태’로 만드는 인프라 경쟁에 가깝습니다. 그리고 CES 2026은 그 로드맵을 상당히 구체적인 형태로 공개한 자리였습니다.


AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다