공급망 혁신: 도메인 특화 AI가 필요한 이유

기업 공급망(SCM)에 인공지능(AI)을 도입하는 사례가 나오고 있습니다. 그러나 현실에서는 일반적인 범용 AI 모델이 기대에 미치지 못하는 경우도 많습니다. 특히 제조업이나 공급망처럼 복잡한 프로세스와 전문 지식이 필요한 산업 분야에서는 이런 한계가 더욱 뚜렷하게 드러납니다.

이번 글에서는 미국 테크 미디어 벤처비트(VentureBeat)가 보도한 아티큘에잇(Articul8)의 사례를 중심으로, 범용 AI의 한계를 짚고, 도메인 특화형 AI 모델이 어떤 방식으로 산업 현장에서 더 큰 효과를 발휘하는지를 설명드리겠습니다.

공급망에 도메인 특화 AI가 필요한 이유

공급망 관리는 단순한 재고 조회나 주문 처리 수준을 넘어, 부품 조달, 조립 순서, 품질 검수, 물류 계획 등 다양한 단계를 포함합니다. 각각의 단계를 정확한 순서로 처리해야 하며, 이들 사이의 상호작용을 이해하는 것도 중요합니다. 즉, 이 분야는 절차 중심의 시스템이며 순차적 의사결정이 핵심입니다.

예를 들어 항공기 엔진을 조립할 경우, 수천 개에 이르는 작업 순서가 필요하고 각 단계에는 도면이나 매뉴얼 같은 기술 문서가 요구됩니다. 이 문서들은 단순한 정적 정보가 아니라 시간과 상태의 흐름에 따라 변하는 시계열 데이터입니다. 따라서 AI가 이를 처리하려면, 단순히 정보를 검색하는 수준에서 벗어나, 시간적 이해와 절차적 판단 능력을 갖춰야 합니다.

하지만 기존의 범용 대형언어모델(LLM)은 자연어 처리는 뛰어나도, 시퀀스 분석이나 분기 로직(branching logic), 반복(recursion) 구조를 이해하는 데에는 한계가 있습니다. 더 복잡한 현실 문제를 다룰 가능성이 낮다는 뜻입니다.

Vertical LLM

RAG의 가능성과 한계

이 문제를 해결하려는 접근 방식 중 하나가 ‘검색 증강 생성(Retrieval-Augmented Generation, RAG)’입니다. RAG는 LLM이 알지 못하는 전문 정보를 외부 데이터베이스에서 가져와 보완하는 방식입니다. 이론적으로는 유용해 보이지만, 실제 공급망 같은 고도화된 절차 기반 환경에서는 한계를 드러냅니다.

Articul8의 CEO인 아룬 수브라마니얀(Arun Subramaniyan)은 “공급망의 가장 큰 특징은 일이 순차적이고, 각 단계가 서로 얽혀 있다는 점”이라고 설명합니다. 또 “이런 구조는 단순 검색만으로는 해석하기 어려우며, 마치 프로그래밍 로직을 이해하듯 처리해야 한다”고 덧붙였습니다.

즉, RAG는 ‘어떤 정보가 필요한가’는 알려주지만, ‘왜 필요한가’, ‘언제 적용해야 하는가’까지 판단하는 것은 어렵습니다. 이는 AI가 실제 판단력이나 절차적 사고에 약함을 보여주는 대표적 한계입니다.

Articul8의 도메인 특화 AI 전략

Articul8은 이런 문제를 극복하기 위해 산업 환경에 최적화된 방식을 제안합니다. 그 핵심은 단순 AI 모델이 아닌, 여러 모델을 연동해 전체 작업 흐름을 관리하는 오케스트레이션 플랫폼, ‘ModelMesh’입니다.

ModelMesh는 수천 개의 세부 결정을 실시간으로 내려야 하는 산업 현장에 맞춰 설계됐습니다. 단순한 오케스트레이터가 아니라, AI 결과의 정확성까지 실시간으로 평가해서 다음 작업을 결정합니다. 이 구조는 베이지안 시스템(확률 기반 판단 모델)과 산업 지식이 내장된 특화형 LLM의 조합으로 구성돼 있습니다.

예를 들어, 반도체 생산 과정에서 어떤 장비가 비정상적인 데이터를 생성한다고 가정해 보겠습니다. 범용 AI는 ‘어딘가 이상이 있다’는 정도까지만 파악할 수 있습니다. 하지만 ModelMesh는 센서 로그 데이터의 흐름을 분석해 어떤 단계 어떤 장비에서 오류가 시작됐는지 추적하고, 각각의 상황에 맞는 특화 모델을 호출해 즉시 대응할 수 있도록 설계돼 있습니다.

또한 Articul8은 데이터 구성 방식부터 차별화합니다. 대부분의 AI 모델은 한 문서를 하나의 벡터로 처리합니다. 하지만 Articul8은 pdf 내부의 이미지, 표, 수치 등 세부 요소를 모두 분해한 후, 각각의 데이터 유형에 맞는 전용 모델로 재구성합니다. 이렇게 하면 AI가 필요한 정보만 정확히 추출하고, 더 높은 정밀도로 대응할 수 있습니다.

현재는 오픈소스 기반의 Llama 3.2 모델을 사용하고 있으며, 단순한 파인 튜닝이 아니라 피드백 루프와 전문가 기반 평가를 반복해 모델 정확성을 계속 높이고 있습니다.

실제로 어떤 기업들이 도입했나?

Articul8의 기술은 인텔에서 분사한 회사이기 때문에 인텔에 적용되고 있습니다. 인텔은 반도체 제조 공정에 Articul8 솔루션을 도입해, 장비 장애 원인 분석이나 작업 지시 자동화에 활용 중입니다. 특히 내부 문서, 실시간 로그, 엔지니어링 위키 등을 통합해서 정확한 원인을 추론하고 적절한 대응을 제안하는 시스템입니다.

인텔 측은 “범용 AI는 복잡한 부품 용어나 로그 해석에 성능이 부족했지만, 특화형 AI는 생산현장에서 쓰이는 용어와 문서를 반영해 훨씬 정확한 지원이 가능했다”고 평가했습니다. 비용 절감뿐 아니라, 장애 대응 시간 단축과 품질 안정성이라는 핵심 지표에서도 긍정적인 효과를 얻었다고 밝혔습니다.

언제 어떤 AI를 써야 할까?

기업 환경에서는 모든 문제에 한 가지 모델을 적용할 수 없습니다. 상황에 따라 범용 AI와 도메인 특화형 AI가 서로 보완될 수 있습니다.

예를 들어, 사내 문서 검색이나 직원 질의응답처럼 텍스트 기반 응용은 범용 AI와 RAG 조합으로도 충분합니다. 빠른 응답과 광범위한 지식 제공이 장점입니다. 반면, 제품 조립 공정이나 장애 분석, 비전 기반의 품질 검사처럼 실제 절차나 물리적 흐름이 중요한 작업에는 도메인 특화형 멀티모달 AI가 필요합니다.

결론: AI 전략의 진화, 이제는 ‘도메인’을 중심으로

범용 AI는 수많은 분야에서 유용하게 사용될 수 있으나, 복잡하고 고위험의 산업 현장에서는 그 성능에 한계가 있습니다. Articul8의 사례는 AI가 단순한 기술이 아닌, 실제 업무 흐름을 이해해야 성과로 이어질 수 있다는 점을 잘 보여줍니다.

제조업이나 공급망을 아우르는 산업군이라면, 단순히 AI를 도입하는 것을 넘어, 해당 도메인을 깊이 이해하고 반영한 전략이 필요합니다. 지금은 도메인 특화 AI로 전환을 고민해야 할 시점입니다. 업무 현장을 이해하고, 그에 맞는 AI를 선택하는 것이 디지털 전환의 성패를 가를 것입니다.

생성형 AI의 성숙도가 높아지면 어느 단계에 이르러서는 앞서 이야기한 도메인 특화 AI. 즉 Vertical LLM에 대한 수요가 발생합니다. 하지만 이는 전통적인 기술 기업도 접근 가능하지만 데이터와 실제 레퍼런스를 만들 수 있는 제조기업이나 전통기업들도 충분히 가능성이 있는 시장입니다. 생성형 AI 시대에 새로운 비즈니스 모델로 Vertical LLM의 출현을 지켜보시죠.

참고

도메인 특화 AI
AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .

웰스파고 성공사례: 프라이버시 우선 AI 아키텍처 구축 전략

최근 금융 산업에서도 생성형 AI의 도입이 빠르게 확산되고 있습니다. 그러나 대부분의 기업이 고객 데이터 보호와 모델의 신뢰성, 운영 효율성 사이에서 균형점을 찾지 못해 도입을 주저하고 있는 것도 사실입니다. 이러한 상황에서 웰스파고(Wells Fargo)의 사례는 기업들에게 의미 있는 방향성을 제시해주는 것 같습니다.

웰스파고는 2024년 한 해 동안 자사의 생성형 AI 고객지원 시스템 ‘파고(Fargo)’를 통해 약 2억 4,500만 건의 고객 상호작용(상담)을 자동으로 처리했습니다. 놀라운 점은 이 모든 과정이 사람의 개입 없이 진행되었고, 고객의 민감한 정보가 외부의 대형 언어 모델(LLM)에 노출되지 않았다는 사실입니다. 웰스파고는 어떻게 이런 수준의 AI 도입에 성공했을까요? 아래에서 그 전략을 구체적으로 살펴보겠습니다.

웰스파고 AI 도입의 가장 큰 장애물: 데이터 보호와 응답 신뢰의 균형

생성형 AI는 자연어 처리, 고객 상담, 문서 자동화, 예측 분석 등에서 생산성을 크게 높여줄 수 있는 도구입니다. 그러나 금융업계처럼 개인정보에 민감한 환경에서는 다음과 같은 문제들이 도입 장벽으로 작용합니다.

첫째, 고객의 개인 식별 정보(PII)가 외부로 유출될 수 있다는 보안 우려가 있습니다. 둘째, AI의 응답이 잘못된 정보를 제공하는 ‘환각 현상(hallucination)’도 큰 리스크입니다. 셋째, 외부 LLM을 사용할 경우 기업이 해당 모델의 응답을 완전하게 통제하기 어렵습니다. 마지막으로, 각종 규제 기준을 충족시키는 것도 쉽지 않습니다.

이러한 이유로 현재 많은 금융 기업들은 고객 응대에 AI를 제한적으로 활용하고 있으며, 대부분은 상담사의 보조 역할 정도로만 적용하고 있습니다. 실제로 Citi의 분석 책임자 Promiti Dutta도 생성형 AI의 고객 대응 직접 투입은 여전히 리스크가 크다고 밝혔습니다.

웰스파고

웰스파고가 선택한 해법: 프라이버시 중심의 AI 아키텍처

웰스파고는 위와 같은 문제를 해결하기 위해 내부 처리 중심의 ‘프라이버시 우선 AI 아키텍처’를 구축했습니다. 이 구조의 핵심은 외부 AI 모델에게는 고객의 민감한 정보를 일절 전달하지 않는 것입니다.

예를 들어 고객이 모바일 앱에 대고 “지난달 15일 스타벅스에서 쓴 거래 내역을 보여줘”라고 음성으로 요청하면, 다음과 같은 일련의 절차가 내부 시스템에서 이루어집니다. 먼저, 앱 내에서 음성을 텍스트로 바꾸는 음성 인식(STT)을 처리하고, 그 텍스트는 내부 시스템이 민감 정보를 제거한 후 키워드만 추출합니다. 이후 LLM은 단지 사용자의 의도가 무엇인지를 파악하는 역할만 수행합니다. 실제 금액이나 거래 내역 조회는 전적으로 내부 시스템이 담당하죠.

이런 처리 방식 덕분에 고객의 계좌 번호, 이름, 카드 정보 등은 외부로 노출되지 않으면서도, 사용자는 실시간으로 정확한 서비스를 받을 수 있게 됩니다.

AI를 ‘대화 도우미’에서 ‘문서 업무 자동화’로 확장

웰스파고는 AI를 고객 응대에만 적용하지 않았습니다. 예컨대, 수십 년간 보관된 대출 관련 문서를 생성형 AI가 스스로 재심사하는 프로젝트 또한 진행 중입니다. 이 작업을 위해 웰스파고는 여러 개의 AI 에이전트가 각기 다른 역할을 수행하는 멀티에이전트 구성 방식을 활용하고 있습니다.

한 에이전트는 오래된 문서를 호출하고, 또 다른 에이전트는 핵심 정보를 추출합니다. 그다음 에이전트는 계약정보와 기존 시스템 기록을 대조하고, 마지막 에이전트는 이를 바탕으로 리스크를 재평가합니다. 모든 작업이 자동화돼 있고, 사람은 마지막 단계에서 결과를 검토하고 승인만 하면 됩니다. 이처럼 생성형 AI는 단순한 ‘챗봇’ 수준을 넘어, 기업 운영에서 복잡하고 반복적인 업무 처리까지 맡을 수 있음을 보여줍니다.

모델 성능보다 중요한 건 ‘어떻게 조합할 것인가’

웰스파고의 CIO 칸탄 메타(Chintan Mehta)는 “이제 AI 모델 간 기술 격차는 큰 차이가 없다”고 말합니다. 중요한 건 어떤 과제에 어떤 모델을 어떻게 조합하고 연동하느냐, 즉 ‘오케스트레이션’ 역량이라는 것이죠.

실제로 웰스파고는 구글의 Gemini Flash 2.0을 기본으로 활용하면서도 목적에 따라 OpenAI, Claude, Meta의 Llama 등 다양한 모델들을 병행해 사용합니다. 예를 들어, 복잡한 논리 추론이 필요한 업무에는 Claude와 Gemini 2.5 Pro를, 코드 작업에는 Claude Sonnet과 OpenAI의 o3 mini high 모델을 사용합니다. 이렇게 과제별로 최적화된 모델을 조합하는 ‘폴리 모델 전략’은 정확도 향상은 물론, 비용 절감과 속도 개선까지 가능하게 합니다.

비즈니스 적용을 좌우하는 실제 변수: 속도와 비용

Wayfair의 CTO Fiona Tan은 흥미로운 데이터를 공유한 적이 있습니다. 자사 테스트 결과, Gemini 2.5 Pro의 응답 속도가 OpenAI나 Claude보다 더 빠른 경우가 있었다는 것입니다. 생성형 AI가 고객 서비스나 거래 추천, 실시간 대화 시스템에 활용되기 위해서는 응답 속도가 매우 중요하기 때문에, 이런 차이는 실질적으로 큰 장점이 될 수 있습니다.

또한 구글은 최근 AI 모델 단가를 인하했습니다. 현재 기준으로 100만 토큰 기준 입력은 1.24달러, 출력은 10달러 수준입니다. 이처럼 신속하면서도 저렴한 모델 구조는 대규모 AI 서비스 운영이 필요한 기업에게 매우 현실적인 이점이 됩니다.

웰스파고 사례에서 얻는 전략적 시사점

웰스파고의 사례는 금융, 의료, 공공기관처럼 민감한 데이터를 다루는 조직에 중요한 통찰을 제공합니다. 첫째, AI 도입에서 민감 정보는 전적으로 내부에서 처리함으로써 외부 노출을 막고 있습니다. 둘째, 다양한 AI 모델을 과제에 따라 조합함으로써 처리 효율성과 정확성 모두를 잡고 있습니다. 셋째, 다중 에이전트 기반 아키텍처를 통해 문서 자동화나 리스크 재평가 같은 고차원 작업도 AI가 주도하게 만들고 있습니다. 마지막으로, 빠른 응답과 안정적인 요금 체계를 활용해 실제 고객 대응 품질도 높이고 있습니다.

이 모든 요소가 모여, 웰스파고는 AI를 단순한 기능이 아닌 ‘디지털 전환의 기반’으로 삼고 있다는 사실이 인상적입니다.

결론: 생성형 AI는 더 이상 실험이 아니다

웰스파고는 비록 한 기업의 사례일 뿐이지만, 그 전략은 금융업은 물론 데이터를 민감하게 다루는 모든 기업에 실질적인 방향성을 제시하고 있습니다. AI 기술 도입에서 가장 중요한 것은 기술 자체보다 ‘어떻게 탄탄한 구조를 설계하고 안전하게 운영할 것인가’입니다.

앞으로 생성형 AI는 단순한 고객 응대 도구가 아니라, 기업의 전략과 운영 프로세스 전반을 바꿀 수 있는 핵심 수단이 될 것입니다. 지금 이 시점에서 기업은 AI 도입 여부를 넘어서, 어떤 구조로 AI를 통합할 것인지에 대한 전략적 판단이 필요한 때입니다. 새로운 가치는 복잡한 기술보다 잘 설계된 시스템에서 시작되기 때문입니다. 금융을 비롯한 우리나라 대부분의 큰 기업에서 참고할만한 사례이자 구현 방법론인 것 같습니다. 조만간 나올 제 책에도 똑같은 방법을 주장을 했는데요 이에 대해서는 추후 또 소개하겠습니다.

참고

프라이버시 우선 AI 아키텍처
AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .

Amex 성공사례: AI 파트너 전략으로 업무 효율을 극대화하다

혹시 회사에서 IT 지원을 받기 위해 챗봇을 이용해보신 적이 있으신가요? 문제가 생겨 도움을 요청했지만, 계속해서 “이게 도움이 되었나요?” 같은 답변만 되풀이되고, 결국엔 사람이 응답하는 상담을 요청하게 되는 경우, 누구나 한 번쯤 겪어보셨을 것입니다.

그런데 이 답답한 상황을 근본적으로 바꾼 기업이 있습니다. 바로 글로벌 금융 서비스 기업 아메리칸 익스프레스(American Express, 이하 Amex)입니다. Amex는 약 8만 명에 이르는 직원들을 대상으로 생성형 AI 기술을 도입해 IT 지원뿐 아니라 여행 상담, 소프트웨어 개발 등 다양한 업무의 효율성과 만족도를 크게 향상시켰습니다.

이번 글에서는 Amex가 실제로 어떻게 AI를 활용하고 있는지, 또 그런 시도가 어떤 성과로 이어졌는지 살펴보며, 오늘날 기업들이 참고해야 할 중요한 전략 포인트를 정리해드리고자 합니다.

IT 지원의 성공적인 AI 전환, 이렇게 진행됐습니다

Amex는 가장 먼저 내부 IT 지원의 효율화를 실현했습니다. 기존에는 BERT 기반의 자연어처리(NLP) 기술을 활용한 챗봇을 운영했지만, 실제 사용 경험은 한계가 명확했습니다. 단순히 관련 링크만 나열하는 형태라 직원들이 궁극적인 해결책을 얻기 어려웠고, 결국엔 실시간 상담으로 넘어가는 경우가 많았습니다.

이를 개선하기 위해 Amex는 생성형 AI와 폐쇄형 언어 모델을 결합한 새로운 IT 지원 챗봇을 도입했습니다. 새로운 챗봇은 사용자의 질문을 언어의 맥락에 맞게 분석해 보다 직관적인 응답을 제공하고, 단계적으로 문제 해결을 안내하며, 필요시 자동으로 사람 상담으로 전환합니다.

예를 들어, 한 직원이 “인터넷이 연결되지 않는다”고 문의했을 때, 챗봇은 “Wi-Fi 목록이 보이지 않으신가요?”, “기기를 재시작해보셨나요?”와 같은 추가 질문을 통해 원인을 좁혀나갑니다. 이에 따라 해결 속도는 빨라지고, 반복적인 티켓 처리가 현저히 줄어들었습니다.

실제 결과는 매우 인상적이었습니다. 2023년 10월 이 시스템을 도입한 이후, 전체 IT 지원 티켓의 40%가 사람의 개입 없이 처리됐고, 직원들이 업무로 복귀하는 시간도 크게 단축됐습니다. 단순히 자동화를 적용한 것이 아니라, 만족과 효율을 모두 충족시키는 ‘완성도 높은 자동화’였던 것입니다.

Amex

AI 전략 도입: 500개 후보, 70개 선택

Amex는 AI를 단순한 기술 프로젝트로 보지 않았습니다. 조직 전체에서 500개에 이르는 AI 활용 가능성을 식별하고, 이 중 70여 개를 실제 적용 가능한 항목으로 선별해 전략적으로 도입했습니다.

이 과정에서 특히 두 가지 원칙을 중시했습니다. 첫째, 모든 부서가 동일한 방향으로 AI 전략을 실행할 수 있도록 ‘코어 AI 프레임워크’를 구축했고, 이를 기반으로 공통 템플릿과 코드 샘플을 제공함으로써 일관된 개발 환경을 만들었습니다. 둘째, 금융 서비스 업종이라는 특성을 감안해 개인정보와 민감 정보 보호를 위해 엄격한 ‘AI 방화벽’을 설계했습니다.

Amex는 이를 바탕으로 신뢰할 수 있는 데이터를 기반으로 AI가 움직이도록 RAG(Retrieval-Augmented Generation) 기법과 프롬프트 엔지니어링을 적극 활용하고 있으며, 매달 수천 건의 문서를 업데이트해 최신성과 정확성을 유지하고 있습니다.

Premium 고객을 위한 여행 상담에도 AI가

Amex는 Premium 고객을 위한 여행 상담 서비스에도 AI를 도입했습니다. 5,000여 명의 여행 컨설턴트들이 전 세계의 럭셔리 숙소, 레스토랑, 명소 정보를 기반으로 맞춤 추천을 제공하기 때문에 정보 탐색과 제안 프로세스의 효율성이 중요했습니다.

이에 Amex는 ‘Travel Counselor Assist’라는 AI 솔루션을 도입해 상담사를 지원했습니다. 이 AI는 고객의 카드 사용 내역과 성향 데이터를 분석하고, 인터넷상의 방대한 여행 정보를 검토한 뒤, Amex가 보유한 내부 데이터와 결합해 고객에게 최적화된 여행 일정을 추천해줍니다.

예를 들어, 한 고객이 바르셀로나 여행을 계획 중이라면, AI는 고객의 이전 레스토랑 취향을 분석하고, 지역별 영업시간과 혼잡도를 고려해 이번 여행에 가장 적합한 장소를 제안합니다. 이 과정에서 AI는 일차적인 정보 제공자 역할을 하고, 최종적인 조율과 감성적인 판단은 여전히 인간 상담사가 담당합니다.

이를 통해 상담의 정밀도가 향상되었고, 응답 시간도 짧아졌으며, 실제 85% 이상의 상담사가 “AI 도구 덕분에 일의 효율성이 높아졌다”고 평가했습니다.

코드 개발 효율도 AI로 높인다

Amex는 IT 지원과 여행 컨설팅을 넘어 소프트웨어 개발 분야에도 AI를 접목하고 있습니다. 현재 약 9,000명의 개발자들이 GitHub Copilot과 같은 AI 코딩 도구를 활용해 코드 작성, 테스트 자동화, API 문서화 등의 작업을 수행 중입니다.

예를 들어, 개발 중 코드의 다음 줄을 추천받거나 테스트 케이스를 자동으로 생성하는 일이 가능해졌고, 복잡한 API 문서를 쉽고 빠르게 구성할 수 있게 되었으며, “이 코드의 의미가 뭔가요?”와 같은 질문에도 즉각적인 응답을 받을 수 있게 되었습니다.

그 결과, 개발자의 생산성이 평균 10% 정도 향상되었고, 85% 이상의 개발자들이 AI 코드 도우미 사용에 만족감을 표시하고 있습니다. Amex는 기술 성과뿐 아니라 사용자 만족도를 중요한 성공 지표로 삼고 있으며, 실제로 “업무의 결과뿐만 아니라, 작업하는 사람의 경험이 개선되고 있는가?”라는 질문을 항상 검토하고 있다고 밝혔습니다.

Amex에서 배울 수 있는 4가지 교훈

Amex의 AI 전략은 단순히 시스템을 도입했다고 끝나지 않습니다. 그 안에는 모든 조직이 참고할 수 있는 깊은 통찰이 담겨 있습니다.

첫째, AI는 ‘도입’이 아니라 ‘전략’이어야 합니다. Amex가 500개의 가능성 중 70개를 선별한 사례처럼, 명확한 기준과 우선순위를 정해 접근해야 합니다. 이것이 현장의 실행력과 연결됩니다.

둘째, AI는 사람을 대체하기 위한 기술이 아니라 효율을 극대화하는 협업 파트너입니다. 여행 상담에서처럼, AI가 정보를 제시하면 사람은 감정과 맥락으로 보완함으로써 궁극적인 가치를 만듭니다.

셋째, 성공은 성과와 만족이 함께 따라올 때 완성됩니다. IT 자동화율 40%, 상담사 효율 85%라는 수치는 인상적이지만, 고객과 직원 모두의 긍정적인 반응이 뒤따르지 않았다면 실패할 수도 있었습니다.

마지막으로, AI는 일관된 개발 환경과 보안 설계 없이는 효과를 발휘하기 어렵습니다. 산업 규제와 데이터 민감도가 높은 조직일수록 프레임워크와 보안 체계를 정교하게 구성해야 합니다. Amex는 이 점을 철저히 설계했습니다.

AI는 더 이상 미래가 아니다

Amex는 더 이상 “우리는 AI를 검토 중입니다”라는 표현을 쓰지 않습니다. 여행, IT, 개발 등 모든 부서가 AI 활용을 일상 업무로 받아들이고 있습니다. 그 중심에 있는 것은 사람을 대체하는 기계가 아니라, 사람과 협력하며 함께 일하는 ‘AI 파트너’입니다.

2025년은 AI가 실험이 아니라 경쟁력을 좌우하는 기준이 되는 해입니다. 여러분의 조직은 어디까지 와 계신가요?

아직도 ‘답답한 챗봇’을 개선하지 못하셨나요? 혹은 고객 상담에서 여전히 사람 한 명의 경험과 직감에만 의존하고 계시진 않나요?

Amex처럼 변화하고 싶다면, 지금이 출발점입니다. 작게 시작하되, 효과를 명확히 측정할 수 있는 사례부터 도입해 보시길 권해드립니다. 그것이 바로 AI를 통해 미래의 경쟁력을 확보하는 첫걸음입니다.

AI 파트너
AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .