최근 금융 산업에서도 생성형 AI의 도입이 빠르게 확산되고 있습니다. 그러나 대부분의 기업이 고객 데이터 보호와 모델의 신뢰성, 운영 효율성 사이에서 균형점을 찾지 못해 도입을 주저하고 있는 것도 사실입니다. 이러한 상황에서 웰스파고(Wells Fargo)의 사례는 기업들에게 의미 있는 방향성을 제시해주는 것 같습니다.
웰스파고는 2024년 한 해 동안 자사의 생성형 AI 고객지원 시스템 ‘파고(Fargo)’를 통해 약 2억 4,500만 건의 고객 상호작용(상담)을 자동으로 처리했습니다. 놀라운 점은 이 모든 과정이 사람의 개입 없이 진행되었고, 고객의 민감한 정보가 외부의 대형 언어 모델(LLM)에 노출되지 않았다는 사실입니다. 웰스파고는 어떻게 이런 수준의 AI 도입에 성공했을까요? 아래에서 그 전략을 구체적으로 살펴보겠습니다.
목차
웰스파고 AI 도입의 가장 큰 장애물: 데이터 보호와 응답 신뢰의 균형
생성형 AI는 자연어 처리, 고객 상담, 문서 자동화, 예측 분석 등에서 생산성을 크게 높여줄 수 있는 도구입니다. 그러나 금융업계처럼 개인정보에 민감한 환경에서는 다음과 같은 문제들이 도입 장벽으로 작용합니다.
첫째, 고객의 개인 식별 정보(PII)가 외부로 유출될 수 있다는 보안 우려가 있습니다. 둘째, AI의 응답이 잘못된 정보를 제공하는 ‘환각 현상(hallucination)’도 큰 리스크입니다. 셋째, 외부 LLM을 사용할 경우 기업이 해당 모델의 응답을 완전하게 통제하기 어렵습니다. 마지막으로, 각종 규제 기준을 충족시키는 것도 쉽지 않습니다.
이러한 이유로 현재 많은 금융 기업들은 고객 응대에 AI를 제한적으로 활용하고 있으며, 대부분은 상담사의 보조 역할 정도로만 적용하고 있습니다. 실제로 Citi의 분석 책임자 Promiti Dutta도 생성형 AI의 고객 대응 직접 투입은 여전히 리스크가 크다고 밝혔습니다.

웰스파고가 선택한 해법: 프라이버시 중심의 AI 아키텍처
웰스파고는 위와 같은 문제를 해결하기 위해 내부 처리 중심의 ‘프라이버시 우선 AI 아키텍처’를 구축했습니다. 이 구조의 핵심은 외부 AI 모델에게는 고객의 민감한 정보를 일절 전달하지 않는 것입니다.
예를 들어 고객이 모바일 앱에 대고 “지난달 15일 스타벅스에서 쓴 거래 내역을 보여줘”라고 음성으로 요청하면, 다음과 같은 일련의 절차가 내부 시스템에서 이루어집니다. 먼저, 앱 내에서 음성을 텍스트로 바꾸는 음성 인식(STT)을 처리하고, 그 텍스트는 내부 시스템이 민감 정보를 제거한 후 키워드만 추출합니다. 이후 LLM은 단지 사용자의 의도가 무엇인지를 파악하는 역할만 수행합니다. 실제 금액이나 거래 내역 조회는 전적으로 내부 시스템이 담당하죠.
이런 처리 방식 덕분에 고객의 계좌 번호, 이름, 카드 정보 등은 외부로 노출되지 않으면서도, 사용자는 실시간으로 정확한 서비스를 받을 수 있게 됩니다.
AI를 ‘대화 도우미’에서 ‘문서 업무 자동화’로 확장
웰스파고는 AI를 고객 응대에만 적용하지 않았습니다. 예컨대, 수십 년간 보관된 대출 관련 문서를 생성형 AI가 스스로 재심사하는 프로젝트 또한 진행 중입니다. 이 작업을 위해 웰스파고는 여러 개의 AI 에이전트가 각기 다른 역할을 수행하는 멀티에이전트 구성 방식을 활용하고 있습니다.
한 에이전트는 오래된 문서를 호출하고, 또 다른 에이전트는 핵심 정보를 추출합니다. 그다음 에이전트는 계약정보와 기존 시스템 기록을 대조하고, 마지막 에이전트는 이를 바탕으로 리스크를 재평가합니다. 모든 작업이 자동화돼 있고, 사람은 마지막 단계에서 결과를 검토하고 승인만 하면 됩니다. 이처럼 생성형 AI는 단순한 ‘챗봇’ 수준을 넘어, 기업 운영에서 복잡하고 반복적인 업무 처리까지 맡을 수 있음을 보여줍니다.
모델 성능보다 중요한 건 ‘어떻게 조합할 것인가’
웰스파고의 CIO 칸탄 메타(Chintan Mehta)는 “이제 AI 모델 간 기술 격차는 큰 차이가 없다”고 말합니다. 중요한 건 어떤 과제에 어떤 모델을 어떻게 조합하고 연동하느냐, 즉 ‘오케스트레이션’ 역량이라는 것이죠.
실제로 웰스파고는 구글의 Gemini Flash 2.0을 기본으로 활용하면서도 목적에 따라 OpenAI, Claude, Meta의 Llama 등 다양한 모델들을 병행해 사용합니다. 예를 들어, 복잡한 논리 추론이 필요한 업무에는 Claude와 Gemini 2.5 Pro를, 코드 작업에는 Claude Sonnet과 OpenAI의 o3 mini high 모델을 사용합니다. 이렇게 과제별로 최적화된 모델을 조합하는 ‘폴리 모델 전략’은 정확도 향상은 물론, 비용 절감과 속도 개선까지 가능하게 합니다.
비즈니스 적용을 좌우하는 실제 변수: 속도와 비용
Wayfair의 CTO Fiona Tan은 흥미로운 데이터를 공유한 적이 있습니다. 자사 테스트 결과, Gemini 2.5 Pro의 응답 속도가 OpenAI나 Claude보다 더 빠른 경우가 있었다는 것입니다. 생성형 AI가 고객 서비스나 거래 추천, 실시간 대화 시스템에 활용되기 위해서는 응답 속도가 매우 중요하기 때문에, 이런 차이는 실질적으로 큰 장점이 될 수 있습니다.
또한 구글은 최근 AI 모델 단가를 인하했습니다. 현재 기준으로 100만 토큰 기준 입력은 1.24달러, 출력은 10달러 수준입니다. 이처럼 신속하면서도 저렴한 모델 구조는 대규모 AI 서비스 운영이 필요한 기업에게 매우 현실적인 이점이 됩니다.
웰스파고 사례에서 얻는 전략적 시사점
웰스파고의 사례는 금융, 의료, 공공기관처럼 민감한 데이터를 다루는 조직에 중요한 통찰을 제공합니다. 첫째, AI 도입에서 민감 정보는 전적으로 내부에서 처리함으로써 외부 노출을 막고 있습니다. 둘째, 다양한 AI 모델을 과제에 따라 조합함으로써 처리 효율성과 정확성 모두를 잡고 있습니다. 셋째, 다중 에이전트 기반 아키텍처를 통해 문서 자동화나 리스크 재평가 같은 고차원 작업도 AI가 주도하게 만들고 있습니다. 마지막으로, 빠른 응답과 안정적인 요금 체계를 활용해 실제 고객 대응 품질도 높이고 있습니다.
이 모든 요소가 모여, 웰스파고는 AI를 단순한 기능이 아닌 ‘디지털 전환의 기반’으로 삼고 있다는 사실이 인상적입니다.
결론: 생성형 AI는 더 이상 실험이 아니다
웰스파고는 비록 한 기업의 사례일 뿐이지만, 그 전략은 금융업은 물론 데이터를 민감하게 다루는 모든 기업에 실질적인 방향성을 제시하고 있습니다. AI 기술 도입에서 가장 중요한 것은 기술 자체보다 ‘어떻게 탄탄한 구조를 설계하고 안전하게 운영할 것인가’입니다.
앞으로 생성형 AI는 단순한 고객 응대 도구가 아니라, 기업의 전략과 운영 프로세스 전반을 바꿀 수 있는 핵심 수단이 될 것입니다. 지금 이 시점에서 기업은 AI 도입 여부를 넘어서, 어떤 구조로 AI를 통합할 것인지에 대한 전략적 판단이 필요한 때입니다. 새로운 가치는 복잡한 기술보다 잘 설계된 시스템에서 시작되기 때문입니다. 금융을 비롯한 우리나라 대부분의 큰 기업에서 참고할만한 사례이자 구현 방법론인 것 같습니다. 조만간 나올 제 책에도 똑같은 방법을 주장을 했는데요 이에 대해서는 추후 또 소개하겠습니다.

함께 읽으면 좋은 글: