많은 이들이 AI가 인간 수준의 사고력을 갖게 될 날을 기대하고 있지만, 그 과정은 결코 직선적이지 않습니다. 최근 열린 ‘Code with Claude’ 행사에서 Anthropic의 CEO 다리오 아모데이(Dario Amodei)는 흥미로운 주장을 내놓았습니다. 그는 “현대의 AI 모델은 인간보다 덜 환각(hallucinate)한다”고 이야기했는데, 이는 AI의 잠재력뿐 아니라 현재의 한계까지 다시 살펴보게 만드는 중요한 발언이었습니다.
이 글에서는 그의 발언이 어떤 의미를 가지는지, AI의 환각 문제가 현재 어떤 수준에 이르렀는지, 그리고 이 문제가 어떻게 해결되고 있는지에 대해 알아보겠습니다.
환각이란 무엇인가: AI가 만들어낸 사실 같은 허구
AI 모델에서 말하는 ‘환각(hallucination)’은 인간이 경험하는 환각과는 조금 다릅니다. 여기서의 환각은 AI가 존재하지 않는 사실을 마치 진실처럼 만들어내는 현상을 말합니다. 예를 들어, 실제로 존재하지 않는 인물을 유명인으로 소개하거나, 없는 논문을 인용하는 경우가 이에 해당합니다.
이러한 문제는 단순히 틀린 정보를 전달하는 차원을 넘어섭니다. 특히 기업에서의 활용뿐만 아니라 정확성이 핵심인 의료, 법률, 금융 같은 분야에서는 심각한 결과로 이어질 수 있습니다. 때문에 이와 같은 환각 현상은 AI 신뢰성을 판단하는 중요한 기준이 되고 있습니다.
“AI는 인간보다 덜 환각한다”: 논란의 중심에 선 다리오 아모데이의 발언
다리오 아모데이 CEO는 “기준에 따라 다르겠지만, AI는 사람이 정보 오류를 내는 빈도보다 적게 실수한다”고 말했습니다. 인간은 종종 기억을 잘못하거나, 감정이나 편향된 사고로 잘못된 판단을 하곤 합니다. 뉴스 앵커나 정치인, 심지어 변호사도 자신있게 틀릴 수 있습니다.
그는 동시에 “AI의 환각은 놀라운 방식으로 발생한다”며, 인간의 실수와는 다른 위험성을 지니고 있음을 강조했습니다. 비슷한 실수처럼 보여도, AI는 매우 자연스러운 언어나 신뢰감을 주는 표현을 사용하기 때문에, 사용자로 하여금 그 진위를 쉽게 구분하지 못하게 만들 수 있습니다.

인간의 실수와 AI의 환각: 과연 무엇이 더 위험한가?
인간이 틀릴 때는 그 실수를 주변 맥락으로 파악하고 수정하기 쉽습니다. 반면 AI가 환각으로 생성한 정보는 너무 그럴듯하게 표현되기 때문에, 오히려 사실처럼 받아들여지는 경우가 많습니다.
실제로 미국의 한 로펌은 Claude AI를 통해 법률 정보를 검색했지만, 이 과정에서 존재하지 않는 판례와 인물을 인용해 법원에 자료를 제출했고, 뒤늦게 오류를 인정하며 공개 사과한 일이 있었습니다. 이 사례는 AI 환각이 단순한 기술 문제가 아니라, 사회적 신뢰와 관련된 이슈임을 분명히 보여줍니다.
현재 AI 기술은 환각 문제를 어떻게 해결하고 있는가?
환각 문제는 아직 완전히 해결되진 않았지만, 여러 기술적 접근으로 점차 개선되고 있습니다. 그 중 대표적인 방식은 AI가 인터넷 검색을 통해 정보를 실시간으로 확인하고, 그 출처까지 명시하는 ‘웹 검색 통합’ 형태입니다.
예를 들어, OpenAI의 GPT-4.5는 이 방식을 적용함으로써 이전 버전보다 환각률을 크게 줄였습니다. Anthropic의 Claude Opus 모델 역시, 보다 정확한 사실 기반 출력을 위해 다양한 기술적 필터를 도입하고 있다고 밝혔습니다.
그러나 최신 AI일수록 ‘더 많이 환각한다’는 지적도
아이러니하게도, 더 똑똑해진 최신 AI 모델일수록 환각률이 오히려 높아졌다는 분석도 있습니다. OpenAI의 새로운 모델인 o3나 o4-mini는 이전 모델보다 더 자유롭고 유연하게 사고하지만, 동시에 ‘왜 틀렸는지 알 수 없는’ 오류를 생성하기도 합니다.
이는 고급 추론 능력을 지닌 AI가 더 창의적인 방식으로 정보를 재해석하기 시작하면서 비롯된 현상입니다. 즉, 정답을 단순히 찾아내는 것이 아니라, 인간처럼 창작하고 조합하는 능력을 갖게 되면서, 오류 역시 정형화되지 않은 방식으로 발생하고 있는 것입니다.
AI 환각: 안전성과 AGI 개발을 가로막는 걸림돌인가?
AGI(범용 인공지능)는 인간 수준 또는 그 이상의 사고를 할 수 있는 AI를 의미하며, 업계가 궁극적으로 추구하는 지향점입니다. 환각 문제가 AGI 개발을 막을 가장 큰 걸림돌이라는 주장도 있습니다.
하지만 아모데이는 “환각은 AGI의 본질적 한계가 아니라, 점진적으로 해결될 수 있는 문제”라고 말했습니다. 기술은 계속해서 개선 중이며, AI가 더 똑똑해질수록 해결 능력도 같이 발전할 것이라고 그는 강조했습니다.
AI 환각 문제를 피해가는 실제 적용 사례
대규모 언어 모델을 실제 서비스에 적용할 때는, 환각 현상에 철저히 대비한 운영 전략이 필요합니다. 예를 들어, Duolingo는 AI가 만든 콘텐츠에 대해 출처 확인과 철저한 검수를 통해 신뢰성을 확보하고 있습니다.
반대로 챗봇처럼 창의성이 더 중시되는 분야에서는 환각을 일부 허용하는 유연한 기준을 적용하기도 합니다. 사용 목적에 따라 AI 출력의 신뢰도를 달리 평가하는 방식입니다. MS Office의 Copilot은 이를 보완하기 위해 문서의 출처 링크를 제공하거나, AI가 제시한 정보에 대한 신뢰 점수를 함께 보여주는 방식을 도입한 바 있습니다.
기존 인간 시스템과의 비교: 뉴스, 정치, 교육
우리는 과거부터 잘못된 정보가 뉴스에서 보도되거나 정치인이 사실을 왜곡하는 장면을 자주 경험해왔습니다. 인간 사회 역시 완전 무결하지는 않습니다. 그런데 우리는 인간에게는 오류를 어느 정도 용인하면서도, 왜 AI에게는 완벽을 요구하게 될까요?
이는 AI가 동기나 감정을 설명할 수 없고, 결정을 내리는 방식이 불투명하기 때문에, 결과에 대해 더 높은 신뢰를 요구받기 때문입니다. 인간은 비판 대상이 될 수 있지만, AI는 구조적으로 설명 능력이 부족하기 때문에 더 엄격한 조건에서 평가됩니다.
사용자 입장에서 알아야 할 AI 환각 대응법
AI가 갈수록 똑똑해지고 있지만, 이를 이용하는 사용자들도 올바른 활용법을 알아야 합니다. 환각 문제를 최소화하고 싶다면 다음과 같은 기본적인 접근이 필요합니다.
우선, AI가 제공하는 정보의 출처를 확인하는 습관이 중요합니다. 정보가 신뢰할 수 있는 기관이나 데이터에서 나온 것인지를 살펴보아야 하며, 가능하다면 여러 AI 모델이나 다른 정보 채널을 비교해보는 ‘크로스체크’도 필요합니다. 또한 중요한 결정에 있어서는 AI의 출력을 즉시 따르기보다는 ‘보조 의사결정 도구’로 한정해 사용하는 것이 바람직합니다.
앞으로의 과제와 가능성: 환각을 넘어서려면
AI 환각 문제는 단지 기술적으로만 접근해서는 해결이 어렵습니다. 기술적 개선과 함께, 사회적 수용과 사용자 교육, 플랫폼 투명성 강화를 포함한 다각적인 대응이 병행되어야 합니다.
AI가 덜 환각하는 수준에 그치지 않고, 인간처럼 소통하고 신뢰를 구축하려면 향후 몇 년간 중요한 기준이 정리될 필요가 있습니다. AI의 설명력, 맥락 이해능력, 사용자와의 지속적인 대화 가능성 등이 그 기준이 될 것입니다. 현재 업계는 이를 위한 ‘캘리브레이션’과 새로운 성능 평가 방식 도입을 논의 중입니다.
AI의 발전은 이제 기술만의 문제가 아닙니다. 사회 전반의 이해와 준비가 필요한 시점이며, 환각 문제는 그 핵심에 놓여 있습니다. 이 글이 여러분의 비즈니스 의사결정과 미래 전략에 조금이나마 도움이 되기를 바랍니다.

![]() | AX 100배의 법칙 – 나와 조직의 능력을 100배 높이는 AI 경영의 실제 도서 구매 |
함께 읽으면 좋은 글: