AI가 더 나은 의사결정을 하는 데 도움이 될까요?

빠르게 변화하는 오늘날의 디지털 시대에 인공지능(AI)은 기술 발전의 초석이 되었습니다. AI가 혁신을 약속하는 가장 중요한 분야 중 하나는 의사결정 분야입니다. 하지만 AI가 진정으로 더 나은 의사결정을 내릴 수 있을까요, 아니면 더 빠른 의사결정을 내릴 수 있을까요? 더 자세히 살펴보겠습니다.

마리안 벨로티: AI 영역의 이성의 목소리

더 많은 데이터가 더 나은 의사결정으로 이어질까요?

엔지니어이자 인류학자인 마리안 벨로티(Marianne Bellotti)는 미국 디지털 서비스 및 UN 산하 인도주의 데이터 교환에서 중요한 역할을 수행했고 IT 프로젝트 관리에 관한 책을 저술하기도 했습니다.

벨로티는 저술에서 종종 대중적인 관념에 도전하는데, 그 중 하나는 더 많은 데이터가 있으면 더 나은 의사결정을 할 수 있다는 오래된 믿음입니다.

그러나 우리가 얼마나 많은 데이터를 수집하든, 기계가 얼마나 빠르거나 강력하든, 더 나은 의사결정에 대한 꿈은 여전히 ​​도달할 수 없는 것 같다고 벨로티는 말합니다. 

더 많이 안다고 해서 더 나은 결정을 내리는 것은 아닙니다.

예를 들어, 이커머스 업계에서는 많은 양의 데이터가 소비자 행동에 대한 인사이트를 제공할 수는 있지만 반드시 매출 증대를 보장하지는 않습니다. 기업이 사용자 클릭에 대한 방대한 양의 데이터를 보유하고 있다고 해도 클릭의 이유를 이해하지 못하면 마케팅 전략이 실패로 돌아갈 수 있습니다.

실리콘 밸리의 통찰: 관점의 전환

2008년은 실리콘 밸리의 기술 거물들에게 중요한 한 해였습니다. 노벨 경제학상 수상자인 대니얼 카너먼은 이들에게 행동 경제학의 복잡성을 소개했습니다. 이 회의는 거대 기술 기업들이 제품 개발과 사용자 경험에 접근하는 방식에 전환점이 된 것으로 평가받습니다.

벨로티는 2008년 다니엘 카너먼이 실리콘밸리 거물들에게 행동경제학을 소개했던 행사를 회상합니다. 벨로티는 카네만 컨퍼런스의 초점은 AI나 빅 데이터가 아니라 인간의 의사결정 편향을 이해하는 데 있었다고 강조합니다.

예를 들어, 사용자는 객관적으로 최고이기 때문이 아니라 브랜드에 대한 친숙함이나 효과적인 광고 때문에 제품을 선택할 수 있습니다.

데이터 기반 지식에 대한 환상적인 꿈

기술 업계에서 많은 양의 데이터 스트림이 더 나은 지식으로 이어진다는 꿈은 오래전부터 있어 왔지만 여전히 실현하기 어렵습니다. 방대한 양의 데이터와 기술의 발전에도 불구하고 우리는 1970년대보다 컴퓨터화된 두뇌를 통해 완전한 지식을 얻는 데 더 가까워지지 않았습니다.

인공지능-의사결정
인공지능-의사결정

벨로티의 주장은 데이터만으로는 마법의 묘약이 아니라는 본질적인 측면을 조명합니다. 의료 분야의 예는 희망적이기는 하지만 도전 과제도 안고 있습니다. 데이터를 잘못 해석하면 잘못된 진단으로 이어져 득보다 실이 많을 수 있습니다.

AI에 대한 진정한 기대: 현실 점검

세상은 AI가 상황을 종합적으로 파악하여 완벽한 의사결정을 지원할 것으로 기대하지만, 현실은 다릅니다. 대부분의 실제 시나리오에서 의사결정권자는 효율성을 우선시합니다.

벨로티는 AI에 대한 기대는 상황에 대한 ‘완전한’ 이해를 통해 더 나은 의사결정을 내리는 것이라고 주장합니다. 그러나 실제로 의사결정권자는 노력을 절약하는 것을 목표로 합니다.

예를 들어 주식 거래의 경우 시장 동향에 대한 완전한 분석도 중요하지만, 트레이더는 시장 변동을 활용하기 위해 빠른 의사결정이 필요한 경우가 많습니다. 이 경우, 완전한 분석은 아니더라도 빠른 인사이트를 제공하는 AI 도구는 매우 유용합니다.

데이터 딜레마: 데이터의 양보다 질

AI 영역에서는 데이터가 많을수록 AI 성능이 향상된다는 일반적인 오해가 있습니다. 우리가 흔히 ‘깨끗한’ 데이터에 대해 말하지만, 깨끗하다고 해서 반드시 정확하거나 사용 가능한 것은 아닙니다. 데이터가 문제가 될 수 있는 이유는 사실과 다르거나 특정 맥락에서 수집되어 부적절하게 재사용되기 때문입니다.

소셜 미디어 알고리즘의 예를 생각해 보세요. 플랫폼이 사용자 선호도에 대한 방대한 데이터를 보유하고 있을 수 있지만, 이 데이터가 정확하지 않다면(사용자가 클릭 베이트 콘텐츠를 자주 클릭하기 때문일 수 있습니다) 결과적으로 추천되는 콘텐츠는 이상적이지 않을 수 있습니다.

AI의 취약성 방지 대책: 안티프래질

AI 업계에서 가장 시급한 문제 중 하나는 취약성입니다. 데이터 품질에 크게 의존하는 현재의 AI 시스템은 잘못된 데이터로 인해 흔들릴 수 있습니다.

인공지능은 문제를 공격하는 새로운 방법을 발명할 수 있습니다. 발전소, 대중교통, 통신 시스템의 디지털화가 사이버 범죄를 야기한 것처럼 AI도 새로운 형태의 문제를 초래할 위험이 있습니다.

현재의 AI 시스템은 데이터 품질에 크게 의존하고 있습니다. 해결책은 무엇일까요?

AI의 취약성에 대한 대책으로 불량 데이터에 대한 복원력, 즉 나심 니콜라스 탈레브(Nassim Nicholas Taleb)가 만든 용어인 ‘안티프래질 시스템(antifragile system)‘을 강화해야 할 필요가 있습니다. 안티프래질 시스템은 장애로부터 복구할 뿐만 아니라 장애에 노출되었을 때 더 강해집니다.

벨로티는 “AI의 목적이 의사결정을 개선하는 것이라면 전문가를 능가하는 것이 아니라 가설 테스트를 통해 의사결정자를 안내해야 합니다. AI가 전문가를 능가하려고 하면 수신하는 데이터의 품질에 전적으로 의존하게 되고, 이는 극복하기 어려운 일련의 취약성을 야기합니다.”라고 말합니다.

AI의 미래: 선택의 제한이 아닌 선택의 확장

즉 안티프래질 AI는 의사결정을 내리는 것이 아니라 선택의 폭을 넓히는 데 도움을 주어야 합니다. 대신, “사람들이 의사결정의 기초가 되는 가정을 공식화하고, 다른 이해 관계자에게 이러한 가정을 전달하며, 의사결정자에게 이러한 가정과 관련된 현장 상황의 중대한 변화를 경고”할 수 있도록 도와야 합니다.

벨로티는 AI 시스템이 선택의 폭을 제한하기보다는 확장하도록 설계되어야 한다고 제안합니다. 특히 형사 사법처럼 민감한 분야에서는 심각한 오류를 초래할 수 있으므로 AI 결과를 결론으로 간주하지 말라고 경고합니다.

벨로티는 시스템이 인간을 대신해 결정을 내리는 것이 아니라 인간에게 더 많은 선택권을 부여하는 AI의 미래를 구상합니다. 예를 들어, AI 어시스턴트가 단순히 사용자의 캘린더에 따라 회의 일정을 예약하는 대신 사용자의 과거 선호도, 현재 업무량, 기분까지 고려하여 다양한 옵션을 제공할 수 있습니다.

결론

AI가 계속 진화함에 따라 속도와 완벽함 사이의 균형을 맞추는 것이 중요합니다. 의사결정에 혁신을 가져올 AI의 가능성은 흥미롭지만, 그 기능과 한계를 이해하면서 접근하는 것이 중요합니다. 마리안 벨로티의 인사이트에서 알 수 있듯이, AI의 미래는 단순히 의사결정을 더 빠르게 내리는 것이 아니라 더 스마트하고, 더 많은 정보를 바탕으로, 인간에게 선택의 폭을 더 넓히는 데에 있습니다.

글 공유하기👇

  • 카카오톡
  • 네이버-밴드
  • 페이스북
  • 트위터
  • pinterest