생성형 AI가 실험 단계를 넘어 소비자의 일상적인 디지털 도구로 자리 잡고 있다. 다만 기술에 대한 기대가 커진 만큼, 개인정보보호와 투명성에 대한 요구도 한층 강화되고 있다. 혁신의 속도보다 ‘어떻게 혁신하느냐’가 기술 기업의 성과를 좌우하는 핵심 변수로 떠오르고 있는 것이다.
딜로이트가 최근 발표한 ‘생성형 AI와 신뢰기반 혁신’ 보고서에 따르면, 2025년 미국 소비자 3524명을 대상으로 실시한 ‘커넥티드 컨슈머 스터디’에서 생성형 AI를 실험적으로 또는 정기적으로 사용하다는 응답자는 53%로 집계됐다. 이는 2024년 38%에서 1년 만에 15%p 증가한 수치다. 특히 업무나 프로젝트에 정기적으로 활용하는 ‘핵심 사용자’ 비중은 20%로, 전년 대비 두 배 가까이 늘었다.
실험 넘어 ‘상시 사용’ 단계…업무현장으로 빠르게 확산
생성형 AI는 이미 일상에 깊숙이 스며들었다. 사용자 절반 이상은 매일 생성형 AI를 활용하고 있으며, 10명 중 4명은 주 1회 이상 사용한다고 답했다. 활용 채널도 다양해졌다. 독립형 AI 앱이나 전용 웹사이트뿐 아니라 검색, 소셜미디어, 오피스 생산성 도구 등 기존 서비스에 내장된 형태로 AI를 사용하는 비율이 69%에 달했다.

활용 목적 역시 개인 영역에 머물지 않는다. 개인적 용도가 여전히 주류이지만, 업무 활용 비율은 2023년 6%에서 2025년 34%로 급증했다. 글쓰기와 편집, 조사와 요약, 개념 설명 등 사무 전반에 AI가 활용되고 있다는 의미다. 직장인의 절반 이상은 생성형 AI가 생산성을 크게 또는 어느 정도 향상시킨다고 평가했다.
회사가 제공한 AI 도구를 사용한다는 응답은 57%였지만, 개인 계정이나 기기를 통해 자체적으로 도구를 사용하는 비율은 69%에 달했다. 이른바 ‘섀도 AI’ 현상이 확산되고 있는 셈이다. 이는 AI 활용 수요가 제도와 정책을 앞서가고 있음을 보여주는 동시에, 보안과 거버넌스 측면의 새로운 리스크가 될 수 있음을 시사한다.
커지는 효용만큼 커진 불안…정보 신뢰·보안 우려 여전
보고서는 생성형 AI에 대한 소비자 인식은 양면적이라고 분석했다. 생성형 AI 사용자와 실험적 사용자 중 82%는 ‘기술이 악용될 가능성이 있다’고 우려했으며, 74%는 비판적 사고 능력이 약화될 수 있다고 답했다. 실제로 3명 중 1명은 생성형 AI 사용 과정에서 부정확하거나 오해의 소지가 있는 정보를 접한 경험이 있다고 밝혔다.
그럼에도 사용자는 AI 결과를 무비판적으로 수용하지 않는다. 절반 이상은 AI가 제시한 결과를 외부 출처와 대조하거나, 자신의 지식과 비교하거나, 반복 프롬프트를 통해 검증한다고 응답했다. 생성형 AI 확산과 함께 이용자의 ‘검증 역량’도 동시에 진화하고 있는 셈이다.
문제는 신뢰다. 응답자의 약 4분의 3은 생성형 AI 확산 이후 온라인에서 접하는 정보의 전반적인 신뢰성이 낮아졌다고 느끼고 있다. 개인정보보호와 보안에 대한 우려도 뚜렷하다. 디지털 서비스 이용 시 데이터 프라이버시가 걱정된다는 응답은 1년 새 60%에서 70%로 증가했다. 지난 1년간 해킹이나 계정 침해 등을 경험한 소비자도 절반에 가까웠다.
‘빠른 혁신’보다 ‘책임 있는 혁신’…기술 기업의 선택지는
보고서는 이 같은 환경 속에서 기술 기업의 성과를 가르는 핵심 요인으로 ‘책임 있는 혁신’을 제시했다. 조사 결과, 혁신성과 데이터 책임성을 동시에 갖춘 ‘신뢰 받는 선도 기업’은 전체의 24%에 불과했지만, 이들 기업은 신뢰도와 만족도, 지출 수준에서 가장 높은 성과를 기록했다. 반면 혁신은 빠르지만 데이터 보호와 투명성이 부족한 기업은 기술력 대비 낮은 신뢰와 충성도를 보였다.
보고서는 기술 기업이 신뢰를 구축하기 위해서는 정책이나 약관에서 그칠 것이 아니라, 제품과 서비스 설계 단계에서부터 구현해야 한다고 강조했다. 어떤 데이터를 수집하고, 어떻게 활용하며, 이용자가 이를 어떻게 통제할 수 있는지를 명확하고 이해하기 쉬운 방식으로 제공해야 한다는 것이다. 실제로 데이터 관리 방식에 대해 ‘매우 명확하다’고 느끼는 소비자는 20%에 불과했다.

개인화 전략 역시 재정의가 필요하다고 제언했다. 소비자는 개인화된 경험 자체를 거부하지 않지만, 실질적인 문제 해결로 이어지지 않는 기능에는 높은 가치를 부여하지 않는다. 개인화가 삶의 질 개선이나 업무 효율 향상으로 체감될 때에만 만족도와 긍정적 영향이 동반된다는 분석이다.
생성형 AI 설계 방향에 대해서도 조언했다. 편의성을 높이는 도구를 넘어, 출처 확인과 결과 검증을 돕고 이용자의 비판적 사고를 유지할 수 있도록 지원하는 기능이 필요하다는 지적이다. 이는 AI 확산으로 약화될 수 있다는 우려를 받는 정보 판단력을 보완하는 역할을 한다.
기업 환경에서는 ‘섀도 AI’에 대한 현실적 대응이 중요 과제로 떠올랐다. 근로자의 상당수가 개인 계정으로 생성형 AI를 활용하는 상황에서, 이를 금지하는 방식보다는 안전하고 공식적으로 승인된 도구와 명확한 가이드라인, 교육을 제공하는 전략이 필요하다는 것이다. 이는 보안 리스크를 줄이는 동시에 직원의 생산성 요구를 충족하는 현실적인 해법으로 제시됐다.중기이코노미 채민선 기자
<저작권자 ⓒ 중기이코노미. 무단전재 및 재배포 금지>