OpenAI는 사용자가 선택적으로 ChatGPT 대화를 구글 등 검색 엔진에 노출 가능하게 설정할 수 있는 기능을 전면 중단했다. 해당 기능은 사용자가 채팅을 공유하면서 “Make this chat discoverable” 옵션에 체크하면 링크가 검색 엔진에 인덱싱될 수 있도록 했지만, 이는 수많은 민감한 프라이빗 대화가 검색 결과에 노출되는 사고로 이어졌다.
Fast Company 보도에 따르면, 약 4,500건 이상의 대화가 구글에 노출되었으며, 일부는 정신 건강, 직장 고민, 개인정보 등이 포함된 사례도 있었다. OpenAI는 이러한 노출이 정확히 ‘사용자 동의(opt-in)’ 기반이지만, 많은 경우 사용자가 경고 메시지를 제대로 이해하지 못해 원하지 않는 공개를 초래했다고 문제를 인정했다.
OpenAI 정보보안책임자(CISO) Dane Stuckey는 X(구 트위터)를 통해 “해당 기능은 단기 실험으로 의도했으나 실수로 공유되는 경우가 너무 많았다”며 이유로 기능 제거와 이미 인덱싱된 콘텐츠 삭제 작업을 진행 중이라고 밝혔다.
전문가들은 이 기능은 명시적으로 opt-in을 요구했지만, UI가 충분히 명확하지 않아 사용자 인지도와 이해도를 과소평가했다는 지적했다. 특히 사회공학적 위험이 높은 대화가 노출된 만큼, 단순 기능 설계만으로는 민감 정보 보호에 한계가 있다는 의견도 있었다. AI 기능을 내∙외부에서 활용하는 기업은 공급업체의 데이터관리 정책, 사용자 가이드라인 등 전반에 걸친 검토 강화가 필요하다는 주장도 일각에서 제기되고 있다.
이번 사건은 기술 혁신을 강조한 AI 기능이 사용자 프라이버시와 어떻게 상충될 수 있는지 단적으로 보여준다. 특히, AI 기반 개인 활용이 증가하는 비즈니스 환경에서는 한 번의 실수도 기업의 브랜드 신뢰에 치명타가 될 수 있다.
OpenAI는 빠른 대응으로 기능을 제거하고 검색 엔진과 협업 중이지만, 검색 인덱스 캐시 등으로 인해 과거에 공유된 콘텐츠 일부는 일정 시간 노출이 지속될 수도 있다는 점을 경고하고 있다.
기업 마케터와 AI 도입 책임자는 이제 단순 기능의 유용성을 넘어, ‘보안 중심(AI governance)’ 설계를 기준으로 공급사를 평가하고 내부적으로는 AI 사용 정책과 사내 트레이닝을 강화해야 할 시점이다.