배너 닫기

[KBR 팟캐스트] 삼성도 털렸다! ChatGPT 기밀 유출 사태와 기업 보안의 붕괴|AI 시대 당신의 회사는 안전한가?

등록일 2025년06월13일 11시01분 트위터로 보내기

직원들의 ChatGPT 업무 활용, 기업 기밀유출 위기 가속화

 


[AI를 통한 기업의 기밀 유출이 심각해지고 있다. (이미지 : 코리아비즈니스리뷰)]


AI 도구 확산으로 전 세계 기업 보안 위기 직면
2025년 현재 전 세계 기업들이 직원들의 ChatGPT 등 생성형 AI 도구 사용으로 인한 기밀정보 유출 위기에 직면하고 있다. 업무 효율성을 위해 AI를 활용하던 직원들이 무심코 회사 기밀을 외부 서버에 업로드하면서, 한 번 유출된 정보는 AI 학습 데이터로 활용되어 영구히 회수가 불가능해지고 있다.


삼성전자 충격 사례: 20일 만에 3건 유출
2023년 삼성전자가 ChatGPT 사용을 허가한 지 단 20일 만에 3건의 심각한 기밀 유출이 발생했다. 반도체 공장 측정 데이터베이스 소스코드, 수율 및 결함 칩 식별 프로그램, 내부 회의 녹음 파일 등이 ChatGPT에 입력되면서 핵심 기술이 OpenAI 외부 서버로 전송됐다. 이후 삼성전자는 2023년 5월 생성형 AI 사용을 전면 금지하고 자체 AI 솔루션 개발에 착수했다.

 

 

 

글로벌 기업들의 연쇄 대응

아마존은 2023년 1월 ChatGPT 사용을 제한했고, 월마트를 비롯한 다수 기업들도 '민감한 기밀 정보 입력 금지' 지침을 수립했다. 문제는 AI 도구가 제공하는 놀라운 업무 효율성 때문에 사용을 완전히 중단하기 어렵다는 점이다.


데이터 유출의 비가역성이 핵심 문제
AI 시대 기밀 유출의 가장 심각한 문제는 데이터의 비가역성이다. ChatGPT에 입력된 모든 데이터는 OpenAI 서버에 저장되며, 옵트아웃을 신청하지 않는 한 AI 학습 데이터로 활용될 수 있다. 즉, 기업의 핵심 기술이나 전략 정보가 경쟁업체나 전 세계 사용자에게 노출될 위험이 상존한다.


기업 대응 전략: 금지에서 자체 개발로
국내외 기업들은 외부 AI 서비스 금지에서 나아가 자체 AI 솔루션 개발로 방향을 전환하고 있다. 삼성SDS는 프라이빗 환경에서 생성형 AI 활용이 가능한 'FabriX'를 선보였고, 마이크로소프트 등 글로벌 IT 기업들도 데이터 저장 공간을 분리하는 프라이빗 AI 서비스 개발에 나서고 있다.


필수 대응 체계
효과적 대응을 위해서는 1단계: AI 사용 정책 수립 2단계: 네트워크 차단 등 기술적 통제 3단계: 프라이빗 AI 솔루션 도입 4단계: 직원 교육과 지속적 모니터링의 4단계 접근이 필요하다.
특히 직원들의 보안 리터러시 향상을 위한 체계적 교육과 함께, 제로트러스트 보안 모델 도입이 가속화되고 있다.


결론: 새로운 보안 패러다임 시급
AI 시대의 기밀 유출은 기업 생존과 직결된 문제다. 단순한 AI 사용 금지보다는 AI의 혁신적 가치를 포기하지 않으면서도 기밀을 보호할 수 있는 새로운 균형점을 찾아야 한다. 한 번 유출된 정보가 영구히 회수 불가능하다는 특성을 고려할 때, 선제적이고 체계적인 대응 전략을 수립한 기업만이 AI 시대의 기회를 안전하게 활용할 수 있을 것이다.

 

 

경영연구 및 사례분석 연구 : KBR경영연구소
저작권자 © 코리아비즈니스리뷰(Korea Business Review) All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지

박찬호 기자 (ch.park@koreabusinessreview.com) 이기자의 다른뉴스
좋아요 0 싫어요 0

대한민국 경영저널신문 코리아비즈니스리뷰Korea Business Review를 후원해 주세요

후원문의 : 0507-1480-4044 / 02-6352-1000 

후원 아이콘

코리아 비지니스 리뷰

후원하기

관련뉴스 - 관련뉴스가 없습니다.
유료기사 결제하기 무통장 입금자명 입금예정일자
입금할 금액은 입니다. (입금하실 입금자명 + 입금예정일자를 입력하세요)