전체메뉴 검색
IT

질문마다 회사 기밀 샌다…기업마다 챗GPT 보안 골머리

선재관 기자 2023-04-06 00:00:00

[사진=연합뉴스 로이터]

[이코노믹데일리] 학습 능력이 뛰어난 챗GPT에 대해 기업들이 골머리를 앓고 있다. 내부적으로 챗GPT 활용성에 대해 공감 하지만 오픈된 인공지능(AI)이란 특성 상 모든 대화 과정을 학습 데이터로 활용, 기밀정보 유출 가능성이 높기 때문이다. 

챗GPT가 각종 업무에 도움이 된다는 사실이 알려지면서 일부 임직원이 핵심 기밀 같은 대외비 자료를 챗GPT에 입력하는 사례가 급증하고 있다. 이렇게 입력된 자료는 모두 챗GPT 운영사인 오픈AI로 전송된다.
 

오픈AI의 챗GPT 도움말 중 일부. 이용자의 대화를 AI 모델 학습에 쓸 수 있다고 명시[사진=OpenAI 캡쳐]

지난달까지 챗GPT 접속을 허용했던 삼성 반도체(DS) 부문은 최근 임직원을 대상으로 보안 지침을 강화했다. 사내 보안에 더 주의하고, 챗GPT 등 오픈형 AI 서비스에 회사 기밀과 사적인 내용은 입력하지 말라는 지침이 내려왔지만 일부 임직원이 반도체 관련 프로그램을 챗GPT에 입력해 오류 해결이나 최적화를 요청한 사례가 모니터링 과정에서 적발됐다. 

설사 AI 개발사들이 전송된 이용자 정보를 활용하지 않는다고 해도 서버에 저장된 질문이 해킹되거나 오류로 일반에 공개될 가능성도 있다. 실제로 지난달 24일 챗GPT 개발사인 오픈AI는 "프로그램 오류로 일부 이용자가 타 이용자의 채팅 제목을 볼 수 있는 문제가 발생했다"고 밝혔다. 

삼성전자는 사내 보안에 더 주의하고, 챗GPT 등 오픈형 AI 서비스에 회사 기밀과 사적인 내용은 입력하지 말라는 지침을 내렸다.

SK하이닉스도 지난 2월 사내 공지를 통해 사내망을 통해 챗GPT를 사용하지 못하게 접근을 제한하고 있다. 챗GPT 사용이 필요한 경우 보안성 검토를 통해 회사 승인을 받아야 가능하다.

포스코는 오픈AI가 아닌 내부 인트라넷을 통해서만 챗GPT 활용하도록 별도 경로를 마련해 임직원에게 안내하고 있다. 

LG전자는 제한 없이 챗GPT를 사용하도록 하고 있으나 정보 보호와 유출 방지 등을 수시로 내부망을 통해 강조하고 있다. 향후 정보 보안을 위한 사내 지침을 공지할 계획이다.

LG디스플레이도 정기적으로 보안 지침을 공지하고 사내 정보 보호·유출 방지 관련 교육을 통해 임직원의 정보 보안 인식을 높이고 있다.
 

샘 올트먼 OpenAI 최고경영자[[사진=AFP·연합뉴스]]

챗GPT 개발사 오픈AI의 샘 올트먼 최고경영자(CEO)가 이르면 올해 5월 서울을 포함해 전 세계 주요 17개 도시를 방문한다. 챗GPT에 대한 보안·윤리 논란이 커지자 직접 사용자를 만나겠다는 것이다.

올트먼 CEO는 트위터에서도 이 같은 사실을 알리며 "정책 입안자들과 만나 대화하기를 바란다"고 전했다.
0개의 댓글
0 / 300
댓글을 삭제 하시겠습니까?
닫기
로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?
닫기
기사 이미지 확대 보기
닫기