챗GPT의 정보 유출 위험
ChatGPT(챗GPT) 같은 생성형 AI 서비스를 활용하면 확실히 업무 생산성을 높일 수 있습니다. 특히 N잡러에겐 필수 툴일 겁니다. 저도 업무 관련 이메일이나 채팅, 글 초안 등을 작성하거나 간편하게 정보를 조사해야 할 때 생성형 AI를 참고할 때가 있는데, 이때 몇 가지 주의해야 할 점이 있습니다.
저는 프롬프트를 입력할 때 개인 정보나 특정될 만한 정보, 비공개 정보, 기밀 등 문제 될 만한 데이터를 넣지 않으려고 늘 확인 또 확인합니다. 프롬프트로 입력되는 모든 데이터는 기본적으로 챗GPT에 보관될 뿐만 아니라 챗GPT 모델을 학습시키는 데도 사용된다고 알려져 있거든요. 사실상 제 데이터가 유출되는 셈이라 조심해야 해요.
실제로 삼성전자 등 여러 기업에서 내부 정보가 유출되면서 챗GPT 사용을 금지하거나 자체적으로 폐쇄형 GPT를 구축하는 경우가 늘어났습니다.
챗GPT 데이터 컨트롤 설정 방법
자본과 역량이 있는 기업에서는 챗GPT API를 활용해서 자체 AI 서비스를 만들 수 있을 테지만, 그렇지 못한 개인은 어떻게 개인정보와 중요 데이터를 보호할 수 있을까요? 챗GPT를 유료로 구독하더라도 데이터 암호화 기술 같은 건 제공되지 않는데 말이죠.
이러한 개인정보 보호 문제가 유럽에서 제기되자 챗GPT에서 '데이터 컨트롤' 기능을 내놓았습니다. 방법은 간단합니다.
챗GPT 설정
1. 데스크톱 기준, 챗지피티 오른쪽 상단의 개인 프로필을 클릭한 후 '설정' 메뉴에 들어갑니다.
2. '설정'에서 '데이터 제어'를 누릅니다.
3. '모두를 위한 모델 개선' 기능을 끄고 '완료'를 누릅니다. 그러면 사용자의 콘텐츠를 사용하여 챗지피티 모델을 훈련하는 것을 허용하지 않게 됩니다.
챗GPT 프라이버시 포털 옵트 아웃
챗GPT 도움말에서 또 다른 설정 방법을 찾아냈습니다. 챗GPT 전용 프라이버시 포털에서 사용자의 콘텐츠로 모델을 훈련시키는 행위를 금지하도록 요청할 수 있습니다.
1. 오픈AI 프라이버시 포털에 접속하면 아래와 같은 화면이 뜹니다. 오픈AI는 챗GPT를 만든 회사입니다.
이때 아래와 같이 이메일 본인 인증창이 뜰 수 있습니다. 챗지피티에 가입한 이메일 주소를 넣으면 챗지피티에서 해당 이메일로 인증 이메일을 보내줍니다. 그 이메일에 있는 인증 링크를 누르면 본인 확인이 됩니다.
2. 본인 인증 후 다시 위 사이트에 들어가 화면 오른쪽 상단에서 'Make a Privacy Request'를 클릭하면 아래와 같은 창이 뜹니다.
3. 'Do not train on my content'를 클릭합니다.
4. 사용자가 챗GPT와 DALL-E에 제공하는 콘텐츠를 모델 학습에 쓰지 않도록 데이터 컨트롤 요청을 하는 절차입니다. 이 요청이 승인되면 이후 입력되는 데이터는 모델 학습에 사용되지 않지만, 이미 이전에 입력된 데이터는 모델 학습에 사용됩니다.
위 창에서 이 내용을 이해한다는 'I understand that....'을 체크하고 아래 'Country/State of Residency' 박스를 눌러 현재 거주하는 국가를 선택한 후 'Submit Request'를 클릭합니다.
5. 이제 오른쪽 상단 화면에 '1 Active Request'가 표시됩니다.
요청을 진행 중이라는 이메일도 받게 됩니다.
몇 분 후에 요청이 성공적으로 처리되었다는 이메일을 받았습니다.
오픈AI의 데이터 컨트롤만으로 괜찮을까?
오픈AI가 개인정보 보호를 위한 데이터 컨트롤 기능을 제공하고 있지만, 이것만으로 데이터를 안전하게 보호할 수 있는지는 100% 확신할 수 없습니다. 왜냐하면 데이터 컨트롤 설정을 하더라도 챗GPT의 원활한 서비스 제공과 성능 개선, 보안 모니터링 등을 위해 일시적으로 사용자의 콘텐츠를 저장, 보관할 수 있기 때문이죠.
이 점에 대해서는 챗GPT가 아래와 같이 밝히고 있습니다.
사용자가 옵트 아웃을 신청하면 데이터가 모델 훈련에 활용되지 않지만, 일시적으로나마 데이터 수집 및 보관 자체는 허용되는 셈입니다. 그런데 '일시적'의 의미가 명확하게 공개되지 않았다는 점은 아쉽네요.
챗GPT 같은 생성형 AI는 업무 생산성을 높인다는 큰 장점이 있습니다. 하지만 제3자에 데이터 수집 및 유출 가능성은 여전히 존재합니다.
저는 모델 훈련 옵트아웃을 설정했지만, 오픈AI의 주장을 100% 믿진 못하겠습니다. 오픈AI의 투명성이 보장되기 전까지는 앞으로도 프롬프트 입력 시 주의를 기울이고 비공개, 민감 데이터는 넣지 않을 겁니다.
언젠가 데이터 완전 암호화와 유출 방지 기능이 제공되는 생성형 AI가 나오면 좋겠습니다. 유료 구독이라도 하고 싶네요. 하지만 현재로서는 가장 안전하게 생성형 AI를 쓰려면 직접 폐쇄형 GPT를 구축하는 방법밖에 없는 것 같습니다.
'N잡 실험실' 카테고리의 다른 글
티스토리 '작심삼주 오블완 챌린지' : 21일간의 글쓰기 여정이 곧 시작됩니다 (14) | 2024.11.05 |
---|---|
파인아트아메리카(FineArtAmerica) NFT 그림 구매 의뢰는 사기! (0) | 2024.10.23 |
해외 송금 수수료 비교 : 페이오니아 vs 와이즈, 승자는? (친구추천 링크) (2) | 2024.05.31 |
레드버블로 돈 벌 수 있을까? 판매수익 인증! 수수료, 저작권, 품질 주의 (0) | 2024.01.31 |
구글 애드센스 신청 하루 만에 승인! 블로그 수익화를 위한 5가지 전략 (3) | 2024.01.24 |