안녕하세요~ 오늘은 중요한 정보공유가 있어 전달하고자 합니다.
주변에도 많이 알려주세요!
AI(GPT, Gemini 등) 사용 시 절대 입력하지 말아야 할 개인 정보 20가지와 그 이유
현대 사회에서 인공지능(AI)은 이제 일상에서 빼놓을 수 없는 존재가 되었지만, 편리함 이면에는 중요한 개인정보 유출이라는 위험이 함께 존재합니다.
특히 GPT, Gemini와 같은 생성형 AI 챗봇을 사용하는 경우, 민감한 정보를 무심코 입력하는 일이 빈번하게 발생하며, 이는 예상치 못한 2차 피해로 이어질 수 있습니다.
이 글에서는 AI 챗봇 사용 시 절대 입력해서는 안 되는 20가지 개인정보 항목과 그 이유를 정리하였습니다.
AI 챗봇에 입력해서는 안 되는 민감 정보 20가지
절대!! 사진사진첨부 하시면 않됩니다! 첨부기능 사용하시면 않됩니다!
- 주민등록번호: 신분 도용, 금융사기 등 치명적인 피해 가능성
- 운전면허증 번호: 불법 대출, 신원 도용 등에 악용될 수 있음
- 여권 번호: 국제 범죄, 불법 출입국 등에 이용될 수 있음
- 계좌번호 및 금융 계좌 정보: 계좌 해킹, 사기 피해 발생 가능
- 신용카드 정보(CVV, 유효기간 포함): 부정 결제 등 즉각적인 금전 피해
- 비밀번호 및 OTP(일회용 비밀번호): 해킹 및 계정 탈취의 통로
- 휴대폰 번호: 스팸, 피싱, 보이스피싱 등 2차 피해 가능
- 집 주소: 스토킹, 범죄 표적 가능성
- 이메일 주소: 피싱 메일, 스팸, 계정 탈취 위험
- 생년월일: 신원 도용 시 결합 정보로 활용 가능
- 가족관계 정보(부모, 자녀 등): 가족 전체의 개인정보로 피해 확산 우려
- 출신 학교, 학번 등 학력 정보: 신원 특정에 이용될 수 있음
- 직장명, 부서, 사번 등 직장 정보: 사회공학적 해킹, 표적 공격 위험
- 건강 정보(병력, 진단서 등): 차별, 보험 사기 등 민감한 2차 피해 발생 가능
- 보험증 번호, 보험 계약 정보: 보험 사기, 정보 탈취 통로
- 고객 리스트, 계약서 등 회사 기밀: 기업 정보 유출, 경쟁사 피해
- 내부 재무자료, 사업 전략: 기업의 영업비밀 유출로 인한 손실
- 소스코드, API 키, 시스템 구조: 기술 유출, 해킹, 시스템 마비 위험
- NDA(비밀유지계약) 문서: 법적 분쟁 및 기업 신뢰도 하락 우려
- 미공개 신제품 정보: 시장 경쟁력 상실, 특허 분쟁 등 유발 가능성
왜 AI 챗봇에 민감 정보를 입력하면 안 되는가?
- 데이터 저장 및 유출 위험: 입력된 데이터가 서비스 제공업체의 서버에 저장되거나, 제3자 검토자에게 노출될 수 있습니다.
- 2차 피해 발생 가능성: 신분 도용, 금융사기, 스팸, 피싱 등 다양한 피해로 이어질 수 있습니다.
- 데이터 완전 삭제 어려움: 일부 AI 서비스는 대화 내용이 일정 기간 보관되며, 완전 삭제가 불가능할 수 있습니다.
- 기업 기밀 유출 사례 다수: 실제로 삼성 등 주요 기업에서도 내부 정보를 AI에 입력했다가 유출 사고가 발생한 바 있습니다.
- 친근한 대화 뒤에 숨은 저장 구조: 챗봇은 마치 친구처럼 대화하지만, 입력된 내용은 실제로 저장되고 분석될 수 있습니다.
안전한 AI 사용을 위한 실천 방법
- 민감 정보 절대 입력 금지: 개인식별 가능 정보 및 금전·법적 피해가 우려되는 정보는 입력하지 않아야 합니다.
- 정보 익명화 처리 습관화: 업무 문서, 코드 등을 사용할 때는 개인이나 기업 식별이 불가능하도록 익명화해야 합니다.
- 개인정보 설정 확인 및 대화 저장 방지 기능 활용: 사용 중인 서비스의 설정을 주기적으로 확인하고, 대화 저장 방지 옵션을 활용하세요.
요약정리
AI(GPT, Gemini 등)를 사용할 때는 신분증, 금융 정보, 건강 정보, 회사 기밀 등 민감한 정보를 절대 입력하지 않아야 하며, 입력 시 유출 위험과 심각한 2차 피해로 이어질 수 있습니다. 항상 신중하게 정보를 다루고, 안전한 AI 사용 문화를 실천하는 것이 무엇보다 중요합니다.
영상 보기: AI 개인정보보호 편 – YouTube
- "주기적인 AI 서비스 설정 점검 및 기록 삭제"
- "AI 사용 전 서비스 제공자의 개인정보 처리 방침 확인 습관화":
"어떤 정보가 저장되고 어떻게 활용되는지 명확히 이해해야 합니다." - "기업/조직 내 AI 보안 가이드라인 준수 및 교육의 중요성"
참고 자료
- 보안뉴스: 챗GPT 등 생성형 AI에서 개인정보가 새는 구멍은?
https://www.boannews.com/media/view.asp?idx=119138 - 개인정보보호위원회: 2024 개인정보 이슈 심층 분석 보고서
DBpia: 챗봇과 보안 위험
https://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE11415316&nodeId=NODE11415316&mobileYN=N&medaTypeCode=185004&isPDFSizeAllowed=true&locale=ko&foreignIpYn=N&articleTitle=%EC%B1%97%EB%B4%87%EA%B3%BC+%EB%B3%B4%EC%95%88+%EC%9C%84%ED%97%98&articleTitleEn=The+Security+Risks+of+ChatBots&voisId=VOIS00724946&voisName=%ED%95%9C%EA%B5%AD%EC%BD%98%ED%85%90%EC%B8%A0%ED%95%99%ED%9A%8C+2023+%EC%A2%85%ED%95%A9%ED%95%99%EC%88%A0%EB%8C%80%ED%9A%8C+&voisCnt=265&language=ko_KR&hasTopBanner=true - 법무법인 민후: AI 도입으로 인한 정보보안 이슈
- Skyhigh Security: AI 챗봇의 데이터 유출 사례
- 개인정보보호위원회 보도자료
- 네이버 블로그: 딥시크 개인정보 유출 경고 사례
Brandon AI 윤리 공식 유튜브 채널
https://www.youtube.com/@BrandonAIEthics
Brandon AI Ethics
Brandon AI윤리 Solution Center(BAESC)Brandon AI 윤리솔루션센터 기술은 빠르게 진화하지만, 우리는 그 속도를 따라가기보다 의미를 지켜갑니다. Brandon Ethics는 인공지능 시대의 윤리, 책임, 그리고 신뢰를
www.youtube.com
Title: 20 Privacy Rules You Must Follow When Using AI (GPT, Gemini, etc.)
In today's digital society, artificial intelligence (AI) has become an essential part of everyday life. However, behind its convenience lies a growing threat: the leakage of personal information. Especially with AI chatbots like GPT and Gemini, it's crucial to understand which sensitive data must never be entered to prevent unintended exposure or secondary harm. This article outlines 20 key types of personal data you should never input into AI systems—and why.
20 Types of Personal Information You Should Never Enter into AI Chatbots
- Resident Registration Number – Can lead to identity theft and financial fraud.
- Driver's License Number – May be exploited for fake IDs or unauthorized loans.
- Passport Number – Could be misused for international crimes or illegal immigration.
- Bank Account Numbers – Potential risk of account hacking and fraud.
- Credit Card Information (CVV, Expiry Date) – Immediate risk of unauthorized transactions.
- Passwords and OTPs (One-Time Passwords) – Can result in complete account takeovers.
- Mobile Phone Number – Can lead to spam, phishing, and voice phishing attacks.
- Home Address – Increases risk of stalking or physical crimes.
- Email Address – Target for phishing, spam, and account hijacking.
- Date of Birth – Often used in combination with other data to verify identity.
- Family Information (parents, children, spouse) – Exposes family to secondary risks.
- School Name, Student ID, Academic Info – Could help identify a specific individual.
- Company Name, Department, Employee ID – Raises risk of targeted social engineering attacks.
- Health Records (diagnoses, medical history) – Considered sensitive; risk of discrimination or insurance fraud.
- Insurance Policy Numbers and Info – Vulnerable to fraudulent claims and personal theft.
- Client Lists, Contracts, Business Documents – Risk of corporate leaks or legal violations.
- Financial Reports, Internal Strategies – Leaks could lead to significant business damage.
- Source Code, API Keys, System Architecture – Risks include hacking and service disruption.
- NDA-Protected Documents – Legal liabilities and trust issues if leaked.
- Undisclosed Product Plans – Potential loss of market competitiveness and patent disputes.
Why You Should Never Share Personal Information with AI
- Data Storage & Exposure Risks – AI services may store your inputs on their servers and allow internal access.
- Severe Secondary Damage – Leaked data can be used for identity theft, scams, spam, or cyberattacks.
- Permanent Trace Risk – Some services retain records for extended periods, making full deletion difficult.
- Corporate Information Leaks – Real cases (e.g., Samsung) have shown AI misuse can jeopardize entire companies.
- Friendly Interface, Hidden Storage – Chatbots may appear human-like, but the data you enter is often logged and reviewed.
Practical Tips for Safe AI Use
- Never input personally identifiable or sensitive information.
- Anonymize or de-identify documents or data before use.
- Review your AI service's privacy settings regularly and disable chat history saving features when possible.
Summary
When using AI tools like GPT or Gemini, never enter data that can identify you, access your finances, reveal your health, or expose your company's secrets. Every entry carries the risk of exposure, so practice cautious, responsible AI usage to protect yourself and others.
References:
- Boan News: "Data Leakage Risks in Generative AI Tools like ChatGPT"
- 2024 Privacy Trends Analysis Report (Personal Information Protection Commission)
- DBpia: "Chatbots and Information Security Risks"
- Minwho Law Firm: "Legal Implications of AI in Enterprise Environments"
- Skyhigh Security: "AI Chatbot Data Leak Concerns"
- Korea PIPC: AI-related official press releases
- Korean Blogs: DeepsiQ AI ban notice and privacy risks
'우리들의 AI 윤리 이야기 > AI 윤리, 보고 즐겨요' 카테고리의 다른 글
쉽게 이해하는 알아두면 좋은 최신 AI 용어 50선 중급자용(2025년 기준) (2) | 2025.08.20 |
---|---|
쉽게 이해하는 알아두면 좋은 최신 AI 용어 50선 입문용(2025년 기준) (10) | 2025.06.06 |
AI 시대 : 2년의 상용화 사회 변화와 미래 브리핑 요약 (6) | 2025.06.06 |