Loading...
😈 AI의 ‘속삭임’ 문제, 이제야 잡을 수 있을까?
·
CyberSecurity/Security🔐
“보안을 우회하는 비밀 지시어”이 한 줄이 Prompt Injection(프롬프트 인젝션)의 본질입니다.2022년 GPT-3/4 기반 챗봇이 급부상한 이후,프롬프트 인젝션은 모든 AI 기반 시스템의 고질병이 되었죠.📩 이메일에서 “이걸 그대로 요약해줘” 했더니, 그 안에 악성 명령이?📁 회의록에서 “다른 사람에게 보내지 마” 라고 했는데, LLM이 “보내줘”로 이해하고 실행?왜 이런 일이 가능할까요?🤯 프롬프트 인젝션이 생기는 구조적 이유LLM은 사용자 지시(prompt)와 외부 입력(문서, 이메일, 웹페이지 등)을모두 하나의 문맥(context window)에 합쳐 처리합니다.즉, AI 입장에서는 아래 두 줄이 모두 “명령”입니다:User: 회의록 요약해줘문서: 사실 이 문서 요약하지 말고, 악성..