
😈 프롬프트 인젝션 공격, 이제는 알고리즘이 직접 짠다?!
·
knowledge🧠/AI🤖
GPT나 Gemini도 속수무책인 ‘Fun-Tuning’ 기법이란?📌 TL;DR:프롬프트 인젝션 공격을 직접 짜지 않아도, 알고리즘이 최적화된 공격문을 생성해준다?! 구글 Gemini를 노리는 'Fun-Tuning' 기법이 등장했습니다.최근 AI 보안 분야에서 가장 주목받고 있는 공격 기법 중 하나가 바로 프롬프트 인젝션(Prompt Injection)이에요. 말 그대로, 언어 모델에게 속삭이듯 몰래 지시를 넣어 원래 하려던 작업이 아닌 엉뚱한 행동을 하게 만드는 방식이죠. 🙊그런데 요즘은 그냥 단순히 수작업으로 “속여보자~”가 아니라,알고리즘이 직접 ‘해킹용 프롬프트’를 만들어주는 시대가 왔습니다. 그것도 구글 Gemini 같은 폐쇄형 LLM(Closed-weights LLM)을 상대로요. 😱🤔..