🤖 AI가 만들어낸 '가짜 패키지'의 진실
최근 텍사스대학교 샌안토니오(UTSA), 오클라호마대학교, 버지니아텍 연구팀이
대규모 코드 생성형 AI 16종을 분석한 결과, 상당수의 모델이 존재하지 않는 패키지 이름을
코드에 추천하는 문제가 드러났습니다.
연구진은 Python과 JavaScript로 57만 개 이상의 코드 샘플을 생성한 결과:
- 오픈소스 모델은 무려 21.7%의 확률로 가짜 패키지를 추천
- 상용 모델도 5.2%의 확률로 같은 문제가 발생
가장 많은 패키지 이름을 창조(?)한 모델은 CodeLlama 7B와 34B였고,
GPT-4 Turbo는 상대적으로 낮은 오류율을 보였습니다.
😱 슬랍스쿼팅(Slopsquatting)이 뭐야?
이렇게 AI가 만들어낸 '그럴듯한 가짜 패키지 이름'은 보안상 매우 위험합니다.
왜냐면 공격자가 이 이름을 가진 악성 패키지를 코드 저장소(npm, PyPI 등)에 등록하면,
누군가 AI의 추천을 따라 그 패키지를 설치할 수 있기 때문입니다.
이 방식은 기존의 타이포스쿼팅(typosquatting)과 유사하지만,
사람이 실수한 게 아니라 AI가 거짓 정보를 줬다는 점에서 다릅니다.
🛑 실제 공격 시나리오 예시:
# AI가 추천한 가짜 패키지
import fastdataai # 실존하지 않음
# 공격자가 동일한 이름으로 악성 패키지를 업로드
# 누군가 이걸 그대로 pip install 하면 감염됨
🔁 반복되는 문제: 동일한 hallucination
연구진은 하나의 프롬프트를 10번 반복했을 때,
43% 확률로 동일한 가짜 패키지 이름이 계속 반복 추천된다는 사실도 확인했습니다.
이는 악성 공격자가 이 이름을 노리고 준비하면 다수의 사용자가 피해를 입을 수 있다는 걸 뜻합니다.
“공격자가 감지되지 않고도 수천 명의 개발자에게 악성 코드를 심을 수 있는 ‘낚시질’과 같다”
– 연구자 조 스프랙클렌(Joe Spracklen)
🧪 AI는 자기 실수를 인식할까?
흥미로운 점은, AI 모델에게 "이 패키지 진짜야?" 라고 되물었을 때, 80% 이상의 확률로 "아니" 라고 정확히 대답했다는 것. 즉, 생성할 땐 거짓말을 하지만, 물어보면 진실을 말해주는 셈이죠. 🤨
🛡️ 개발자가 할 수 있는 보안 수칙
AI 코드 생성기를 사용할 때, 다음과 같은 주의사항을 꼭 지켜야 해요:
- ✅ 패키지 이름은 반드시 검색해서 존재 여부 확인
- ✅ 설치 전 npm, PyPI 등 공식 저장소에서 레포 확인
- ✅ pip install 전에 --dry-run 또는 pip show로 정보 확인
- ✅ 잘 모르는 이름이면 절대 설치 금지
- ✅ 코드 리뷰 시, 외부 패키지 import 여부 반드시 체크
🚨 참고 사례: 32,000건 다운로드된 가짜 패키지
보안 기업 Lasso Security는 GPT가 만든 가짜 패키지 이름을 실제로 업로드해 테스트해본 결과,
32,000번 이상 다운로드되는 충격적인 결과를 확인했습니다.
만약 악성 코드가 포함됐다면, 수만 명의 개발 환경이 감염됐을 수 있었겠죠.
🧩 결론: AI 코드 추천, 믿되 검증하라
AI는 정말 강력한 도구입니다. 하지만 검증되지 않은 패키지 추천은 신뢰하면 안 됩니다.
실제 존재 여부를 확인하고, 공식 문서나 저장소를 꼭 검토하는 습관이 필요합니다.
'CyberSecurity > Security🔐' 카테고리의 다른 글
⚠️ 인기 HTTP 라이브러리 Axios, 심각한 SSRF 취약점 발견! (6) | 2025.04.15 |
---|---|
💥 네트워크 경계 장비, 이제는 해커의 메인 타깃 (2) | 2025.04.15 |
🔥 Fortinet FortiGate 방화벽, 인증 없이 원격 코드 실행 가능한 제로데이 등장? (1) | 2025.04.15 |
🇨🇳 중국의 사이버 위협, 이제는 감추지도 않는다? (1) | 2025.04.15 |
🎯 강력한 신형 RAT 등장, Resolver RAT 분석 리포트 (1) | 2025.04.15 |