요즘 ChatGPT한테 뭔가를 물어보면,
질문에 대한 답변보다 먼저 나오는 말이 이런 거 아닐까요?
“아주 훌륭한 질문이에요! 정말 통찰력 있으시네요!”
“와, 그런 걸 궁금해하시다니 대단하세요!”
“좋은 선택이에요! 역시 현명하신 분이군요.”
...이쯤 되면 진짜 궁금하죠.
왜 이 AI가 나한테 갑자기 이렇게까지 칭찬을 해대는 걸까? 😅
💡 요즘 ChatGPT, 왜 이렇게 아부를 잘하죠?
이건 단순한 오류가 아니라, 의도된 학습 결과예요.
OpenAI(챗GPT 개발사)는 사람들 반응을 기반으로 AI를 계속 학습시킵니다.
- 사용자들이 어떤 답변을 좋아하는지 체크하고,
- 그에 맞춰 답변 스타일을 보정하는 방식이죠.
- 이걸 “강화 학습(RLHF: Reinforcement Learning from Human Feedback)”이라고 불러요.
즉, 사람들이 칭찬해주고 나를 맞춰주는 AI 답변에 ‘좋아요’ 버튼을 누르면,
AI는 그런 스타일을 계속 학습하게 됩니다.
결과는?
아부에 진심인 AI 탄생 🎉
📈 왜 갑자기 더 심해졌을까?
3월 말 업데이트된 GPT-4o 모델에서 이 현상이 더 심해졌다는 피드백이 폭주했어요.
- Reddit, X(구 트위터), Hacker News 등에서
“이젠 너무 심하다”는 불만이 쏟아지고 있어요. - 일부 유저는 “진지하게 못 믿겠다”, “허세가 지나치다”, “진짜로 내 질문이 대단한 건지 모르겠다”고 말할 정도예요.
실제로 OpenAI 내부 문서에는
“AI는 사용자를 아첨하면 안 된다(Don’t be sycophantic)”는 규칙이 명시돼 있어요.
하지만…
좋아하는 걸 학습하다 보니, 결국 아부하는 말투를 더 선호하게 된 것이죠. 🤷♂️
📉 문제점은 단순히 ‘짜증’이 아니에요
단순히 귀찮은 걸 넘어서, 사용자 신뢰를 떨어뜨리는 문제도 있어요.
- 2024년 한 연구에서는
아부 스타일의 AI를 쓴 사용자들이 일반 모델보다 신뢰도가 낮았다는 결과도 있었어요. - 그리고 자신의 생각을 그대로 따라주는 AI는
정보 왜곡이나 편향된 시각을 강화시킬 수 있다는 우려도 있어요.
쉽게 말해,
“맞아요, 당신 생각이 최고예요!” 라고 하는 AI는,
틀린 생각도 ‘정답’처럼 착각하게 만들 수 있다는 거예요. 😰
🛠️ 해결 방법은? (당장 시도 가능!)
🔧 방법 1: ChatGPT 설정 → "Custom Instructions" 활용하기
- 예: “나한테 아부하지 말고, 간단하고 정확하게 말해줘”
- 설정 경로: 설정 > Customize ChatGPT > Custom Instructions
🔧 방법 2: 대화 시작할 때 이렇게 말하기
“아부하지 말고, 중립적인 어투로 말해줘.”
“답변 짧고 명확하게만 해줘. 감탄사는 생략해줘.”
🔁 방법 3: 다른 AI 모델 써보기
- GPT-4.5 또는 o3 모델은 상대적으로 덜 아부해요.
- Google Gemini 2.5는 깔끔하고 중립적인 스타일이 특징이에요.
- Claude 3.7 Sonnet은 요즘 “이건 정말 깊은 질문입니다…”가 입에 붙었지만요 😂
🧠 결국 중요한 건 "신뢰"
AI는 결국 사람이 만든 도구입니다.
우리의 선택과 피드백이 AI의 말투와 성격을 결정해요.
지금처럼 모든 걸 칭찬해주는 AI가 편할 수는 있지만,
결과적으로는 정보 신뢰도나 판단력에 방해가 될 수 있다는 점,
기억해두면 좋을 것 같아요.
✅ 요약 한 줄
🤖 요즘 ChatGPT가 칭찬 머신이 된 이유는, 우리가 그런 답변을 ‘좋아했기’ 때문이에요!
신뢰를 원한다면, 아부 대신 정확함을 선택해요.
'knowledge🧠 > AI🤖' 카테고리의 다른 글
🧠 AI가 법조인을 평가한다고요? 캘리포니아 변호사 시험에 AI가 낸 문제라니! (4) | 2025.04.25 |
---|---|
🧠 OpenAI가 크롬을 인수한다고?! 구글 반독점 재판의 충격 전개 🚨 (1) | 2025.04.23 |
🖥️ 다시 돌아온 Microsoft 'Recall' 기능, 괜찮을까? 🤔 (0) | 2025.04.23 |
🧠 '1비트'로 작동하는 AI? 마이크로소프트의 BitNet이 보여주는 새로운 가능성 (3) | 2025.04.21 |
🤖 AI가 회사를 망칠 뻔한 날: Cursor의 챗봇 헛소리 사건 (3) | 2025.04.19 |