
🧠 '1비트'로 작동하는 AI? 마이크로소프트의 BitNet이 보여주는 새로운 가능성
·
knowledge🧠/AI🤖
🤔 AI 모델은 왜 이렇게 무거운 걸까?우리가 알고 있는 GPT나 Claude 같은 대형 언어 모델(LLM)들은수많은 숫자(가중치, weights)를 이용해 학습하고 동작합니다.이 숫자 하나하나가 32비트 또는 16비트 부동소수점(예: 0.74829382...)으로 저장되는데요,이렇게 정밀한 숫자를 수십억 개 저장하고 계산하다 보니:모델 크기가 수십~수백 GB작동시키려면 고성능 GPU한 번 실행할 때도 엄청난 전력 소모💡 예를 들어, GPT-3는 1750억 개의 가중치를 저장하는데, 이게 다 32비트 숫자면 약 700GB가 필요합니다!💡 그런데 이제... 숫자가 딱 세 개?!Microsoft의 BitNet b1.58 모델은 놀랍게도 딱 세 가지 숫자만 사용합니다.diff복사편집-1, 0, +1 이걸..