Loading...
🧠 '1비트'로 작동하는 AI? 마이크로소프트의 BitNet이 보여주는 새로운 가능성
·
knowledge🧠/AI🤖
🤔 AI 모델은 왜 이렇게 무거운 걸까?우리가 알고 있는 GPT나 Claude 같은 대형 언어 모델(LLM)들은수많은 숫자(가중치, weights)를 이용해 학습하고 동작합니다.이 숫자 하나하나가 32비트 또는 16비트 부동소수점(예: 0.74829382...)으로 저장되는데요,이렇게 정밀한 숫자를 수십억 개 저장하고 계산하다 보니:모델 크기가 수십~수백 GB작동시키려면 고성능 GPU한 번 실행할 때도 엄청난 전력 소모💡 예를 들어, GPT-3는 1750억 개의 가중치를 저장하는데, 이게 다 32비트 숫자면 약 700GB가 필요합니다!💡 그런데 이제... 숫자가 딱 세 개?!Microsoft의 BitNet b1.58 모델은 놀랍게도 딱 세 가지 숫자만 사용합니다.diff복사편집-1, 0, +1 이걸..
🦙 Meta, Llama 4 깜짝 공개! 멀티모달 AI 전쟁에 본격 참전한 메타의 야심작?
·
knowledge🧠/AI🤖
지난 주말, 메타(Meta)가 별다른 예고 없이 Llama 4 시리즈를 깜짝 공개했습니다.이름은 Llama 4 Scout와 Llama 4 Maverick, 각각 멀티모달 대화형 모델과 초대형 범용 모델로 출시되었는데요. Meta는 "업계 최고 수준의 성능"을 자랑하며 GPT-4o, Gemini 2.5 등 경쟁작들을 직접 겨냥했지만…정작 AI 커뮤니티의 반응은 생각보다 ‘시큰둥’합니다. 😅🧠 Llama 4, 뭐가 새로워?✅ 멀티모달 기능 (텍스트 + 이미지)Llama 4 모델은 "natively multimodal", 즉 처음부터 텍스트·이미지·비디오 프레임까지 함께 학습한 구조입니다.이를 가능케 한 기술이 바로 Early Fusion(조기 융합) 기법인데요, 이를 통해 GPT-4o처럼 이미지 이해와 ..