요즘 AI 모델들 우르르 쏟아지죠. 뭐 하나만 발표돼도 눈이 핑핑 도는데, 메타가 아주 큼직한 걸 터트렸어요. 바로 Llama 4 시리즈예요. 이름부터 어감이 심상치 않죠? ‘라마’ 하면 귀엽고 순하디순한 동물을 떠올리게 되는데, 이건 말 그대로 순한 얼굴 한 야수입니다.
Scout, Maverick, Behemoth—세 가지 모델이 등장했는데, 다 멀티모달이에요. 즉, 텍스트도 보고 이미지도 보고, 그걸 동시에 이해하고 뱉어내는 친구들이라는 거죠. 👀🧠 Llama 4는 기존의 언어 모델들과는 차원이 달라요. 그냥 텍스트만 읽고 쓰던 시대는 이제 끝났다고 봐야죠.
🧠 모델 삼형제, 누가누가 잘하나? (비교표도 있음!)
각 모델은 쓰임새와 크기, 그리고 성능이 다 달라요. 간단하게 정리하면 이래요:
모델명 | 특징 요약 | 파라미터 수 | 특이점 |
---|---|---|---|
Scout | 경량형 멀티모달 | 17B + 16 Expert | H100 한 장으로 작동 |
Maverick | 중간형, 실전형 | 17B + 128 Expert (총 400B) | GPT-4o보다 똑똑 |
Behemoth | 거대형 프리뷰 | 288B + 16 Expert (총 약 2T) | 아직도 학습 중… |
Scout는 아주 효율적인 경량형이에요. GPU 한 장만 있어도 돌아가니, 스타트업이나 개인 연구자에게 딱이죠. Maverick은 GPT-4o보다도 높은 ELO 점수(1417)를 기록했대요.
이쯤 되면... “GPT-4, 너 그만 내려오렴~” 👋 Behemoth는 말 그대로 괴물인데요, 아직 미완이지만 성능은 GPT-4.5 이상이라고 합니다. 아, 이 친구가 Maverick을 키운 교사 모델이었다고 하니, "어머니는 강하다"라는 말이 떠오르네요. 😅
🔧 기술이 남다르다… 진짜 '고수'들의 설계 느낌 물씬
이 친구들, 겉보기만 예쁜 게 아니에요. 안을 열어보면 기술적으로 정말 정성 들였다는 게 느껴져요. 핵심은 바로 MoE(Mixture of Experts) 구조인데요, 모든 파라미터를 쓰지 않고 일부 전문가만 골라서 쓰는 방식이에요. 효율과 성능을 동시에 챙긴 구조죠. 그리고 중요한 거 하나! 이건 '네이티브 멀티모달'이에요.
나중에 이미지 따로 붙이는 방식이 아니라, 처음부터 이미지와 텍스트를 같이 넣어서 학습한 거예요. 이게 왜 중요하냐면, 문장과 이미지 사이의 ‘맥락’을 더 잘 파악한다는 뜻이에요. 이미지도 48장까지 넣을 수 있고, 텍스트는 무려 1,000만 토큰까지 읽어요. 🤯
🤖 RL부터 윤리까지… AI에 진심인 메타의 전략
기술만 앞서면 뭐하나요, 요즘은 윤리와 안전성도 무시 못 하죠. 메타는 이 부분도 아주 꼼꼼히 챙겼어요. 학습 후에는 쉬운 문제는 빼고 어려운 문제 중심으로 계속 실시간 강화 학습을 돌려요. 여기에 Prompt Guard, Llama Guard 같은 보안 시스템을 더해서, 탈옥 시도나 악의적 명령도 탐지해요.
보안 전담 AI인 CyberSecEval까지 있으니, AI 해킹 시도도 척척 잡아내겠어요. 특히 ‘편향 제거’에 진심인데, 응답 거부율을 7%에서 2% 이하로 줄였고, 정치적 편향도 거의 없다고 해요. “GPT야, 넌 아직도 그 질문은 대답 못하니?”라는 말이 절로 나올 정도로요. 🤖🛡️
📦 지금 쓸 수 있다! 무료 다운로드까지?
이 모델들, 그냥 논문 발표만 한 게 아니라 지금 바로 다운로드 가능하다는 거! Scout, Maverick 둘 다 Hugging Face와 llama.com에서 받을 수 있어요. Meta는 이걸 자사 서비스—WhatsApp, Instagram DM, Messenger—에 이미 탑재했대요. Meta.ai에서도 쓸 수 있고요.
이 정도면 진짜 실전 배치 수준 아닌가요? 4월 29일에는 LlamaCon 2025에서 더 많은 걸 공개한다니, ‘우리 동네 챗봇’ 경쟁에 또 한 판 불붙을 것 같네요. GPT, Gemini, Claude… 다들 긴장 좀 해야겠어요. 우리도 이제 AI 모델 고를 때, 똑똑한 선택 해야겠죠? 😊
원문 출처 : https://ai.meta.com
AI at Meta
Our newest Llama models bring native multimodal capabilities, near limitless context windows, and billion-scale performance. Experience Llama 4 now on Meta AI.
ai.meta.com
The Llama 4 herd: The beginning of a new era of natively multimodal AI innovation
The Llama 4 herd: The beginning of a new era of natively multimodal AI innovation
Post-training a model with two trillion parameters was a significant challenge too that required us to completely overhaul and revamp the recipe, starting from the scale of data. In order to maximize performance, we had to prune 95% of the SFT data, as opp
ai.meta.com
'뉴스' 카테고리의 다른 글
대학생과 AI 클로드(Claude)의 은밀한 동거생활: "공부를 같이 하자고 했지, 대신 하자곤 안 했잖아?" (0) | 2025.04.14 |
---|---|
“AI가 나 대신 일해준다며?” 그 환상이 게임업계에 던진 잔혹한 현실 (0) | 2025.04.14 |
우리가 생각했던 AI 이미지 생성, 그거 다 옛날 얘기예요 (챗지피티) (0) | 2025.04.13 |
에이전트형 코딩 어시스턴트, 대체 신세계인가 헛꿈인가? (0) | 2025.04.13 |
애플이 AI에 뒤처졌다고요? 진짜 문제는 AI 그 자체예요! (0) | 2025.04.13 |