• Pixtral 12B

    TL;DR 이 연구를 시작하게 된 배경과 동기는 무엇입니까? 멀티모달 언어 모델의 발전에도 불구하고, 대부분의 오픈소스 모델들은 텍스트와 이미지를 동시에 처리할 때 자연어 처리 능력을 희생하거나 제한된 이미지 해상도와 종횡비만 처리할 수 있었습니다. 특히 기존 비전 인코더들은 일반적으로 224×224 또는 336×336 픽셀과 같은 고정된 해상도에서 학습되어, 다양한 크기와 형태의 이미지를 효과적으로...


  • Gemma 2: Improving Open Language Models at a Practical Size

    TL;DR 이 연구를 시작하게 된 배경과 동기는 무엇입니까? 대규모 언어 모델(Large Language Models, LLMs)의 발전은 인공지능 분야에서 혁명적인 변화를 가져왔습니다. 그러나 기존의 대규모 모델들은 대부분 접근성이 제한적이고, 계산 비용이 매우 높으며, 소수의 대기업에 의해 독점되어 왔습니다. 이러한 상황은 AI 기술의 민주화와 광범위한 혁신을 저해하는 주요 장애물로 작용해 왔습니다. 특히 소규모...


  • The Llama 3 Herd of Models

    TL;DR 이 연구를 시작하게 된 배경과 동기는 무엇입니까? 메타(Meta)는 현재 AI 발전의 핵심 과제인 대규모 언어 모델의 성능과 효율성 향상을 목표로 이 연구를 시작했습니다. 특히 기존 모델들이 가진 한계점들, 즉 다국어 처리의 불균형, 긴 컨텍스트 처리의 어려움, 도구 활용 능력의 부족, 그리고 추론 능력의 제한을 극복하고자 했습니다. 또한 모델의 안전성과...


  • Apple Intelligence Foundation Language Models

    TL;DR 이 연구를 시작하게 된 배경과 동기는 무엇입니까? 애플은 2024년 세계개발자회의(WWDC)에서 iOS 18, iPadOS 18, macOS Sequoia에 깊이 통합된 개인 인공지능 시스템인 ‘애플 인텔리전스’를 소개했습니다. 이 시스템은 사용자의 일상적인 작업에 최적화되고 현재 활동에 맞게 실시간으로 적응할 수 있는 다양한 생성형 모델로 구성되어 있습니다. 애플은 사용자 개인정보 보호를 최우선으로 하면서도 텍스트...


  • DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model

    TL;DR 이 연구를 시작하게 된 배경과 동기는 무엇입니까? 대규모 언어 모델의 발전은 인공지능 분야에서 혁명적인 변화를 가져왔지만, 동시에 심각한 계산 비용과 자원 제약이라는 근본적인 문제에 직면해 있었습니다. 기존의 대규모 언어 모델들은 수백억 개의 매개변수를 가지고 있어 학습과 추론에 막대한 컴퓨팅 파워와 에너지를 소모했습니다. 특히 각 토큰을 처리할 때마다 모든 매개변수를...