• Mistral 7B

    TL;DR 이 연구를 시작하게 된 배경과 동기는 무엇입니까? 자연어 처리 분야에서 언어 모델의 성능 향상은 주로 모델 크기 증가에 의존해왔습니다. 그러나 이러한 규모 확장은 계산 비용과 추론 지연 시간을 증가시켜 실제 환경에서의 배포에 장벽을 만듭니다. 연구자들은 높은 성능과 효율성을 동시에 제공하는 균형 잡힌 모델의 필요성을 인식했습니다. 기존의 대규모 언어 모델들은...


  • Llama 2: Open Foundation and Fine-Tuned Chat Models

    TL;DR 이 연구를 시작하게 된 배경과 동기는 무엇입니까? 대규모 언어 모델(LLM)의 발전으로 AI 어시스턴트가 복잡한 추론 작업을 수행할 수 있게 되었지만, 이러한 모델의 개발은 높은 컴퓨팅 요구사항으로 인해 소수의 기업에만 제한되어 있었습니다. 기존의 오픈소스 모델들은 ChatGPT와 같은 상용 모델들과 비교했을 때 성능과 안전성 측면에서 격차가 있었습니다. 메타는 이러한 격차를 해소하고...


  • Direct Preference Optimization: Your Language Model is Secretly a Reward Model

    TL;DR 이 연구를 시작하게 된 배경과 동기는 무엇입니까? 대규모 언어 모델은 방대한 비지도 학습 데이터로부터 광범위한 세계 지식과 추론 능력을 습득하지만, 이러한 모델의 행동을 인간의 선호도에 맞춰 정밀하게 제어하는 것은 매우 어려운 과제입니다. 현재 표준적인 접근법인 인간 피드백 기반 강화학습(RLHF)은 먼저 인간 선호도 데이터로부터 보상 모델을 학습한 후, 강화학습 알고리즘을...


  • QLoRA: Efficient Finetuning of Quantized LLMs

    TL;DR 이 연구를 시작하게 된 배경과 동기는 무엇입니까? 대규모 언어 모델의 파인튜닝은 모델의 성능을 향상시키고 특정 작업에 적응시키는 매우 효과적인 방법이지만, 모델 규모가 수백억 개의 파라미터로 증가하면서 심각한 메모리 병목 현상이 발생했습니다. 예를 들어, LLaMA 650억 파라미터 모델을 일반적인 16비트 정밀도로 파인튜닝하려면 780GB 이상의 GPU 메모리가 필요하며, 이는 대학 연구실이나...


  • LLaMA: Open and Efficient Foundation Language Models

    TL;DR 이 연구를 시작하게 된 배경과 동기는 무엇입니까? 대규모 언어 모델(LLM)의 발전은 주로 비공개 데이터셋과 막대한 컴퓨팅 자원을 보유한 대기업들에 의해 주도되어 왔습니다. 이는 학계와 소규모 연구 기관들의 LLM 연구 참여를 제한하는 중요한 장벽이 되어왔습니다. 메타 AI 연구진은 이러한 한계를 극복하고자, 공개적으로 접근 가능한 데이터만을 사용하여 최고 수준의 성능을 달성할...