• Constitutional AI: Harmlessness from AI Feedback

    TL;DR 이 연구를 시작하게 된 배경과 동기는 무엇입니까? AI 시스템의 능력이 인간 수준에 도달하거나 이를 초과하는 상황에서 이들을 유용하고, 정직하며, 무해한 상태로 유지하는 것은 AI 안전성 연구의 핵심 과제입니다. 기존의 인간 피드백으로부터의 강화 학습(RLHF) 방법은 수만 개의 인간 레이블을 필요로 하며, 이는 상당한 비용과 시간을 소모합니다. 더욱이 이전 연구에서는 무해성과...