Roberta1 RoBERTa RoBERTa는 Facebook AI Research(Facebook AI)에서 개발한 언어 모델로 Transformer 아키텍처에 기반하며, BERT 모델의 성능을 대폭 향상시켰다. RoBERTa 모델의 구조는 BERT 모델과 매우 유사하지만, RoBERTa는 BERT에서 사용된 pre-training 데이터셋에 대한 전처리를 다시 수행하여 모델 학습에 사용한다. 예를 들어, RoBERTa는 문장을 뒤섞는 방식 대신 문장을 연속적으로 나열하는 방식을 사용한다. 이를테면, "I like to eat apples"와 "Apples are my favorite fruit"라는 두 문장이 있을 경우, BERT는 "I like to eat apples" 다음에 "Apples are my favorite frui.. 2023. 3. 16. 이전 1 다음