contradiction
neutral
전제와 가설 두 문장 각각 토큰화
[CLS] + 전제 + [SEP] + 가설 + [SEP]
BERT 모델에 입력
문장 수준의 벡터(pooler_output) 뽑기 → 전제와 가설의 의미 응축되어 있음
(+작은 추가 모듈)→ 모델 전체의 출력 = [전제에 대한 가설이 참/거짓/중립일 확률] 형태가 되도록
x: pooler_output 벡터
h: 분류 대상 범주 수만큼의 차원을 갖는 벡터
y: 모델 출력
모델 튜닝: 출력, 정답 레이블 비교 → 최대한 같아지도록
문장 쌍 분류 태스크 모듈 VS 문서 분류 태스크 모듈
→ 문장 2개 의미 내포 → 문장 1개 의미 내포