EN KO
← 전체 논문 목록

IDS at SemEval-2020 Task 10: Does Pre-trained Language Model Know What to Emphasize?

International Workshop on Semantic Evaluation (SemEval 2020) at COLING 2020
Jaeyoul Shin, Taeuk Kim, Sang-goo Lee

한줄 요약

사전학습 언어 모델(PLM)의 셀프 어텐션 분포를 활용하여, 과제별 학습 없이도 시각 미디어 텍스트에서 강조해야 할 단어를 식별하는 제로샷 강조 선택 방법으로, SemEval-2020 Task 10 검증 세트에서 Ranking Score 0.6898을 달성합니다.

강조 선택을 위한 어텐션 맵
Figure 1. "In honor of the brave" 문장의 어텐션 맵 예시. 각 행은 해당 단어가 다른 단어들에 대해 보이는 어텐션 분포를 나타냅니다.

배경 및 동기

소셜 미디어 게시물, 포스터, 전단지, 광고 등 시각적 커뮤니케이션에서 텍스트 강조는 저자의 의도를 전달하고 독자의 이해를 돕는 데 매우 중요합니다. 시각 미디어를 디자인할 때 콘텐츠 제작자는 어떤 단어를 굵게, 기울임체로, 더 크게, 또는 다른 색상으로 표시할지 결정해야 하며, 이러한 선택은 메시지가 전달되는 방식에 큰 영향을 미칩니다. 어떤 단어를 강조할지 자동으로 추천하는 시스템은 시각 미디어 콘텐츠 제작을 가속화하고 비전문 디자이너들이 더 효과적인 자료를 제작하는 데 도움이 될 수 있습니다.

SemEval-2020 Task 10은 이를 강조 선택(emphasis selection) 문제로 공식화합니다: Adobe Spark에서 수집한 짧은 영어 문장(예: "In honor of the brave")이 주어지면, 9명의 주석자가 부여한 강조 빈도를 기반으로 단어의 올바른 순위를 예측하는 것입니다. 각 주석자는 시각적 맥락에서 강조할 단어를 최대 4개까지 독립적으로 선택하며, 단어의 강조 빈도는 해당 단어를 선택한 주석자의 비율로 정의됩니다. 따라서 이 과제는 본질적으로 주관적인 현상 — 인간들이 시각적 텍스트에서 집합적으로 무엇을 "중요하다"고 판단하는지 — 을 모델링해야 합니다.

핵심 통찰: 기존 연구에서 BERT와 같은 Transformer 기반 PLM이 셀프 어텐션 분포에 풍부한 언어적 지식을 인코딩하고 있음이 밝혀졌습니다. 예를 들어 특정 어텐션 헤드가 의존 구문 트리를 파싱하거나(Clark et al., 2019) 구성 구조를 유도할 수 있습니다(Kim et al., 2020). 본 논문은 일부 어텐션 헤드가 자연적으로 강조 선택에 특화되어 있어, 지도 학습이나 골드 표준 주석 없이도 완전한 제로샷 방식으로 중요한 단어를 식별할 수 있다고 가설을 세웁니다. 강조 선택이 본질적으로 주관적이라는 점에서 이는 특히 설득력이 있습니다: 잠재적으로 노이즈가 있는 레이블로부터 학습하는 대신, 사전학습 중 이미 포착된 분포 의미론을 활용합니다.

키워드 추출이나 핵심구 생성에 대한 기존 접근법 — 통계적 방법(TF-IDF), 그래프 기반 알고리즘(TextRank), 지도 학습 신경망 모델 등 — 과 달리, 본 연구는 어텐션 가중치를 단어 중요도의 직접적 대리 변수로 활용하는 근본적으로 다른 경로를 택합니다. 이 연구를 이끄는 핵심 질문은 다음과 같습니다: PLM이 언어 모델링 과정에서 단어에 내부적으로 "주의를 기울이는" 방식이 강조에 대한 인간의 판단과 상관관계가 있는가?

제안 방법: 어텐션 기반 강조 선택

PLM 어텐션 맵에서 각 단어의 강조 빈도(e_freq)를 유도합니다. 문장이 PLM에 입력되면 i번째 레이어의 j번째 어텐션 헤드에 대한 어텐션 맵 g(i,j)가 추출됩니다. 대부분의 PLM이 서브워드 토큰화(예: BERT의 WordPiece)를 사용하므로, 같은 단어에 속하는 서브워드 토큰의 어텐션 가중치를 평균하여 서브워드 수준의 어텐션 맵을 단어 수준으로 변환합니다. 그런 다음 어텐션 맵을 강조 점수로 변환하는 세 가지 전략을 제안합니다:

1
Words2Target
[CLS]와 [SEP]를 포함한 모든 단어가 대상 단어에 기울이는 평균 어텐션 가중치, 즉 어텐션 맵의 열 평균을 계산합니다. 이는 해당 단어가 다음 레이어에서 다른 단어의 은닉 표현을 구축할 때 얼마나 영향력이 있는지를 측정합니다. 직관적으로, 많은 다른 단어들이 강하게 주의를 기울이는 단어는 문장에서 의미적으로 핵심적인 역할을 할 가능성이 높습니다. 인코더(BERT)와 디코더(GPT-2) 모델 모두에 적용 가능한 가장 범용적인 방법입니다.
2
CLS2Target
[CLS] 토큰에서 대상 단어로의 어텐션 가중치를 사용합니다. [CLS]는 사전학습 중 다음 문장 예측(NSP)을 통해 문장 수준 표현을 인코딩하도록 설계되었으므로, 그 어텐션 분포를 문장 수준 이해를 위한 단어별 관련성 가중치로 해석할 수 있습니다. [CLS] 토큰이 없는 GPT-2에는 적용 불가합니다.
3
SEP2Target
[SEP] 토큰에서 대상 단어로의 어텐션 가중치를 대안적 문장 수준 신호로 사용합니다. Clark et al. (2019)은 [SEP] 토큰이 종종 "무연산(no-op)" 어텐션 대상으로 기능한다고 관찰했지만, 이 방법은 반대 방향 — [SEP]가 내용어에 주의를 기울이는 것 — 이 의미 있는 중요도 신호를 전달하는지 검증합니다. GPT-2에는 적용 불가합니다.
4
전수 구성 탐색
각 PLM에 대해 가능한 모든 (레이어, 헤드, 방법) 구성을 전수 평가합니다 — 예를 들어 BERT-base는 12 × 12 × 3 = 432개, BERT-large는 24 × 16 × 3 = 1,152개의 구성을 탐색합니다. 검증 세트에서 가장 높은 Ranking Score를 달성하는 구성을 선택합니다. 데이터셋의 짧은 문장들에 대한 추론이 빠르고 그래디언트 계산이나 파라미터 업데이트가 필요 없어 이 전수 탐색은 계산적으로 실현 가능합니다.
5
Top-K 앙상블
최종 예측은 성능 상위 5개 (모델, 레이어, 헤드, 방법) 구성을 앙상블하여 생성합니다. 각 구성의 e_freq 예측값을 평균하여 부드러운 강조 순위를 산출합니다. 이 단순한 평균 전략은 서로 다른 모델과 어텐션 헤드로부터 상호보완적인 신호를 결합하여 분산을 줄이고 전반적인 정확도를 향상시킵니다.

핵심적인 구현 세부사항은 서브워드 집계 단계입니다: 하나의 단어가 여러 서브워드 토큰으로 분할될 때(예: "emphasize" → "em", "##pha", "##size"), 모든 서브워드 토큰의 어텐션 가중치를 평균하여 단일 단어 수준 점수를 생성합니다. 이를 통해 강조 주석의 세분성과 일치하는 단어 수준에서 방법이 작동하도록 보장합니다.

실험 결과

전단지, 포스터, 광고, 동기부여 밈 등 Adobe Spark에서 추출한 짧은 영어 문장으로 구성되고 9명의 주석자가 강조를 표시한 SemEval-2020 Task 10 데이터셋에서 평가하였습니다. 데이터셋은 3,000개의 인스턴스로 구성되며 학습(70%), 검증(10%), 테스트(20%)로 분할됩니다. 성능은 Matchm(예측과 골드 표준 간 상위 m개 강조 단어의 일치도)과 Ranking Score(Match1부터 Match4까지의 평균)로 측정됩니다. BERT-base-uncased, BERT-large-uncased, DistilBERT-base-uncased, DistilBERT-base-multilingual, RoBERTa-base, XLNet-base, GPT-2 등 6개 이상의 PLM이 평가되었습니다.

모델방법Match1Match2Match3Match4R (검증)R (테스트)
Random-0.1730.3090.3750.4520.3270.318
TF-IDF-0.3060.4620.6150.6760.5150.518
BERT-base-uncasedWord2Target0.4310.6250.7250.7650.6370.625
BERT-large-uncasedWord2Target0.4490.6230.7360.7600.6420.629
DistilBERT-base-uncasedWord2Target0.4540.6190.7260.7680.6420.629
DistilBERT-base-multi.Word2Target0.4360.6260.7140.7610.6340.620
RoBERTa-baseCLS2Target0.4410.5890.6880.7150.608-
GPT-2Word2Target0.2250.4350.5690.6250.463-
앙상블 (Top-5)-0.4850.6790.7800.8150.6900.666
지도학습 베이스라인-0.5920.7520.8040.8220.7420.750

의의

본 연구는 사전학습 언어 모델이 사전학습 과정에서 셀프 어텐션 메커니즘을 통해 단어의 중요도를 암묵적으로 학습한다는 구체적 증거를 제시합니다. 완전한 제로샷 접근법은 비용이 많이 드는 주관적 강조 주석의 필요성을 제거하여, 자동화된 시각 미디어 제작 도구에 실용적으로 적용될 수 있습니다 — 강조 판단이 본질적으로 주관적이고 대규모 수집이 어려운 실제 응용에서 특히 큰 장점입니다.

과학적 관점에서, 특화된 어텐션 헤드의 발견은 PLM이 어떤 언어적 지식을 인코딩하는지에 대한 이해를 심화합니다. 특정 헤드가 강조 데이터에 대해 명시적으로 학습된 적이 없음에도 강조 선택에 자연스럽게 "조율"되어 있다는 발견은, 언어 모델 사전학습 과정에서 화용적 지식이 어떻게 출현하는지에 대한 흥미로운 질문을 제기합니다. 이는 대규모 텍스트 코퍼스의 분포적 패턴이 통사적, 의미적 정보뿐만 아니라 소통적 중요도의 측면까지 인코딩한다는 것을 시사합니다.

실용적으로, 이 방법의 단순함(단일 순전파만 필요하고 그래디언트 계산 불필요)은 콘텐츠 제작 도구에서의 실시간 배포에 적합합니다. 앙상블 접근법은 약간의 지연 시간 증가를 허용할 수 있을 때 정확도를 향상시키는 체계적인 방법을 제공합니다. 또한 본 연구는 운율 강세 예측, 요약 핵심성 추정, 정보 구조 분석 등 다른 단어 수준 중요도 현상에 대해서도 동일한 어텐션 기반 프레임워크를 활용하여 PLM을 탐침(probing)할 수 있는 가능성을 열어줍니다.

링크

Representation Learning