EN KO
← 전체 논문 목록

기계 독해를 활용한 한국어 의미역 결정

Korea Computer Congress 2024 (KCC 2024)
Kangmin Lee, Donggeon Seo, Eunrang Kwon, Junmo Song, Jeonghan Kang, Taeuk Kim

한줄 요약

한국어 의미역 결정(SRL)을 기계 독해(MRC) 과제로 재구성하여, 추상적 역할 라벨 대신 한국어 문법에 맞춘 자연어 질문을 활용함으로써, 특히 생략된 논항과 복잡한 구조의 문장에서 향상된 논항 식별 성능을 달성하는 프레임워크입니다.

배경 및 동기

의미역 결정(SRL)은 문장에서 "누가 누구에게 무엇을 했는가"를 파악하여 서술어-논항 구조를 부여하는 과제입니다. 전통적인 SRL 시스템은 역할별 태그(예: ARG0, ARG1, ARGM-LOC)를 사용하는 시퀀스 라벨링 또는 스팬 추출 방식을 사용합니다. 그러나 한국어 SRL에는 표준 접근법을 어렵게 만드는 고유한 과제들이 존재합니다.

한국어 SRL이 특히 어려운 이유:

  • 자유로운 어순: 한국어는 SOV, OSV 등 다양한 어순을 허용하므로, 영어에서 유효한 위치 기반 단서가 한국어에서는 작동하지 않습니다.
  • 빈번한 생략(pro-drop): 문맥에서 복원 가능한 경우 주어와 목적어가 일상적으로 생략되어, 논항이 문장 표면에 명시적 스팬으로 나타나지 않는 경우가 많습니다.
  • 복잡한 조사 체계: 한국어 조사(-이/-가, -은/-는, -을/-를 등)가 문법 관계를 인코딩하지만, 다양한 형태로 인해 시퀀스 라벨링에 모호성을 야기합니다.
  • 라벨의 불투명성: ARG0, ARG1 같은 추상적 라벨은 고유한 의미 정보를 담고 있지 않아, 모델이 역할 의미를 순전히 데이터로부터만 학습해야 합니다.

최근 영어 연구에서 구조화된 예측 과제를 독해 문제로 재구성하면 -- 각 라벨을 자연어 질문으로 표현하여 -- 보다 풍부한 의미 신호를 제공하고 성능과 일반화가 모두 향상됨이 입증되었습니다. 본 연구는 이러한 MRC 기반 패러다임이 SRL의 언어적 난제가 증폭되는 한국어에 특히 적합한지를 검증합니다.

기존 SRL vs. MRC 재구성의 핵심 차이

핵심적인 개념 전환은 의미역이 모델에 전달되는 방식에 있습니다. 기존 SRL에서 역할은 데이터로부터만 학습해야 하는 추상적 라벨로 인코딩됩니다. MRC 재구성에서는 각 역할이 해당 역할의 의미를 설명하는 자연어 질문으로 표현됩니다:

의미역기존 라벨MRC 질문 (한국어)
행위자 (Agent)ARG0"[서술어]하는 행위를 수행한 주체는 누구인가?"
대상 (Patient)ARG1"[서술어]의 대상이 되는 것은 무엇인가?"
장소 (Location)ARGM-LOC"[서술어]가 일어난 장소는 어디인가?"
시간 (Time)ARGM-TMP"[서술어]가 일어난 시간은 언제인가?"

이러한 변환은 언어 지식을 입력에 직접 내장하여, 모델이 불투명한 라벨 할당에 의존하지 않고 사전학습된 언어 이해 능력을 활용할 수 있게 합니다.

제안 방법: MRC 기반 한국어 의미역 결정

핵심 아이디어는 각 의미역 부여를 질의응답 문제로 변환하는 것입니다: 문장과 서술어가 주어지면, 모델은 역할별 질문을 받고 해당 논항에 대응하는 답변 스팬을 추출합니다.

1
역할-질문 변환
각 의미역(행위자, 대상, 장소, 시간 등)을 자연어 질문으로 매핑합니다. 예를 들어, 서술어 "먹다"의 행위자 역할은 "먹는 행위를 수행한 주체는 누구인가?"로 변환됩니다. 영어 템플릿과 달리, 한국어 고유의 조사와 경어법 등 문법적 단서를 질문에 반영합니다.
2
한국어 특화 질문 템플릿 설계
한국어 문법 구조를 반영하여 질문 템플릿을 설계합니다: 적절한 조사, 용언 활용 패턴, 자연스러운 한국어 표현을 사용합니다. 각 역할 유형별로 해당 역할의 의미를 한국어 화자에게 자연스럽고, 한국어 사전학습 모델에게 정보적인 방식으로 인코딩하는 전용 템플릿을 보유합니다. 특히 주격 조사(-이/-가)와 보조사(-은/-는)의 구분처럼 정보 구조적 함의가 다른 한국어 고유의 문법 요소를 반영하여 논항 식별에 도움을 줍니다.
3
한국어 사전학습 언어 모델을 MRC 백본으로 활용
질문-문장 쌍을 추출형 질의응답에 맞게 파인튜닝된 한국어 사전학습 언어 모델에 입력합니다. 모델은 입력 문장 내에서 답변 스팬의 시작과 끝 위치를 예측하여 각 역할의 논항을 식별합니다. KoBERT, KoELECTRA 등 한국어 특화 모델을 사용하여 언어별 이해 능력을 극대화합니다. 백본 모델의 선택이 중요한데, 한국어 코퍼스로 학습된 한국어 특화 모델이 다국어 모델보다 형태론적, 통사적 이해에서 더 우수합니다.
4
생략 논항(Pro-Drop) 처리
논항이 암시적으로만 존재하는 한국어의 빈번한 pro-drop 사례에 대해, 유효한 스팬을 추출할 수 없는 경우(신뢰도가 임계값 미만) "명시적 논항 없음"을 예측하는 null-answer 전략을 적용합니다. 이를 통해 표면 텍스트에 존재하지 않는 논항을 잘못 생성하는 것을 방지하며, 진정한 부재와 모델의 탐지 실패를 구분합니다.

한국어 특화 템플릿이 중요한 이유:

영어 질문 템플릿을 한국어로 직접 번역하면 부자연스러운 표현이 생성되어 한국어 사전학습 모델을 효과적으로 활용하지 못합니다. 한국어 특화 설계가 필수적인 이유는 다음과 같습니다:

  • 한국어 서술어는 시제, 상, 서법에 따라 형태가 크게 변하는 광범위한 활용(활용)을 거치므로, 템플릿이 이러한 변이를 수용해야 합니다.
  • 한국어 조사(조사)는 역할을 중의성 해소하는 데 활용할 수 있는 풍부한 문법 정보를 담고 있으며, 잘 설계된 질문은 이 정보를 자연스럽게 인코딩합니다.
  • 한국어의 핵어 후치(head-final) 구조는 역할을 나타내는 핵심 요소가 구의 끝에 나타남을 의미하므로, 영어와 다른 질문 구조가 필요합니다.

실험 결과

MRC 기반 한국어 SRL 시스템을 한국어 SRL 벤치마크에서 전통적인 시퀀스 라벨링 기준선과 비교 평가하며, 논항 식별(AI)과 논항 분류(AC) 성능을 측정합니다.

핵심 비교: MRC vs. 시퀀스 라벨링

접근법장점단점
시퀀스 라벨링 (BIO 태깅)단순하고 빠른 추론자유 어순에 취약, 역할 의미 부재
스팬 추출비연속 스팬 처리 가능여전히 불투명한 라벨에 의존
MRC 기반 (제안 방법)질문을 통한 역할 의미 인코딩역할별 추론 필요

문장 복잡도별 성능

문장 유형시퀀스 라벨링MRC 기반 (제안 방법)개선 원인
단순 문장 (1-2개 논항, 정규 어순)양호동등 또는 소폭 개선역할 의미의 한계적 효과
다논항 문장 (3개 이상 논항)보통뚜렷한 개선질문이 중복 역할을 중의성 해소
비정규 어순 문장취약상당한 개선질문은 어순에 독립적
생략 논항 (pro-drop)빈번한 오탐null-answer 전략으로 감소명시적 부재 모델링

의의

본 연구는 한국어 자연어 이해 분야에 세 가지 핵심 기여를 합니다:

더 넓은 시사점: 본 접근법의 성공은 형태론적으로 풍부하고 자유 어순을 가진 언어에서 MRC 재구성 패러다임이 영어보다 체계적으로 더 유리할 수 있음을 시사합니다. 영어 SRL이 비교적 고정된 위치 패턴에 의존할 수 있는 반면, 한국어 SRL은 더 깊은 의미적 이해에 의존해야 하며 -- 이것이 바로 MRC 방식의 질문이 제공하는 것입니다. 이 통찰은 한국어를 넘어 터키어, 일본어, 핀란드어 등 다른 교착어에도 확장되며, 언어별 맞춤 NLU를 위한 유망한 연구 방향을 제시합니다.

Parsing & Syntax Multilingual