EN KO
← 전체 논문 목록

Beyond Task-Oriented and Chitchat Dialogues: Proactive and Transition-Aware Conversational Agents

EMNLP 2025
Yejin Yoon, Yuri Son, Namyoung So, Minseo Kim, Minsoo Cho, Chanhee Park, Seungshin Lee, Taeuk Kim

한줄 요약

TACT는 목적 지향 대화(TOD)와 일상 대화(chitchat) 간의 구조적으로 다양한 모드 전환을 포함하는 대규모 데이터셋(SLURP 기반 9,936개 + MultiWOZ 기반 7,109개 대화)으로, 새로운 Switch/Recovery 평가 지표와 DPO 기반 학습 프레임워크를 통해 75.74%의 joint mode-intent accuracy와 GPT-4o 대비 70.1%의 인간 평가 승률을 달성합니다.

TACT 대화 시나리오
Figure 2. TACT로 학습된 에이전트만이 경치 좋은 노선에 대한 일상 대화 후 원래의 기차 예약 업무로 성공적으로 복귀하는 전환 인식 및 능동성을 보여줍니다. FusedChat, InterfereChat으로 학습된 모델과 GPT-4o-mini는 모두 원래 맥락을 복구하지 못합니다.

배경 및 동기

대화형 에이전트는 전통적으로 목적 지향 대화(TOD) 시스템 또는 개방형 일상 대화 중 하나만을 위해 개발되어 왔으며, 이 둘을 통합하는 데는 제한적인 진전만 있었습니다. 그러나 실제 대화에서는 이러한 모드 간의 유동적인 전환이 자연스럽게 발생합니다. 예를 들어, 기차표를 예약하던 사용자가 갑자기 경치 좋은 노선에 대해 이야기하다가 다시 예약 업무로 돌아오기를 기대할 수 있습니다.

기존 데이터셋의 문제: FusedChat, InterfereChat 등 기존 모드 전환 데이터셋은 TOD와 chitchat 간에 단 한 번의 전환(최대 1개 전환점)만 허용하며 구조적 다양성이 부족합니다. TOD 중심의 관점을 고수하여 고정된 지점에 일상 대화를 단일 교환으로 삽입하는 방식이므로, 실제 대화에서 발생하는 동적인 다중 턴 전환을 모델링하기에 부적합합니다.

두 가지 핵심 능력의 부재: 현재 시스템에는 (1) 전환 인식(transition-awareness) -- 모드 변화를 감지하고 적응하는 능력, 그리고 (2) 능동성(proactivity) -- 적절한 시점에 대화 흐름을 주도적으로 이끄는 능력이 부족합니다. TACT는 에이전트가 다중 턴에 걸쳐 모드 전환을 개시하고 복구할 수 있어야 하는 최초의 데이터셋입니다.

제안 방법

데이터셋 구축

TACT(TOD-And-Chitchat Transition)는 두 개의 기존 TOD 코퍼스인 MultiWOZ 2.2와 SLURP를 구조적으로 다양한 일상 대화 전환으로 확장하여 구축됩니다. 두 가지 핵심 대화 흐름 유형이 정의됩니다:

1
TCT 흐름 (TOD → Chitchat → TOD)
MultiWOZ 2.2에서 4턴 이상의 업무 대화 세그먼트를 추출하고, 의도 간 자연스러운 경계에 일상 대화 블록을 삽입합니다. 일상 대화에서 잠시 벗어났다가 원래 목표로 복귀하는 패턴입니다.
2
CTC 흐름 (Chitchat → TOD → Chitchat)
짧은 TOD 세그먼트(2-3턴)로 시작하여 업무 전후에 일상 대화를 붙이는 래핑 흐름입니다. 사교적 대화 중에 업무를 잠깐 처리하는 상황을 시뮬레이션합니다.
3
자동 검증
G-Eval의 인간 정렬 기준과 Active-Critic의 모델 기반 추론을 결합한 하이브리드 검증 파이프라인으로, 각 대화를 Intent Accuracy, Transition Quality, Dialogue Naturalness 기준으로 GPT-4o-mini가 평가합니다.

데이터셋 통계

통계TACTMultiWOZTACTSLURP
의도(Intent) 수1150+
대화 수7,1099,936
평균 턴 수15.0416.42
평균 Switch 수1.932.06
평균 Recovery 수0.931.07
고유 흐름 유형 수1112
흐름 패턴TCT, CTC, TCTCT 등

학습 프레임워크

1
FnCTOD 기반 SFT
LLaMA-3.1-8B-Instruct를 기반으로 FnCTOD 아키텍처를 사용한 지도 미세조정. 함수 호출(function-calling)을 구조화된 의도 표현으로 재해석하여, 각 턴마다 의도를 먼저 예측한 후 해당 의도에 조건화된 응답을 생성합니다. 이를 통해 단일 자기회귀 디코딩으로 의도 예측과 응답 생성을 통합합니다.
2
DPO (Direct Preference Optimization)
SFT 위에 적용하여 모델 출력을 인간 선호도에 정렬. FnCTOD와 GPT-4o-mini의 출력을 비교하여 선호도 쌍(3,009개 인스턴스)을 생성하고, Gemini-2.5-Pro가 sensibleness, specificity, interestingness, transition naturalness 기준으로 판정합니다. 구조화된 함수 호출과 TOD+chitchat을 결합한 통합 대화 생성 환경에서의 최초의 DPO 적용입니다.

평가 지표: Switch & Recovery

S
Switch
에이전트가 한 모드에서 다른 모드로 전환할 때를 측정합니다 (예: TOD→Chitchat). Attempt(대화당 평균 에이전트 주도 모드 전환 수)와 Success(사용자가 수용한 평균 전환 수)로 보고됩니다. 사용자가 에이전트가 제안한 모드 전환을 수용해야만 성공으로 인정됩니다.
R
Recovery
에이전트가 이전에 중단된 모드로 복귀할 때를 측정합니다 (예: TCT, CTC). 마찬가지로 AttemptSuccess로 보고됩니다. 성공적인 복구의 약 34%만이 정확히 이전 의도로 돌아가고, 나머지는 올바른 모드 내에서 새로운 관련 의도를 시작하여, 현실적인 복구 행동을 보여줍니다.

실험 결과

모든 SFT 모델은 LLaMA-3.1-8B-Instruct로 초기화되고 학습률 1e-5, 배치 크기 256으로 3 에폭 학습됩니다. ICL(GPT-4o 기반 zero-shot/few-shot), SFT, SFT-DPO, 생성적 분류기 기반 Pipeline의 4가지 방법을 비교합니다.

방법론 비교 (Table 4)

방법모드 Acc.모드 F1의도 Acc./턴Joint Acc./턴Joint Acc./대화Switch 시도Switch 성공복구 시도복구 성공Chitchat 승률
ICL-ZS90.4686.2187.5785.0130.000.8790.3740.8800.099-
ICL-FS91.4588.9884.0986.8936.761.5770.8651.5710.652-
SFT98.9598.5096.3596.4175.591.3221.3000.9770.85623.16
SFT-DPO98.8298.3296.0396.2175.741.3431.3220.9770.85940.86
Pipeline98.9598.5096.3596.4175.591.3221.3000.9770.85624.32

인간 선호도 평가 (Figure 8)

10명의 평가자가 DPO와 GPT-4o(few-shot)를 77개 대화에 대해 동점 없이 비교 평가:

기준DPO 승률 %DPO 패률 %
Sensibleness (합리성)71.428.6
Specificity (구체성)77.922.1
Interestingness (흥미도)71.428.6
Transition Naturalness (전환 자연성)81.918.2
종합70.114.3

교차 데이터셋 비교 (Table 3)

TACT로 학습된 에이전트만이 0이 아닌 전환 인식 점수를 달성합니다. FusedChat과 InterfereChat으로 학습된 모델은 다중 턴 전환 구조의 부재로 인해 switch/recovery 시도가 0입니다:

학습 데이터평균 Joint Acc./턴평균 Joint Acc./대화Switch 시도Switch 성공복구 성공
FusedChat92.2556.130.0000.000-
InterfereChat84.8235.390.0000.000-
TACTMultiWOZ92.1158.601.3221.3000.856

왜 중요한가?

실제 배포된 대화 시스템에서는 사용자가 단일 세션 내에서 업무 요청과 일상 대화를 오가는 경우가 빈번합니다. TACT는 구조적으로 다양한 다중 턴 전환과 복구 가능한 대화 구조로 대화의 유동성을 모델링하는 최초의 데이터셋입니다. TACT의 다양한 학습 데이터와 DPO를 통한 선호도 최적화를 결합함으로써, 결과 에이전트는 단순한 응답 정확도를 넘어 참여도, 흐름 연속성, 전환 부드러움과 같은 소프트 대화 기술을 학습합니다. 오픈소스 데이터셋(HuggingFace)과 코드(GitHub)는 보다 자율적이고 예측적인 대화형 에이전트 구축의 길을 열어줍니다.

링크

Dialogue