EN KO
← 전체 논문 목록

Administrative Decision-Making with Generative AI: The Challenge of Epistemic Boundedness

Administration & Society, 2026, Vol. 58, Issue 2
Yushim Kim, Jieun Kim, Taeuk Kim, Hee-Chan Cho

한줄 요약

본 논문은 "인식론적 한계(epistemic boundedness)" 개념을 도입하여 생성형 AI가 공공 행정가의 지식 한계를 단순히 확장하는 것이 아니라 근본적으로 변형시킨다는 점을 분석하며, AI 기반 의사결정에는 전통적 제한된 합리성 대응과는 전혀 다른 새로운 제도적 안전장치가 필요함을 논증합니다.

배경 및 동기

공공 행정가들은 정책 분석, 문서 작성, 의사결정 지원을 위해 대규모 언어 모델(LLM) 등 생성형 AI 도구를 점점 더 활용하고 있습니다. Herbert Simon의 고전적 "제한된 합리성(bounded rationality)"(1947) 개념은 인간 의사결정자의 인지적 한계 — 제한된 정보, 유한한 처리 능력, 시간 압박 — 를 오랫동안 설명해 왔지만, AI의 도입은 기존 프레임워크로는 포착할 수 없는 질적으로 다른 인식론적 과제를 야기합니다.

Simon의 핵심 통찰은 인간 의사결정자가 모든 대안을 식별하고, 모든 결과를 평가하며, 최적의 행동 방침을 선택할 인지적 자원이 부족하다는 것이었습니다. 대신 그들은 휴리스틱을 사용하고 만족화(satisfice) — 최소 수용 기준을 충족하는 첫 번째 옵션을 선택합니다. 이후 March and Simon(1958), Lindblom(1959) 등의 학자들은 이를 점증주의와 조직 의사결정 이론으로 확장했습니다. 수십 년간 정보 기술은 합리성의 경계를 밀어낼 수 있는 도구로 이해되었습니다: 데이터베이스는 더 많은 정보를 제공하고, 스프레드시트는 더 빠른 계산을 가능하게 하며, 의사결정 지원 시스템은 선택지를 더 명확하게 구조화했습니다. 그러나 생성형 AI는 이 패러다임을 근본적으로 깨뜨립니다.

핵심 문제: 제한된 합리성에서 인식론적 한계로

  • 제한된 합리성 (Simon, 1947): 의사결정자는 정보를 탐색, 처리, 평가하는 인지 능력에 한계가 있어 최적화가 아닌 "만족화(satisficing)"를 추구합니다. 병목은 의사결정자의 처리 능력에 있습니다.
  • AI의 약속: 생성형 AI는 방대한 말뭉치를 처리하고, 정책 문서를 초안하고, 규제를 요약하고, 분석을 초인적 속도로 생성하여 인지적 노동을 기계에 위임함으로써 제한된 합리성을 극복하는 것처럼 보입니다.
  • 숨겨진 함정: AI 출력은 유창하고 확신에 차 있으며 권위 있게 들리지만, 사실적으로 부정확(환각)하거나 학습 데이터 분포에 의해 편향되거나 특정 행정적·법적 맥락에 대한 이해가 부족할 수 있습니다. 계산기나 데이터베이스와 달리 AI는 지식을 단순히 검색하는 것이 아니라 생성하며, 그 생성 과정은 불투명합니다.
  • 인식론적 한계: 의사결정자는 AI가 생성한 지식의 신뢰성과 타당성 자체를 평가할 수 없습니다. 전통적 제한된 합리성과 달리, 이 한계는 더 많은 정보를 처리하는 것이 아니라 그 정보가 신뢰할 수 있는지를 아는 것에 관한 것입니다. 병목이 의사결정자의 인지 능력에서 AI 시스템의 인식론적 불투명성으로 이동합니다.

이 격차는 의사결정이 법적 구속력을 갖고, 시민의 권리에 영향을 미치며, 민주적 책임성을 요구하는 공공 행정에서 특히 위험합니다. 구체적인 시나리오를 고려해 봅시다: LLM이 작성한 정책 메모에 날조된 법적 선례나 잘못 기술된 규제 요건이 포함될 수 있으나, 법률 전문성이 없는 행정가는 이를 감지할 수 없습니다 — 그러면서도 메모의 전문적인 어조가 그 정확성에 대한 거짓 확신을 제공합니다. 시민 서비스를 위해 배치된 챗봇이 복지 수급 자격에 대해 확신에 차지만 부정확한 정보를 제공하여 실질적 피해를 초래할 수 있습니다. AI가 생성한 위험 평가 요약이 학습 데이터의 편향 때문에 소수자 커뮤니티에 관련된 요소를 체계적으로 과소 반영할 수 있습니다. 각 경우에서 행정가가 직면하는 것은 정보의 부족이 아니라 받은 정보의 인식론적 지위를 평가할 수 없음입니다.

본 논문은 이 과제를 알고리즘 거버넌스와 공공 기관에서의 재량권 자동화에 관한 보다 광범위한 논의 속에 위치시킵니다. 판단의 소재(locus)를 그대로 두면서 인간의 역량을 증강하던 이전 형태의 IT와 달리, 생성형 AI는 지식 생산의 소재를 인간 전문가에서 불투명한 통계 모델로 이전시킬 위험이 있으며 — 이는 행정 행위의 정당성과 책임성에 심대한 함의를 갖습니다.

제안 방법: 이론적 프레임워크 개발

본 논문은 공공 행정 이론, 인식론, AI 연구를 연결하는 다층적 이론 프레임워크를 구축하여 생성형 AI가 거버넌스에 제기하는 새로운 지식 문제를 체계적으로 규명합니다. 계산적 방법이나 실증 실험을 제안하는 대신, 공공 행정학, 과학철학, AI 안전성 문헌에 기반한 엄밀한 이론적 분석을 통해 새로운 분석 어휘와 제도 설계 원칙을 개발하는 개념적·규범적 기여를 목표로 합니다.

1
인식론적 한계의 개념적 분석
인식론적 한계를 제한된 합리성과 세 가지 차원에서 구분합니다: (a) 한계의 원천 — 인지 능력 vs. AI 생성 지식의 검증 불가능성; (b) 문제의 본질 — 정보 부족 vs. 정보 불투명성; (c) 대응 전략 — 휴리스틱과 만족화 vs. 제도적 검증과 인식론적 거버넌스. 여기서 핵심적 통찰은 증강의 역설(paradox of augmentation)입니다: 제한된 합리성은 더 많은 정보 제공으로 부분적으로 해결 가능하지만, 인식론적 한계는 AI 생성 정보가 많아질수록 각 출력의 신뢰성이 평가 불가능하므로 오히려 증폭됩니다. 본 논문은 철학적 인식론 — 특히 정당화된 참된 믿음(justified true belief)단순한 참된 믿음(mere true belief)의 구분 — 에 기반하여 AI 생성 출력이 참일 수는 있지만 이를 사용하는 행정가에 의해 인식론적으로 정당화될 수 없으며, 이것이 행정 행위의 지식 기반을 약화시킨다고 논증합니다.
2
행정 맥락에서의 AI 실패 모드 분류
생성형 AI의 주요 실패 모드가 공공 행정 시나리오에서 구체적으로 어떻게 발현되는지 체계적으로 매핑하여 다섯 가지 범주의 상세한 분류 체계를 구축합니다:

(i) 환각(Hallucination) — 그럴듯하지만 존재하지 않는 사실의 날조 (예: 법률 의견서 초안에 실재하지 않는 판례 인용, 정책 분석에 통계 데이터 조작);
(ii) 학습 데이터 편향 — 과대 대표된 관점으로의 체계적 편향 (예: 복지 정책 권고가 다수 집단의 관점을 반영하면서 소수자 필요를 주변화);
(iii) 시간적 지식 격차 — 학습 데이터 마감 이후의 최신 법률 개정, 판례, 정책 변경을 반영하지 못하는 문제;
(iv) 상황 인식 부재 — 실제 행정 실무를 형성하는 지역 제도적 규범, 정치적 역학, 관할권별 규제를 고려하지 못하는 한계;
(v) 아첨 경향(Sycophancy) — 비판적이거나 균형 잡힌 분석 대신 사용자의 명백한 선호를 확인하는 출력 생성.

각 실패 모드에 대해 기술적 한계 → 행정적 위험 → 민주적 피해로 이어지는 인과 경로를 추적합니다: 예를 들어, 환각 → 날조된 법률 인용 → 위법한 정책 권고 → 시민 권리 침해 → 공공 신뢰 훼손.
3
인식론적 비대칭성 분석
행정가가 추론 과정을 검사하거나 평가할 수 없는 AI 시스템에 의존할 때 발생하는 구조적 권력 불균형을 분석합니다. 이 "인식론적 비대칭"을 세 가지 상호 연결된 관점에서 검토합니다:

(a) 기술적 불투명성: 수십억 개의 매개변수를 가진 트랜스포머 기반 LLM은 비기술 사용자에게 블랙박스로 작동합니다. "설명 가능한 AI" 기법조차 생성 과정에 대한 진정한 통찰이 아닌 사후적 합리화를 제공하여, 행정가가 신뢰할 수 있는 출력과 그렇지 않은 출력을 구분할 수 없게 합니다.
(b) 권위 효과: AI 생성 텍스트의 전문적이고 체계적이며 확신에 찬 어조가 본 논문이 "인식론적 권위 환상(epistemic authority illusion)"이라 부르는 인지적 편향을 만들어냅니다 — 행정가가 AI 출력의 오류율이 더 높더라도 동일한 인간 작성 텍스트보다 AI 출력에 의문을 제기할 가능성이 더 낮습니다. 이는 자동화 편향 연구(Parasuraman & Manzey, 2010)의 발견을 반영하되 현대 LLM의 자연어 유창성에 의해 증폭됩니다.
(c) 전문성 침식: AI가 인간 분석을 보완하는 것이 아니라 대체할 때 제도적 지식이 시간이 지남에 따라 약화됩니다. 일상적으로 AI에 의존하는 행정가는 AI 오류를 탐지하는 데 필요한 도메인 전문성을 상실하여 의존성 증가와 감독 능력 감소의 악순환이 발생합니다.
4
인식론적 거버넌스를 위한 제도 설계 원칙
제도 이론(North, 1990; Ostrom, 2005)과 민주적 책임성 프레임워크에 기반하여 공공 행정에서 책임감 있는 AI 통합을 위한 네 가지 거버넌스 원칙을 제안합니다:

(a) 구조화된 검증 프로토콜: AI 생성 출력이 의사결정에 반영되기 전에 의무적으로 도메인 전문가 검토를 거치도록 하며, 가장 빈번한 실패 모드(사실 정확성, 법적 타당성, 형평성 함의)를 대상으로 하는 체크리스트를 포함합니다.
(b) 인식론적 책임 메커니즘: AI 보조 의사결정에 대한 책임을 식별 가능한 인간 의사결정자에게 명확히 부여하여 인간-AI 시스템 전반에 걸친 책임 분산을 방지합니다. 여기에는 어떤 출력이 AI에 의해 생성되었고 어떤 것이 인간에 의해 검증되었는지를 명시하는 문서화 요건이 포함됩니다.
(c) 투명성 요건: 행정 의사결정에서 AI의 역할을 내부 이해관계자와 영향을 받는 시민 모두에게 가시화합니다. 공공 대상 커뮤니케이션이나 정책 분석이 AI에 의해 생성되었거나 AI의 보조를 받은 경우 이를 공개하는 것을 포함합니다.
(d) 역량 강화 프로그램: AI 증강과 함께 인간의 분석 역량을 유지하기 위한 지속적인 교육 및 제도적 투자를 수행하여, 행정가가 필요시 AI 출력을 평가하고 무시할 수 있는 전문성을 보유하도록 합니다. 여기에는 기술 퇴화를 방지하기 위한 정기적 "AI 없는" 연습이 포함됩니다.

핵심 논증 및 결과

비교: 제한된 합리성 vs. 인식론적 한계

차원제한된 합리성 (Simon)인식론적 한계 (본 논문)
원천인간의 인지적 한계AI 생성 지식의 불투명성
핵심 문제가용한 모든 정보를 처리할 수 없음AI 출력의 신뢰성을 검증할 수 없음
정보 증가 효과더 많은 정보가 도움됨 (일정 수준까지)더 많은 AI 출력이 문제를 증폭함
의사결정 전략휴리스틱을 통한 만족화불투명한 시스템에 판단 위임
대응 방안더 나은 의사결정 보조 도구, 교육제도적 안전장치, 인식론적 거버넌스
책임성명확한 인간의 책임인간-AI 상호작용에 걸쳐 책임 분산

의의

전 세계 정부가 공공 서비스에서 AI 도입을 가속화하는 가운데 — 미국 연방정부의 AI 관련 행정명령에서 EU AI Act의 공공 행정 내 고위험 AI 시스템 규제에 이르기까지 — 본 논문은 "더 많은 AI"가 자동으로 "더 나은 의사결정"을 의미하지 않는 이유를 이해하기 위한 핵심적 개념 틀을 제공합니다. 인식론적 한계 프레임워크는 다음과 같은 핵심 기여를 합니다:

AI를 중립적인 효율성 도구로 취급하는 대신, AI의 인식론적 불투명성에 직면하여 인간의 판단과 민주적 책임성을 보존하는 의도적인 제도 설계를 촉구합니다. 이 프레임워크는 즉각적인 실무적 함의를 가집니다: 기관 수준의 AI 거버넌스 정책 설계를 안내하고, 정부 내 AI 도구의 조달 기준을 수립하며, 생성형 AI와 함께 일하게 될 공무원 교육 프로그램을 구체화할 수 있습니다. LLM의 역량이 계속 확장되고 정부의 AI 도입이 가속화됨에 따라, 원칙적인 인식론적 거버넌스의 필요성은 더욱 긴급해질 것입니다.

링크

Domain LLM Reasoning