Event Analysis · Composed · Analysis Team v4.5.7 · Rev 0

유창한 권고, 침묵하는 책임

LLM 권고가 의료·법률·금융 결정의 자리로 들어왔다. 환각·편향·책임 공백·자동화 편향이 동시에 작동하지만 손해의 흐름은 여전히 비어 있다.

AI 윤리 / 정책 2026-05-05 2026-05-05 15:51:03
윤리적 변곡 / 1

유창한 권고가 결정의 자리로 들어오다

변호사가 ChatGPT가 만든 가짜 판례 여섯 건을 그대로 법정에 제출했다. 2023년 뉴욕 남부 지방법원의 일이다. 그 사건은 LLM이 도구가 아니라 결정의 무게를 떠안기 시작한 순간을 가리킨다.
LLM(대규모 언어모델)이 의료 진단, 법률 검색, 신용 평가, 행정 심사 같은 고위험 결정의 곁에 빠르게 들어왔다. 사용자는 자연어로 묻고 모델은 매끄러운 문장으로 답한다. 인간 전문가의 답변과 외형이 닮았다. 그래서 신뢰가 따라붙는다.

매끄러움이 사실 검증의 결과가 아니라는 점이 문제다. LLM은 다음에 올 토큰의 확률을 계산할 뿐 자기가 무엇을 말했는지 이해하지 않는다. Bender와 Koller가 2020년 ACL 논문에서 정리한 대로 형식은 학습되지만 의미는 학습되지 않는다. 그러나 사용자는 이해한 사람을 대하듯 권고를 받아들인다. 1966년 ELIZA 챗봇이 단순 패턴 응답에 환자가 마음을 열었던 효과의 확장판이다.

왜 하필 지금 윤리 논의가 거센가. 권고가 결정으로 굳어지기 시작했기 때문이다. Mata v. Avianca(2023) 판결은 단순 실수의 사례가 아니다. 사용자가 검증의 부담을 모델에 위임했고, 모델은 그 위임을 받을 자격이 없다는 사실이 드러난 순간이다.
어조가 사실성을 보증하지 않는다.
메커니즘 / 2

네 가지 균열 — 환각, 편향, 책임 공백, 자동화 편향

문제는 한 가지가 아니다. 네 균열이 동시에 작동한다.

첫째 환각이다. 모델이 그럴듯한 문장 안에 사실 아닌 정보를 끼워 넣는다. Stanford HAI의 2024년 연구는 법률 인용을 LLM에 시켰을 때 영역별로 58~88%가 검증 단계에서 오류로 드러났다고 보고한다(출처: Stanford HAI / Dahl et al., 2024). 일반 사용자가 직접 판례 데이터베이스에 접근해 확인하기 어렵다는 점이 환각을 더 위험하게 만든다.

둘째 편향이다. 학습 데이터의 분포가 그대로 권고에 스며든다. Mittelstadt 등(2016)은 이를 인식적 부정의(epistemic injustice — 학습 데이터의 편향이 소수자 결정에 체계적으로 불리하게 작용하는 현상)로 부른다. 알고리즘은 중립이 아니라 학습된 사회의 평균을 재생산한다.

셋째 책임 공백이다. 모델 제공자, 배포자, 사용자 셋 가운데 누가 결과의 책임을 지는지 법적·도덕적으로 명료하지 않다. 철학자 Andreas Matthias가 2004년 정리한 책임 공백(Responsibility Gap)은 학습된 시스템의 결정에 어떤 인간 행위자도 충분한 통제권을 갖지 않는 상태를 가리킨다.

넷째 자동화 편향이다. AI 권고가 정확할 때 인간 판단도 같이 정확해진다. 단 의료 진단 보조 분야 메타분석은 AI가 틀렸을 때조차 인간이 그 권고를 따라가는 비율이 30%p가량 상승함을 보여준다. 검증층이 자동화로 오히려 무너지는 역설이다. Reason의 스위스 치즈 모델로 보면, 한 겹의 구멍이 다른 겹의 구멍과 정렬되는 순간 사고가 통과한다.
법률 인용 환각률
58~88%
Stanford HAI 2024 / 영역별
AI 오답 시 인간 추종률 상승
+30%p
의료 진단 메타분석
AI Act 최대 과징금
매출 7% 또는 €35M
GDPR 4%보다 무거움
고위험 영역(Annex III)
8개 영역
의료·고용·신용·사법 등
검증층이 자동화로 오히려 무너지는 역설이다.
규제 지형 / 3

책임은 어디로 흐르는가 — EU AI Act와 그 너머

누가 펜을 쥐었나. EU는 이 질문에 가장 적극적으로 답하는 중이다.

EU AI Act는 2024년 3월 의회 채택, 8월 1일 발효를 거쳐 단계적으로 적용되고 있다. 2025년 2월에는 사회 점수 같은 unacceptable risk(허용 불가 위험) 시스템이 시장에서 퇴출됐고, 8월에는 범용 AI(GPAI — General-Purpose AI, 다용도 기반 모델) 제공자에게 학습 데이터 요약과 저작권 정책 공개 의무가 부과됐다. 2026년 5월 현재는 고위험 시스템(의료기기·채용·신용평가·사법 보조 등 Annex III 8개 영역)의 적합성 평가가 본격화되는 단계다. 위반 시 과징금은 전 세계 매출의 7% 또는 €35M 가운데 높은 쪽으로, GDPR(개인정보보호법)의 4%보다 무겁다.

단 절차적 보호와 책임 귀속은 다른 문제다. AI Act는 인간 감독, 투명성, 위험 관리 의무를 요구하지만, 모델이 잘못된 권고를 내고 사용자가 그것을 따랐을 때 손해 배상의 흐름이 어디로 가는지는 회원국 민사법 영역으로 다시 던져진다. Mata v. Avianca의 판단은 검증 의무가 사용자(변호사)에게 있다고 못 박았다. 단 그 변호사가 권고를 검증할 도구를 갖지 못했다면, 책임을 사용자에게만 묻는 것이 정의로운가. 책임 공백은 좁아졌으되 사라지지는 않았다.
책임 공백은 좁아졌으되 사라지지는 않았다.
EU AI Act 단계적 적용 로드맵
고위험 적합성 평가는 2026-08부터 — 현재는 그 직전 구간
출처: Regulation (EU) 2024/1689, Article 113 / 2024-07 OJ
Takeaway 절차적 의무는 빠르게 발효됐으나 고위험 적합성 평가는 이제 시작 단계.
메타-윤리 / 4

자율성과 인식적 정의 — 결정의 무게는 누가 지는가

Floridi와 Cowls가 2019년 제안한 5원칙(선행·무해·자율·정의·설명가능성) 가운데 LLM이 가장 거세게 압박하는 항목은 자율(autonomy)이다. 칸트적 의미의 자율은 자기가 자기의 결정에 도달한다는 뜻이다. LLM이 권고를 내고 사용자가 그것을 검증 없이 채택하면, 결정의 형식은 인간이 한 듯 보이나 실제 결정은 모델이 했다. 이때 결정의 무게는 누구의 것인가.

정의(justice) 측면에서는 인식적 부정의가 다시 등장한다. 신용 평가나 보석 결정에 LLM이 보조로 들어갈 때, 학습 데이터에서 과소대표된 집단이 체계적으로 불리한 권고를 받을 수 있다. 결정자가 자동화 편향에 끌려 권고에 일치하는 결정을 내린다면, 그 부정의는 절차적으로 합법인 채로 누적된다.

설명가능성(explicability)도 LLM 구조와 충돌한다. 수천억 매개변수의 가중치 행렬에서 특정 권고가 왜 나왔는지 인간이 추적하기 어렵다. AI Act는 '의미 있는 정보'를 사용자에게 제공하라고 요구하지만, 사후 합리화(post-hoc explanation)와 진짜 인과 설명을 구분하는 기준은 정해져 있지 않다.

여기서 메타-윤리적 질문이 남는다. LLM의 권고가 도덕적 정당화에 기여할 수 있는가. 즉 '모델이 이렇게 권고했다'가 결정의 도덕적 근거가 되는가. Searle의 중국어 방 논쟁(1980)이 가리킨 것처럼, 의도와 이해 없이 형식 조작만 수행하는 시스템에 도덕적 권위를 부여하는 일은 범주 오류다. 모델은 권위를 빌려줄 수는 있어도 책임의 발화 주체는 될 수 없다.
모델은 권위를 빌려줄 수는 있어도 책임의 발화 주체는 될 수 없다.
4대 한계의 윤리적 위험도
책임 공백은 medium — AI Act가 일부 좁혔으나 잔존
출처: 본 분석 — Stanford HAI 2024 / Mittelstadt 2016 / Matthias 2004 종합
Takeaway 절차적 보호로 가장 좁혀진 항목이 책임 공백, 가장 단단히 남은 것이 환각·편향·자동화 편향.
충돌 + 감시 / 5

활용론과 신중론, 그리고 다음 18개월

이 지점에서 두 입장이 정면으로 부딪친다.

활용론은 LLM 보조가 인간 단독 결정보다 평균 정확도를 높인다는 데이터를 가리킨다. 의료 진단에서 AI가 정확할 때 임상의의 진단 정확도가 상승한다는 메타분석은 사실이다. 따라서 LLM 보조의 단계적 확산이 사회 후생을 늘린다는 주장이다.

신중론은 같은 메타분석의 다른 면을 가리킨다. AI가 틀렸을 때 인간이 따라가는 30%p의 추종률이 검증층 자체를 약화시킨다. 평균 정확도 상승은 AI가 옳을 때의 효과이고, AI가 틀릴 때의 비용은 비대칭적으로 소수에게 집중된다. 평균은 가려지고 분포의 꼬리는 두꺼워진다.

봉합은 어렵다. 두 입장 모두 사실이다. 한쪽은 평균을, 다른 쪽은 분포의 꼬리를 본다. 현 시점 EU AI Act가 채택한 길은 신중론에 가깝다. 고위험 영역에 인간 감독을 의무화하고, 위반 시 GDPR보다 무거운 과징금을 매겼다. 단 활용론이 살아나는 조건이 있다. 검증 도구가 사용자 손에 닿는 가격으로 제공되고, 자동화 편향을 줄이는 인터페이스 설계(예: AI 권고에 의도적으로 반대 검토를 강제하는 disagreement prompt)가 표준이 될 때다. 그 조건이 충족되지 않은 채 확산만 빨라지면 신중론의 손이 더 들린다.

다음 18개월의 적합성 평가가 그 분기를 결정한다. 무엇을 보면 어느 시나리오가 굳어지는지가 다음 표의 감시 신호에 정리되어 있다.
한쪽은 평균을, 다른 쪽은 분포의 꼬리를 본다.
반대 관점 / 모순

봉합하지 않은 충돌

관점 A: LLM 보조는 인간 단독 결정보다 평균 진단·판단 정확도를 높인다 (활용론)
관점 B: AI가 틀렸을 때 인간 추종률이 30%p 상승해 검증층을 무너뜨린다 (신중론)
근거 충돌: 동일한 의료 진단 메타분석이 양쪽 결과를 모두 보고. 평균 효과는 +이지만 오답 케이스의 비용은 비대칭적으로 집중.
→ 현 시점 규제(EU AI Act)는 신중론의 손을 들어 인간 감독·과징금으로 답함. 활용론이 살아나는 조건은 (1) 사용자에게 닿는 가격의 검증 도구 보급 (2) disagreement prompt 같은 자동화 편향 완화 인터페이스가 표준화될 때.
관점 A: Mata v. Avianca의 판단대로 검증 의무는 사용자에게 있다 (사용자 책임설)
관점 B: 검증 도구 없이 모델 권고를 평가할 수 없는 비대칭 정보 환경에선 사용자만 처벌하는 것은 책임 공백을 가린다 (분산 책임설)
근거 충돌: AI Act는 모델 제공자·배포자·사용자에게 각각 의무를 분산하지만, 손해 배상 흐름은 회원국 민사법으로 위임돼 실제 분쟁에서 누가 부담을 지는지는 미해결.
→ 현 판례·규제는 사용자 책임설 우위. 단 GPAI 의무 발효(2025-08)와 고위험 적합성 평가(2026-08~)가 누적되면 모델 제공자 책임이 부분적으로 살아날 수 있음.
앞으로 무엇을 볼까

감시 신호

⚖️ AI Act 고위험 적합성 평가 첫 분쟁
Annex III 8개 영역 가운데 어느 시스템이 첫 비적합 판정을 받는지
→ 신중론 강화 vs 절차적 보호 한계 노출 시나리오 분기
2026-08-02 이후
📂 GPAI 학습데이터 요약 공개 첫 라운드
기반 모델 제공자가 실제 어디까지 데이터·저작권 정책을 공개하는지
→ 투명성 의무의 실효성 — 형식 준수 vs 실질 공개 분기
2026-08-02 직후
🏛️ 미국 연방 AI 책임법안 진전
EU의 위험기반 모델을 미국이 수용하는지, 부문별 규제로 가는지
→ 글로벌 책임 귀속 표준의 EU 단일화 vs 분절 시나리오
2026-12 내
🩺 의료 LLM 자동화 편향 사후 감사
임상 현장에서 AI 권고 추종이 오진으로 이어진 사례의 통계 보고
→ 활용론(평균 후생) vs 신중론(분포의 꼬리) 입증 자료
2026-Q4
신뢰도 (78%)
EU AI Act 1차 출처(Regulation 2024/1689) + Stanford HAI 2024 + Mittelstadt 2016 + Floridi 2019 등 학술·규제 출처 두루. 환각률·자동화 편향 30%p·과징금 비율은 출처 명시 1차 인용. 메타-윤리적 결론(Searle 중국어 방의 LLM 적용)은 추론 기반.
분석가의 한계
윤리적 한계는 모델 한쪽의 결함이라기보다 사용자, 배포자, 규제, 그리고 그 사이 빈 공간이 만든 합작품이다. 다음 18개월의 적합성 평가가 그 공간을 얼마나 좁히는지가 관건이다.