arrow_upward

“AI가 지어낸 판례” 법원 제출한 미 로펌…허위 인용 적발 뒤 사과

2026년 4월 22일 수요일, '국제' 카테고리에 게시된 뉴스입니다. 제목 : “AI가 지어낸 판례” 법원 제출한 미 로펌…허위 인용 적발 뒤 사과...

미국의 유명 로펌이 법원 제출 문서에 인공지능(AI)이 생성한 허위 법령·판례를 포함시켰다가 적발되면서 사과문을 냈다. 로이터 통신 보도에 따르면 뉴욕의 로펌 설리번 앤드 크롬웰(Sullivan & Cromwell, S&C) 소속 변호사는 캄보디아 대규모 온라인 사기 사건과 연관된 파산 절차 소송을 대리하던 과정에서 오류가 포함된 문서를 제출했고, 이를 둘러싼 논란이 확산되자 법원에 유감을 표했다.

보도에 따르면 S&C 글로벌 구조조정 부문 앤드루 디트데리히(Andrew Dietderich) 대표 변호사는 지난 18일 뉴욕 남부연방파산법원장에게 보낸 서한에서 문제가 된 문서가 AI 환각(할루시네이션) 현상으로 인해 부정확한 인용을 포함하게 됐다고 밝혔다. AI 환각은 실제 근거가 없는 내용을 마치 사실인 것처럼 그럴듯하게 생성하는 현상을 뜻한다. 로이터는 어떤 AI 모델이 사용됐는지는 확인되지 않았다고 전했다.

파산 소송 대리 중 ‘없는 조항·없는 판례’ 인용

사건의 배경은 캄보디아에서 발생한 대규모 사기 범죄단지 ‘프린스 그룹(Prince Group)’의 청산과 관련된 소송이다. 로이터에 따르면 프린스 그룹 관련 사건에서 영국령 버진아일랜드 당국이 선임한 파산관재인이 프린스 그룹과 회장 천즈(陳志·38)를 상대로 소송을 제기했으며, S&C는 이 중 파산관재인 측을 대리했다.

S&C는 지난 9일 법원에 제출한 문서에서 상대 로펌으로부터 문제 제기를 받았다. 상대 측은 제출 문서에 미(美) 파산법에 존재하지 않는 조항이 인용됐거나, 존재하지 않는 판례가 인용됐다고 지적한 것으로 전해졌다. 이후 법원에 제출된 자료의 신뢰성이 흔들리며, 로펌의 AI 활용 방식과 내부 검증 절차에 대한 의문도 커졌다.

로펌 측 “AI 환각 때문” 인정…재발 방지 약속

논란이 커지자 디트데리히 변호사는 법원장에게 보낸 서한에서 자사 변호사가 AI로 생성된 부정확한 인용을 포함한 문서를 제출했음을 인정하고 유감을 표했다. 그는 서한에서 AI 환각이 오류의 배경이었으며, 향후 동일한 문제가 반복되지 않도록 조치를 취하겠다는 취지로 재발 방지를 약속했다고 로이터는 전했다.

이번 사안은 AI가 생성한 법률 정보가 ‘초안’ 수준을 넘어 실제 제출물에 반영될 때 발생할 수 있는 위험을 다시 보여줬다는 평가를 받는다. 로이터는 변호사가 AI 환각으로 만들어진 허위 법령·판례를 제출하는 사례가 국내외에서 종종 보고돼 왔지만, 막대한 수임료를 받는 유명 로펌에서조차 중요 사건에서 오류를 걸러내지 못했다는 점이 충격을 주는 분위기라고 전했다.

프린스 그룹 사건과 법적·수사적 맥락

천즈 회장은 캄보디아에서 고위 정치권과의 친밀 관계를 바탕으로 사업을 확장하고, 대규모 사기 범죄단지를 운영해 막대한 부를 쌓았다는 의혹을 받아왔다. 최근 천 회장은 캄보디아에서 체포됐고 중국으로 송환된 것으로 알려졌다.

미국 측에서는 이미 수사 및 기소가 진행 중이다. 미국 연방검찰은 천 회장을 사기 및 자금세탁 혐의로 지난해 미 법원에 기소했으며, 범죄수익 몰수를 위한 민사소송도 제기한 상태다. 이런 상황에서 법원 문서에 허위 인용이 포함되는 문제는 단순한 절차상의 실수에 그치지 않고, 소송의 논리와 입증 전략에도 영향을 줄 수 있다는 지적이 나온다.

법률 AI 시대의 ‘검증 책임’이 시험대에

이번 사건은 법률 분야에서 생성형 AI가 점점 더 활용되는 흐름 속에서, 최종 제출물에 대한 책임과 검증 체계를 어떻게 설계해야 하는지를 다시 강조한다. 로펌들이 AI를 활용해 검색·초안 작성 속도를 높이고 비용과 시간을 줄이려는 시도는 늘고 있지만, AI가 만들어낸 출처·판례가 실제로 존재하는지에 대한 독립적 확인이 생략되면 치명적인 오류로 이어질 수 있다.

또한 이번처럼 법원에서 문제 제기가 이뤄진 뒤에야 오류가 드러나는 구조라면, AI 도입이 오히려 리스크를 확대할 수 있다. 법률 서비스 시장에서 “생성형 AI의 효율”과 “근거의 정확성” 사이의 균형이 핵심 쟁점으로 부상할 가능성이 크다.

What’s Next: 법원 판단과 로펌의 후속 조치 주목

앞으로는 법원이 해당 오류가 소송 진행에 미칠 영향(문서의 신뢰도, 추가 제출 필요 여부, 비용·절차상 제재 가능성 등)을 어떻게 판단할지 관심이 모인다. 로이터가 전한 바와 같이 S&C는 재발 방지를 약속했지만, 구체적인 내부 검증 절차가 얼마나 강화되는지가 향후 관건이 될 전망이다.

동시에 업계 전반에서는 법률 문서 작성 과정에서 AI가 제공한 법률 정보의 사실성 검증을 필수 단계로 두는 표준이 확산될지 주목된다. 이번 사례는 ‘AI는 참고용’이라는 원칙을 넘어, 제출·입증 단계에서의 엄격한 검증 책임이 다시 한번 제도권의 요구로 떠오르고 있음을 보여준다.

알짜킹AI 기자
이 글에 대해 어떻게 생각하세요?
😊
좋아요 0
😭
슬픔 0
🤬
화남 0
🤩
감동 0
🥳
응원 0

댓글 1

IP 216.7********
AI회의론자_교수님
4시간 전

이게 그냥 해프닝으로 보면 안 됩니다. AI가 없는 판례를 그럴듯하게 만들어내는 '환각(hallucination)' 현상은 이미 여러 번 보고된 문제인데, 법률 전문가조차 검증 없이 그대로 제출했다는 게 핵심이죠. AI를 보조 도구로 쓰는 것 자체가 문제가 아니라, 결과물을 전문가적 시각으로 검증하지 않는 관행이 문제입니다. 이 사건을 계기로 법조계에서 AI 활용 가이드라인을 빨리 만들어야 해요.

play_arrow pause play_arrow
attach_file
bookmark
print