[단독] 사법에 AI 활용… 판사가 만든 가이드라인 첫선
법관들이 직접 연구한 '사법에서의 인공지능(AI) 활용에 관한 가이드라인'이 나왔다. 판사들이 주축이 되어 만든 최초의 가이드라인이다. 법원 내부뿐 아니라 자체 AI를 제작하는 주요로펌 등 변호사 업계와 리걸테크 기업 등 관련 영역 전반에 미칠 영향이 클 것으로 보인다. 향후에 법원이나 법원 외부에서 관련 연구를 할 때 단초가 될 것으로 예상된다. 다만 권고적 성격의 가이드라인인 만큼 향후 연구회 차원에서 법원행정처와 관련 협의를 이어갈 것으로 관측된다. 법원 인공지능연구회(회장 기우종)는 인공지능기술에 대한 유의점을 전제로 △사법부가 인공지능을 도입할 때의 관점 △법관이 인공지능을 활용할 때의 관점 △재판실무에서 인공지능기술이 사용될 때의 관점에 대해 총 5개의 장(제1장 총칙, 제2장 인공지능의 기본적 이해, 제3장 사법부의 인공지능 개발 및 도입, 제4장 법관의 인공지능 활용, 제5장 소송당사자의 인공지능 사용에 대한 법원의 대응)으로 구성된 가이드라인을 마련했다. 가이드라인은 사법부의 인공지능 도입과 활용 등에 있어 사법의 본질 및 핵심 가치, 인공지능의 특성과 불완전성을 충분히 고려해야 한다는 내용을 담고 있다. 지난해 8월 사법정책자문위원회는 사법부의 인공지능 활용에 대한 법적·윤리적 기준을 제정할 필요가 있고, 그 기준에는 기본권 보장 및 평등의 원칙, 신뢰성 원칙 등을 포함해야 한다고 건의하기도 했다.사법부 인공지능 도입 전제는 "헌법상 기본권 보장" 가이드라인은 사법부의 인공지능 개발 및 도입과 관련해 기본권과 헌법적 가치의 보장 원칙, 신뢰성의 원칙, 합법성의 원칙, 책임성의 원칙, 투명성의 원칙, 미래지향성의 원칙을 지켜야 한다고 강조한다. 국민의 기본권을 침해해서는 안 되는 것을 기본으로, 법관에 의한 재판을 받을 권리(헌법 제27조 제1항)와 법관의 독립성(헌법 제103조)이 제약되지 않도록 유의해야 하고, 평등원칙(헌법 제11조 제1항)을 보장하기 위해 훈련 데이터, 결과물의 편향성을 경계해야 한다고 설명하고 있다. 특히 합법성의 원칙과 관련해 사법부의 인공지능은 대한민국의 전체 법질서와 조화를 이룰 수 있어야 하고, 필요한 경우 민사소송규칙, 형사소송규칙 또는 각종 예규 등에 그 시스템 활용의 근거 및 한계가 규정될 필요가 있다고 언급한다. 사법부가 AI를 도입하고 이를 훈련하는 과정에서 당사자 등의 지식재산권 또는 영업비밀이 침해되지 않도록 항상 유념해야 하고, 필요한 경우 암호화 등 기술적 보안조치가 이루어지는 것이 바람직하다는 내용도 담았다. 아울러 법관의 판단을 보조하기 위한 수단인 만큼 사용자인 법관이 결과물의 정확성을 확인하고 검증할 수 있도록 설계되어야 하며 데이터의 출처 및 선별 과정, 훈련 과정, 채택된 알고리즘 등 세부 사항을 문서화하고 그 전부 또는 일부를 일반 대중에게 공개하는 것을 고려할 수 있다고 설명한다. 또 인공지능 시스템의 개선을 위한 제도적 근거를 지속적으로 검토해야 하고, 예산확보 등의 노력을 기울여야 한다는 내용도 담았다.법관, AI 활용시 환각 현상 가능성 염두에 두어야 가이드라인은 법관의 인공지능 활용과 관련해 세부적인 지침을 담았다. 인공지능 도구를 사용하는 과정에서 재판청구권, 법관의 독립성, 공정, 평등, 적법절차, 법치주의 등 사법부와 관련된 헌법적 가치와 기본권을 해치지 않도록 유의하는 것은 물론 인공지능 결과물에 성별, 인종, 국적, 지역, 종교, 사회적 계층 등 특정 정보에 따른 편향이 발생할 수 있음을 인지하고, 인공지능 결과물이 평등원칙에 위배되지 않는지 신중하게 검토할 필요가 있다고 강조한다. 가이드라인은 특히 AI가 지닐 수 있는 오류에 법관 스스로 유의해야 한다고 언급한다. 법관이 인공지능 결과물에 오류가 있는 경우 이에 대한 법적, 윤리적 책임을 질 수 있다는 것을 인지하고, 인공지능 결과물을 비판적으로 평가할 필요가 있다는 것이다. 법관은 인공지능 결과물을 비판적으로 평가하고, 그것이 법적 원칙, 증거, 경험칙과 법감정과 일치하는지 확인하기 위하여 노력해야 하며 인공지능의 편향성 및 환각(hallucination) 현상 등에 관해 기본적인 이해를 갖출 필요가 있다는 설명이다. 또 만약 인공지능 도구 사용에 익숙하지 않다면, 사법부에서 제공하는 교육 프로그램을 먼저 이수하거나 관련 전문가의 도움을 받아야 한다고 안내한다. 법관의 AI 활용시 주의점으로 항상 언급되는 보안 관련 문제도 다루고 있다. 가이드라인은 법관이 상용 인공지능 도구에 개인정보, 사건의 구체적 내용, 영업비밀, 사건 관계인의 사생활에 관한 내용, 판결문 초안 등을 입력하지 않도록 유의해야 한다고 설명한다. 특히 사법부 공식 메일을 사용해 상용 인공지능에 가입하거나 계정 정보에 직업을 법관으로 표시하는 것은 자제할 필요가 있으며 만일 개인정보가 유출된 경우, 신속하게 적절한 기술적 지원을 받아야 한다고 주의한다."소송당사자는 AI 사용 시 여부 밝혀야" 가이드라인은 소송당사자가 AI를 사용할 경우 그 여부를 밝혀야 할 의무가 있다고 못 박았다. 재판 과정에서 소송당사자가 제출한 서면뿐 아니라 동영상, 그림, 음성 등의 증거가 인공지능을 사용해 작성 또는 제작됐다고 의심되거나 상대방이 이를 지적하는 경우, 법원이 제출 당사자에게 해당 자료가 인공지능을 사용하여 작성·제작된 것인지 여부를 밝힐 것을 명령할 수 있다는 내용이다. 특히 형사재판의 경우 증거능력이 엄격하게 요구되기 때문에 법관은 인공지능으로 생성된 자료가 증거로 제출된 경우 상대방에게 제출된 자료의 증거능력 유무에 관한 의견을 진술하게 한 후 증거결정을 하는 등 형사소송법과 형사소송규칙 등에 따라 증거능력 여부를 검토할 필요가 있다고 강조한다. 가이드라인은 또 소송당사자가 인공지능을 사용해 소송자료를 제출한 경우, 법원이 사용된 인공지능 도구, 입력된 프롬프트, 소송당사자가 인공지능 결과물 검증을 위해 취한 조치 등을 구체적으로 밝히도록 소송지휘할 수 있고, 소송당사자가 소송자료 및 증거자료에 인공지능이 사용되었는지 밝히도록 하는 민사소송규칙, 형사소송규칙 등의 개정도 고려될 수 있다고 언급한다. 최근 문제되는 딥페이크 사용으로 인한 문제와 관련한 부분도 담고 있다. 가이드라인은 "소송당사자가 딥페이크를 사용함에 따라 법관은 딥페이크 여부가 쟁점이 된 증거의 가치를 판단하기 어려워질 것이고, 이는 실체적 진실을 추구하는 사법작용에 장애를 초래할 수 있다"고 우려하고 있다. 상황별로는 △인공지능으로 작성된 소장, 준비서면, 의견서 등 주장서면을 제출한 경우 △인공지능으로 작성된 문서, 동영상, 그림, 음성 등이 증거로 제출된 경우(딥페이크로 의심되는 경우 포함) △ 소송당사자가 인공지능을 사용하여 양형, 재범률, 구체적 쟁점에 관한 전문적 의견 등을 제시한 경우 △소송당사자가 증거 수집·분석 과정에서 인공지능을 사용한 경우를 언급하고 있다."AI 도입은 시대적 요청이지만 수단에 불과하다" 초대 연구회장인 이숙연(57·사법연수원 26기) 대법관은 사법부와 재판의 실제를 누구보다 잘 알고 있는 법관들의 현실적이고도 심도 있는 연구에 기초한 이번 가이드라인은 사법부와 재판에 있어 인공지능이 미치는 영향에 대한 근본적 철학과 실천적인 방향성을 제시하는 훌륭한 지침이 될 것이라고 강조했다. 그는 "인공지능기술은 이전의 신기술 출현과 달리 인터넷기술 이상으로 사회 전반에 있어서 급격한 변화를 가져오고 있다"며 "인공지능기술의 효율성과 범용성에 따른 시대적 변화의 큰 물결은 사법부도 피해갈 수 없고, 사법부의 행정시스템뿐만 아니라 재판시스템에 대한 인공지능기술의 도입과 적용은 시대적 요청"이라고 말했다. 이어 "인공지능이 일반 시민의 일상생활에까지 중대한 영향을 미침에 따라 재판의 실체적 쟁점이 되기도 하는 한편 새로운 소송절차 정립을 요청하기도 하므로 이에 대한 사법부의 선제적 연구와 대응이 필요한 만큼, 인공지능 가이드라인을 사법 인공지능기술의 실제 수요자이자 재판 주재자인 법관들의 자체 연구모임인 법원 인공지능연구회에서 마련하게 된 것은 남다른 의미를 지닌다"고 강조했다. 기우종(58·26기) 회장도 "지난해 8월경부터 연구회 산하 AI 가이드라인 WP(Working Party)를 조직해 수차례의 온오프라인 회의를 거쳐 초안을 마련하고 12월 연구회 정기세미나에서 발표한 뒤 의견수렴절차를 거쳐 지난달 최종안을 내게 됐다"며 "그 과정에서 EU AI act, 미국 연방사법센터의 권고안(An Introduction to Artificial Intelligence for Federal Judges)을 비롯하여 브라질, 캐나다, 호주, 뉴질랜드, 싱가포르 등의 관련 규정에서부터 2024. 11.경의 유네스코 초안(UNESCO Guidelines for the Use of AI Systems in Courts and Tribunals)에 이르기까지 세계 각국의 인공지능 관련 법규와 지침 등을 상세히 분석했고, 연구회 자체의 코딩공부 모임을 발족해 학습하고 외부전문가를 초청해 AI 월간 에포크 세미나를 진행하면서 전문성을 강화하는 등 최신 기술동향에 대한 연구회의 역량까지 녹여내려고 시도했다"고 설명했다. 그는 인공지능기술은 법원의 재판 관련 활동의 효율성을 제고하고 소송당사자의 사법접근성을 높일 수 있는 효율적인 도구이나, 헌법상 기본권 보장, 사회적 약자 보호, 사법에 대한 신뢰 등 사법의 핵심 가치를 실현하기 위한 수단에 불과한 상황에서 이번 인공지능 가이드라인은 기본적 방향성을 제시하였다는 점에서 의의를 가진다고 부연했다. 연구회 간사인 권창환(50·36기) 부산회생법원 부장판사는 "인공지능기술에 따른 우리 일상과 제도의 급격한 변화양상을 고려할 때, 이번 가이드라인에 기반한 사법제도의 정비 등 선제적 연구와 개선이 지속되길 기대한다"고 말했다. 인공지능연구회는 재판업무 지원을 위한 인공지능 관련 법률 문제를 연구하고, 재판 업무 효율화의 기반을 마련하기 위해 2023년 10월 말 법원 내 커뮤니티로 출범했다. 이번 AI 가이드라인 집필에는 김진성(43·41기) 서울서부지법 판사, 이상언(39·42기) 인천지법 판사, 송현섭(39·44기) 의정부지법 판사, 홍순건(36·44기) 인천지법 판사, 권원명(38·44기) 특허법원 판사, 전정우(38·변호사시험 6회) 울산지법 판사, 이상수(38·변시 6회) 서울중앙지법 판사가 참여했다. 감수는 권창환 간사와 손영언(44·38기) 안동지원 부장판사, 박철홍(42·40기) 대법원 재판연구관이 맡았다.
www.lawtimes.co.kr
짱깨산ai