최근 4차 산업혁명의 발달과 AI 과학기술의 급격한 진전으로, AI 자율무기체계에 대한 관심이 높아 지고 있다. 우리 군도 4차 산업혁명 과학기술을 기반으로, 북 핵·미사일 대응, 군사전략 및 작전개념, 핵심 첨단전력, 군구조 및 교육훈련, 국방 R&D·전력증강체계 분야를 혁신하여 경쟁우위의 AI과학기술 강군 육성을 목표로 국방혁신 4.0을 추진하고 있다.
그러나 AI 자율무기체계의 획득은 시험평가(Test, Evaluation, and Validation)에 있어, 전례없는 위험과 도전요인들에 직면하게 될 것이다. AI 자율무기체계는 기존 무기체계에와 달리 자율적으로 의 사결정을 내리고 작동하기 때문이다. 본고에서는 AI 자율무기체계의 시험평가에서 도전요인(① AI 자율무기체계와 미부합하는 작전운용성능 설정제도, ② 자율무기체계의 복잡성, ③ 인증의 유효성 보증 불가, ④ 시험평가 방법/도구/데이터/인프라 부재, ⑤ 안전성 및 보안성)을 제시하고, 이를 바탕으로 단기적 및 중·장기적 정책방안을 제시하였다. 단기적 방안으로 AI 자율무기체계의 작동 간 인간의 개입을 보장하는 것을 제시하였다. 중·장기적 방안으로는 AI 자율무기체계 시험평가에 대한 논의의 필요 성과 전문인력 양성을 제안하였다.
|