장소: 온라인 ZOOM
발표자: 박도현 박사 (서울대 아시아태평양법연구소 연구원, 변호사)
9월 마지막 토요일에 열렸던 2021년 하반기 첫 번째 월례독회는 박도현 박사(서울대 아시아태평양법연구소 연구원, 변호사)의 발표와 토론으로 꾸려졌습니다. 학부에서 경제학 을 전공하고 서울대 법학전문대학원을 거쳐 법철학 전공으로 올해 2월에 박사학위를 취 득한 박도현 박사는 “인공지능과 해악”이라는 제하의 발표를 통해 ‘딥러닝 인공지능의 작동으로 야기되는 해악’, ‘인간지능과 인공지능의 인지체계 마찰에 기원하는 창발적 해악’, ‘인공지능 규범 체계의 현안’을 살펴보고, 딥러닝 인공지능의 해악의 특성과 그 특성에 적합한 거버넌스 체계가 무엇인지 함께 고민하는 시간을 가졌습니다.
발표자는 ‘규칙 기반 인공지능’ 기술의 해악은 기술 배후에 있는 인간이 야기한 결과로, ‘딥러닝 인공지능’ 기술의 해악은 인간의 의지적 행위가 개입하지 않은 복잡계의 결과로, ‘강·초인공지능’ 기술의 해악은 인공지능 에이전트가 야기한 결과로 규정하고, 각 해악에 대한 법적 대응으로 전통적 법체계의 미세조정, 경성 규범(법)과 연성 규범(윤리)의 융합 적 거버넌스, 인공지능 에이전트에 대한 법인격 부여라는 규범적 접근법을 제시하였다. 발표자는 이런 프레임 안에서 특히 딥러닝 인공지능 기술의 해악은 불확실한 상황에서의 제한적 합리성이라는 공통분모를 가지는 인간지능과 인공지능의 마찰에 그 기원이 있다 고 분석하고, 그 해악이 허용된 위험을 넘어서고 예측하기 어렵다는 점에서 ‘창발적 해 악’이라고 명명하였다. 이러한 창발적 해악에 대한 규범적 대안으로서 법과 윤리의 융합 적 거버넌스 체계 구축의 필요성을 재차 강조하였다.
발표자와 참여자들이 함께 한 자유토론은, 인공지능 기술의 해악과 창발성이 개념적으로 결합할 수 있는지와 그 결합의 이점이 무엇인지에 대한 비판적 질문을 시작으로 인공지 능 기술의 해악을 ‘예견할 수 없었던 해악’, 즉 인지적 차원에서 규정하는 것이 타당한 지, 발표자가 해악을 규정하는 데 있어서 전제한 암묵적 모델은 무엇인지(행위자 모델? 창조자 모델?)에 대한 개념적 의문점으로 이어졌습니다. 또한 실천적 측면에서는 인공지 능 기술의 책임성에 사전적·사후적 설명 의무를 포함시키는 것의 가능성과 한계, 법과 윤리의 거버넌스 체계가 전문가 중심 체계로 변질할 위험성, 바이오테크놀로지 분야에 도입된 소통 규범 모델을 인공지능 분야에 적용할 수 있는 가능성 등에 대해서 논의되었다.
コメント