[KU시큐리티_보도자료_260114] 고려대 정보보호연구원 인공지능안전연구센터, ‘UNESCO AI Ethics Worksho…
정보보호대학원 2026-01-14

고려대 정보보호연구원 인공지능안전연구센터, ‘UNESCO AI Ethics Workshop’ 개최

- 책임 있는 인공지능 평가 지표와 실행 전략 논의 -


□ 고려대학교 정보보호연구원 인공지능안전연구센터는 UNESCO, 캐나다 OBVIA, 한국지능정보사회진흥원(NIA)와 함께 2026년 1월 13일(화) 고려대학교 정운오 IT교양관 임종인홀에서 「UNESCO AI Ethics Workshop」을 개최하였다.


□ 이번 워크숍은 UNESCO의 「인공지능 윤리 권고(Recommendation on the Ethics of Artificial Intelligence)」를 토대로, 책임 있는 인공지능의 실질적 이행을 위한 지표와 평가도구의 적용에 대한 비판적·실천적 논의를 위해 마련됐다.


□ 개회식에서 고려대 정보보호연구원 인공지능안전연구센터의 권헌영 센터장은 최근 급속히 확산되는 인공지능 기술 역시 보안과 프라이버시를 넘어 안전성·책임성·신뢰성의 관점에서 체계적인 연구와 검증이 필요하다는 문제의식 속에 고려대학교 정보보호연구원 산하에 인공지능안전연구 센터를 설립하게 되었다고 밝히면서, UNESCO RAM과 책임 있는 인공지능 평가 논의는, 이러한 센터의 설립 취지와도 깊이 맞닿아 있다고 언급하였다.


□ 이번 워크숍에는 정부·산업·학계·공공기관 전문가들이 참석해 한국 공공부문에서의 책임 있는 AI 구현을 위한 과제와 실행 방안을 논의하였다.


□ 오전 세션에서는 UNESCO AI 윤리 전문가인 Marc-Antoine Dilhac 교수(몬트리올 대학)가 연사로 참여하여, UNESCO AI 윤리 권고의 핵심 원칙을 설명하고, 이를 각국의 정책과 제도에 적용하기 위한 도구인 UNESCO RAM(Readiness and Impact Assessment)의 구조와 활용 방안을 발표했다. 특히 윤리 원칙이 선언적 수준에 머무르지 않고, 실제 행정·정책 환경에서 실행될 수 있는 구체적 적용 경로를 중심으로 논의가 이뤄졌다.


□ 오후 세션에서는 참가자들이 UNESCO RAM의 5개 핵심 차원(법·규제 / 사회·문화 / 경제 / 과학·교육 / 기술·인프라)을 중심으로, 한국의 AI 거버넌스 준비도를 점검하는 방법과 적용 시 고려사항을 논의하였다.


□ 특히, 시나리오 기반 그룹 토의를 통해 프라이버시 보호, 사회적 형평성(차별·격차·취약계층 보호) 이슈가 집중적으로 다뤄졌으며, 해당 이슈와 관련해서 한국의 사회적 맥락에서 AI 윤리를 어떻게 구현할 수 있을지 심층적으로 토론하였다. 참가자들은 각자의 조직과 업무 환경을 기준으로 RAM 도구의 실현 가능성과 제도적·조직적 한계, 개선 방향을 검토했으며, 이후 전체 토론을 통해 논의 결과를 종합·정리했다.


□ 사회를 맡은 Langlois 교수는 이번 워크숍이 AI 윤리를 추상적 가치가 아닌 평가 가능하고 실행 가능한 정책 도구로 전환하는 데 초점을 초점을 맞춘 자리였다고 정리하였고, 권헌영 센터장은 오늘 논의가 일회성 행사로 끝나지 않도록, 정부·산업·학계·공공기관이 함께 참여하는 후속 네트워크를 구축해 지속적으로 협력해 나가겠다고 밝혔다.


□ 끝

닫기