2019.03.07

“AI의 윤리적 대응 위해 민관학 협력모델 구축해야”...한국인공지능법학회-KAIST 세미나 개최

편집부 |
인공지능에 대한 윤리적 대응체계를 만들기 위해 민관학협력 모델을 시급히 구축하고, AI 윤리에 대해 담론 수준에서 벗어나 산업별, 서비스별 윤리 이슈에 대한 구체적이고 탄력적인 정책적 대응을 해야 한다는 지적이 제기됐다. 

한국인공지능법학회와 KAIST 인공지능연구소, 바른미래당 신용현 의원 주최로 3월 7일 국회의원회관 제2소회의실에서 ‘인공지능의 윤리적 개발 동향과 입법 대응 과제’라는 주제로 정책세미나가 열렸다. 이번 세미나에서 국내외 AI 전문가들은 인공지능 기술 개발 뿐만 아니라 윤리적 대응 체계를 갖추는 일이 시급하다고 입을 모았다. 

특히, 이번 세미나는 인공지능을 디자인하는 공학전문가와 인공지능의 정책 및 법률 이슈를 다루는 법학 연구자들이 모여 인공지능의 윤리적 이용을 위한 정책방안을 논의하는 크로스오버 세미나로 진행됐다. 

마이크로소프트 아시아지역 법무정책 총괄매니저인 안토니 쿡은 기조발표에서 “정부는 인공지능 활용이 미래 경쟁력의 핵심 동력임을 인식, AI를 국가 아젠다의 우선순위에 두고 명확한 비전을 제시해야 한다”며, “다양한 이해관계자들이 모여 유연하면서도 경제전반에 적용될 수 있는 인공지능의 윤리적 원칙들을 만들어 나가는 것이 중요하다”고 강조했다. 

마이크로소프트 안토니 쿡 총괄매니저는 미국에서 주요 인공지능 기업들을 중심으로 AI 윤리에 대한 기준 정립과 공동연구 등을 위해 결성된 ‘AI 파트너십(Partnership on AI)’를 예로 들며, ‘인공지능 윤리에 관한 아시아 지역의 파트너십’ 구축이 필요하다고 덧붙였다.

바른미래당 신용현 의원은 “인공지능에 대한 윤리적 논의가 실업문제나 오남용에 대한 부작용 등 거시적 담론에 머물러 있었다”고 진단하고 “데이터의 수집, 알고리즘의 설계 사용화까지 다양한 단계에서 발생할 수 있는 다층적 윤리적 문제를 진단하고 구체적인 제도를 마련해야 할 때”라고 말했다.

정보통신정책연구원 선지원 부연구위원은 “부처별로 기존 ICT관련 법률이 산재한 상황에서 지능정보시회 관련 법제 이슈의 범람은 오히려 새로운 규범체계의 사회적 합의를 더욱 어렵게 만들 수 있다”고 지적하며 “인공지능 기술의 발전 방향과 속도를 예측하기 어려운 만큼 향후 제기될 수 있는 윤리문제에 자율적으로 대응할 수 있는 민관학 협력의 프레임워크를 구축하는 것이 합리적”이라고 강조했다. 

그는 특히 “이러한 프레임워크의 실행은 개발자와 이용자 등 민간이 주도하고, 국가는 기술표준, 위험 인증 등의 기술적 지원 등 심판자 역할을 해야 한다”고 덧붙였다.

선지원 부연구위원은 “지금까지 AI 윤리 이슈가 사회전반에 대한 총론적 규범논의에 그친 측면이 있다”며, “AI 기술이 적용되는 주요산업 분야의 특성에 따른 윤리 이슈에 대한 구체적인 논의로 방향을 전환해야 한다”고 말했다. 

특히 AI의 윤리이슈가 쟁점화되는 산업분야로 제조, 의료, 금융, 국방 등 4대 분야를 꼽았다.

경인교육대 심우민 교수는 발표를 통해 “현재의 상황에서 국제적으로 어떠한 규범이 형성될지 예측할 수 없는 만큼 단편적 규제완화 일변도의 접근을 지양해야 한다”며, “규제혁신이 필요하지만 현재 중요한 것은 규범이나 혁신방향에 대한 사회적 합의”라고 말했다.

발표에 이어 가천대 AI·빅데이터 연구센터장인 최경진 교수의 사회로 진행된 전문가 토론에서 패널로 나선 김지원 과기정통부 인공지능정책팀장도 “윤리 원칙들이 생태계내에서 효과적으로 발동하기 위해선 구체적인 서비스모델을 감안해 실효적인 적용방식을 고민하고 최소한의 규율수준을 더 세분화할 필요가 있다”고 말했다.

한편, 카이스트 뇌과학연구센터 박현욱 교수는 공학자의 관점에서 윤리적으로 디자인된 인공지능은 “인권을 침해하지 않고 어떠한 유해한 결과를 야기하지 않으며, 인간의 판단과 통제속에 있도록 디자인되어야 한다”고 말했다. 

또한 한희원 동국대 법대 교수는 “인공지능이 이미 인간과의 동거를 시작했다”며, “이미 윤리적 법적 효과를 일으킬 수 있는 지점에 와 있는 만큼 인공지능의 밑바탕을 인간의 윤리와 법이 단단히 지탱해야 한다”고 ‘인간중심의 AI’를 강조했다.

특히, 한국인공지능법학회 정기세미나를 겸한 이 행사는 대통령 직속 4차산업혁명위원회, 국회 4차산업혁명특위, 국회 4차산업혁명포럼, 그리고 마이크로소프트가 공동으로 후원했다. editor@itworld.co.kr


2019.03.07

“AI의 윤리적 대응 위해 민관학 협력모델 구축해야”...한국인공지능법학회-KAIST 세미나 개최

편집부 |
인공지능에 대한 윤리적 대응체계를 만들기 위해 민관학협력 모델을 시급히 구축하고, AI 윤리에 대해 담론 수준에서 벗어나 산업별, 서비스별 윤리 이슈에 대한 구체적이고 탄력적인 정책적 대응을 해야 한다는 지적이 제기됐다. 

한국인공지능법학회와 KAIST 인공지능연구소, 바른미래당 신용현 의원 주최로 3월 7일 국회의원회관 제2소회의실에서 ‘인공지능의 윤리적 개발 동향과 입법 대응 과제’라는 주제로 정책세미나가 열렸다. 이번 세미나에서 국내외 AI 전문가들은 인공지능 기술 개발 뿐만 아니라 윤리적 대응 체계를 갖추는 일이 시급하다고 입을 모았다. 

특히, 이번 세미나는 인공지능을 디자인하는 공학전문가와 인공지능의 정책 및 법률 이슈를 다루는 법학 연구자들이 모여 인공지능의 윤리적 이용을 위한 정책방안을 논의하는 크로스오버 세미나로 진행됐다. 

마이크로소프트 아시아지역 법무정책 총괄매니저인 안토니 쿡은 기조발표에서 “정부는 인공지능 활용이 미래 경쟁력의 핵심 동력임을 인식, AI를 국가 아젠다의 우선순위에 두고 명확한 비전을 제시해야 한다”며, “다양한 이해관계자들이 모여 유연하면서도 경제전반에 적용될 수 있는 인공지능의 윤리적 원칙들을 만들어 나가는 것이 중요하다”고 강조했다. 

마이크로소프트 안토니 쿡 총괄매니저는 미국에서 주요 인공지능 기업들을 중심으로 AI 윤리에 대한 기준 정립과 공동연구 등을 위해 결성된 ‘AI 파트너십(Partnership on AI)’를 예로 들며, ‘인공지능 윤리에 관한 아시아 지역의 파트너십’ 구축이 필요하다고 덧붙였다.

바른미래당 신용현 의원은 “인공지능에 대한 윤리적 논의가 실업문제나 오남용에 대한 부작용 등 거시적 담론에 머물러 있었다”고 진단하고 “데이터의 수집, 알고리즘의 설계 사용화까지 다양한 단계에서 발생할 수 있는 다층적 윤리적 문제를 진단하고 구체적인 제도를 마련해야 할 때”라고 말했다.

정보통신정책연구원 선지원 부연구위원은 “부처별로 기존 ICT관련 법률이 산재한 상황에서 지능정보시회 관련 법제 이슈의 범람은 오히려 새로운 규범체계의 사회적 합의를 더욱 어렵게 만들 수 있다”고 지적하며 “인공지능 기술의 발전 방향과 속도를 예측하기 어려운 만큼 향후 제기될 수 있는 윤리문제에 자율적으로 대응할 수 있는 민관학 협력의 프레임워크를 구축하는 것이 합리적”이라고 강조했다. 

그는 특히 “이러한 프레임워크의 실행은 개발자와 이용자 등 민간이 주도하고, 국가는 기술표준, 위험 인증 등의 기술적 지원 등 심판자 역할을 해야 한다”고 덧붙였다.

선지원 부연구위원은 “지금까지 AI 윤리 이슈가 사회전반에 대한 총론적 규범논의에 그친 측면이 있다”며, “AI 기술이 적용되는 주요산업 분야의 특성에 따른 윤리 이슈에 대한 구체적인 논의로 방향을 전환해야 한다”고 말했다. 

특히 AI의 윤리이슈가 쟁점화되는 산업분야로 제조, 의료, 금융, 국방 등 4대 분야를 꼽았다.

경인교육대 심우민 교수는 발표를 통해 “현재의 상황에서 국제적으로 어떠한 규범이 형성될지 예측할 수 없는 만큼 단편적 규제완화 일변도의 접근을 지양해야 한다”며, “규제혁신이 필요하지만 현재 중요한 것은 규범이나 혁신방향에 대한 사회적 합의”라고 말했다.

발표에 이어 가천대 AI·빅데이터 연구센터장인 최경진 교수의 사회로 진행된 전문가 토론에서 패널로 나선 김지원 과기정통부 인공지능정책팀장도 “윤리 원칙들이 생태계내에서 효과적으로 발동하기 위해선 구체적인 서비스모델을 감안해 실효적인 적용방식을 고민하고 최소한의 규율수준을 더 세분화할 필요가 있다”고 말했다.

한편, 카이스트 뇌과학연구센터 박현욱 교수는 공학자의 관점에서 윤리적으로 디자인된 인공지능은 “인권을 침해하지 않고 어떠한 유해한 결과를 야기하지 않으며, 인간의 판단과 통제속에 있도록 디자인되어야 한다”고 말했다. 

또한 한희원 동국대 법대 교수는 “인공지능이 이미 인간과의 동거를 시작했다”며, “이미 윤리적 법적 효과를 일으킬 수 있는 지점에 와 있는 만큼 인공지능의 밑바탕을 인간의 윤리와 법이 단단히 지탱해야 한다”고 ‘인간중심의 AI’를 강조했다.

특히, 한국인공지능법학회 정기세미나를 겸한 이 행사는 대통령 직속 4차산업혁명위원회, 국회 4차산업혁명특위, 국회 4차산업혁명포럼, 그리고 마이크로소프트가 공동으로 후원했다. editor@itworld.co.kr


X