‘AI윤리’를 바라보는 유네스코와 OECD의 서로 다른 접근법

‘AI윤리’를 바라보는 유네스코와 OECD의 서로 다른 접근법

기사승인 2019-12-05 17:46:47

한국을 비롯한 전세계는 인공지능, 빅데이터, 사물인터넷 등 새로운 정보통신기술이 이끄는 AI시대에 진입하고 있다. 지금까지 정보화 환경에서 의사결정 권한이 인간에게만 있었다면 AI시대엔 상당부분을 기계와 알고리즘에 의존하게 됐다는 점이 큰 변화다. 

우리나라 역시 AI 윤리원칙에 대한 중요성을 인식하고 이에 대한 움직임에 돌입했다. 방송통신위원회와 정보통신정책연구원은 지난달 AI 시대 이용자의 권리와 이익을 보호할 수 있도록 기업과 이용자들이 지켜야 할 원칙인 ‘이용자 중심의 지능정보사회를 위한 원칙’을 발표했다. 

EU와 OECD, 유네스코 등 국제단체들은 세계적으로 함께 해결해야 하는 문제들에 대해 논의한다. 이들의 주요 논의 주제인 ‘기후변화’와 함께 점차 중요하게 다뤄질 주제는 ‘AI윤리’다. 산업적 혁신과 인권 등 사회적 가치의 균형을 잡기 위한 공감대는 형성됐지만, 구체적인 윤리적 원칙을 세우려면 치열한 쟁점이 대두될 것으로 보인다.    

방송통신위원회와 정보통신정책연구원은 ‘제1회 지능정보사회 이용자보호 국제콘퍼런스’를 5일 명동 포스트타워에서 개최했다. ‘AI for Trust’를 주제로 열린 이번 콘퍼런스에서는 국내외 전문가들이 참여해 지능정보사회 윤리적 규범 정립을 위한 국제사회의 노력에 대해 전했다. 

콘퍼런스는 유네스코 세계과학기술윤리위원회 위원인 이상욱 교수(한양대학교 교수)가 기조발제를 맡아 유네스코 등 국제기구의 인공지능 윤리에 대한 논의를 소개했다. 

이 교수는 “AI규제도 특정국가에서만 정책을 실시하면 의미가 없고, 세계적으로 보편화된 규제가 있어야 바람직한 발전이 이뤄질 수 있다”며 “AI 윤리 문제도 기후변화처럼 광범위하고 큰 위험을 가져올 수 있어 국제적 논의와 공조, 정책적 대응이 필요하다”고 설명했다. 

그는 “인공지능은 어떤 일을 하기 위해 처음 집어넣는 데이터 품질이 결정적으로 중요한데, 이 데이터를 수집하고 활용하는 과정이 현재 사기업에 의해 독점 되고 있다”며 “자기 국민들로부터 얻어진 데이터로 다른 나라 기업이 돈을 번다거나, 과학적 객관성을 확보하는데 검증 자체가 힘들어지는 등의 문제점들이 발생 중”이라고 언급하며 ‘AI윤리’의 국제적 논의 필요성에 대해 언급했다. 

다만 AI윤리는 기후변화보다 한 층 더 첨예한 쟁점 및 갈등이 존재한다. 기후변화는 윤리적 당위문제에 있어선 국가들 사이에 비교적 논란의 여지가 적지만, 인공지능은 어떤게 바람직한 방향의 규제이고, 무엇이 윤리적 원칙인지 국가별로 상당한 이견 차가 있기 때문이다. 

다양한 국제단체에선 서로 다른 목적과 다양한 이해당사자들로 모여있는만큼 이들의 성격에 맞게 해결책을 모색해나가고 있다. 유네스코는 교육, 문화, 과학을 강조하고 있는 단체인 만큼, 구체적으로 AI가 우리 사회에 어떻게 활용되고 어떤 혜택을 주고 있는지를 살펴보고 보고서를 작성하고 있다. 가령 AI를 활용한 교육이 기존 교육방식을 대체할 수 있을까 하는 고민들이다. 정부기구가 아니다보니 참여자들은 주로 AI 기술분야나 사회적 논의 분야, 윤리 철학을 담당하는 사람들이 주로 참여 중이다. 

OECD는 만들어진 배경이 유네스코와 다른 것처럼 AI윤리에 대해 논의하는 참여자들부터 집중하는 부분까지 다르다. OECD는 기술발전이 높은 국가들에 속해있다보니 기술 혁신에 대해서도 자신들이 현재 누리는 경제 수준과 삶을 훼손하지 않으면서 더 나은 방법을 찾는데 인공지능이 활용되길 기대한다. 

OECD는 기술혁신과 최소한의 인권, 사회적 가치들을 조화하는 방법들을 적극적으로 모색하고 있다. 특히 윤리원칙과 기술 혁신을 조화시키기 위해선 어떤 제도적 뒷받침이 마련되어야하는지, 국제적 공조 수준에서 어떻게 구현되어야하는지를 자세하게 다룬다. 참여자들은 주로 AI기술자들이나 정부 관계자로 유네스코에 비해 윤리 전문가, 사회전문가 비율은 적은 편이다.

이 교수는 “참여자 성격을 보고 기술 산업만 중시하고 윤리 사회적 문제를 도외시한다고 오해하면 안된다”며 “OECD는 논쟁적 사안들 일일이 따져가면서 논의하기에 자신들이 적합한 장소가 아니라고 생각한다. 복잡한 윤리적 논의나 구체적 사회적 논의는 다른 곳에서 어느 정도 이뤄진 다음, 이들은 도출된 합의점에 대해 그 관리 체계를 어떻게 담아낼지에 대해 집중하겠다는 의미다. 지적 분업을 하겠다는 것”이라고 설명했다. 

인공지능이 산림이나 해양 자원처럼 희소성과 관련된 ‘환경’이 아님에도 단체들이 논의하게 된 배경은 ‘지속가능성’이라는 공통점을 갖고 있기 때문이다. 

이 교수는 “윤리적으로 사람들이 자신의 능력 발휘할 수 있는 기회를 보장해줘야 기술이 지속가능하다”며 “인공지능도 궁극적으로 전 세계 사람들에게 많은 혜택을 주는 좋은 기술이 되기 위해선 경제적, 기술적, 사회적으로 여러 측면들을 고려해야 한다”고 강조했다.

이안나 기자 lan@kukinews.com

이안나 기자
lan@kukinews.com
이안나 기자
이 기사 어떻게 생각하세요
  • 추천해요
    0
  • 슬퍼요
    0
  • 화나요
    0
추천기사
많이 본 기사
오피니언
실시간