전창배 IAAE 국제인공지능&윤리협회 이사장은 해답을 ‘교육’에서 찾았다. 기술이 불완전할 때 기술을 개발하는 주체와 사용하는 주체 모두에게 도덕과 윤리를 가르치면 위험요소를 없애거나 최소화할 수 있다고 말한다.
그는 “인공지능 윤리문제를 어떻게 해결해야 하냐면 결국은 교육”이라며 “인공지능을 제대로 안전하게 만들고, 올바른 목적으로 사용하면 윤리문제는 일어나지 않거나 최소화할 수 있다”고 말했다.
전 이사장을 최근 서울 북창동 사무실에서 만났다. 협회는 인공지능 윤리 외에 기술 진흥·발전에도 힘을 쏟고 있다. 협회명은 본래 ‘한국인공지능윤리협회’였다. 창립총회를 거쳐 지금 명칭으로 바꿨다.
“자율성이 AI 핵심…결국은 교육이 답”
전 이사장에 따르면 인공지능 발전 단계는 ‘약·강·초’로 구분한다. 지금은 ‘약 인공지능’ 단계다. 인공지능은 외부조작 없이 스스로 무언가를 해낼 줄 아는 ‘자율성’이 기본인데 시중에 나온 서비스는 ‘자율성’이 결여돼있다. 컴퓨터 ‘인풋-아웃풋’과 같다. 최근 IT업계에서 경쟁이 붙은 ‘초거대 AI’도 기술 단계로 따지면 ‘약’에 해당한다. 그러므로 현 수준에서 진정한 AI를 체감하긴 이르다고 전 이사장은 말한다.
전 이사장은 “자율성이 AI 핵심”이라며 “인간이 지시하거나 명령을 입력하지 않아도 스스로 판단하고 결정할 수 있어야 하는데 지금은 프로그래밍대로 결과를 내는 수준”이라고 말했다.
인공지능이 자율성을 갖는 시기는 ‘강’ 단계일 때다. 학계는 이 시기를 이르면 2~30년 후로 내다보고 있다. 이쯤 되면 인공지능은 인간과 동일하다. 인간과 공존하면서 감정을 표현하고 연애도 할 수 있다. 결혼해 가정을 꾸리고 가족 구성원이 될 수 있다. 하지만 그만큼 통제하기 어려워진다. 지적 수준이 올라가 인간의 생각을 읽을 수 있다. 나쁜 생각을 품을 수도 있다. ‘강 인공지능’은 개념으로 존재하지만 충분히 예상할 수 있는 대목이다.
마지막 단계인 ‘초 인공지능’에 가서는 기술이 폭발하는 ‘특이점’이 등장한다고 여겨진다. ‘신’적인 인공지능이 등장하고, 상상 속에 존재하는 ‘유토피아’가 올 수 있다고 전문가들은 입을 모은다. 그러나 좋은 면만 있는 건 아니다. 이 모든 건 인공지능을 선한 목적으로 사용했을 때 가능하다. 악한 인공지능이 인류를 지배하고, 인류가 사라지는 시나리오도 무시할 수 없다. 인공지능 시대를 무작정 반길 수만 없는 셈.
전 이사장은 이러한 리스크를 줄이는 방법은 교육이라고 강조한다. 그는 또 인공지능 악용 사례는 법으로 강하게 규제해야 한다고 언급했다.
그는 “현 단계에서 인공지능은 인간이 시키는 대로 하기 때문에 제대로 만들면 사고는 최소화할 수 있다”고 말했다. 이어 “인공지능 윤리문제는 결국 인간 윤리 문제”라며 “개발자부터 소비자까지 모든 사람을 교육해야한다”고 말했다.
“최소한만 규제해야 기술 발전”
전 이사장은 다만 인공지능 발전을 위해서는 네거티브 규제가 필요하다고 주장했다.
전 이사장은 “인공지능은 인류를 변화시킬 어마어마한 기술이지만 규제가 심하면 시장도 안 열리고 소비자 편익도 느끼지 못 한다”며 “최소한으로 규제하고 나머지는 허용해야만 기술이 발전할 수 있다”고 말했다.
그는 또 “전 세계가 인공지능 윤리 중요성을 인식하고 있고 올해는 노력 원년이 될 것”이라며 “이런 내용을 교육하고 알리는 활동을 지금부터 해야 한다고 생각 한다”고 덧붙였다.
전창배 이사장은 △IAAE 국제인공지능&윤리협회 이사장 △아이오냅 주식회사 대표이사 △한국지능정보사회진흥원 디지털포용포럼 위원 △서울시 교육청 자문관을 맡고 있다.
송금종 기자 song@kukinews.com