카이스트(총장 이광형)는 전기및전자공학부 황의종 교수 연구팀이 학습 상황과 달라진 새로운 분포의 테스트 데이터에 대해서도 편향되지 않은 판단을 내리도록 돕는 새로운 모델 훈련 기술을 개발했다고 30일 밝혔다.
이는 인공지능 기술이 사회 전반에 광범위하게 활용되고 인간의 삶에 많은 영향을 미치고 있지만 중요 영역에서 다양한 편향성 문제가 밝혀져 공정성(fairness)을 고려한 머신러닝 학습의 필요성이 커지고 있다는 점을 고려해 연구를 한 결과물이다.
일례로 특정 인종만 주로 채용한 과거 데이터의 경우 인종과 채용의 상관관계가 강해서 아무리 공정한 모델을 학습 시켜도 현재의 약한 상관관계를 반영하는 정확하면서도 공정한 채용 예측을 하기가 근본적으로 어렵다.
이러한 이론적인 분석을 바탕으로 황 교수팀은 새로운 학습 데이터 샘플링 기법을 제안해 테스트 시에 데이터의 편향 패턴이 변화해도 모델을 공정하게 학습할 수 있도록 하는 새로운 학습 프레임워크를 제안했다.
이는 과거 데이터에서 우세하였던 특정 인종 데이터를 상대적으로 줄임으로써 채용과의 상관관계를 낮출 수가 있다.
제1 저자인 노유지 박사과정 학생은 "이번 연구를 통해 인공지능 기술의 실제 적용 환경에서 모델이 더욱 신뢰 가능하고 공정한 판단을 하도록 도울 것으로 기대한다ˮ고 밝혔다.
연구팀을 지도한 황의종 교수는 "기존 인공지능이 변화하는 데이터에 대해서도 공정성이 저하되지 않도록 하는데 도움이 되기를 기대한다ˮ고 말했다.
한편 이번 연구는 지난 7월 미국 하와이에서 열린 머신러닝 최고권위 국제학술 대회인 `국제 머신러닝 학회 (ICML)'에 발표됐다.
대전=이익훈 기자 emadang@kukinews.com