
카카오가 인공지능(AI) 서비스 ‘카나나’ 출시를 앞두고 대화를 통해 알게 된 사용자의 개인정보를 AI가 다른 대화방에서 발설하지 않도록 기술적 안전장치를 강화한다.
개인정보보호위원회는 서울 종로구 정부서울청사에서 관련 브리핑을 열고 카나나에 대한 사전적정성검토 결과를 심의‧의결했다고 13일 밝혔다. 카카오는 개인정보위와 사전적정성 검토 과정을 통해 △암호화 등 기술적 보안조치 강화 △외부모델 처리데이터 보호 강화 △내부 학습에 이용시 별도 추가적 안전조치 운영 △내부 관리체계 강화 등의 추가 안전조치 방안을 마련하기로 했다.
카카오는 개인정보위와 사전적정성 검토 과정을 통해 카나나가 참여자와 대화를 통해 알게 된 개인정보 등을 다른 대화방에서 발설하지 않도록 하는 기술적 안전장치를 강화한다.
카나나는 오픈AI나 코파일럿(대화형 AI) 등 일반적인 거대언어모델(LLM) 서비스처럼 일반적인 정보를 답하는 것을 넘어 대화방에서 오갔던 이야기를 바탕으로 맞춤형 답변을 제공한다. 가령 대화방 참여자가 “회비를 어떻게 내지”란 질문을 하면 카나나는 해당 대화방의 회비 금액, 총무의 계좌번호 등을 알려줄 수 있다. 카카오는 언어모델이 생성하는 답변을 통해 타인의 개인정보(전화번호, 이메일 등 식별성이 높은 정보)가 노출되는 일이 없도록 자동 검수할 계획이라고 설명했다.
카나나 대화방 내 데이터는 카카오의 별도 데이터베이스에 보관되며 오픈AI측에는 저장되지 않도록 한다. 대화 데이터 중 고유식별정보나 계좌‧카드번호 등 식별성이 강한 개인정보가 포함된 경우 카카오의 언어모델로만 처리하며 외부 모델 활용 시 오픈AI가 알아볼 수 없도록 해당 부분을 암호화 처리할 예정이다.

카나나 서비스는 카카오가 자체 개발한 언어모델을 활용하지만 오픈AI의 챗GPT 모델도 보완적으로 사용한다. 외부모델인 오픈AI에서 처리되는 데이터에 대한 보호를 강화하기 위해 위수탁 계약에 관련 조건을 명확히 담기로 했다.
위탁 계약에는 해당 데이터를 카카오가 맡긴 업무를 위해서만 활용해야 하고 오픈 AI의 사업목적으로 쓰이지 않도록 해야 한다는 조건을 명시했다. 또 챗GPT의 응답 후 오픈AI에 별도로 저장되지 않도록 기술적 제약도 두기로 했다.
카카오는 이용자 대화 데이터를 자사 언어모델의 학습데이터로 활용하려면 카카나 이용자로부터 별도의 동의를 받아야 한다. 원하지 않는 이용자는 동의하지 않을 수 있다. 또 카카오는 이용자의 대화 속 개인정보가 AI에 그대로 암기될 수 있기에 자동 필터링, 인적 검토절차 마련·공개, 피드백 프로세스 구축 등의 방안도 마련하기로 했다.
마지막으로 카카오 서비스의 지속적인 개인정보 보호수준 제고를 위해 카카오의 개인정보 보호책임자(CPO)가 상시 리스크 관리체계를 구축‧운영한다. CPO는 중대한 리스크 관리계획 및 실행내역을 정기적으로 이사회에 보고한다.
이날 브리핑에 나선 전승재 조사3팀장은 “사전적정성 검토제는 출시 전 서비스를 대상으로 신청받기에 기업의 영업비밀이 노출될 우려가 있어 소수의 보도자료만 냈다”며 “카나나의 경우 출시, 기술 등 언론 보도가 있었고, 개인정보 보호 맥락에서 국민들이 안심하고 쓸 수 있도록 하기위해 어떤 협의를 거쳤는지 밝히는 게 의미가 있을 것으로 판단했다”라고 밝혔다.
개인정보위는 카나나 서비스 출시 후 사전적정성 검토제에서 나온 방안들을 카카오가 준수하고 있는지 두 번 이상 점검할 예정이다. 전 팀장은 “이 안전장치들은 출시 전 구현된 상태여야 하며 개인정보위는 카카나 출시 직전에 첫 번째 이행점검을 실시할 예정”이라며 “이어 수개월 후 이사회 보고, 피드백 체계 등이 작동하고 있는지 확인할 것”이라고 말했다.
카카오 관계자는 “카카나는 상반기 클로즈베타테스트(CBT)를 진행할 예정으로 연내에 출시할 계획”이라며 “서비스 출시에 앞서 문제가 있는 것이 아닌 이용자의 안전을 위해 개인정보위와 의견을 나눈 과정”이라고 설명했다.
