반복내용 건너뛰기(skip to main content) 본문 바로가기(Go body) 메뉴 바로가기(Go Menu)
G03-8236672469

특별기고

AI의 화이트박스화가 필요하다

NSP통신, NSP인사 기자, 2021-05-10 08:26 KRD7
#선문대학교

박정호 선문대 컴퓨터공학부 교수

(서울=NSP통신) NSP인사 기자 = 빅데이터와 기계학습 등의 기술발전으로 인공지능(AI)이 성큼 우리에게 다가왔을 뿐 아니라, 이제는 인간이 위협을 느끼기 시작했다. 로봇이라는 단어가 이 세상에 처음 등장하게 되었다는 1920년 체코 극작가 차페크의 작품인 SF 희곡 R.U.R.(Rossumovi Univerzalni Roboti)에서 인간이 인간을 위해 만들었다는 로봇이 결국에는 반란을 일으켜서 인간이 멸종에 이른다는 스토리는 그 이후 AI 관련 영화의 단골 소재로 등장하였고, 우리는 SF영화에서나 볼 수 있는 소설같은 얘기라고 생각하면서 영화를 즐겨왔다.

이제는 한가하게 소설같은 얘기로 웃고 넘어갈 수 없는 상황이 되어 가고 있다. 2018년에 타계한 영국의 천재 물리학자인 스티븐 호킹 박사를 비롯해서 전 세계 많은 석학들이 AI의 위협을 경고하고 있고, 미국 국방성산하 방위고등연구계획국(DAPRA)에서도 AI통제 문제를 위한 다양한 연구 및 활동을 하고 있다.

NSP통신-박정호 컴퓨터공학부 교수 (선문대학교 제공)
박정호 컴퓨터공학부 교수 (선문대학교 제공)

지난 겨울 등장한 AI 챗봇 ‘이루다’의 등장으로 AI 문제가 사회적으로 큰 이슈가 된 적이 있었고, 데이터의 바이어스로 인해 다양한 AI 문제가 발생하고 있는데, 이러한 AI 문제 해결을 위한 방안으로 AI윤리의 필요성이 언급되기도 한다. AI로 인해 발생할 수 있는 인간의 피해를 최소화하기 위해 AI윤리 교육도 필요하겠지만, 이러한 방법은 소극적 방안이자 방어적 대응에 지나지 않아서, 보다 적극적이고도 공격적인 방안이 필요하다.

AI의 오작동으로 인한 사회적 문제 발생을 우려하는 목소리도 있지만, 오작동으로 인한 AI 폐해는 시스템 개발의 테스트 단계, 가령, 화이트테스트(white test)단계에서 방지할 수 있을 것으로 생각한다.

G03-8236672469

AI의 개발자는 자신이 개발한 AI가 어떤 동작을 하는지 알 수 있겠지만, 일반인들은 그 AI가 어떤 동작을 하는지 전혀 알 수 없는 블랙박스에 지나지 않는다. 따라서, 일반인들은 블랙박스화되어 있는 AI가 어떤 위협으로 다가올지를 알 수가 없다. 만일, AI 개발자가 자신이 개발한 AI는 이용자에게 해를 끼치지 않는다는 정보를 일반인이 알 수 있도록 공개한다면 상황은 달라지지 않을까 ?

식품을 비롯한 일반 상품의 경우, 투명성 확보를 통한 소비자 보호를 위해 상품에 레이블을 부착하고 있는데, 식품이나 약품 그리고 화장품의 경우 식품 위생법이나 약사법 등에 따라 표시 사항이 엄격하게 정해져 있다.

이러한 레이블은 고대 이집트에서 포도주 항아리 뚜껑에 품질과 관련된 내용을 부착한데서 유래되었는데, 산업혁명 이후 공장제 상품의 대량 생산과 인쇄기계의 발달로 레이블이 널리 사용되었다.

AI 위협에 대한 적극적이고도 공격적인 방안으로서, AI에 레이블 부착을 법제도화할 것을 제안한다. 일반 상품에 레이블을 부착함으로써, 소비자가 해당 상품을 안심하고 이용할 수 있듯이, 일반 이용자 입장에서 블랙박스에 지나지 않는 AI를 안심하고 이용할 수 있도록 하기 위해, 일반상품과 마찬가지로, AI에 레이블 부착을 법제도화하는 것이 필요하다.

AI 레이블에는 블랙박스에 지나지 않는 AI를 화이트박스화하는데 필요한 정보가 포함되어야 할 것이다. 필자는 AI의 화이트박스화에 필요한 정보로, AI 개발자가 자신이 개발한 AI는 데이터 유출 기능이 없다는 내용이 포함되어야 한다고 생각한다. 그리고, 자신이 개발한 AI는 소프트웨어를 위변조하는 기능이 없다는 내용과 데이터 위변조 기능이 없다는 내용도 포함되어야 할 것이다.

NSP통신 people@nspna.com
저작권자ⓒ 한국의 경제뉴스통신사 NSP통신·NSP TV. 무단전재-재배포 금지.