하루가 다르게 발달하는 인공지능(AI)의 위험성을 환기하고 안전한 사용을 보장하기 위한 국제 가이드라인이 발표됐다.
우리나라와 미국, 일본 등 세계 각국은 26일 AI의 개발 및 이용 시 안전 확보에 집중한 국제 가이드라인을 공개했다.
이날까지 가이드라인 적용에 동의한 국가는 한국, 미국, 일본, 싱가포르, 영국, 독일, 이스라엘, 이탈리아, 캐나다, 폴란드, 호주 등 18개국이다. 구글과 마이크로소프트, 오픈 AI(Open AI) 등 세계적인 인공지능 개발사는 가이드라인 마련에 협력했다.
미국 국토안보부 사이버보안·사회기반안전보장청(CISA) 및 영국 국가사이버보안센터(NCSC)가 공동 발표한 가이드라인은 각국 AI 개발자와 이용자들이 악의를 가진 사용을 막아주는 안전한 설계가 핵심이다.
CISA 관계자는 “가이드라인의 법적 구속력은 없다”면서도 “기업이 AI를 개발하고 시장에 내놓을 때 만에 하나 악용될 소지를 최소화, 일반 소비자의 안전을 지키도록 했다”고 전했다.
가이드라인에는 구체적으로 ▲AI의 악용 감시 ▲해커로부터 데이터 보호 ▲소프트웨어 공급업체에 대한 심사 ▲공개 전 철저한 보안 테스트가 실천 사항으로 명기됐다.
AI는 인간의 삶을 풍요롭게 하는 동시에, 악용될 경우 끔찍한 상황을 초래할 가능성이 꾸준히 제기돼 왔다. 구글의 전 최고경영자 에릭 슈미트(68)는 최근 연설에서 “기업들이 안전 장치를 제대로 구현하지 않은 AI 기술은 핵병기에 준하는 위험성을 내포하고 있다”고 경고했다.
정이안 기자 anglee@sputnik.kr