본문 바로가기

알아야 산다/IT 최신 정보

[IT 최신 정보] 인간과 기계의 전쟁? 구글과 펜타곤의 사례로 알아보는 '국방 AI'의 윤리적 이슈

 

인공지능(AI)은 다양한 분야에서 인간과 함께 생활 중입니다.
냉장고·청소기·식기세척기 같은 각종 가전제품에 탑재되는 것은 물론,
의료 기기에 도입되어 'AI 기반 진료 플랫폼'을 구현하기도 하죠.
이렇듯 AI는 우리 일상에 편의를 더해주고, 병증을 진단하기도 합니다.
그리고, 나라를 지키는 데도 일조한답니다.

 

'사이렌24' 블로그에서도 여러 번 소개해드린 것처럼, AI는 시나브로 인간과의 공존을 향해 발전해나가고 있습니다. 코로나19 같은 전염병 확산에 맞서 싸우는가 하면, 예술가처럼 그림을 그리거나 시를 씁니다.(관련 글 보러 가기) 이제는 심지어 군대에 가기까지 합니다. 국군 전력에 AI가 가세한다면 그야말로 최강 전투력이 갖춰지지 않을까 싶은데요, 이 대목에서 윤리적 이슈가 발생합니다. AI 기술을 군사력에 동원한다는 건, 말하자면 'AI가 무기로 사용될 수도 있다'라는 잠재성을 인정하는 셈입니다. AI를 오직 방어 시스템 구축에만 활용한다 해도, 군사력의 일부가 된 이상 공격형 살상 무기에도 탑재될 여지는 충분해진 것이니까요. 그래서 AI의 군사 시스템 도입을 놓고 첨예한 갈등이 야기되기도 합니다.


ㅣ 미 국방부가 '국방 AI 윤리 규범' 채택한 까닭


국방 AI 얘기에 앞서, 바둑 AI 알파고(AlphaGo) 이야기부터 잠깐 해볼게요. 2016년 3월 프로 바둑기사 이세돌 9단과 대국을 펼친 '알파고 리', 이듬해 5월 중국의 커제(柯洁) 9단과 승부를 겨룬 '알파고 마스터'. 아시다시피 이 두 알파고는 구글이 개발한 바둑 AI입니다. '리'는 이세돌을, '마스터'는 커제를 각각 꺾었죠. AI가 연거푸 세계적 프로 바둑기사를 제압했다는 소식은 많은 이들에게 적잖은 충격이었습니다. 그리고 얼마 후, 커제가 패한 그해 10월 '알파고 제로'가 등장합니다. '리'와 '마스터'를 능가하는 버전이었죠. 불과 1~2년 사이의 업데이트(버전업)를 통해 이루어진 진보였습니다.

 

AI의 빠른 발전 속도만큼 우리 일상의 편의도 비슷한 빠르기로 높아질지 모릅니다. 그런데 만약, 바둑 대국과 같은 '승패의 영역'에 AI가 도입된다면 어떨까요. AI가 진보함에 따라 이기는 쪽과 지는 쪽의 실력차는 점점 더 벌어지겠죠? 바둑 대국처럼 'AI 대 인간' 구도라면 차라리 나을지도 모르겠습니다. AI는 AI대로의 발전을, 인간은 인간 나름의 발전을 모색하면 될 테니까요. 하지만 '인간 대 인간'의 구도에서, AI가 어느 한쪽 편을 위해서만 작동한다면 얘기는 달라지죠. 게다가 그 구도가 전시 상황을 염두에 둔 형태라면 논의의 장은 훨씬 복잡하고 넓어질 것입니다. 국방 AI를 둘러싼 찬반론이 나오는 이유입니다.

올해 2월, 미국 국방부(이하 펜타곤)가 흥미로운 발표를 했습니다. 국방 AI를 위한 윤리 규범(Ethical Principles for AI)을 채택했다는 내용이었죠. 군사 분야에서 AI 기술을 사용할 때 윤리적 사안들을 준수하겠다고 공언한 것입니다. 이 윤리 규범은 '국방혁신위원회'라는 민간 주도 조직이 지난해 10월 펜타곤에 권고한 사안이기도 합니다. 골자는 'AI에 대한 통제력 강화'입니다. 딥러닝 기반의 AI가 자율 판단으로 군사 무기를 사용하게 되는 상황을 우려한 조처라 할 수 있죠.

국방혁신위원회에는 구글 대표이사를 지낸 에릭 슈미트도 포함돼 있었는데요. 구글은 AI 분야의 선두 기업입니다. 알파고 같은 바둑 AI뿐 아니라, 일명 'AI 화가'라 불리는 딥드림(Deep Dream)을 개발해 큰 화제를 모았죠. 왠지 구글은 국방 AI 개발 분야에도 적극적일 듯한데, 오히려 (구글의 상징적 인물인) 에릭 슈미트는 국방 AI 신중론을 편 셈입니다. 여기에는 비하인드 스토리가 있습니다.

 

 

미국 국방부 본청 펜타곤 / 출처: Wikipedia(이미지 클릭)

 


ㅣ 11조 프로젝트 포기한 구글, 그리고 영화 <터미네이터>


사실 구글은 자사의 AI 기술을 펜타곤에 제공한다는 결정을 내린 바 있습니다. 2017년 펜타곤은 '프로젝트 메이븐(Project Maven)'이라는 전력 강화책을 발표하면서 구글에 인공지능 알고리즘 지원을 요청했죠. 이에 구글이 응했던 것입니다. 프로젝트 메이븐의 핵심 과제는 군사용 드론이 인간과 사물을 정확히 구분하게 만드는 것이었어요.

이 사실이 알려지자 구글 직원들이 반발했습니다. 이들은 군사 비즈니스에 구글의 기술을 사용하지 말라, 전쟁 기술을 만들지 않겠다는 회사 차원의 정책을 내놓아라, 라는 내용을 담은 탄원서를 만들었죠. 그중 몇몇은 회사에 실망감을 표하며 퇴사하기도 했습니다. 내부 직원 3,000여 명이 서명한 이 탄원서는 결국 구글 CEO 선다 피차이(Sundar Pichai)에게 전달됐습니다. 이에 2018년 5월, 구글은 더 이상 군사용 AI 개발에 참여하지 않겠다는 성명서를 발표합니다. 프로젝트 메이븐 재계약을 포기함은 물론, 펜타곤의 또 다른 국방 AI 프로젝트이자 11조 원 규모인 제다이(JEDI, Joint Enterprise Defense Infrastructure) 입찰에도 불참 의사를 밝혔죠.

구글의 국방 AI 이슈와 함께 영화 한 편이 화제를 모았습니다. 다름 아닌 <터미네이터> 시리즈였어요. 기계와 인간의 전쟁을 그린 SF물이죠. 극 중 등장하는 '스카이넷(Skynet)'은 사이보그 대량 생산부터 무인 폭격기 출격, 핵무기 발사까지 하는 최첨단 AI입니다. 구글이 성명서를 내놓기 전까지, 세간에서는 구글을 스카이넷에 비유하는 칼럼과 밈(meme)*이 생산되기도 했습니다.

*밈: (생략) 하나의 완성된 정보(지식, 문화)가 마치 살아있는 것처럼 말과 문자를 매개체로 세대를 넘어 보존, 전파되는 것을 밈이라 함. (후략) 혹은 SNS 등에서 유행하여 다양한 모습으로 복제되는 짤방 혹은 패러디물을 이르는 말. 출처: 네이버 국어사전_오픈사전(바로 가기)

 

영화 <터미네이터 3>의 한 장면. '스카이넷'이라는 AI에 의해 조종되는 로봇 군단. / 출처: IMDB.com(이미지 클릭)

 

펜타곤의 프로젝트에 참여하기로 한 구글을 풍자한 밈 이미지 / 출처: 해외 블로그 'MyTechskool'(이미지 클릭)



구글이 입찰에 불참했던 '제다이'의 수주는 마이크로소프트(MS)가 따냈습니다. 제다이는 군사 정보 클라우드 인프라입니다. 미국 국방부가 보유한 갖가지 군사 정보를 체계화하여 클라우드 공간에 통합 보관하는 시스템이죠. MS와 경합을 벌였던 회사는 아마존 웹서비스(AWS, 아마존의 클라우드 컴퓨팅 사업부)였는데요. 아마존 CEO 제프 베조스(Jeff Bezos)는 2018년 10월, IT 및 과학 분야 리더들의 회합인 '와이어드25 서밋(Wired 25 Summit)'에서 공개적으로 국방 AI를 찬성한 바 있습니다. 그는 "테크 기업들이 미국의 국방을 외면한다면 이 나라는 큰 곤경에 빠질 것(If big tech companies are going to turn their back on the U.S. Department of Defense, this country is going to be in trouble.)"이라는 발언을 남기기도 했어요.



제프 베조스의 해당 발언 영상(17:41) / 출처: CBS News 유튜브(https://bit.ly/2V44KIl)



ㅣ AI가 인간에게 입력한 명령어: "사유하라"



펜타곤과 구글의 사례를 중심으로 국방 AI의 윤리적 이슈를 짧게 살펴봤습니다. 여러분은 어떤 생각을 갖고 계실지 궁금합니다. '윤리는 아무리 강조해도 지나치지 않다. 특히나 군사 목적으로 AI가 사용되는 문제라면.' vs. '나라를 지키는 일이니 만큼, 윤리적 판단에 어느 정도 융통성을 기해야 하지 않겠나.' 이러한 논쟁 구도가 자연스럽게 형성될지도 모르겠습니다.

어쨌든 중요한 것은, 우리가 국방 AI의 윤리적 이슈를 통해 '각자의 생각'을 갖게 된다는 점, AI라는 대상을 보다 입체적 시각으로 바라보게 되는 점 아닐까요? 인간은 다양한 개발 코드와 명령어로 AI를 창조했고, AI는 거꾸로 인간의 사고 체계에 새로운 명령어를 입력하는 것 같습니다. '사.유.하.라.'라고 말예요.