본문 바로가기

한국發 중국이야기

[단독] 스티븐 호킹, 중국 개발자 향해 ‘인공지능 위험성’ 경고

반응형


▲ GMIC 2017 행사에서 영상 강연을 진행한 스티븐 호킹 교수 (출처:봉황망 봉황커지)



[봉황망코리아 차이나포커스] 영국의 천재 물리학자 스티븐 호킹 교수가 중국의 IT 행사에서 인공지능(AI)이 가져올 위험성을 강조했다.

봉황망 봉황커지(凤凰科技)에 따르면 스티븐 호킹 교수는 26일 베이징에서 열린 ‘GMIC(Global Mobile Internet Conference) 2017’에서 영상 강연을 통해 “인공지능이 향후 인류를 위협할 수 있다”며 “이러한 위험을 피하기 위한 연구를 해야 할 때”라고 강조했다. GMIC는 모바일과 인터넷을 아울러 중국의 최신 ICT 트렌드가 제시되는 대표적 행사다.

호킹 교수는 직접 영상을 통해 “인공지능의 부상은 인류 역사상 가장 좋은 일이지만, 가장 안 좋은 일이 될 수도 있다”며 “좋은 일이 될지 안 좋은 일이 될지 지금은 확답할 수 없다”고 언급했다.


호킹 교수에 따르면 인공지능의 출현은 필연적인 흐름이다. 실험실 연구 단계에서 경제적 효익을 가져다 주는 단계로 돌입했다. 이 과정에서 인공지능이 가진 역량을 인류와 사회의 이익으로 돌리는 데 힘써야 한다는 것이다.

그는 음성인식, 이미지 분류, 자율주행과 기계번역 등 연구가 각기 이뤄지면서 인공지능 발전을 촉진하고 있지만, 장기적으로 봤을 때 인간의 뇌와 PC가 할 수 있는 일에 대한 구분이 없어질 것이라고 언급했다.

이에 인공지능을 연구하는 사람들이 도덕적 문제 역시 우려하고 탐색해야 한다는 것이 호킹 교수강연의 요지다. 향후 미래에 로봇이 인류를 위해 일하도록 해야 한다는 것이다. 향후 로봇이 인격화된 정체성을 가질 수 있겠지만 인류가 로봇을 제어하기 위해 연구 및 설계 인력이 각 로봇의 온오프(On/Off)를 명확히 할 수 있도록 보장해야 한다고 설명했다.

인공지능이 질병과 사회 문제 등 세계에서 일어나는 많은 문제를 해결할 수 있다는 점도 부연했다. 인공지능이 적재적소에 쓰인다면 무한한 잠재력을 갖고 있지만 그렇지 못하다면 인류의 생존을 위협할 수 있다는 경고도 잊지 않았다. 인공지능이 일단 통제를 벗어나면 인류는 진화의 한계에 부딪히게 되며 경쟁할 수 없게 될 것이라는 이야기다.

이날 호킹 교수는 향후 일정 기간 동안 인공지능이 수백만 개의 일자리를 앗아갈 전망이라는 예측에 동의했다. 하지만 더 장기적인 우려해야 할 것은 인공지능 시스템 통제력을 잃어버렸을 때와 슈퍼 스마트 기술의 부상이 이뤄졌을 시기라고 지적했다. 스마트 무기 등 개발에 적용되는 것에 대한 우려가 크다고 부연했다.

인공지능이 바둑에서 이기는 추세는 커다란 잠재력을 보여주는 것이며 지금까지 인류가 얻어 온 성과와 향후 몇 년간의 발전 가능성을 비교해 봤을 때 아직 아무것도 아니다. 향후 인공지능이 인류의 문명을 결정할 수도 있을 것이라고 봤다.

이에 인공지능을 어떻게 연구해야 할 것인가가 이같은 문제의 관건이 될 것이라고 결론지었다. 연구 과정에서 위험을 피하기 위한 노력을 해야 한다는 것이다. 스티븐 호킹 교수는 일찍이 앨론 머스크와 함께 ‘인공지능23원칙’을 공개하며 인류를 위해 쓰여야 하는 인공지능에 대한 입장을 내보인 적 있다.


[봉황망코리아 차이나포커스] 유효정 기자 hjyoo@ifeng.co.kr
[ⓒ 봉황망코리아미디어 & chinafocus.co.kr, 무단전재 및 재배포 금지]


출처: 차이나포커스 http://chinafocus.mk.co.kr/view.php?no=644&categorycode=210002

반응형