HOME  :   정보센터   :  

보도자료

게시판 목록
"인공지능은 양날의 칼"
작성일 2018.04.02 조회수 383
파일첨부
[Cover Story-자율주행 사고는 누구 책임일까]

"인공지능은 양날의 칼"

악용 가능성 막는 게 숙제

“인공지능(AI)은 지구상의 거의 모든 인류보다 뛰어날 수 있다. AI는 핵무기보다 위험하다.” 

세계 최대 전기자동차 회사인 테슬라와 민간우주개발회사 스페이스X를 창업한 일런 머스크의 경고다. 그는 지난달 미국 텍사스주 오스틴에서 열린 한 콘퍼런스에서 “AI의 발전 속도를 과소평가해선 안 된다”며 “인류에게 심각한 위협이 되지 않도록 AI 개발을 규제할 필요가 있다”고 말했다. AI가 인간을 대체하면서 핵폭탄처럼 인류를 멸종시킬 수 있다는 것이 머스크의 주장이다. AI 발전과 이에 따른 확산은 피할 수 없는 흐름이다. 하지만 머스크의 말처럼 모든 변화가 장밋빛은 아니다. 전문가들은 AI의 발전으로 일자리 감소, 개인정보 침해, 윤리 침해 등의 문제가 생길 수 있다고 경고한다. 

‘인간의 일자리’ 변화에도 큰 영향 

AI는 일자리에도 큰 영향을 미칠 것으로 보인다. 올해 한국고용정보원이 발간한 ‘4차 산업혁명 시대의 신직업’ 보고서는 AI와 빅데이터, 로봇 등 새로운 기술의 발달로 증권중개인, 통·번역가, 의료진단전문가 등은 향후 5~10년 사이에 일자리가 크게 감소할 것으로 내다봤다. 

보고서에 따르면 증권중개인은 AI가 투자분석과 중개업무를 대행하는 ‘로보어드바이저’의 등장으로 타격을 받게 된다. 통·번역가는 기계학습과 음성인식 기술에 서서히 자리를 내줄 것으로 우려됐다. 의료진단전문가는 인간 의사보다 정확한 진단을 내릴 수 있는 AI에 밀릴 수 있다. IBM이 개발한 AI 영상 판독 시스템 ‘왓슨’은 이미 인간 의사보다 정확한 진단을 내릴 수 있다는 사실을 입증했다. 콜센터 직원과 은행 창구직원, 생산·제조 관련 단순 종사원은 당장 영향을 받을 수 있다. 

고용정보원은 “정형화된 업무로 기술 대체가 용이하고 소요 비용이 인건비보다 저렴하며 기계와 AI의 업무수행능력이 사람보다 더 뛰어난 분야에서 우선적으로 일자리가 줄어들 것”이라고 내다봤다. 물론 AI는 인간의 일자리를 대체하면서도 동시에 그와 연관된 수많은 일자리를 만들어 낼 것이다. 하지만 현재로선 AI의 확산으로 고용의 불안정성이 커질 거라는 전망이 힘을 얻는다.     

 

지난해 10월 3297명의 미국 성인 남녀를 대상으로 조사한 결과, 응답자의 58%는 앞으로 10년간 자신의 일자리를 위협하게 될 최대 요인으로 AI와 로봇을 꼽았다. 이민자나 해외 공장이전이 최대 위협이라고 꼽은 응답자는 42%에 그쳤다. 조사 대상자의 73%는 “AI로 인해 고용이 창출되기보다 인간의 일자리가 사라질 가능성이 크다”고 답했다.

AI가 범죄·해킹·여론조작 등에 악용될 수도

AI의 확산은 시대적 방향이고, 분명한 흐름이다. 기업 입장에서는 AI가 기업의 경쟁력을 좌우하는 주요 변수다. 일부의 우려에도 불구하고 AI가 21세기 인류의 삶 속으로 빠르게 침투할 수밖에 없는 이유다. 하지만 모든 게 양면이 있듯이 AI 또한 긍정·부정 측면이 공존한다. 생산성을 높이고, 인류의 삶을 풍요롭게 하지만 AI 기술을 가진 자와 못 가진 자의 격차를 키워 사회를 더 불안하게 만들고, 사회 구성원 간의 갈등을 야기할 수도 있다. 지난 2월 영국 옥스퍼드대에서 열린 ‘인공지능의 위험성’ 워크숍에서 논의된 내용을 모은 보고서 ‘인공지능 악용: 예측, 예방, 완화’는 AI의 위험이 곧 현실로 다가올 수 있다는 사실을 경고하고 있다. 보고서를 작성한 26명의 AI 전문가들은 인류가 AI의 위협에 직면하게 될 시기를 5년으로 전망했다. 

보고서에 따르면 범죄자가 무인항공기(드론)와 얼굴 인식 기술을 악용해 특정인에게 테러를 가할 수 있다. 뿐만 아니라 인간보다 빠르게 발전하는 AI를 해커가 악용하면 기존 보안 시스템을 완벽하게 무력화시킬 수 있다. 봇(bot)과 같은 자동 게시 프로그램을 이용해 가짜뉴스를 생산해 여론을 조작하고 음성·영상 합성 기술로 동영상을 조작해 선거나 정치에 영향을 미치는 일도 가능하다. 또한 감정이 없는 AI를 살인 등에 악용할 수도 있다. AI는 인간보다 윤리적 문제에 대해서는 훨씬 둔감하고 취약할 수 있기 때문이다. 

보고서가 “AI가 양날의 검과 같은 기술임을 인정하고 연구자나 기술자들이 악용 가능성을 미리 염두에 둬야 한다”며 “컴퓨터 보안과 해킹처럼 양날의 검이 될 수 있는 기술을 오랫동안 취급해온 분야에서 모범 사례를 찾아야 한다”고 조언한 것도 이런 이유다. 

이승우 한국경제신문 IT과학부 기자 leeswoo@hankyung.com

출처 : http://news.hankyung.com/article/2018033060561

이전글 암호화폐 ‘움찔’할 때 블록체인 사업化 ‘훨훨’
다음글 4차 산업혁명 시대, 미래 직업 체험하세요