홈페이지PDF파일지난호보기

기업윤리
브리프스

2019년
01월호

사례돋보기

인공지능의 역습

지난 10월, 세계 최대 전자상거래 기업 아 마존은 수년간 공들여 개발해 온 인공지능 채용 프로그램을 자체 폐기했다. 인공지능 이 여성 지원자를 차별했기 때문이다. 아마 존의 인공지능은 여대를 졸업했거나 이력서 에 ‘여성’이라는 용어가 들어있으면 점수를 깎아버렸다. 반면 '실행하다‘ ’포착하다‘ 등 남성 기술자들의 이력서에 자주 쓰이는 동 사가 있으면 좋은 점수를 부여했다. 감정, 친 분, 이해관계 등 비합리적인 요소에 쉽게 휩 쓸리는 인간보다 인공지능의 알고리즘이 더 공정할 것이라 기대했던 개발자들의 예상 과는 정반대의 결과였다. 이와 같은 사실이 밝혀지자 전 세계가 술렁였다. 인공지능이 인간을 차별하다니…….가히 인공지능의 역습이라고 볼 수 있다.
MIT 공대 연구진은 여성과 소수민족 등에 대한 부정확한 데이터가 그들을 차별하는 인공지능을 만들었다고 설명했다. 인공지능이 편향된 정보를 가지고 학습한다면, 인간 이상의 차별주의적 판단을 내릴 수 있다는 것이다. 이대로라면 인간을 적대시하는 인공지능의 출연도 공상과학에나 나오는 터무니없는 상상이라고 치부할 수 없는 일이다. 인공지능을 개발, 상용화하고 있는 기업들의 대처와 윤리의식이 중요해진 이유다. 이번 사례돋보기에서는 이러한 인공지능의 부작용과 이에 대응하는 기업의 사례들을 살펴봄으로써 인공지능과 인간이 공존할 수 있는 방법에 대해 고민해 보고자 한다.

 

◎ 자율주행 자동차 사고... 누구의 책임일까?

자동차가 발명된 이후 교통사고 발생 시 책임 소재는 사람에 있었다. 관련 법규에 따라 가해자와 피해자가 나누어지고 과실 비중을 따져 처벌 혹은 보상을 받았다. 자동차를 통제하고 운전하는 주체가 사람이었기 때문이다. 그러나 자율주행 자동차의 출연은 이러한 사법체계를 흔들고 있다. 자동차를 이용하는 것은 사람이지만, 이를 통제하는 주체는 사람이 아닐 수 있기 때문이다. 소비자로서는 난처한 일이다. 사고 발생 시 자동차의 운전자, 자동차의 제조사, 자율주행 프로그램의 개발사 중 어느 쪽에 책임소재를 물어야 할지 혼란스러워진 것이다.
이러한 상황에서 세계 최대 전기차 업체 테슬라는 인공지능 자율주행 자동차 사고의 책임을 운전자에게 돌렸다. 올해 3월, 테슬라의 자율주행 차량이 고속도로 중앙분리대를 들이받았다. 운전자는 사망했다. 테슬라는 운전자가 사고 직전 6초 동안 운전대에 손을 올리지 않았다며, 자율주행 모드에서도 운전자는 운전대를 잡고 주의를 기울일 필요가 있다고 주장했다. 그러면서도 테슬라는 자율주행 시스템이 중앙분리대를 인지하지 못한 이유에 대해서는 공개하지 않았다. 유족 측 변호사는 “테슬라의 네비게이션 시스템이 도로의 차선을 잘못 인지해 분리대 감지에 실패했고 차를 멈추지 못한 채 분리대를 들이받았을 것”이라고 반박했다. 테슬라의 대응을 지켜보던 투자자들은 테슬라의 주식이 떨어질 것이라는데 돈을 걸었다. 테슬라 주식의 숏(매도) 포지션 투자액이 107억 달러 규모로 사고 전 달보다 28% 상승한 것이다. 인공지능을 활용한 신기술에 대한 윤리의식과 논리의 부재가 기업에 대한 시장의 불신으로 이어진 사례라고 볼 수 있다.


◎ 종업원의 감정 파악.. 인권침해 vs 생산성 관리

분노, 짜증, 기쁨, 슬픔, 즐거움 등 과업은 달라도 종업원들이 느끼는 감정은 비슷하다. 스트레스를 받으면 화가 나고 성과를 인정받으면 뿌듯하다. 그런데 최근 중국 항저우 중흥전자를 비롯한 일부 기업에서 사람의 감정을 파악해 관리했다는 사실이 드러나 논란이 되고 있다. 종업원들이 착용하는 안전모나 작업용 모자에 무선 센서를 부착해 즐거움, 분노, 기쁨, 슬픔 등을 느끼는 순간을 측정하는 것이다. 인공지능 알고리즘은 비정상적인 움직임을 보이는 종업원의 뇌파를 분류해 노출한다. 사측은 이렇게 종업원들의 감정 데이터를 분석하면 작업 흐름이나 업무량을 적절히 조절할 수 있고, 업무 현장에서 발생할 수 있는 폭력행위 등의 폐해를 방지하는 데도 효과적이라고 보고 있다. 실제로 해당 시스템을 활용하고 있는 모 기업은 장치 도입 후 지난 4년 간 3억 달러 이상의 이익이 발생했다고 발표했다. 종업원들의 감정관리가 업무 생산성 고취로 이어졌다고 주장한 것이다. 그러나 미국 MIT에서 발행하는 잡지, MIT 테크놀로지리뷰는 중국 기업이 발표한 뇌 활동 감시 효과에 회의적인 입장을 보였다. 뇌파검사법을 통해 피부 너머 뇌를 측정하는 것은 그 범위가 매우 제한적이며, 측정 신호에 실제 사람이 느끼는 감정이 잘 반영되는지도 명확히 밝혀진 바가 없다는 것이다. 일각에서는 기업의 경제적 이익 추구로 인해 종업원들의 인권이 침해되고 있다는 지적도 나오고 있다. CCTV 설치도 사생활 침해 논란에서 자유롭지 않은데 뇌파 같은 생체 데이터는 명백한 인권 침해라는 것이다. 중국 기업들은 이와 같은 지적에 별다른 대응을 하지 않고 있다. 그러나 생산성을 위해 사람의 감정을 감시하는 인공지능의 등장은 분명히 우려해야 하는 부분이 있다. 인권을 지키면서도 기술의 발전을 억압하지 않는 새로운 사회적 합의가 필요한 이유다.


◎인공지능에 일자리 뺏기는 개발자... 게임업계의 딜레마

최근 게임업계는 인공지능 발전에 의한 부작용을 우려하고 있다. 인공지능의 자동화 알고리즘은 인간과 비교할 수 없는 생산성을 자랑한다. 더욱이 최근에는 인간 고유의 영역이라 믿었던 예술 분야에서도 상당한 성취를 보이고 있다. 산업혁명 이후, 신기술은 실업과 양극화, 독과점을 초래해 왔다. 게임산업 역시 같은 위기에 봉착해 있다. 특히 게임은 한계비용 제로의 산업이다. 외식, 제조, 건설 등은 제품의 재생산을 위해서는 반드시 계속해서 원자재를 투입해야만 한다. 하지만 콘텐츠는 일단 만들어 놓으면 무제한으로 제공할 수 있다. 이러한 산업구조는 필연적으로 양극화와 독과점을 부른다. 소비자들은 대형 개발사가 막대한 자금력을 투자한 대작에 몰리고, 상대적으로 중소규모의 작품은 도태되기 쉽다. 인공지능의 발전은 이러한 게임 산업의 폐해에 기름을 붓는 격이다. 양질의 데이터가 필수적인 인공지능 분야에서 시장을 선점한 선도 기업들의 경쟁력은 압도적일 수밖에 없다. 더불어 플랫폼이 중요한 콘텐츠 산업 특성 상 대기업들의 시장 장악력은 독과점으로 이어질 가능성이 크다. 이것은 결국 개발팀의 축소, 나아가 개발자 일자리의 감소로까지 귀결될 수 있다.
국내 최대 게임 업체인 넥슨은 이러한 부작용을 막기 위해 여러 방면으로 고심하고 있다. 지난 2017년 넥슨 개발자 컨퍼런스에서 넥슨 왓 스튜디오 총괄 디렉터는 인공지능과 관련된 게임업계의 윤리적 딜레마에 대해 인식하고 적절한 대응의 필요성을 강조했다. 제조업이 3D프린터를 수용한 것처럼, 개인 맞춤형 콘텐츠를 즉석에서 제작해 주는 등 인공지능의 기능을 최대한 활용하는 것도 한 방법이다. 인공지능이 학습하기 어려운 영역을 개척하고 지적재산권과 브랜드를 적극적으로 육성할 필요성도 있다. 개발자들은 인공지능으로 대체될 확률이 낮은, 데이터화하기 어려운 일을 해야 한다. 게임 콘셉트의 기획, 보상 체계, 유저와의 상호작용 분야는 아직까지 인공지능으로 대체되기는 어렵다. 인공지능은 엄청난 데이터를 학습하며 고도의 통계적 판단을 내리기 때문에, 공감, 협상, 이해 등이 필요한 직군이 인공지능과의 경쟁에서 살아남는데 유리할 것이다.


◎왜 그랬냐면... 설명하는 인공지능이 온다

1인 미디어, 콘텐츠 플랫폼, SNS 등 지금은 바야흐로 온라인 콘텐츠 범람의 시대다. 관련 당국과 기업들은 전문 인력을 양성해 불건전한 콘텐츠를 차단하고 있지만 쏟아지는 데이터를 감당하기에는 역부족이다. 페이스북은 이러한 검수 작업에 인공지능을 활용하기로 했다. 인공지능이 문제 소지가 있는 콘텐츠를 선제적으로 리뷰 담당자에게 신고하고, 일부 콘텐츠에는 자동으로 조치를 취하는 식이다. 그러나 문화적 차이, 사회적 통념, 인간의 직관을 프로그래밍 하는 것은 간단하지 않다. 예를 들어 총기류 판매글은 삭제해야 하지만, 비슷하게 생긴 장난감 총 이미지는 허용해야 한다. 폭력적이고 잔인한 영상은 삭제해야 하지만 이와 같은 인권 유린을 고발하는 영상은 허용해야 한다. 이러한 판단은 윤리의식과 사회적 공감을 가진 인간의 직관이 요구되는 일이다. 이것이 ‘왜 그랬는지 설명할 수 있는’ 인공지능이 요구되는 이유다. 판단 근거가 공개되어야지만 인공지능의 결정에 인간이 납득하거나 반박할 수 있기 때문이다.
IBM은 이와 같은 인공지능의 개발을 위해 몇 가지 방향을 제안했다. 인공지능의 통찰 과정을 쉬운 용어로 설명할 수 있어야 하고, 편향성을 탐지 및 해결해야 하며, 기업이 법률과 규정을 준수할 수 있도록 모든 예측, 데이터, 측정지표를 보전해야 한다는 점 등이다. 알고리즘 판정 과정의 투명한 공개는 인공지능이 사회적 신뢰를 얻기 위한 초석이라고 볼 수 있는 것이다. 이를 위한 노력의 일환으로 IBM은 지난 10월 ‘AI 오픈 스케일’이라는 인공지능 편향 검증 플랫폼을 선보이고, ‘자동화된 편향 제거’ 기술을 통해 인공지능을 모니터링하여 편향성을 감지하고 해결하려는 노력을 하고 있다.


◎인공지능과 윤리의식

노벨이 다이너마이트를 발명한 이유는 건설 현장에서 일하는 인부들에게 보다 안전한 산업용 폭약을 제공하기 위해서였다. 기존의 폭약은 아주 작은 충격에도 폭발해 잦은 인명 피해를 초래했기 때문이다. 그러나 다이너마이트는 개발자의 의도와 다르게 전쟁 시 사용되는 무기로 쓰이며 수많은 생명을 앗아갔다. 도구는 가치중립적이다. 인간의 의지에 따라 선하게도, 악하게도 쓰일 수 있는 것이다.
인공지능의 개발은 소비자, 나아가 인간의 효용을 위한 것이다. 앞으로도 인간이 인공지능의 주인으로 서기 위해서는 인공지능으로 무엇을 할 수 있는가보다 인공지능으로 무엇을 해야 하느냐를 고민해야 할 것이다