홈페이지PDF파일지난호보기

기업윤리
브리프스

2019년
01월호

전문가 코칭

인공지능 윤리의 주요 이슈와 기업의 대응

뉴 노멀 시대와 기업윤리한 상 기 | 테크프론티어 대표

Q1 인공지능의 발전이 가져오는 윤리적 이슈는 무엇인가요?

인공지능 기술의 발전이 여러 영역에서 좋은 성과를 보이면서, 다양한 분야에서 활용되고 있다. 특히 구글, 마이크로소프트, 아마존 등의 클라우드 기업에서 인공지능 플랫폼과 개발 프레임워크를 제공하면서 기술력이 부족했던 기업도 첨단 수준의 인공지능 기술을 응용할 수 있는 환경이 이루어졌으며, 모바일 환경에서도 인공지능 칩이 내장되어 이제 인공지능은 애플리케이션 개발의 기본으로 기능화 되고 있다.

이와 동시에 개발에 활용된 데이터의 부족함 혹은 편향성이 내재된다거나, 사용 알고리즘 자체에 왜곡, 편향이 내포된다거나 또는 기술 자체의 부족함으로 인해 예상하지 못한 사회적, 윤리적 이슈가 발생하고 있으며 혹은 발생가능성을 보이고 있다.

구글의 이미지 인식 기술의 불완전성이 흑인 여성을 고릴라로 인식하거나, 위챗이 번역 과정에서 니그로라는 단어를 사용하고, 마이크로소프트의 테이 챗봇이 사용 과정에서 인종차별자나 혐오주의자의 표현을 사용하게 된 것 등은 알고리즘의 불완전성 또는 데이터의 부족, 잘못된 학습 등의 결과이다.

MIT 미디어 랩 조이 부올람위니(Joy Buolamwini)는 2018년 2월 그녀가 참여하는 젠더 쉐이즈(Gender Shades) 프로젝트를 통해서 마이크로소프트, IBM, 중국의 메그비의 페이스++ 기술을 비교했다. 그 결과, 피부 빛이 검을수록 인식 에러율이 크게 증가하는 것을 발견했다. 특히 피부색이 검은 여성의 경우에는 거의 35%나 오류가 발생했다

국가나 공공기관에서 감시와 안전을 위해 도입하는 카메라와 얼굴 인식 프로그램 역시 많은 논란을 불러일으키고 있다. 더불어 전문가들이 우려하는 또 하나의 문제는 현재 인공지능 기술 개발에 참여하는 대부분의 엔지니어가 남성이라는 점에서 부지불식간에 남성 중심의 사고방식이 컴퓨터 코드에 반영되고 있다는 것이다. 이 외 가장 예민한 문제인 자율주행차의 상용 가능성이 높아지면서(웨이모는 이미 택시 서비스를 시작했다), 브레이크 고장 등의 위급 상황이 발생했을 때, ‘어떤 선택을 자율적으로 할 수 있을 것인가?’ 하는 질문이 본격적으로 인공지능 윤리 이슈를 부각시켰다.

Q2 윤리적 이슈를 최소화하여 우리 사회에 인공지능 기술을 안정적으로 정착시키기 위한 우리 기업의 대응 방안은 무엇인가요?

인공지능 기술의 발전으로 야기되는 다양한 사회적, 윤리적 이슈를 해결하기 위해 많은 기관과 단체, 연구소 등이 인공지능 윤리 준칙이나 가이드라인을 모색하고 발표하고 있다. 이제는 OECD, G7 등의 기구들이 많은 국가가 합의할 수 있는 기준과 가이드라인 등을 논의하는 중이다. 2017년 1월 인공지능 연구자, 경제학자, 법학자, 윤리학자, 철학자 등이 캘리포니아 아실로마에서 선언한 아실로마 인공지능 원칙이 가장 대표적인 사례이다.

지금은 영국, 캐나다, 프랑스, 일본 등은 이런 기준 수립을 리딩하는 국가가 되겠다고 선언하고 매우 적극적인 모습을 보이고 있다. 국제 수준의 기본 원칙과 함께 GDPR 같은 새로운 규제 정책에도 반영되고 있는 모습이다. 이제 기업은 인공지능 기술을 적극 도입할 수밖에 없고, 모든 개발에서 인공지능 우선 정책을 채택하면서 동시에 만일에 발생할 수 있는 윤리적 문제를 최소화하기 위한 준비를 해야 한다.

첫째는 각 사의 제품과 서비스를 출시하기 전에 잠재적인 윤리 이슈가 존재하는지 여러 전문가로 구성된 새로운 방식의 윤리 위원회를 구성해야 한다. 구글은 이미 몇 년 전에 구성해 운영하고 있다.

둘째는 학습에 사용하는 데이터가 사회적 편향이나 왜곡을 담고 있는지를 검증하는 데이터 윤리 프레임워크를 개발하거나 활용해서 자사의 데이터 문제를 사전에 확인해야 한다.

셋째는 내부의 인공지능 개발자나 관계자가 지켜야 하는 윤리 원칙을 수립하고 이를 엄중하게 집행하기 위한 내부 프로세스를 만들어야 한다. 마이크로소프트, 딥마인드 등은 이런 원칙을 대외에 발표하고 내부 엔지니어들이 지키도록 요구하고 있다.

넷째는 사용자가 발견하는 윤리적 문제를 회사가 보고 받을 수 있는 채널과 이에 대한 대응 정책을 수립해야 한다. 구글이나 마이크로소프트는 문제 발생 시 하루 만에 빠르게 대응한 사례가 대표적이다.

다섯째는 사용자가 지켜야 할 가이드라인을 서비스나 제품 구매 시에 명확하게 알려줄 수 있어야 한다. 소니가 페퍼 로봇을 구입하는 사용자에게 받는 동의서에는 페퍼 로봇을 가지고 하지 말아야 할 점이 기술되어 있다.

인공지능 윤리는 기술의 사회적 영향력이 커지고, 자동화 과정에서 인간이 개입하지 않는 부분이 생기면서 이제 모든 기업이 반드시 대응해야 하는 매우 중요한 정책임을 경영자들이 인식하고 이에 대한 대응체계를 만들어야 한다. 기업 이미지 추락과 소송 가능성, 법적 제재가 전혀 예상하지 못한 곳에서 발생하는 일이 없어야 하기 때문이다.