HOME비즈니스 리포트
AI와 윤리적 문제

인공지능(AI) 기술이 획기적으로 발달함에 따라 AI 자율주행차량, 자동화 로봇, AI 의료기술, 개인맞춤형 투자 AI 등 미래 신산업 분야도 주목 받고 있다. 특히 코로나19 팬데믹 사태는 AI가 실제 산업에 수용되는 것을 가속화하고 있어, 향후 AI의 진출 분야는 더욱 넓어질 것으로 전망된다. 다만 AI기술의 전면적인 상용화가 목전에 다가오면서 떠오르는 문제들도 적지 않다. AI의 ‘윤리적 문제’와 법적 책임 방향 등이 주요 논쟁의 소지가 되고있다.

풍산홀딩스 전략기획실
출처 : 시사위크 “착한 인공지능, 가능할까”... 도덕 문제 앞에선 AI (2020.9.11 박설민 기자) 기사를 토대로 작성

‘도덕적 딜레마’에 직면한 AI… “효율이냐, 윤리냐”

AI의 윤리적인 문제가 거론되는 근본적인 이유는 AI가 사람이 아닌 ‘기계’라는 점이다. 컴퓨터 데이터를 통해 결정되는 AI의 판단에는 인간행동의 기초인 ‘도덕적 감정’이 반영될 수 없다. 설사 AI가 인간의 행동을 데이터화하고 학습한다 해도, 흉내를 내는 정도일 뿐이다. 따라서 AI는 도덕적인 판단이 필요한 상황에서조차 결국 자신의 연상 상에서 가장 유리한 결론을 도출하게 될 것이고, 이는 인간 기준에서 윤리적 문제를 발생시킬 가능성이 있다. 이것이 AI가 가지고있는 윤리적 딜레마다.

다수를 구하기 위해 소수를 희생할 수 있는지 판단해야 할 문제 상황을 뜻하는 ‘트롤리 딜레마(Trolly Dilemma)’에 직면할 경우에도 AI의 도덕적 판단 문제가 불거질 가능성이 높다. 고장 난 기차가 달리고 있는 상황에서, 한 레일 위에는 5명의 인부가, 또 다른 레일에선 1명의 인부가 일을 하고 있다. 여기서 레일 변환기로 기차의 방향을 바꾸면 5명의 인부 대신 1명의 인부가 죽는다. 이 때 우리는 레일 변환기를 돌릴 수 있을까?

자율주행으로 운행 중인 버스가 있다고 가정해보자. 이 때 버스 앞에 갑자기 어린아이가 나타났다면, 일반적으로 버스기사는 강제로 핸들을 돌려 피할 것이다. 이 과정에서 대형사고로 이어질 위험도 분명히 존재한다. 반면 효율성을 우선시하는 AI의 경우, 버스 안에 승객들의 숫자가 눈 앞의 어린아이보다 훨씬 많다. 이때 승객들의 ‘최소한’의 피해를 위해 판단할 경우, AI는 아마도 어린아이를 그대로 치고 가는 것이 효율적이라고 판단할 수도 있다. 일부 반론으로는 자율주행 자동차의 동작 메커니즘에 따르면 자율주행자동차는 트롤리 결정을 내리는 상황 전에 환경에 먼저 반응할 것이라는 의견이 있다. 자율주행 자동차는 속도를 늦추고 센서의 범위를 확대해 주변 환경에 대해 최대한 완벽한 그림을 확보하는 작업이 이루어짐으로써 누구를 죽여야 할 것인가에 대한 결정을 내려야 하는 상황에 놓일 가능이 훨씬 낮고, 인간 운전자보다 훨씬 빨리 멈출수 있다는 사실을 그 근거로 들고 있다. 아울러 센서의 기능과 범위는 날이 갈수록 발전할 것이며, 소프트웨어 알고리즘 역시 더욱 정교해질 것이므로 이러한 시스템 기능 향상은 잘못된 감지가 발생할 가능성이 줄어드는 것을 의미한다고 한다.

그러나 이러한 센서와 알고리즘의 발전이 트롤리 딜레마 상황에 빠질 가능성을 낮춰줄 뿐이며, 없애는 것이 아니므로 여전히 윤리적인 문제는 존재한다는 시선도 존재할 수 있다.


편견 있는 데이터 분석… ‘디지털 불평등’ 우려도

AI의 데이터 분석 결과로 인해 ‘디지털 불평등 현상’이 발생할 수 있다는 우려도 나오고 있다. 날씨, 주식, 과학기술 분야 등 ‘객관적’인 정보들을 AI가 해석할 경우엔 매우 높은 효율을 기대할 수 있지만, 사회적으로 쌓아온 편견이 반영된 데이터를 해석할 경우 불공정한 분석결과를 내놓을 수 있다는 것이다.

지난 4월에 구글이 개발한 AI는 흑인이 온도계를 들고 있는 사진을 ‘총을 든 범죄자’로 해석해 논란이 됐다. 반면 똑같은 사진에서 흑인의 팔을 하얀색으로 바꾸자 ‘온도계를 든 일반인’으로 정상해석 했다. 기존에 쌓였던 ‘흑인이 범죄자가 많다’는 인식이 AI의 판단에도 고스란히 반영된 결과다. 구글의 AI는 지난 2018년에도 흑인을 고릴라로 인식해 인종차별 논란을 일으킨 바 있다. 또한 코로나19로 인해 정식 시험을 치르지 못한 영국의 고등학교들은 학생에게 AI알고리즘을 통해 학점을 부여했는데, 교육환경이 평균적으로 좋은 부유한 가정 학생이 예상보다 좋은 학점을, 가난한 학생은 낮은 학점이 주어졌다.

한편 IT 분야 전문가들은 AI의 도덕적 문제에 대한 해답도 중요하지만 AI나 디지털 기술의 도입으로 수많은 사람에게 줄 수 있는 혜택 역시 고려해야 할 필요가 있다고 조언한다. 앨런 AI연구소 CEO 오렌 에치오니 워싱턴대 교수는 지난 9월 10일 개최된 ‘ai.x2020 컨퍼런스’에서 “트롤리 딜레마와 같은 문제도 중요하지만 AI와 자율주행 기술로 고속도로에서 사망하는 수많은 사람을 얼마나 구해낼 수 있는지 등도 중요한 문제”라며, “사람들에게 좀 더 직접적으로 도움을 줄 수 있는 AI 기술을 하루 빨리 만드는 것이 중요하다”고 전했다.

전문가들 “AI 윤리 문제 관련 법률적, 정책적 방안 마련해야”

전문가들은 AI시대가 도래한 현재 발생할 수 있는 도덕적 딜레마를 줄이기 위해선 AI기술 및 서비스 적용 분야 특성에 맞춘 법률적, 정책적대응방안이 필요하다고 지적한다. 우리나라 ICT정책 연구를 담당하는 정보통신정책연구원은 2018년 10월 발간한 연구보고서에서 AI 윤리문제에 대응하고, 관련 규범들을 산업에 관철시키기 위해서는 그와 관련한 정책 대응의 구조를 미리 마련해 둘 필요가 있다는 분석을 내놓았다.

정보통신정책연구원 보고서는 “AI 윤리이슈 대응정책의 프레임워크 및 적용 기준을 다양한 산업 분야와 서비스에 적용하기 위해선 개발자, 사업자, 이용자 등 각 분야 이해 당사자들이 함께 모여 숙의하는 절차와 과정이 충분히 확보돼야 한다”고 밝혔다.

또한 AI의 성능이 고도화될수록 예상치 못했거나 의도치 않은 행위의 위험성이 증가하는 만큼, 이를 대비할 수 있는 개발·활용 기준의 구체적 준거도 필요하다고 봤다. 이에 따라 AI기술의 제작과정을 공정하게 관리·감독하고 윤리적 기준을 갖춰 출시됐는지에 대한 AI설계 전문가들의 점검과 인공지능 윤리 규범준수 기준의 제시가 필요할 것이라고 제언했다.

다만 IT업체 관계자들은 연구원과 기업이 AI와 관련된 법률적 규정과 권고사항 등을 적용한 방향으로 연구를 진행하기 위해선 먼저 정부정책과 사회적 합의가 마련돼야 할 것으로 보고 있다.

현대자동차 김정희 AIRS컴퍼니 리더는 ‘ai.x2020 컨퍼런스’에서 “AI의 윤리적 딜레마는 회사나 엔지니어 수준에서 결정할 사항이 아닌, 사회적 합의가 필요한 것”이라고 설명했다. 이어 “AI로 인한 오류, 도덕적 문제 등으로 피해가 발생할 경우, 고객들에게 설명이 가능한가도 중요하다”며 “이는 굉장히 어려운 분야로 현재 석학들과 연계해 연구를 진행하고 있다”고 전했다.