흑인 = 고릴라?
아직 딥마인드(Deep Mind)가 이세돌을 정복하지 않았던 2015년 AI(Artificial Intelligence) 진영에 많은 고민을 안긴 사건이 터져버렸다. 바로 전세계적 기업인 구글(Google)에서 제공하는 구글 포토 서비스에서 흑인을 고릴라(Gorillas)로 분류를 해버린 것이다.
이 서비스는 딥러닝(Deep Learning)으로 사진을 분석하여, 자동으로 분류해주는 서비스로 인공지능이 잘못 쓰이면 이러한 차별이 일어날 수 있구나라는 경각심을 이끌어준 사건이었다.
2015년 6월, 흑인을 고릴라로 분류한 구글 포토 서비스
알고리즘의 인종차별 문제로 구글은 해당 문제점을 인지하고 사과를 했으나, 문제점은 즉각 고쳐지지 않았다. 미국의 정보기술 전문지 '와이어드'가 2018년 1월에 실험을 하였는데 개코원숭이, 긴팔원숭이, 오랑우탕 등을 검색하였을 때는 정확하게 분류하였으나, 고릴라, 침팬지, 원숭이와 같은 단어를 입력하면 아무런 사진이 제시되지 않았다. 즉, 구글 포토는 특정 키워드에 해당하는 사진을 강제로 삭제한 것이다. 한마디로 말하자면 '구글은 이 알고리즘을 해결할 수 없던 것'이다.
인공지능이 모두 정답이 될 수 없다
많은 사람들은 인공지능으로 모든 불합리 한 것들을 극복할 수 있다고 생각한다. 실제 많은 기업들이 전방위적으로 인공지능을 도입하고 있고, 이제는 엠비언트 인텔리전스(ambient intelligence), 퍼베이시브 인텔리전스(pervasive intelligence)라는 주변, 사물 어디에나 인공지능이 있다는 용어까지도 등장하고 있다.
그러나 어디까지 인공지능은 데이터를 학습하여 정답을 예측하는 알고리즘이다. 즉, 학습 데이터가 올바르지 못하면 결과를 도출하는 것도 올바르지 못하다는 것이다. 비록 그 과거가 사실이라 하더라도 인공지능은 차별을 해서는 안된다는 것이다.
예를 들어서, 어느 회사에서 여성을 혐오하던 인사 담당자로 인해 남성을 유독 많이 뽑았다고 가정해보자. 이 것을 정답으로 가정하면 해당 회사에서는 여성에서 패널티를 주게되고, 남성에게 가산점을 주게 되어 이 편견을 앞으로도 계속 지속될 것이다.
여성을 차별한 아마존(Amazon) 채용 알고리즘
실제 이 사건은 미국 아마존에서 일어났다. 그것도 아마존 내부의 채용 시스템에서 사용된 인공지능 채용시스템으로 10년간 아마존 이력서를 바탕으로 학습한 이 알고리즘은 "여성 구직자는 적합하지 않다"라고 판단하였고, 아마존은 이 알고리즘을 폐기하게 되었다 (개인적으로 필자의 생각은 폐기까지 할 필요가 있었을까? 생각한다. 성별이라는 Feature만 삭제하면 되지 않았을까 생각하지만..)
이와같이 인공지능이 사람이 가진 편견과 문제점을 답습하게 된다면 인공지능이 주는 미래는 결코 좋지 않다는 것을 보여주게 된다. 그래서 이런 문제점을 극복하기 위해 연구하고 있는 것이 바로 공정한 기계학습(Fair Machine Learning)이다.
공정한 기계학습 동향
마이크로소프트(MS) 리서치 그룹, UC 버클리대학교 등에서 공정한 기계학습을 위한 연구를 진행하고 있다. 해당 분야에 관심이 있는 분들은 이 강연 혹은 슬라이드를 참고하면 좋을 것 같다.
아래는 슬라이드 자료
참고자료
'인공지능 및 데이터과학 > 인공지능 기술' 카테고리의 다른 글
선의보다 악의가 더 많은 AI의 어두운 기술, 딥페이크(Deep Fake) (0) | 2020.01.24 |
---|---|
AWS vs IBM Watson vs MS Azure vs Google Cloud AI 비교 (0) | 2020.01.21 |
특정 문제의 해결을 위한, 전문가 시스템(Expert System) (0) | 2020.01.02 |
인공지능의 윤리, 트롤리 딜레마(Trolley Problem) (0) | 2019.05.13 |
인공지능(AI)의 개념과 인공지능의 4단계 (0) | 2019.05.10 |