최근 스케터랩의 인공지능 챗봇 이루다로 인해 다시금 인공지능 윤리에 대한 내용들이 이슈화되고 있다.
상대적으로 소중하게 다루어지지 못했던 고객들의 개인정보, 그리고 편향된 데이터셋들에 대한 학습을 통한 대화 결과로 인해 여러모로 큰 시행착오를 겪고 있는 과정이라고 생각한다. (솔직히 정말 데이터셋이 편향된 것인지, 우리들 자체가 편향되어있는 것인지는 진지하게 고려해볼 필요가 있다고 생각한다.)
인공지능은 어떻게 학습해야 할까? 결과적으로는 어떤 확률로 어떤 결정을 내리고 예측하고 대답해야 할까?
숫자로 딱 떨어지는 수학적인 결과는 오해의 소지가 적을 수도 있으나 정성적, 감성적으로 다가서는 인간의 대화에서의 선택들은 훨씬 모호하고 애매한 지점들이 존재한다.
싫다, 증오한다, 미워한다, 불쾌하다, 마음에 들지 않는다 등의 미묘한 감정들을 숫자로 이루어진 통계값으로 얼마나 정확히 선택할 수 있을까? 아니 어떤 단어들을 선택해야 할까?
이런 대화 외에도 정말 애매해 보이는 인공지능 자율주행차량의 윤리에 대해 고민하게끔 하는 테스트가 있다. MIT에서 만든 Moral Machine이라는 설문인데, 이 설문을 보면 사람조차 선택하기 어려운 상황들이 다양한 케이스별로 존재함을 알 수 있다.
미국의 연방거래 위원회인 FTC(Federal Trade Commission) 에서 역시 AI와 알고리즘 이용에 대한 지침(Using Artificial Intelligence and Algorithms)을 발표하였다. (2020년 4월)
총 5가지의 가이드라인을 제시하고 있는데 내용은 아래와 같다.
5가지 알고리즘 이용 지침
* 아래 5가지 지침은 개인적으로 의역한 부분이 많아 오역이 있을 수 있습니다.
1. BE TRANSPARENT (투명하기)
: 인공지능과 같은 자동화 도구를 사용하는 방법에 대해서 소비자를 속여서는 안된다. AI는 백그라운드에서 동작하기 때문에 사용자들에게 내용을 설명하지 않거나 쉽게 속일 수 있다. 특히나 민감한 데이터를 다룰 때는 더욱 투명해야 하며 데이터를 수집할 때 부터 신중을 기해야 한다. 몰래 데이터를 수집하는 것 또한 해서는 안되는 일이다. 페이스북 사건에서도 알 수 있듯이 데이터를 모으는 방법은 매우 중요하다.
2. EXPLAIN YOUR DECISION TO THE CONSUMER (소비자에게 결정 설명하기)
: 인공지능 알고리즘이 블랙박스 모형이라고 해서 사용자에게 설명하기 어렵다고 이야기해서는 안된다. 신용점수 산정 시에도 대출이 거부된 이유에 대해 단순한 설명 보다 왜 거부되었는지에 대한 상세하고 구체적인 설명을 할 수 있어야 한다. 어떤 맥락에서든 소비자에게 해당 내용을 설명할 수 있도록 하자. 자동화된 도구를 기반으로 거래조건을 변경할 수 있다면 이 또한 소비자에게 설명할 수 있어야 한다. 예를 들어 나이트클럽, 마사지샵 등에서 거래를 하는 경우 신용점수에 반영될 수 있음에도 이 부분을 소비자에게 미리 언급하지 않은경우 FTC법을 위반할 수 있다. 소비자에게 알고리즘을 활용해 거래조건을 변경한다면 반드시 알려야 한다.
3. ENSURE THAT YOUR DECISIONS ARE FAIR (결정이 올바른지 확인하기)
: AI를 무심하게 활용함으로써 취약계층에 대한 차별을 초래할 수도 있다. 인종, 피부색, 종교, 출신, 국가 등에 따라 신용차별은 금지되어 있습니다. 만들어진 알고리즘이 금지되어 있는 기준을 통해 판단하지 않는지 확인해보는 것이 필요하다. 뿐만 아니라 소비자에 대한 어떤 결정을 할 때 사용되는 데이터에 대한 엄격한 규제를 제시할 수 있다.
4. ENSURE THAT YOUR DATA AND MODELS ARE ROBUST AND EMPIRICALLY SOUND (데이터 모델이 견고하고 경험적으로 건전한지 확인하기)
: 소비자의 데이터를 다른 기관이나 사람에게 공유하게 되는 경우 제공되는 가이드를 준수해야 하며, 오류가 존재하는 경우 소비자에게는 오류를 수정하고 본인 정보에 접근 가능하도록 절차를 구성하여야 한다. 그리고 자동화된 의사결정에 활용하려고 고객정보를 전달하게 되는 경우 데이터자체가 정확하고 완결성 있는지를 검토할 필요가 있다. 이는 AI에 활용되는 정보가 정확하고 최신상태를 유지하게끔 하는데 중요한 역할을 한다.
5. HOLD YOURSELF ACCOUNTABLE FOR COMPLIANCE, ETHICS, FAIRNESS, AND NONDISCRIMINATION (규정준수, 윤리, 공정성, 그리고 차별금지를 위해 책임지기)
: 빅데이터 분석을 제대로 하지 않으면 소비자들에게 편견과 다른 문제를 야기시킬 수 있다. 이를 방지하기 위해 아래와 같은 질문을 해보자.
데이터셋을 얼마나 대표하는가?
데이터모델이 편향을 설명할 수 있는가?
빅데이터를 활용한 예측의 정확도는 얼마나 되는가?
빅데이터 의존성에 따른 윤리적, 공정성 문제가 발생하는가?
빅데이터가 무단으로 사용되지 않고 알고리즘이 윤리적, 공정함을 책임질 수 있는 구조로 만들어져 있는지 다시금 생각해보자.
카카오의 알고리즘 윤리 헌장
카카오에서도 꽤 오래전에 알고리즘에 대한 윤리 헌장을 내놓았었는데 얼마전 해당 내용이 리뉴얼 되었다. (2018년 1월 초안, 2020년 6월 개정 등) 관련내용도 간단히 살펴보도록 하겠다.
1. 카카오 알고리즘의 기본 원칙
카카오는 알고리즘과 관련된 모든 노력을 우리 사회 윤리 안에서 다하며, 이를 통해 인류의 편익과 행복을 추구한다.
2. 차별에 대한 경계
알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않도록 경계한다.
3. 학습 데이터 운영
알고리즘에 입력되는 학습 데이터를 사회 윤리에 근거하여 수집·분석·활용한다.
4. 알고리즘의 독립성
알고리즘이 누군가에 의해 자의적으로 훼손되거나 영향받는 일이 없도록 엄정하게 관리한다.
5. 알고리즘에 대한 설명
이용자와의 신뢰 관계를 위해 기업 경쟁력을 훼손하지 않는 범위 내에서 알고리즘에 대해 성실하게 설명한다.
6. 기술의 포용성
알고리즘 기반의 기술과 서비스가 우리 사회 전반을 포용할 수 있도록 노력한다.
7. 아동과 청소년에 대한 보호
카카오는 아동과 청소년이 부적절한 정보와 위험에 노출되지 않도록 알고리즘 개발 및 서비스 디자인 단계부터 주의한다.
특히 7. 아동과 청소년에 대한 보호 원칙은 N번방 방지법’ 시행을 앞두고 추가된 내용으로 전체 가이드라인은 사회적인 이슈들을 지속적으로 반영하여 업데이트되고 있는 것으로 보인다.
물론 찾아보면 더 많은 인공지능 윤리, 알고리즘 등에 대한 가이드라인과 원칙들이 존재하고 있을 것이다.
하지만 몇 가지 대표적인 가이드라인들을 살펴보면 전반적으로 이야기하고자 하는 방향성과 원칙들은 (설명하는 구체적인 내용의 차이일 뿐) 동일해 보이긴 한다. 이러한 가이드라인들은 필요할 때 마다 찾아 보는 것도 중요한 방법이겠지만 인공지능을 디자인하고 개발하고 관리하는 모두가 맘 속에 기억하고 언제든지 떠올릴 수 있어야 한다고 생각한다. 추상적이고 정성적이라고 생각할 수도 있지만, 내가 만들고 내가 참여한 인공지능 프로젝트를 오픈하기 전에 꼭 점검해보야야 할 체크리스트로는 충분히 중요한, 그리고 활용도 높은 가이드가 되지 않을까 싶다.