인공지능 기술보다 중요한 인공지능 윤리

인공지능 기술보다 중요한 인공지능 윤리

‘조와여의 뇌 마음건강’ 유튜브 채널과 함께하는 뇌 이야기

브레인 98호
2023년 03월 24일 (금) 16:05
조회수5580
인쇄 링크복사 작게 크게
복사되었습니다.

AI가 일상과 밀접해지면서 우리 사회는 사생활 감시, 편견, 차별 등 법적, 윤리적 문제에 직면하고 있다.

최근 몇 년 동안 치명적인 자율 무기 시스템(LAWS)의 실현 가능성과 함께 관련 윤리가 향상되었다. 이 AI 기계는 인간을 살해하고 피해를 입힐 수 있는 힘과 결합된 AI 자율성의 방대한 재량권을 갖게 되었다. 이러한 발전은 상당한 이점을 제공할 수 있지만, 인공지능 윤리(AI Ethics)와 관련하여 다양한 질문을 낳는다. 코로나 팬데믹 이후 비대면 만남과 온라인 화상회의가 보편화하고, 디지털 전환 가속화와 AI 기술 활용이 증대함에 따라 인공지능 윤리가 더욱 중요해지고 있다.


인공지능의 편향성 문제

AI 기술이 발전할수록 사이버 범죄와 사생활 유출 위험성이 높아지고 있다. AI는 사람처럼 실수하지 않고 차별과 편견 없이 효율적으로 작동할 것이라고 기대했지만, 채용 면접, 대출 심사, 구속 여부 등 적용 범위를 넓혀가면서 새로운 차별과 편견 문제를 일으키고 있다. AI 챗봇 ‘이루다’에 대한 논란이나 딥페이크 기술을 이용한 문제로 인해 우리나라에서도 인공지능 윤리가 공론화되기 시작했다.

2015년 구글 포토서비스에서 흑인 사진을 ‘고릴라gorillas’라고 분류해 인종차별 논란이 있었고, 2018년 아마존 내부 채용 AI 시스템이 여성 구직자에 대한 편견과 차별을 드러내기도 했다. 지난 10년간의 아마존 이력서를 바탕으로 학습한 AI 알고리즘이 지원자가 ‘여성’이라는 단어를 이력서에 포함하면 감점을 하고, 남성 기술자들이 자주 사용하는 용어를 유리한 채용 조건으로 인식했다. 이는 AI가 편향된 또는 잘못된 데이터를 학습해 발생한 문제였다.

2016년 미국 주 법원과 교도소에서 형량, 가석방 등에 사용하던 AI 알고리즘 컴퍼스COMPAS는 피고의 범죄 참여, 생활방식, 성격과 태도,가족과 사회적 배제 등을 점수로 환산해 재범 가능성을 계산해 판사에게 구속 여부를 추천했다. 인종에 대한 변수는 포함하지 않았다. 컴퍼스는 피고가 재판 전에 다시 체포될 통계적 확률만 제공했으며, 판사가 피고를 석방할지 구금할지 여부를 결정했다. 피의자의 구속 여부를 결정하는 과정에서 컴퍼스는 ‘흑인의 범죄율이 높을 것이다’, ‘흑인의 재범 가능성은 백인보다 2배’라고 판단해 흑인들이 무고한 수감생활을 하게 했다. 얼굴 인식과 피의자 재범 가능성 예측에서 유색인을 차별하는 사례도 있었다.

미국에서 ‘컴퍼스의 오류 알고리즘을 수정하면 판사보다 공정하게 만들 수 있을까?’라는 주제의 실험이 진행되기도 했다. 연구팀은 2013년부터 2014년까지 플로리다 주 브로워드 카운티에서 컴퍼스 알고리즘으로 점수를 매긴 모든 피고인의 데이터를 수집했다. 각 사람의 이름, 나이, 인종, 컴퍼스 위험 점수가 포함된 총 7천 2백여 명의 피고인 중 흑인 5백 명을 무작위 추출해 이들이 실제 재범을 저지르거나 재판에 불응해 결국 체포된 경우를 조사했다. 컴퍼스는 피고인에게 1~10점까지 점수를 매기고 고위험 임계값인 7점 이상이면 피고인을 구금해야 한다고 권고했다. 1점은 10퍼센트의 체포 가능성, 2점은 20퍼센트의 체포 가능성이 있음을 의미한다. 컴퍼스는 인종을 고려하지 않고 다양한 정보를 습득한 후 데이터를 처리했다. 그러나 컴퍼스는 흑인 피고의 재범 가능성은 실제보다 크게, 백인 피고의 재범 가능성은 실제보다 낮게 설정하고 있었다. 연구팀은 이러한 문제를 해결하기 위해 변수를 조정하고 인종과 관계없이 동일한 수감 비율이 적용되도록 했다. 그랬더니 동일 범행에 대해 인종별로 다른 처벌을 하는 결과가 나왔다.(흑인 피고 52퍼센트 체포, 백인 피고 39퍼센트 체포)

AI 알고리즘의 공정성을 높이기 위해 변수를 바꾸고 임계값을 조정하는 과정을 반복하면서 연구팀은 두 가지 문제점을 발견했다. 첫 번째는 더 나은 예측이 전반적으로 오류를 줄이는 데 도움이 되지만 오류를 완전히 제거할 수는 없다는 점과 얼마나 많은 데이터를 수집하든 성향이 비슷한 사람일지라도 다른 선택을 할 수 있다는 점이었다. 두 번째 문제는 컴퍼스의 권장사항을 일관되게 권고하더라도 고위험 임계값이 어디에 있어야 하는지를 사람이 결정해야 한다는 것, 즉 판사의 정치적, 경제적, 사회적인 가치관으로 판단할 수밖에 없다는 것이다. 이 연구를 통해 현재의 AI 기술로 불공정 문제를 근본적으로 해결할 수 없다는 것을 알 수 있었다. [1]

AI는 객관적인 데이터를 이용해 사람이 가진 편견과 차별을 완화할 수도 있지만, 반대로 그 편견과 차별을 그대로 반영해 심화할 수도 있는 양날의 검이다. AI는 사람처럼 편견과 한계를 갖지 않고 객관적이고 과학적인 판단을 할 것으로 생각하지만, 오히려 사람에게는 없는 맹점과 노골적 차별이 존재한다. 이 같은 편향성과 부정적 사고의 답습은 새로운 사회문제가 될 것이다.

AI의 주식은 사람의 생각과 말

AI 사용자와 달리 개발자에게는 자신의 행동에 대해 책임을 져야 할 법적 의무가 없지만 윤리적 책임이 따른다. AI는 다양한 분야에서 점점 더 많이 사용될 것이므로 도덕적 책임이 분명하게 부과돼야 한다. AI를 사용하는 사람이나 조직은 알고리즘의 편향된 결정을 줄이기 위해 편향되지 않은 실시간 데이터를 기반으로 적절한 알고리즘을 사용해야 한다. [2] 

국내는 물론 해외에서도 일상생활의 모든 측면에서 AI의 사용이 빠르게 진화하고 확장하면서 윤리적 사용을 안내하기 위한 규제 및 정책을 만들기 위해 노력하고 있다. 우리 정부는 2020년 12월, AI 활용·확산을 통한 혜택·효과를 극대화하면서 역기능은 최소화할 수 있도록 현재의 기술 수준, 국내외 법제 정비 동향 등을 분석하여 종합적·선제적인 법·제도·규제 정비방안을 마련하겠다고 밝혔다. 이를 위한 로드맵 수립을 위해 학계·법조계를 비롯하여 인문사회·과학철학 분야 인사를 포함한 법제정비단을 구성하고, 인공지능 시대로 나아가기 위한 법적 기반을 준비하고 있다. 정부는 기초 가이드라인으로 AI개발 및 활용과정에서 지켜야 할 3대 기본원칙(인간의 존엄성, 사회의 공공성, 기술의 합목적성)과 10대 핵심요건(인권보장, 프라이버시 보호, 다양성 존중, 침해 금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성)을 제시했다.

AI가 먹는 주식은 사람의 생각과 말이다. AI는 이를 학습해 답을 예측하는 알고리즘이다. 학습 데이터가 올바르지 않으면 잘못된 결과를 도출하게 되고 이는 사회문제로 이어진다. AI 개발자와 사용자 모두 사회에 대한 책임의식을 가질 때 인공지능이 더 나은 세상을 만드는 기술로 발전할 수 있을 것이다. 끝으로 서울시 청년청이 지원하는 ‘2020 세대균형‘ 프로젝트로 선정된 미래경영청년네트워크의 ‘나로부터 시작하는 AI 세대'에서 인공지능을 올바르게 활용하는 기준안으로 제시한 ‘인공지능세대를 위한 선언’을 소개한다.

인공지능세대를 위한 선언 

•인공지능의 개발과 활용은 세상을 널리 이롭게 하는 것을 목적으로 한다.

•인공지능에 앞서 인간의 가치를 안다.

•인공지능의 올바른 활용과 개발은 인간의 양심에 달려 있음을 알고, 우리 모두 올바른 판단력을 가지기 위해 노력한다.

•지구촌 생태계와 인류의 행복을 위해 인공지능이 활용되어야 하며, 인공지능 윤리의식 함양을 위해 인성교육을 의무화해야 한다. 

[1] Karen Hao, Jonathan Stray (2019), Can you make AI fairer than a judge? Play our courtroom algorithm game, MIT Technology Review (https://www.technologyreview.com/2019/10/17/75285/ai-fairer-than-judge-criminal-risk-assessment-algorithm/)

[2] Nithesh Naik1, B. M. Zeeshan Hameed, Bhaskar K. Somani et al. (2022), Legal and Ethical Consideration in Artificial Intelligence in Healthcare: Who Takes Responsibility?. Genitourinary Surgery Volume 9 - 2022.(https://www.frontiersin.org/articles/10.3389/fsurg.2022.862322/full)


참고문헌

•Brian Patrick Green (2019), Artificial Intelligence and Ethics: Sixteen Challenges and Opportunities, Markkula Center for Applied Ethics.

•Cliff Kuang (2017), Can A.I. Be Taught to Explain Itself, New York Times Magazine, November 21, 2017.

•Darrell M. West and John R. Allen Tuesday (2018), How artificial intelligence is transforming the world.

•Ryan, M. and Stahl, B.C. (2021), Artificial intelligence ethics guidelines for developers and users: clarifying their content and normative implications, Journal of Information, Communication and Ethics in Society, Vol. 19 No. 1, pp. 61-86.


글_조용환

국가공인 브레인트레이너. 재미있는 뇌 이야기와 마음건강 트레이닝을 소개하는 유튜브 채널 ‘조와여의 뇌 마음건강’을 운영하고 있다.

ⓒ 브레인미디어 무단전재 및 재배포 금지

관련 뉴스

인기 뉴스

설명글
인기기사는 최근 7일간 조회수, 댓글수, 호응이 높은 기사입니다.