[인공지능 연재] 우리는 어떤 지능을 만들고 있는가?
현안과이슈 / by 나드 / 작성일 : 2023.06.23 / 수정일 : 2023.08.31

 



[인공지능 질문하기] (1) 인물탐구 - 팀닛 게브루

 

인공지능이 불러올 혁신에 대한 기대감의 이면에서 학자들의 목소리를 전합니다. 함께 읽고 싶은 기사를 번역하고, 널리 알려진 오류를 바로잡습니다. 연재를 통하여 인간과 기술의 관계 맺기를 돌아보고자 합니다. 

2020년 말, 인공지능을 비롯한 기술 업계 전체를 떠들썩하게 만든 사건이 있었다. 구글 사가 자사의 인공지능 윤리 기구를 이끌던 컴퓨터 과학자를 해고했다고 알려진 것이다. (“AI 결함 지적했더니 해고?” IT업계 뒤흔든 구글 여성 연구자의 폭로​ (여성신문, 이세아 기자))

구글 측은 해당 직원이 밝힌 사임 의사를 받아들였을 뿐이라고 주장했으나 논란은 조금도 잦아들지 않았다. 구글 측은 자체 조사를 수행하고 다시 한 번 모호한 답변을 내놓았다. 해고된 과학자의 이름은 팀닛 게브루이며, 에티오피아 출신의 흑인 여성 컴퓨터 과학자이다.

팀닛 게브루, 뉴욕 타임즈, 2020
(ⓒ뉴욕타임즈, 팀닛 게브루, 2020)


그는 청소년기 에르투리아와 에티오피아 전쟁으로 인해 고향을 떠나게 된다. 미국에서 난민 비자를 거절한 탓에 유럽에서 한 해를 보낸 후에야, 다시 미국에 입국하여 매사추세츠 주 보스턴에 정착하게 된다. 
미국 고등학교에 등교한 첫날, 수학과 과학에 뛰어난 학생이었던 그는 ​자신의 수준에 맞는 어려운 화학 수업 수강을 요청한다. 그러나 교사는 아프리카에서 온 아이가 제 실력을 착각하는 거라 여겨 훈계한다. “이 학생들이 치르는 시험을 보면, 넌 낙제할 거란다.”

 

약 20년 뒤, 전도 유망한 컴퓨터 과학자가 된 그는 숱한 학회와 컨퍼런스에 참가한다. 그리고 언제나 참가자 대부분이 백인 남성이라는 사실을 두고 한 해에 걸쳐 참가자의 인종 구성을 집계해본다. 그가 당시 참가한 컨퍼런스 참가자 총 8천여 명 중 흑인은 단 여섯 명이었고, 그중 그가 모르는 이는 없었다. 팀닛 게브루는 이러한 상황을 두고, 인공지능 연구자들에게 부쳐 페이스북에 글을 쓴다.
 

“저는 기계가 세상을 정복할 거라 우려하지 않습니다. 저는 인공지능 커뮤니티의 집단적 사고, 모욕, 그리고 거만함을 우려합니다.”
 

그는 같은 글에서 인공지능을 다루는 사람들에게 부족한 다양성이 어떤 결과를 낳을 수 있을지 경고한다. “창조 과정에서 다수가 적극적으로 배제된다면, 이 기술은 소수에게 이득이 되는 동안 절대 다수에게 해를 끼칠 겁니다.”

이어 그는 동료 흑인 여성 과학자와 함께 인공지능 분야의 흑인 단체 ‘Black in A.I.’를 설립한다. 이후 발표한 논문 '인종과 젠더(Race and Gender)'에서 아마존 사의 얼굴 인식 알고리즘이 백인, 그리고 남성중심적으로 설계되었다는 점을 알린다.

그는 아마존 사의 기술이 흑인, 여성, 트랜스젠더 등을 대상으로는 정확도가 몹시 떨어진다는 점을 지적했다. 첨단 기술의 개발에서 고려되지 않은 기존의 차별과 혐오가, 이러한 차별을 재생산하는 정확이 포착된 것이다. (아마존도 '안면인식 기술' 서비스 중지 (
AI타임즈, 윤영주 기자))

ⓒ Coded Bias, 2020
2020년, 이러한 얼굴 인식 알고리즘의 허를 찌르는 다큐멘터리 <알고리즘의 편견(Coded Bias)>이 공개되었다.

2020년 말, 팀닛 게브루를 포함한 여섯 명의 과학자가 공저하여 한 논문을 집필한다. '확률론적 앵무새의 위험성: 거대 언어 모델은 충분히 클 수 있는가?'는 여전히 활발히 논쟁이 벌어지는 ‘확률론적 앵무새’라는 개념을 등장시켰다. 이 논문은 인공 신경망을 구축하는 거대 언어 모델(LLM)이 품은 위험성을 광범위하게 다루고 있다. 환경적, 재정적, 사회적 측면에서 다각도로 거대 언어 모델의 문제점을 지적하고 있다.


논문을 학회에 제출했던 시기, 게브루는 구글 사의 인공지능 윤리 기구를 공동으로 이끌고 있었다. 그는 구글 사로부터 지시를 받는다. 발간 전인 해당 논문을 철회하거나, 논문에서 게브루 자신을 포함한 구글 직원 이름 전부를 제외하라는 요구였다. 그는 자신이 이를 거절한 직후 구글에서 해고되었다는 사실을 밝혔고, 앞선 내용과 같이, 구글 사는 팀닛 게브루가 직접 사임했다고 주장했다. 
구글 내부 직원 약 2,700명과 더불어 학자 및 시민운동가 4,300여 명이 이에 대한 항의 서한에 서명했으나 복직은 이루어지지 않았다.

 



2021년 게브루는 이러한 
경험을 바탕으로 빅테크 기업의 영향력에 맞설 독립 연구 기관 'DAIR'을 설립했다. 그는 현재 독립 연구자로서 기술 혁신이라는 환상이 누락하는 현실을 비판하고, 다각적인 문제를 제기하고 있다.​ 지난해 국내 언론과 진행된 인터뷰에서 기후변화와 거대 언어 모델의 연관성을 언급하며, 팀닛 게브루는 한국 사회에 이러한 질문을 던졌다. "한국 빅테크 기업 개발자는 자신의 소신을 밝힐 수 있는가?"​ (AI타임즈, 김미정 기자)


개발자와 과학자를 비롯하여 온 사회가 AI 신기술에 열광하고 있다. 이러한 '인공지능'에 어떠한 환상이 덧입혀져 있는지 살펴보자. '지능'이라는 이름이 가진 권위를 부여한 이들은 누구이고, 과연 인공지능이 공정할 수 있을까? (끝)
 

 

[관련 기사] (제목 클릭)
What Really Happened When Google Ousted Timnit Gebru, Wired, Tom Simonite

‘There was all sorts of toxic behaviour’: Timnit Gebru on her sacking by Google, AI’s dangers and big tech’s biases, The Guardian, John Harris
Why Timnit Gebru Isn’t Waiting for Big Tech to Fix AI's Problems, Time, Billy Perrigo
Google Researcher Says She Was Fired Over Paper Highlighting Bias in A.I., The New York Times, Cade Metz and Daisuke Wakabayashi
Who Is Making Sure the A.I. Machines Aren’t Racist?, The New York Times, 
Cade Metz


[관련 문헌]
Gebru, Timnit, 'Race and Gender', in Markus D. Dubber, Frank Pasquale, and Sunit Das (eds), The Oxford Handbook of Ethics of AI (2020; online edn, Oxford Academic, 9 July 2020), https://doi.org/10.1093/oxfordhb/9780190067397.013.16, accessed 28 June 2023.
Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, and Shmargaret Shmitchell. 2021. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? . In Conference on Fairness, Accountability, and Transparency (FAccT ’21), March 3–10, 2021, Virtual Event, Canada. ACM, New York, NY, USA, 14 pages. https://doi.org/10.1145/3442188.3445922








작성자 : 나드 / 작성일 : 2023.06.23 / 수정일 : 2023.08.31 / 조회수 : 2725

코멘트를 달아주세요!



 목록으로