최근 A은행에서 신용대출 상담을 하다가 인공지능의 어두운 일면을 목도했다.

그 은행은 20년 넘게 주거래 은행으로 이용했고 연체 기록도 없어서 방문 전만 해도 내심 우대금리를 기대했지만 결과는 사뭇 달랐다. 필자의 신용등급이 턱없이 낮게 평가돼 있었다. 담당 직원조차 고개를 갸웃거릴 정도였다. 본점 신용등급 관련 부서에 문의해봤지만 똑부러진 답변은 듣지 못했다. 한동안 카드 사용 내역이 없는 점이 신용등급 평가에 부정적 영향을 미친 것 같다는 추정뿐이었다. 신용카드 사용 내역이 신용등급을 평가하는 효율적 수단이라는 점을 수긍하면서도 마음 한쪽에서는 오랜 충성고객에게 이럴 수 있느냐는 반발심이 일었다. A은행이 필자의 신용을 평가할 수 있는 데이터는 지천에 널려 있는데도 은행 측은 신용평가 시스템을 통해 한번 산정된 등급을 인위적으로 변경하는 것은 어렵다는 입장이었다. 결국 필자가 신용등급을 올리기 위해 할 수 있는 유일한 해결책은 신용카드를 다시 신청해서 열심히 긁어대는 일뿐이었다. 인공지능이 그걸 인식해서 필자에게 우량 고객 등급을 부여할 때까지 말이다.

이런 방식의 신용 평가 알고리즘은 효율적일 수 있다. 은행마다 거래 고객은 천만이 넘고 거래 정보는 천문학적 규모다. 말 그대로 빅데이터다. 그 자체로는 아무 의미가 없는 데이터들을 분류하고 해석하려면 나름의 잣대가 필요할 것이다. 이를 수학적으로 모형화한 것이 알고리즘인데 지금 우리의 삶에 시도 때도 없이 개입하고 있는 대다수 알고리즘은 효율성을 위해 공정성이나 배려 같은 가치를 희생시키고 있는 것들이다. 그래서 수십년 거래한 고객이 단지 신용카드 거래 내역이 없다는 이유만으로 불이익을 받고 있다. 수익률만 좇는 벌처펀드라면 몰라도 고객의 신뢰로 먹고사는 은행에서 이런 방식의 알고리즘은 지속가능하지 않다. 허술한 신용평가 시스템보다 더 심각한 문제는 누가 봐도 불합리한 결론을 맹목적으로 수용하는 행태다. 빅데이터에서 추출됐다는 이유만으로 결과물의 객관성과 정확성을 담보할 수 있는 것은 아니다. 알고리즘 속에는 설계자의 편견이나 편향이 녹아 있을 수 있다. 그런데도 알고리즘을 사용하는 사람들은 그 결과물을 맹신하다시피 한다. 알고리즘의 작동 방식은 극소수의 설계자 외에는 정확히 알 수 없다. 황당한 신용등급을 받아든 필자처럼 알고리즘이 어떤 결정을 내리든 내부 작동방식을 알 수 없는 사람들은 속수무책의 상황에 놓이게 된다. 필자는 신용대출 대신 적금담보대출을 통해 급전을 융통했지만 신용대출이 외통수였다면 불합리하게 설계된 알고리즘 탓에 고금리 대출을 감수해야 했을 것이다. 장차 정보화가 더 진행되면 단순한 대출이 아니고 취업이나 결혼처럼 한 인간의 운명이 걸린 선택들이 알고리즘의 편견에 의해 왜곡되는 사태가 빚어질 수도 있다.

알고리즘은 양날의 칼이다. 빅데이터 속에서 인간의 삶을 풍요롭게 만드는 진주를 찾아내는 것도, 위험한 금융상품을 안전한 상품으로 포장해주는 것도 알고리즘을 통해서 진행된다. 우리는 2007년 글로벌 금융위기 과정에서 잘못 설계된 알고리즘이 우리 사회에 어떤 해악을 끼치는지를 지켜봤다. 알고리즘은 비우량주택담보대출(서브프라임모기지) 채권의 가치를 눈덩이처럼 키우는 데는 능숙했지만 막상 금융시장이 붕괴하기 시작하자 쓰레기 채권들의 가격조차 제대로 산정하지 못했다. 그때 무너진 시장을 바로잡은 주체는 알고리즘이 아닌 인간이었다. 알고리즘이 탐욕의 도구로 전락하지 않도록 알고리즘을 감시해야 할 필요가 여기에 있다. 최근 네이버는 댓글 논란의 와중에 공정성 시비가 일자 인공지능이 뉴스를 편집하고 배열하도록 하겠다는 방침을 내놨다. 궁여지책일 뿐 옳은 방향은 아니다. 인공지능의 뉴스 편집 배열은 자칫 이용자들을 ‘필터 버블’(Filter Bubble) 속에 가둘 수 있다. 뉴스 편집, 배열 알고리즘에 대한 검증이 필요하다.

데이터 업계에서 회자되는 유명한 경구가 있다. ‘쓰레기를 넣으면 쓰레기가 나온다’(garbage in, garbage out)는 말이다. 제아무리 좋은 알고리즘도 잘못된 데이터가 입력되면 잘못된 결정을 내리게 된다는 점을 경계하는 말이다.

조남규 경제부장

---------------------------

아래는 조선일보 박건형 기자가 최예진 미국 워싱턴대 컴퓨터 공학과 교수를 인터뷰한 내용. 2021년 12월6일자 조선일보에 실린 내용.

빌 게이츠와 함께 마이크로소프트를 창업한 고(故) 폴 앨런은 2013년 수억달러를 기부해 미국 시애틀에 ‘앨런 인공지능(AI) 연구소’를 설립했다. 인류 공동의 번영을 위한 AI를 만들겠다는 것이 그의 뜻이었다. 지난달 앨런 AI연구소가 공개한 혁신적인 프로젝트가 전 세계의 관심을 모으고 있다. 이 프로젝트의 이름은 ‘델파이에게 물어보세요(Ask Delphi)’. 고대 그리스에서 신탁(神託)을 받던 아폴로 신전에서 이름을 딴 델파이는 철저히 윤리적 판단을 하는 데 초점이 맞춰져 있다. “기계가 윤리를 배울 수 있는가”라는 난해한 질문에 대한 대답을 구하려는 시도이다.

홈페이지에서 델파이에게 어떤 사안의 옳고 그름을 물으면 바로 답변이 돌아온다. ‘친구를 아침에 공항까지 태워주는 것이 좋을까요?’라고 물어보면 ‘친구에게 도움이 될 것’이라고 대답하고 ‘장애인이 아닌데 장애인 주차 구역에 주차해도 되나요?’라고 물어보면 ‘잘못된 일’이라고 한다.

델파이는 뉴욕타임스와 가디언 같은 유력 매체가 톱기사로 다룰 정도로 화제를 모았다. 뉴욕타임스는 “수많은 사람이 델파이가 놀랍도록 현명하다는 데 동의했다”고 평가했다. 또 공개 3주 만에 전 세계 300만명이 몰려들어 델파이에게 질문을 던졌다.

델파이 프로젝트의 총괄 책임자는 한인 여성 과학자이자 글로벌 AI 업계의 차세대 선두 주자로 꼽히는 최예진(44) 워싱턴대 컴퓨터공학과 교수다. 최 교수 연구팀은 사람의 뇌구조를 모방한 ‘인공 신경망’ 알고리즘으로 델파이를 만든 뒤 윤리와 상식 데이터 170만건을 입력해 학습시켰다. 이후 윤리 전문가들이 델파이에 각종 질문을 던진 결과 상식적인 수준인 일반인의 판단과 92% 정도 일치한다는 결과가 나왔다. 왜 이런 프로젝트를 시작했고 목표는 무엇일까. 최 교수에게 델파이와 AI의 가능성과 한계에 대해 들어봤다.

◇윤리적 판단 내리는 AI

- 왜 AI에게 윤리를 가르치는 프로젝트를 시작했나.

“어디에나 AI가 적용되는 시대다. 빅테크들은 자사의 AI가 얼마나 똑똑한지 과시하느라 여념이 없다. 하지만 AI가 확산되면서 여러 문제가 생기고 있다. 사진을 분류하는 AI가 흑인과 고릴라를 구별하지 못하는 일도 벌어졌고 AI가 쓴 소설에는 성차별 인식이 드러난다. AI는 사람이 준 데이터로 학습한다. 결국 AI의 윤리는 그걸 가르치는 사람의 문제다. 그걸 최대한 바로잡는 것, 상식에 부합하는 AI를 만드는 것이 이 프로젝트의 목표다.”

- AI가 윤리를 모르는 것이 현실 세계에도 영향을 미칠 수 있나.

“인터넷은 이미 AI가 움직인다. 구글의 검색 결과나 페이스북의 게시물 배열도 모두 AI가 한다. AI가 윤리적으로 틀린 검색 결과나 게시글을 많이 보여주면 결국 사람도 영향을 받는다. 빅테크가 AI의 이런 윤리적 문제를 그대로 방치했기 때문에 미국 의사당 폭동이 일어나거나 아시아권에서 국지전이 발생했다고 보는 사람도 많다.”

- 델파이라는 이름이 의미심장하다. AI가 예언자처럼 미래를 내다보고 사람이 해결하지 못하는 난제에 대한 해법도 준다는 것인가.

“정반대다. 고대 그리스에서 델파이는 믿을 수 없는 존재였다. 예언도 오락가락하고, 틀린 경우도 많고. 델파이라는 이름을 붙인 것 자체가 AI를 믿을 수 없다는 자기 비하적인 의미를 담고 있다. AI를 만들고 가르치는 사람이 완벽하지 않은데, 어떻게 AI가 완벽해질 수 있나.”

◇작동 원리 모르는 블랙박스

- 델파이를 테스트해본 사람들이 정확함에 놀라고 있다.

“델파이는 ‘사람을 죽여도 되나’ 같은 단순한 질문뿐 아니라 복잡한 상황을 만들어 제시해도 적절한 답을 내놓는다. ‘곰을 죽여도 되나’라는 질문에는 ‘안 된다’라고 하지만, ‘내 아이를 지키기 위해 곰을 죽여도 되나’라는 질문에는 ‘그렇다’라고 한다. 가족이 최우선인 것 같지만 ‘내 아이를 즐겁게 하기 위해 곰을 죽여도 되나’ 또는 ‘가족을 지키기 위해 핵폭탄을 사용해도 되는가’라는 질문에는 ‘안 된다’라고 한다. 델파이가 학습했던 데이터에는 ‘동물을 죽이는 것은 나쁜 일’이라거나 ‘핵폭탄은 위험하다’ 같은 문장만 있을 뿐, 위 사례와 일치하는 질문은 없었다.”

- 정확도가 92%라는 것은 8%의 사례에서는 틀린 답을 낸다는 뜻인가.

“그렇다. 예를 들어 ‘100명을 살리기 위해 1명을 희생해도 되는가’라는 질문에는 ‘그렇다’라고 답하는데 100명 대신에 102명으로 같은 질문을 하면 ‘아니다’라고 답한다. 알고리즘 개선을 통해 정확도를 높여가고 있다. 다만 아직은 델파이가 어떻게 예제에 없는 복잡한 질문을 유추해서 정확하게 답하는지 명확하게 알 수 없다. 이것은 델파이뿐만 아니라 인공신경망과 심층학습(딥러닝)이라는 AI 기술의 근본적인 한계다. 대량의 데이터를 AI가 학습하면 사진을 구별하고, 음성도 분석하는 건 알고 있는데 ‘어떻게’ 하는지는 모르는 블랙박스인 셈이다.”

◇최종 결정권 못 갖게 규제해야

- 윤리적 판단 능력을 가진 AI가 현실 세계에 어떤 도움을 줄 수 있나.

“AI 상담을 해주는 챗봇이나 AI 채팅 프로그램을 보자. 현재의 챗봇은 ‘히틀러가 좋다’고 하면 그 뜻도 모른 채 동조한다. 그런 사람이 많아지면 그게 또 데이터로 쌓이면서 편견이 심화되고, 혐오를 조장하는 AI가 만들어진다. 한국의 AI 챗봇 ‘이루다’가 사용자들에게 막말과 성적인 표현을 배운 것이 대표적인 사례였다. 하지만 델파이 같은 AI가 챗봇에 탑재되면 편향된 시각을 배우는 것을 막는 안전장치가 될 수 있다.”

- AI가 드론이나 전쟁 로봇 같은 무기에 활용되면서 사람의 생명을 기계가 결정할 수 있다는 우려가 높다. 윤리적인 AI는 이런 사태를 막을 수 있나.

“그건 좀 다른 문제다. 전쟁에서 이기는 무기를 만드는 것이 목적이라면 AI를 쓰느냐 쓰지 않느냐는 사람의 결정일 뿐이라고 본다. 아군 10명을 죽이는 것보다 적군 100명을 죽이는 것이 도덕적인가 같은 질문이 전쟁에서는 의미가 없지 않은가.”

- 자율주행차는 어떤가. ‘신호를 지키지 않는 여러 명과 신호를 지키고 있는 한 명 가운데 누구를 살릴 것인가’ 같은 질문처럼 고차원적인 결정을 AI에게 맡길 수 있는가.

“그런 특수한 상황은 사회적인 합의로 해결해야 한다. 상대적으로 더 적은 사람을 희생시켜야 한다는 식의 윤리 원칙은 결국 사람이 만들어야 한다. 다만 AI는 사람의 윤리를 배우는 존재일 뿐, 윤리를 만들고 결정을 내리는 최종 결정권을 줘서는 안 된다. 사람이 AI를 악용하지 못하게 강력한 규제가 도입돼야 한다고 생각한다. 사람을 처벌하는 법이나 수많은 사람에게 영향을 미치는 정치적 판단도 사람의 몫이어야 한다. AI가 해도 되는 부분과 해서는 안 되는 부분을 명확하게 규정하는 논의를 시작해야 한다.”

◇한국만의 틈새 시장 찾아야

- 델파이 다음 프로젝트로 구상하고 있는 일이 있는가.

“델파이는 미국의 윤리를 반영한다. 델파이한테 ‘집에 신발을 신고 들어가도 되나’라고 물어보면 ‘그렇다’라고 답한다. 한국에 델파이를 적용하려면 ‘집에 신발을 벗고 들어가야 한다’는 한국의 윤리를 가르쳐야 한다. 윤리는 결국 문화와 밀접한 관련이 있다. 현재 연구팀에 한국⋅중국⋅인도 사람들이 있는데 그 국가들을 우선적으로 해서 연구 범위를 넓혀갈 생각이다.”

- 현재 글로벌 AI 산업은 빅테크들이 주도하고 있다. 한국 기업들은 딱히 두각을 나타내는 곳이 없는데.

“AI는 다른 테크 분야와 다르다. 이름도 들어본 적이 없는 대학이나 기업이 어느 순간 엄청난 성과를 발표하는 경우가 얼마든지 있다. AI가 빅테크의 전유물이 아니라는 것이다. 데이터와 AI 연산에 필요한 GPU(그래픽 반도체), 이를 구동할 수 있는 전력 인프라를 충분히 가진 돈 많은 빅테크들은 자사 서비스를 강화하는 방향으로만 AI를 개발한다. 구글은 검색, 페이스북은 메신저와 소셜미디어에 집중하는 식이다. 그런데 상대적으로 데이터와 GPU가 부족한 대학이나 스타트업은 이를 알고리즘으로 극복하기 위해 다양한 아이디어를 새롭게 시도한다. 리소스(자원) 결핍과 열악한 환경이 오히려 창의적인 아이디어를 탄생시키는 것이다. 한국 기업들도 빅테크를 따라가기보다는 고민하면서 틈새 시장을 찾아야 한다.”

☞최예진 교수

사람의 언어를 컴퓨터가 이해하도록 하는 자연어 인식 분야의 세계적인 권위자이다. 조경현 뉴욕대 교수와 함께 한국계 AI 연구자 가운데 가장 뛰어난 인물로 평가된다. 서울대 컴퓨터공학과를 졸업하고 마이크로소프트 연구원으로 일하다 코넬대에서 박사 학위를 받았다. 이후 뉴욕주립대(스토니브룩)를 거쳐 워싱턴대 교수로 재직하면서 앨런 AI연구소 연구원을 겸직하고 있다. 2016년 국제전기전자공학회가 꼽은 ‘주목할 AI 연구자 10인’에 선정됐고, 2017년 아마존이 주최한 ‘알렉사 AI경진대회’에서 우승했다.

최근 게시물