본문 바로가기
책속의 과학이야기

구글 모토 “사악해지지 말자”는 폐기된걸까? 페이스북은 우리를 인공지능 AI가 가르쳐준 세상이 불공정할 수 밖에 없는 이유_알고리즘이 지배한다는 착각 책리뷰 1부

by P.Keyser 2023. 1. 20.

알고리즘이 지배한다는 착각은 제목에서 알 수 있듯이 알고리즘에 의한 인공지능을 갖춘 빅테크가 우리의 삶에 깊숙이 침투하여 빅브라더스가 될 수 있지 않을까 하는 대중의 의심과 호기심에 대해 풀어주는 책이다. 저자 데이비드 섬프터는 스웨덴 웁살라 대학교 응용수학과 교수로 영국 왕립학교 회원으로 최고의 수학논문 저자에게 주는 캐서린 리처즈상을 수상했고, 물고기, 개미 집단의 거동원리, 축구팀 패스 네트워크 분석, 기계학습과 인공지능의 차별까지 다양한 주제를 수학적으로 연구했다.

 

알고리즘이 지배한다는 착각. 공정성에 대하여,,, 구글의 모토 사악해지지 말자는 폐기된 것일까? 페이스북은 우리를 얼마나 잘 알까?

2018년 구글 딥마인드의 알파고는 여로모로 우리에게 다양한 의미로 다가온다. 전체적 형세를 구축하고 파악 (추론)이 필요한 동양의 보드게임 바둑은 알파고 이전까지 컴퓨터가 인간을 이기기는 불가능한 영역으로 여겨졌다. 구글 알파고가 인간계 최 고수 이세돌을 이김으로써 인공지능 기술의 특이점이 왔다고 느꼈다. 당시 이세돌은 인공지능 알파고를 한판이라도 이긴 최초이자 마지막 인간계 고수가 되었다. 당시 알파고를 보면서 진정한 빅데이터에 기반한 인공지능 시대가 도래함을 직감하였고 실제 알파고 이후 테크기업 주류는 빅데이터와 함께 AI가 대세가 되었다. 당시 사람들은 이 모습을 지켜보면서 새로운 혁명의 인공지능 시대를 직감하며 영화 터미네이터, 매트릭스 같은 디스토피아적 시대가 될 서막이 될 것이라는 비관론자부터, 인간의 일자리를 빼앗아 갈 것이라는 현실적 미래 전망, 인간을 노동으로부터 해방시켜 진정한 의미의 인간이 노동에 얽매이지 않고 보다 인간 다움을 추구하는 유토피아적 시대가 될 것이라는 전망까지 폭넓은 스펙트럼의 의견이 나오기 시작했다.

 

  이러한 전망의 기본 밑바탕은 인공지능의 성능이 정말 인간의 지능처럼 뛰어나 인간만이 할 수 있다고 (처리할 수 있다고) 믿는 많은 작업과 일들이 컴퓨터 인공지능으로 대체되고 그 결과가 인간이 처리하는 것보다 훨씬 뛰어나고 공정하며 합리적으로 한다는 믿음이 깔려 있을 것이다. 이와 함께 빅테크 기업들의 빅데이터에 기반한 하이테크 AI기술이 새로운 기득권의 빅브라더 세상이 오지 않을까 하는 불안감의 기저도 깔려 있는 것 같다.

  우리는 페이스북, 트위터, 인스타그램 등의 대형 SNS를 하면서 가끔 내가 생각하거나 관심있는 분야, 혹은 찾고 있던 무언가 (회사, 광고, 구인구직, 정보), 광고등이 뉴스피드로 올라 오는걸 보면서 페이스북이 나에 대해 얼마나 잘 알고 있는 것인가 신기해 하면서도 한편으론 섬뜩한 기분을 느껴 본적 있을 것이다.  나보다 나를 더 잘 알고 있다고 평가받는 페이스북의 행간의 느낌은 맞는 것일까?

 

구글 딥마인드 알파고를 보면서 그들의 인공지능 개발 과정을 보여주었는데, 그들이 선보인 알파고 기술로 만든 AI의 벽돌깨기 게임을 정복하는 과정을 살펴보자. 인간이 컴퓨터에게 알려준 유일한 목표는 게임의 점수를 올리는 것인데, 처음 구글 인공지능은 게임의 룰조차 파악하지 못해 헤매던 모습에서 어느 순간 규칙을 파악하더니 인간만이 생각한다고 하는 전략, 한쪽 벽을 뚫어 그 사이로 공을 집어넣는 것까지 파악하고, 결국에서 그 어떤 인간도 이길수 없는 수준으로 올라서게 된다.

(1) Atari 벽돌깨기 게임을 하는 Google DeepMind의 Deep Q-learning - YouTube

 

이런 기술적 특이점 이후 인공지능 AI기술이 점차 확대되어, 시를 쓰고, 그림을 그리고 특정 작가의 스타일을 파악하여 그 작가가 그린 그림처럼 새로운 그림을 그린다. 현재 글을 작성하는 시점엔 Chat GPT라는 오픈 AI가등장하여 철학적 주제, 에세이 등 다방면에서 꽤 훌륭한 작문실력을 가지고 있어 논란이 진행중이다. 그리고 이런 호기심적인 사용부터 점차 실제 생활에 응용할 방법을 사람들은 인공지능을 이용하기 시작했다.


사람을 분류하고 예측하는 행위를 논리적 알고리즘 인공지능에 맡기면?

범죄수사를 위한 경찰력배치, 팬데믹 시대 바이러스 유행율 예측, 구직하는 회사의 인공지능 이력서 검토 분류, 재범율 분류 검토, 스포츠 경기 결과 예측 및 분석, 광고 타깃 설정 등 다양한 분야에서 빅데이터에 기반한 인공지능을 활용하고 있다. 실생활에서 응용되는 인공지능의 공통적 특징이라면 모두 무언가 (혹은 사람을)분류하는 일, 데이터로부터 미래의 결과를 예측하는 일을 하는 것이다. 빅데이터로부터 학습한 인공지능이 사람들이 다루기 힘든 방대한 정보를 한꺼번에 처리하여 결과를 도출하는 것이다.

한번쯤 생각해보면 이 구인구직에서 방대한 지원자들의 이력서를 1차 검토하여 분류하는 일은 인사 담당자가 일일이 검토하여 분류하는것보다 인간이 가진 편향으로부터 더욱 자유롭고 더 믿음직할거라는 무언의 믿음이 존재한다. 과연 그럴까?

 

인간의 한계와 컴퓨터의 강점

인간은 3차원의 세계에 살고 있다. 3차원의 공간에 살아가며 눈을 통해 3차원 공간을 2차원의 평면으로 인식하며 받아들이고 생활한다. 물론 여기에 시간이라는 차원 축을 더해 4차원의 시공간을 이해하는 것까진 가능하다. 일반적으로 인간의 뇌는 3차원 공간을 눈을 통해 2차원상의 정보를 눈으로 받아 처리하며 살아간다. 인간은 어떤 현상을 파악하고 해석하는데 2차원의 정보를 처리하기에 편하고 직관적으로 이해하기 쉽다. 3차원의 축에 정보를 놓고 해석하기엔 상당한 부하가 걸리지만 이것 까지도 해낼 수는 있다. 그래서 보통 X, Y축의 그래프로 원인1개에 결과 1개를 도식하여 추세를 보고 관계를 생각하고 현상을 이해한다. 하지만 그런 차원 수가 X, Y 두 개가 아닌 3, 4개를 넘어서기 시작한다면? 꽤나 머리 아플 것이다. 4차원도 그러한데 그런 차원이 100개라면? 인간의 머리로 직관적 해석이 가능할까? 아시다시피 자연의 현상이나 사람의 성격도 단순 3~4개 차원만 존재할 것이 아닐 것이다. 수많은 (100차원~) 나의 여러가지 특징, 성격 등이 어우러져 지금의 나를 보이고 따라서 나의 시선에서 단순히 몇 개의 정보만으로 상대방을 파악하기엔 자연과 우리 개개인은 다면적 성격과, 상황, 배경이 복합적이다. 하나를 알면 100이 보인다는 말은 사람이나 세상이 돌아가는 원리, 자연에게는 통하지 않는 것이다. 누군가 페이스북에서 어떤 연예인이나 특정 게임을 좋아요를 추가했다고 해서 그 사람의 성격이 지레 짐작하는 것만큼 어리석은 건 없다.

 

“누군가가 수 실베스터에 대해서 단 한 번 ‘좋아요’를 누른 사실에 기초하여 그 사람이 동성애자라고 결론 내려야 한다거나 모차르트를 좋아하는 사람들은 모두 똑똑하다고 결론 내려야 한다는 것이 결코 아니다. 이런 식의 추론은 아이들의 놀이터논리라고 할 만하다. “하하, 넌 <마인크래프트>를 좋아하네.. 넌 친구가 없구나.” 이런 추론은 불쾌할뿐더라 대개는 오류다., p.52”

 그런데 단순 하나의 좋아요가 아닌 수백개의 좋아요를 표현했다면?

 

컴퓨터는 이를 잘 할 수 있다. 페이스북은 수백 개 차원을 중심으로 데이터를 가시화는 수학적 기법 (일명 주성분 분석, Principal component analysis, PCA)을 적용하여 인간이 보지 못하는 새로운 면을 분석할 수 있다. 한사람이 아닌 수백만, 수억 명의 사람의 좋아요를 수백곳에 표기하였다면? 이런 빅데이터를 모아 사람들의 성향을 파악하고 개개인의 성격까지 파악하는게 가능하지 않을까? 페이스북은 10만명이 누른 좋아요의 범주 100만개를 담 몇 백 개의 차원으로 순식간에 환원하고, 수백 개 차원을 PCA 주성분 분석이라는 수학적 기법을 적용하여 대량의 데이터를 회전시켜 이리저리 분석하여 의미 있는 차원의 집합을 찾아낸다. 

 

PCA 주성분 분석. PCA는 각각 게시물 범주를 한 차원으로 삼아 다수의 차원 데이터 공간을 회전시켜 게시물간 관계 가운데 가장 중요한 것들을 알아내는 통계적 방법이다. 그림은 13가지 게시물 유형을 2차원 공간에 나타낸 그림; 출처: 알고리즘이 지배한다는 착각, 데이비드 섬프터 지음 p. 44

이런 식으로 페이스북은 개인화된 타깃 광고도 실어 우리의 뉴스피드에 타깃 광고도 집행할 수 있다. 하지만 우리 사람은 기껏해야 2차원에서 3차원에서 생각하므로 이 같은 작업은 엄두도 못낼 뿐 아니라 일일이 모든 데이터를 분석하는데 감당 못할 시간이 소요된다. (다음 편에서 이야기하겠지만, 이것으로 페이스북이 우리 개개인 면면을 모두 알고 통제한다는 건 어불성설임을 밝힌다.)

 

컴퓨터 알고리즘 모형으로 구성된 인공지능이 만능일까?

이렇게 (페이스북 좋아요 데이터 같은) 빅데이터라는 재료를 가지고 컴퓨터는 인간이 할 수 없는 엄청난 분석을 해 낼 수 가 있다. 이러한 알고리즘은 기초는 수학이고, 수학은 인간이 고안한 사고적 틀이다. 결국 이것 역시 기초는 인간이 만든 것에서부터 출발하는 것이다.

알파고가 인간계 최고수 이세돌기사를 이겼을 때 구글 딥마인드 하사비스는 컴퓨터의 승리가 아닌 인간의 승리라고 말했던 이유이다.

 

“이번 대국의 결과와 상관없이 승자는 인류가 될 것”, “알파고 역시 사람이 만들어 낸 것이기 때문에 알파고가 이겨도 인간 창의력 승리”

 

앞서 페이스북은 사람이들 관심을 표시한 좋아요데이터에 의해 수백차원의 데이터 종류를 빠른시간에 PCA 주성분 분석이라는 수학적 틀을 이용해 다차원의 데이터를 적합한 차원으로 줄여 가시적, 직관적으로 이해할 수 있는 데이터로 변환하여 인간에게 직관적 분석을 제공한다. 이때문에 나를 나보다 더 잘 아는게 아닐까 하는 의심을 했었다. 이런 페이스북의 데이터 처리는 다방면의 수백차원을 단시간에 여러 인간의 직관이 가능할 정도로 2차원의 데이터로 순식간에 가공하며 이렇게 환원된 2차원 데이터 역시 인간이 전통적으로 예측모델, 인과관계 모델, 상관관계 모델에 사용하는 수학적 회귀모형에 기초한다.

 

키와 몸무게 간의 회귀모형. 사람들의 키라는 독립변수 (X)와 몸무게간의 종속변수 (Y)간의 선형 회귀분석을 통해 직선적 형태의 관계를 파악할 수 있다. 예를 들어 사람들의 키가 (X)가 170이라면 몸무게는 67.3Kg의 몸무게로 회귀할 것이라고 예상할 수 있다.

그러나 이 페이스북의 좋아요회귀 모형 차제에 근본적 한계가 존재한다.

첫째 회귀모형 자체 한계이다. 예를 들어 정치적 성향이 확실한 특정 정치정당 지지자들은 자신의 정치 성향을 페이스북에 표시를 한 경우 잘 들어 맞지만, 선거에 이런 모델은 크게 유용하지 않다. 이미 특정 정치의 지지자들은 정당선거 캠페인의 표적대상으로 관리할 필요가 크게 없다. 하지만 페이스북 사용자의 일부 정치적 신념을 가진 사람 외엔 대부분 정치적 성격을 밝히지 않는 사람 (페이스북 사용자의 76% 정도 된다고 한다) 대해선 아무것도 알 수 없다고 한다. 그 데이터는 민주당 지지자들이 해리 포터를 좋아하는 건 알 수 있지만 이것이 해리포터 팬들이 반드시 민주당 지지자가 된다는 것을 말하는 건 아니기 때문이다.

두번째 한계로 예측에 필요한 좋아요개수가 문제이다. 회귀 모형의 예측 대상인 개개인에게 유효한 결과를 내놓기 위해선 50 개 이상의 좋아요가 필요하고 신뢰할 만한 예측은 몇 백 개의 좋아요가 필요하다. 그런데 조사 결과 50개 이상의 사이트에 좋아요를 표기한 페이스북 사용자는 전체 18%에 불과했다. 아무리 좋은 회귀 모형이라도 데이터가 없으면 작동할 수 없다.

세번째 한계로, 이런 회귀모형 자체로 우리 성격을 파악하겠다는 발상 자체에 문제점이다. 알고리즘의 좋아요에 기초하여 사람들의 성격 (친화력있는 사람인지, 신경성 높은 사람인지 등에 대해) 식별할 수 없다고 한다. 즉 회귀모형 성능은 여러 테스트 실험 결과 무작위 예측보다 조금 나은 수준이고, 아무리 잘 해봐야 사람의 주관적 판단결과를 뛰어넘지 못했다.

 

“회사나 개인이 사람들의 성격을 효과적으로 분류하는 알고리즘을 만들어 낼 수 있다고 믿지 않았다. 그는 컴퓨터 시뮬레이션과 트위터를 함께 이용하여 연구하고 있었는데, 연구의 목적은 우리의 디지털 발자국에 기초하여 성격의 특징들을 측정하는 것이 가능하기는 하지만 그 신호가 충분히 강하지 않기 때문에 우리에 관하여 신뢰할 만한 예측을 할 수는 없음을 보여주는 것이었다. P.79”

 

위 유유(Wu Youyou), 미할 코진스키 (Michal Kosinski), 데이비드 스틸웰 (David Stillwell)의 이런 좋아요에 기초한 회귀모형의 예측들을 페이스북 사용자와 직장 동료, 친구, 친척, 배우자가 작성한 그의 성격에 관한 설문지 답변과 통계학적 알고리즘 모형을 비교시 컴퓨터 알고리즘 통계모델이 약간 더 나은 상관성을 나타내었다. (알고리즘에 의한 상관도 r=0.56, 지인이 평가한 설문 결과의 상관도 r=0.49. r값이 1.0에 가까울수록 100% 상관도에 가까운 것이고 0에 가까울수록 상관도 0%임을 의미한다) (Ref: PNAS 112(4), 2015; Computer-based personality judgments are more accurate than those made by humans)

 

 

위 유유(Wu Youyou), 미할 코진스키 (Michal Kosinski), 데이비드 스틸웰 (David Stillwell)의 페이스북 좋아요를 기초로 성격에 관한 통계 모형 분석연구 논문

연구 결과와 같이 더 높은 상관성은 더 나은 예측을 함축하지만, 이 결과가 페이스북이 당신을 더 잘 안다는 것도 함축하는 것이 당연히 아니다. 토론토 대학교 경영학과 조교수 브라이언 코널리는 개인이 직장에서 나타내는 성격을 연구하는 학자로서 그 연구에 대해 언론이 그 연구를 선정적으로 다룬다고 밝혔다. 언론은 이 연구를 두고 어떻게 당신의 친구들보다 페이스북이 당신을 더 잘 알까?” <2015 1월 잡지, 와이어드>, “당신의 가족[!]보다 페이스북이 당신을 더 잘 안다” <텔리그래프> 등의 표제로 우리를 현혹하는 기사제목을 붙였다. 결국 연구 결과들을 다루는 언론의 선정성에 우리가 선도당하는 측면이 크다.

 

<알고리즘이 지배한다는 착각> 책에서 소개된 또 다른 예를 살펴보자. 스포츠는 인간의 각본 없는 드라마로서 승부를 하는데 컴퓨터 인공지능을 활용하는 사례가 늘어간다. 예전의 데이터는 단순 골 점유율, 슈팅 수, 유효슈팅, 패스 성공률 등의 단순한 데이터 기록을 측정하여 통계를 내는 수단에서 진화하여 이제 선수의 기량, 포지션에 따른 성취도, 경기 결과까지, 축구의 각종 데이터를 취합하여 일련의 알고리즘을 만들어 골 예측모형이란 것을 만들었다. 이 알고리즘을 통해 어떤 선수를 쓰고 포지션에 따라 승부 예측 결과를 도출하기로 한다. 이것과 숙련된 인간이 판단하는 판정과 비교했을 때 누가 우위에 있을까? 여기서 숙련된 인간이라 함은 축구 광팬이고 훈련된 인간요원을 말한다. 둘 사이의 예측을 사후 평가한 결과 인간판정이 더 옳게 나왔다. (인간이 판정한 것 중 옳게 판정된 것이 53%, 잘못 판단된 것이 7%으로 나타나 골 예측 컴퓨터 알고리즘에 의한 평가결과보다 월등히 앞섰다.) 즉 골 예측 모형은 이런 수준의 정확도에 도달할 수 없다는 사실을 발견한 것이다. 현재까지 골 예측모형은 인간이 도저히 처리할 수 없는 방대한 데이터를 사용하지만 (아직은)인간을 넘어서진 못하는 것이다. 현재까진

 

 

구글의 '사악해지지 말자 (Don't be evil) '라는 모토가 요즘 조용한 이유.

구글의 사업 초창기 성장이 급격하게 올라가던 시절 구글은 초심을 잃지 말자며 창업자 스탠퍼드 학생 두 창업자 브린, 페이지의 순수한 마음이 담긴 모토 사악해지지 말자를 회사의 기치에 내걸었다. 그러나 최근 몇 년 전부터 이런 모토는 거의 보이지 않는다. 구글이 점점 거대해지면서 사실상 지구인의 인터넷생활과 각종 영역에서 절대적인 영향력을 커지게 되었다. 필연적으로 여러 부분에서 정부 혹은 경쟁사와 충돌하면서 이런 모토가 점점 보이지 않는다. 과연 구글은 사악해지지 말자라는 모토를 버린 것일까?

 

그 이면엔 공정함에 대해 생각해봐야 할 것 있다.

빅데이터 기반의 인공지능 알고리즘 역시 이런 공정함에 대해서 완벽할 수 없다. 인공지능이 확대되는 요즘, 범죄분야에서도 빅데이터에 의한 알고리즘 처리에 의해 사람들을 분류하는 영역에까지 침투한다. 빅데이터 인공지능 알고리즘 업체는 재범율을 평가하는 인공지능 알고리즘을 만들었다. 어떤 범죄자를 풀어줄 때 이 사람이 재범을 일으킬 확률을 그 사람의 각종 데이터에 의해 판단하는 것으로, 판정의 정확성은 가짜 양성 (false positive)가짜음성 (false negative)으로 판단할 수 있다. 가짜 양성은 양성이 아닌데 (즉 음성인데) 양성으로 판단되는 경우이고, 가짜음성은 실제 양성인데 음성으로 판단된 경우이다. 이 두 가짜 양성/음성이 정확하게 판별되는 문제는 매우 중요한 요소이고 객관적 지표이다. 어떤 범죄자가 알고리즘에 의해 가짜 양성으로 판단된 경우 이 사람은 재범을 실제 일으키지 않는데 재범을 일으킬 것이라는 알고리즘 판단으로 감옥살이를 더 할 수 있는 최악의 경우, 또 다른 범죄자는 알고리즘에 의해 음성으로 판단되어 석방되지만 실제 석방 후 사회에서 재범을 일으키는 경우 모두 위험한 것이다. 이런 알고리즘에 의한 가짜 양성, 가짜 음성을 추후 정확도를 평가해본 결과 놀랍게도 흑인에게 가짜 양성비율이 높고 백인에게 가짜 음성 비율이 높았다. 즉 인종간 편향이 발생한 것이다. 만약 당신이 그 대상이라면 당신에게 최악의 상황은 가짜 양성 평가를 받는 것이다. 이를 근거로 프로퍼블리카라는 단체에서 알고리즘의 편향성을 문제삼아 재범 예측 인공지능 폐기를 주장하였고 이에 맞선 AI개발사 노스포인트의 전문가들이 제시한 알고리즘 보정에 대한 반대 논증도 탄탄하였다. 이를 판단하기 위해 외부 통계전문가 집단들도 똑 같은 데이터를 가지고 상반된 결론을 내리기에 이르렀다.

 

무엇이 잘못된 것일까? 두 집단의 데이터 해석을 살펴보면 둘 다 계산적 오류도 없었다. 이를 해결하기 위해 연구분석한 결과 내린 결론이 완벽한 공정은 없다는 것이다. 결국 한 집단의 재범 확률이 높으면 이에 대해 가짜 양성 비율도 같이 올라간다. 즉 가짜 양성비율이 두 집단에 대해 같을 수 없음이 증명되었다. 이는 흑인 피고인이 재범을 더 자주 저지른다면 그들은 가짜 양성평가 확률도 덩달아 올라갈 수밖에 없다. 이것을 동등하게 맞출 알고리즘, 수학적 방법은 존재하지 않는 것이다. 이건 마치 이쪽을 공정하게 보정하면 다른 쪽에서 또 다른 불공정이 튀어나와 공정의 두더지 잡기 게임과 같아진다.

 

불공정성은 두더지잡기 게임기에서 계속 튀어나오는 두더지와 유사하다. 한 구멍에서 나오는 두더지를 내리치면 다른 구명에서 다른 두더지가 나온다. 어떤 편향성도 없도록 빈칸들에 배치해보라. 그것은 불가능하다. 양쪽 집단에서의 예측 성공률이 동일하면서 가짜 양성 비율과 가짜 음성 비율도 같은 그런 배치는 불가능하다. 항상 한 집단이 차별당하기 마련이다. P.99~100

 

코넬 대학교이 컴퓨터 과학자 존 클라인버그 Jon Kleinberg와 마니시 라거번 Manish Raghavan은 하버드 대학교의 경제학제 센딜 멀레이너선 Sendhil Mullainathan과 함께 2X2 빈도표 한쌍에 숫자들을 어떤 편향성도 없게 배치하는 것은 불가능함을 증명했다. 즉 수학적으로 어떻게 하더라도 우리가 사는 세상의 다양한 측면에서 모든 것이 평등하지 않다면 우리는 완벽하게 공정한 알고리즘을 제작할 수 없고 불가능하다.

 

공정성의 공식은 존재하지 않는다. 공정성은 인간적인 무언가, 우리가 느끼는 무언가다. P100

 

수학은 말한다. 공정을 위한 공식은 없다.

바로 이런 이유가 철저히 차가운 수학에서 나온 결론이기에 구글은 사악해 지지 말자라는 모토가 얼마나 허무한지 알게 된게 아닐까 추측해본다.

 

결국 인간적 요인 그 무언가 필요하다.

이것을 해결할 방법은 결국 인간적 요소의 개입이 필요하다. 단순 차가운 수학과 법전에 의해 공정을 실현시키려는 것은 매우 부질없어 보인다. 케네스 애로의 불가능성의 정리 (impossibility theorem)에선 3명의 후보 중 모든 유권자의 선호가 공정하게 반영되는 선거제도는 존재하지 않는다. 페이턴 영의 책 [공평, Equity]에서도 수학적 게임이론에 따라 공평함에 대해 다루는데 공평함을 보편적 해석으로 환원이 되지 않는 예가 가득 차 있다. 이론적으로, 수학적으로, 과학적으로 완벽한 공평함이 존재하지 않는다며,

결국 인간적 개입이 필수적이며 그 개입을 통해 그 편향에 또 다른 인건적인 편향을 가하여 조화시키는 것이 최선일 것이라고 주장한다. 우리나라에서도 최근 몇 년사이 공정이라는 단어가 매우 화두이다. 수학적으로 완벽간 공정은 존재하는 것이 불가능하고, 그로 인해 차별 받는 집단이 더욱 차별 받고 조금이라도 우위에 있는 집단이 이익을 보는 그러한 편향을 없애기 위해 우리는 또다른 편향을 가하여 인간적 조정을 하는 대표적인 예가 취약계층(비장애인과 장애인에서 장애인 우대, 기회가 많은 도시출신과 농어촌 전형, 안전망이 있는 정규직과 그렇지 못한 비정규직, 남성과 여성)의 입학, 채용 등의 여러 우대정책이 대표적이다. 그런데 최근 우리 사회는 그런 인간적 개입을 통한 조정된 편향을 단순 불공정이라는 프레임으로 인간적 개입을 막으려는 공정하지 못한 공정을 내세우는 차가운 세상을 외치고 있다.

 

취약계층의 낮은 기회적 배경을 무시한 단순 시험평가점수 줄세우기, 다양한 기회를 얻지 못한 농어촌 출신의 학생의 배경을 무시한 입시 전형정책 폐기, 비정규직의 리스크와 경력, 노력의 배경을 완전히 무시한 비정규직의 정규직화 반대시도. 이 모두 전혀 공정하지 못한 주장으로 불공정한 공정을 외치는 우리사회의 현상이다.

 

우리는 편향이 없음을 불가능하다는 걸 알았고, 이런 편향 자체가 조금이라도 불리한 집단에게 더욱 부정의 방향으로 편향이 더욱 심화되게 악순환 되어 득권, 힘있는 사람에게 더욱 긍정적 효과가 순환되어 이뤄지고 환경적으로 어려운 집단에게 부정적으로 순환이 돌아가게 된다. 결국 단순 기계적 균형은 양극화를 더 악화시킬 뿐이다. 이를 막기 위해 인간적 개입의 또다른 인간적인 편향을 가하여 개인에 대한 공정을 조화시키는 전체적 편향을 인간적으로 조정하는 사회적 지혜가 필요하다.

 

여기까지 보고나면 과연 빅데이터에 기반한 인공지능 AI는 아직까지 무리인 것일까? 분명 인공지능이 주는 밝은 면도 존재할 것이다. 결국 인공지능을 만든 사람이 자신이 만든 인공지능 AI를 잘 이해하고 어떻게 사용해야 할지, 그 한계점과 가능성을 고려하여 사용할 때 인공지능은 더욱 빛을 발할 것이다.

다음장에서 진정한 인공지능 시대는 도래하였는지, 현재 논란의 이슈가 되고 있는 Chat GPT 인공지능, 단순계산의 결과인 하향식 인공지능, 진정한 의미의 인공지능 상향식 인공지능에 대한 이야기에 대해 책 데이비드 섬프터 가 지은 알고리즘이 지배한다는 착각책리뷰 2편에서 살펴보자.

 

더불어 앞서 소개된 범죄예측과 인공지능 AI알고리즘의 공정성에 대해 결국 인간의 편향을 따르는 한계에 대해 잘 지적한 책 "대량살상 수학무기", 캐시오닐 지음에 대한 아래 링크된 필자의 리뷰도 같이 보면 빅데이터 알고리즘 모형의 여러 한계를 살펴볼수 있다.

https://4urstar.tistory.com/31

 

빅 데이터 (Big data)로 이루어진 인공지능 수학모형은 유토피아인가? #공정사회_대량살상무기 수

2008년 스티브 잡스가 아이폰을 들고 세상에 나온지도 10년이 지났다. 그 세상 속에서 우리는 정보화시대의 시류를 보며 살아가고 있다. 스마트폰만 켜면 알아서 내가 관심 가는 쇼핑정보를 보여

4urstar.tistory.com

 

댓글