[어려워도 독서모임] 알고리즘에 대한 이해를 높이려는 어느 수학자의 노력 - 데이비드 섬프터의 <알고리즘이 지배한다는 착각>
우리는 엄청나게 많은 광고에 노출되고,
엄청나게 오랫동안 스마트폰이나 컴퓨터 스크린을 들여다본다.
바로 그렇기 때문에 때때로
광고들이 우리의 마음을 읽었다고 느끼는 것이다.
-<알고리즘이 지배한다는 착각> '데이터 연금술사들' 중에서-
2022년 6월 11일 토요일 오전 11:30, 서울시공익활동공간 [삼각지]
멤버 : 오작가, 희깅, 멤버 L, 멤버 S, 필자
아주 오랜만에 모임을 가진 [만남의 책읽기] 모임이었다. 지난 모임 이후 거의 2달 만에 가진 모임에 새로운 얼굴의 멤버 S도 함께하게 되어 반가움을 더했다. 기존 모임장소였던 [알바상담소]가 새로운 장소로 이사를 하게 되어 이번 모임은 이름도 낯선 서울시공익활동공간 [삼각지]에서 진행했다.
이번 모임에 준비된 책은 데이비드 섬프터(David Sumpter)의 <알고리즘이 지배한다는 착각> 이다. 만남의 책읽기 모임에서는 한 번씩 멤버들이 읽고 싶은 책을 읽게 되는데, 이번 책은 필자의 추천으로 정해진 책이다.
1. 선정이유
이제는 생활의 많은 부분에서 알고리즘이 작동하는 것이 자연스러운 사회에서 살고 있다. OTT 서비스의 추천으로 계속 영상을 보거나, 자주 구매한 상품과 연관있는 상품을 추천받는 것처럼. "알고리즘이 나를 이끌었다"는 말이 유행처럼 번지는 상황에서 우리가 정말 그러한지 조금 이해를 높여보고자 추천을 했고, 멤버들이 동의했다.
알고리즘에 대한 대중들의 "알고리즘이 나를 이끌었다"는 말을, 우리가 알고리즘의 지배를 받고 있다고 믿는 사람들의 말을 "그게 정말인지" 알고자 했다는 저자의 시도가 흥미롭기도 했다.
2. 함께 나눈 내용
발제 1. 알고리즘도 결국 만든 사람이나, 알고리즘이 다루는(혹은 입력되는) 데이터에 따라서 편향이 생길 수 있다는 내용이 매우 새로웠다. 알고리즘을 사용하여 판사의 판결이나, 입사자를 선별하는 방법도 이야기가 나오고 있는 현실에서 우리는 그것을 어떻게 받아들여야 하는가? 제도적인 규정이 있어야 하는가? 나 자신은 그런 알고리즘에 맡길 수 있나?
필자의 발제에 멤버들의 반응은 다양했다.
[오작가 ]
알고리즘의 권고(혹은 판단)을 얼마나 신뢰할지 결정이 되어야 할 것 같다. 만약 알고리즘에게 학습시키는 데이터가 알고리즘 도입 이전의 축적된 데이터라면 당연히 편향이 생길 것이다. 그런 데이터를 사용한다면, 저자가 시도한 것처럼 그 편향을 없앨 방법도 궁리되어야 할 것이다. 해서는 안되는 분류의 기준을 명확히 하는 것이 필요하다.
[멤버 S]
내가 어떤 사람인지 궁금한 경우는 누구나 있지 않나. 나만 해도 평범하게 루틴한 일상을 보내다가 가끔씩은 기존에 내 취향과 전혀 다른 선택을 하곤한다. 그것이 재밌을 때가 있어 스스로도 '내가 이걸 좋아하나?'하고 질문한 적이 있다. 알고리즘이 그런 튀는 선택을 반영할 수 있는가?
내가 어떤 사람인지, 내가 어떤 패턴으로 살아가는지 들여다보는 정도라면 알고리즘에 나를 맡겨볼 수도 있다고 생각한다.
발제 2. 알고리즘은 지금까지 해왔던 일들의 [효율]을 높이거나 [속도]를 빠르게 하는데 유용하지만, 그것이 발전할수록 역으로 사회 시스템적인 억압을 강화하거나, 점검 혹은 통제의 수단으로 사용될 우려는 분명히 존재한다. 알고리즘의 사적이용을 막고 공공재로 사용할 수 있는가? 그게 가능하다면 어떤 형태가 되는가?
[오작가]
상식선에서 유용하다고 하는 부분에서 용인될 수 있다고 본다. 다만 투명하게 운영 될 수 있는가 하는 문제는 남아 있다. 최근 정치권에서 포털이 기사를 보여주는 알고리즘을 공개하는 법안을 거론한 적이 있다. 기업은 알고리즘이 수익 창출의 수단이기에 불가하다고 한다. 블랙박스로 남아 있는 부분에 대한 사회적 합의가 있어야 할 것이다. 그래야 관리기구의 존재 등이 가능할 것 같다.
예를 들어 배달라이더를 보자. 누군가에게는 돈이 되는 좋은 배달 건이 많이 노출이 되는데, 누군가에게는 그렇지 않은 배달 건이 노출이 된다면, 그것을 확인한 라이더는 자신의 상황을 바꿀 방법을 알 수 있는가? 최소한 공평한 경쟁이 될 수 있게는 되어야 한다고 본다.
[희깅]
효율 대신 알고리즘이 편견을 강화하는 방향으로 쓰일 수 있다는 내용에 상당히 공감한다. 책에도 나온 것처럼 사람들은 섣불리 기술이 객관적이고 공정할 것이라 믿는 경향이 있다. 그것도 편견이다.
특성화 학교에 강의를 나가면 종종 시작 전에 교사들로부터 "우리 아이들이 좀 힘들다"라는 말을 듣는다. 수업하다 힘들면 그 말을 떠올리게 된다. [낙인효과]가 작동하는 것이다.
알고리즘도 그렇게 사용될 수 있다. 알고리즘이, 기술이 공정하지 않다면 좋지 않은 상황을 맞이할 수 있다.
[멤버 L]
책에 [암묵적 연상검사]가 나온다. 저자 스스로도 자신의 결과(암묵적 인종주의자)에 충격을 받는다. 차별에서 자유로운 사람은 없다. 인간의 선입견이 강하게 작용할만한 부분에서는 알고리즘을 적용해보는게 괜찮지 않을까.
발제 3. 결국 알고리즘이 끼치는 영향력에 대해 개인이 느끼는 정도는 그것을 얼마나 잘 알고 이해 하느냐의 영역이라고 말하고 있다. 스스로 느끼는 알고리즘이 나에게 끼치는 영향은 어느정도라고 평가하는가?
[모두]
필터버블적 상황이 점점 더 강화되고 있는 것만은 분명하다. 그만큼 우리는 이미 그런 영향력 안에 들어와 있다. 그런 필터링 된 정보만을 받아들이는 것에 익숙해지지 않는 것이 중요하다고 본다. 그 방법으로 어떤 신문이든 종이로 된 신문을 처음부터 끝까지 읽어보는 것을 추천할 만하다. 단편화 된 정보가 아닌 종합적으로 볼 수 있는 방법이지 않을까.
지금 우리 사회의 정치 혹은 세대간 소통에 있어서는 오히려 편향이 문제다. 다른 생각과 말들에 대해 생각할 여지 자체가 없다.
3. 결론(필자의 생각정리)
책 자체는 솔직히 그리 재미있게 읽히지 않았다. 멤버들도 같은 느낌이었다고들 한다. 저자의 문체나 서술의 방법은 문화적 배경이 비슷해야 더 와닿을 것이라는 오작가님의 이야기에 납득이 갔다. 관심있는 분야의 책이었음에도 다소 시간이 오래걸렸다. 저자가 하고자 하는 이야기는 분명하다. 알고리즘에 대한 이해가 높을 수록 막연한 두려움이나 오해를 해소할 수 있다는 부분이다. 주의할 점도 알려줬다. 알고리즘도 누가 그것을 다루느냐에 따라 편향적인 성향을 가질 수 있다는 부분이다. 인간보다 객관적일 수 있지만, 그것을 사용하는 것 역시 인간이라는 점에서 알고리즘에 대한 이해에 도움이 되었다.
무엇보다 알고리즘으로 인한 필터버블을 경계할 필요가 있다. "알고리즘이 나를 이끌었다"는 말은 어쩌면 우리 스스로가 주도적으로 무언가를 하기를 포기한 것일 수 있다. 스스로의 생각이든, 세대간 소통이든 말이다. 알고리즘이 주는 재미에 빠져 중요한 것을 잊지는 않았는지 한 번 점검해 볼 때인 것 같다.