내 인생에 큰 영향을 주는 알고리즘
https://www.bbc.com/news/technology-53806038
The algorithms that make decisions about your life
From insurance and healthcare to social media and policing, algorithms are used all around us.
www.bbc.com
수천 명의 영국 학생들이 GCSE(영국의 중등교육자격시험)와 A레벨(영국의 대학수학능력시험) 결과와 관련한 알고리즘의 사용에 분노하고 있다. 락다운으로 인해서 실제 시험을 치를 수 없게 되면서 작년의 학교 생활 데이터를 이용해 올해의 등급을 결정하는 알고리즘의 사용 얘기가 나오게 된 것이다. 이 알고리즘을 사용하게 되면 올해 A레벨 결과는 예상보다 40% 낮게 나오게 될 것이고 학생들의 미래에 큰 영향을 줄 수 있다. GCSE 결과는 목요일에 나올 예정이다.
우리의 삶에 큰 영향을 주는 알고리즘들이 많이 있지만 우리는 그 알고리즘이 어떻게 그리고 언제 그런 결정을 내리는지 알지 못한다. 그런 알고리즘들의 예를 살펴보자.
소셜 미디어
소셜 미디어 플랫폼은 하나의 거대한 알고리즘이라고 할 수 있다. 우리가 무엇에 관심 있어하는지 알아낸 뒤에 관련 데이터를 제공하는 것이 핵심이기 때문이다. 좋아요 한 번, 시청 한 번, 클릭 한 번이 모두 저장된다. 대부분의 앱은 우리의 웹 서핑 습관이나 지리 데이터 역시 수집한다. 원하는 정보를 예측하여 계속 스크롤을 하게 만들기 위한 수집인데 목표를 훌륭하게 수행하고 있다. 당신이 귀여운 고양이 영상을 좋아한다는 걸 알게 되면 관련 물품을 광고한다.
소셜 미디어 기업이 수집하는 당신에 대한 모든 데이터는 잘 다듬어져서 놀랍도록 정확하게 당신에게 맞는 광고를 보여준다. 이런 알고리즘이 악용될 가능성도 있다. 사람들이 혐오스러운 내용이나 극단적인 내용을 즐기게 만든다는 것은 이미 증명되었다. 소셜미디어 상에서 극단적인 내용은 큰 효과를 발휘하고 알고리즘은 그것을 알고 있다.
페이스북의 자체 시민 감사위원회는 알고리즘 때문에 사람들이 점차 극단적으로 가게 만들지 않도록 최선을 다해야 한다고 회사에게 말했다.
보험
집, 차, 건강 보험 등 어떠한 보험이든지 보험사는 뭔가 잘못될 수 있다는 가능성을 본 것이다. 보험 산업은 과거의 데이터를 통해서 미래의 결과를 알아내기 위해 노력해 왔다. 'Big Data: Does Size Matter'의 저자 티만드라 하크니스에 따르면 그것이야말로 모든 것의 근간이라고 할 수 있다. 이런 예측을 컴퓨터가 할 수 있게 하는 것이 다음 단계이다.
"알고리즘은 당신의 삶 구석구석에 영향을 미칠 수 있지만 개인으로서 어떤 입력값을 넣어줄 필요는 없어요. 당신이 어딘가로 이사 가면 우리는 알 수 있고 보험료가 변하게 되죠. 당신의 문제가 아니에요. 주변 사람들이 범죄의 피해자였는지, 사고를 당했는지 등을 따지는 거죠." 티만드라는 말했다.
차 안에 설치할 수 있는 블랙박스는 개개인이 어떻게 운전하는지를 관찰한다. 고위험군에 있었던 안전 주행자의 차량 보험료를 줄이는 데 도움을 줄 수 있는 혁신이라고 볼 수 있다.
알고리즘이 우리 주변 환경에 대해 더 잘 알게 되면 좀 더 개인에게 최적화된 보험이 나올 수도 있을까? "보험은 결국 위험을 나눠 갖는 거예요. 모두가 비용을 지불하고 그것이 필요한 사람이 갖는 거죠. 우리는 불공평한 세상에 살고 있습니다. 어떤 모델을 만들든지 누군가에게는 불공평할 겁니다." 티만드라가 말했다.
의료
인공지능은 다양한 조건에 맞는 진단과 향후 치료 과정 제시와 관련해서 크게 성장했다.
2020년 1월에 공개된 연구에 따르면 알고리즘이 유방 조영상에서 유방암을 인간 의사보다 잘 구별해냈다고 한다.
-
난소암의 생존율 예측과 치료 방법을 결정하는 도구나
-
예약을 잊어버릴 것 같은 환자를 선별해서 미리 알림을 주는 런던의 UC에 있는 인공지능의 성공도 있다.
그러나 이런 알고리즘은 프로그램을 훈련시키기 위해서 어마어마한 분량의 환자 데이터가 필요하고 이는 문제의 소지가 될 수 있다. 2017년에 영국 정보 위원회는 NHS 재단에게 160만 개의 환자 데이터를 구글의 AI 부서인 딥마인드와 공유할 때 충분한 안전조치를 하지 않았다고 판결했다.
치안
빅 데이터와 머신 러닝은 혁신적인 치안을 만들 가능성을 가지고 있다. 이론적으로 알고리즘은 예측 치안 유지라는 공상과학적인 약속을 할 수 있는 힘을 가지고 있다. 과거에 범죄가 일어난 장소, 시간, 관계자 데이터 등을 통해서 어디에 경찰을 배치할지 예측할 수 있다.
이런 방법은 알고리즘적인 편견, 심지어는 알고리즘적인 인종차별까지 만들 수 있다. "시험 등급이라고 생각해봅시다." 기술 싱크탱크인 웹루츠 데모크라시의 아리크 차우더리가 말했다. "그 사람이 과거에 한 행동을 가지고 평가를 해서는 안 됩니다."
올해 초, RUSI는 알고리즘 치안에 대한 보고를 공개했다. 이는 국가 지침이나 영향력 평가의 부족에 대한 우려를 낳았다. 이런 알고리즘이 어떻게 인종 차별을 악화시키는지에 대한 연구들이 시작됐다.
영국 경찰에 의해 강제된 얼굴 인식 또한 비판받았다. 얼굴 인식 기술에 들어간 데이터가 알고리즘적인 인종차별을 만드는 가에 대한 걱정은 항상 있어왔다. 얼굴 인식 카메라가 백인 얼굴 데이터를 더 많이 가지고 있어 백인의 얼굴을 더 잘 구별하기 때문이다.
"다양한 인종을 대상으로 테스트하긴 한 건가요?" 아리크가 말했다. "알고리즘 때문에 어떤 그룹의 사람들이 범죄자로 잘못 인식될 수 도 있는 상황을 바라지는 않겠죠."
빅데이터를 활용한 알고리즘은 이미 우리 삶에 깊숙이 침투해있고 앞으로 더욱 큰 영향을 끼치게 될 것이다. 한 번 검색을 하거나 영상을 봤다고 관련 광고가 해당 사이트뿐 아니라 다른 사이트에서 나오는 것을 보면 놀랍기보다는 소름이 끼친다. 그래서 괜히 아니 이젠 이거 안 볼 거야 하면서 광고를 고집스레 클릭하지 않기도 한다.
어차피 현대 사회에 살면서 내 데이터를 내주지 않을 수는 없을 것이다. 피할 수 없으면 즐기라고(?) 내 정보 대신 받게 되는 알고리즘을 잘 이용할 수 있으면 좋겠다. 소소하게 놀라움과 재미를 주는 알고리즘이 많으니까..
그런데 기사에 나온 악용? 오용? 사례들은 많은 생각을 하게 한다. 맨 첫 문단을 읽고서는 너무 황당했다. 작년의 시험 결과로 올해 시험 결과를 낸다니..? 내가 작년에는 공부를 안 했지만 올해는 마음 잡고 공부를 했으면..? 너무 불합리하고 말도 안 되는 알고리즘이라고 생각했다. 그런데 기사를 다 읽고 나니 혼란스러운 기분이었다.
결국 모든 것은 과거를 기반으로 미래를 예측하게 된다. 내가 이사할 집을 알아보면서도 그 동네 치안 관련해서 확인을 해본 적도 있다. 그런데 왜 시험 결과는 작년을 기반으로 올해 결과를 예측하면 안 되는 걸까? 아마 예측이 아니기 때문 아닐까. 내가 이사할 동네의 과거 치안 데이터로 예측하는 것은 '이 동네에는 범죄가 많이 일어날 수도 있다'는 추측이다. 그런데 첫 번째 문단의 시험 알고리즘은 '이 학생은 작년에 100점이었으니까 올해도 90점 이상 맞겠지?'같은 그럴 수도 있고 아닐 수도 있다는 추측이 아니라(물론 이것 역시 그렇게 좋은 알고리즘 같지는 않지만) `너는 작년에 100점이니까 올해도 100점!`이라는 확정적인 결과를 낳는다. 단순한 추측이 아니라 결론을 지었기 때문에 이상하다고 느껴진 것 아닐까. 물론 과거를 통해서 미래를 그리고 내 현재를 결론 짓는 일들이 현실에는 많지만...^^ 흔한 일이라고 해서 옳은 일인 건 아니니까. 어쨌든 학생 때처럼 어제 다르고 오늘 다른 때가 없는데 어떻게 1년 전의 나와 올해의 나를 똑같다고 볼 수 있는지 모르겠다. 발달한 it 기술로 알고리즘이 아니라 더 실용적이고 납득 가능한 대체 시험을 치를 수 있게 되길 바란다.