본문 바로가기
문화

'공정한 알고리즘은 없다'…알고리즘 편향 규제 필요

by 뉴스버스1 2022. 8. 12.
728x90

김윤명 상명대 특임교수

데이터 셋과 알고리즘 공개, 감사시스템 도입 필요

지난 4월 13일 서울 강남구 코엑스 D홀에서 열린 제5회 국제인공지능대전 (AI EXPO KOREA 2022)에서 AI 업체 직원이 얼굴인식 알고리즘으로 구현된 얼굴을 시연하고 있다. (사진=뉴스1)
 

인공지능은 기술 자체라고 했습니다. 보통, 기술은 중립적인 가치를 지닌다고 합니다. 사용자의 의도에 따라, 선의의 결과를 가져오거나 악의적인 결과를 가져오기 때문입니다. 후자의 경우엔 통상 기술에 대한 규제 필요성이 커지곤 했습니다. 

인공지능도 인간의 생활을 편리하게 해줄 것이며, 기업에게 생산성을 높이는 역할을 할 것이라고 합니다. 맞는 말입니다. 그런데, 인공지능을 통해 구현되는 결과에는 다양한 절차를 거치면서 최종적인 결과를 확인하게 됩니다.

다양한 절차에는 기획자의 기획, 개발자의 개발, 서비스제공자인 기업의 목적 등이 포함될 수 있습니다. 여기에 더하여, 인공지능이 기계학습 하는 과정에서 사용되는 데이터셋(data set)도 포함됩니다. 

알고리즘 편향 원인, 악의적 개입이나 무의식적 편향

기획자는 자신의 경험이나 우선하는 가치에 따라 기획안을 만들어낼 것입니다. 경험이나 가치관은 주관적인 것이고, 내밀한 것이기 때문에 외부에 잘 나타나지 않습니다. 또한, 개발자도 마찬가지입니다. 기획자의 기획안을 토대로 SW를 개발하는 경우에도 특별하게 문제될 것은 없습니다. 다만, 처리 과정에서 어떻게 처리를 할 것인지, 어떠한 데이터를 입력하고 출력할 것인지 등에 대한 의사결정을 할 것입니다. 이 과정에서 경험 등이 반영될 것입니다.

기업의 서비스도 마찬가지입니다. 기업은 영리를 추구하는 회사입니다. 회사의 목적은 서비스의 수익화입니다. 수익화를 위해서는 이용자의 선택을 받거나, 이용자가 원하는 것을 만들어내야할 것입니다. 이 과정에서 이용자가 요구하는 것이 무엇인지를 확인할 수 있어야 합니다. 예를 들면, 아마존이나 쿠팡과 같은 서비스를 이용할 경우, 검색했던 키워드에 맞는 상품이나 예전에 구매했던 제품과 유사한 제품을 추천할 것입니다. 이러한 과정을 프로파일링이라고 합니다. 

기업은 이러한 과정에서 이용자의 개인정보, 넓게는 행태(behavior) 정보를 수집하여 마케팅 등에 활용합니다. 물론, 이러한 모든 것은 알고리즘이 행하게 됩니다. 알고리즘은 어떤 문제를 해결하기 위해 입력된 자료를 토대로 원하는 결론을 유도해내는 연산 또는 논리의 집합 정도로 정의됩니다. 이전에는 개발자가 프로그래밍을 통해 알고리즘을 고도화해왔다면, 이제는 기계가 학습을 하면서 알고리즘을 고도화시켜 문제해결 능력을 높이고 있습니다. 알고리즘을 고도화시키는 기계학습을 '딥 러닝'이라고 합니다.

알고리즘은 기계학습을 거치면서 다양한 데이터를 밥처럼 먹습니다. 데이터 기반의 기계학습을 하는 것이지요. 이러한 과정에서 알고리즘은 보다 나은 결과물을 만들어낼 수 있습니다. 이는 회사가 요구하는 수준의 결과를 가져올 수 있는 것을 의미합니다. 이로써, 알고리즘은 최적의 결과를 만들어내게 됩니다. 

지난 5월 서울 삼성동 코엑스에서 열린 ‘IEEE ICC 2022'(전기전자공학회 국제통신회의)에서 LG전자가 선보인 인공지능 기반 미래 자율주행차 콘셉트 모델인 'LG 옴니팟(LG OMNIPOD)' (사진=뉴스1 / LG전자 제공)

알고리즘은 어디에든 사용됩니다. 회사 내부적인 업무처리를 위해서도 사용되고, 공공기관의 업무 효율화를 위해서도 사용될 것입니다. 회사의 내부적인 사용이라면 큰 문제는 아닐 수도 있습니다. 다만, 관련 법률을 위반하는 것이라면 다른 문제입니다. 

플랫폼 사업자가 이용자에게 제공하는 추천 서비스는 그래도 양호한 편입니다. 누군가 결정 장애를 가지고 있다면, 추천 서비스는 훌륭한 조력자일 가능성이 높습니다. 또한, 누군가 검색 리터러시가 떨어진다면 검색할 필요없이 원하는 것을 알려주는 사회적으로도 필요한 서비스일 가능성이 높습니다. 이처럼, 알고리즘을 이용하는 서비스는 인간에게도 필요합니다. 그렇지만, 문제는 엉뚱한 데서 발생합니다. 

이러한 긍정적인 평가가 가능한 서비스와 다르게, 면접 관련 시스템이거나 추천 시스템에 악의적인 개입이 있는 경우라면 달리 봐야 할 것입니다. 공정하지 못하고, 편향된 것이기 때문입니다. 최근 법원은 인공지능을 활용한 면접을 진행한 공공기관에 대해 관련 정보를 공개할 것을 명했습니다. 그렇지만, 제대로 된 정보를 갖추어놓지 않았음이 밝혀졌습니다. 공공성이 담보되어야할 채용분야에서 어떠한 기준으로 채용을 하였는지에 대한 정보가 없다면, 그것은 인공지능을 무기로 임의로 채용했을 수도 있다는 의심이 들지 않을까요?

추천 서비스도 마찬가지입니다. 인간의 악의적인 수정이나, 순위를 조작하였다면 이는 공정거래법을 위반한 것입니다. 최근, 일본에서는 음식관련 서비스에서 순위를 임의로 조정한 것에 대해 공정거래법 위반으로 관련 정보를 공개하라는 판결이 있었습니다. 우리도 거대 플랫폼 사업자인 네이버를 대상으로 알고리즘 임의 변경에 대해 공정거래위원회가 과징금을 부과한 적이 있습니다. 아마, 소송을 맞대응했다고 하는데, 어떻게 되고 있는지는 확인이 어려웠습니다. (참고로, 네이버 관계자에게 문의했지만 메신저 자체를 읽지 않아 답변을 받는데는 실패했습니다.) 

물론, 이러한 과정에서 당사자들은 악의적인 개입이 없었다고 항변할지도 모릅니다. 그렇지만, 기획이나 개발이나 데이터 학습 과정에서 사람의 의도적인 편향이 반영될 수도 있지만, 무의식적이고 잠재적인 편향성이 반영될 수 있다는 점도 무시할 수 없습니다. 선의에 따라 조정했다는 항변도 가능할 것입니다. 그러한 항변도 인정될 수 있다고 생각합니다. 결국, 알고리즘을 개발하고 학습시키고 이용에 제공하는 것도 사람의 일이기 때문이지요. 이와 같이, 알고리즘은 인간의 통제영역에서 이용되는 경우라면 그나마 추적하여 수정이나 보완이 가능할 수 있습니다. 

최근 인과관계 설명 못하는 알고리즘 블랙박스화 경향

그렇지만, 최근의 알고리즘은 인간의 간여가 있었는지 조차도 알 수 없는 상황이 되어가고 있습니다. 기계학습 과정에서 수많은 데이터와 변수가 사용되면서 어떻게 결과가 나오게 되었는지를 누구도 설명하지 못하기 때문입니다. 이러한 현상을 알고리즘의 블랙박스화(black box)라고 합니다. 원인에 따른 결과인 인과관계가 아닌, 결과에 따른 원인을 추론하는 상관관계를 확인하고 있으니까요.

지난달 12일 서울 강남구 인피닉 AI연구소에서 열린 '제3회 인공지능(AI) 데이터 활용협의회. 박윤규 과학기술정보통신부 제2차관이 인사말을 하고 있다. (사진=뉴스1 / 과학기술정보통신부 제공)

이를 해결할 수 있는 방법으로 소스의 공개, 데이터셋의 공개, 알고리즘의 공개, 감사시스템의 도입, 공정거래위원회와 같은 전문적인 기관의 설립 등을 제안하지만 블랙박스를 열기가 쉽지 않습니다.

결국, 법의 규제가 역할을 할 수밖에 없는 상황이 올 가능성이 높습니다. 공정성은 알고리즘의 블랙박스에서 그 가치가 훼손될 가능성이 너무 크기 때문입니다. 설명가능한 인공지능을 열심히 개발 중에 있습니다만, 설명이 구체성을 담보하거나 인과관계를 설명할 수 있어야 할 것입니다.

그렇지 않고서는 알고리즘을 운용하는 사업자에게 면죄부를 주게 될 것이니까요. 이에 대비할 수 있는 정부와 기업의 노력, 그리고 입법적인 준비와 대응이 필요한 때입니다. 특히, 이에 대한 해답은 서비스를 제공하는 기업이 가져야 하고, 그렇게 해야 할 것입니다. 그게 기업의 사회적 책임이고 ESG 경영일테니까요. 

김윤명은 경희대에서 지식재산법으로 박사학위를 받았다. 네이버에서 정책수석으로, 국회에서 보좌관으로 일했다. 소프트웨어정책연구소에서 SW‧AI법을 공부‧연구했다. 현재는 상명대학교 특임교수로 있으며, 「블랙박스를 열기 위한 인공지능법」(2022, 박영사), 「게임법」(2021, 홍릉) 등의 책을 썼다. 남도의 땅끝 해남이 고향인 그는 지금은 물 맑은 양평에서 살고 있다. 

728x90

댓글