장안의 화제 인공지능, 여러 목소리들이 나오고 있지만 그 중 가장 확실하고, 또 가장 느린 방법은 바로 ‘법’이다. 법은 우리 사회를 구성하는 제일 기초적인 요소이며, 우리 사회의 ‘최소한’을 규정하는 울타리기 때문이다.
하지만 인공지능은 최신 등장 기술로, 우리 사회가 아직 제대로 규정하지조차 못한 새로운 도전으로 다가오고 있다. 그럼에도 불구하고 유럽의회는 지난 2021년을 시작으로 꾸준히 ‘인공지능’을 법의 테두리 안에서 이야기하고자 노력해오고 있으며, 지난 2023년 6월 14일 드디어 ‘인공지능법’을 제정하기 위한 의회의 최종 입장을 규정하기에 이르렀다.
이미 인공지능의 ‘실수’를 경험한 유럽
이미 유럽 내에선 인공지능이 무제한적으로 사용되는 데에 대한 경각심과 제도적 장치 마련의 필요성이 오래전부터 제기되어왔다. 이미 존재하는 수많은 자료를 처리해 알고리즘에 따라 결과를 처리하는 머신 러닝(Machine Learning, 기계학습)의 특성상 잘못된 정보, 선입견이 포함된 정보, 저작권이 있는 내용등이 사용될 수 있다는 우려는 오래 전부터 나왔다. 그러나 유럽 의회는 지난 10여년간 개인, 사회가 의도하지 않은 윤리적, 법적 위반으로 인한 책임을 지거나, 잘못된 의사결정으로 인한 피해를 본 사례를 적립해왔다.
예를 들어 2012년 네덜란드 세무당국은 거짓으로 육아수당을 신고해 지원받았다는 혐의로 2만 6천여명에게 그동안 수령한 수당을 반환하도록 요구했는데, 그 중 6세 이하 자녀 셋을 둔 여성이 약 4년간 수당 10만 유로(한화 약 1억 4천만원)를 반환하게 되었다. 하지만 이 여성은 자녀 셋을 두고 있으므로 육아수당을 받을 수 있는 자격이 되었음에도 불구하고 반환요구에 어쩔 수 없이 수당을 반환했다.
하지만 2019년 네덜란드 세무당국이 육아수당 사기를 식별하기 위해 자가학습 기능이 있는 인공지능을 활용, 거짓 신고 의심 집단을 리스트화 해 그 중 저임금, 소수민족 가정과 이중국적자를 고위험 집단으로 분류하는 등 1만 1천여명이 부당하게 조사대상으로 선정되었고, 그 중 잘못 반환요청을 받은 사람들이 있었음을 인정했다.
최근의 사례로는 2023년 3월 20일 챗 GPT가 오류를 일으켜 일부 유료 웹사이트 회원의 이름, 주소, 신용카드 일부 정보가 9시간동안 노출되는 사건이 있었고, 이에 이탈리아 데이터 보호청이 챗 GPT의 개인정보 보호규정 준수 여부가 확인될 때까지 서비스를 중단시켰다. 당시 이탈리아 데이터보호청은 “인공지능의 개인정보 수집 및 저장을 뒷받침할 법적 근거가 없으며, 13세 미만 아동 이용자들이 부적합한 콘텐츠에 노출될 우려가 있다”고 규제 이유를 설명했다.
그저 편의를 위해 인공지능을 활용했다가 정부 정책의 실패로 귀결되는 사례부터, 개인정보가 무분별하게 노출되는 사고까지 유럽은 이런 사례들을 모두 케이스화 해 정책에 반영하고 있다는 점을 주목해야 한다. 사람의 실수가 인공지능의 실수로 이어지는 사례까지 이어진다는 점을 이미 경험하고, 축적해 둔 것이다.
‘인공지능’이란 무엇인가부터 ‘무엇이 위험한가’까지
이에 따라 EU 의회는 미국국립표준기술연구소(US National Institute of Standards and Technology, NIST)의 정의와 OECD의 정의 중에서 OECD의 결정을 따를 것으로 예상됐다. 미 NIST의 의견은 기존 소프트웨어가 포함되지 않도록 머신러닝 기반 시스템에만 국한하고자 하는 의견, OECD의 의견은 자동화된 의사결정을 포함하는 광범위한 접근방식이다. 이런 접근에 따라 EU가 채택한 인공지능의 기준은 ‘자동화된 의사결정을 포함하는’ 보다 폭넓은 방식이다. 여기엔 소셜미디어의 자동화 추천 알고리즘 등이 포함된다.
[ 그림 2. EU 인공지능법 AI 위험성 분류표, 출처=EU의회 집행위원회 ]
유럽 의회는 이를 바탕으로 법안 마련에 나섰고, 위험성을 분류하고자 위험성 분류표를 제작했다. AI 기술 자체가 위험한 것은 아니지만, 어떤 데이터가 어떻게 활용되느냐에 따라 위험성의 정도가 달라지므로, 개인과 사회에 위협이 되는 정도에 따라 총 네 단계로 나누었다. 가장 위험한 ‘수용 불가’ 등급, 2단계인 ‘고위험’등급, 다음은 ‘제한된 위험’과 마지막 ‘최소 위험’ 단계가 그것이다.
또한 이 위험등급에 따른 감시와 감독을 위한 기관을 설치할 규정도 마련했다. EU 집행위는 초안에서 각 회원국이 필요한 절차를 준수할 수 있는 감독기관을 최소 하나 이상 임명하고, 각국 관할당국의 집합체를 조성하도록 제안했다. 한마디로 하부기관을 각 국가에, EU 통합기구를 EU 의회 산하에 두는 방안이다. 이 합의는 지난 2023년 4월에 이뤄졌는데, 당시 유럽의회는 AI를 규제하는 것만이 아닌 보호와 개발 균형을 맞추기 위해 통제된 환경 하에서 기업이 인공지능을 테스트할 수 있도록 하는 일종의 규제 샌드박스(Sandbox)를 설정할 수 있도록 하자는 의견도 제시됐다.
6월 14일, 유럽 의회가 AI를 규정한 날
지난 2023년 6월 14일은 유럽 의회는 물론 인공지능을 위시한 산업계에 역사적인 날이었다. 유럽 의회가 소위 ‘AI 법(AI Act)’의 초안을 승인하는 표결을 했고, 동시에 유럽의회 의원들이 구글에 새로운 반독점법 위반 소송을 제기했기 때문이다.
[ 그림 3. 2023년 6월 14일 유럽의회 본회의장, 출처=EU Parliament ]
먼저 AI법은 의회에서 압도적 찬성표를 받으며 통과되었는데, 지난 수년간 있었던 AI 관련 논의 중 가장 중요한 진전으로 평가받게 됐다. 유럽의회 의장 로베르타 메촐라(Roberta Metsola)는 “이 법안은 향후 수 년간 글로벌 표준이 될 법안”이라고 설명했다.
물론, 이런 기대와 달리 지금 당장 효력을 발휘하는 법안은 아니다. 말 그대로 초안이기 때문에 꽤나 포괄적이며, 무엇보다 초안이 통과된 이후 유럽연합 이사회와 집행위원회가 세부사항을 논의하고 확정지어야 한다. 우리나라 국회로 치면 초안이 발의되고, 법사위원회를 통과한 다음 본회의를 통과해야 법의 효력이 생기는 것과 비슷하다.
최종 법안은 EU 집행위, 이사회, 의회가 낸 초안들을 비교하고 절충하는 과정이 끝난 뒤에야 만날 수 있다. 이 과정을 거쳐 법이 실제 효력을 가지기까진 약 2년 정도가 소요될 것으로 예상된다. 이것도 ‘최적의 조건 하에 빠르게 진행될 경우’다. 이처럼, 법은 아주 느리다. 그럼에도 불구하고, 이번 법안의 초안에서는 다음 다섯가지의 주요 내용을 확정했다는 것이 가장 큰 진보로 여겨진다.
1. 감정 인식(Emotion-Recognition) AI 금지
유럽의회는 경찰, 학교, 직장 등 공공과 민간 모든 영역에서 사람의 감정을 인식하려는 AI의 사용을 전면 금지한다. 하지만 감정인식 소프트웨어 제조사들은 AI가 학습에서의 성취나 졸음운전 등을 효과적으로 잡아낼 수 있다고 주장하고 있는데다 유럽연합 이사회와 집행위원회의 의견에서는 이 부분이 제외되어 있어 향후 쟁점 중 하나가 될 것으로 예상된다.
2. 공공장소에서 실시간 생체 인식, 예측 치안(Predictive Policing) 금지
이 부분은 입법 전쟁에서 가장 큰 걸림돌이 될 것으로 보인다. 여러 EU 기관들이 이 금지조항을 수행하기 위한 실질적인 법 조항과 방법을 정해야 하기 때문이다. 경찰에서는 ‘현대 치안유지에 필수적’이라고 주장하고 있어 충돌을 예고하고 있다. 그럼에도 불구하고 의회는 이 내용이 ‘빅 브라더의 탄생’이라며 저어하고 있다. 동시에 EU 주요 회원국인 프랑스 등에서는 안면인식기술을 통한 치안유지를 늘리고자 하는 시도를 보여주고 있어 의회 회원국간의 충돌 역시 예상된다.
3. 소셜 스코어링(Social Scoring) 금지
‘소셜 스코어링’이란 민간인의 사회적 행동 데이터를 수집, 그 데이터를 통해 개인의 ‘사회 점수’를 매기고 관리하는 것을 말한다. 유럽 의회의 이번 안에서는 공공기관의 소셜 스코어링에 인공지능 기술을 금지했다. 보통 소셜 스코어링에는 전과 여부, 신용정보 등이 포함되는데, 중국 등 권위주의 국가에서는 사회적 행동 데이터를 실제 신용정보에 포함시켜 주택담보대출, 보험료 책정 등에 시범적으로 도입된 것으로 알려져 있다. 동시에 채용, 광고 등에 이런 데이터를 활용할 수 있게 만들 가능성이 제기되면서 유럽에서는 이 소셜스코어링을 공공분야에서 완전히 금지하는 안을 제시했다.
4. 생성형 AI에 대한 신규 규제
유럽연합의 AI 법안에서는 생성형 AI를 전세계 최초로 규제하고 있다. 오픈AI의 GPT-4와 같은 대형 언어모델의 학습 세트에서 저작권이 있는 자료의 사용을 금지했다. 오픈AI는 이미 개인정보 보호 및 저작권 우려로 유럽 의원들의 정밀 검토를 받았다. 또한 그 결과 AI가 생성한 콘텐츠에 원전 출처를 알리는 라벨을 표기하도록 요구하고 있다. 이 때문에 앞으로 유럽 의회는 기술 업계의 로비 압력에 시달리게 될 이사회와 개별 국가에 이 정책의 필요성을 설득해야 하는 과제를 안게 됐다.
5. 소셜미디어의 추천 알고리즘 규제
이번 법안에선 소셜미디어의 추천 시스템을 ‘고위험’ 범주로 보고 있다. 전세계에 도입되거나, 논의중인 다른 어떤 법안보다도 강력한 규제 단계다. 이 법안이 통과된다면 소셜미디어 플랫폼은 자신들의 추천 시스템 작동 원리를 면밀하게 조사받게 되며, 기술 기업은 유저가 제공하는 콘텐츠가 미치는 악영향에 대해 더 많은 책임을 지게 될 수 있다. 따라서 초거대 소셜미디어를 운영중인 유튜브, 페이스북, 트위터 등 미국 기업과 틱톡 등 중국 기업들이 이 법안을 저지하기 위한 로비활동에 적극 나설 가능성이 점쳐진다.
EU 집행위원회 부위원장인 마르그레테 베스타게르(Margrethe Vestager)는 “AI의 위험은 이미 널리 퍼져있다”며 “정보 신뢰와 미래의 악의적 행위자가 끼칠 사회적 악영향, 대규모 감시를 우려한다”고 말했다. 또한 베스타게르는 “우리가 아무것도 믿지 못하게 되는 상황이 된다면, 그건 우리 사회가 완전히 무너졌다는 것”이라며 인공지능 법안 도입을 촉구했다.
EU는 그동안의 데이터를 토대로 발빠르게 인공지능 가이드라인과 규제책을 마련하기 위해 나섰다. 그럼에도 불구하고 우리 사회가 대응하는 속도보다 빠르게 발전하는 인공지능을 막을 수 있을지는 미지수다. 하지만, 분명한 것은 대응을 시작했다는 점이다.