신뢰할 수 있는 AI 구현을 위한 규제의 필요성
- 이성엽 고려대·법학
- 승인 2024.10.27 10:32
■ 저자가 말하다_ 『AI 규제법』 (이성엽 지음, 커뮤니케이션북스, 123쪽, 2024.08)
마치 살아있는 생명 같은 느낌을 주는 기계, 더 나아가 인간의 사고능력 즉, 인지, 추론, 학습 등을 모방하는 기술을 인공지능(AI, artificial intelligence) 기술이라고 한다. 즉, 인간의 학습 능력과 추론 능력, 지각 능력, 자연언어의 이해 능력 등을 컴퓨터 프로그램으로 실현한 기술로 활용가능한 데이터만 충분히 있다면 그동안 인간이 수행해 왔던 계산 기반의 지적 작업을 인간보다 더욱 빠르고 정확하게 대신할 수 있어 경제적으로 뛰어난 가치를 가지고 있다.
이런 AI 기술이 로봇기술, 빅데이터 기술, 클라우드, IoT 기술과 결합되면서 지능정보사회로의 변화를 견인하고 있다. 컴퓨터와 인터넷 혁명으로 대표되는 정보사회와는 달리 지능정보사회에서는 판단의 주체가 점차 인간에서 기계로 바뀌어 기계가 자율적인 처리, 제어, 예측을 할 수 있는 사회이다. 산업혁명에서 기계가 인간의 육체노동을 대체했다면 지능정보사회에서는 기계가 인간의 정신노동을 대체하게 된다.
점점 AI 기술이 발전하는 가운데 2022년 12월 1일 미국 스타트업 ‘Open AI’가 출시한 ChatGPT(Chat Generative Pre-Trained Transformer)가 글로벌 IT 생태계에 충격을 주고 있다. 챗GPT는 사람의 언어를 이해하는 것은 물론 사람의 질문에 꼭 맞는 유용한 답을 하는 대화형 생성 AI로 일반 대중에게 AI의 일상화라는 경험을 제공하고 있다.
생성형 AI인 대표인 ChatGPT는 문장을 생성(Generative)하는 AI 모델로서 사전학습(Pre-trained)을 통해 훈련을 받았으며, 트랜스포머(Transformer)라는 구조에 기반한 인공지능 언어모델이다. 생성이란 문장을 사람처럼 만들어낸다는 것이고, 사전학습이란 많은 데이터를 사전에 습득했다는 것이며, 트랜스포머란 단어 간 연관성 파악이 가능한 혁신적인 심층신경망이라는 것이다. 결론적으로 생성형 AI란 대규모 데이터의 패턴을 자기지도 학습하여 명령어(Prompt)에 따라 새로운 텍스트, 코드, 이미지, 음악, 영상 등의 콘텐츠를 생성하는 인공지능으로 정의할 수 있다. 패턴을 인식하고 예측하도록 설계된 기존 AI 시스템과 달리 생성 AI는 이미지, 텍스트, 오디오 등의 형태로 새로운 콘텐츠를 생성한다.
생성형 AI 모델의 특성은 다음 몇 가지로 제시할 수 있다. 첫째. 대규모 언어모델(Large Language Model)이라는 점이다. 우선 언어모델은 문장 생성을 위해 단어의 순서에 다음에 올 수 있는 확률을 할당하는 모델로, 기존 통계적 방법에서 인공신경망 방법으로 발전했다. 둘째, 콘텐츠를 창조한다는 것이다. 기존의 AI는 이용자의 특정 요구에 따라 결과를 생성한다. 즉, AI의 역할은 데이터 분석, 활용 등 인간의 행위를 대체하거나 보완하는데 그친다. 생성형 AI는 자기 학습 알고리즘으로 새로운 디지털 이미지, 영상, 음성, 텍스트, 프로그램 코드 등을 ‘창조’한다. 기존 검색엔진과 달리 생성형 AI는 사용자 질문에 대해 새로운 정보를 생성하는 기능이 있다. 셋째, 기존 검색모델과의 차별성이다. 검색모델이 키워드 검색을 통해 정보를 제공하지만, 생성형 AI는 인공지능 기술인 언어 모델링을 사용하여 사용자 질문에 대한 답변을 생성하며, 검색모델이 키워드 검색을 통한 정보 제공으로 사용자와의 상호작용은 없지만, 생성형 AI 모델은 사용자 친화적인 상호작용을 통해 질문을 이해하고 대답하는 방식이다. 나아가 생성형 AI는 범용인공지능((Artigicial General Intelligence, AGI)으로 발전하고 있다. 이는 인간처럼 종합적으로 사고·학습· 추론하는 인공지능으로 텍스트 이해·생성, 자연어처리, 이미지 분류, 예측, 추론 등 다양한 태스크를 동시에 처리하는 인공지능이다.
생성형 AI의 발전 속도가 빠르다는 것과 생성형 AI의 성능과 인류에 대한 영향이 지대하는 것에 대해서 공감대가 이루어지고 있다. 이에 생성형 AI에 대한 법규제에 대한 관심도 증가하고 있다. 이는 기본적으로 생성형 AI가 인간을 자율성, 독립성을 침해할 가능성이 있다는 점에 대한 기존 법률의 관심이다. 즉, 인간을 권리주체로 보고 구축된 기존의 법체계에 어떤 변화가 필요한 지에 대한 관심이다. 또한 생성형 AI가 야기하는 문제점이나 부작용에 대한 법규제 이슈가 등장하고 있다.
가장 큰 문제는 생성형 AI의 결과물의 진실성의 문제, 즉 소위 환각(hallucination) 이슈이다. 이는 생성형 AI가 사실과는 다른 정보를 생성하거나 관련성이 없는 답변을 하는 것을 말한다. 이는 생성형 AI의 특성인 대규모 언어 모델(Large Language Model)에서 발생하는 것인데, 통계적으로 확률이 높은 단어를 연쇄적으로 생성해가는 작동원리가 그 원인이 된다. 이에 따라 생성형 AI의 결과물에는 오정보(misinformation)와 역정보(disinformation)가 다수 발견되며, 이용자가 이를 그대로 수용하는 경우 막대한 피해가 생길 수 있다.
둘째, 생성형 AI가 데이터를 학습하는 과정에서 저작권과 개인정보를 침해할 가능성이다. 생성형 AI는 웹 스크랩핑, 오픈소스 저장소 마이닝 등을 통해 얻은 데이터로 언어모델을 훈련시켜 작동하는데, 이 데이터에 저작권이 설정된 데이터나 개인정보가 포함될 수 있다. 저작권이 없더라도 생성형 AI가 저작물을 학습용 데이터로 이용할 수 있는지, 공개된 개인정보의 경우 정보주체의 동의 없이도 이용 가능한 것인지가 쟁점이다.
셋째, 고용과 교육에 미칠 영향이다. 글로벌 투자은행(IB)인 골드만삭스는 최근 보고서에서 생성형 AI 발달로 미국과 EU의 일자리의 4분의 1이 자동화할 것으로 봤다. 업종별로 보면 사무·행정 지원 근로자(46%), 법률(44%), 건축·공학(37%), 생명·사회과학(36%), 경영·금융(35%), 사회 서비스(33%), 관리(32%), 판매(31%) 순으로 나타났는데, 상위권은 대부분 화이트칼라 업종이 차지했다. 한편 미국 스탠포드대 인간중심 인공지능연구소((Human-Centered AI Institute)는 다양한 분야에서 생성형 AI가 미칠 영향을 분석한 보고서를 발표했는데, 교육 문제에 대해 ‘진행 중인 재앙(disaster in the making)’이라는 표현을 사용해 다른 분야 대비 매우 비관적인 전망을 했다. 새로운 자동 작성 도구로서 AI 활용은 전문적인 환경에서는 성과를 향상시킬 수 있으나 교육 환경 등 특별한 고려 사항이 없는 곳에서는 창의력을 잠식할 수 있다는 것에 대해 큰 우려를 표시했다.
넷째, 생성형 AI를 오남용하는 문제이다. 우선 사이버 공격에 생성형 AI를 이용하는 경우이다. 누구나 쉽게 사이버 공격을 위해 생성형 AI를 이용해 다양한 악성소프트웨어를 만들 수 있다. 또 사용자가 영업비밀 또는 개인정보를 생성형 AI에 입력하면 이들이 유출될 우려가 있다. 이미 일부 기업은 이미 생성형 AI 사용 시 영업비밀이나 개인정보를 입력하지 말도록 가이드를 만들어 시행하고 있다.
이런 이슈들에 대해, 규제받지 않는 AI는 인류에게 위협이 될 것이기 때문에 통제할 수 없는 상황이 오기 전에 미리 규제 논의를 서둘러야 한다는 입장과 이는 과도한 우려에 불과하며 AI 개발을 진행하면서 부작용을 최소화하려는 것으로 충분하다는 입장이 대립하고 있다.
전자의 입장에서 EU, 미국, 한국 등은 AI 규제 입법을 시도하고 있다. 대부분 고위험 AI에 대해 사전 고지, 영향평가, 신뢰성과 안전성 조치의무 등 사전적 규제를 포함하고 있는 것이 특징이다. 다만, 제기된 이슈들은 이미 플랫폼, 데이터 경제 시대에도 존재하던 것으로 사전적, 사후적 정책적 대응이 필요한 것이지 반드시 사전적 규제가 필요하다고 보기는 어려운 것들이다. 아직 EU를 제외하면 플랫폼에 대해서도 규제입법이 가시화되지 않고 있다.
오히려 기술 진보를 사전적으로 예측하고 선제적으로 법제를 도입하는 것은 자칫하면 현실적 집행이 곤란한 규제를 양산할 수 있으며, 기술 혁신으로 인한 편익을 저해할 수도 있다. 사전 규제, 사후 규제, 정부 규제, 자율규제 등 다양한 규제방식 중에서 기술 진보에 유용하게 대응하면서 사회적 위험을 최소화할 수 있는 유연하고 탄력적인 방식을 채택할 필요가 있다.
스탠포드 연구소의 의견대로 생성 AI 모델이 산업과 사회, 우리 삶에 미치는 영향은 매우 클 것이다. 한편으로는 인간의 노동력을 보완하여, 우리 삶이 더 생산적이고 창의적일 수 있도록 할 것이나, 다른 한편으로는 우리의 편견을 강화시키거나, 정보에 대한 신뢰를 떨어뜨릴 수 있다. 결국 기술의 양면성은 보편적인 것이며 어떻게 기술을 인간에 유용하게 사용할 것이냐가 중요한 것이다. AI가 인간을 대체하는 것에 대해서도 적절한 대응이 필요하지만, AI를 이용하지 않는 자가 이용하는 자에 의해 대체될 가능성에 대해서도 유의해야 할 것이다.
본서는 이러한 문제의식하에 AI가 우리 사회에 미칠 다양한 영향 중에서 규제가 필요한 분야를 10가지로 나누어 설명하고 있다. 제1장 AI 윤리와 법, 제2장 AI 규제의 원칙은 본서 전체 논의를 위한 서론에 해당하는 것으로 제1장에서는 법과 윤리의 의미와 양자의 관계, 인공지능에 대해 윤리적 규제에서 법적 규제로 변화 요인을 설명한다. 제2장에서는 AI 특히 생성형 AI에 대한 규제 시 고려해야 할 원칙으로 원칙중심 규제, 위험기반 규제, 비례적 규제에 대해 설명한다.
제3장과 AI와 저작권, 제4장 AI와 개인정보는 생성형 AI의 데이터 학습시 권리 분쟁에 대해 다룬다. 생성형 AI 모델에서 데이터의 이용 권리 분쟁 이슈는 주로 학습대상 데이터에 저작권이 설정된 경우와 학습대상 데이터가 개인정보인 경우에 발생한다. 원칙적으로는 두 경우 각각 저작권자와 정보주체의 사용허락을 받아야만 적법한 사용이 되지만, 이를 그대로 적용하는 경우 AI 개발이나 서비스 제공이 불가능하므로 이에 관한 예외를 인정하기 위한 논의가 진행 중이다.
제5장 AI의 권리주체성 이슈는 사람이 아닌 AI에게도 AI가 만든 창작물이나 발명에서 대해 저작권이나 특허권을 인정할 수 있느냐는 논쟁에 관한 것이다. 제6장 알고리즘 규제 이슈이다. 알고리즘이란 어떤 문제를 해결하기 위한 절차, 방법, 명령어들의 집합으로 본질은 조직의 의사결정을 위한 판단 메커니즘이므로, 원칙적으로 기업이 자신의 상품, 서비스에 대해 어떤 의사결정을 할지는 원칙적으로 해당 기업의 자율에 따르지만, 우리의 일상생활을 지배하는 플랫폼의 알고리즘에 대해 투명성, 공정성을 요구하는 주장이나 규제집행이 이루어지고 있는바 이에 대한 타당성과 향후 방향에 대해 논의한다.
제7장은 EU의 AI 규제법 등 주요국의 AI 규제에 관한 내용이다. 세계 최초의 포괄적 AI 규제법을 시행 중이 EU를 비롯해 중국, 미국의 규제 동향을 분석하고 한국에서의 입법 진행상황과 시사점을 살펴본다. 제8장 AI와 사이버보안에서는 AI 기술과 사이버보안의 관계를 첫째는 AI 기술을 이용해 사이버보안을 강화하는 측면이며(Security by AI), 둘째는 AI 기술이 사이버 공격에 이용되는 경우이다(Cyber attack by AI)로 나누어 살펴본다.
제9장 AI와 리걸테크에서는 법률과 기술이 결합한 새로운 법률 서비스인 리걸테크가 AI와 만나면서 한 단계 발전하고 있는 양상과 이미 미국, 독일, 일본 등 주요국은 리걸테크 지원을 위한 법제도를 소개하고 한국에서 리걸테크와 법률AI의 발전방안에 대해 논의한다. 제10장 AI와 허위정보에서는 인공지능 기술 등을 통하여 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상(딥페이크 영상 등), 즉 허위정보가 만연하면서 생기는 문제와 이에 대한 해결방안에 대해 논의한다.
결국 현재 우리에게 주어진 과제는 AI 기술발전을 촉진하면서도 AI로 인한 역기능을 방지하려는 노력이라고 할 수 있다. 역기능을 방지하기 위해선 다양한 규제 노력도 필요하지만 종국적으로 소비자 리터러시(literacy) 문제를 해결할 수 있는 이용자 보호 시스템도 중요하다고 할 것이다. 결론적으로 AI 기술이 인류에게 편익을 가져다주기 위해서는 적정한 규제를 통해 통제가능하고 신뢰가능한 AI를 개발하고 운용하도록 해야 할 것이다.
본서는 그동안 필자가 여러 매체에 기고한 칼럼, 학술 논문 등을 토대로 작성되었으며, 최근의 상황변화를 반영해 업데이트한 것이다. 아무쪼록 본서가 데이터, AI 경제를 선도하는 한국의 관련 학계, 법조계, 기업, 정부는 물론 국민에게 AI 규제법 이슈에 대한 나침반이 될 수 있기 바란다.
출처: https://www.unipress.co.kr/news/articleView.html?idxno=11301
신뢰할 수 있는 AI 구현을 위한 규제의 필요성
■ 저자가 말하다_ 『AI 규제법』 (이성엽 지음, 커뮤니케이션북스, 123쪽, 2024.08)
마치 살아있는 생명 같은 느낌을 주는 기계, 더 나아가 인간의 사고능력 즉, 인지, 추론, 학습 등을 모방하는 기술을 인공지능(AI, artificial intelligence) 기술이라고 한다. 즉, 인간의 학습 능력과 추론 능력, 지각 능력, 자연언어의 이해 능력 등을 컴퓨터 프로그램으로 실현한 기술로 활용가능한 데이터만 충분히 있다면 그동안 인간이 수행해 왔던 계산 기반의 지적 작업을 인간보다 더욱 빠르고 정확하게 대신할 수 있어 경제적으로 뛰어난 가치를 가지고 있다.
이런 AI 기술이 로봇기술, 빅데이터 기술, 클라우드, IoT 기술과 결합되면서 지능정보사회로의 변화를 견인하고 있다. 컴퓨터와 인터넷 혁명으로 대표되는 정보사회와는 달리 지능정보사회에서는 판단의 주체가 점차 인간에서 기계로 바뀌어 기계가 자율적인 처리, 제어, 예측을 할 수 있는 사회이다. 산업혁명에서 기계가 인간의 육체노동을 대체했다면 지능정보사회에서는 기계가 인간의 정신노동을 대체하게 된다.
점점 AI 기술이 발전하는 가운데 2022년 12월 1일 미국 스타트업 ‘Open AI’가 출시한 ChatGPT(Chat Generative Pre-Trained Transformer)가 글로벌 IT 생태계에 충격을 주고 있다. 챗GPT는 사람의 언어를 이해하는 것은 물론 사람의 질문에 꼭 맞는 유용한 답을 하는 대화형 생성 AI로 일반 대중에게 AI의 일상화라는 경험을 제공하고 있다.
생성형 AI인 대표인 ChatGPT는 문장을 생성(Generative)하는 AI 모델로서 사전학습(Pre-trained)을 통해 훈련을 받았으며, 트랜스포머(Transformer)라는 구조에 기반한 인공지능 언어모델이다. 생성이란 문장을 사람처럼 만들어낸다는 것이고, 사전학습이란 많은 데이터를 사전에 습득했다는 것이며, 트랜스포머란 단어 간 연관성 파악이 가능한 혁신적인 심층신경망이라는 것이다. 결론적으로 생성형 AI란 대규모 데이터의 패턴을 자기지도 학습하여 명령어(Prompt)에 따라 새로운 텍스트, 코드, 이미지, 음악, 영상 등의 콘텐츠를 생성하는 인공지능으로 정의할 수 있다. 패턴을 인식하고 예측하도록 설계된 기존 AI 시스템과 달리 생성 AI는 이미지, 텍스트, 오디오 등의 형태로 새로운 콘텐츠를 생성한다.
생성형 AI 모델의 특성은 다음 몇 가지로 제시할 수 있다. 첫째. 대규모 언어모델(Large Language Model)이라는 점이다. 우선 언어모델은 문장 생성을 위해 단어의 순서에 다음에 올 수 있는 확률을 할당하는 모델로, 기존 통계적 방법에서 인공신경망 방법으로 발전했다. 둘째, 콘텐츠를 창조한다는 것이다. 기존의 AI는 이용자의 특정 요구에 따라 결과를 생성한다. 즉, AI의 역할은 데이터 분석, 활용 등 인간의 행위를 대체하거나 보완하는데 그친다. 생성형 AI는 자기 학습 알고리즘으로 새로운 디지털 이미지, 영상, 음성, 텍스트, 프로그램 코드 등을 ‘창조’한다. 기존 검색엔진과 달리 생성형 AI는 사용자 질문에 대해 새로운 정보를 생성하는 기능이 있다. 셋째, 기존 검색모델과의 차별성이다. 검색모델이 키워드 검색을 통해 정보를 제공하지만, 생성형 AI는 인공지능 기술인 언어 모델링을 사용하여 사용자 질문에 대한 답변을 생성하며, 검색모델이 키워드 검색을 통한 정보 제공으로 사용자와의 상호작용은 없지만, 생성형 AI 모델은 사용자 친화적인 상호작용을 통해 질문을 이해하고 대답하는 방식이다. 나아가 생성형 AI는 범용인공지능((Artigicial General Intelligence, AGI)으로 발전하고 있다. 이는 인간처럼 종합적으로 사고·학습· 추론하는 인공지능으로 텍스트 이해·생성, 자연어처리, 이미지 분류, 예측, 추론 등 다양한 태스크를 동시에 처리하는 인공지능이다.
생성형 AI의 발전 속도가 빠르다는 것과 생성형 AI의 성능과 인류에 대한 영향이 지대하는 것에 대해서 공감대가 이루어지고 있다. 이에 생성형 AI에 대한 법규제에 대한 관심도 증가하고 있다. 이는 기본적으로 생성형 AI가 인간을 자율성, 독립성을 침해할 가능성이 있다는 점에 대한 기존 법률의 관심이다. 즉, 인간을 권리주체로 보고 구축된 기존의 법체계에 어떤 변화가 필요한 지에 대한 관심이다. 또한 생성형 AI가 야기하는 문제점이나 부작용에 대한 법규제 이슈가 등장하고 있다.
가장 큰 문제는 생성형 AI의 결과물의 진실성의 문제, 즉 소위 환각(hallucination) 이슈이다. 이는 생성형 AI가 사실과는 다른 정보를 생성하거나 관련성이 없는 답변을 하는 것을 말한다. 이는 생성형 AI의 특성인 대규모 언어 모델(Large Language Model)에서 발생하는 것인데, 통계적으로 확률이 높은 단어를 연쇄적으로 생성해가는 작동원리가 그 원인이 된다. 이에 따라 생성형 AI의 결과물에는 오정보(misinformation)와 역정보(disinformation)가 다수 발견되며, 이용자가 이를 그대로 수용하는 경우 막대한 피해가 생길 수 있다.
둘째, 생성형 AI가 데이터를 학습하는 과정에서 저작권과 개인정보를 침해할 가능성이다. 생성형 AI는 웹 스크랩핑, 오픈소스 저장소 마이닝 등을 통해 얻은 데이터로 언어모델을 훈련시켜 작동하는데, 이 데이터에 저작권이 설정된 데이터나 개인정보가 포함될 수 있다. 저작권이 없더라도 생성형 AI가 저작물을 학습용 데이터로 이용할 수 있는지, 공개된 개인정보의 경우 정보주체의 동의 없이도 이용 가능한 것인지가 쟁점이다.
셋째, 고용과 교육에 미칠 영향이다. 글로벌 투자은행(IB)인 골드만삭스는 최근 보고서에서 생성형 AI 발달로 미국과 EU의 일자리의 4분의 1이 자동화할 것으로 봤다. 업종별로 보면 사무·행정 지원 근로자(46%), 법률(44%), 건축·공학(37%), 생명·사회과학(36%), 경영·금융(35%), 사회 서비스(33%), 관리(32%), 판매(31%) 순으로 나타났는데, 상위권은 대부분 화이트칼라 업종이 차지했다. 한편 미국 스탠포드대 인간중심 인공지능연구소((Human-Centered AI Institute)는 다양한 분야에서 생성형 AI가 미칠 영향을 분석한 보고서를 발표했는데, 교육 문제에 대해 ‘진행 중인 재앙(disaster in the making)’이라는 표현을 사용해 다른 분야 대비 매우 비관적인 전망을 했다. 새로운 자동 작성 도구로서 AI 활용은 전문적인 환경에서는 성과를 향상시킬 수 있으나 교육 환경 등 특별한 고려 사항이 없는 곳에서는 창의력을 잠식할 수 있다는 것에 대해 큰 우려를 표시했다.
넷째, 생성형 AI를 오남용하는 문제이다. 우선 사이버 공격에 생성형 AI를 이용하는 경우이다. 누구나 쉽게 사이버 공격을 위해 생성형 AI를 이용해 다양한 악성소프트웨어를 만들 수 있다. 또 사용자가 영업비밀 또는 개인정보를 생성형 AI에 입력하면 이들이 유출될 우려가 있다. 이미 일부 기업은 이미 생성형 AI 사용 시 영업비밀이나 개인정보를 입력하지 말도록 가이드를 만들어 시행하고 있다.
이런 이슈들에 대해, 규제받지 않는 AI는 인류에게 위협이 될 것이기 때문에 통제할 수 없는 상황이 오기 전에 미리 규제 논의를 서둘러야 한다는 입장과 이는 과도한 우려에 불과하며 AI 개발을 진행하면서 부작용을 최소화하려는 것으로 충분하다는 입장이 대립하고 있다.
전자의 입장에서 EU, 미국, 한국 등은 AI 규제 입법을 시도하고 있다. 대부분 고위험 AI에 대해 사전 고지, 영향평가, 신뢰성과 안전성 조치의무 등 사전적 규제를 포함하고 있는 것이 특징이다. 다만, 제기된 이슈들은 이미 플랫폼, 데이터 경제 시대에도 존재하던 것으로 사전적, 사후적 정책적 대응이 필요한 것이지 반드시 사전적 규제가 필요하다고 보기는 어려운 것들이다. 아직 EU를 제외하면 플랫폼에 대해서도 규제입법이 가시화되지 않고 있다.
오히려 기술 진보를 사전적으로 예측하고 선제적으로 법제를 도입하는 것은 자칫하면 현실적 집행이 곤란한 규제를 양산할 수 있으며, 기술 혁신으로 인한 편익을 저해할 수도 있다. 사전 규제, 사후 규제, 정부 규제, 자율규제 등 다양한 규제방식 중에서 기술 진보에 유용하게 대응하면서 사회적 위험을 최소화할 수 있는 유연하고 탄력적인 방식을 채택할 필요가 있다.
스탠포드 연구소의 의견대로 생성 AI 모델이 산업과 사회, 우리 삶에 미치는 영향은 매우 클 것이다. 한편으로는 인간의 노동력을 보완하여, 우리 삶이 더 생산적이고 창의적일 수 있도록 할 것이나, 다른 한편으로는 우리의 편견을 강화시키거나, 정보에 대한 신뢰를 떨어뜨릴 수 있다. 결국 기술의 양면성은 보편적인 것이며 어떻게 기술을 인간에 유용하게 사용할 것이냐가 중요한 것이다. AI가 인간을 대체하는 것에 대해서도 적절한 대응이 필요하지만, AI를 이용하지 않는 자가 이용하는 자에 의해 대체될 가능성에 대해서도 유의해야 할 것이다.
본서는 이러한 문제의식하에 AI가 우리 사회에 미칠 다양한 영향 중에서 규제가 필요한 분야를 10가지로 나누어 설명하고 있다. 제1장 AI 윤리와 법, 제2장 AI 규제의 원칙은 본서 전체 논의를 위한 서론에 해당하는 것으로 제1장에서는 법과 윤리의 의미와 양자의 관계, 인공지능에 대해 윤리적 규제에서 법적 규제로 변화 요인을 설명한다. 제2장에서는 AI 특히 생성형 AI에 대한 규제 시 고려해야 할 원칙으로 원칙중심 규제, 위험기반 규제, 비례적 규제에 대해 설명한다.
제3장과 AI와 저작권, 제4장 AI와 개인정보는 생성형 AI의 데이터 학습시 권리 분쟁에 대해 다룬다. 생성형 AI 모델에서 데이터의 이용 권리 분쟁 이슈는 주로 학습대상 데이터에 저작권이 설정된 경우와 학습대상 데이터가 개인정보인 경우에 발생한다. 원칙적으로는 두 경우 각각 저작권자와 정보주체의 사용허락을 받아야만 적법한 사용이 되지만, 이를 그대로 적용하는 경우 AI 개발이나 서비스 제공이 불가능하므로 이에 관한 예외를 인정하기 위한 논의가 진행 중이다.
제5장 AI의 권리주체성 이슈는 사람이 아닌 AI에게도 AI가 만든 창작물이나 발명에서 대해 저작권이나 특허권을 인정할 수 있느냐는 논쟁에 관한 것이다. 제6장 알고리즘 규제 이슈이다. 알고리즘이란 어떤 문제를 해결하기 위한 절차, 방법, 명령어들의 집합으로 본질은 조직의 의사결정을 위한 판단 메커니즘이므로, 원칙적으로 기업이 자신의 상품, 서비스에 대해 어떤 의사결정을 할지는 원칙적으로 해당 기업의 자율에 따르지만, 우리의 일상생활을 지배하는 플랫폼의 알고리즘에 대해 투명성, 공정성을 요구하는 주장이나 규제집행이 이루어지고 있는바 이에 대한 타당성과 향후 방향에 대해 논의한다.
제7장은 EU의 AI 규제법 등 주요국의 AI 규제에 관한 내용이다. 세계 최초의 포괄적 AI 규제법을 시행 중이 EU를 비롯해 중국, 미국의 규제 동향을 분석하고 한국에서의 입법 진행상황과 시사점을 살펴본다. 제8장 AI와 사이버보안에서는 AI 기술과 사이버보안의 관계를 첫째는 AI 기술을 이용해 사이버보안을 강화하는 측면이며(Security by AI), 둘째는 AI 기술이 사이버 공격에 이용되는 경우이다(Cyber attack by AI)로 나누어 살펴본다.
제9장 AI와 리걸테크에서는 법률과 기술이 결합한 새로운 법률 서비스인 리걸테크가 AI와 만나면서 한 단계 발전하고 있는 양상과 이미 미국, 독일, 일본 등 주요국은 리걸테크 지원을 위한 법제도를 소개하고 한국에서 리걸테크와 법률AI의 발전방안에 대해 논의한다. 제10장 AI와 허위정보에서는 인공지능 기술 등을 통하여 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상(딥페이크 영상 등), 즉 허위정보가 만연하면서 생기는 문제와 이에 대한 해결방안에 대해 논의한다.
결국 현재 우리에게 주어진 과제는 AI 기술발전을 촉진하면서도 AI로 인한 역기능을 방지하려는 노력이라고 할 수 있다. 역기능을 방지하기 위해선 다양한 규제 노력도 필요하지만 종국적으로 소비자 리터러시(literacy) 문제를 해결할 수 있는 이용자 보호 시스템도 중요하다고 할 것이다. 결론적으로 AI 기술이 인류에게 편익을 가져다주기 위해서는 적정한 규제를 통해 통제가능하고 신뢰가능한 AI를 개발하고 운용하도록 해야 할 것이다.
본서는 그동안 필자가 여러 매체에 기고한 칼럼, 학술 논문 등을 토대로 작성되었으며, 최근의 상황변화를 반영해 업데이트한 것이다. 아무쪼록 본서가 데이터, AI 경제를 선도하는 한국의 관련 학계, 법조계, 기업, 정부는 물론 국민에게 AI 규제법 이슈에 대한 나침반이 될 수 있기 바란다.
출처: https://www.unipress.co.kr/news/articleView.html?idxno=11301