2024.10.27
[기획 브리핑] 글로벌 AI 규제 동향으로 살펴보는 오픈소스 모델의 역할과 도전과제
- Open UP -
AI 기술 발전에 따라 여러 사회적 문제와 인간의 통제를 벗어난 위험 상황 초래 등의 문제도 대두되면서 AI의 오용과 위험을 최소화시키기 위해 주요 국가들은 AI 규제법을 도입 또는 도입 검토 중
세계 최초의 포괄적인 AI 법률 EU의 AI 법은 오픈소스 라이선스에 따라 공개된 모델은 모든 의무에서 면제하는 예외 규정이 있음
이 예외는 ‘허용할 수 없는 위험’이 있는 AI와 ‘체계적 위험(systemic risks)’이 있는 범용 AI 모델과 상업적인 목적으로 수익화된 오픈소스 AI 모델은 적용되지 않음
미국 캘리포니아에서 주정부 차원의 AI 안전법(SB-1047)을 추진하였으나 최종적으로 주지사의 거부권 행사로 법안 폐기
오픈소스 오리지널 모델과 그 파생 모델(오픈소스 모델을 미세 조정하는 데 1천만 달러 미만의 비용이 든 모델)의 경우 원 개발사에게 책임을 묻는 조항이 있어 오픈소스 위주로 AI를 취급하는 업계와 학계가 강력 반발하였음
AI 기술, 멀티모달 모델로 확장되며 오픈소스 AI 모델을 통해 기술 혁신 가속화
AI 기술은 단순한 텍스트 대화를 넘어 이미지·영상·음성 분석 및 생성 가능한 멀티모달 모델로 확장하고 있으며 누구나 접근하고 활용 가능한 오픈소스 AI 모델에 의해 가파르게 성장 중
향후 5년 내에 큰 영향을 미칠 잠재력이 있는 기술에 ‘멀티모달 생성형 AI’와 ‘오픈소스 LLM’을 선정(‘24, Gatner)
가트너는 오픈소스 LLM이 상업적 접근을 민주화하고 개발자가 특정 작업 및 사례에 맞게 모델을 최적화할 수 있도록 하며, 기업, 학계 및 기타 연구 역할의 개발자 커뮤니티에에서 가치 향상을 위한 공통 목표를 향해 모델 개선 가능한 액세스를 제공한다고 설명
오픈소스는 AI 알고리즘 및 데이터셋에 대한 접근을 민주화함으로써 각 국가별 자국의 문화 및 언어가 담긴 AI 시스템 구축 가능하게 함
오픈소스 생태계가 활발하면 AI의 투명성도 늘어나고 AI의 기술도 발전하여 개발자들이 AI에 기여하고 개선하며 비판할 수 있는 기회 제공
다양한 이점들에도 AI의 기술 발전과 함께 개인정보 유출, 차별과 편견, 일자리 감소, 딥페이크와 같은 악용 사례, 인간 통제의 한계를 넘는 위험한 상황 등 다양한 사회적 문제가 대두되고 있음
최근 딥페이크 범죄 등이 문제가 되고 있는 상황임
AI 기술을 개발하고 활용하는 과정에서 이러한 문제를 해결하기 위한 가이드라인이 필요하다는 의견 대두
AI 기술의 급격한 발전으로 인해 규제의 필요성이 증가함에 따라 EU AI법 등 주요 국가들 AI 규제안 마련
1) 유럽연합(EU)
EU는 시민의 기본적 권리 보호와 유럽 사회의 안전 확보를 목표로 하는 세계 최초의 포괄적인 AI 법률 ‘AI Act’ 발표(‘24.07.12)
AI법은 ‘21년 4월 21일에 유럽위원회에서 제안, ’24년 3월 유럽의회 통과, 5월 EU 이사회 승인, 7월 AI 법률로 공식 발표
EU AI 법은 지침이 아닌 규정으로, 개별 국가의 법률과 상관없이 회원국에 직접 효력이 발생
이 법은 ’24년 8월 1일에 발효되었으며, 각 조항별로 '허용할 수 없는 위험'을 초래하는 AI 시스템 전면 금지 시행(‘25.02), AI법 실무 강령도입(‘25.05), 범용 AI (GPAI, General-Purpose AI models)에 대한 규칙 발효(’25.08), AI 시스템을 위한 AI법률 시행(’26.08) 등 단계적으로 시행되어 ’27년 8월 AI법 전면 시행 예정
EU AI 법은 고위험 AI 시스템의 기술 문서 공개, 데이터 세트 투명성, 정기적인 모니터링, 감사 관련 요구사항 준수 등을 요구
사용 사례나 위험 수준에 관계없이 모든 AI 시스템에 적용되는 의무 사항
AI 시스템 제공자는 EU 데이터베이스에 해당 시스템을 등록
인간과 직접 상호 작용하는 AI 시스템은 사용자가 AI 시스템과 상호 작용한다는 사실을 인지할 수 있도록 설계하고 개발
AI 시스템 제공자는 합성 콘텐츠를 생성하는 AI 시스템의 결과물이 기계 판독 가능 형식으로 합성 콘텐츠임이 표시
(AI 분류) 다음과 같이 4가지 위험과 범용 AI로 정의
| AI 분류 | 정 의 |
|---|---|
| 허용할 수 없는 위험 |
|
| 고위험 |
|
| 제한적 위험 |
|
| 저위험 |
|
| 범용 AI 시스템 |
|
(적용) EU 시장에서 사용하는 AI 시스템을 공개하는 모든 기업(개발/배포/ 공급/사용/수입/유통 업체 등)은 반드시 규정을 준수해야 함
(위반 처벌) 이 법을 위반할 경우 불이행의 심각도에 따라 벌금으로 부과되며 최대 전 세계 매출의 7%까지 벌금으로 부과 받을 수 있음
EU AI법은 오픈소스 예외 규정을 두고 있으며 이는 개방성과 투명성을 지닌 오픈소스 모델의 규제를 유연하게 적용함으로써 오픈소스를 통한 AI 혁신을 촉진할 수 있는 창구를 열어두어 EU 내 AI 산업의 경쟁력을 유지하려는 의도를 반영
프랑스와 독일 등 범용 인공지능(GPAI) 규제를 반대했던 국가들은 주요 기업이 오픈소스 모델을 개발하고 있음
EU AI법 내 오픈소스AI는 오픈소스 라이선스(free and open source licence) 하에 공개되고 사용자들이 자유롭게 접근, 사용, 수정 및 수정된 버전이 재배포 가능한 소프트웨어와 데이터(모델 포함)로 정의
오픈소스 라이선스 하에 공개된 범용 AI 모델은 그 파라미터(가중치 포함), 모델 아키텍처에 대한 정보, 모델 사용에 대한 정보가 공개된다면 높은 수준의 투명성과 개방성을 보장하는 것으로 간주함
사용자가 소프트웨어와 데이터를 실행, 복사, 배포, 연구, 변경 및 개선할 수 있도록 허용하는 라이선스 경우에도 오픈소스로 간주함
오픈소스 AI 구성 요소(AI 시스템의 소프트웨어와 데이터, 모델, 도구, 서비스, 프로세스 포함)는 오픈 저장소 개발을 포함한 다양한 채널을 통해 제공
또한, 오픈소스 라이선스에 따라 공개된 모델은 모든 의무에서 면제한다는 오픈소스 예외 규정 명시
이러한 예외는 허용할 수 없는 위험이 있는 AI시스템(제5조)과 "체계적 위험(systemic risks)"이 있는 범용 AI 모델(제51조)에는 적용되지 않음
이 법규의 목적상 상업적인 목적으로 수익화된 오픈소스 AI 모델은 규제 대상으로 제공되는 오픈소스 예외의 혜택을 받을 수 없음(103항)
적절한 기술 도구와 방법론, 지표 및 벤치마크를 포함하여 평가된 "높은 영향력이 있는 능력(high impact capabilities)"을 갖춘 범용 AI 모델을 출시하는 경우는 오픈소스인지 여부와 관계없이 규정을 준수해야 함
이러한 EU AI법의 '오픈소스'로 간주되는 것에 대한 정의의 복잡성과 모호함이 오픈소스 운동의 기본 원칙과 일치하지 않는 제한을 부과할 수 있어 혁신을 저해할 수 있다는 주장도 있음
메타(Meta)는 EU의 AI 규정이 오픈소스 AI에 방해되어 AI 업계의 혁신과 발전을 저해한다고 발표
메타와 스포티파이(Spotify)의 CEO는 EU의 AI 관련 규정에 관한 공동 성명을 통해 유럽의 혁신과 경쟁력, 특히 오픈소스 AI에 방해가 될 수 있다고 주장
오픈소스 AI가 AI에 대한 접근을 민주화하고 소규모 기업과 개발자가 저렴한 비용으로 최신 기술의 혜택을 누릴 수 있도록 하는 데 필수적이라고 강조하며,
두 회사 모두 불분명하고 복잡한 규칙에 기반을 두고 있는 규정과 이를 준수하는 방법에 대해 일관되지 않은 지침으로 인해 개발자의 불확실성이 커지고 기술 발전을 방해할 수 있다고 주장
메타는 유럽에서 멀티모달 기반 3세대 오픈소스 AI 모델인 '라마3'를 출시 예정이었으나 범용AI에 대한 EU의 강도 높은 규제로 출시 보류
메타는 AI 모델을 무료로 배포하는 오픈소스 전략으로 인해, 사용 기업이 학습한 데이터를 파악하기 어려워 EU 규제를 충족하기 힘든 상황
메타의 AI 기술을 활용하고자 한 스포티파이와 같은 회사도 이를 활용한 제품 업데이트를 할 수 없게 됨
2) 미국
미국은 EU AI법과 같이 연방정부 차원의 통합된 AI 규제법은 제정하지 않았으나 안전하고 신뢰할 수 있는 인공지능 개발 및 사용 행정명령 제14110호(Executive Order 14110: Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence) 발표(’23.10)
이 행정 명령은 8가지 지침 원칙과 우선순위를 제시하고, 이러한 원칙과 우선순위를 어떻게 시행해야 하는지, 보고 요구 사항을 자세히 설명
미국 NIST(국립표준기술원)는 인공지능 위험 관리 프레임워크: 생성 인공지능 프로필(NIST-AI-600-1)을 출시(’24.07)
바이든 대통령의 행정명령을 뒷받침하는 리소스로 AI 개발자와 사이버 보안 전문가를 위한 가이드임
캘리포니아 주는 AI가 오용될 가능성을 감소시키는 역할을 위해 주 정부 차원의 AI 안전 법안(SB-1047, Safe and Secure Innovation for Frontier Artificial Intelligence Models Act.)을 마련(’24.09)하여 추진하였으나, 주지사의 거부권 행사로 최종적으로 폐기
이 법안은 올해 2월 발의 직후부터 많은 사회적 관심을 받았고, 몇 차례 수정을 거쳐 지난 8월 주 상·하원을 압도적 찬성으로 캘리포니아주 의회 통과(‘24.08.28)
뉴섬 캘리포니아 주지사가 동의 서명하면 공식 발효될 예정이었으나 최종적으로 주지사는 9월 29일 거부권을 행사하여 폐기되었음
SB-1047 법안은 첨단 AI 모델을 개발하는 기업, 특히 개발 비용이 1억 달러 이상(약 1천376억원)이거나 상당한 컴퓨팅 파워를 사용하는 기업이 판매 전 중대한 위험에 대한 테스트를 반드시 거치도록 의무화
AI 개발사는 모델 훈련 과정서 발생할 수 있는 위험을 사전에 평가, 필요 시 신속하게 모델을 중단하는 '킬 스위치' 기능을 명시 필요
5억 달러(약 6천 890억원) 넘는 피해 발생 가능성이 있는 사이버 보안 공격 시행 또는 생물학·핵무기를 개발할 수 있는 능력의 AI 모델 개발 금지
오픈소스 관련된 규정으로 오픈소스 오리지널 모델과 그 파생 모델(오픈소스 모델을 미세 조정하는 데 1천만 달러 미만의 비용이 든 경우)의 경우, 원 개발사가 책임을 져야 한다고 명시
즉, 오픈소스 적용 모델을 미세 조정하는 데 1천만 달러 이상의 비용이 든 파생 모델의 개발사는 이 법의 적용 대상에 포함됨
캘리포니아 SB-1047 법안은 오픈소스 모델의 특성상 책임의 경계가 명확히 구분하기 어렵기 때문에 이 법안은 개발 비용과 모델의 활용 범위에 따라 책임을 나누고자 했으나 업계와 학계는 혁신을 저해할 수 있다는 우려를 표명
캘리포니아 SB-1047 법안에 대해 의견을 밝힌 전체 기술 기업 중 74% 이상이 반대 의사 제시
구글과 메타를 비롯한 주요 기업은 이 법안이 비우호적인 규제 환경을 조성하고 AI 발전을 저해할 수 있다고 우려하였으며, 오픈AI는 AI 법안이 혁신을 억압하고 기업들을 캘리포니아에서 떠나게 할 것이라고 주장
오픈소스 모델을 활용하여 AI를 취급하는 스타트업 업계와 학계 등 법안에 강력하게 반발하였으며, 일부 민주당 의원들도 이 법안이 공개적으로 사용가능한 코드에 의존하고 AI 기술 발전에 필수적인 것으로 간주되는 오픈소스 AI 모델을 위태롭게 할 수 있다고 우려
뉴섬 주지사는 SB 1047 법안 이외의 생성형 AI 기반 허위 정보, 가짜 음성, 딥페이크 등을 막기 위한 법안에는 서명, 발생 가능성 높은 위험에 우선 대비하는 행보를 보임
뉴섬 주지사는 SB 1047 법안에 대한 거부권 행사 이유로 이 법안이 고위험 환경, 중요한 의사 결정, 민감한 데이터 사용 여부를 고려하지 않았고 대규모 AI 모델에만 초점을 맞추어 소규모 특수 시스템은 제외함으로써, 대중에게 AI 기술 통제에 대한 잘못된 안도감을 줄 수 있다고 언급
앞서 미국 샌프란시스코에서 개최된 '드림포스 2024'에서 뉴섬 주지사는 SB 1047 법안에 대해 AI로부터 야기되는 모든 문제를 해결할 수 없다는 견해를 밝히며 "오히려 캘리포니아에서 급성장하는 AI 산업을 해치지 않으면서도 문제를 해결할 수 있는 유연한 법안에 더 관심 가질 것"이라고 강조한 바 있음
3) 영국
영국 정부는 5가지 핵심 원칙(안전/보안, 투명성, 공정성, 책임성, 이의제기 가능성 및 구제)에 따라 AI 규제를 위한 부처 간 협력을 통해 결과에 초점을 맞춘 프레임워크를 채택
원칙 기반의 AI 규제 접근 방식을 개략적으로 설명하는 백서를 발표(’23.03)하였으며 이에 대한 정부의 대응안을 공개(‘24.02.)
ICO(the Information Commissioner's Office), Ofcom, CMA(the Competition and Markets Authority), FCA(Financial Conduct Authority)와 같은 규제 기관은 각자의 영역에서 AI 적용에 대한 규제를 담당
2024~2025년까지 ChatGPT와 같은 진보된 AI 모델을 대상으로 하는 AI 법안을 준비중으로 정부 간의 기존 자발적 약속을 법적으로 구속력 있게 만들고 영국의 AI 안전 연구소를 중립적 정부 기관으로 전환하는 것을 목표로 함
4) 중국
포괄적인 AI 법률이 없지만 AI의 다양한 측면과 관련된 위험을 해결하기 위해 법적 효력이 있는 규정과 조치를 도입하며 AI 기술에 특화된 규정을 형성하는 데 가장 적극적으로 활동 중임
인터넷 정보 서비스에 대한 알고리즘 추천 관리 규정(’22.03), 인터넷 정보 서비스의 심층 합성 관리에 대한 규정(‘23.01), 생성 AI 서비스 관리를 위한 임시 조치(’23.08)
5) 일본
일본 정부는 모든 AI 관련 이해 관계자(AI 서비스 개발 기업, AI 서비스 제공자, 사용자 등 포함)를 대상으로 하는 ‘기업을 위한 AI 가이드라인’ 발표(’24.04)
AI 가이드라인에는 인간 중심, 안전성, 공정성, 개인정보보호, 보안, 투명성, 책임성, AI 문해력, 공정경쟁, 혁신 등 10가지 기본 원칙을 포함
일본과 동남아시아 국가 연합(ASEAN)은 AI 거버넌스에 대한 두 관할권 간의 보다 큰 협력에 대한 약속을 포함하는 공동 성명을 채택(’23.12)
6) 대만
대만은 AI를 관장하는 기본법, 즉 AI 기본법 초안을 발표(‘24.07), AI 연구 및 사용에 대한 7가지 기본 원칙을 제시, 대만 의회에서 검토될 것으로 예상
공고된 AI 기본법 초안에는 지속 가능한 개발과 웰빙, 인간의 자율성, 개인정보 보호 및 데이터 거버넌스, 보안 및 안전, 투명성 및 설명 가능성, 공정성과 차별금지, 책임성 7가지 기본원칙을 포함
AI의 개발 및 적용에서 프라이버시와 개인 데이터를 보호할 필요성을 강조
EU AI법 초안 및 2022년 미국 알고리즘 책임법 초안과 유사하게 위험 수준에 따라 AI를 규제할 것을 제안
시사점
각 국가들은 잠재적인 AI 관련 위험으로부터 대중을 보호하는 동시에 혁신과 사회 안전의 균형을 맞추고 AI가 오용될 가능성을 감소시키기 위해 AI 규제법을 도입 또는 도입 검토중
EU AI법의 오픈소스 예외 규정은 기술 혁신을 촉진하면서도 안전하고 책임 있는 AI 활용을 보장하려는 첫걸음으로, 규제와 혁신 간의 균형을 유지하기 위한 논의가 필요함을 시사
미국 캘리포니아의 SB-1047 법안은 오픈소스 모델에 대한 책임 소재를 명확히 규정하는 것이 현실적으로 가능한지에 대한 질문을 제기하며, 다양한 기여 환경 속에서의 책임 한계 설정에 대한 구체적 협의의 필요성 제기
AI 기술의 급격한 발전을 고려할 때, AI 기술기업들은 이러한 규제 조치에 반발하기보다는 향후 AI 개발과 기업의 경영 활동을 위해 개발 정책과 경영 전략의 재조정 등 대응 방안에 대한 검토가 필요
※ 참고 Reference
laying down harmonised rules on artificial intelligence and amending Regulations (Artificial Intelligence Act), EUR LEX Access to European Union law, 2024.07.13.,
https://eur-lex.europa.eu/eli/reg/2024/1689/
What is the European Union Artificial Intelligence Act?, nccgroup, 2024.08.22.,
https://www.nccgroup.com/sg/the-eu-ai-act-pioneering-the-future-of-ai-regulation/
EU AI Act Summary : Obligations and Exceptions for Businesses, winder.AI, 2024.08.07.,
https://winder.ai/eu-ai-act-summary-obligations-exceptions-businesses/
Mark Zuckerberg and Daniel Ek on Why Europe Should Embrace Open-Source AI, Meta, 2024.08.23.,
https://about.fb.com/news/2024/08/why-europe-should-embrace-open-source-ai-zuckerberg-ek/
Part 2 - AI regulation in the EU, RPC, 2024.10.04.,
https://www.rpclegal.com/thinking/artificial-intelligence/ai-guide/part-2-ai-regulation-in-the-eu/
Part 3 - AI regulation in the US, RPC, 2024.10.04.,
https://www.rpclegal.com/thinking/artificial-intelligence/ai-guide/part-3-ai-regulation-in-the-us/
Part 4 – AI Regulation in Asia, RPC, 2024.08.06.,
https://www.rpclegal.com/thinking/artificial-intelligence/ai-guide/part-4-ai-regulation-in-asia/
Overview of AI Regulatory Landscape in APAC, 2024.04.29.,
https://www.globalpolicywatch.com/2024/04/overview-of-ai-regulatory-landscape-in-apac/
China Releases New Draft Regulations on Generative AI, China Briefing, 2024.05.30.,
https://www.china-briefing.com/news/china-releases-new-draft-regulations-on-generative-ai/
EU “AI 생체인식 악용 기술, 허용될 수 없는 위험” 11월부터 규제, 동아일보, 2024.03.15.,
https://www.donga.com/news/article/all/20240314/123980879/1
유럽연합(EU) 통과한 세계 최초 ‘AI 규제법’이 불러올 4가지 변화, 모비스라이브, 2024.04.24.,
https://mobislive.com/service/mobilityview.html?page=1&id=1490&code=60&category=%EB%AA%A8%EB%B9%8C%EB%A6%AC%ED%8B%B0&subcategory=&series=
EU 규제에…메타도 새 AI 유럽 출시 포기, 매일경제, 2024.07.18.,
https://www.mk.co.kr/news/it/11070688
안전하고 신뢰할 수 있는 인공지능 개발 및 사용 행정명령 제14110호(Executive Order 14110: Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence), 세계법제정보센터, 2024.02.07.,
https://world.moleg.go.kr/web/wli/lgslInfoReadPage.do?CTS_SEQ=51119&AST_SEQ=313
개발자·CISO 대상’… 美 국립표준기술연구소, AI 위험에 대한 새로운 가이드 발표, CIO, 2024.05.01.,
https://www.cio.com/article/3522271/%EA%B0%9C%EB%B0%9C%EC%9E%90%C2%B7ciso-%EB%8C%80%EC%83%81-%E7%BE%8E-%EA%B5%AD%EB%A6%BD%ED%91%9C%EC%A4%80%EA%B8%B0%EC%88%A0%EC%97%B0%EA%B5%AC%EC%86%8C-ai-%EC%9C%84%ED%97%98%EC%97%90.html
美 캘리포니아 AI 안전법 'SB 1047' 통과…EU·국내 여파는?, ZDNet Korea, 2024.08.30.,
https://zdnet.co.kr/view/?no=20240830090502
미국과 영국의 AI 규제동향, 법률신문, 2024.02.29.,
https://www.lawtimes.co.kr/LawFirm-NewsLetter/196378
美 캘리포니아 AI 규제 법 제정 임박··· “기술 기업 다수 반대, 일부 전문가 찬성”, CIO Korea, 2024.08.30.,
hhttps://www.cio.com/article/3538199/%E7%BE%8E-%EC%BA%98%EB%A6%AC%ED%8F%AC%EB%8B%88%EC%95%84-ai-%EA%B7%9C%EC%A0%9C-%EB%B2%95-%EC%A0%9C%EC%A0%95-%EC%9E%84%EB%B0%95%C2%B7%C2%B7%C2%B7-%EA%B8%B0%EC%88%A0-%EA%B8%B0%EC%97%85-%EB%8B%A4.html
댓글 0
댓글 작성
댓글을 작성하려면 게시글 작성 시 입력한 이메일과 패스워드를 입력해주세요.