본문 바로가기

 

[기획 브리핑] 글로벌 AI 규제 동향으로 살펴보는 오픈소스 모델의 역할과 도전과제

 

- Open UP -

 

  • AI 기술 발전에 따라 여러 사회적 문제와 인간의 통제를 벗어난 위험 상황 초래 등의 문제도 대두되면서 AI의 오용과 위험을 최소화시키기 위해 주요 국가들은 AI 규제법을 도입 또는 도입 검토 중
    1. 세계 최초의 포괄적인 AI 법률 EU의 AI 법은 오픈소스 라이선스에 따라 공개된 모델은 모든 의무에서 면제하는 예외 규정이 있음
      • 이 예외는 ‘허용할 수 없는 위험’이 있는 AI와 ‘체계적 위험(systemic risks)’이 있는 범용 AI 모델과 상업적인 목적으로 수익화된 오픈소스 AI 모델은 적용되지 않음
    2. 미국 캘리포니아에서 주정부 차원의 AI 안전법(SB-1047)을 추진하였으나 최종적으로 주지사의 거부권 행사로 법안 폐기
      • 오픈소스 오리지널 모델과 그 파생 모델(오픈소스 모델을 미세 조정하는 데 1천만 달러 미만의 비용이 든 모델)의 경우 원 개발사에게 책임을 묻는 조항이 있어 오픈소스 위주로 AI를 취급하는 업계와 학계가 강력 반발하였음

 

  • AI 기술, 멀티모달 모델로 확장되며 오픈소스 AI 모델을 통해 기술 혁신 가속화
    • AI 기술은 단순한 텍스트 대화를 넘어 이미지·영상·음성 분석 및 생성 가능한 멀티모달 모델로 확장하고 있으며 누구나 접근하고 활용 가능한 오픈소스 AI 모델에 의해 가파르게 성장 중
      • 향후 5년 내에 큰 영향을 미칠 잠재력이 있는 기술에 ‘멀티모달 생성형 AI’와 ‘오픈소스 LLM’을 선정(‘24, Gatner)
        • 가트너는 오픈소스 LLM이 상업적 접근을 민주화하고 개발자가 특정 작업 및 사례에 맞게 모델을 최적화할 수 있도록 하며, 기업, 학계 및 기타 연구 역할의 개발자 커뮤니티에에서 가치 향상을 위한 공통 목표를 향해 모델 개선 가능한 액세스를 제공한다고 설명
        • 오픈소스는 AI 알고리즘 및 데이터셋에 대한 접근을 민주화함으로써 각 국가별 자국의 문화 및 언어가 담긴 AI 시스템 구축 가능하게 함
        • 오픈소스 생태계가 활발하면 AI의 투명성도 늘어나고 AI의 기술도 발전하여 개발자들이 AI에 기여하고 개선하며 비판할 수 있는 기회 제공
      • 다양한 이점들에도 AI의 기술 발전과 함께 개인정보 유출, 차별과 편견, 일자리 감소, 딥페이크와 같은 악용 사례, 인간 통제의 한계를 넘는 위험한 상황 등 다양한 사회적 문제가 대두되고 있음
        • 최근 딥페이크 범죄 등이 문제가 되고 있는 상황임
        • AI 기술을 개발하고 활용하는 과정에서 이러한 문제를 해결하기 위한 가이드라인이 필요하다는 의견 대두

     

  • AI 기술의 급격한 발전으로 인해 규제의 필요성이 증가함에 따라 EU AI법 등 주요 국가들 AI 규제안 마련
  • 1) 유럽연합(EU)
    • EU는 시민의 기본적 권리 보호와 유럽 사회의 안전 확보를 목표로 하는 세계 최초의 포괄적인 AI 법률 ‘AI Act’ 발표(‘24.07.12)
        • AI법은 ‘21년 4월 21일에 유럽위원회에서 제안, ’24년 3월 유럽의회 통과, 5월 EU 이사회 승인, 7월 AI 법률로 공식 발표
        • EU AI 법은 지침이 아닌 규정으로, 개별 국가의 법률과 상관없이 회원국에 직접 효력이 발생
        • 이 법은 ’24년 8월 1일에 발효되었으며, 각 조항별로 '허용할 수 없는 위험'을 초래하는 AI 시스템 전면 금지 시행(‘25.02), AI법 실무 강령도입(‘25.05), 범용 AI (GPAI, General-Purpose AI models)에 대한 규칙 발효(’25.08), AI 시스템을 위한 AI법률 시행(’26.08) 등 단계적으로 시행되어 ’27년 8월 AI법 전면 시행 예정
      • EU AI 법은 고위험 AI 시스템의 기술 문서 공개, 데이터 세트 투명성, 정기적인 모니터링, 감사 관련 요구사항 준수 등을 요구
      • 사용 사례나 위험 수준에 관계없이 모든 AI 시스템에 적용되는 의무 사항
        • AI 시스템 제공자는 EU 데이터베이스에 해당 시스템을 등록
        • 인간과 직접 상호 작용하는 AI 시스템은 사용자가 AI 시스템과 상호 작용한다는 사실을 인지할 수 있도록 설계하고 개발
        • AI 시스템 제공자는 합성 콘텐츠를 생성하는 AI 시스템의 결과물이 기계 판독 가능 형식으로 합성 콘텐츠임이 표시
      • (AI 분류) 다음과 같이 4가지 위험과 범용 AI로 정의
      • AI 분류 정 의
        허용할 수 없는 위험
        • 규정 내에서 가장 높은 위험 수준으로 허용할 수 없는 것으로 지정된 AI 시스템은 새로운 규정에 따라 EU에서 금지
        • 사람들의 안전, 생계, 권리에 대한 명확한 위협을 가하는 모든 AI 시스템(예:무의식적으로 행동을 왜곡하는 기술, 특정 취약 계층을 악용하는 AI, 사람들을 사회적 행동을 평가하는 AI, 감정 추론 AI 등)
        고위험
        • "고위험"으로 지정된 모든 AI 시스템은 EU 시장에 출시되기 전에 품질 보증을 포함한 엄격한 규칙 적용
        • 건강, 안전, 권리, 환경, 민주주의 및 법치주의를 해칠 가능성이 있는 AI 시스템(예: 중요한 국가 인프라, 사법 행정, 민주적 절차 및 이와 유사한 분야에서 사용하는 AI, 의료 기기 및 중요 인프라 관리 도구 등)
        제한적 위험
        • 제한적 위험으로 분류된 AI 시스템은 개인이 AI 시스템이나 콘텐츠와 상호작용할 때 다양한 투명성 요구 사항이 적용
        • 자연인과 상호작용하도록 설계된 시스템과 합성 콘텐츠를 생성하는 AI 시스템(예: 챗봇(소셜 메시징 봇, 메뉴 봇, 키워드 봇 등) 및 딥페이크, 가상 비서 등)
        저위험
        • 규정 내 가장 낮은 위험 수준으로 EU에서 대부분의 AI 사용은 이 범주에 속하며, 개발자와 사용자는 AI 법에 따라 최소한의 의무 적용
        • 이미 널리 배포되어 있고 EU AI법에 따라 규제되지 않는 AI 시스템(예 : AI 지원 스팸 필터 및 AI 지원 비디오 게임(플레이할 수 없는 캐릭터)과 같은 애플리케이션에서 AI 사용하는 것이 포함) 등)
        범용 AI 시스템
        • 투명성 의무(기술 문서 및 배포자 문서 제공 등)가 있으며 체계적 위험을 초래하는 경우 제공자는 모델에 대한 적대적 테스트 평가, 위험 평가 및 완화, 적절한 수준의 사이버 보안 조치 보장 등 수행
          • 범용 AI 모델 중 시장에 출시되기 전에 연구, 개발 또는 프로토타입 제작 활동에 사용되는 AI 모델은 제외함
        • 방대한 양의 데이터로 훈련되고 상당한 일반성을 보이며 광범위한 용도의 AI 시스템(OpenAI의 ChatGPT와 Google의 Gemini를 구동하는 GPT-4o 및 Gemini 1.5와 같은 대규모 언어 모델이 포함)
      • (적용) EU 시장에서 사용하는 AI 시스템을 공개하는 모든 기업(개발/배포/ 공급/사용/수입/유통 업체 등)은 반드시 규정을 준수해야 함
      • (위반 처벌) 이 법을 위반할 경우 불이행의 심각도에 따라 벌금으로 부과되며 최대 전 세계 매출의 7%까지 벌금으로 부과 받을 수 있음
    • EU AI법은 오픈소스 예외 규정을 두고 있으며 이는 개방성과 투명성을 지닌 오픈소스 모델의 규제를 유연하게 적용함으로써 오픈소스를 통한 AI 혁신을 촉진할 수 있는 창구를 열어두어 EU 내 AI 산업의 경쟁력을 유지하려는 의도를 반영
        • 프랑스와 독일 등 범용 인공지능(GPAI) 규제를 반대했던 국가들은 주요 기업이 오픈소스 모델을 개발하고 있음
      • EU AI법 내 오픈소스AI는 오픈소스 라이선스(free and open source licence) 하에 공개되고 사용자들이 자유롭게 접근, 사용, 수정 및 수정된 버전이 재배포 가능한 소프트웨어와 데이터(모델 포함)로 정의
        • 오픈소스 라이선스 하에 공개된 범용 AI 모델은 그 파라미터(가중치 포함), 모델 아키텍처에 대한 정보, 모델 사용에 대한 정보가 공개된다면 높은 수준의 투명성과 개방성을 보장하는 것으로 간주함
        • 사용자가 소프트웨어와 데이터를 실행, 복사, 배포, 연구, 변경 및 개선할 수 있도록 허용하는 라이선스 경우에도 오픈소스로 간주함
        • 오픈소스 AI 구성 요소(AI 시스템의 소프트웨어와 데이터, 모델, 도구, 서비스, 프로세스 포함)는 오픈 저장소 개발을 포함한 다양한 채널을 통해 제공
      • 또한, 오픈소스 라이선스에 따라 공개된 모델은 모든 의무에서 면제한다는 오픈소스 예외 규정 명시
        • 이러한 예외는 허용할 수 없는 위험이 있는 AI시스템(제5조)과 "체계적 위험(systemic risks)"이 있는 범용 AI 모델(제51조)에는 적용되지 않음
        • 이 법규의 목적상 상업적인 목적으로 수익화된 오픈소스 AI 모델은 규제 대상으로 제공되는 오픈소스 예외의 혜택을 받을 수 없음(103항)
        • 적절한 기술 도구와 방법론, 지표 및 벤치마크를 포함하여 평가된 "높은 영향력이 있는 능력(high impact capabilities)"을 갖춘 범용 AI 모델을 출시하는 경우는 오픈소스인지 여부와 관계없이 규정을 준수해야 함
    • 이러한 EU AI법의 '오픈소스'로 간주되는 것에 대한 정의의 복잡성과 모호함이 오픈소스 운동의 기본 원칙과 일치하지 않는 제한을 부과할 수 있어 혁신을 저해할 수 있다는 주장도 있음
      • 메타(Meta)는 EU의 AI 규정이 오픈소스 AI에 방해되어 AI 업계의 혁신과 발전을 저해한다고 발표
        • 메타와 스포티파이(Spotify)의 CEO는 EU의 AI 관련 규정에 관한 공동 성명을 통해 유럽의 혁신과 경쟁력, 특히 오픈소스 AI에 방해가 될 수 있다고 주장
        • 오픈소스 AI가 AI에 대한 접근을 민주화하고 소규모 기업과 개발자가 저렴한 비용으로 최신 기술의 혜택을 누릴 수 있도록 하는 데 필수적이라고 강조하며,
        • 두 회사 모두 불분명하고 복잡한 규칙에 기반을 두고 있는 규정과 이를 준수하는 방법에 대해 일관되지 않은 지침으로 인해 개발자의 불확실성이 커지고 기술 발전을 방해할 수 있다고 주장
      • 메타는 유럽에서 멀티모달 기반 3세대 오픈소스 AI 모델인 '라마3'를 출시 예정이었으나 범용AI에 대한 EU의 강도 높은 규제로 출시 보류
        • 메타는 AI 모델을 무료로 배포하는 오픈소스 전략으로 인해, 사용 기업이 학습한 데이터를 파악하기 어려워 EU 규제를 충족하기 힘든 상황
        • 메타의 AI 기술을 활용하고자 한 스포티파이와 같은 회사도 이를 활용한 제품 업데이트를 할 수 없게 됨
  • 2) 미국
    • 미국은 EU AI법과 같이 연방정부 차원의 통합된 AI 규제법은 제정하지 않았으나 안전하고 신뢰할 수 있는 인공지능 개발 및 사용 행정명령 제14110호(Executive Order 14110: Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence) 발표(’23.10)
      • 이 행정 명령은 8가지 지침 원칙과 우선순위를 제시하고, 이러한 원칙과 우선순위를 어떻게 시행해야 하는지, 보고 요구 사항을 자세히 설명
    • 미국 NIST(국립표준기술원)는 인공지능 위험 관리 프레임워크: 생성 인공지능 프로필(NIST-AI-600-1)을 출시(’24.07)
        • 바이든 대통령의 행정명령을 뒷받침하는 리소스로 AI 개발자와 사이버 보안 전문가를 위한 가이드임
    • 캘리포니아 주는 AI가 오용될 가능성을 감소시키는 역할을 위해 주 정부 차원의 AI 안전 법안(SB-1047, Safe and Secure Innovation for Frontier Artificial Intelligence Models Act.)을 마련(’24.09)하여 추진하였으나, 주지사의 거부권 행사로 최종적으로 폐기
        • 이 법안은 올해 2월 발의 직후부터 많은 사회적 관심을 받았고, 몇 차례 수정을 거쳐 지난 8월 주 상·하원을 압도적 찬성으로 캘리포니아주 의회 통과(‘24.08.28)
        • 뉴섬 캘리포니아 주지사가 동의 서명하면 공식 발효될 예정이었으나 최종적으로 주지사는 9월 29일 거부권을 행사하여 폐기되었음
      • SB-1047 법안은 첨단 AI 모델을 개발하는 기업, 특히 개발 비용이 1억 달러 이상(약 1천376억원)이거나 상당한 컴퓨팅 파워를 사용하는 기업이 판매 전 중대한 위험에 대한 테스트를 반드시 거치도록 의무화
        • AI 개발사는 모델 훈련 과정서 발생할 수 있는 위험을 사전에 평가, 필요 시 신속하게 모델을 중단하는 '킬 스위치' 기능을 명시 필요
        • 5억 달러(약 6천 890억원) 넘는 피해 발생 가능성이 있는 사이버 보안 공격 시행 또는 생물학·핵무기를 개발할 수 있는 능력의 AI 모델 개발 금지
      • 오픈소스 관련된 규정으로 오픈소스 오리지널 모델과 그 파생 모델(오픈소스 모델을 미세 조정하는 데 1천만 달러 미만의 비용이 든 경우)의 경우, 원 개발사가 책임을 져야 한다고 명시
        • 즉, 오픈소스 적용 모델을 미세 조정하는 데 1천만 달러 이상의 비용이 든 파생 모델의 개발사는 이 법의 적용 대상에 포함됨
      • 캘리포니아 SB-1047 법안은 오픈소스 모델의 특성상 책임의 경계가 명확히 구분하기 어렵기 때문에 이 법안은 개발 비용과 모델의 활용 범위에 따라 책임을 나누고자 했으나 업계와 학계는 혁신을 저해할 수 있다는 우려를 표명
        • 캘리포니아 SB-1047 법안에 대해 의견을 밝힌 전체 기술 기업 중 74% 이상이 반대 의사 제시
        • 구글과 메타를 비롯한 주요 기업은 이 법안이 비우호적인 규제 환경을 조성하고 AI 발전을 저해할 수 있다고 우려하였으며, 오픈AI는 AI 법안이 혁신을 억압하고 기업들을 캘리포니아에서 떠나게 할 것이라고 주장
        • 오픈소스 모델을 활용하여 AI를 취급하는 스타트업 업계와 학계 등 법안에 강력하게 반발하였으며, 일부 민주당 의원들도 이 법안이 공개적으로 사용가능한 코드에 의존하고 AI 기술 발전에 필수적인 것으로 간주되는 오픈소스 AI 모델을 위태롭게 할 수 있다고 우려
      • 뉴섬 주지사는 SB 1047 법안 이외의 생성형 AI 기반 허위 정보, 가짜 음성, 딥페이크 등을 막기 위한 법안에는 서명, 발생 가능성 높은 위험에 우선 대비하는 행보를 보임
        • 뉴섬 주지사는 SB 1047 법안에 대한 거부권 행사 이유로 이 법안이 고위험 환경, 중요한 의사 결정, 민감한 데이터 사용 여부를 고려하지 않았고 대규모 AI 모델에만 초점을 맞추어 소규모 특수 시스템은 제외함으로써, 대중에게 AI 기술 통제에 대한 잘못된 안도감을 줄 수 있다고 언급
        • 앞서 미국 샌프란시스코에서 개최된 '드림포스 2024'에서 뉴섬 주지사는 SB 1047 법안에 대해 AI로부터 야기되는 모든 문제를 해결할 수 없다는 견해를 밝히며 "오히려 캘리포니아에서 급성장하는 AI 산업을 해치지 않으면서도 문제를 해결할 수 있는 유연한 법안에 더 관심 가질 것"이라고 강조한 바 있음
  • 3) 영국
    • 영국 정부는 5가지 핵심 원칙(안전/보안, 투명성, 공정성, 책임성, 이의제기 가능성 및 구제)에 따라 AI 규제를 위한 부처 간 협력을 통해 결과에 초점을 맞춘 프레임워크를 채택
      • 원칙 기반의 AI 규제 접근 방식을 개략적으로 설명하는 백서를 발표(’23.03)하였으며 이에 대한 정부의 대응안을 공개(‘24.02.)
      • ICO(the Information Commissioner's Office), Ofcom, CMA(the Competition and Markets Authority), FCA(Financial Conduct Authority)와 같은 규제 기관은 각자의 영역에서 AI 적용에 대한 규제를 담당
      • 2024~2025년까지 ChatGPT와 같은 진보된 AI 모델을 대상으로 하는 AI 법안을 준비중으로 정부 간의 기존 자발적 약속을 법적으로 구속력 있게 만들고 영국의 AI 안전 연구소를 중립적 정부 기관으로 전환하는 것을 목표로 함
  • 4) 중국
    • 포괄적인 AI 법률이 없지만 AI의 다양한 측면과 관련된 위험을 해결하기 위해 법적 효력이 있는 규정과 조치를 도입하며 AI 기술에 특화된 규정을 형성하는 데 가장 적극적으로 활동 중임
      • 인터넷 정보 서비스에 대한 알고리즘 추천 관리 규정(’22.03), 인터넷 정보 서비스의 심층 합성 관리에 대한 규정(‘23.01), 생성 AI 서비스 관리를 위한 임시 조치(’23.08)
  • 5) 일본
    • 일본 정부는 모든 AI 관련 이해 관계자(AI 서비스 개발 기업, AI 서비스 제공자, 사용자 등 포함)를 대상으로 하는 ‘기업을 위한 AI 가이드라인’ 발표(’24.04)
      • AI 가이드라인에는 인간 중심, 안전성, 공정성, 개인정보보호, 보안, 투명성, 책임성, AI 문해력, 공정경쟁, 혁신 등 10가지 기본 원칙을 포함
    • 일본과 동남아시아 국가 연합(ASEAN)은 AI 거버넌스에 대한 두 관할권 간의 보다 큰 협력에 대한 약속을 포함하는 공동 성명을 채택(’23.12)
  • 6) 대만
    • 대만은 AI를 관장하는 기본법, 즉 AI 기본법 초안을 발표(‘24.07), AI 연구 및 사용에 대한 7가지 기본 원칙을 제시, 대만 의회에서 검토될 것으로 예상
      • 공고된 AI 기본법 초안에는 지속 가능한 개발과 웰빙, 인간의 자율성, 개인정보 보호 및 데이터 거버넌스, 보안 및 안전, 투명성 및 설명 가능성, 공정성과 차별금지, 책임성 7가지 기본원칙을 포함
      • AI의 개발 및 적용에서 프라이버시와 개인 데이터를 보호할 필요성을 강조
        • EU AI법 초안 및 2022년 미국 알고리즘 책임법 초안과 유사하게 위험 수준에 따라 AI를 규제할 것을 제안

     

  • 시사점
    • 각 국가들은 잠재적인 AI 관련 위험으로부터 대중을 보호하는 동시에 혁신과 사회 안전의 균형을 맞추고 AI가 오용될 가능성을 감소시키기 위해 AI 규제법을 도입 또는 도입 검토중
    • EU AI법의 오픈소스 예외 규정은 기술 혁신을 촉진하면서도 안전하고 책임 있는 AI 활용을 보장하려는 첫걸음으로, 규제와 혁신 간의 균형을 유지하기 위한 논의가 필요함을 시사
    • 미국 캘리포니아의 SB-1047 법안은 오픈소스 모델에 대한 책임 소재를 명확히 규정하는 것이 현실적으로 가능한지에 대한 질문을 제기하며, 다양한 기여 환경 속에서의 책임 한계 설정에 대한 구체적 협의의 필요성 제기
    • AI 기술의 급격한 발전을 고려할 때, AI 기술기업들은 이러한 규제 조치에 반발하기보다는 향후 AI 개발과 기업의 경영 활동을 위해 개발 정책과 경영 전략의 재조정 등 대응 방안에 대한 검토가 필요

 

 

※ 참고 Reference

 

 

.
.
2024
공개SW 가이드/보고서 - 번호, 제목, 작성자, 조회수, 작성
번호 제목 작성자 조회수 작성
공지 [2024년] 오픈소스SW 라이선스 가이드 개정판 발간 file support 11994 2024-01-03
공지 [2024년] 기업 오픈소스SW 거버넌스 가이드 개정판 발간 file support 9661 2024-01-03
공지 [2024년] 공공 오픈소스SW 거버넌스 가이드 개정판 발간 file support 9594 2024-01-03
공지 공개 소프트웨어 연구개발(R&D) 실무 가이드라인 배포 file support 22180 2022-07-28
공지 공개소프트웨어 연구개발 수행 가이드라인 file OSS 20617 2018-04-26
508 [10월 월간브리핑] 통신에서 자동차까지, 오픈소스SW가 이끄는 소프트웨어 산업 support 246 2024-10-28
507 [기획 브리핑] 글로벌 AI 규제 동향으로 살펴보는 오픈소스 모델의 역할과 도전과제 support 140 2024-10-27
506 [9월 월간브리핑] 엘라스틱, 3년만에 오픈소스 생태계로 복귀 support 2498 2024-09-28
505 [기고] CJ그룹, 오픈소스 생태계에 참여하다 support 2317 2024-09-28
504 [8월 월간브리핑] 오픈소스로 만들어가는 지속 가능한 미래 support 2425 2024-08-26
503 [기획 브리핑] 환경적 지속 가능성에 대한 오픈소스의 영향과 잠재력 support 2311 2024-08-26
502 [기고] 기후위기 시대, 탄소중립에 기여하는 소프트웨어(SW) 기술과 기업들 support 2412 2024-08-26
501 [7월 월간브리핑]가트너, 소프트웨어 공급망 보안 관리를 위한 방안 제시 support 2637 2024-07-29
500 [기획 브리핑] 글로벌 자동차 기업의 오픈소스SW 전략 support 2693 2024-07-26
499 [기고]오픈소스SW, 활용을 넘어서 기여로! support 2412 2024-07-26
맨 위로
맨 위로