티스토리 뷰

반응형

인류의 예상보다 빠르게 파괴적인 혁신을 보이며 발전하고 있는 AI를 적절히 통제할 법안 마련이 시급하다. 

가장 먼저 규제 법규를 마련하고 있는 EU, 세계에서 AI가 가장  발전한 미국, 

그리고 우리나라의 AI법규 현황에 대해 알아본다.

 

EU

세계 최초로 AI법 제정

강력한 중앙집권적 규제정책 선택

 

출처: EPA연합뉴스, 2023년 6월 유럽의회 의원들이 본회의장에서 관련 법안 제정에 대해 회의하는 모습

 

일반개인정보보호법(GDPR):
2016년 시행, 알고리즘 규제에 대한 원칙 규정

자동화 의사결정을 이끄는 알고리즘의 작동 원리를 투명하게 공개할 것 요구 
자동화된 의사결정에 대해 '따르지 않을 권리'와 '설명을 요구할 권리'

                                              

AI법: 2023년 12월 합의하여 2025년 발효 예정 

AI에 대응하여 인간의 안전과 기본권 보장에 중점

AI가 초래할 위험을 수위에 따라 ●허용할 수 없는 위험 ●높은 위험 ●생성 AI ●제한된 위엄 4단계로 분류하여 규제

고위험 인공지능 자동차, 항공, 기계, 장난감, 의료기기, 고용, 교육, 사회복지, 금융, 경찰, 출입국, 사법 분야, 선거나 투표 분야에서 쓰이는 인공지능으로 사람의 안전과 기본권에 위험한 영향을 미치는 인공지능
책임성을 보장할 수 있는 위험관리, 데이터관리, 문서화 의무, 인권영향평가 등의 의무를 부과하고 위반시 높은 제재
허용할 수 없는 위험을 초래하는 인공지능 사상, 신념 등 민감정보를 이용하여 사람을 분류하는 인공지능, 직장이나 학교의 감정인식, 사람의 무의식을 조종하는 인공지능, 연령이나 장애 등 취약성을 악용하는 인공지능 등
사용과 개발 모두 금지
생성 AI와 범용 AI 챗봇이나 감정 인식 등 일부 인공지능에 대해서 투명성 의무를 요구
생성형 인공지능을 포함한 범용 인공지능에 대해서는 투명성 의무에 더하여 학습 데이터에 대한 공개와 문서화 의무를 강화
고영향(high impact) 범용 인공지능에 대해서는 위험 평가, 적대적 테스트, 중대사고 보고를 의무화
제한된 위험 인공지능 경찰이 공개된 장소에서 얼굴이나 동작 등에 대한 생체인식을 사용하여 실시간이나 사후적으로 사람을 추적하는 것
예외적으로 실시  

 

규제 내용 ▲시스템 카드를 통해 세부 사항 공개 ▲EU에 부합하는 사용 정책 ▲모델 훈련 방법에 대한 최신 정보 공개 ▲모델 학습에 사용한 데이터에 대한 자세한 정보 보고저작권법을 따르는 정책 등 
위반시 750만 유로(약 100억원)~3000만 유로, 글로벌 매출액의 1.5%~7%까지 다양한 벌금 부과

 

모델을 훈련하는 데 사용되는 컴퓨팅 성능의 양, 데이터셋 크기, 등록된 비즈니스 사용자 또는 최종 사용자 등으로 위험 대상을 구분하는데 어떤 기준으로든 오픈 AI가 빠져나갈 여지는 없다. 따라서 GPT-4는가장 강력한 제재 대상에 포함될 것으로 본다. 그외 구글이나 앤트로픽, 인플렉션AI, 코히어 등 미국기업의 폐쇄형 모델도 대부분 이에 포함돼, 강력한 규제를 받게 될 것으로 보인다.

특히 학습에 사용된 데이터셋의 저작권 문제 공개 여부는 기술적으로도 힘든데다 가능하다 해도 저작권자들의 소송이 잇따를 것으로 예상돼 파장이 클 것으로 본다. (개인적으로 실현되기를 바람!)

 

미국

2023년 10월 30일 AI 행정명령 발표

출처: UPI연합 뉴스.. 바이든 대통령이 인공지능(AI) 개발 규제 행정명령에 서명하는 모습

 

 

●AI를 위한 새로운 안전 및 보안 기준 마련 ●개인정보 보호 ●평등과 시민권 향상 ●소비자 보호

●노동자 지원 ●혁신과 경쟁 촉진 ●국제 파트너와 협업 ●연방정부의 AI 사용과 조달을 위한 지침 개발

8개 부문으로 나누어 규제한다.

 

 AI 개발자는 안전 검사 결과와 주요 정보를 미국 정부에 제출해야 한다.

국립표준기술연구소(NIST)가 인공지능 도구의 안전성 표준을 마련하도록 지시하며 미국이 AI 새로운 표준을 이끌 것이라는 의지를 밝혔다. 에너지부는 핵, 핵무기 확산, 생물학, 화학, 핵심 기반시설, 에너지 안보 분야에서 위협이 될 수 있는 인공지능 기술을 평가할 수 있는 수단을 개발하도록 했다. 상무부는 AI 생성 콘텐츠를 명확하게 가려내기 위한 AI 콘텐츠 인증 및 워터마킹 지침을 개발하게 했다.

클라우드 서비스 제공자는 외국 고객을 신고하도록 했는데, 중국의 인공지능 기술 발전을 견제하려는 조처로 풀이된다.

 

한계: 아직까지는 행정부가 시행해야 할 조치 위주로 기업 대상 강제력이 부족하다.

 

우리나라

2023년 2월 국회  과학기술방송정보통신위원회에서 AI 기본법이라 할 수 있는 「인공지능 산업 육성 및 신뢰 기반 조성에 관한 법률안」 합의했으나 상임위에서 멈춰있다.

출처: ZDNET KOREA.  국회 과학기술정보방송통신위원회 소속 윤영찬 더불어민주당 의원의 의정 활동 모습.  AI기본법은 AI  관련 7개의 법률안을 통합한 것으로 윤 의원안의 주요 내용이 포함된 것으로 알려졌다

 

내용: AI 진흥, 고위험 영역 AI 사업자에 대한 책무가 주요 뼈대

AI 생태계 육성 정부 컨트롤타워로 국무총리 산하에 인공지능위원회를 신설
과기정통부 간사를 맡아 3년마다 AI 기본계획을 수립하며 전문 인력 수급과 AI 전문 기술 교육 등 지원
한국지능정보사회진흥원 산하에 국가인공지능센터를 신설해 기술 표준화와 학습용 데이터 구축
AI산업을 전략적으로 견인하기 위해 ‘우선허용·사후규제’ 원칙

 

고위험 영역 AI에 대한 안전성 확보 규제 조치 AI기본법 제2조에 따르면 고위험 영역이란 사람의 생명, 신체의 안전 및 기본권의 보호에 중대한 영향을 미칠 우려가 있는 영역에서 활용되는 AI서비스를 뜻함
△에너지, 물 공급 △보건의료산업, 원자력 시설 △채용 및 대출 신용평가 △자율주행 등을 포함한 교통수단 및 교통 시설 △수사 및 기소 등 국가기관 등의 권한 행사 영역외에 해당
고위험 영역의 사업자는 AI 신뢰성과 안전성 확보를 위한 내부 조치를 마련하고 자체적으로 관리감독해야 함
(구속력 없다는 비판을 받는 문제 사항)

 

 

출처: 더불어민주당 정필모 의원 블로그

 

그러나 업계/시민사회 모두의 불만을 사고 있다.

업계에서는 고위험 영역에 대한 정의부터 지나치게 모호하다는 이유로, 시민 사회는 고위험 영역 AI 서비스를 규제하는 데 실질적인 구속력이 떨어지며 사전 고지 의무를 지키지 않아도 벌칙 조항이 없음을 지적한다.

 

양날의 검

초거대 AI의 경우 우리나라의 위상은 세계 3위로 남다르다.

초거대 AI:
기존 AI보다 수백배 이상의 대용량 데이터를 학습해 인간처럼 종합적 추론이 가능하게 만든 인공지능을 뜻한다.
기존 데이터와의 비교 학습을 통해 새로운 콘텐츠를 탄생시키기 때문에 생성형 AI라고도 한다.

 

하정우 네이버클라우드 센터장에 의하면 초거대 AI를 만들 수 있는 기업들 ○이를 활용하는 많은 스타트업 ○사용자로

'비즈니스가 만들어지는 생태계'가 조성되어 있는 나라가 미국, 중국, 한국 세 나라밖에 없다고 한다. 

이는 한국이 구글에 검색 엔진을 뺏기지 않고 자체 검색 시장을 유지하며 네이버·카카오가 콘텐츠 플랫폼으로 성장해 우리의 정서, 가치관, 사회문화가 포함된 한글 콘텐츠 데이터가 잘 축적되었기 때문이며, 

유럽과 일본이 초거대 AI를 못하는 이유는 그런 고유의 콘텐츠 데이터가 잘 축적되지 않았기 때문이라고 한다. 

출처: BizFact. 네이버의 초거대 AI인 '하이퍼클로바X' 개발을 지휘하는 네이버클라우드 AI 이노베이션센터 하정우 센터장이 <더팩트 2023 혁신포럼>에서 발표하는 모습

 

이러한 점은 무척 고무적이고 희망적인 일이나 AI 글로벌 경쟁에 몰리며 우위를 차지하고자

미국처럼 AI 개발 기업을 규제하는 것에 소극적이 되는 듯하다. 

EU가 오히려 가장 잘 갖춰진 AI 규제 법안을 마련할 수 있었던 것은 아직 막강한 AI 개발사가 없기 때문인 듯하다. 

 

어쨌든 현재 한국의 AI법안은 아직 제정 발표되지 않은 답답한 상태다.

 

반응형
최근에 올라온 글