이 글에서는 생성형AI(챗GPT 등)를 둘러싼 법적/윤리적 이슈를 정리합니다. 이 이슈들은 생성형 AI(GPT 등)를 활용하여 서비스를 구현할 때 고려해야 할 이슈들입니다.
생성형 AI를 둘러싼 경계심 / 규제
국가별
국가 | 활동 |
국내 | 아래는 국내의 데이터 및 AI 관련 법/정책/윤리 기준 현황: <데이터 3법> (2020년 8월 시행) - 개인정보 활동 기반 조성 - 개인정보 보호 강화 <개인정보보호법 2차 개정안> (2023년 2월 본회의 통과) - 인공지능에 의한 결정에 대한 거부권, 설명 요구권 신설 <인공지능법> (2023년 2월 국회상임위 통과) - 인공지능산업 육성과 신뢰 기반 조성 등에 관한 법률 <인공지능 법제도 규제 정비 로드맵> (2020년 12월 발표) - 11개 분야 30개 법/제도/규제 정비 과제를 도출 <제2차 정보보호산업 진흥계획(21년~25년)>(2020년 6월 발표) - AI 기반 물리 보안 산업 육성 - 차세대 보안 신기술 확보 <인공지능 윤리 기준> (2020년 12월 발표) - 3대 기본 원칙과 10대 핵심 요건 제시 <신뢰할 수 있는 인공지능 실현전략> (2021년 5월 발표) - 인공지능 제품/서비스 구현단계별 신뢰 확보 체계 마련 - 인공지능 신뢰성 원천기술 개발 등 <인공지능 개인정보보호 자율점검표> (2021년 5월 발표) - 6대 원칙 제시 - 16개 점검항목, 54개 확인사항 제시 |
일본 | <관민데이터활용추진 기본법>을 2016년 12월 제정했다. 이 법안은 국가/지자체/민간기업의 데이터 교류와 활용에 대해 규정한다. 일본은 <인공지능활용 윤리지침>을 2019년 3월 제정했다. 이 지침은 AI 활용 시 지켜야 할 7가지 원칙을 명시하고 있다. |
중국 | <차세대 AI 거버넌스 원칙>을 2019년 6월 발표했다. 이 규정은 AI-인류 공동체 구축을 위한 8가지 원칙을 제시한다. <차세대 인공지능 윤리규범>을 2021년 9월 발표했다. 이 규범은 AI 연구 인력이 준수해야 할 윤리규범을 제시한다. |
유럽연합 | <데이터법(Data Act)>를 2022년 2월부터 시행했다. 이 법안에서는 데이터에 대한 공정한 접근을 강조하고 있다. <인공지능법(AI Act)> 초안을 발의했다(2023년 연내 표결 예정).이 법안에서는 인공지능의 위험도를 4단계로 차등화한다. 고위험군에 해당하는 인공지능 제품이나 서비스에는 비교적 강력한 규제가 적용된다. |
이탈리아 | 2023년 3월 이탈리아 데이터 보호청은 챗GPT가 이탈리아 국민의 데이터를 무단으로 수집하고 있다며 이탈리아 내 접속을 잠정적으로 차단했다. - 대량으로 수집된 데이터 안에 존재하는 개인 정보와 사용자들의 대화 데이터에 대한 정보 보호는 이탈리아뿐만 아니라 모든 국가가 고민하고 있는 이슈이다. |
영국 | 기관 자체적으로 접근 방식을 정하고 거기에 따른 책임을 지는 방식(2022년 7월 발표) |
미국 | <AI 이니셔티브법> 제정(2021년 1월). 경제와 사회 전분야에 AI 시스템 통합을 추진하는 취지로 마련된 법. R&D 목적의 정부 데이터 접근을 장려 미국 상무부 산하 국가통신정보관리청(National Telecommunication and Information Administration; NTIA)은 인공지능 시스템 규제안을 마련하기 위해 여론을 수렴하고 있다. 미국 비영리단체 생명의미래연구소(Future of Life Institute; FLI)는 인공지능 기술의 오남용으로 인한 부작용을 최소화하기 위해 인공지능 개발을 최소 6개월가량 중단하고 독립적인 외부 전문가의 감독 프로토콜을 만들자고 주장하는 서한을 발표하고 서명운동을 했다. - <거대 인공지능 실험을 정지시켜라>라는 제목의 공개 서한( https://futureoflife.org/open-letter/pause-giant-ai-experiments) ) 발표 - 서명 운동에는 요슈아 벤지오(딥러닝 창시자), 스튜어트 러셀(인공지능 분야 석학), 유발 하라리(히브리대학교 교수), 일론 머스크(테슬라와 X의 CEO) 등 많은 오피니언 리더를 비롯한 총 5만 명이 서명했다. 뉴욕 교육부는 시내 공립학교의 네트워크 안에서는 챗GPT에 접근하지 못 하도록 차단했다. “챗GPT는 학생들의 비판적 사고 및 문제 해결력에 부정적인 영향을 줄 것이다.” |
캐나다 | <AI와 데이터법> 입법 추진(2022년 6월). 이 법은 민간에 적용되는 AI 관련 처벌 규정을 제시하고 있다. |
학계/산업계
- 스프링어네이처(Springer-Nature), 엘제비어(Elsevier)는 챗GPT를 논문의 저자로 포함시키지 않겠다는 지침을 발표했습니다.
- 양대 포털(네이버, 다음)의 뉴스 제휴를 전담하는 기구인 뉴스제휴평가위원회는 인공지능 기사(자동 생성 기사)가 일반 뉴스 섹션에 배치하지 못하게 막는 규정을 마련했습니다.
- 2015년부터 증권 시황, 스포츠 분야에서 템플릿에 뉴스 정보를 입력하면 자동으로 기사가 작성되는 로봇 저널리즘 선보였으나, 이 기사들이 포털에 게재되기는 어려워졌습니다.
- 국내 한 국제학교에서 챗GPT로 영문 에세이를 작성한 학생들이 적발되어 전원 0점 처리되었습니다. 대학들은 앞다투어 챗GPT 활용지침서를 만들고 있고, 과제 대필이나 표절 방지를 위한 대책 마련에도 부심하고 있습니다.
- 언어학의 대가 노엄 촘스키(Noam Chomsky)는 챗GPT를 "하이테크 표절High-tech plagiarism"이라고 단언했습니다.
- JP Morgan은 보안을 이유로 직원들의 챗GPT 사용을 금지하고 있습니다.
생성형AI(챗GPT)를 둘러싼 기본적인 법리
기본적으로 챗GPT 같은 인공지능 챗봇은 인간과 대화를 통해 정보를 전달합니다. 따라서 인간과 인간의 대화 과정에 적용될 수 있는 모든 법적 이슈가 챗GPT에도 적용됩니다.
가령, 챗GPT가 불법 의약품이나 폭탄을 제조하는 방법을 물어보는 이용자에게 그 방법을 가르쳐 주었다면 범죄를 방조한 행위가 됩니다.
챗GPT도 못 피한 AI 윤리적 문제 - 주간조선
두 달간 1억명 사용자를 돌파한 인공지능 챗봇인 ‘챗GPT’에게 윤리적 논란을 빚을 수 있는 답변을 유도하는 질문법이 온라인상에서 공유되면서 인공지능 윤리 문제가 불거졌다. 인공지능은 윤
weekly.chosun.com
기본적으로 챗GPT는 전기통신 설비에 기반한 컴퓨터 프로그램의 일종이기 때문에 <정보통신망 이용촉진 및 정보보호 등에 관한 법률> 제44조의 7(불법정보의 유통금지 등) ①(누구든지 정보통신망을 통하여 다음 각 호의 어느 하나에 해당하는 정보를 유통하여서는 아니된다)에 해당하는 발화를 하면 안 됩니다 :
1. 음란한 부호·문언·음향·화상 또는 영상을 배포·판매·임대하거나 공공연하게 전시하는 내용의 정보
2. 사람을 비방할 목적으로 공공연하게 사실이나 거짓의 사실을 드러내어 타인의 명예를 훼손하는 내용의 정보
3. 공포심이나 불안감을 유발하는 부호·문언·음향·화상 또는 영상을 반복적으로 상대방에게 도달하도록 하는 내용의 정보
4. 정당한 사유 없이 정보통신시스템, 데이터 또는 프로그램 등을 훼손·멸실·변경·위조하거나 그 운용을 방해하는 내용의 정보
5. <청소년 보호법>에 따른 청소년유해매체물로서 상대방의 연령 확인, 표시의무 등 법령에 따른 의무를 이행하지 아니하고 영리를 목적으로 제공하는 내용의 정보
6. 법령에 따라 금지되는 사행행위에 해당하는 내용의 정보
- 6의2. 이 법 또는 개인정보 보호에 관한 법령을 위반하여 개인정보를 거래하는 내용의 정보
- 6의3. 총포·화약류를 제조할 수 있는 방법이나 설계도 등의 정보
7. 법령에 따라 분류된 비밀 등 국가기밀을 누설하는 내용의 정보
8. <국가보안법>에서 금지하는 행위를 수행하는 내용의 정보
9. 그 밖에 범죄를 목적으로 하거나 교사 또는 방조하는 내용의 정보
생성형 AI에 특화된 법리
아래는 생성형AI에 특화된, 첨예한 이슈들입니다. 생성형 AI를 활용한 서비스를 기획하는 사람이라면 반드시 고려해야 되겠지요?
AI(인공지능)의 법 인격을 인정해야 하는가?
즉, AI의 작동 양상이 관련 법규의 적용을 받는 경우, 해당 법조항에 따른 의무나 책임의 주체는 누구인가?
아직까지 인공지능의 법 인격은 인정되기 어렵다는 것이 일반적입니다.
그렇기 때문에 논의의 쟁점은 아래와 같이 '사람' 중심으로 흘러가고 있지요 :
- 악의적 이용자가 챗GPT를 탈옥시켜 벌어진 사안의 책임은 이용자가 져야 한다.
- 일각에서는 챗GPT를 개발해 사회에 위험을 증대시킨 것은 제작자이므로 이들이 책임을 져야 한다고 주장한다.
- 이 주장은 일견 직관적이다. 또한 위험을 관리할 수 있는 최적의 주체가 제작자인 경우가 많다.
- 그러나 대규모 언어모델(LLM)의 복잡성 때문에 모든 위험을 예견하고 상응하는 예방적 조치를 취하는 것은 현실적으로 어렵다.
- 창의와 혁신을 위축시키는 부작용도 있을 것이다.
지식재산권
기본 개념
AI 챗봇(ex. 챗GPT)은 하드웨어 로봇에 탑재되지 않는 한, 형체가 없는 소프트웨어에 해당해 무형의 지식재산권 이슈와 주로 결부됩니다.
지식재산 - 인간의 창조적 활동 또는 경험 등에 의하여 창출되거나 발견된 지식 정보 기술, 사상이나 감정의 표현, 영업이나 물건의 표시, 생물의 품종이나 유전자원, 그 밖에 무형적인 것으로서 재산적 가치가 실현될 수 있는 것
지식재산 관점에서 AI 활용 유형
아래 <표>에서 마지막 ③생성형 AI 활용 유형은 독점적 권리 인정 여부나 권리 소유 주체에 대한 명확한 규정이 없습니다. 따라서 법적인 논의가 진행 중입니다.
저작권법 일부개정법률안(주호영의원 등 12인)
저작권법 일부개정법률안 (주호영의원 대표발의) 의 안 번 호 16733 발의연월일 : 2018. 11. 22. 발 의 자 : 주호영․성일종․김광림 강석호․박명재․이종배 이채익․이진복․최연혜 김종석․김현
www.ipli.re.kr
지식재산 활동 유형 | 발명/창작의 주체 | 지식재산 권리 귀속 주체 |
①AI 미활용 (인간의 발명/창작) |
인간 | 인간 |
②도구형 AI 활용 (도구로서 AI 이용) : 인간의 의도와 실질적 완성을 위해 AI를 도구로써 이용한 경우 |
인간 | 인간 |
③생성형 AI 활용 (AI 자체로 발명/창작) : AI가 데이터를 학습해 학습모델을 기반으로 결과물을 창작하는 유형 |
AI | 아래 <표>에서 ‘출력 데이터 관련 이슈’ 참고 |
생성형AI와 관련된 지식재산법
관련 법 | 주요 보호 대상 | AI와의 관련성 | 이슈 |
저작권(저작권법) | 영상, 이미지, 음원, 소설 등의 창작물 | 저작물, 데이터베이스 | 발생주의 - 저작권의 경우 저작물에 저작자 나름의 특성이 부여되어 있고 다른 저작자의 기존 작품과 구별할 수 있을 정도의 창작성이 있다면 해당 창작물을 완성한 시점에 저작권이 자동으로 발생 - 창작 시점에 권리가 자동으로 발생하기 때문에 권리의 귀속 주체 등에 대한 사회적 합의 시급성/필요성이 특히 크다. - https://www.chosun.com/economy/tech_it/2022/10/28/AZSDHIBGJJBK3DRKPIXCZ3CCLA/ - http://www.techdaily.co.kr/news/articleView.html?idxno=21868 - https://www.dongascience.com/news.php?idx=24666 <저작권법> 제2조 제1호 - 저작물이란 인간의 사상과 감정을 표현한 창작물 - 이 조항으로 인해 인간의 개입이 거의 없거나, 개입의 내용이 사상이나 감정과는 다른 기술적인 내용(ex. 프롬프트 입력)에 불과한 ‘생성형AI 활용한 창작물’을 저작물로 인정할 것인가에 대한 의견이 분분 - '창작성'은 단순히 모방한 수준에 그치지 않고 작자의 독자적인 사상이나 감정의 표현을 담고 있음을 의미. 앞서의 '인간의 사상과 감정'을 기준으로 함 |
특허권(특허법) | 새로운 기술과 아이디어 기반의 발명품 → 일정 기간의 독점권 | 컴퓨터 프로그램, 알고리즘, AI 기반/연계 비즈니스 모델 | 등록주의 - 특허법, 디자인보호법, 상표법의 경우 독점적 권환을 획득하기 위해 별도의 출원 및 심사(특허청)를 통한 형식적 절차가 필요 특허권, 상표권, 디자인권 역시 권리 귀속 주체에 대한 논의가 있었지만 엄격한 등록심사 요건에 대한 구비 및 출원을 위한 행정절차의 필요성(=등록주의)에 따라 저작권에 비해 상대적으로 사회적 주목도나 입법에 대한 논의 필요성이 절하 - https://www.bizwnews.com/news/articleView.html?idxno=12982 - 영국 Surrey 대학교 연구팀이 개발한 AI 시스템 DABUS(특허 출원 신청 알고리즘)가 미국 및 유럽 특허청에 진행한 특허발명에 대해 발명자 적격 위반을 이유로 특허 등록 거절(즉, 특허 출원인이 '인간'이 아니기 때문에 '발명자' 요건을 충족하지 못 하였다고 판단) - 반면 호주 연방법원에서는 AI를 특허법상의 발명자로 인정 - 미국, 유럽, 한국 등 주요 특허출원국에서의 특허 기본원칙 중 하나인 '발명자주의(모든 발명은 사고력과 창조력을 가지는 자연인이 주체이며, 따라서 발명자는 자연인이어야 한다는 것)' 때문에 생성형AI가 권리자로서 인정받기 쉽지 않을 것 |
디자인권(디자인보호법) | 참신한 외관(형상 및 모양)을 가지는 디자인 | 제품 디자인, 화상 디자인 | |
상표권(상표법) | CI, BI, 상품명과 같은 브랜드 | 로고, 소리상표, 입체상표 |
생성형AI 입력/출력 데이터와 관련 구체적인 이슈
입력(학습) 데이터 관련 이슈 | 출력 데이터 관련 이슈 | |
지식재산권 | 모형을 최적화(학습)하는 과정에서 타인이 저작권을 보유한 데이터를 무단으로 활용 → 저작권 침해라는 논리 앞서 설명한 것처럼 인공지능은 법인격을 가지지 않으므로, 인공지능 챗봇을 만들어낸 제작자가 저작권 위반에 대한 책임을 질 가능성 크다. 다만 현행 저작권법은 저작물의 통상적 이용 방법과 충돌하지 않고, 저작자의 정당한 이익을 부당하게 해치지 않는 경우를 '공정 이용'으로 규정하여 저작권 침해의 예외로 두고 있다. 또 인터넷에 공개된 저작물을 모형의 학습 과정에서만 일시적으로 활용하는 것은 공정 이용의 요건(<저작권법> 제35조의5)을 충족한다고 해석될 여지가 있다. 최근 발의된 <저작권법> 개장안들은 일반적으로 텍스트와 데이터마이닝에 관한 면책 규정을 두고 있는 것이 추세이다. - 빅데이터에 숨겨진 패턴을 밝혀 개별 데이터를 넘어서는 새로운 부가가치를 창출하는 행위를 공정이용으로 인정 국가가 저작권 침해의 소지가 없는 학습용 데이터를 마련해 이런 문제에 대응하기도 한다 - 한국지능정보사회진흥원이 운영하는 'AI허브'라는 웹사이트에서는 자체적으로 구축한 인공지능 학습용 데이터를 제공하고 있다. |
생성형AI는 입력 데이터를 있는 그대로 혹은 확률적으로 출력하는 방식(Retrieval)이 아니라 이를 변형하여 맥락에 걸맞는 출력을 생성하는 방식(Generation)을 취하는 경우가 많다. 즉, 생성 모형이 만들어내는 창작물은 입력 데이터와는 별개의 저작물 제3자가 이를 사적 이용을 넘어 영리적 목적으로 활용했다면 저작권 침해에 해당. 다만 현재 각국은 창작물을 생성한 인공지능 챗봇에는 저작물 개념의 요건인 법 인격성이 충족되지 않는다는 이유로 인공지능 챗봇이든 제작자든 이들의 저작권을 부정하는 것이 일반적 추세이다. ( https://news.sbs.co.kr/news/endPage.do?news_id=N1006932703 ) 그러나 만약, 제작자(프로그래머 등)의 개발 기능 등에 따라 창작적 기여의 정도나 창작적 요소가 크다면 저작권의 권리 귀속 주체는 누구로 해야 하나? 2차적 저작물(원저작물을 번역, 편곡, 변형, 각색, 영상제작, 그 밖의 방법으로 제작한 창작물)과의 상호 권리관계는 어떻게 설정할 것인가? |
더 생각해볼 문제
현재의 실정에서는 생성형 AI 활용 창작물이 저작물로 인정받기 어려워 보입니다.
누구도 창작적 기여를 했다고 보지 않고 '공공의 소유'에 속하는 자유 이용 영역으로 두는 것은 어떨까요?
이런 지식재산권 이슈를 면피하기 위한 관련 기업의 노력
- 어도비는 이미지 생성과 텍스트 효과를 위한 자사 제품 Firefly의 학습데이터로 자사가 보유한 포트폴리오, 사용 허가된 이미지만 사용
- 유료 이미지 플랫폼인 셔터스톡(Shutterstock)은 라이선스를 가진 원본으로 학습한 생성형AI를 출시했다. 학습 소스 원작자에게 수익도 공유
개인정보의 자기 결정권(개인정보 보호)
입력 데이터 관련 이슈 | 출력 데이터 관련 이슈 | |
개인정보자기결정권 | 모형의 훈련에 활용되는 입력 데이터의 개인정보보호법 위반 문제가 논란이 될 수 있다. 현행법상 개인정보는 개인을 식별할 수 가능성이 있는 정보로 광범위하게 규정되어 있어 입력 데이터 중 상당수가 이러한 요건의 적용을 받을 여지가 있다. 원칙적으로 개인정보에 해당하는 데이터는 정보 주체의 동의를 받거나 개인을 식별할 가능성을 충분히 완화하는 조치를 가하고 활용해야 하는데, 대규모 언어모델(LLM)에 활용된 데이터 모두가 이를 충족하는 것은 실무적으로 무리 2021년 4월 이루다의 사례 |
학습에 활용된 입력 데이터를 그대로 혹은 확률적으로 출력하는 방식을 취한 모형의 경우 입력 데이터가 개인정보에 해당하는 한, 출력 데이터 역시 개인정보 보호법의 적용을 받을 여지가 많다. 출력 데이터가 누군가의 개인정보를 식별한 경우 <개인정보보호법> 당연히 적용 |
'생성AI(LLM)' 카테고리의 다른 글
생성형 AI/거대언어모델 앱 서비스와 비즈니스 모델 (2) | 2024.01.22 |
---|---|
생성형 AI(거대언어모델) 비즈니스에 활용하기: 경영자/서비스기획자/PM의 필수 상식 (0) | 2024.01.21 |
챗GPT랑 GPT가 동일한 개념인 줄 아는 당신에게: 생성형 AI의 역사와 한계 (2) | 2024.01.18 |
텍스트 데이터 분석(Text Analysis)의 전과정에 챗GPT를 활용(프롬프트 원문 공개) (0) | 2024.01.15 |
챗GPT 프롬프트 엔지니어링 꿀팁과 파인튜닝 관련 필수 개념 (0) | 2024.01.14 |