[서범강의 웹툰 이야기 41] 창작을 여는 새로운 지평, AI가 오고 있다 3. 생성형 AI와 저작권

칼럼 / 서범강 기자 / 2024-11-25 15:00:22
Column

윤리와 법리 그리고 권리
최근 인공지능(AI) 기술의 급속한 발전은 사회에 혁신적인 변화를 가져왔지만, 이와 동시에 예상치 못한 위험과 윤리적 문제를 야기할 수 있는 가능성도 공존한다. 이러한 상황을 경계하기 위해 전·현직 오픈AI, 구글 딥마인드 연구자들은 첨단 AI에 대한 경고 권리(Right to Warn)라는 성명서를 발표하기도 했다. 이 성명서의 배경에는 AI 기업들이 상업적 이익에 치중해 안전 문제를 경시하고 있다는 비판이 깔려있으며, AI 분야의 저명한 학자들인 요슈아 벤지오, 제프리 힌턴, 스튜어트 러셀 등도 이를 지지했다. 성명서는 AI 기술 발전 과정에서 내부 고발자의 권리 보장과 더불어 투명성과 책임성을 강조하고 있는데 다가올 AI 시대에 대한 다각적인 시각과 접근 방식을 이해하려면 한 번쯤 살펴보길 바란다. 공동 성명에 참여한 13명은 “AI 기술이 인류에 대해 전례 없는 혜택을 제공할 수 있다” 고 얘기하면서도 동시에 “허위 정보의 확산, AI 체계의 통제력 상실, 불평등 심화 등의 심각한 위험을 경계해야 한다” 는 메시지도 전했다.


성명서는 AI 기업들이 위험에 투명하게 대처하지 않는 문제를 해결하기 위해 다음의 네 가지 주요 원칙을 제안하고 있다.

 

· 비난 금지 조항 폐지: 기업은 직원이 위험 관련 우려에 대한 비방 또는 비판하는 발언을 금지하는 계약을 체결하지 않으며, 위험 관련 비판을 이유로 경제적 불이익을 주지 않아야 한다.

 

· 익명 고발 시스템 마련: 기업은 전·현직 직원이 기업이 사회, 규제 기관, 또는 관련 지식을 갖춘 독립된 전문가 조직에 위험을 익명으로 제기할 수 있는 절차를 마련해야 한다.

 

· 공개 비판 권리 보장: 기업은 개방적인 비판 문화를 조성하고 기술적 위험이 영업 비밀 및 기타 지적 재산권과 충돌하지 않는 한, 전·현직 직원들은 대중과 정부 기관, 기업 이사회, 독립된 전문가 조직에 이를 알릴 수 있는 권리를 보장받아야 한다.

 

· 보복 금지: 우려 사항에 대한 적절한 절차가 마련되면 해당 절차를 통해 제기돼야 하며 절차가 존재하지 않는다면 대중에게 보고할 자유를 유지할 수 있어야 한다. 기업은 내부 절차가 실패할 경우 기밀 정보를 공익을 위해 외부에 공개한 직원에게 불이익을 주지 않아야 한다.


제시된 원칙들은 AI 기술의 윤리적 발전을 위한 필수적인 요소로, 기업의 투명성과 책임성을 높이는데 중요한 기준이 된다. 이 같은 사항을 고려해 비춰보건대 AI는 창작자의 지원 도구로 활용될 수있지만, 동시에 윤리와 권리의 차원에서 창의성과 독창성의 가치를 약화시키는 위험도 내포되어 AI 사용 이전에 다음의 내용을 주의 깊게 살펴볼 필요가 있다

 

먼저 AI가 콘텐츠를 생성하는 과정에서 단순히 기존 데이터를 활용해 작품을 만들어내는 것은 진정한 창작의 의미를 훼손할 수 있다. AI가 창작자의 아이디어를 대체하지 않고 보완하는 방식으로 활용되도록 윤리적 기준을 마련하는 것이 중요한 이유다. AI는 사용이 아닌 활용돼야 하고 인간이 기획과 의도를 도출하는 과정에서 AI의 보조, 즉 보완과 개선 측면에서 컨설팅을 받는다는 개념으로 봐야한다. 이때 AI가 아이디어를 제안하거나 반복 작업을 자동화함으로써 창작의 시간을 확보하는데 도움을 받을 수 있고 스토리보드 작성, 상황 구성, 배경 이미지 생성, 각색 등에서 작업 효율성을 극대화할 수 있지만, 기술 의존도를 높여 작가의 고유한 의도를 가리는 것은 경계해야 한다. 제작사 입장에서는 무분별한 AI의 남용으로 생성된 콘텐츠의 품질이 낮아질 가능성도 있다는 것을 유념해야 한다. 이는 단순히 시각적 결과물의 수준이 형편없다기보다는 일관된 스타일의 작품이 범람하거나 주제나 메시지의 고민보다는 시각적 자극이나 빠른 양산에 목적을 두고 콘텐츠를 만드는 현상을 의미한다. 웹툰 산업은 AI의 의존적 활용으로 인해 작품의 질적 저하를 초래하지 않도록 품질 기준을 마련하고 이를 관리할 필요가 있다.


AI의 사용성을 극대화하기 위해서는 AI와 창작자의 관계를 단순한 도구와 사용자의 수준을 넘어 협업 모델로 발전시켜야 한다. AI의 포지션을 어디에 두느냐에 따라 창작자의 상상력을 돕는 파트너로 쓸 수 있고 이를 통해 창작자는 더 풍부하고 다양한 작품을 만들어낼 수 있다.


그러나 이는 어디까지나 기술 남용과 자동화가 창작의 본질을 훼손하지 않도록 균형을 유지하는 것을 전제로 한다.


이는 AI를 활용한 창작의 과정에서 발생하는 결과에 대한 저작권의 권리 여부와 판단에도 중요한 영향을 끼친다.
 

결론적으로, 창작 분야에서 AI와 인간의 협업은 기회를 제공하는 동시에 윤리적, 법적 과제를 수반한다. 이를 위해 AI의 발전이 창작의 본질을 강화할 수 있도록 윤리적 기준과 법적 장치를 마련하고, 창작자가 기술 발전에 적극적으로 적응하는 것이 중요하다. 창작의 본질과 가치, 윤리와 법리 그리고 권리에 기반해 창작자는 AI가 단순한 대체재가 아니라 창조적 확장의 도구가 되도록 해야 한다.

 

AGI(범용 인공지능)
AI의 진화는 멈추지 않고 있다. 시간이 더 지나면서 지금의 AI는 AGI 단계로 넘어가게 될 것으로 보인다. AGI(Artificial General Intelligence)는 인간과 유사한 수준의 종합적 지능을 갖춘 인공지능을 의미하며 인공 일반 지능이라고 부르기도 한다.


AGI는 특정 작업에 국한되지않고, 다양한 문제를 자율적으로 해결하며 새로운 상황에 빠르게 적응할 수 있는 능력을 지녔다고 보고 있다. 이는 현재 사용중인 좁은 인공지능(ANI, Artificial Narrow Intelligence)과 대비되는 개념으로, 특정 작업이나 문제에 특화된 AI가 아니라 다양한 상황에서 인간과 같은 수준의 지능을 보여주는 기술이다.
 

2024년 3월 엔비디아의 개발자 연례행사인 GTC(GPUTechnology Conference) 2024에서 CEO 젠슨 황은 “인공 일반지능의 시대가 5년 남았다” 고 공식적으로 언급했다. 그가 말하는 AGI는 단순한 기계적 학습을 넘어 인간의 지능을 전방위적으로 모방하고자 하는 목표를 가지고 있으며 복잡한 문제 해결부터 창의적 작업에 이르기까지 인간과 유사한 수준의 이해와 처리 능력을 발휘할 수 있는 시스템이다.
 

AGI의 주요 특징과 작동 방식을 살펴보면 다음과 같다.
 

1) 범용적 문제 해결 능력
AGI는 한 가지 작업에만 국한되지 않고 인간처럼 다양한 분야에서 문제를 해결할 수 있는 능력을 지닌다. 예를 들어 지금의 AI는 특정 작업(작문, 이미지 생성, 코딩 등)에 특화돼 있지만 AGI는 이러한 작업뿐 아니라 완전히 새로운 상황에도 자율적으로 적응하고 해결 방법을 찾을 수 있다.

2) 자기 학습(Self-Learning)
AGI는 인간처럼 자기 주도적으로 학습할 수 있는 능력을 지닌다. 새로운 정보와 경험을 바탕으로 지식을 확장하며 기존에 학습한 지식을 바탕으로 더 나은 결정을 내릴 수 있다. 이는 단순한 패턴 인식이나 데이터 기반 학습을 넘어 창의적 문제 해결과 같은 고차원적 사고를 포함한다.

 

3) 맥락 인식과 창의성
AGI는 단순한 지식의 습득을 넘어 상황의 맥락을 이해하고 창의적으로 문제를 해결할 수 있다. 예를 들어 한 분야에서 얻은 지식을 전혀 다른 분야에 응용할 수 있는 융합적 사고 능력을 갖추는 것을 목표로 한다. 이는 인간의 직관적 사고와 유사한 능력이다.


4) 자율성 및 의사 결정 능력

AGI는 인간의 감독없이도 스스로 의사 결정을 내릴 수 있다. 인간의 개입 없이도 새로운 상황에 대한 판단과 행동을 수행할 수 있으므로 특정한 프로그래밍 없이도 다양한 환경에서 적응해 나갈 수 있다.

 

 

AGI의 상용화는 예술과 창작 분야에 혁신적인 변화를 가져오지만, 동시에 복잡한 갈등과 규제 문제를 초래할 가능성이 크다. 인공지능이 AGI 수준에 이르면 단순히 도구적 차원을 넘어 창작의 의미와 본질 그리고 창작자의 정체성까지도 흔드는 중요한 문제로 이어질 가능성이 제기될 수 있다.

 

작품은 단순한 산물이 아니라 창작자의 정체성과 감정의 표현으로 여겨진다. 그러나 AGI가 음악, 그림, 문학, 웹툰 같은 창작물을 인간과 유사한 수준으로 생산할 수 있게 되면 인간과 AGI 사이의 창작 권위에 대한 갈등이 발생할 수 있다. 예를 들어 AGI가 쓴 소설이나 AI가 그린 그림이 예술적 가치를 인정받고 상을 받는다면 창작자는 자신의 고유한 역할과 권위를 위협받는 것으로 받아들인다. 우리가 창작자의 작품을 이해할 때는 그의 경험과 의도가 작품에 반영됐음을 전제로 생각하는데 AGI의 창작물에 대해 동일한 수준의 의미와 권위를 부여하는 것이 가능할 지 의문이다. 이러한 갈등은 창작 과정에 대한 해석의 문제로 이어지고, 예술 작품의 의미와 가치가 AI에 의해 생산된 결과물에도 적용될 수 있는지를 두고 사회적 논란을 일으킬 수 있다. 따라서 이 같은 문제는 윤리적으로 저작권 보호와 창작자의 권리 보장이라는 측면에서도 중요하게 다뤄야 한다.


AGI의 상용화는 혁신적 측면에서 창작 분야에 새로운 기회와 도전을 제공할 수 있다. 창작자에게 다채로운 형식과 아이디어를 탐구할 기회를 제공하고 창작 범위를 확장하는데 기여할 수도 있다. 특히 웹툰같은 시각 예술 분야에서는 다양한 시각적 스타일과 형식을 제안해 작품의 다양성을 높이는데 도움이 될 것이란 예측도 있다.


그러나 이러한 기회와 함께 창작자의 역할 축소, 독창성 약화라는 부작용이 뒤따를 수 있음을 기억하자. AGI의 남용이 작품의 질을 저하시킬 가능성을 경계하고 창작자는 AI와 협력하는 과정에서 자신의 예술적 정체성을 유지하는 것이중요하다. 동시에 창작 분야에 미치는 영향을 효과적으로 관리하기 위한 법적·윤리적 규제와 가이드라인을 제시하고 단계에 따른 보고 체계와 투명한 사용 절차를 도입해야 한다.

 

 

 서범강
·(사)한국웹툰산업협회 회장
·아이나무툰 대표

[ⓒ 아이러브캐릭터. 무단전재-재배포 금지]

뉴스댓글 >

SNS