[IFLA] 이탈리아 인공지능법과 저작권 변화, 도서관·연구 현장의 새 역할

이탈리아 인공지능법이 바꾼 저작권의 기준, 도서관의 역할, 연구 현장의 책임

이탈리아가 인공지능 규제의 큰 방향을 한 걸음 앞서 구체화했다. 2025년 9월 23일 제정된 이탈리아 법률 제132호는 10월 10일부터 시행되며, 유럽연합 인공지능법(AI Act)을 이탈리아 제도와 현장에 맞게 연결하는 첫 국가 단위 법률로 자리 잡았다. 핵심은 분명하다. 국가는 인공지능 활용을 허용하되, 창작의 주체와 책임의 최종 귀속은 끝까지 인간에게 둔다는 원칙을 명문화했다.

이번 변화가 특히 주목받는 이유는 저작권 조항 때문이다. 이 법은 1941년 저작권법 제1조를 고쳐 보호 대상을 단순한 창작물이 아니라 ‘인간의 지적 작업’이 드러난 창작물로 다시 적었다. 다시 말해, 인공지능이 초안 작성, 문장 정리, 자료 분류, 이미지 보조 생성 같은 도구로 쓰였다면 저작권 보호 가능성이 남는다. 그러나 알고리즘이 실질적으로 전 과정을 만들고 인간이 결과를 거의 선택만 했다면, 그 산출물은 법적 보호의 문턱을 넘기 어렵다. 창작의 도구는 기계일 수 있어도, 창작의 주체는 인간이어야 한다는 뜻이다.

이 원칙은 문화기관과 연구기관에 직접 연결된다. 해당 법은 새 조항인 제70조의7을 추가해, 적법하게 접근한 온라인 자료와 데이터베이스에서 텍스트·데이터 마이닝(Text and Data Mining)을 수행할 수 있는 길을 인공지능 모델과 시스템까지 포함해 열어 두었다. 다만 이 허용은 무제한 자유이용이 아니다. 기존 제70조의3, 제70조의4 체계 안에서만 가능하며, 권리 보유자의 권리 유보와 과학 연구 목적 예외를 함께 살펴야 한다. 즉, 연구와 혁신을 위해 문을 열되, 권리 질서를 무너뜨리지 않는 방식으로만 허용한 것이다.

이 지점에서 도서관의 위상도 달라진다. 기존에는 도서관이 장서를 보관하고 대출하는 장소로 읽혔다면, 이제는 적법한 데이터 접근과 연구 지원, 정보 윤리 교육, 인공지능 리터러시 교육을 함께 수행하는 공공 지식 인프라로 재정의된다. 해당 기사에 따르면 도서관은 중복 서지 정리, 의미 기반 검색 고도화, 시각장애인을 위한 접근성 개선, 다국어 번역 지원 같은 영역에서 인공지능의 도움을 받을 수 있다. 그러나 법이 강조하는 방향은 기술 대체가 아니라 전문성 보강이다. 분류의 최종 판단, 데이터 검증, 연구 윤리 점검, 이용자 안내의 최종 책임은 여전히 사서와 연구자, 편집자 같은 인간 전문가에게 남는다.

학술출판 현장도 같은 논리를 확인시켜 준다. 2024년 이탈리아 심장학 학술지에 실린 분석은 2022년 11월 공개된 챗지피티(ChatGPT) 이후 연구자들이 문장 작성, 언어 교정, 논문 투고 저널 탐색 같은 업무에서 생성형 인공지능을 빠르게 시험했다고 설명한다. 같은 글은 2023년 1월 챗지피티 이용자가 1억 명에 이르렀다고 추정하면서도, 환각과 신뢰성 문제 때문에 인간의 엄격한 검토가 필수라고 짚었다. 또한 사이언스(Science), 미국의학협회지(JAMA), 네이처(Nature) 등은 인공지능을 논문 저자로 인정하지 않는다는 입장을 밝힌 바 있다. 이 흐름은 이탈리아 법과 정확히 맞물린다. 인공지능은 저자가 아니라 보조자이며, 설명 책임과 윤리 책임은 사람에게 있다.

이번 법은 권리와 혁신의 균형을 말로만 선언하지 않았다. 위반에 대한 제재 구조도 분명히 잡았다. 유럽연합 인공지능법 제99조에 따르면 금지된 인공지능 관행 위반에는 최대 3500만 유로, 2026년 4월 8일 유럽중앙은행 환율 기준으로 약 604억 55만 원, 또는 전 세계 연간 매출의 7퍼센트까지 행정벌을 부과할 수 있다. 그 밖의 주요 의무 위반도 최대 1500만 유로, 약 258억 8595만 원, 또는 전 세계 연간 매출의 3퍼센트까지 가능하다. 이탈리아 법은 이런 유럽 규제 체계를 국내 집행 구조와 연결하고, 저작권 조항 위반 시 형사 규정까지 덧붙였다. 특히 법 제26조는 저작권법 제171조에 항목을 추가해, 제70조의3과 제70조의4를 어기고 텍스트나 데이터를 복제·추출하는 행위를 인공지능 시스템을 통해 했을 때도 처벌 대상이 되게 했다.

이 법이 던지는 메시지는 단순하다. 첫째, 인공지능 활용은 금지 대상이 아니라 관리 대상이다. 둘째, 창작과 연구의 가치는 여전히 인간의 판단에서 나온다. 셋째, 도서관과 연구기관은 기술을 도입하는 조직을 넘어, 기술의 한계를 설명하고 합법적 이용 방식을 가르치는 기관으로 바뀌어야 한다. 넷째, 학술출판과 공공지식 영역은 ‘빠른 생성’보다 ‘설명 가능한 생성’을 더 중시하는 체계로 이동하고 있다.

한국에도 시사점이 크다. 생성형 인공지능의 활용이 넓어질수록 저작권 논의는 단순한 찬반을 넘어서야 한다. 무엇을 학습에 썼는지, 어떤 권리 유보를 확인했는지, 인간이 어디에서 창작적 결정을 했는지, 결과물의 오류를 누가 책임지는지까지 세부 기준을 제도화해야 한다. 공공도서관과 대학도서관도 마찬가지다. 앞으로 경쟁력은 단순한 장서 규모가 아니라, 적법한 데이터 활용 역량, 인공지능 활용 가이드, 정보검증 교육, 연구지원 서비스의 정밀도에서 갈릴 가능성이 크다. 이탈리아의 새 법은 기술을 두려워하지 않았다. 대신 기술을 다루는 인간의 책임을 더 엄격하게 물었다. 바로 그 점이 이 법의 가장 현실적인 가치다.


내용 정리

1. 개요

  • 이탈리아, 국가 단위 인공지능 기본법 시행
    개요: 이탈리아는 2025년 9월 23일 법률 제132호를 제정했고, 2025년 10월 10일부터 시행했다. 이 법은 유럽연합 인공지능법을 이탈리아 행정, 연구, 공공서비스, 문화기관 체계에 맞춰 구체화한 첫 국가 단위 법률이다.
  • 저작권 보호 기준에 ‘인간의 지적 작업’ 명시
    개요: 법 제25조는 1941년 저작권법 제1조를 수정해, 인공지능 도구를 사용했더라도 결과가 저자의 지적 작업의 산물일 때만 보호할 수 있다고 명확히 했다.
  • 인공지능 기반 텍스트·데이터 마이닝 허용
    개요: 새 제70조의7은 적법하게 접근한 자료에 대해 인공지능 모델과 시스템을 통한 텍스트·데이터 마이닝을 허용했다. 다만 기존 예외 규정과 권리 유보 체계를 따라야 한다.

2. 추진 배경

  • 생성은 쉬워졌지만 저작권 귀속은 흐려졌다
    추진 배경: 생성형 인공지능은 글, 이미지, 요약, 번역을 빠르게 만들지만, 어디까지가 인간 창작이고 어디부터가 기계 산출인지 경계가 흐려졌다. 이 공백을 메우지 않으면 보호 범위와 책임 귀속이 계속 흔들릴 수밖에 없다.
  • 대규모 학습 데이터 이용이 연구와 권리의 충돌을 키웠다
    추진 배경: 대규모 언어모델은 방대한 텍스트와 이미지 학습을 필요로 한다. 그런데 출판사와 플랫폼은 학습용 이용을 차단하는 권리 유보를 강화하고 있고, 연구 목적 이용은 별도 예외를 요구한다. 이 충돌이 제도 정비를 압박했다.
  • 도서관과 학술출판 현장은 이미 인공지능을 쓰고 있다
    추진 배경: 해당 기사에 따르면 도서관은 검색 고도화와 접근성 개선에 인공지능을 쓰기 시작했고, 학술출판은 작성·교정·검토 보조에 인공지능을 시험하고 있다. 그런데 책임 기준과 투명성 기준이 없으면 현장 적용이 불안정해진다.

3. 개선 사항

  • 인간 중심 저작권 원칙 확립
    개선 사항: 법은 ‘인공지능 보조 사용’과 ‘기계 단독 생성’을 구분했다. 보호의 핵심 기준을 기술 사용 여부가 아니라 인간의 창작적 개입 정도로 옮겼다.
  • 연구 목적 데이터 활용의 법적 통로 확보
    개선 사항: 텍스트·데이터 마이닝을 법 안으로 끌어들여 연구와 도서관 실무가 불확실성 속에서 움직이지 않도록 했다. 다만 권리 유보, 합법적 접근, 기존 예외 규정 준수를 전제로 했다.
  • 인간 감독과 책임의 최종 원칙 유지
    개선 사항: 인공지능은 저자나 최종 판단자가 아니라 보조 도구로 위치 지어졌다. 분류, 검증, 편집, 이용자 안내, 연구 윤리 판단은 전문가가 맡는 구조를 유지했다.
  • 위반 시 제재와 집행 기반 강화
    개선 사항: 유럽연합 인공지능법 제99조의 행정벌 체계와 이탈리아 국내 형사 규정을 연결해, 기술 남용과 저작권 위반에 실질적 억지력을 부여했다.

4. 시사점

  • 도서관은 장서 보관소에서 데이터 거버넌스 기관으로 이동한다
    시사점: 앞으로 도서관 경쟁력은 많이 소장하는 능력보다, 합법적으로 연결하고 설명하는 능력에서 나온다. 인공지능 검색, 데이터 활용, 권리 확인, 정보검증 교육이 핵심 업무로 떠오를 가능성이 크다.
  • ‘AI 활용 허용’보다 ‘설명 가능한 활용’이 더 중요하다
    시사점: 기관은 인공지능 사용 여부만 공개해서는 부족하다. 어떤 단계에서, 어떤 데이터로, 어떤 인간 검토를 거쳤는지까지 기록해야 신뢰를 얻는다.
  • 한국도 창작 개입도와 책임 구조를 세밀하게 나눠야 한다
    시사점: 인공지능 시대의 저작권 정책은 찬반 구도로 정리되지 않는다. 인간 개입의 강도, 데이터 접근의 적법성, 권리 유보 확인, 오류 책임, 공공기관의 교육 역할을 함께 설계해야 한다.
  • 빠른 생성보다 느리더라도 검증 가능한 생성이 남는다
    시사점: 학술과 공공지식 영역은 속도보다 신뢰가 중요하다. 결국 살아남는 기관은 더 많이 생성하는 기관이 아니라, 더 정확히 설명하고 더 책임 있게 검증하는 기관일 것이다.

관련 기사


참조: ifla.org