創作品の価値損なう…AIとクリエーター、急がれる著作権対応
人工知能(AI)技術の進展でクリエーターの未来が脅かされると懸念されている。イラストやグラビア写真などの作成で生成AIの完成度が上がってきたためだ。クリエーターの作品がAIの学習データとされ、クリエーターの作品の市場価値が損なわれるという皮肉な構造があり、著作権制度の対応が求められている。また対抗技術の開発が急がれる。(小寺貴之)
「学習」「利用」2段階で議論不可欠
「生成AIは市場を変える技術。変化は大きく不可逆ということは確実だ」と日本画像生成AIコンソーシアム(JIGAC)の望月逸平代表は説明する。本職はストックコンテンツ販売のアマナイメージズ(東京都千代田区)のAI倫理対応・政策企画責任者だ。AI研究者や弁護士、企業経営者20人とJIGACを立ち上げた。データ提供の許諾システムやデータ提供者への収益分配システムについて検討する。
AIの高度化でクリエーターとプラットフォームの関係は変化した。特にクリエーターにとっては自分の作品がAIのデータの肥やしになり、作品の市場価値が損なわれるというフラストレーションがある。
これまでクリエイターはイラスト共有サービスなどのプラットフォームを支えてきた。市場が大きくなれば還元されるはずと信じてのことだったが、十分な還元もないままAIに代替される状況に失望が広がる。ユーザー生成コンテンツ(UGC)のようなステークホルダーの多いビジネスモデルのリスクが顕在化している。
そこで著作権制度の対応が求められている。生成AIは大量のデータを集めてAIモデルに学習させて構築する。AIモデルにテキストや画像などの形で指示すると画像を出力する。この学習段階と利用段階に分けて著作権の考え方が整理されている。
学習段階では大量の学習データが必要になる。このデータの多くはネット上から無断で集められたものだ。日本の著作権法では著作物に表現された思想や感情を他人に享受させない目的では著作物を利用できる。
研究目的やAI生成作品を私的に楽しむ分には、著作権者の許諾なく作品をAIに学習させられる。対してAI生成作品を他人が享受する場合は許諾が必要だ。AI生成作品を販売したり、AIサービスを提供するには、許諾を得たデータを学習したAIモデルが必要になる。
許諾を得るにはコストがかかる。AI開発者らは事後に差し止められるオプトアウト方式を推す。機械的に大量に集めたデータに、クリエイターの作品が混ざっていれば、クリエイターに対し申し出る機会を用意する。
一方、クリエーターらは事前に許可をとるオプトイン方式を推す。クリエーターとAIの未来を考える会の木目百二理事は「膨大な学習データの中から自分の作品を探すのは極めて困難」と指摘する。
生成AIを使う企業にとっては、学習データが許諾を得ているかどうかは調達の最低条件になる。許諾がなければ訴訟リスクをはらむからだ。またJIGACに参加する電通グループの児玉拓也AIMIRAI統括は「法的に問題がないだけでは不十分。創作に貢献できなければ意味がない」と指摘する。
私的な享受、”抜け穴“に
利用段階ではAI生成作品の類似性と依拠性が争われる。創作的表現が元の作品と似ていて、それを元に創作したことが認められれば、クリエイターらは著作権侵害として賠償請求できる。ただ創作的表現に画風や作風、アイデアなどは含まれない。これは後発者の創作を制限しないためだ。著作権侵害の裁判で、似た部分が表現なのかアイデアなのか争われるケースは多い。文化庁は、この判断は人間同士の裁判と同様とする。
だが生成AIで前提条件が変わった。例えば特定の作品を学習させた画像生成AIを研究用として開発し、その作品を知らないと証明できる人物(最終制作者)が、その画像生成AIを活用し似た作品を作って公開したと仮定する。この場合、最終制作者には依拠性を認められない可能性がある。
そのため依拠性の有無を判断する対象を最終制作者だけでなく、AIの開発者にも広げる必要があるかもしれない。文化庁の三輪幸寛著作権調査官は「問題意識を受け検討が進んでいる」と説明する。
ほかに私的な享受に当たるケースとして、事業者が歴史や教育番組などの定型ストーリーに沿って漫画の大枠を作って提供し、ユーザーが自分の好きな作品をAIに学習させてキャラクターを当てはめ、特定作品の新作として楽しむといったシチュエーションがある。三輪調査官は「私的利用はデータ収集の許諾は要らない。定型のストーリーは創作的表現には当たらない」と説明する。
このため定型ストーリー枠、AIモデル、データセットを別々の事業者が提供する形であれば、責任追及を回避できる可能性がある。実際に研究目的と称して、海賊版とみられるアニメサイトから日本のコンテンツを収集し、作成したデータセットなどが公開されている。
「フェイク動画」検知実用化、対抗技術開発も仕組み課題
著作権制度だけでは対応できない問題もあり、対抗技術が開発されている。フェイク動画問題はその一つ。国立情報学研究所の越前功教授らは、フェイク顔映像検出技術を開発した。
生成AI技術を使って、特定の顔を別人の動画の顔に入れ替える技術が確立している。これを悪用し、政治家らのフェイクスピーチなどが作成されている。越前教授のAI技術はフェイク生成の特徴を学習して見分ける。サイバーエージェントが採用し、タレントのフェイク動画検知技術として実用化した。越前教授は「方法論はすでにある。元データと生成データのデータセットがあれば検知できる」と説明する。
元画像を入力して生成画像を出力するタイプの生成AIでは、特定の作者の模倣作品を乱造して公開する嫌がらせが起きている。それら模造作品が、作風の模倣だとして著作権侵害にならないとしても、生成AIを使った作品と証明できれば対策を講じられる。
越前教授は「課題は技術開発よりもデータセットと持続可能な仕組みの構築」と指摘する。データセットがあれば研究者は技術を開発できる。ただ研究者だけでは人手が足りないためクリエーターと協力してデータを準備する必要がある。公的機関や権利保護団体などにデータや事例を蓄え、技術開発と市場監視機能を持たせる仕組みも考えられる。
クリエーターの保護はUGCプラットフォーマーにとっては競争力になるため、こうした活動の中心になる可能性はある。プラットフォーマーのいない分野では、国や権利保護団体などが支える必要がある。コンテンツ産業の振興に向けてクリエーターを守る戦略が求められる。