特集 生成系AIへの対応
嶌 英弘(京都産業大学 法学部教授)
生成AIを巡る近時の発展を受けて、わが国でも、教育機関、企業、公的機関における生成AIの利用が進んでいます。とりわけ教育機関における利用促進には、2023年7月13日付の文科省指針「大学・高専における生成AIの教学面の取扱いについて(周知)」が大きく影響していると思われます。
文科省のスタンスを簡潔に表現すると、「大学・高専の教育における生成AIの利用は推進が原則であり、問題点とバランスをとるために現在の利用実態に応じて指針を示す等の対応が必要である、そしてその対応は適宜見直しが必要である」と、まとめられます。要するに、走りながら考えましょうという基本方針です。本稿では、今後、教育目的で生成AIを利用していく上での法的問題点とその対応について、記述します。
(1)個人情報との関係
生成AIの利用に際しては、まず、個人情報保護法上の問題があります。個人情報保護委員会は、大学を含む諸機関に対して、個人情報取り扱いに関する注意点を取りまとめるとともに、ChatGPTの運営会社に対して、利用者等の要配慮個人情報(病歴や遺伝情報、犯罪歴などのいわゆるセンシティブ情報)を本人の同意を得ずに取得しないよう行政指導を行っています。
ただし、ChatGPTではオプトアウト(プロンプトに含まれる情報は学習しない)設定が可能であり、ChatGPT Enterpriseでは、プロンプトや企業データは学習利用されないなど、情報漏洩の防止が図られています。このように、現時点では教育利用にも個人情報保護を意識する必要はありますが、今後、この点はサービス提供者の側でシステム対応される方向に進むと思われます。
(2)著作権との関係
次に著作権との関係ですが、教育機関における複製や公衆送信は、著作権法35条により例外扱いされ、著作権者の許諾が不要です。これにより、大学における著作物の教育利用については、ビジネス利用に比べて著作権侵害が生じる事例は少ないと思われます。
しかし、同条の例外扱いは無制限ではありません。
そもそも基本的な著作権保護のしくみを理解しなければ、どこまでが同条に基づき許される教育利用なのかわかりません。注意すべきは、現在の大学においては、学生と教職員全体を対象とする一般的な著作権教育が存在しないことです。
また、大学の著作権教育は、教育利用の問題にとどまってはだめです。学生は数年後には社会に出て、ビジネスとして生成AIを開発したり利用したりするわけですから、これらに対する規制の概要も認識している必要があります。例えば、EUと取引のある企業では、欧州議会のAI利用包括規制法の概要を認識している必要があるでしょう。
これらの点を踏まえたうえ、問題が生じる事案を具体的に考えてみましょう。まず考えられるのは、学生が学修に際して生成AIを利用して文章を作成し、これをSNSやホームページ上で公表したり、自己の著作物として利用したりする場合です。このような利用は著作権法35条で認められる教育利用ではありませんので、既存の著作物との類似性、依拠性が認められる限りで、著作権侵害となります。
次に、学生が自分で書いた論文を自分の著作物として公表したところ、その一部に生成AIが出力した文章が使われており、その部分には類似性、依拠性が認められる場合です。この場合、他人の著作物を一部使っているのですから、引用形式で元の著作者と出典を示す必要があります。しかし多くの生成AIは引用を明示しません。その限りで、部分的利用でも著作権侵害の危険性はありますので注意が必要です。このような危険を回避するため、近時は、生成AIが出力した文章の元データを追跡して表示するシステムも開発されています。
より問題が生じやすいのは、画像生成AIが出力した画像や絵画です。スマートフォンで簡単に使える画像生成AIの場合、教員や学生が出力した画像をうっかりと教育目的以外で利用することは充分に考えられます。
ビジネス利用においては、情報漏洩や著作権侵害への対応が既に始まっています。先述のように、ChatGPT Enterpriseはシステムとして情報漏洩に対応しています。画像生成AIの学習に際して、あらかじめ著作権処理をした画像だけを読み込ませることで著作権侵害が生じないようにする試みが行われています。ハルシネーション(生成AIが間違った情報を作成する現象)対策も開発されつつあります。
今後、各大学は生成AIの教育利用指針を作成していくことになると思われますが、上述の問題点がシステムレベルで解決されるまでは著作権侵害や個人情報保護に向けた慎重な対応が必要であり、そのための著作権教育体制の整備が必要であると思われます。