仕事で生成AIを使う前に:ChatGPTの法的リスクと民事責任の考え方/画像生成・動画生成AIとパブリシティ権の注意点

当ページのリンクには広告が含まれているものがあります
生成AI×法的リスクの要点

昨今、急激にChatGPTに代表される生成AIが仕事でも使われるようになってきました。

今回は経済産業省の最新資料「AI利活用における民事責任の在り方に関する研究会」もとに仕事で生成AIを使う場合の法的リスクや民事責任についてまとめてみます。

この観点をもって、社内ルール等を定めて契約・運用に落としこんで、使わないとちょっと怖いところもあるんですよね・・・

目次

仕事で生成AIを使ううえで「まず知るべき前提」

まずは仕事で生成AIを使うなら知っておくべき前提をみていきましょう。

いま重要なのは“考え方の指針”

まず、大前提としてChatGPT等の生成AIが使われだして、それほど日が経っていません。

そのため、まだ十分な判例はないんですよ。

法律は最終的に裁判所が解釈する形になりますので、まずは考え方の指針を持つことが重要です。

経産省の研究会でも、AI事故時の責任論について裁判実務を踏まえた論点の所在と考え方の指針を整理する場で、最終成果物も「準則」より「考え方/指針」に近い位置づけが検討されています。

企業は“唯一絶対の答え”を探すのではなく、予見可能性を高めるための枠組みとして読み解くのが実務的となります。

「AI利用者に全面的な注意義務」は合理的でない場面がある

高精度なAIを使うのに人が全件ダブルチェックするのは非現実的。

せっかく生成AIで業務効率化しても、ダブルチェックに時間を掛けていては逆に時間がかかってしまいますしね。

研究会は、AIシステム全体として誤検知を抑える合理的措置(HITL・ログ・運用ルール等)を講じていれば、直ちに過失が認められない場合もあり得る、と整理していますね。

想定事例で学ぶ:民事責任の「考え方」と実務のツボ

次に研究会で挙げている想定事例を見ながら民事責任の考え方と実務のポイントを見ていきます。

事例A:画像認識AI(検品)— 高精度AI×人の役割分担

まずは事例Aです。

導入したのは

X線装置+画像認識AIで異物検出する受託検品

何が起きたか

4年目に見落としが発生し消費者が負傷。

契約は抽象条項のみ

責任が問われる可能性

問われる可能性があるのは、まず製造業者のPL法(製造物責任)

検品事業者には不法行為(過失)追及や、Cからの求償が想定。

ただしAI全件再確認義務を課すのは不合理で、合理的措置により過失否定もあり得るとのこと。

実務対応:ガバナンスの骨子

実務対応として考えられるのは以下でしょう

  • 適正利用・HITL(人レビュー範囲の設計)
  • 誤検知時のフィードバックと原因分析
  • 記録・トレーサビリティ(検査ログ・判断根拠)

事例B:画像生成AI— パブリシティ権(顧客吸引力)と共同不法行為

次は事例B

画像生成のケースです。

Googleのnanobananaなど画像生成のレベルがどんどん上っていますから、今後かなり増えそうなケースですね。

なお、sora2など動画生成でも同じ話です。

何が起きたか

公開データセットで学習した画像生成AIを、アパレル企業が広告に利用。

著名タレントに酷似と主張され、パブリシティ権侵害が問題化。

学習データにはURL由来の人物画像も含むが、Re-captioningや潜在空間での学習など複製反映を防ぐ措置は講じていた想定。

パブリシティ権とは(超要約)

パブリシティ権とは氏名・肖像等の人格権由来の顧客吸引力の独占的利用。

これを専ら顧客吸引力の利用目的で広告に使うと侵害成立の可能性。

①独立の広告対象として使用、②商品差別化目的での使用、③顧客吸引力の利用が“主”に該当すると侵害方向となります。

従来の撮影→広告とちがい、データセット→学習→生成という経路は特定の元データを直接使ったとは限らない点が特徴で今後かなり増えそうな問題ですね。

似た概念の著作権は引用要件や権利制限(私的複製・教育等)に入れば侵害でない一方、広告利用は原則として権利者の許諾が必要。

生成物が既存作品の複製・翻案レベルかどうかは個別判断となります。

利用者の責任の見立て

  • 酷似性の評価(生成物が某タレントに似ているか)
  • 過失評価(著名人を広告に使う場合の調査・確認義務を尽くしたか)
  • 全国的知名度のタレントほど過失認定の可能性が上がるという示唆。

ジブリ風、鳥山明風などのアニメ画像も問題に上がっていましたが、タレントという個人のケースも今後は増えてきそうですね。

開発・提供者の責任の見立て

  • 自ら侵害主体か(生成モデルが“確実に酷似画像を出す”設計・運用か)
  • 共同不法行為(幇助)か(利用者の侵害を高リスクにする提供行為・説明不足があるか)
  • 予防措置の内容と充実度(Re-captioning、潜在空間学習、正則化・フィルタリング、出力検査など)。

重要:権利侵害防止措置

研究会は、データセットが十分に大規模かつ再現抑制の措置があると、特定人物の複製的生成のリスクは低く管理可能と整理。

一方、小規模データ+予防措置なしだと、酷似画像が頻発しやすい共同不法行為問われ得ると評価しています。

組織(経営・管理部門)が整えるべきこと

今までの事例から会社としてやるべきことを整理しておきましょう。

ポリシー&教育

まず重要なことは生成AI利用ポリシーを作成すること。

高リスク利用(広告・対外公表・クリエイティブ)」「中リスク(社内草案)」「低リスク(要約・試行)」の区分と審査手順を明文化しておきましょう。

また、全社員向けにAI倫理・著作権・パブリシティ権・情報漏えい基礎教育を実施することも大事(他自治体・企業のガイドも参考になる)。

生成物の対外利用フロー

著名人酷似の検知の仕組みを導入。

対外的に出す素材は人の最終チェック類似度の機械判定(画像認識)を併用するのがおすすめ。

疑義があれば差し替え。

最近は検索機能が上がっていますから、調査も容易になっています。

出典表示・注意書きをする。

引用などなら出典表示、引用がないなら必要に応じ「生成AI使用」との表示をすることも誤認防止としても効果がありそう。

ログ保全

プロンプト/モデルバージョン/生成日時/フィルタリング結果

等をログ保全して証拠化することもやっておきたいところ。

制限をかける

著名人固有名詞の入力制御、出力フィルターの有効化はしておくのも手でしょう。

著名人の氏名や固有名詞をプロンプトで直接指定し、酷似画像を狙って生成・販売・広告に使うのはアウトとされる可能性が高いです。

パブリシティ権の主体的侵害型に近づきます。

ジブリ風、鳥山明風といった作風レベルのものは、判断が分かれるところですが、リスク回避を考えると使わないのが無断ですね。

契約(開発・調達・SaaS)で盛り込むべき条項

次に契約で盛り込んで起きたい条項も考えておきましょう。

これは生成AIを利用する会社もそうですし、利用される可能性がある商品を納入を受ける側も意識したいことです。

性能・用途・役割分担の明確化

想定用途/精度範囲/人の介在範囲を仕様に明記(「AIの結果を全件再確認」義務を回避し、合理的措置に紐づく)。

説明義務・通知義務

学習データの一般的性質、フィルタ/安全機構、既知リスク回避策を説明。

虚偽説明は説明義務違反となり得ます。

侵害予防措置の実装保証

Re-captioning、潜在空間学習、固有名詞ブロック、出力フィルタ、ロギング技術的・運用的措置として列挙し、監査・証跡を契約化しましょう。

免責・補償(責任の配分)

重過失・故意は免責不可等の条項も設けておきたいところ。

通常の範囲での補償上限第三者権利侵害の補償共同不法行為の求償の考え方を明記。

研究会も、“すべて利用者の責任”に寄せ過ぎる条項はインセンティブを損なうと指摘しています。

画像が「誰かに似ている」と指摘を受けた場合の対応

それでは画像や動画が誰かに似ているなどの指摘を受けるなどトラブルが発生した場合にどうすればよいのかを考えてみましょう。

最初の60分

この手の話は初動が肝心です。

  1. 公開停止(SNSやWEBページであれば該当素材・関連導線)。
  2. エビデンス保全(プロンプト・生成ログ・フィルタ結果)。
  3. 一次返信:事実確認中である旨を丁寧に通知。

まずは早急に公開を停止するということが最も大事になります。

24時間以内

次にやるべきことは以下の点。

  • 酷似性の技術検査+人判断差替案の準備/弁護士相談
  • 再発防止策(プロンプト禁止語、フィルタ閾値)をコミット

研究会でも、調査・確認義務を尽くすことが過失評価の鍵との指摘があります。

最近でも写真を無断トレースしたイラストレーターがXで大炎上になっていますが、このケースは初動がまずかったですね・・・

ChatGPT等のテキスト利用の法的リスク

次にテキスト利用についても考えてみましょう。

誤情報・専門職の注意義務

専門家サービス(法務・医療・税務・労務など)はAIの有無に関わらず、職業上の注意義務を負うため、最終判断は自ら

ここでの過失評価は重く、説明義務違反/幇助の観点もあり得ます。

昔、ディー・エヌ・エー運営する医療まとめサイト「WELQ」に端を発した騒動なんかもありましたね。

あの当時は生成AIではなく、外注やアルバイトが作成した記事が問題になりました。

生成AIを使う場合も結局は同じで、このあたりはしっかり認識して利用する必要があります。

ちなみに社労士会は会員のブログ等を巡回して指摘してるそう。

テキストの運用のポイント

テキストに生成AIを使う際のポイントは以下です。

  • 対外公表:一次情報確認(官公庁資料・約款・ガイドラインを確認して引用)。
  • 社内草案:低リスクだがログ保全(プロンプト/出力の保管)。
  • 個人情報・営業秘密の持ち込み禁止は社内規程で明文化(東京都・自治体の運用ガイドも参考に整備を)。

まとめ

今回は「仕事で生成AIを使う前に:ChatGPTの法的リスクと民事責任の考え方/画像生成・動画生成AIとパブリシティ権の注意点」と題して経済産業省の最新資料「AI利活用における民事責任の在り方に関する研究会」もとに仕事で生成AIを使う場合の法的リスクや民事責任についてまとめてみました。

AIの全件再確認は原則不要です。

重要なのは合理的措置役割分担の設計・証拠化。

画像生成や動画生成AIはパブリシティ権がポイント

酷似の誘発性を下げる設計・運用・審査が生命線となります。

契約・規程・教育・運用を一体で整えると、共同不法行為説明義務違反のリスクを実務的に下げられます。

ぜひ本格的に生成AIを仕事で使う前にチェックしておきましょう。

なお、経済産業省の元資料はこちらで見ることができます(PDFです)

>>経済産業省 商務情報政策局 情報経済課 AI利活用における民事責任の在り方に関する研究会

記事が参考になりましたらシェアお願いします
  • URLをコピーしました!
  • URLをコピーしました!
目次