システムエンジニアリング岡山の生成AIセミナーの講師を務めさせていただきました

2023年11月21日(火)に(一社)システムエンジニアリング岡山の生成AIセミナーの講師をさせていただきました。
私の担当したのは、「生成AIを浸透させるための法的課題」でして、企業秘密の漏洩、個人情報の取り扱い、知的財産権の侵害などについて、AIとの関連でお話をさせていただきました。多数の方にご参加いただいたようで、生成AIについての関心の高さがうかがえました。

お話した内容の中から少しだけ掻い摘んでお示します。前回は著作権の問題について書きましたので、ここでは秘密情報の漏洩についてご説明します。


企業情報の漏洩リスク

ご存じの方もいらっしゃるでしょうが、本年2023年4月頃に、韓国のサムスン電子の従業員らがChatGPTにソースコードを入力するなどして、3件の秘密情報漏えいを発生させたという報道がありました。
https://www.gizmodo.jp/2023/04/samsung-leaks-confidential-information-to-chatbot.html

当然のことながら、ChatGPTを運営するOpenAI社(Microsoft社)には秘密保持義務はありません。ですから、自社の営業秘密が漏洩したということになります。OpenAI社(Microsoft社)だけが知っているのであれば、被害は小さいかもしれませんが、学習データとして利用されたりすると第三者への出力結果に表示されてしまうおそれもあります。また、他社の企業秘密であれば、NDA契約違反となることもあり得るでしょう。

したがいまして、このような企業秘密をChatGPTなどに入力するのは厳禁です。そのような従業員教育は不可欠でしょう。
また、企業向けの生成AIサービスを利用するべきでしょうし、少なくとも、ChatGPTでの学習用データ利用のオプトアウト設定は必要です(「設定」で学習用データに利用しないようにと設定できる)。なお、このようにしてもOpenAIのサーバーには30日程度はデータが残るようですので、慎重な対応が必要です。「他人の秘密情報をChatGPTで適法に処理するためには、情報処理委託先としてのOpenAI社・Microsoft社への開示について、当該秘密情報の開示元からあらかじめ承諾を取得しておく必要がある」とも言われています(中央経済社 編「ChatGPTの法律」100頁、橋詰卓司執筆部分、中央経済社(2023))。

個人情報の取り扱いも慎重に

似たような問題として個人情報に関するものもあります。ChatGPTに関してはオプトアウトの設定をしておけば、第三者提供にはあたらないとも考えられそうですが、慎重に考えるべきでしょう。利用目的として第三者のAIシステムを利用しての個人情報の処理をすることも掲げておくべきなのでしょう。

まとめ

現在、政府では事業者向けの生成AIのガイドラインを作成しているということです。検討会の内容は非開示の部分が多いので、よくは分かりません(参考: 第1回AI事業者ガイドライン検討会ウェブページ)。ガイドラインなどが作成されれば、生成AIを活用する際の一つの指標にはなるはずです。とはいえ、この分野は、いろいろな意味でまだ未知の分野といえます。新たな課題が見つかることも多いでしょうから、仕組みを理解して自ら対応していくことも必要になると思います。

関連記事

  1. ⾳楽教室事件についての雑感など
  2. 令和3年著作権法改正による放送番組のインターネット上での同時配信…
  3. 引用は「リツイート」?「スクリーンショット」?
  4. 岡山経済同友会の企業法務・会計研修会で「生成AIと著作権の基礎」…
  5. ステルスマーケティングの規制
  6. 令和3年著作権法改正による図書館関係の権利制限規定の見直し

最近の記事

PAGE TOP