生成AI最前線 ついに始まるLLMのビジネス活用 第2回 セキュリティ面の懸念を解消! 今、注目の「ローカルLLM」
2025年1月22日(水)8時0分 マイナビニュース
前回、Appleの参入で生成AIの活用状況に一石が投じられたこと、しかしながら生成AIにはまだ3つの課題があるというところまで説明しました。その3つの課題とは「セキュリティ」、「自社データの活用」、「ハルシネーション」です。生成AIがそのポテンシャルに比して活用が進んでいない原因には、この3つがあると考えられます。
では、これらの課題はどうすれば解決できるのでしょうか。今回は「セキュリティ」に関する課題の詳細と解決策について解説します。
本連載では、2024年9月に公開したeBook「生成AI最前線 ついに始まるLLMのビジネス活用」を全5回に分けてお届けします。内容はeBook公開時点の情報であり、最新のものとは異なる場合があります。あらかじめご了承ください。
リスクとメリットのトレードオフ
そもそも生成AIにおけるセキュリティ課題とは何でしょうか。生成AIの仕組みについて今一度確認してみましょう。
生成AIを使用する際、まずは生成させたいコンテンツについて指示を出します。例えば「新商品を企画しています。次のような商品の特徴を踏まえて企画書を生成してください」(以下、特徴を列挙)とプロンプトで指示を出すと、生成AIは指示通りの文章を生成してくれるわけです。
ChatGPTなど一般的な生成AIの場合、入力したプロンプトはまずは生成AIのサーバに送信されます。そしてサーバで文章が解析され、その内容を基に生成AIがコンテンツを生成、生成されたコンテンツがサーバから再び送られ、PCやスマートフォンの画面に表示されるという流れです。
ここでポイントとなるのが、「入力したプロンプトがサーバに送信されている」という点です。つまり、もしも生成AIを提供している企業に悪意があった場合、プロンプトを見たり、こっそり保存したりもできるということになります。ただ、それは極端な話かもしれません。
現実的に課題視されているのは、もう1つの可能性です。それは、「プロンプトとして入力した文章が生成AIの学習に使われる」こと。例えば、先ほどの例でいうと、「新商品を企画しています。次のような商品の特徴を踏まえて企画書を生成してください」というプロンプトを入力したことで、生成AIは「企画されている新商品とその特徴」を学習してしまいます。そして、この学習された内容が、まったく別のユーザーに対する生成物に活用される可能性があるのです。もし、競合他社に情報が漏れてしまったら……場合によっては会社の業績に影響を与えかねません。
もちろん、プロンプトを生成AIに学習させないように設定することもできます。また、ChatGPTであればAPIを利用して外部サービスと連携した場合、プロンプトは学習に利用しないことが明記されています。
ですが、だからといって「それなら安心だ」と思えるでしょうか。個人情報や機密情報など万が一にでも学習されては困る情報を生成AIに入力できるでしょうか。少なくとも私は絶対に入力しません。しかも、やっかいなことに生成AIを提供している企業も「学習に利用しません」とは書いていても、「100%安全です」とは保証していないのです。なぜなら、生成AIを提供している企業ですら、AIの内部で起きていることについてはコントロールしきれないからです。これは技術力がないのではなく、AIとはそもそもそういうものなのです。AIとは人間の知能を模した存在ですから、他人を100%コントロールできないように、AIも100%はコントロールできない、と考えればしっくりくるのではないでしょうか。
.