【AIコラム】AIを使うのは本当に危ないの?~AIセキュリティのお話

AIから“情報漏洩がほとんど起きていない”という現実

今、 ChatGPTのような生成AIは世界中で使われています。

「2025年7月には週間アクティブユーザーが7億人に達した」(NBER『How People Use ChatGPT』)

毎日25億件以上のプロンプトが送られている」 (AXIOS 2025/07)

これだけ膨大な量がやり取りされているにもかかわらず、“入力した内容がそのまま他人に見えてしまった”というような事故はほとんど見られません。

普段、AIを使っている方も「これは◯◯社の企画書だな」なんてすぐにわかるような回問が出てきたことは無いのではないでしょうか。

「AIからの情報漏洩は、世の中で言われるほど頻発しているわけではない」 という事実は、まず正しくわかっておきたいところです。

情報漏洩を恐れすぎてAIを使わないこと自体が“未来のリスク”

 マイナビの『2026年卒 大学生キャリア意向調査』では、

・AIを使った経験がある学生:82.7%
・就活でAIを使った学生:66.6%(3人に2人)

という調査結果が出ています。

このようにAIを身近に感じている若い世代が、「AIを使ってはダメ」という企業を就職先として選ぶでしょうか?
むしろ、「AIを味方にして働ける会社」を好むのではないでしょうか。

学生以外でも、たとえば普段の食事の献立をAIに相談している人も増えています。
そういった人が「仕事ではAIを使ってはいけません」というお店や会社を「なんか面倒くさい会社だな…」と敬遠しないでしょうか?

過剰に恐れてAIを使わないことは、 “未来の人材が来なくなる”という別のリスクにつながってしまうかも知れないのです…。

 AIから情報が漏れにくい“仕組み”


もう少し、“AIから情報漏洩が起きにくい仕組み”について見ていくことにしましょう。

AIに入力された文章は、そのまま誰かに閲覧される仕組みにはなっていません。

たとえば、
「A社から発注がありました」
という文を入れた場合…

AI内部では、
「A社」「からの」「発注」「が」「あり」「ました」
と細かく分解されます(トークン化と言います)

その後、それらの“言葉のこま切れ”は、「意味の近さ」を示す“数値”の集合へと変換されます(ベクトル化と言います)。

例えばこんな感じ(※ 数値はイメージ)

 「A社」→[0.92, -0.15, 0.44, 0.08]
「からの」→ 「0.7,-1.23,0.58,0.1」
「発注」→[0.12, -0.45, 1.08, …]

人間には意味不明な数値です(^_^;)

でもAIにとっては“言葉の関係性を計算する材料”なんですね。
このような数値で計算をして、生成AIは回答の文章を作っています。

あなたがAIに入力した内容は“丸ごと”保存されてしまうのではなく、このようにバラバラにされ、数値を与えられて保存されます。

仮にそれが別のユーザーに覗き見られたとしても、人間には何のことかわからないようなカタチで保管されているんですね。

ホームページやブログのように
「ページのアドレス(URL)を知っていれば誰でも読めてしまう」
というものでは無いんですね。

本当に恐れるべきは“信頼を失うこと”

そのように、生成AIは「取引先名」や「取引条件」などがそのままのカタチで他者に漏れることは考えにくい、と思われます。

でも…本当にコワいのはそこではありません。

生成AIはほとんどの人や会社にとって“新しいモノ”。
そのため、正しいけれどちょっと難しい“仕組みの話”よりも、

「AIは入力した情報を“学習”という名前で保存しちゃう」

「学習したデータは保存されて、他の人にも見られちゃうんだって!怖い、怖い」

という“噂”の方がセンセーショナルで受け入れられやすいんですね。

取引先や関係先がそう思ってしまっているのなら、私たちはそれも正しく恐れなくてはなりません。

本当に怖いのは、「情報が漏れて、実害が起きるかどうか」ではなく、「情報管理に危機感が無いと思われ、信用を落としてしまうこと」 

それが一番怖いです。

大切なのは、 「生成AIを使う時の“情報の危機管理“、どうしてますか?」と聞かれた時に説明できる状態にしておくこと。

「情報セキュリティ?何もしていません」ではなく、「コレとコレはちゃんとしています」と言えるようにしておくだけでも企業としての信頼性は大きく変わります。

ネットを使う限り、“100%完璧な対策”はあり得ません。取引先もそんな“非現実的なこと”は求めてこないでしょう。

現実に求められるのは取引先であるあなたの会社が「気をつけているかどうか」。
“AI考えて使っている姿勢”が信用を守ります。

中小企業が現実的にやっておくべき“3つの備え”

では企業として、ここでは特に大きな予算を掛けられない中小企業の場合の対処について考えていきましょう。

① 業務で使うAIは「個人アカウント任せ」にしない

「 私物スマホ・個人アカウントで社外秘を扱わない」
「業務で使うAIは個人任せにしない」

これだけでも社内ルールとして非常に有効です。

──────────────

② オプトアウト(学習に使わせない)設定方法を把握しておく

ChatGPTには「チャット履歴と学習」をオフにする設定があります。
必要に応じてオフにできる仕組みを、会社として把握しておきましょう。

──────────────

③ “入れて良い情報・ダメな情報”を明文化する

A4一枚の箇条書きで十分です。

「依頼主からのメールなどの原文は入力しません」
「取引先名や個人情報などの情報は伏字にします」
「依頼主の内部資料や計画書は入力しません。必要な場合は名称・数値などを加工したもの使います」

これらを明文化しておくと安心材料になります。

──────────────

これらが整っているだけで、
「うちは何も考えずにAIを使っている会社ではありません」
と胸を張って言えます。

まとめ

 AIを使うこと自体が危険なのではなく、「取引先などから聞かれた時に“ウチはこうしています”と答えられないこと=信頼を失うこと」が危険なんですね。

適切なルールを整え、AIを味方につけて仕事の質を高めていく企業は、これからますます選ばれていきます。

未来のために、今できる小さな備えから始めてみてはいかがでしょうか。

今、話題のChatGPT(「生成AI」)

展示会の「チラシ」の内容を考えてくれたり、

会議用の資料やタイムスケジュールをうまく作ってくれたり、

社内にある売上データや「お客さまアンケート」などのデータを分析してくれたり

と、『業務の効率化』『業務のレベルアップ』に非常に役立っています。

・・・・

ソフトバンクの孫さんなど大企業のトップも活用している、この新技術。

しかし、もっと大きなインパクトを享受できるのは、実は「中小企業」「小さなお店」

一人のスタッフが、いくつもの仕事を柔軟にこなす必要がある会社やお店であればあるほど、"様々な仕事のアシストができる"ChatGPTの恩恵は大きくなります。

・・・・

しかし…

私たちにご相談いただく企業やお店から伺ったところ、

☆ ChatGPTを社内に導入したいが、何から始めたら良いのかわからない…

☆ 我が社ではどんなことに使えるのか? 今ひとつつかみきれない…

☆ 「新しいことを覚えたくない」、「自分の仕事を奪われるのでは?!」と社員が前向きになってくれない……

といった“声”があるのも事実です。

・・・・

そこで私たち「ことのは塾」は、『日本一ハードルの低い ChatGPT講座』と題して、ChatGPT初心者にもとっつきやすい研修プログラムを提供させていただいております。

興味を持っていただけましたら、ぜひこちらのページもご覧になってみて下さい!

コメントを残す

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください