【知らないと怖い?】ChatGPTで共有してはいけないこと5選!

ChatGPT

🔷この記事のレベル

  初心者      5.0   
  重要度      5.0   
  難しさ      1.0   

AIの中でも、ChatGPTの有用性は今や常識になりつつありますよね。

しかし、使い方次第では人々の脅威となり、最悪の場合、生活を奪われる可能性があります。

ここでは、英国のテクノロジー特化メディア「Wonderfulengineering.com」で紹介された、ChatGPTで絶対に共有してはいけない5つのことについて、3分で分かりやすく解説します。

リタ
リタ

理系大学院修士課程卒の大手ITコンサルエンジニア、リタです。

リスクを回避して、楽しく安全にChatGPTを活用しましょう。

この記事で分かること

✔ ChatGPTで共有してはいけないこと5選
✔ 実際のトラブル事例
✔ ChatGPTとの付き合い方

ChatGPTで共有してはいけないこと5選

英国のテクノロジー特化メディア「Wonderfulengineering.com」で紹介された、ChatGPTで絶対に共有してはいけない5つのことについて、順番にご紹介します。

個人情報

一つ目は、個人情報です。

Open AIが個人情報を悪用するという訳ではなく、ハッキングやシステムエラーによる情報漏洩の危険を回避するためです。

具体的に、以下の個人情報は絶対に共有してはいけません。

  • フルネーム
  • 住所
  • 誕生日
  • 社会保障番号
  • 個人を特定できる情報

また、OpenAIのログイン情報を他のサービスにも使いまわしている人は、ログイン情報の漏洩から二次被害に繋がる可能性が極めて高いため、要注意です。

特に、クレジットカード番号銀行口座に関する一切の情報については、ChatGPTと遮断しましょう。

リタ
リタ

2023年5月には、実際にデータの漏洩被害が起こったね。

たろう
たろう

ぼくは友達とやり取りをしている感覚になっちゃうから、べらべらしゃべらないように気を付けないと…

財務情報

二つ目は、財務情報です。

財務情報とは、損益計算書や貸借対照表など企業の財務状況を示す情報です。

財務情報を勧誘するアプリは、ChatGPTマルウェアの可能性が非常に高いため、気を付けてください。

そのため、疑わしいアプリは削除し、信頼できるソースから公式のアプリをダウンロードすることをおすすめします。

いかなる場合であっても、機密情報を提供してはいけません。

ビジネスに関する機密情報

三つ目は、ビジネスに関する機密情報です。

ChatGPTを利用することで多くの業務を効率化できるため、多くの企業で導入されています。

一方で、入力した情報が漏洩してしまうリスクも非常に高く、その被害は企業規模となるため甚大です。

そこで、企業の機密情報がChatGPTへ流出する防止策として、ボットの利用を禁止する企業が近年増えています。

機密情報の線引きは非常に難しいものです。「これくらいの情報なら大丈夫!」と安易な考えでChatGPTを利用することは避け、仕事に関する情報はChatGPTに漏らさないことをおすすめします。

リタ
リタ

実際に、サムスンやアップルは、機密データがOpenAIのサーバーに流れて以来、これらのボットの利用を禁止しているんだ。

たろう
たろう

ChatGPTの制約が強まるほど、使い方が上手/下手の差が開きそうだね。

健康データやメンタルヘルスに関わる個人的な考え

四つ目は、健康データやメンタルヘルスに関わる個人的な考えです。

ChatGPTの長所から考えれば、「自身の身体情報を入力して適切なアプローチを求める」という使い方は一見効果的に思えます。

しかし、これらのデータは個人の特徴生活様式特定される要因となる可能性があるため、危険であると考えられます。

また、ChatGPTの情報はソースが明確でないことが多いため、誤った回答に基づいた不適切なアプローチを行ってしまうことで、状態の悪化を招く恐れもあります。

生成AIプログラムを装ったマルウェア・アプリ

五つ目は、生成AIプログラムを装ったマルウェア・アプリです。

生成AIプログラム導入したアプリは多くリリースされており、AIの恩恵を強く感じる場面の一つともいえます。

しかし、マルウェア・アプリ(悪質なアプリ)の場合、知らず知らずの内に個人情報を奪われ、悪用されることは必至でしょう。

リタ
リタ

SNSで公開してはいけない情報は、ChatGPTでも共有しないって考えれば、大きなトラブルに巻き込まれる可能性は下がるね。

実際のトラブル事例

Samsung(サムスン)の機密漏洩

 韓国이코노미스트(Economist)は2023年3月30日、Samsung Electronicsが社内でChatGPTの使用を許可したところ、機密性の高い社内情報をChatGPTに入力してしまう事案が発生したと報じました。

 報道によると、Samsungの半導体事業などを担うDS(Device Solution)部門において、3月11日にChatGPTの使用を許可し、その後、約20日間で少なくとも3件の事案が発生したという内容です。

三件の内訳は以下の通りです。

プログラムエラーを解消するためにソースコードをChatGPTに入力(設備情報:2件)

社内会議の議事録を作成するために、文書ファイルをChatGPTに入力(会議内容:1件)

たろう
たろう

ChatGPTに入力して学習したことは、誰かに出力する可能性があるってことだね。

リタ
リタ

このような情報漏洩のトラブルを回避するために、OpenAI側でも、ChatGPTを利用するユーザーに対して、機密情報を入力しないよう注意喚起しているよ。

ChatGPTアカウント10万以上が盗まれる

6月20日(米国時間)、Group-IBの「Cybersecurity Services, Solutions & Products. Global Provider|Group-IB」において、約1年間でインフォスティーラ(情報窃取型マルウェア)に10万を超えるChatGPTユーザーアカウント(認証情報)が盗まれたと伝えられました。

ChatGPTアカウントの漏洩は2023年5月にピークに達し、最も侵害された地域はアジア太平洋地域であり、国別ではインドパキスタンブラジルベトナムエジプト米国フランスモロッコインドネシアバングラデシュで多くの被害が確認されたようです。

こうした情報漏洩は、自分では防ぎようがない事態に思えますが、以下の軽減策を導入することで被害は抑えられると考えられます。

ChatGPTのパスワードの定期的な更新

二要素認証(2FA: Two-Factor Authentication)

リタ
リタ

ダークWeb市場の脅威から自分を守ろう。

ChatGPTとの付き合い方(まとめ)

ChatGPTが公開され、有用性や新たな使い方が注目を浴びる一方で、徐々にリスクも明らかとなっています。

リスクを回避するために、私達にできることは、上記のような軽減策の導入です。

情報の流出は自分だけでなく、家族や職場にも悪影響を与えかねないため、ChatGPTを利用する者の責任と捉えて、これらの対策を実行していただければと思います。

コメント

タイトルとURLをコピーしました