「隠れAI利用」は解雇の可能性も、職場で使う者の4割が社内規定に違反
職場でChatGPTを使うと、仕事が速くなり、より賢明になり、生産性も上がる──しかし同時に、職を失うリスクもある。
今や何百万もの従業員が毎日このAIツールに頼っており、OpenAIの報告によれば、ChatGPTを試したことのある米国の就労成人のうち、職場で実際に使用している人は28%に達している。1年前にはわずか8%だった。利用が急増するにつれて、会社のAIポリシーを把握していない従業員のリスクも高まっている。
これは現実の話だ。KPMGと豪メルボルン大学の最新調査によれば、AIを利用する労働者のほぼ半数が、自覚なしに会社の規則を破っている。さらに深刻なのは、多くの人が機密データを漏えいさせたり、AIが生成した成果物を自分のものとして提出したりしていることで、上司や顧客との信頼関係を損なっている。競争の激しい雇用市場では、こうした過ちがキャリアを終わらせる可能性もある。
職場でChatGPTを使う前に、キャリアを危険にさらす不適切な行動について知っておくべきだ。
■職場でのChatGPT利用はなぜ危険になり得るのか
職場でChatGPTを使うことは無害だと思っているかもしれない。生産性が上がっているのであればなおさらだ。しかし、明確なルールや安全対策がなければ、日常的なAIタスクでさえ、職や評判を危険にさらす可能性がある。
AIツールは、職場の生産性を記録的な速さで変革した。従業員の70%が現在、雇用主から提供されているソリューションの代わりに、ChatGPTのような生成AIプラットフォームを利用している。こうした急速な普及は、従業員が報告している具体的な利点を反映している。大幅な効率改善(67%)、情報アクセスの向上(61%)、イノベーション(59%)、仕事の質の向上(58%)などだ。
問題は、技術そのものではなく、普及のスピードだ。この変化は、研修や安全対策が間に合わないほど速いため、従業員は自分や組織にもたらされる結果を理解しないままAIツールを操作する、という状況に陥っている。
■多くの従業員が見落としているAIのリスク
多くの労働者は、AIが時間を節約してくれることばかりに目を向け、潜在的な問題を考慮することを忘れている。最も大きなリスクのいくつかは、目に見えない形で潜んでいる。微妙なポリシー違反から、可能性にすら気付いていないデータ漏えいまで、実際にはさまざまなリスクが存在する。
職場におけるこの課題の規模は驚くべきものだ。調査によれば、AI利用者の44%が社内規定に違反しており、66%は職場で生成AIを使用しながら、それが許可されているかどうかすら把握していない。こうした混乱は、特に企業や規制当局が不正使用の取り締まりを強化し始めた今、即座にキャリアを危険にさらす。
こうしたグレーゾーンで仕事をしている従業員は、懲戒処分や解雇に直面する。取り締まりはますます積極的かつ高度になっており、こうした結果が生じる可能性は高まっている。
■従業員は、知らず知らずのうちにAI関連規則を破っている
ほとんどの従業員は、意図的にルールを破っているわけではない。単にルールを知らないだけだ。明確な社内ガイドラインがなければ、AIを使う者は容易にポリシーやコンプライアンス要件に違反してしまう。
多くの組織では、AIに関する方針が不十分か、あるいは存在しない。生成AIに関するガイドラインを定めている企業はわずか34%で、その使用を完全に禁止している企業は6%にすぎない。こうした明確さの欠如により、従業員は、何が許されるのかを推測するしかなく、関係者全員に不要なリスクを生み出している。
AIに関するよくあるルール違反は以下の通りだ。
・承認されていないAIツールを仕事に使用する
・機密情報や専有情報をアップロードする
・AIが生成したコンテンツを、事実確認なしで共有する
■AIを過剰に使うと評判を損なう
AIは有用なパートナーになり得るが、過度に依存すると逆効果になる。成果物の多くが自動化されているように見えたり、個人的な洞察に欠けていたりすると、同僚や上司はあなたのスキルを疑い始めるかもしれない。
KPMGの調査によれば、AI利用者の3分の2は、ChatGPTが生成した結果を検証せずにそのまま使っており、56%はAIの誤りによってミスを犯している。さらに半数以上が、AI生成の成果物を自分のものとして提出している。
評判を損なうリスクには以下のようなものがある。
・仕事が一般化あるいは自動化されたように見える
・同僚にあなたのスキルや判断を疑われる
・専門性を示す機会を逃してしまう
■AIの利用が会社のデータを危険にさらす
機密情報の共有は、それが明確なものばかりではない。AIツールに詳細な情報を入力すると、たとえあなたが無害だと思っていても、会社の情報が漏れてしまう可能性がある。
AIユーザーのほぼ半数(48%)が、機密性の高い企業データや顧客データを公開AIツールにアップロードしている。従業員がChatGPTに詳細を入力すると、その情報はプラットフォームの学習エコシステムの一部になる可能性がある。
公開AIツールと共有すべきでない機密情報には、以下のようなものがある:
・財務報告や財務予測
・顧客リストや連絡先情報
・人事記録、法的文書、戦略メモ
■企業がAIを懸念する本当の理由
多くの組織にとって、AIに関する懸念は、生産性という利益を上回る。経営陣は、法的リスク、規制の変更、そして機密情報の長期的な安全性を懸念している。
データが入力された後も、危険は終わらない。公開AIツールは、ユーザーの入力に基づいて絶えず進化するため、機密性の高い企業情報が数カ月後あるいは数年後、予期せず再浮上する可能性もある。現在無害に見える情報も、AIシステムの知識ベースに恒久的に組み込まれることで、時間の経過とともに増幅するリスクを生み出す。
■データのリスクはAIシステムに残り続ける
公開AIツールに情報を入力すると、その情報の行き先を制御するのは難しい。そのデータは保存され、分析され、予期せぬ形で再び現れる可能性さえある。
AIデータのリスクがいつまでも続く理由:
・情報は無期限に保存される可能性がある
・コンテンツは分析したり、ほかの情報源と照合したりできる
・数カ月後あるいは数年後、詳細な情報が再び現れる可能性がある
こうした長引くリスクは、厳格なプライバシー規則がある業界にとって特に深刻だ。AIシステムにおけるデータの不適切な取り扱いが、法令違反や訴訟、あるいは重大な評判悪化につながる可能性がある。
AI利用が特にコンプライアンス上の問題につながりやすい業界
監督機関によって規制される業界では、AIツールを使用する際に、さらに高いリスクに直面する。
・米国の医療分野では、AIが患者データを処理する際に、「医療保険の移植性と責任に関する法律(HIPAA)」に準拠しなければならない
・米国の金融サービスは、米証券取引委員会(SEC)規制や銀行規制に従う必要があり、AI支援の分析はこれらを侵害する可能性がある
・法律業務では、弁護士と依頼者間の秘匿特権や職業上の責任を守らなければならない
■職場でChatGPTを安全に使う3つの方法
1. 使い始める前に、自社のAIルールを知っておく
賢明な従業員は、ChatGPTを開く前に、まず自社のAIポリシーを理解することから始める。IT部門、法務部門、コンプライアンス部門に確認し、どのAIツールが承認されているか、どのように使用できるかを把握すべきだ。
もし明確なルールがなければ、声を上げてガイドラインを要求しよう。先手を打つ姿勢によってリーダーシップを示すと同時に、避けられるミスから全員を守ることができる。
2. 職場の機密データをAIツールと共有しない
基本ルールはシンプルだ。ChatGPTのような公開AIツールに、会社の機密情報や占有情報を入力してはならない。これには、顧客リスト、財務データ、人事ファイル、法的文書、秘密保持契約で保護されているあらゆる情報が含まれる。AIプラットフォームと情報を共有する前に、データの分類を習慣化してほしい。
3. あなたの仕事を守る形でChatGPTプロンプトを書く
職場でChatGPTを使う場合は、一般的なアイデアや手法、フレームワークを求めるAIプロンプトだけにしよう。直接的なビジネスデータを入れてはいけない。例えば、実際の苦情や記録を共有するのではなく、「顧客のフィードバックを分析する良い方法は?」と尋ねるべきだ。また、AIの出力は、使う前に必ず見直し、事実確認を行なおう。
■職場でChatGPTを使いこなし、あなたのキャリアも守ろう
職を失うリスクを冒さなくても、ChatGPTを仕事に使うことはできる。現在の新たな環境で成功するプロフェッショナルとは、会社のポリシーを常に把握し、業界の新たなガイドラインに従いつつAIトレーニングに投資する者だ。職場でChatGPTを活用し、生産性を高めてほしい。ただし、プロとしての判断力と誠実さが、あなたの最も価値ある資産であることは変わらない。