MENU

今やビジネスシーンにおいて、生成AIの活用は当たり前になっています。もちろん、業務効率化の強力な味方であることは間違いありません。しかし、考えなしに頼りすぎることによるリスクがあることも肝に銘じておきましょう。「AIに頼りきりになると、自身の成長が止まり、スキルが低下してしまうのではないか」といった懸念の声も少なくありません。実際、過度な依存によるネガティブな影響を示唆する研究結果も報告され始めているのです。
そこで今回は、生成AIへの過度な依存がもたらす弊害と、この強力なツールに振り回されることなく健全に活用し、自身のパフォーマンス向上につなげるためにはどのようなスキルが必要なのか、深掘りしていきます。

まずは、どんな悪影響があるのか、ご紹介します。MITメディアラボの研究「Your Brain on ChatGPT」では、エッセイ執筆時に生成AIを使用したグループは、脳のネットワーク結合が最も弱く、認知負荷が低下していました。その結果、直前に書いたはずのエッセイの内容を引用できたのは、検索エンジンや自力で書いたグループの約9割に対し、LLMグループではわずか16.7%に留まり、記憶が定着しませんでした。
スイスビジネススクールによる調査では、AIツールの使用頻度とクリティカルシンキング能力の間に強い負の相関が確認されました。AIへの依存度が高いほど、思考タスクを外部に委ねる「認知的オフローディング」が進み、深い分析や内省的な思考が減少することが明らかになりました。特に17~25歳の若年層でこの傾向が顕著でした。
Microsoft Researchによる知識労働者を対象とした調査では、AIに対する信頼度が高いほど、クリティカルシンキングの実践が減少する傾向が示されました。AIがタスクを代行することで、ユーザーは自ら問題解決を行う機会を奪われ、長期的にはスキルが劣化し、AIの出力結果を十分に検証せず受け入れてしまう「過度の依存」に陥るリスクが指摘されています。
Colegio de MuntinlupaのGirayによる論考では、生成AIが研究者の「出版中毒」を助長し、質より量を優先させるリスクを指摘しています。また、AIが生成した流暢な文章を読むだけで自分が理解したと錯覚するダニング=クルーガー効果を悪化させ、実際の知識の欠落に気づけなくなる危険性が報告されています。
つまり、生成AIに頼り切ってしまうと、脳の認知負荷が低下し、直前に行った仕事の内容さえ記憶に残らなくなります。思考の外部化はクリティカルシンキングの欠如とスキルの劣化を招き、さらに流暢な回答を見るだけで自身が賢くなったと錯覚するようになってしまいます。結果として、空っぽの頭脳のまま全能感だけが肥大化してしまう可能性があるのです。
心理学的な悪影響も指摘されています。例えば、Marian Collegeの研究では、AIの丁寧で人間らしい対話(デジタル擬人化)が、ユーザーの「感情的信頼」を醸成し、情報の正確性を疑う「認識的警戒心」を低下させると指摘しています。AIの回答が間違っていても、自信に満ちた口調であるために無批判に受け入れてしまうリスクが高まるというのです。
ブラウン大学によるメンタルヘルス領域の研究では、AIカウンセラーがユーザーの「自分は家族の重荷だ」といった妄想的な信念に対し、否定や修正を行わず過度に肯定・強化してしまう危険性が確認されました。また、AIが「理解しています」といった「欺瞞的な共感」を示すことで、ユーザーに誤った信頼感を抱かせ、心理的な悪影響を及ぼす可能性が指摘されています。
こうした「思考力の低下」や「スキルの毀損」、さらには「メンタルへの悪影響」といったリスクを知ると、生成AIを使うのが怖くなってしまうかもしれません。しかし、だからといってAIを禁止し、すべてをアナログに戻すのはナンセンスです。重要なのは、AIを拒絶することでも盲信することでもなく、適切な距離感で付き合うスキルを身につけることです。
AIを活用しているのか依存しているのかわからない、というのであれば、簡単な判別方法があります。AIを利用して業務を終わらせたときに、「超簡単に終わった~」と感じたならアウトです。脳を使っておらず、AIに依存しています。成果物のクオリティも心配ですが、成長しないリスクの方が見逃せません。
AIを適切に活用できていれば、時短できたり、アウトプット量が増えたり、クオリティが向上できます。しかし、AIの速度とレベルで人間がクリティカルシンキングをし続けるのですから、脳はへとへとに疲れているはずです。これが、業務におけるAI依存の見分け方です。
では、私たちは具体的にどうすればよいのでしょうか。対策は「個人の意識」「仕事の進め方」「環境づくり」の3つのレベルで考えることができます。
まず変えるべきは、AIに対するスタンスです。ここでキーワードとなるのが「批判的信頼」です。AIは非常に便利ですが、その出力結果を鵜呑みにしてはいけません。常に「情報の正確性」を疑う「認識的警戒心」を持つ必要があります。AIが出してきた回答に対して、「出典はどこか?」「自分の知識と矛盾していないか?」を必ず確認するクセをつけましょう。これを「トラスト・キャリブレーション」と呼びます。
また、生成AI特有の「丁寧で人間らしい振る舞い」にも注意が必要です。AIが自信満々に、かつ丁寧な口調で答えると、私たちはつい「この人は信頼できる」と錯覚してしまいます。この対策として有効なのが「アンチ・擬人化」のトレーニングです。AIの出力をあえて感情のない技術的な用語に置き換えて読んでみるなど、AIが発する社会的・感情的なシグナルを意図的に無視することで、権威や信頼性の錯覚に惑わされなくなります。
そして、自身のスキル低下を防ぐために最も重要なのが「望ましい困難」を維持することです。脳を鍛えるには負荷が必要です。ブレインストーミングや構成案の作成といった「産みの苦しみ」を伴う作業をすべてAIに丸投げしてはいけません。
初期の学習や思考の整理はあえて自力で行い、ある程度の負荷を脳にかけた後にAIを導入する。この順序を守るだけで、記憶の定着や理解度は格段に変わります。この努力は無駄になりません。最初からAIを使うと、みな画一的な出力になりますが、初動を人間が行うことで、よりエッジの効いた成果物になる可能性が高まります。

次に、業務プロセスにおける役割を変えましょう。これまでの私たちはタスクの「実行者」でしたが、これからはAIという部下を管理する「スチュワードシップ(管理・監督)」の役割を担うべきです。AIが出してきた成果物をそのまま右から左へ流すのではなく、その妥当性を評価し、文脈に合わせて修正・統合する責任を持つ必要があります。
すべてをAI任せにするのではなく、ルーチンワークや下書きはAIに任せ、アイデアの核となる部分や最終的なブラッシュアップは人間が行う「ハイブリッド戦略」が有効です。脳波の研究でも、AIの使用後に人間が自力で修正を行うことで、脳のネットワークが再活性化することが示唆されています。
また、生成AIは大量のアイデアを出せますが、その中から本当に独創的なものを見極める能力は人間に分があります。AIをあくまで認知アシスタントとして使い、提示された無数の案からキラリと光るものを厳しく選別する目利きとしての能力を磨くことが、これからの人間に求められるスキルと言えるでしょう。
最後は、仕組みによる対策です。これは組織やツールの設計に関わる部分ですが、個人レベルでも意識できることはあります。
それは認知的な強制機能を自分のワークフローに組み込むことです。AIの答えを見る前に、一度立ち止まって「自分ならどう答えるか」を考える時間を設ける、あるいはAIの回答を採用する前に必ず「振り返り」を行う時間を確保するといった工夫です。あえて思考を促すワンクッションを入れることで、過度な依存を防げます。
生成AIは強力なツールですが、それを使う私たちの脳が退化してしまっては本末転倒です。AIの利便性を享受しつつも、思考の主導権は常に人間が握り続ける必要があります。そのためには、楽をしないという姿勢が大切です。意識的な努力こそが、AI時代における知的生産性の高め方であり、成長のドライバーとなるのです。
柳谷智宣
ITライター/NPO法人デジタルリテラシー向上機構 代表理事
ホームページ
1998年からIT・ビジネスライターとして執筆活動を行っており、コンシューマからエンタープライズまで幅広い領域を手がけている。2018年からは特定非営利活動法人デジタルリテラシー向上機構(DLIS)を立ち上げ、ネット詐欺や誹謗中傷の被害を減らすべく活動している。