Digital of eXperience |体験の見える化から、組織は変わる。

AIエージェントは、社内の人材を4分類に分けることを可能にする

1) 「ダメ社員が増える」に見える“錯覚”の正体

AIエージェント導入前は、仕事がこう分解されてました。

  • 成果に直結する思考(判断・設計・交渉・合意形成)
  • 成果に見える作業(資料づくり・整形・議事録・報告書)
  • ただの摩擦(転記・検索・コピペ・体裁調整)

多くの組織では、真ん中の「成果に見える作業」が“頑張ってる感”を提供してきたんですよね。
AIはそこを一瞬で薄くするので、今まで隠れてたものが露出します。

露出するもの:

  • 思考できない人 → “作業の衣”が剥がれて目立つ
  • 思考できる人 → “作業の鎖”が外れて伸びる

だから「ダメ社員が増えた」ではなく、“識別精度が上がった”が実態です。


2) 人材は二極化じゃなく「4類型」に分かれる

AI時代の社員は、ざっくり4タイプに分かれます(能力じゃなく“姿勢”軸)。

A. 代行依存型(危険)

  • AIに任せて満足
  • 出力の検証がない
  • “納品”がゴール

症状:資料は立派、会議で質問されると沈黙。

B. 作業最適化型(伸び悩み)

  • とにかく早い・正確
  • でも問いが弱い
  • “効率化”が目的

症状:改善はできるが、方向は出せない。

C. 思考増幅型(伸びる)

  • AIを叩き台にして、仮説→検証→意思決定に時間を使う
  • 「何を決めるための資料か」が明確

症状:資料はシンプル、でも判断が速い。

D. 価値創造型(化ける)

  • 問いそのものを再定義する
  • 部門横断・現場理解・設計思想まで踏み込む
  • “仕事の再編集”ができる

症状:会議の目的や意思決定プロセス自体を作り替える。

導入後に起きるのは、Aが増えるのではなく、Aが目立つC/Dが突然伸びるです。


3) 伸びる人の共通点は「空いた時間の使い方」じゃない

「空いた時間で生産性を上げられる人材」は確かにいる。
でもポイントは「時間」より、時間の再配分の“先”です。

AIで浮いた時間を、どこに投資するか。

  • 情報→意味(解釈・優先度・トレードオフ整理)
  • 意味→合意(関係者調整、納得の設計)
  • 合意→行動(現場導線、運用、例外処理)
  • 行動→学習(振り返り、指標、改善サイクル)

ここに投資できる人が伸びます。
逆に、AIで浮いた時間を「休憩」だけに使う人がダメ、ではなくて、

“思考と責任を引き受けない休憩”だけが致命的です。
(休むのは正義。思考停止の口実にするのが悪。)


4) 会社側がやるべきは「AIの使い方教育」より「問いの設計」

AI導入の成否は、結局ここです。

悪い問い(組織がAを量産する)

  • 早く作れ
  • いい感じにまとめろ
  • それっぽい提案を出せ

→ これだと「それっぽさ」競争になり、思考停止が勝ちます。

良い問い(C/Dが育つ)

  • この資料で何を決める?(Decision)
  • 決めるために何が不足?(Evidence)
  • 反証は?代替案は?(Alternatives)
  • 現場はどう動く?例外は?(Operations)
  • 失敗したら何が起きる?(Risk)

つまり、AI導入は「資料作成の自動化」じゃなくて、
意思決定プロセスの再設計プロジェクトなんですよね。


5) 「才能を潰す会社」の典型パターン

AIで才能を潰す会社は、だいたいこの順で沈みます。

  1. 「資料が早くなった!」で導入効果をドヤる
  2. KPIが“作業量”のまま(枚数、提出速度、会議回数)
  3. 現場の摩擦(例外処理・運用負荷)が増える
  4. 事故が起きる → ルールが増える
  5. ルールを守るために資料が増える(逆噴射)
  6. 「AI使えねえ」って言い出す(AIのせいにする)

AIが悪いんじゃなくて、評価軸が作業のままなのが原因です。


6) 「才能を伸ばす会社」がやっている“地味な仕組み”

派手なAI研修じゃなくて、地味な制度設計です。

(1) 成果物に“意思決定タグ”を付ける

例:

  • 決定事項:何を決めたい?
  • 選択肢:A/B/Cは何?
  • 推奨案:なぜ?
  • 根拠:データ/現場/制約
  • リスク:最悪何が起きる?
  • 次アクション:誰がいつ何を?

これをテンプレ化すると、Aは詰み、C/Dは輝きます。

(2) 会議の評価を「資料」ではなく「判断品質」に寄せる

  • 反証が想定されているか
  • 前提が共有されているか
  • 現場導線があるか
  • 例外時の手当があるか

(3) AI利用を“透明化”して隠させない

隠れると、検証が消えます。
「AI使った?OK。どこを自分で検証した?」が健全


7) じゃあ、AIエージェントは社員をどう“育てる”べき?

私なら育成はこの順で組みます(職種問わず)。

  1. 検証力:出力を疑う、裏を取る、前提を確認する
  2. 編集力:要点・論点・構造に落とす
  3. 設計力:意思決定プロセス/現場導線を設計する
  4. 問いの力:そもそも何を解くべきかを定義する

AIは(1)(2)の訓練をサボると毒ですが、
ちゃんと踏ませると(3)(4)に進む“踏み台”になります。


8) ここまで踏まえて、私の答え

私の見立てですが、AIエージェントで必ず“ダメ社員は出る”
ただしそれは「増える」のではなく、

  • これまで作業で覆われていた差が露出する
  • 会社が問いを設計できないとAが増殖する
  • 会社が問いを設計できるとC/Dが爆発的に伸びる

つまりAIエージェントは、
社員を変える道具ではなく、会社の設計思想を試すリトマス紙です。