AIを経営に活用する前に ―― 解決すべき組織上の問題とは
(※本記事は『THE CONVERSATION』に2024年4月8日付で掲載された記事を、許可を得て掲載しています)
ChatGPT(OpenAI)、Gemini/Bard(Google)、Copilot(Microsoft)などの新しい形態の人工知能(AI)の普及は、デジタル時代の社会革命であると言っても過言ではない。AIシステムは、主に大学教育、法制度、そしてもちろん仕事の世界などで使われ、さまざまな分野で破壊的な力を発揮している。
これらの変化はめまぐるしいスピードで進んでおり、研究が追いつけないほどだ。たとえば、数ヶ月の間にChatGPTプラットフォームは大きく進化し、今では米国の統一司法試験で上位10%に入る能力を持つまでになっている。この結果は、一部の米国の法律事務所がAIソフトウェアを用いてパラリーガルの仕事を代替し、裁判官の好みを検出して弁論を個別化・自動化することを促している。
しかしながら、技術の進歩は驚異的であるものの、AIが出力する結果は、組織心理学の40年以上の研究で学んだこととは必ずしも一致しない。私は経営戦略の専門家として長年働いてきた経験から、組織の見えづらい問題、すなわち組織の非合理的な(時には愚かな)施策や制度に明確な(しかし、補完的な)光を当て、AIが導入されたときの影響を考察したい。
愚かな組織
あなたは、仕事上で「規則は規則だから」と言われ、自分の解決策のほうがより良かったり、コストがかからなかったりしたにもかかわらず、却下された経験があるだろうか? おめでとう!学術的に言えば、あなたは「愚かな組織」で働いていたということだ(または、今でも働いているのかもしれない)。
組織の愚かさは、程度の差はあれど、すべての組織に内在する。これは、人間同士のコミュニケーションや協力体制が事実上非効率的であり、事業を管理するプロセス(例えば、会社の方針)が定期的に更新されない限り組織そのものを愚かにするリスクがある、という原則に基づいている。
改善しようとする組織はあるものの、多くの場合、時間がないか、現状維持の楽さに甘んじるがゆえに、直面する現実に合わないプロセスを維持し、結果的に愚かになっていくのだ。
さて、この組織の愚かさには、「機能的愚かさ」と「組織的無能」の2つの要素がある。
機能的愚かさ
「機能的愚かさ」は、組織内の管理者の行動が従業員、創造性、内省の関係を束縛するような規律を課すときに発生する。このような組織では、管理者が合理的な推論や新しいアイデアを拒否し、変化に抵抗するため、組織の愚かさが増加する。
その結果、従業員はチームとして働くことを避け、プロフェッショナルリソース(知識や専門知識など)を組織の利益ではなく、個人的な利益のために費やすようになる。たとえば、従業員が職場で機械の故障の警告サインに気づいても「それは自分の仕事ではない」と思ったり、上司が機械を修理することで感謝される方が良いと思ったりして、何も言わないことがある。
こういった「機能的愚かさ」が存在する中で職場にAIを導入することは、この状況を悪化させるだけである。チームワークが失われた組織の中では、従業員はできるだけ多くのプロフェッショナルリソース(知識や専門性など)を蓄積しようとするため、AIに情報を求めるだけの要求が増えがちになる。多くの場合、このような要求の結果はコンテキストを充分解釈せず、AIが返した結果の分析に必要な専門知識も持たないままで行われがちである。
たとえば、「機能的愚かさ」に悩む組織で、伝統的に従業員が市場動向を分析し、その情報を別のチームに渡して広告キャンペーンを設定していたとする。こういうケースでAIを導入すると、上司が気に入る内容を優先するだけのプレゼンを作ろうと(AIをうまく使える・使えないに関わらず)従業員が全員でそれぞれ「新しい市場動向を探す」というタスクを処理しはじめる、というようなリスクがある。
すでにニュースでも「機能的愚かさ」の例がいくつか報じられている。たとえば、米国のある法律事務所がChatGPTの助けを借りて、存在しない判例を6件引用したことがある。このような行動は、最終的に組織の効率を低下させる。
無能な組織
組織的無能は、会社の構造に起因するものだ。それは、組織が環境や失敗、成功から学ぶことを妨げる、しばしば不適切であったり、厳しすぎたりする規則にある。
職場であるタスクを割り振られたと想像してみてほしい。あなたはそれを1時間で完了できるが、締め切りは1日の終わりまでと設定されている。この場合、早く完了する利点がなく、追加のタスクや報酬もないため、タスクを完了する時間を限界まで引き伸ばそうとするかもしれない。結果として、「パーキンソンの法則」を実践していることになる。
言い換えれば、作業とそれを実行するための認知負荷は、決められた締め切りに合わせて調節される法則だ。AIの使用が、パーキンソンの法則を強く持つ組織の効率をどの程度向上させるかは疑問である。
職場にAIを導入することに関連する組織的無能の2つ目の要素は、「カキストクラシー(悪徳政治)」の原則、つまり最も無能な人々が管理職に就いてしまう現象である。
この現象は、組織が新しい役割に必要な能力よりも、従業員の現在の業績に基づいて昇進させる場合に生じる。その結果、従業員は昇進することで能力を発揮できなくなる。すべての昇進がこのように行われる組織では、結果として無能な人々のヒエラルキーが形成される。これは「ピーターの法則」として知られている。
AIを導入した組織では、ピーターの法則はさらに悪影響を及ぼすだろう。たとえば、時間のかかる問題を解決するにあたって、同僚より早くAIをマスターできるエンジニアなら、記録的な速さでプログラムコードを書ける。このスキルはパフォーマンス評価で有利になり、昇進につながるかもしれない。
無能と非効率
しかし、プログラムコードを早く書くためのAI専門知識では、新しい管理職が直面する紛争解決やリーダーシップの課題に対応することはできない。新しい管理職が必要な対人スキルを持っていない場合(実際多い)、彼/彼女はこれらの新しい課題に直面して「無能と嫉妬」(injelitance)に苦しむ可能性がある。
というのも、AIに聞いても解決できないような、人間力(創造的思考、すべての人間関係の感情的側面)を前面に出さなければならないときに、新しい管理職として無力になるからである。無力さを感じると、新しい管理職は意思決定に時間がかかり、組織に自分の専門知識を正当化するため、存在しない問題の解決策を見つけようとする傾向がある。たとえば、新しい管理職はチーム内の従業員が1分間に行うタイピングの数を監視すること(当然、AIを使って)が重要だと決めるかもしれない。当然、これは良いパフォーマンス指標ではない。
要するに、人間の組織のような非合理的な環境で、AIのような合理的なツールが、経営者が望むように自動的に効率を上げるとは思わない方がよい。何よりも、AIを導入する前に経営者は自分の組織が(プロセスと行動の両面で)愚かでないことを確認する必要があるのだ。
元記事へのリンクはこちら

- ギヨーム・デジャルダン(Guillaume Desjardins)
- ケベック大学ウタウェ校(UQO) 労使関係学准教授