権力と進歩

Power and Progress
2023年5月刊
Daron Acemoglu & Simon Johnson著

目次

著者の経歴

本書(権力と進歩)の著者であるダロン・アセモグルは、トルコ出身の経済学者であり、マサチューセッツ工科大学の教授として経済学の分野を牽引してきた。彼は国家の繁栄と衰退を制度の違いから説明する研究で知られ、国家はなぜ衰退するのかなどで広く評価を得ている。共著者のサイモン・ジョンソンもまたMITの教授であり、国際通貨基金のチーフエコノミストを務めた実務経験を持つ。金融危機や国家経済の制度設計に関する知見を有し、理論と政策の双方に精通した人物である。両者に共通するのは、技術や経済成長は自動的に人々を豊かにするわけではなく、それをどう分配するかは政治と権力の問題であるという一貫した問題意識である。

本書の概要

本書は、技術進歩は本当に人々を豊かにしてきたのかという根本的な問いを歴史的に検証する書である。一般的には、技術革新は生産性を高め、最終的には社会全体の繁栄をもたらすと考えられている。しかし著者は、この見方を単純化された神話であると批判する。歴史を振り返ると、技術進歩が必ずしも労働者や一般市民の生活向上につながらなかった時期が多く存在する。産業革命初期においては、生産性は向上したにもかかわらず、多くの労働者の生活はむしろ悪化した。そこでは技術の利益は一部の資本家や権力者に集中していた。本書は、このような現象を技術の方向性は中立ではなく、権力構造によって決定されるという観点から説明する。どのような技術が発展し、誰が利益を得るかは、政治・制度・社会の力関係によって規定される。本書は、AI時代における技術と社会の関係を考える上で、不可欠な補助線を与える一冊である。

核心思想

本書の最も重要な主張は、技術の進歩は不可避でも中立でもなく、その方向は社会によって選ばれるという点にある。著者は特に、労働を補完する技術と労働を置き換える技術を区別する。前者は人間の能力を拡張し、賃金や雇用を増加させるのに対し、後者は人間の役割を縮小させ、所得格差を拡大させる傾向がある。問題は、現代においては後者、すなわち労働代替型技術が過剰に推進されている点にある。AIや自動化技術は本来、人間を支援する方向にも使えるにもかかわらず、現実にはコスト削減や労働削減のために用いられることが多い。この傾向は、企業のインセンティブや政策環境によって強化されている。ここで著者は、共有された繁栄(shared prosperity)という概念を提示する。技術の恩恵が社会全体に行き渡るためには、単に技術を進歩させるだけでは不十分であり、それを包摂的な制度のもとで運用する必要がある。労働者の交渉力、教育制度、税制、規制といった要素が不可欠となる。

現代への警鐘

本書はとりわけ現代のAI時代に対して強い警鐘を鳴らしている。現在の技術発展は、一部の巨大企業に権力と富を集中させる方向に進んでおり、このままでは過去の産業革命初期と同様に、長期にわたる不平等の拡大が生じる可能性がある。著者は、技術の未来は決して自動的に決まるものではなく、政策選択と社会的意思によって変えうると主張する。AIを人間の能力を拡張する方向に使うのか、それとも人間を置き換える方向に使うのかは、今まさに分岐点にある。

本書の問題点と批判的検討

本書にはいくつかの限界が存在する。

第一に、技術の進化を過度に政治的選択に帰している。確かに制度や権力は重要であるが、技術には内在的な発展方向や制約も存在する。すべてを社会的選択の結果とみなすと、技術の自律性を過小評価することになる。

第二に、企業のインセンティブに対する理解がやや単純化されている。企業が労働代替技術を選好するのは単なる利益追求だけでなく、競争環境や消費者需要、グローバル市場の圧力といった複雑な要因によるものである。この点の分析はやや一面的である。

第三に、提示される政策提言が抽象的である。包摂的制度の必要性は強調されるものの、具体的にどのような制度設計が現実的かについては十分に踏み込まれていない。

第四に、本書は技術に対してやや慎重すぎる姿勢を取っている。イノベーションの持つポジティブな側面やダイナミズムを十分に評価していない。

AI時代の権力と進歩への向き合い方

本書が突きつけた重要な論点は、技術進歩それ自体が自動的に社会全体の幸福をもたらす訳ではなく、その利益が誰に帰属し、誰が意思決定権を持つのかという権力の問題を通じて初めて現実の結果が決まるという点にある。この問題意識は、AI時代にはいっそう切実である。AI時代における権力と進歩への向き合い方は、結局のところ、技術の所有者の善意に期待しないことである。必要なのは、補完型AIへの誘導、計算資源とデータの公共性、用途別規制、労働者の交渉力、AIリテラシー、公共調達、情報空間の保全という複数の制度を同時に整えることである。そうして初めて、AIは少数者の支配装置ではなく、多数者の能力拡張装置になりうる。進歩を進歩のまま保つためには、権力を見えないままにしてはならないのである。

第一に、AIは人間代替ではなく人間補完に置くべきである。AI時代の最大の分岐は、AIを人間を置き換えるために使うのか、人間の判断力・技能・生産性を引き上げるために使うのかにある。生成AIの影響について、全面的な雇用消滅よりも、仕事の中身が変容し、人間の仕事が補完・再編される可能性の方が大きい。その影響は職種や性別、所得階層によって偏りうるため、放置すれば格差拡大につながる。それゆえ企業も政府も、AI投資の評価基準を何人削減できるかから、一人当たりの付加価値をどれだけ高めるかへ転換すべきである。コールセンターなら応対者を減らすためではなく、応対品質を高め、難しい案件に人間が集中できるようにするために使うべきである。病院なら医師や看護師の置換ではなく、記録作成や画像補助読影を通じて、患者と向き合う時間を増やす方向で使うべきである。行政でも、窓口の無人化より、職員が複雑案件に注力できる形での導入が望ましい。AI導入を人件費削減一本で設計する限り、進歩は必ず権力偏重になる。

第二に、AIを動かす計算資源・データ・モデル評価を一部企業の私有物にしないことである。AI時代の権力は、従来の土地や工場よりも、計算資源・巨大データ・基盤モデルに集中しやすい。これに対抗しなければ、形式上は市場経済でも、実質的には少数企業が社会の基盤を握る構造になりかねない。この観点から現実的に必要なのは、まず独立監査可能な評価制度である。性能だけでなく、誤情報、差別、セキュリティ、暴走リスク、説明可能性を第三者が検証できる仕組を法的・制度的に整えるべきである。公共性の高い分野ではデータ共有と相互運用性を進めるべきである。医療、防災、交通、教育の基盤データを完全に民間囲い込みに任せれば、政策主権そのものが弱体化する。また公共研究機関や大学が利用できる計算資源を整備しなければならない。計算資源を持つ者だけが研究と規範形成を主導する状況では、学術も政策も従属するからである。

第三に、規制は一律禁止ではなく、用途別・危険度別に設計すべきである。AIをどう規制するかについては、全面自由放任も全面抑制も現実的ではない。現在の最も実務的な方向は、危険度に応じて規律を変える考え方である。重要なのはAI一般を規制することではなく、人事評価、融資審査、医療診断、治安、軍事、選挙、教育評価など、人権や生活機会に直接影響する用途を重点的に統治することである。現実的には、低リスク用途には柔軟性を持たせつつ、高リスク用途には事前影響評価、説明責任、記録保存、監査、異議申立ての権利を必須化すべきである。とりわけ人の運命を左右するAIに対しては、最終判断に人間が責任を持つ原則を崩してはならない。

第四に、労働者の交渉力を再設計しなければ、AIの果実は上に吸い上げられる。AI時代の最大の現実問題は、技術導入の利益が生産性上昇として現れても、それが賃金や労働条件の改善に結びつくとは限らないことである。権力と進歩を両立させるには、労働者側の制度的交渉力を強める必要がある。生成AI導入に際して、政府、使用者、労働者を含む対話ベースの政策形成が必要であり、仕事の質や労働者の自律性への影響にも注意を払うべきである。具体的には、企業内でのAI導入時に、労使協議を義務化することが重要である。どの業務にAIを入れるのか、評価監視に使うのか、賃金制度にどう反映するのかを、経営側だけで決めてはならない。また、生産性向上分の一部を賃金、教育訓練、時短に還元する仕組を入れるべきである。AIにより仕事の一部が失われる場合には、解雇前提ではなく、社内再配置・再訓練・資格取得支援を標準措置とするべきである。進歩の果実が配分される制度を持たない社会では、AIは必ず不信と反発を呼ぶ。

第五に、教育は全員にAI理解力を与えるべきである。学校教育では、単なる利用体験ではなく、批判的読解力、統計的思考、メディアリテラシー、著作権・プライバシー理解を中心に据えるべきである。企業教育では、全社員向けのAI利用基礎と、職種別の応用研修を分けるべきである。経営陣にはさらに、AI導入の法的責任と戦略的利用方法を学ばせなければならない。AI時代の教育とは、技術者養成だけではなく、社会全体の判断力を守る教育である。

第六に、国家は規制者ではなく公共的需要の設計者にならなければならない。AI時代に国家がやるべきことは、民間を外から取り締まるだけではない。むしろ、公共調達とインフラ整備を通じて、どのようなAIが伸びるかを実質的に方向づけることである。医療、介護、教育、防災、行政手続といった分野で、公共部門が人間補完型AIを優先調達すれば、企業の技術開発の方向も変わる。逆に、監視・評価・削減だけに役立つAIを公共調達で大量に買えば、その方向に産業が歪む。国家は中立ではなく、需要創出を通じて技術の方向を決めることができることを忘れてはならない。

第七に、民主主義を守るには情報空間の健全性を安全保障の一部として扱うべきである。生成AIは生産性向上だけでなく、虚偽情報、大量自動生成、人格偽装、世論操作のコストを劇的に下げた。AI時代の権力と進歩を考えるなら、産業政策だけでなく情報秩序を守る制度が必要である。現実的には、政治広告や選挙関連コンテンツの透明化、AI生成表示、真正性証明の普及、プラットフォームのリスク対応義務、報道機関・教育機関へのファクトチェック支援が要る。これは表現の自由を弱めるためではなく、自由な言論の前提条件である現実認識の共有を守るためである。

第八に、成長と分配を対立させない制度設計である。AI時代に誤りやすいのは、成長を優先すれば格差は仕方ない、あるいは平等を優先すれば技術進歩は止まる、という二者択一である。しかし現実には、信頼、能力形成、競争、公正な分配がなければ、技術導入そのものが社会的に持続しない。信頼性は技術の外側の飾りではなく、普及そのものの条件である。AI時代の進歩とは、性能競争だけではない。真の進歩とは、生産性を高め、人間の能力を広げ、権力集中を抑え、社会の信頼を損なわない形で実装されることである。AI時代に向き合うとは、技術にブレーキをかけることではない。誰が利益を得るのか、誰が傷つくのか、誰が責任を負うのかを、導入前に制度として決めることである。

未来の輪郭

目次