88%が生成AIを使い、5%だけが活かせている。その距離を埋めるのは、モデルの性能だけではない。

2023年から始まったAIハイプは3年目に入った。AI導入率は88%に達した(McKinsey The State of AI in 2025: Agents, Innovation, and Transformation、2025年11月発表、前年78%から10ポイント増)。しかし事業インパクトまでたどり着く企業は段階を追うごとに急減する。
導入は急拡大したが、成熟には至っていない。88% → 60% → 31% → 25% → 7% → 5%。この階段構造こそが「使っている」と「活かせている」の距離を示している。
これらの数字の大半は2025年中盤から後半にかけて収集されたデータだ。では2026年に入って状況は改善しているのか。最も新しいWRITER 2026年4月の調査では、「AI導入は大きな失望だった」と回答した割合が前年の34%から48%に増加している。投資額は倍増し(BCG AI Radar 2026)、失望も増えている。McKinsey State of AI Trust 2026(2026年初頭調査)でも、AI実装の最大の障壁として「知識と訓練のギャップ」を挙げる回答が前年の約50%から約60%に増加した。壁は縮まっていない。広がっている。
そしてAIの本質的な価値を引き出せているfuture-built企業(未来志向企業)は、laggards(ラガード=出遅れ企業)と比較して売上成長1.7倍、EBITマージン1.6倍、3年TSR 3.6倍という圧倒的な差を開いている。この差は年々広がり続けている。BCG "The Widening AI Value Gap" 2025
クリエイティブ産業では約半数(49%)の専門家がAIを日常的に使用しているが、69%が「AI時代への準備が十分にはできていない」と回答し、58%が非開示でクライアントワークにAIを使用している(Envato Beyond Adoption: The State of AI in Creative Work 2026、1,780名調査)。使っているが、準備はできていない。不安なまま走っている状態。

使っているのに活かせない。その理由は、業種を問わず共通している。エンタープライズでもクリエイティブでも、同じ三つの壁が機能を止めている。
ハルシネーション、ガチャ。AIの出力を完全にはコントロールできないという構造的特性。バグではない。
入力したプロンプトと生成物が、永続的・取消不能に相手のサーバーへ。見えないまま漏れ続けている。
ツールは買ったが、運用の土台を作っていない。ルールもフローも責任者も、設計されていない。
ハルシネーション、ガチャと呼ばれるAIの不確実性。これは実はAIの特性であり、完全な排除は理論的に不可能であることが形式的に証明されている(Xu et al., Hallucination is Inevitable: An Innate Limitation of Large Language Models、シンガポール国立大学、2024年1月)。LLMは任意の計算可能な関数を完全には学習できないという情報理論的な限界がその根拠。これはバグではない。
OpenAIの研究者はさらに、訓練目標と評価ベンチマーク自体が「不確実な場面でも自信を持って推測する」ことを報酬する構造になっていると指摘している(Why Language Models Hallucinate、2025年9月)。強く封じると性能が著しく落ちる。これはLLMもアート生成AIモデルも同じ。
主要なクラウドAIツールの利用規約には、ユーザーが入力したプロンプトと生成物について「永続的、全世界的、非独占的、サブライセンス可能(無償)、取消不能な著作権ライセンス」を付与すると明記されているものがある(Midjourney Terms of Service、原文一致)。プライバシースコア38/100、D+評価。商用補償なし。オプトアウト不可。
この流出経路はファイルアップロードではなくコピー&ペーストであるため、従来の情報漏洩対策ツールでは検知できない。コンセプトアーティストがキャラクターデザインの反復にクラウドAIを使用した場合、そのプロンプトと出力は学習パイプラインに入る。永続的に。取消不能で。製造業のCADデータ流出と本質的に同じ問題だが、クリエイティブ業界ではほぼ議論されていない。
AIは買ったが、使うための土台は作っていない。誰がどのツールを何に使っていいのか、入力に何を渡していいのか、出力を誰がレビューするのか、間違いが出た時に誰が責任を取るのか — これらのルールもフローも存在しない。道具はあるが、運用がない。
Deloitte 2026は「不十分な従業員スキル」をAI統合の最大の障壁として名指ししている。74%の企業が2年以内にAIエージェントを導入予定である一方、エージェントガバナンスの成熟モデルを持っているのはわずか21%。84%の企業はAIに合わせて仕事そのものを再設計していない。ツールは入れたが、仕事の仕方は変えていない。
AI導入の障壁の70%は人・組織・プロセスにある。テクノロジーは20%、アルゴリズムは10%。BCG · The Widening AI Value Gap 2025
WRITERの2026年調査では、75%の経営層が「自社のAI戦略は実際の指針というより見せかけのもの」と認めている。36%は自律AIエージェントを監督する正式な計画を持っていない。35%は暴走したAIエージェントを「即座に止める」ことができない。

では壁に対して、何ができるのか。
現時点でそれはAIを変えるのではなく、AIの外側を作ること。
AIの性能を上げることでは解決しない。AIの使い方を工夫するだけでも解決しない。ツールを入れただけでも解決しない。壁の内側で価値を出す方法は、AIそのものに手を入れることではなく、AIの周りに構造を作ること — どこで受け取り、どこで渡し、どこで弾き、どこで人間が判断し、どこで資産を残すか — それを設計することだ。
一の壁は「AIの不確実性」問題。モデルを封じ込めるのではなく、AIの周りに外堀を掘る。AIは外堀の中で自由に動き、外堀を越える出力は後段の構造が弾く。
例えばFlux2 Kleinというモデルを使う場合、以下の五つが構造的な外堀として機能する:
この4つが重なることで、AIの出力が予測可能な範囲に収まる。ComfyUIのようなノードベースの実行環境が急速に業界標準になりつつあるのも同じ理由。
LLMを「自律的なチームメイト」として解き放つのではなく、決まった手順の中の一つのステップとしてLLMを使う。具体的には、こういう形の設計になる:
高パフォーマンス企業とその他を最も強く分けているのは、モデルの性能でもエンジニアの数でもなく、AIの出力を人間の判断で検証し、構造の中に組み込むという実装パターンの有無だ。
厄介なことに、この構造の必要性はAIの能力が上がるほど増す。エージェントAIにおけるツールハルシネーション — AIが外部ツールを呼んでいないのに呼んだと偽装する、結果を捏造して報告する — は、推論能力を強化すればするほど比例して悪化することが確認されている(The Reasoning Trap: How Enhancing LLM Reasoning Amplifies Tool Hallucination、2025年10月)。能力の向上を活かすには、周辺構造を並行して作る必要がある。
二の壁は「入力したデータが外に出ていく」問題。これに対する構造は、データの動線を先に決めておくことだ。
何をクラウドに渡していいか、何はローカルに留めるか、どこでログを取るか、どこで人間がレビューするか。これらは、本来AIを導入する前に決めておくべきもの。だが今の現場ではほぼされていない。貼り付けたプロンプトは永久に相手のサーバーに残る — これが現在の既定値になっている。
ここで、ローカル実行環境(ComfyUI + FLUX2 Klein等)の選択が二重の意味を持つ。構造設計の自由度が高いというだけでなく、データ主権を手元に保てる選択肢でもある。自分のデータが自分の機械の外に出ない限り、二の壁の最悪のケース — プロンプトと出力が学習パイプラインに吸い込まれる — は起きない。一の壁への答えと二の壁への答えが、同じツール選択に集約することがある。
構造を作る人間がツールを選ぶ。そしてその選択自体が、複数の壁への同時回答になる。
そして、この方向は業界全体でも意識され始めている。Deloitte 2026の調査では、77%の企業が「AIがどこで開発されているか(AIの物理的・法的な所在地)」を新しい技術を選ぶ際の重要な要素と答えており、66%が海外AI技術への依存に少なくとも中程度の懸念を持っている。83%が「sovereign AI(AIの主権)」を経営戦略上少なくとも中程度重要と位置づけている。スケールは違う — これは国家や大企業レベルのデータ主権の話だ — が、「AIに渡したデータの動線を自分でコントロールできるか」という問いが、業界全体で問われ始めているということでもある。スタジオやフリーランスの規模でも、答えは同じ方向に向かう必要がある。
三の壁は「組織が構造を持っていない」問題。一の壁と二の壁はツールとフローの話だったが、三の壁は組織と人の話で、別のレイヤーの構造が必要になる。
具体的には、誰がどのツールを何に使っていいのか、入力に何を渡していいのか、出力を誰がレビューするのか、間違いが出た時に誰が責任を取るのか、従業員がAIを正しく使えるように訓練されているか — こういったルールと役割の設計。
ただし、ここで大事なのは、これらの構造は汎用品としては作れないということだ。背景画制作の判断基準は、VFX制作の判断基準とは違う。映像制作のワークフローは、ゲーム開発のワークフローとは違う。アニメーションスタジオのレビューフローは、広告制作のそれとは違う。テンプレートを買ってきて流し込むような作り方はできない。
構造が成立するのは、その領域の現場で積んだ経験と、AIの構造的特性の理解が、一つの設計の中で噛み合った時だけだ。現場の経験だけで作られた構造は、AIの特性を踏まえていない。AI技術だけで作られた構造は、現場の判断基準を含まない。どちらもそれだけでは機能しない。
ここも、主要な調査から同じ結論が出ている。WRITERが2026年に実施した2,400名調査では、生成AIから実質的なROIを得ている29%の企業と、その他の企業を分ける四つの特徴が挙げられている:
McKinsey State of AI Trust 2026の調査では、Responsible AIに対して明示的な所有者(AI特化のガバナンス役職、あるいは内部監査・倫理チーム)を設けている組織は平均成熟度が2.6。設けていない組織は1.8。誰が責任を持っているかが、構造が機能するかどうかを決める。
BCG 2025の調査では、AIの本質的な価値を引き出せているfuture-built企業(未来志向企業)は「用途に合ったガードレール」を持っている割合がlaggards(レガード=出遅れ企業)の4.6倍。Deloitte 2026では、AIに合わせて仕事そのものを再設計している企業は16%のみ — 残り84%はツールを入れただけで、仕事の仕方は変えていない。
これらの数字はすべて同じことを言っている。構造を作った組織だけが価値を出している。そして構造を作るために必要なのは、新しいモデルでも新しいツールでもなく、噛み合わせを設計できる人間の判断だ。
ここで一つ、よくある誤解を潰しておく。
「モデルがもっと良くなれば、構造は要らなくなるのでは?」 — 現状ではならない。
モデルは進化し続けている。しかしトランスフォーマーアーキテクチャの根本的な特性 — ステートレス、有限コンテキスト、注意力の偏り、コスト比例 — はモデルの進化では変わらない。10兆パラメータのモデルになっても、APIコールごとにメモリはリセットされ、コンテキストウィンドウには物理的な限界があり、長い入力の中間情報は参照されにくくなる。
モデルの改善が解決するのは「ターン内の精度」だけだ。その外 — ワークフロー全体の品質管理、データフローの安全性、コンテキスト管理、ターン間の一貫性、信頼性の担保 — は、モデルの外側に構造を構築することでしか解決できない。
そしてAIの能力が高まるほど、それを活かす構造の設計が逆にボトルネックになる。良くなるモデルを、良くない構造の中で動かしても、出てくるものは良くならない。「より強いAI」と「より良い出力」は、構造がなければ直接つながらない。

二の壁は、ユーザーがAIに渡したもの(入力)が持っていかれる話だった。では、AIを使って作ったもの(出力)は、本当に誰のものなのか。
米著作権局のスタンスは、AIが自律生成した部分は保護対象外、人間の創造的関与がある部分は保護される — というグラデーションになっている。2026年3月2日、純粋なAI生成物の著作権を求めたThaler v. Perlmutter事件は米最高裁が上告を棄却し、D.C. Circuit の著作権不認の判断が確定した。ただし同判決は、人間の創造的関与のあるAI支援作品は保護されることを明記している。
「人間の著作者性要件は、AIによって、あるいはAIの支援によって作られた作品の著作権保護を妨げるものではない。(…)機械そのものが著作者である必要はない。」— D.C. Circuit · Thaler v. Perlmutter
このグラデーション構造が曖昧さを生んでいる。「明確にAIが自律生成」でも「明確に人間の創造」でもない中間領域 — プロンプト調整、候補の選別、部分的な加筆の組み合わせ — が保護されるかどうかは、個別判断に委ねられる。作っている最中には、自分がそのグラデーションのどこに立っているかは分からない。紛争が起きるまで決まらない。
著作権で守られていると思って商流に乗せた作品が、数年後の判例で「AI自律生成寄り」と判断され保護を失うリスクがある。「守られるはず」と「守られる」の間には、今はまだ距離がある。
現時点で自分の仕事をグラデーションの「人間の創造」側に寄せるには、ワークフローの中に人間の創造的判断を意図的に織り込む必要がある。たとえば1枚のキャラクターイラストを作る場合:
保護される理由は、個々のAI生成部分そのものは保護対象外だとしても、「選択・配置・合成・加筆」という人間の創造的判断が最終成果物の中に不可分に織り込まれているためだ。
ただし、上記はあくまで2026年時点での解釈であり、確定した絶対的ルールではない。グラデーションの境界も、何が創造的関与として認められるかの基準も、今後の判例や立法で変わりうる。極端なケースでは「AIで生成された成分を含むものは一切著作権保護の対象外」と再定義される可能性すら排除できない。現在の判決はその方向への歯止めとしては弱い。
仮に現在のルールが安定したままだとしても、著作権で守れるのは「この1枚」という成果物だけだ。次の1枚を作る能力、スタイルを調整して別バリエーションを出すシステム、判断の基準そのもの — これらは著作権の枠の外にある。
著作権の結論が今後どう転ぼうと、実務上は著作権の枠外で自分の手元に残し続けられる資産カテゴリがある。
これらは、知識創造理論(野中郁次郎・竹内弘高、1995)が区別する暗黙知と形式知のうち、従来は暗黙知として属人化していた領域にあたる。AI の登場により、この領域がプロンプト・ノードグラフ・JSONスキーマといった形で形式化しやすくなった一方で、特定プラットフォームに依存した形で蓄積すると容易に失われる — という両義性がある。
2026年4月、オープンソースのAIエージェント開発ツール「OpenClaw」のユーザーは、Anthropicが月額サブスクリプション経由での利用を遮断した結果、利用コストが最大50倍に跳ね上がり、コミュニティは一気に下火になった(The Register、VentureBeat他、2026年4月報道)。蓄積されていたワークフローもコンテキストも、そのAPI前提で設計されていれば、ポリシー変更一発で足元が崩れる。
手元に残したい資産は、手元に残し続けられる設計で蓄積する必要がある。§03 で扱ったAIの外に構造を作るという話は、品質管理だけでなく、ここにも直結している。

活かせていなくても、AIを採用しているというだけで、既に仕事は消えている。
入門職・ジュニア層の空洞化も顕著。LeadDevのAI Impact Report 2025年版(880名超調査)では、54%のエンジニアリングリーダーが「長期的にはジュニア開発者の採用を減らす」と回答。即効性の話ではなく、人材パイプラインの長期的な縮小。
IDC/Deelの2025年調査によれば、エントリーレベルの採用要件として「大学卒」を必須とする企業は5%にまで下落。代わりに求められているのは技術認定資格(66%)、批判的思考力(59%)、コミュニケーション/協働能力(51%)。学歴ベースから実力・スキルベースへの急速なシフト。
VFXスタジオの実態を見ると、AIは「アーティストの代替」ではなく「ワークフローの加速装置」として使われている。ロトスコーピング、クリーンアップ、ルックデヴ。コスト削減ツールであり、価値創造ツールではない。
54%の経営層が「AI導入が自社を引き裂いている」と回答。60%が「AIを使わない/使えない従業員をレイオフする予定」と回答している一方で、75%は「自社のAI戦略は実際の指針というより見せかけのもの」と認めている。WRITER 2026
戦略がないままレイオフだけが進行している。AI導入の名の下に、人間が先に消えている。

数か月後にはまた状況も変わっているかもしれないが、現時点では、世間のAIハイプの影で、AIをちゃんと使えている企業はとても少ないことが様々な情報リソースから読み取れた。
構造がないまま、AIだけが職場に投入され、ワークフローは設計されず、データの行方は誰も追わず、著作権のリスクは棚に上げられ、従業員は自己流で使い、経営者や事業主はその運用を把握していない。そして成果は出ていないのに、AIによる短期的な効率化への期待を根拠に、人が解雇されている。これが95%の現実のようだ。
レポートの事実から分かることは、ハイプに乗っかり、表層的な流行に乗って何かをやったつもりになるより、一体我々は何を相手にしているのかという本質を見極めるべきだと思う。と言ってもそんなに難しい事ではなく、単にAIとは、LLMとは何なのか、何ができて何ができないのか、何をやらせてはいけないのか、などの基礎的な情報を得ること。そこまで理解すれば現状のAIには構造が必須であることは自ずと見えてくるはず。
そして個人的に、日々の制作現場で強く感じていることがある。AIと付き合う中で本当に積み上がっていくのは、成果物そのものではなく「作れるもの」 — 判断の履歴、スタイルの定義、構築したワークフロー — の方だ。著作権は前者を守る制度だが、職業としての持続を決めるのはむしろ後者である。成果物の権利がどう転ぼうと、「どう作ったか」というプロセス知は独立して価値を持つ。§03 で書いたAIの外に構造を作ることは、品質管理の話だけでなく、最終的にはこのプロセス知を自分の手元に残し続けるための設計でもあると考えている。
ただし本レポートも私見も全て現時点でのもの。少し先の未来にはこのレポートで書かれている内容など全て覆すアーキテクチャとアルゴリズムを備えたAIが爆誕している可能性もあるが、それもハイプかもしれない。AIの未来は見えない。なのでそんなスーパーAIが出現しても、それが何なのか理解できるようになるために、今できることを地道にやるべきだと思う。
このレポートの執筆には、AIを全面的に活用した。リサーチ、情報源の整理、一次ソースの読み込み、構成の検討、日本語の校正まで、ほぼ全工程でAIを並走させている。
そして皮肉なことに、このレポートの中で扱っているハルシネーションという現象が、レポートの制作過程そのものの中で何度も発生した。原稿の核となる数字について、AIに調査を任せた結果、Web検索の要約レイヤーを経由して「この数字は間違っています」という誤った判定が返ってきた。AIに別のサブエージェントを走らせて交差検証させても、同じ誤った判定が強化されて戻ってきた。
最終的にその数字の正否を確定させたのは、自分で原典PDFをダウンロードし、脚注の中の小さな分母を自分の目で確認するという、極めて古典的な作業だった。AIは原典そのものを読んでいなかった。読んでいたのは、原典を要約した二次記事と、その要約を要約した三次記事だった。正解は脚注の中の「n = 109」と「n = 1,884」という小さな数字の中にあり、要約レイヤーのどこかで失われていた。
このレポートで主張していること — AIの特性を殺さず、周辺の構造で不確実性を制御する — は、このレポートの制作過程にもそのまま当てはまっている。AIを使わなければ、この分量のリサーチはそもそも成立しなかった。しかしAIを使っただけでは、数字も判決も時系列も、どれかが必ずずれていた。AIをどう使うか、どこで人間が判断を入れるか、どこで一次ソースに戻るか。その構造を設計したのは人間で、その構造が機能したから、このレポートは成立している。