Dera News
インサイトに戻る
dera monthly edition2026年3月 / Vol.-

走りながら壊れた月。

1月の主題は「委任」だった。AIに仕事を任せることが冗談でなくなった。2月は「束ねる」——AIがAIを指揮するエージェント統合レイヤーの争奪戦が始まり、同時にAnthropicが国防総省に「No」と言った。3月に起きたのは、その速度が生んだ亀裂だ。「No」と言った企業自身がセキュリティ事故を起こし、最もバイラルだったAIアプリが経済的に破綻し、裁判所が業界の倫理的断層に介入した。性能も資金も加速しているが、壊れるものも同じ速度で壊れている。

号の概要

発行月

2026年3月

編集部より

1月の主題は「委任」だった。AIに仕事を任せることが冗談でなくなった。2月は「束ねる」——AIがAIを指揮するエージェント統合レイヤーの争奪戦が始まり、同時にAnthropicが国防総省に「No」と言った。3月に起きたのは、その速度が生んだ亀裂だ。「No」と言った企業自身がセキュリティ事故を起こし、最もバイラルだったAIアプリが経済的に破綻し、裁判所が業界の倫理的断層に介入した。性能も資金も加速しているが、壊れるものも同じ速度で壊れている。

速度を上げるほど、壊れた時の破片も大きくなる。3月は、安全企業の事故、バイラルアプリの経済破綻、法廷介入という3つの亀裂が、AI業界の「走りながら壊れる」構造を可視化した。AIベンダーの評価基準に「モデル性能」だけでなく「運用セキュリティ体制」を加える。AIプロダクトのコンピュートコストを日次で可視化する仕組みを作る。「速く作る」と同じ真剣さで「速く止める」基準を定義する。

今月何が変わったか

Anthropic

変化前: 2月、AnthropicはAI安全の旗手として国防総省に「良心的に応じることができない」と公式拒否した。安全性が競争優位の源泉として位置づけられていた。

現在: 3月は、その安全企業自身が内部のセキュリティ管理で致命的な穴を露呈した。安全性を「言う」ことと「実装する」ことの間に、深い溝があることが可視化された。

流出ソースコード 512,000行

Anthropic / OpenAI

変化前: 2月、国防総省がAnthropicに安全措置の撤廃を要求し、CEOが公式拒否。OpenAIが数時間後に国防総省と契約を締結した。業界の倫理的断層が露出した段階だった。

現在: 3月は、その断層に連邦裁判所が介入した。「古典的な違法な修正第1条への報復」という判決は、安全性の主張が法的に保護される前例を作った。同時にOpenAIは約18兆円($122B)を調達し、資金力と倫理の間で業界が二極化した。

QuitGPT参加者 250万人

OpenAI

変化前: 2月までは、モデルのコモディティ化と価格崩壊が主な話題であり、AIプロダクトの持続性は議論の中心にはなかった。

現在: 3月は、バイラルに成功してもコンピュート経済学が合わなければプロダクトは死ぬという現実が、Soraの具体的な数字で証明された。GPT-5.4やGemini 3.1が出る中、OpenAI自身がIPO準備のために「採算の取れないプロダクトの清算」を始めた。

コンピュート消費 約22億円/日

今月の特集

加速 / Anthropic01deraの見立てを更新

安全企業が5日間で2度壊れた

逆張り — Anthropic

3月26日、Anthropicの内部CMSに設定ミスが見つかり、未公開資産約3,000件が外部からアクセス可能な状態になっていた。流出した情報の中に、社内コードネーム「Capybara」で開発中の次世代モデル「Claude Mythos」の存在が含まれていた。内部ベンチマークでは、現行のClaude Opus 4.6をコーディング・推論・サイバーセキュリティのすべてで大幅に上回るとされ、「能力の次元が変わる(step change)」と記述されていた。

その5日後の3月31日、今度はClaude Codeのソースコードがnpmパッケージに含まれたまま公開された。.npmignoreファイルの設定漏れで、59.8MBのソースマップ——1,900ファイル、512,000行のTypeScriptがそのまま配信された。

コミュニティの反応は爆発的だった。流出コードをもとにしたクリーンルーム書き換えプロジェクトが立ち上がり、2時間で5万GitHub スターを獲得した。同時に、混乱に乗じたサプライチェーン攻撃が発生。トロイの木馬化されたaxiosパッケージがUTC 00:21〜03:29の間に配信され、その間にアップデートした開発者が被害を受けた。

Anthropicはモデルの安全性については世界最高水準かもしれないが、基本的なDevOpsのセキュリティで躓いた。.npmignoreの1行が抜けていただけだ

Hacker News ユーザー

反論

Anthropicは両事故とも数時間以内に対応し、影響範囲の特定と修正を完了したと発表した。モデルの安全性研究と運用セキュリティは別の問題であり、前者の実績が後者の事故で否定されるわけではないという指摘もある。

加速 / Anthropic / OpenAI02deraの見立てを補強

「No」と言った企業を、裁判所が守った

逆張り — Anthropic / OpenAI

2月末の国防総省によるAnthropicの「サプライチェーンリスク」指定から、事態は急速に動いた。3月3日、QuitGPT運動の参加者が250万人を超え、ChatGPTのアンインストールが1日で295%急増した。同じ日、ClaudeがApp Storeで1位を獲得した。

3月9日、AnthropicはトランプⅡ政権を相手に訴訟を提起した。OpenAIのSam Altmanは国防総省との契約について「日和見的で杜撰に見えた」と認め、米国市民の国内監視を禁止する契約修正を発表した。しかし内部では「社員が激怒している」とCNNが報じた。

3月26日、連邦裁判所がAnthropicに仮差し止め命令を出した。判事は国防総省の対応を「古典的な違法な修正第1条への報復」と断じ、政府による禁止措置の執行を差し止めた。AI企業が安全性を理由に政府要請を拒否し、その判断が法的に保護された初のケースとなった。

国防総省との契約は日和見的で杜撰に見えたことを認める

Sam Altman(OpenAI CEO)、CNBC

反論

差し止め命令は仮処分であり、本裁判の結果次第では覆る可能性がある。また、Anthropicが勝訴しても国防総省との関係修復は困難であり、政府系案件へのアクセスが長期的に制限されるリスクは残る。

再定義 / OpenAI03deraの見立てを更新

史上最もバイラルなAIアプリが停止した

逆張り — OpenAI

3月24日、OpenAIはSoraの終了を発表した。アプリは4月26日に停止、APIは9月24日に廃止される。ローンチ時には世界中のSNSでバイラルとなり、ピーク時には約100万人のユーザーを抱えた。だがその裏では、1日約22億円($15M)のコンピュートリソースを消費していた。

生涯収益はわずか約3億円($2.1M)。1日のコスト以下の金額しか稼げていなかった。ユーザー数も100万人をピークに50万人を割り込み、回復の見込みがなくなった。ディズニーとの大型契約(約1,500億円($1B+)規模、マーベル・ピクサー・スターウォーズを含む)も、ほぼ予告なしに打ち切られた。

Soraの停止は単独の事象ではない。OpenAIはIPO(2026年Q4目標、CFOは2027年が現実的と発言)に向けて「プロダクトの整理」を進めており、Soraはその最初の犠牲となった。同月のGPT-5.4発表と約18兆円の資金調達は、OpenAIがエンタープライズ生産性に軸足を移していることを示している。

Soraは技術的には驚異的だったが、ビジネスとしては1日たりとも成立していなかった。$15M/日のコンピュートを$2.1Mの生涯収益で正当化する方法はない

TechCrunch 分析記事

反論

OpenAIはSoraの技術をエンタープライズ向けのビデオ生成APIとして再利用する可能性を示唆しており、消費者アプリの失敗がすなわち技術の失敗ではないという見方もある。

DISRUPTION — 変革の声

.npmignoreの1行が抜けていただけで512,000行が漏れた。信頼は検証に置き換えるべきだ

Hacker News

クリーンルーム書き換えが2時間で5万スター。オープンソースの反応速度は凄まじい

Reddit

安全性を理由に政府に逆らった企業が法的に守られた。これは前例になる

Reddit

QuitGPTに参加した。倫理的な選択がこれほど明確になったことは今までなかった

Reddit

$15M/日のコンピュート消費で生涯収益$2.1M。ユニットエコノミクスの教科書的な失敗例

Hacker News

ディズニーとの契約打ち切りが一番衝撃的。$1B規模の契約がほぼ予告なしに消えた

Reddit

LIMITATION — 限界の声

該当する声はまだ収集中です。

Decision Board

問いと実装方針

ここは結論セクションです。思考実験ではなく、今月どこから手をつけるかを確定させます。

今月の問い

速度を上げるほど、壊れた時の破片も大きくなる。加速の意思決定と同じ重みで、減速の基準を持っておくべきだ。

  1. 1あなたが信頼しているAIベンダーの「安全」は、言葉なのか、実装なのか?
  2. 2自社のAI投資は、バイラルを追っているのか、単位経済を追っているのか?

編集部の視点

  1. 1速度を上げるほど、壊れた時の破片も大きくなる。3月は、安全企業の事故、バイラルアプリの経済破綻、法廷介入という3つの亀裂が、AI業界の「走りながら壊れる」構造を可視化した。AIベンダーの評価基準に「モデル性能」だけでなく「運用セキュリティ体制」を加える。AIプロダクトのコンピュートコストを日次で可視化する仕組みを作る。「速く作る」と同じ真剣さで「速く止める」基準を定義する。

連続性

月次アークの移動

この欄は2026年3月時点で月次アークがどこまで進んでいたかを示します。今の状況ではなく、当時の到達点です。

2026年1月

委任へ

11個のプラグインが約43兆円を吹き飛ばした / 「頼れるが信用しきれない新人」を月数千円で雇う

2026年2月

エージェント統合レイヤーの争奪戦

エージェント統合レイヤーの争奪戦 / モデル競争の価格崩壊

2026年3月

安全企業が5日間で2度壊れた

安全企業が5日間で2度壊れた / 「No」と言った企業を、裁判所が守った / 史上最もバイラルなAIアプリが停止した

惜しくも落選

最後まで残った論点

今回は最終的な三つの論点にかなり強く収束した。

まだ残る問い

あなたが信頼しているAIベンダーの「安全」は、言葉なのか、実装なのか?

自社のAI投資は、バイラルを追っているのか、単位経済を追っているのか?

この号のつくり方

deraの編集記憶、月内のdera記事、外部コミュニティ調査を照合して、この号を構成した。

奥付

deraの編集記憶、月内のdera記事、外部コミュニティ調査を照合して、この号を構成した。

参照ソース

アーカイブ

ご案内

📩 このレポートは毎月お届けしています。 dera news を購読する(無料)

💼 AIの導入・活用について具体的に相談したい方は dera に相談する

週ごとの流れ

A week of reckoning for AI agent security and business models混在

Week 14

This week, the AI landscape was rocked by an unprecedented series of security crises and business model pivots across leading agent platforms, with OpenClaw and Anthropic both facing high-profile vulnerabilities, source code leaks, and abrupt pricing changes. Meanwhile, Google and Hugging Face doubled down on local deployment and open customization, launching new models and tools that promise to slash operating costs and put more control in practitioners’ hands. As no-code AI-native platforms like Softr enter the mainstream and new security tools emerge to counteract rising leak risks, the industry is forced to confront the true cost—and fragility—of rapid AI integration.

記事
9
企業
22
トピック
43

When your agent’s code leaks and pricing doubles overnight, who do you really trust to run your business AI?

Dispatch vs. Pentagon vs. OpenClaw: AI collisions define the week楽観

Week 13

This week, Anthropic launched Claude Dispatch (Code Channels), letting practitioners control AI coding remotely — a direct answer to OpenClaw that has the community buzzing. Meanwhile, the Pentagon banned Claude, then the US military reportedly used it in Iran strikes hours later, raising urgent questions about AI vendor risk. In China, OpenClaw fever reshapes the tech landscape as local governments and Tencent race to build rivals. NVIDIA GTC brought NemoClaw for secure enterprise agents, Mistral shipped Small 4 and Forge, and Bezos signaled a 100B bet on AI-driven manufacturing.

記事
10
企業
0
トピック
0

Is unified, enterprise-ready AI the new baseline—or just the next walled garden?

Open-Source Model Acceleration Meets Secure Agentic Infrastructure楽観

Week 12

This week, the defining new signal is the rapid convergence of open-source, highly efficient AI models—led by Mistral Small 4, Xiaomi's MiMo-V2-Flash, and Mamba 3—being independently released and immediately integrated into hands-on developer tools, with a parallel surge in secure, enterprise-ready agentic AI infrastructure from NVIDIA and Google, all covered by multiple credible outlets and now directly enabling practitioners to build, customize, and deploy agent-driven workflows at unprecedented speed and scale.

記事
10
企業
19
トピック
49

If open-source AI is now enterprise-ready, what’s left for closed models to defend?

マルチエージェントAIプラットフォームの波が到来楽観

Week 11

今週、NVIDIA、Meta、OpenClawを含む複数の大手企業が、マルチエージェントAIシステム専用に設計されたオープンソースのプラットフォームと標準を独自に立ち上げまたは発表しました。これは、エンタープライズと開発者の両方のエコシステム全体で、AIエージェントの相互運用性、移植性、およびコミュニティ主導を実現するための、業界初の連携した取り組みとなります。

記事
10
企業
31
トピック
46

エージェントがオープンになり、相互運用可能になることで、AIサイロの時代はついに終わるのでしょうか、それとも新しい姿で始まるだけなのでしょうか?

エージェントインフラストラクチャの瞬間:クラウド大手と開発ツールが、展開可能な永続的なAIエージェントに集約楽観

Week 10

今週の決定的な変化は、自律的でステートフルなAIエージェントの主流化です。Amazon Bedrockのステートフルランタイムのローンチ、GitHub Copilotの新しい自律コーディング機能、デザインからコードへのリアルワールドエージェントの統合(Figma x Codex)からワークフローの自動化まで、クラウドプラットフォームと開発者ツール全体で大規模に展開できるようになりました。これらはすべて、複数の信頼できるソースによって個別に報道されています。

記事
9
企業
18
トピック
43

永続的なAIエージェントは、新しいクラウドインフラストラクチャになりつつあるのでしょうか。コード、メモリ、およびオーケストレーションがどこにでも存在する場合、何が起こるのでしょうか?

月次総括

# Newsletter Generation Unavailable The AI content generation service is currently experiencing issues. Please try again later or generate content manually.