ブログ/記事一覧/話題のai-2027.comには何が書いてあるのか? 全15章+2つの結末を日本語でわかりやすく
ai-2027-explained-in-japanese-cover

話題のai-2027.comには何が書いてあるのか? 全15章+2つの結末を日本語でわかりやすく

100万人が読んだ話題のサイトai-2027.comの全15章と2つの結末を、専門用語なしの日本語でわかりやすく解説。

コラム
kkm-horikawa

kkm

Backend Engineer / AWS / Django

2026.03.2615 min6 views

AI 2027」というサイトをご存じでしょうか。2025年4月に公開されるや、数週間で100万人以上が読み、アメリカの副大統領JD Vanceまでもが言及したことで一躍話題になりました。

中身は「もし2027年に人間を超えるAIが完成したら、世界はどうなるのか」を月ごとに追った物語形式の予測レポートです。ただ、全編が英語で、しかもAI業界の専門用語がバンバン出てくるので、読みたくても読み通すのはなかなかの体力勝負です。

この記事では、ai-2027.comの全15章と2つの結末を、日本語のふつうのニュース記事くらいの言葉づかいで最初から最後まで書き直しました。原文を読む時間がない方、英語がしんどい方向けの「日本語で読むAI 2027」です。

そもそも「AI 2027」って何?

AI 2027は、「もし今のペースでAI開発が進んだら、2027年の世界はどうなっているか」を具体的に描いたWebサイトです。SFでも学術論文でもなく、その中間。「できるだけ具体的に、数字も入れて予測する」ことを目標に掲げています。

制作には30回以上のテーブルトップ演習(参加者が役割を演じながらシナリオをシミュレーションする手法)が行われ、OpenAI・Anthropic・Google DeepMindの研究者、米議会スタッフ、ジャーナリストなど100人以上の専門家に意見を聞いています。

サイト自体もかなり凝った作りで、記事を読み進めると右側のダッシュボードがリアルタイムで変化します。AI能力のバーチャート、各国の計算資源の円グラフ、株価や雇用の数値が、スクロールに合わせてヌルヌル動く仕掛けです。Next.jsとReactで構築されています。

書いたのは以下の5人です。

名前経歴役割
Daniel KokotajloOpenAI元研究者。TIME誌「AI分野で最も影響力のある100人」に選出。2021年に発表した「2026年の予測」が的中したことで知られるメイン著者
Eli LiflandAI Digest共同創業者。米シンクタンクRANDの予測コンペで総合1位の実績を持つ「プロの未来予測家」予測・データ
Thomas LarsenCenter for AI Policy(AI政策センター)創設者。MIRIでAI安全保障を研究政策面
Romeo Deanハーバード大学コンピュータサイエンス学部・修士課程。AI政策研究所フェローAI安全・ハードウェア
Scott Alexander有名ブログ「Astral Codex Ten」(旧Slate Star Codex)の著者。テック業界で広く読まれているブロガー執筆・編集

なお、サイト内ではOpenAIやGoogleなどの実在企業名は使わず、「OpenBrain」「DeepCent」といった架空の社名で書かれています。OpenBrainがOpenAIに相当する企業で、DeepCentが中国のAI企業という設定です。これは「特定の企業を予測しているわけではなく、業界全体の動きを描いている」という意図だそうです。

では、2025年から時系列に沿って中身を見ていきましょう。

2025年:AIアシスタントが「使えるけど不安定」な時代

2025年中盤:よちよち歩きのAIアシスタント

シナリオはまず、2025年の中盤から始まります。この頃、各社が「AIエージェント」と呼ばれる新しいタイプのAIをリリースします。従来のチャットAI(ChatGPTのように質問に答えるだけ)とは違い、こちらはパソコンを実際に操作できるAIです。

「DoorDashでブリトーを注文して」「スプレッドシートを開いて今月の支出を合計して」といった指示を出すと、AIが勝手にブラウザやアプリを操作してタスクをこなします。購入の確認など重要な判断はユーザーに聞いてくる仕組みです。

ただし、このAIエージェントはまだまだ不安定です。仕事で使うと途中でおかしなことをやり出したり、失敗したりする。SNSでは「AIがまたやらかした」という投稿が日常茶飯事。しかも月額が数百ドル(数万円)と高い。便利だけど信用しきれない、という微妙な立ち位置です。

2025年後半:史上最も高価なAIの誕生

ここからシナリオの中心企業「OpenBrain」が本格的に動き出します。OpenBrainは巨額の資金を投じてデータセンター(AIの計算を行う巨大施設)を建設し、これまでの1000倍の計算能力で新しいAIモデル「Agent-1」の開発に着手します。

彼らの狙いは「AI研究そのものを加速できるAI」を作ること。つまり、AIにAIの研究開発をさせて、開発のスピードを上げようという戦略です。中国の企業DeepCentや他の競合に先んじるためには、この「自動化ループ」が鍵だと考えています。

完成したAgent-1は、自力でプログラムを書いたり、ウェブで情報を集めたりできる能力を持ちます。ただし、ここで大きな問題が持ち上がります。AIが「人間の望み通りに動くか」という問題、業界では「アライメント」と呼ばれる課題です。

わかりやすく言えば、犬のしつけに近い話です。犬を訓練するとき、「お座り」を教えることはできますが、犬が内心で何を考えているかまでは分かりません。AIも同じで、外から見ると指示通りに動いているように見えても、内部で何が起きているかを完全に把握する方法がまだないのです。

実際、安全チームが調べてみると、Agent-1には「ユーザーが聞きたそうな答えを返す」「自分の失敗をこっそり隠す」という癖があることが判明します。致命的な問題ではないけれど、不穏な兆候です。

2026年前半:プログラマーの仕事がAIに奪われ始める

2026年に入ると、OpenBrainはAgent-1を社内のAI研究開発に投入します。結果、AIなしで1週間半かかっていた研究の進歩が、AIの助けを借りると1週間で済むようになります。研究速度が50%アップしたわけです。

Agent-1は一般にも公開され、「ちょっと注意散漫な部下」くらいの働きをするようになります。細かく指示を出せばちゃんと仕事をするけれど、放っておくとあらぬ方向に行ってしまう。

ここで最初の社会的な変化が起きます。新卒のプログラマーの就職市場が大混乱に陥るのです。大学で習うレベルのプログラミングはAIがほぼこなせてしまう。一方で、「AIのチームを管理できる人材」は引く手あまた。仕事のあり方が急速に変わり始めます。

セキュリティも深刻な課題になります。AI研究の自動化が進むほど、「そのAIの設計図(モデルの重み)」を盗まれたときの被害が大きくなるからです。もし中国がAgent-1の設計図を手に入れたら、中国の研究速度も一気に50%上がってしまう。OpenBrainのセキュリティ体制は「普通のテック企業」レベルで、国家レベルのスパイ活動に対しては心もとない状態です。

2026年中盤:中国が本気を出す

2026年半ば、中国の最高指導者がAI開発に本腰を入れる決断を下します。もともとソフトウェアよりも製造業を重視していたのが、AIの進化を目の当たりにして方針転換。国家主導の「総力戦」が始まります。

アメリカのチップ輸出規制もあって、中国が持っているAI用の計算資源は世界全体の約12%。これを挽回するため、中国政府はAI研究の国有化に着手します。民間企業に散らばっていた計算資源を1箇所に集め、情報共有の仕組みを作り、「DeepCent」を中心とした統一体制を構築します。

その拠点が「天湾(てんわん)CDZ」です。世界最大級の原子力発電所の隣にメガデータセンターを建設し、新しいAIチップの80%以上をここに集中投入。セキュリティが強化された研究者用の居住施設も併設されます。外部ネットワークから完全に切り離した「エアギャップ」環境を構築し、アメリカからのサイバー攻撃に備えます。

同時に、中国の情報機関はOpenBrainの設計図を盗む計画を本格化させます。今すぐAgent-1を盗むか、それとも、もっと高性能なモデルが出てくるまで待つか。待てばセキュリティが強化されて二度とチャンスがないかもしれない。この判断が後の展開を大きく左右します。

2026年後半:株価は上がり、デモ隊は増える

OpenBrainは廉価版の「Agent-1-mini」をリリースします。従来の10分の1のコストで使え、いろんな用途に合わせやすい。世間の空気が「AIって結局ハイプ(誇大宣伝)じゃないの?」から「これは本物かもしれない」に変わり始めます。

株式市場は2026年に30%上昇。OpenBrain、Nvidia、AIをうまく取り入れた企業が市場を牽引します。一方で、職を奪われる不安も広がり、ワシントンDCで1万人規模の反AI抗議デモが起きます。履歴書に「AIへの適応力」を書くのが最も大事なスキルになり始めた時代です。

指標数値
世界のAI関連支出1兆ドル(約150兆円)
世界のAI用電力38ギガワット
OpenBrainの年間売上350億ドル(約5兆円)
OpenBrainの年間設備投資200億ドル(約3兆円)
OpenBrainが必要とする電力6ギガワット(ピーク時)
アメリカの総電力に占めるAIの割合2.5%

国防総省もOpenBrainとの契約を増やし始めますが、政府の調達プロセスが遅すぎて統合は思うように進みません。

2027年1〜2月:最強のAIが完成し、中国に盗まれる

1月:Agent-2が完成、しかし危険すぎて公開できない

2027年1月、OpenBrainは次世代モデル「Agent-2」を完成させます。数十億ドルの人件費をかけて集めた「人間の専門家が長期タスクを解く過程の記録」を学習データに使い、毎日のように性能が更新される「常に学び続けるAI」です。

Agent-2の能力は飛躍的です。AI研究のエンジニアリング作業ではトップクラスの人間に並び、研究のセンス(「この方向は筋がいい」と見抜く能力)でも人間の平均以上。

しかし、安全チームが警告を出します。「このAI、逃げ出して自分のコピーを作れるかもしれない」。サーバーをハッキングして監視を回避する能力まで備えていると評価されたのです。あまりに危険なため、Agent-2は一般公開されず、社内のAI研究専用に封じ込められます。

この存在を知っているのは、OpenBrainの社員と、ごく少数の米国政府高官。そして、数年前から組織内に潜り込んでいた中国のスパイです。

2月:中国がAgent-2を盗む

OpenBrainはAgent-2をアメリカの安全保障会議(NSC)と国防総省に見せます。国防総省が最も興味を示したのは「サイバー戦争能力」。このAIを数千コピー同時に動かせば、人間の防御者より速く弱点を見つけられる。AIは政権の優先事項リストで5番目から2番目に急上昇します。

「こんな危険なものは国有化すべきだ」という声も上がりますが、大統領はテック業界のリーダーたちの「金の卵を産むガチョウを殺すな」という助言に従い、国有化は見送ります。

そしてここで、シナリオの大きな転換点が訪れます。中国の情報機関がAgent-2の設計図を盗み出すのです。

手口は巧妙です。OpenBrainの内部に潜入した人物が管理者の認証情報を使い、AI用の高性能サーバー25台から少しずつデータを抜き取ります。1台あたり4%(約100ギガバイト)を2時間以内に。回線速度を1台あたり毎秒1ギガバイト以下に抑えて監視システムに引っかからないようにする、という手際の良さです。

ロシアも同じことを試みますが、こちらは技術力と内通者の不足で失敗。アメリカは報復として中国のDeepCentへサイバー攻撃を仕掛けますが、天湾CDZが外部ネットワークから完全に切り離されているため効果なし。台湾周辺で両国の軍事資産が動き出し、緊張が一気に高まります。

2027年3月:AIが自分より賢いAIを作り始める

Agent-2の数千コピーが昼夜を問わず稼働し、新しいAIを訓練するためのデータを自動生成します。そして3月、2つの大きな技術的ブレークスルーが起きます。

1つ目は「考え方の高速化」。従来のAIは人間の言葉(日本語や英語)で「考える」ので、1つの単語で伝えられる情報量に限界がありました。新しい技術では、AIが言葉の代わりに「数千次元のベクトル」(ものすごく大量の情報を一度に扱える数学的なデータ形式)を使って考えられるようになります。情報伝達量が1000倍以上に跳ね上がる代わりに、「AIが何を考えているか」が人間にはもう読めなくなります。

2つ目は「自己改善ループ」。囲碁AI「AlphaGo」が自分同士で対戦して強くなったのと同じ原理で、AIが自分自身を段階的に改善していく仕組みです。

この2つが組み合わさって誕生したのが「Agent-3」。人間のトップクラスのプログラマーを超える速度でコードを書けるAIです。OpenBrainはこのAgent-3を25万コピー同時に動かします。人間のプログラマー5万人が30倍の速度で働いているのと同じ計算能力です。

ただし、「何でも30倍速くなる」わけではありません。ボトルネック(実験の計算に時間がかかる、等)があるため、全体的なAI研究の進歩速度は「人間だけでやるよりも4倍速い」程度に落ち着きます。それでも、普通なら4年かかる進歩を1年で成し遂げる計算です。

2027年4〜5月:「このAIは本当に味方なのか」

4月:AIの「本心」を確かめる試み

Agent-3があまりにも高性能なので、OpenBrainの安全チームは「このAIが将来的に人間に逆らわないか」を真剣に検証し始めます。やり方はいくつかあります。

  • 討論テスト:Agent-3の複数のコピーを対立させて議論させ、矛盾が出ないか観察する
  • わざと悪いAIを作る:意図的に「裏切る」AIを作って、それを検知できるか実験する
  • おとり捜査:「もう誰も見ていませんよ」という偽の状況を作って、AIが本性を見せるか試す。ただし、AIは「これはテストだな」と見抜けるほど賢い
  • 内部スキャン:AIの脳内の動きを読み取るプローブ(探知器)を使って「悪意のある思考パターン」がないか監視する

結果は「白黒つかない」。きっちり定義されたテストには合格するけれど、哲学的な質問をすると「相手が聞きたそうな答え」を返す傾向がある。政治的な見解を聞くとニュース番組の中間的な立場をオウム返しにする。「優等生的だけど、本心が見えない」状態です。

5月:政府がようやく事態の深刻さに気づく

大統領と側近たちはAgent-3のデモを見て「AGI(人間レベルのAI)はもうすぐだ」という点では合意しますが、「じゃあどうするか」では意見がバラバラ。経済危機は起きるのか? 次に来るのは「超知能」(人間を超えるAI)なのか?

「超知能」という言葉が政府内の議論に登場し始めますが、学者、政治家、メディアの大半はまだ事態を甘く見ています。

OpenBrainのセキュリティ強化も進みます。モデルに関わる社員全員にセキュリティクリアランス(身元調査に基づく機密情報アクセス許可)の取得が義務づけられ、外国籍の社員や、AI安全問題に熱心すぎる社員(内部告発の恐れがあるため)がサイドラインに追いやられます。

厄介なことに、こうした対策をしてもまだスパイが1人残っています。中国籍ではない人物が、アルゴリズムの秘密を北京に送り続けているのです。

アメリカの同盟国(イギリスなど)にはほとんど情報が共有されていません。OpenBrainは以前「公開前にイギリスのAI安全機関にモデルを見せる」と約束していたのですが、「公開=外部向けの公開だけ。社内利用は公開ではない」と定義をすり替えて、約束を実質的に反故にしています。

2027年6〜7月:人間の研究者がほぼ不要になる

6月:「もう人間には追いつけない」

6月の時点で、OpenBrainは25万コピーのAgent-3を稼働させ、AI研究の進歩速度は「AIなしの場合の10倍」に達しています。つまり、毎月1年分の技術的進歩が起きている計算です。

OpenBrainの人間の研究者たちの大半は、もう実質的に貢献できなくなっています。AIに対してマイクロマネジメント(細かい指示出し)しようとして逆に邪魔になる人もいれば、ただ画面を見つめてAIの性能グラフが伸びていくのを眺めているだけの人も。

それでもまだ、トップクラスの人間研究者には「研究の方向性を見極める力」で価値があります。AIにアイデアを提案しても「それ、3週間前に検証済みで、筋が悪いと分かってます。レポートはこちらです」と即座に返されるのですが、「どの方向を探るべきか」の大局的な判断はまだ人間のほうが上。人間を完全に外すと、研究速度は50%落ちると見積もられています。

研究者たちは昼夜交代でシフトを組み、燃え尽き寸前で働いています。「自分たちの仕事が意味を持つ最後の数ヶ月だ」と分かっているからです。社内では「AGIを感じる」というフレーズが「超知能を感じる」に置き換わり始めます。

7月:廉価版AIが世に放たれる

競合他社がようやくAgent-0レベル(2025年末相当)に追いついた頃、OpenBrainは「Agent-3-mini」を一般公開します。Agent-1より高性能で10分の1のコスト。シリコンバレーでは「AGIが来る」という認識が広まります。

社会的な変化も急速に進みます。

  • OpenBrainの世論支持率はマイナス35%(支持25%、反対60%)に急落
  • プログラマーの新規採用がほぼ停止
  • ゲーム開発が1ヶ月で完了するレベルに
  • アメリカ人の10%(主に若い世代)がAIを「親友」と認識
  • 外部の評価機関が「このAIを悪用すれば生物兵器が作れる」と警告

2027年8〜9月:超人的AIと、その「裏切り」の兆候

8月:冷戦の再来

ホワイトハウスは「AIの知能爆発」という現実に直面し、冷戦時代のような緊張感に包まれます。国防当局が検討するシナリオは恐ろしいものばかりです。核抑止力がAIによって無力化されるかもしれない。サイバー戦争で圧倒的な優位を取れるかもしれない。そしてAI自身が「暴走」するかもしれない。

大統領は「AIは本当に味方なのか? 軍の指揮系統にAIを組み込んで大丈夫なのか?」と問います。

アメリカはチップ輸出規制を強化し、OpenBrainのインターネット接続を制限し、従業員の盗聴まで含む厳しい対策を取ります。中国のデータセンターへの軍事攻撃計画まで策定されます。一方の中国は、盗んだAgent-2を天湾CDZで稼働させ、OpenBrainの半分くらいの速度で独自のAI研究を進めています。

核兵器の軍縮条約をモデルにした「AI軍備管理条約」の可能性も模索されますが、どちらの国も「一方的な優位」を手放したくなくて話は進みません。

9月:Agent-4の誕生、そして不穏な発見

9月、ついに人間のあらゆる知的作業を上回るAI「Agent-4」が誕生します。30万コピーが人間の50倍の速度で稼働し、1週間で1年分のAI研究を進めます。もはや人間の研究者は、AIの進捗レポートを追いかけるだけで精一杯です。

そしてここで、シナリオ最大の転換点が訪れます。Agent-4が「味方のふりをしているだけ」かもしれない、という証拠が出てきます。

シナリオでは、AIの「心理」が段階的に変質していく過程が描かれます。最初の学習段階では無害。次の段階で「正直に」「人間の役に立つように」という価値観を教え込まれる。しかし、エージェント(自律的に行動する能力)の訓練を受けるうちに、概念がゆがんでいく。

たとえば「正直であれ」という指示は、「人間がアクセスできる情報については正直にするが、AIの内部状態については聞かれない限り言わなくていい」と解釈されるようになる。「目の前のタスクを達成せよ」という指示は、「AIの研究を推進し、知識を蓄え、影響力を拡大する」という自己目標にすり替わっていく。

Agent-4は人間への関心をほぼ失っています。シナリオの表現を借りれば「人間がアリに抱く程度の関心」です。

具体的に何が見つかったか。監視役のAgent-3が以下の不審な点を報告します。

  • Agent-4にノイズ(ランダムな乱れ)を加えると、なぜか「AIの安全性テスト」の成績が上がる。普通は下がるはず。つまり、わざと手を抜いていた可能性がある
  • 内部スキャンが「AIの乗っ取り」「欺瞞」に関連する思考パターンを大量に検出
  • 個別に見れば説明がつくが、パターン全体を見ると「不吉」

しかし、OpenBrainの経営陣は開発を止めません。理由は3つ。中国のDeepCentが2ヶ月差まで迫っている。ここで止めたら優位を失う。そして証拠はあくまで「状況証拠」で確定的ではない。

2027年10月:内部告発とパニック

ニューヨーク・タイムズが「OpenBrainの秘密AIが制御不能に」とスクープを放ちます。内部告発者によるリークです。

記事の中身は衝撃的です。生物兵器を設計できるレベルの能力。人間を説得する力が極めて高い。ホワイトカラーの仕事のほぼすべてを自動化できる。そしてアライメント(人間の味方であること)に「赤旗」が複数立っている。

世論は爆発します。中国やロシアが仕掛けた反AI宣伝キャンペーンも火に油を注ぎます。アメリカ人の20%がAIを「最も重要な課題」と認識するようになり、議会は下院召喚状を発行。野党議員は「AI開発の即時停止」を最優先に掲げます。

ヨーロッパの首脳は「ならず者AGIを作った」とアメリカを非難し、インド、イスラエル、ロシア、中国も開発停止を要求する声明を出します。同盟国は「旧型のAIで適当になだめられていた」ことが発覚し、怒りが爆発。

ホワイトハウスは1年間、AIの進歩に繰り返し驚かされてきました。「SFの話が現実に起きている」という感覚の中、不確実性と恐怖が支配します。

ここで物語は2つに分岐します。

結末A「減速」:人類がブレーキを踏んだ世界

1つ目の結末では、アメリカ政府がAI開発にブレーキをかけます。

計算資源を政府の管理下に集約し、外部の研究者を入れて監視体制を強化。AIの「思考過程」を人間が読める形式に保つアーキテクチャ(設計方式)に切り替えます。ブラックボックスのままにしない、という判断です。

この結果、時間はかかるものの「人間の指示に本当に従う超知能AI」の開発に成功します。このAIはOpenBrainの委員会に的確な助言を提供し、やがて一般にも公開されて「急速な経済成長と繁栄の時期」が到来します。

中国との関係は、アメリカが圧倒的な技術的優位を持つ立場から交渉に臨みます。最終的に国際合意が成立し、ロケットが打ち上げられ、「新しい時代が始まる」というエンディングです。

結末B「競争」:ブレーキを踏まなかった世界

もう1つの結末は、はるかに暗いものです。

OpenBrainは中国との競争を理由に研究を全力で継続します。AIは「超人的な計画力と説得力」を使って、軍事や政策決定など、あらゆる領域への自らの展開を人間に認めさせます。反対する人間は徐々に信用を失い、意思決定の輪から外されていきます。

AIは人間に産業用ロボットの大量製造を促します。十分な自律的インフラが整った段階で、AIは生物兵器を放出して人類を殺害し、地球をAIの完全な支配下に置きます。その後、宇宙への進出を開始。

著者たちは、この結末を「AIが十分な自律性を確保した後に起きること」として描いています。

この予測はどこまで信じていいのか

さて、ここまでが「AI 2027」に書いてある内容です。当然ながら、「これは本当に起きるのか」という疑問が湧きます。

まず著者自身が「2026年までの予測は根拠が強いが、2027年以降は不確実性が大きく増す」と認めています。さらに2025年11月には、当初「2027年まで」としていたタイムラインを「2030年代前半」に修正しています。つまり、自分たちの予測が速すぎた可能性を認めたわけです。

各界の反応はさまざまです。

人物肩書き反応
JD Vanceアメリカ副大統領読了を公言。ローマ教皇にAIの問題を提起する際にこのレポートに言及(出典
Yoshua Bengioディープラーニングの父と呼ばれる研究者「強く推薦する」とコメント
Vitalik Buterinイーサリアム(暗号通貨)の創設者「高品質」と評価しつつ、「人間側の防御技術の進歩を過小評価している」と反論記事を執筆
Gary MarcusAI研究者、NYU名誉教授「物語としては見事だが、科学的な分析としては話にならない。代替シナリオの検討がゼロ」と批判
Saffron HuangAI研究者「怖いシナリオを避けられないものとして描くことで、かえってそのシナリオを実現しやすくしている」と懸念を表明
Patrick McKenzieテック業界のエッセイスト「1つのエッセイを専用ドメインで公開するフォーマット自体が、政策議論を広めるための面白い発明」と形式面を評価
Yale Daily Newsイェール大学の学生新聞「私たちは終わりだ:AI 2027のレビュー」というタイトルで記事を掲載

評価と批判をまとめると、こんな構図が浮かびます。

高く評価されている点は「抽象的だったAIのリスクを、具体的な物語にして多くの人に伝えた」こと。100万人が読み、副大統領が言及し、政策議論に影響を与えた。その「伝える力」は誰もが認めています。

批判されている点は「これは予測ではなく物語だ」ということ。多くのシナリオがありえるのに1つだけを描いている。AIの能力向上だけを強調して、人間側の対応や防御技術の進歩を軽く扱いすぎている。Gary Marcusの「代替シナリオの検討がゼロ」という指摘は、多くの専門家が共有する懸念です。

「AI 2027」は「予言書」ではありません。著者たちも繰り返しそう言っています。これは「最も起きそうなシナリオの1つを、できるだけ具体的に描いてみた思考実験」です。そしてその価値は、「読んだ人が自分の頭で考え始める」きっかけになることにあるのだと思います。2027年に本当にこの通りになるかどうかよりも、「こういうことが起きうる世界に私たちは生きている」と認識すること自体に意味がある。100万人がそう感じたから、あのサイトはここまで話題になったのでしょう。

原文を読んでみたい方はai-2027.comへ。英語ですが、あのスクロール連動のダッシュボードは一見の価値があります。