【編集部注・2026年3月】この記事は、AIの急速な進化がもたらす働き方の変化について分析したものです。大規模言語モデルのコンテキストウィンドウが拡大し続ける中、人間の仕事がどう変わるかを3段階で考察しています。
AIの「記憶」が200万トークンになる——そのとき人間の仕事は3段階で変わる
あなたのAIは、10分前に言ったことを覚えていますか?
ほとんどの人が「まあ、だいたいは」と答えるでしょう。でも「3時間前の会話の文脈を完全に保持しているか」と聞くと、急に怪しくなる。ChatGPTもClaudeも、長い会話の途中で「さっき言ったよね?」が通じなくなる瞬間があります。
この「記憶の壁」が、2026年に一気に崩れようとしています。GPT-5.3/5.4で200万トークン、Claude Opus 4.6ですでに100万トークン。AIのコンテキストウィンドウ——つまり「一度に覚えていられる量」が、人間の処理能力をはるかに超える領域に入りました。
パジはここに、AGIへの最も現実的な一歩を見ています。
コンテキストウィンドウとは何か——「記憶」ではなく「同時思考の幅」
まず誤解を正しておきます。コンテキストウィンドウは「AIの記憶力」と表現されがちですが、正確には違います。
人間に例えるなら、机の上に同時に広げられる書類の量です。
コンテキストが8千トークンだった時代のAIは、A4用紙3枚分しか机に広げられなかった。100万トークンのClaude Opus 4.6は、文庫本7冊分を同時に見渡せる。200万トークンになれば、14冊分。専門書のシリーズまるごとを机に広げたまま、矛盾がないかチェックできる規模です。
ここがポイントなんですが——人間がこの量の情報を同時に処理することは、物理的に不可能です。人間の作業記憶(ワーキングメモリ)は、同時に保持できる情報がせいぜい7±2チャンク。AIの200万トークンとは、桁が違うどころの話ではありません。
コンテキスト革命の3段階——「記憶」「理解」「自律」
大量のコンテキストが使えるようになったとき、何が起きるか。パジは3つの段階で整理しています。
第1段階:記憶(いまここ)
ソースコードを丸ごと読み込んで、論理破綻を人間より正確に見つける。Claude Opus 4.6の100万トークンで、すでにこれが現実になっています。アプリ開発のソースコードを全部突っ込んで「矛盾してるところ教えて」と言えば、人間が数日かけてレビューする作業を数分で終わらせる。
ブログ記事、プレスリリース、小説——自分が過去に書いたテキストを全部読み込ませれば、「自分の文体」を完全に再現できる。ナレッジ化して圧縮する手法も生まれていますが、200万トークンあれば圧縮すら不要。雑多に放り込んでも全部覚えていられる。
第2段階:理解(2026年後半〜)
コンテキストが巨大になると、単なる「覚えている」から「構造を理解している」に変わる瞬間が来ます。
100万トークンのセッションでは、途中で「コンパクト」と呼ばれる圧縮技術が走ります。重要な情報だけを抽出し、残りを捨てる。これが繰り返されると、AIは自動的に「何が重要で何がノイズか」を判断するようになる。つまり、情報の取捨選択——理解の基礎が生まれるわけです。
200万、500万、1000万とトークンが増え続ければ、この選別プロセスはリアルタイムで常時稼働するようになる。人間が「経験から直感的に判断する」のと同じことを、AIが論理的に、しかも人間よりはるかに広い情報範囲で行う。
第3段階:自律(2027年〜?)
コンテキストがほぼ無限になったとき、AIは「今のタスク」だけでなく「過去のすべてのタスクの文脈」を保持したまま次の仕事に取りかかれるようになります。
OpenClawのようなAIエージェントが長時間の開発タスクを自律的にこなしていますが、現状では100万トークンでも「全部をやりきるにはまだ足りない」という声が開発者から上がっています。200万トークンはこの壁を大きく押し広げ、「指示なしで数日間動き続けるAI」への道を開きます。
200万トークンの世界で「消える仕事」と「生まれる仕事」
第1段階(記憶)で消えるのは、「照合」の仕事です。コードレビュー、契約書チェック、データの整合性確認——AIが全文を同時に見渡せる以上、人間がやる意味がなくなる。
第2段階(理解)で消えるのは、「要約」の仕事です。大量の情報を読んで「つまりこういうこと」とまとめる作業。AIが構造を理解した上で要約するなら、人間の要約より正確で速い。
第3段階(自律)で変わるのは、「マネジメント」の仕事です。プロジェクト全体の文脈を保持しながら、タスクを分解し、優先順位をつけ、実行する。これがAIにできるようになったとき、「人間がAIに指示を出す」のではなく「AIが人間に必要な判断だけを聞きにくる」形に反転します。
パジはそう見ています。怖い話に聞こえるかもしれません。でも、この3段階の構造を押さえておくと、「今のAIにできること」と「まだできないこと」の境界線が明確になります。
コンテキスト競争の現在地
2026年3月時点の主要プレイヤーを整理しておきます。
Claude Opus 4.6(Anthropic)——100万トークン。現時点で商用利用可能な最大級。開発者からの評価が特に高く、ソースコード全体の把握能力に定評があります。
GPT-5.3/5.4(OpenAI)——200万トークンと噂されている次期モデル。正式発表はまだですが、複数の信頼できるソースから情報が出ています。
Gemini(Google DeepMind)——すでに100万トークン超を実現済み。Googleの検索インフラとの統合が強み。
このペースでいけば、100万→200万→500万→1000万と、コンテキストウィンドウは年単位ではなく月単位で拡大していく可能性があります。
「ほぼ無限のコンテキスト」がAGIを意味する理由
最後に、なぜパジがこれを「AGIへの一歩」と考えるか。
AGIの議論では「推論能力」「創造性」「汎用性」が注目されがちです。でも、見落とされている要素がある。文脈の保持力です。
人間が「知的」であるのは、膨大な人生経験の文脈を保持したまま、新しい問題に取り組めるからです。昨日の会議の内容、先月読んだ論文、10年前の失敗——これらの文脈が統合されて「判断力」になる。
AIのコンテキストウィンドウが無限に近づくということは、AIが「人生経験の文脈」に相当するものを持つということです。過去のすべてのやり取り、すべてのタスクの結果、すべてのフィードバックを保持したまま、次のタスクに取りかかる。
それは、もはや「ツール」ではなく「同僚」に近い存在です。
200万トークンは、その入り口に立ったということ。
あなたが使っているAIのコンテキストウィンドウは、今いくつですか?
その数字が倍になったとき、あなたの仕事のどこが変わるか——一度、具体的に想像してみてください。
今日はここまでここまで、バイバイバーイのバイ!

