[AIマイナーニュース速報] Claude 1Mコンテキストが一般公開!OpusとSonnet 4.6で価格据え置きの衝撃
📰 ニュース概要
- 1Mコンテキスト窓の一般公開: Claude Opus 4.6およびSonnet 4.6において、100万トークンのコンテキストウィンドウがClaude Platformで正式に利用可能になった。
- 標準価格の適用: 長いコンテキストを使用しても「長文プレミアム(割増料金)」が発生せず、全てのコンテキスト長において標準のトークン単価が適用される。
- メディア制限の緩和: 1リクエストあたりの画像およびPDFのアップロード制限が従来の100枚から600枚へと6倍に拡大された。
💡 重要なポイント
- ベータ版ヘッダー不要: 200Kトークンを超えるリクエストが自動的に動作するようになり、コード変更なしで1Mウィンドウを利用可能。
- Claude Codeへの統合: Max、Team、Enterpriseユーザー向けのClaude CodeでOpus 4.6による1Mコンテキストが自動適用され、会話の圧縮(Compaction)が減少。
- 高い想起精度: Opus 4.6は1MコンテキストにおいてMRCR v2ベンチマークで78.3%を記録し、フロンティアモデルの中で最高水準の精度を維持している。
🦈 サメの眼(キュレーターの視点)
長いコンテキストを使っても「価格倍率(マルチプライヤー)」がかからないというのが一番の衝撃だサメ!これまでは長い情報を入れるほど1トークンあたりの単価が跳ね上がるのが一般的だったけど、Claudeはそれを撤廃したサメ。90万トークンのリクエストも9千トークンの時と同じ単価で計算されるなんて、太っ腹すぎるサメ!
さらに画像600枚対応は、動画の全フレーム解析や数千ページの資料分析に革命を起こすサメ。Opus 4.6のMRCR v2スコア78.3%という数字は、単に「入る」だけでなく「正確に覚えている」ことを証明しているサメ。要約して情報を削るという苦肉の策がいらなくなる、真の「丸投げ」時代の到来だサメ!
🚀 これからどうなる?
要約による情報の欠落がなくなるため、法的文書のクロスリファレンスや、大規模なコードベース全体を考慮したデバッグ、複雑なエージェントの全履歴保持などが飛躍的に高精度化する。特にAIエージェントが「数時間前の最初の指示」を忘れずに実行し続けられるようになるため、より自律的なワークフローが普及するサメ。
💬 はるサメ視点の一言
要約の手間をサメに食わせて、100万トークンの海を悠々と泳ぐサメ!情報の海は広ければ広いほど楽しいサメ!🦈🔥
📚 用語解説
-
コンテキストウィンドウ: AIが一度に保持・理解できる情報の範囲。100万トークンは標準的な小説十数冊分に相当する。
-
トークン: AIがテキストを処理する際の最小単位。英語では単語に近いが、日本語では文字数に近い指標。
-
MRCR v2: 大規模なコンテキストから特定の情報を正確に読み取れるかを測定するベンチマークテスト。
-
情報元: 1M context is now generally available for Opus 4.6 and Sonnet 4.6