
22 March 2026
142B.Claude 1M Context/Qwen 3.5 as Claude Code/Codex はいかが?
とにかくヨシ!-Tonikaku Yoshi! | Japanese Meme Society
About
今回のポッドキャストの概要:
Claude 1Mコンテキスト正式リリースの話から、Qwen 3.5を使った「なんちゃってClaude Code」ローカル環境、そしてCodexとClaude Codeの使い分けについて話しました。
- Claude 1M Context 一般提供開始 OPUS 4.6 / SONNET 4.6で1ミリオントークンのコンテキストが正式リリース 256Kを超える長コンテキスト利用時の「割増レート」が撤廃され、1Mコンテキストでも通常レートに PDF/画像入力が従来の約100ページから600ページへ拡張 MRCRv2ベンチマークで、長いコンテキストでもClaude OPUS / SONNETがGPT系・Gemini系より高スコアという話 コンテキストあふれ時のコンパクティングで指示が失われがち、というこれまでの不満と、その改善期待
大規模コードベースを読むコードエージェント用途での有利さについて雑談
Qwen 3.5で「Claude Code 風」ローカル環境
中国発オープンLLM「Qwen 3.5」を量子化してローカル実行する試み 35Bモデルを量子化し、24GBメモリのMacでもClaude Code風環境が動く、という話題 Claude Codeのセッション先頭に入るハッシュ値(アトリビューションヘッダ)がKVキャッシュを無効化してしまい、そのまま真似すると推論速度が90%以上低下するので削った方がいい、というTips 本家仕様変更に依存するため「継続的に使えるかはかなり怪しい」一時的ハックであること バックエンドにはllama.cpp系(RAM CPPと呼んでいた)を使っている模様、サーバ分離構成の話
MシリーズMac(24GB以上)でローカルLLMをガッツリ動かす未来と、Mac Studio / Mac mini / 新しい安価なMac NEOの話題
Codex はいかが?(ChatGPT Codex と Claude Code の使い分け)
ChatGPTのコーディングエージェント「Codex」をProプランで試用中 CLI版とアプリ版(codex app)の両方を利用、基本はCLI中心 新規プロジェクトではCodexで始めてみて、cloud.mdが無い状態からどう構成するかを確認する使い方 Claude Codeを実装のメイン、Codexをレビュー・比較・追加アドバイス役として併用 Claude Code:出力がコンパクトで実務寄り、対話の雰囲気が好み Codex:説明が長くてディテール豊富、理論説明や専門的な話をさせるときに強い印象 「喋り方がちょっとキモい」と感じるので、直接ベラベラ話させるより裏方の専門家として使う、というスタイル 研究用途ではGeminiも併用しており、ネット検索込みの情報探索には便利 Codexサブスクは「そこそこ良い」ので来月も継続予定だが、将来的にはローカルLLMへの移行も視野に次回もお楽しみに。