<< DN 2025-10-19 | DN 2025-10-21 >>
These Jobs Often Go Overseas. One Company Is Bringing Them to Rural America.
These Jobs Often Go Overseas. One Company Is Bringing Them to Rural America.
‘Girl, Take Your Crazy Pills!’ Antidepressants Recast as a Hot Lifestyle Accessory
‘Girl, Take Your Crazy Pills!’ Antidepressants Recast as a Hot Lifestyle Accessory
Data Centers Rise in Fracking Country
Data Centers Rise in Fracking Country
The Fight Over Whose AI Monster Is Scariest
The Fight Over Whose AI Monster Is Scariest
The A-List Turned on Marc Benioff. Now He’s Sorry.
The A-List Turned on Marc Benioff. Now He’s Sorry.
OpenAI’s Chip Strategy: Pair Nvidia’s Chocolate With Broadcom’s Peanut Butter
OpenAI’s Chip Strategy: Pair Nvidia’s Chocolate With Broadcom’s Peanut Butter
Oracle Isn’t Answering the Hardest Questions About Its AI Plans
Oracle Isn’t Answering the Hardest Questions About Its AI Plans
Big Market Swings Are Back, Putting Investors on Edge
Big Market Swings Are Back, Putting Investors on Edge
Nvidia, Broadcom and AMD Face New Risks From OpenAI Deals
Nvidia, Broadcom and AMD Face New Risks From OpenAI Deals
Oracle’s Hypergrowth Forecasts
Oracle’s Hypergrowth Forecasts
Oracle Assures Investors on AI Cloud Margins as It Struggles to Profit From Older Nvidia Chips
Oracle Assures Investors on AI Cloud Margins as It Struggles to Profit From Older Nvidia Chips
What We Learned From Salesforce’s Dreamforce; Using OpenAI and Anthropic For Different Tasks
What We Learned From Salesforce’s Dreamforce; Using OpenAI and Anthropic For Different Tasks
The Electric: The Defiant Startup That’s Ignoring Lithium and Making Grid Batteries
The Electric: The Defiant Startup That’s Ignoring Lithium and Making Grid Batteries
The Big Question for Amazon and OpenAI
The Big Question for Amazon and OpenAI
Robinhood Is Banking on Babies and 401(k)s to Get Everyone Trading
Robinhood Is Banking on Babies and 401(k)s to Get Everyone Trading
China Is Already Winning the Trade War America Wanted
China Is Already Winning the Trade War America Wanted
アスクル、ランサムウエアでシステム障害 復旧見通し立たず
アスクル、ランサムウエアでシステム障害 復旧見通し立たず - 日本経済新聞
円相場は安定するのか 「高市政権」と米利下げ観測、双方に変動要因
円相場は安定するのか 「高市政権」と米利下げ観測、双方に変動要因 - 日本経済新聞
AWS、企業向けAIエージェント「Amazon Quick Suite」提供開始 Google DriveやSharePointなど企業内外のデータソースに接続、分析や自動処理など可能に
AWS、企業向けAIエージェント「Amazon Quick Suite」提供開始 Google DriveやSharePointなど企業内外のデータソースに接続、分析や自動処理など可能に
- AWSの「Amazon Quick Suite」が提供を開始し、RedshiftやS3に加えてGoogle Drive、SharePoint、OneDrive、Outlookなど主要SaaSと広範に接続できるようになりました。
- MCP(Model Context Protocol)対応によりAtlassian、Asana、Box、Canva、PagerDuty、Workato、Zapierなどとも連携し、ワークフローと運用の自動化を拡張できます。
- 200以上の外部ニュース・市場データ(AP通信、NYT、ワシントンポスト、フォーブスなど)も参照して市場・競合分析を実行できます。
- 「Quick Index」が社内に散在する文書・データを統合インデックス化し、安全に横断参照できるようにしました。
- 「Quick Sight」がAI支援のBIを提供し、ダッシュボードやチャットでの対話レポーティングにより意思決定を加速します。
- 「Quick Research」が社内データと信頼できる外部データを組み合わせて専門的なリサーチ結果を生成します。
- 「Quick Flows」が自然言語から日次・定型業務のワークフローを作成・共有できるようにしました。
- 「Quick Automate」がUI操作とAPI連携を組み合わせ、複数サービスにまたがる複雑な業務プロセスをマルチエージェントで自動化します。
1日30万ドルのFigma宛てAWS請求書がクラウド依存リスクをハイライト
1日30万ドルのFigma宛てAWS請求書がクラウド依存リスクをハイライト
- FigmaはS-1でAWSに日約30万ドル、年約1億ドル(売上の約12%)を支出していることを開示しました。
- 新たなホスティング契約で今後5年間に最低5億4,500万ドルのクラウド支出を約束しました。
- コスト内訳(計算・ストレージ・帯域など)は未開示で、最適化余地の評価が難しくなっています。
- Figmaは計算・ストレージ・ネットワーク・ID管理・監視・DRまでAWSに深く統合しており、移行は短期では難しくなっています。
- AWSの規約変更や価格改定、契約解釈の変更が事業運営に影響し得ることをFigma自身がリスクとして認めました。
- 37signalsなどは“脱クラウド”で数百万ドル規模の節約を見込んでおり、再オンプレやコロケーションの是非が再燃しています。
- 論点は「高いか安いか」だけではなく、「どれだけのコントロールを手放すか」というガバナンスの問題にも及びます。
OpenAI’s Chip Strategy: Pair Nvidia’s Chocolate With Broadcom’s Peanut Butter (詳細版)
OpenAI’s Chip Strategy: Pair Nvidia’s Chocolate With Broadcom’s Peanut Butter
- OpenAIはBroadcomとカスタムAIチップおよび光配線・ネットワークの大規模供給で提携し、推論の高速化と電力コスト削減を進める方針を示しました。
- 訓練は依然としてNVIDIAの汎用GPUが主力で、市場シェアはおよそ70%以上と見積もられていますが、提供(推論)は用途特化の専用チップでコスト効率を高める戦略を採用しました。
- 高帯域メモリ(HBM)需要が推論性能の鍵となり、OpenAIはSamsungとSK hynixと連携してメモリ供給を確保する動きを強めました。
- 新しいモデルはMoE(Mixture of Experts)的な「疎性」を活用し、必要な専門家だけを動かすことで計算と電力を大幅に削減できるため、専用チップ最適化の効果が上がります。
- BroadcomはAIアクセラレータだけでなく、Tomahawk Ultraなどのデータセンターネットワーク用チップ、ケーブル、光相互接続を含む一体供給で、ギガワット級AIコンピューティングを束ねる役割を担います。
- OpenAIは2030年までにBroadcomと最大10GWのAIシステム展開を計画し、最近のAMD・NVIDIAとの合意(合計16GW)と合わせて、累計で都市級の電力を要する規模へ拡大する見通しを示しました。
- 需要側では、日次要約エージェントの「Pulse」など計算負荷の高い新機能が登場し、現状ではPro(月額¥200相当ではなく、記事ではUS$200と示唆)の限定提供にとどまるほど計算資源が逼迫しています。
- サプライチェーン分散の観点から、Oracleと建設するStargate(テキサス州アビリーン)は訓練向けにNVIDIA中心、AMDは主に推論向け、Broadcomは専用推論チップとネットワークで補完する体制を整えます。
- 産業全体でもxAI、Metaなどがギガワット級のAIスーパーコンピュータを建設しており、Altman氏はAIインフラ整備を「史上最大の共同産業プロジェクト」と位置づけました。
Where Is Your AI Running?
- エージェントの実行場所は「クライアント側(端末内)」「自社クラウド」「ベンダーのホステッドクラウド」の3つから選び、目的別に使い分けることが求められます。
- ベンダー視点では、端末内はローカルデータや高いプライバシーが必要な処理、自社クラウドはエンタープライズの統制・コンプライアンス、ホステッドはスケールと利便性を担保します。
- 企業視点では、開発者のコーディング支援は端末内、トラフィックの大きい対外向けエージェントはホステッド、基幹系は自社クラウドに置くと運用が安定します。
- 個人ユーザーは主に端末内とホステッドを使い、独自インフラ運用は基本的に不要であると理解します。
- エージェント同士はMCPやA2Aなどのプロトコルで連携し、社内に新たな「エージェントネットワーク」が形成されるため、通信や権限設計を前提にアーキテクチャを組み立てます。
スタートアップ、個人投資家が熱視線 「プロ」が年400億円出資
スタートアップ、個人投資家が熱視線 「プロ」が年400億円出資 - 日本経済新聞
- 2024年に特定投資家向け銘柄制度(J-Ships)経由の未上場企業調達額が約397.6億円に急増し、資金調達の選択肢が広がりました。
- 情報開示のガイドライン改定により、一般投資家もインターネットで案件情報を閲覧できるようになり、特定投資家申請が増えました。
- 従来主力だったVCや事業会社に加え、富裕層個人の関与が強まり、案件探索や条件交渉の柔軟性が増しました。
- 一方で未上場株は流動性が低く、上場やM&Aまで売却が難しいため、個人投資家には長期・高リスクの理解が求められます。
- 株主の分散により、スタートアップではM&Aなど重要判断の合意形成や情報管理の負担が増える可能性があります。
- 日本証券業協会はJ-ShipsとECFの合計で2027年までに1,800億円の調達を目標としており、市場拡大と投資家保護の両立が課題です。
「英数・記号の混在」はもう古い NISTがパスワードポリシーの要件を刷新
「英数・記号の混在」はもう古い NISTがパスワードポリシーの要件を刷新
- NIST SP 800-63B-4は、文字種の混在ルールを課すことを明確に禁止しました。
- 定期的なパスワード変更の強要を廃止し、侵害が確認された場合にのみ変更を義務付けました。
- 単一要素(パスワードのみ)は最低15文字を必須とし、多要素認証では最低8文字を求めました。
- パスワードの最大長は少なくとも64文字を受け付けるように求めました。
- 既知の漏えいパスワードや一般的な語、サービス名・ユーザー名を含む候補はブロックリストで自動拒否することを義務化しました。
- 知識ベース認証(KBA)やパスワードヒントの利用・保存を禁止しました。
- これまで「推奨(should)」だった事項を「必須(shall)」へ格上げし、実運用の強制力を高めました。
【半年で株価2倍】OpenAIが野望を託す、半導体企業の正体
【半年で株価2倍】OpenAIが野望を託す、半導体企業の正体
- OpenAIはモデル高度化と推論規模の拡大に伴い、GPU依存のコストと供給リスクを下げるため半導体戦略を強化しました。
- 特定の半導体企業に注目が集まり、半年で株価が2倍になるなど、AI特需への期待が株価に織り込まれました。
- 狙いは計算コストの最適化、供給の安定確保、技術ロードマップの主導権確立であり、単一ベンダー依存を和らげようとしています。
- 選定の基準は、先端パッケージング、メモリ帯域、インターコネクト、生産キャパ、ソフトウェアスタックの成熟度が重視されています。
- エコシステム確立には、コンパイラ、ランタイム、推論最適化ツール、開発者サポートを含む総合力が不可欠で、単なるチップ性能だけでは不十分です。
- OpenAIの動きはクラウド各社や他のAIプレイヤーの調達方針に波及し、半導体セクター全体の投資サイクルを前倒しにしました。
【データ解説】大人の友人関係が、ぶっ壊れている
- 記事は「大人の友人関係が壊れている」という問題提起を行い、データで現状を可視化した可能性があります。
- 友人関係の希薄化は、情報接触の仕方(マイニュースからフォローへの移行)とも連動し、関係の偶発性を減らしています。
- 人間関係の更新が止まると、相談・共同・互助の機会が減少し、孤独・ストレス・意思決定の偏りが強まります。
- 職場や地域以外の弱いつながり(weak ties)が減ると、新しい機会へのアクセスや社会的流動性が低下します。
- アルゴリズム主導の「フォロー」中心設計は、興味の最適化と引き換えに、多様な関係・情報の露出を狭めています。
AI Data Centers, Desperate for Electricity, Are Building Their Own Power Plants
AI Data Centers, Desperate for Electricity, Are Building Their Own Power Plants
- AI訓練・推論の急拡大により、米国の新規電源は年80GWが必要と試算されましたが、実績は年65GW未満にとどまり、電力供給が逼迫しています。
- 送電網接続の遅延や機器不足(変圧器、送電線、タービン)により、データセンターは天然ガスによる小型タービン・レシプロエンジン・燃料電池を敷地内に並べる「持ち込み電力(BYOP)」で対応しています。
- OpenAI/OracleのStargate(西テキサス)やxAIのColossus(メンフィス)などがガス発電を導入し、Equinixは燃料電池と太陽光の組み合わせで“当座の電力”を確保しています。
- 多くは送電網が整うまでの数年を想定した暫定策と位置づけますが、Metaのオハイオ案件のように恒久的な“オフグリッド”選択も出てきています。
- 2028年までに米国のデータセンターは全電力の最大12%を消費する可能性があり、供給遅れはAI・クラウド・産業電化・暗号資産などの成長を抑制しかねません。
- 国家政策は送電・発電の迅速化と化石燃料投資の加速に傾き、再エネは税優遇縮小や許認可の厳格化で逆風が強まっています(一方で“あらゆる電子”が必要だとする開発側は迅速な導入を訴えています)。
- 送電線の新設は近年減速し、変圧器はパンデミック以降の需給逼迫で納期が長期化しました。小型分散電源の“レゴ的”実装が現実的な即効策になっています。
- 2027年以降に米国の新規電源が年80GW規模へ加速する予測もありますが、地域によっては2030年代まで系統接続が難しい見通しが残っています。
- 事業者は将来の選択肢拡大に向けて、小型モジュール炉(SMR)など次世代電源の協業枠も先行確保しています。
Say hello to a new level of interactivity in Gemini CLI
Say hello to a new level of interactivity in Gemini CLI- Google Developers Blog
- Gemini CLI v0.9.0でインタラクティブシェルがデフォルト有効になり、vimやtop、git rebase -iなどをそのまま実行できるようになりました。
- 擬似ターミナル(PTY)とnode-ptyを用いてプロセスを起動し、端末として認識させることで、色やカーソル位置などの制御コードを正しく処理します。
- 端末状態をシリアライズしてリアルタイムに「映像のように」送信し、双方向入力とリサイズに対応することでネイティブ端末と同様に操作できます。
- カラフルな出力描画を改善し、端末アプリの見た目を正しく再現するようになりました。
- 有効化は不要で、npm install -g @google/gemini-cli@latest で最新化すると使い始められます。
- 代表例として、vim/nvim/nanoでの編集、対話的git操作、言語REPL、htopやmcなどの全画面アプリ、npm initやng newなどのセットアップ、gcloudの対話プロンプトに対応します。
- フォーカス切替は ctrl+f に対応し、ウィンドウリサイズに追従します。
- 入力処理の改善を継続中で、不具合はGitHub Issuesで報告できます。
Reading and Writing Files in Node.js - The Complete Modern Guide
Reading and Writing Files in Node.js - The Complete Modern Guide
- 小〜中規模ファイルは fs/promises の readFile()/writeFile() を使い、async/await でシンプルに実装します。
- バイナリは Buffer を使い、writeUInt32LE()/readUInt16LE() などでエンディアンやオフセットを正しく扱います。
- 複数ファイルは Promise.all() や Promise.allSettled() を使い、読み書きを並行実行してスループットを高めます。
- ディレクトリ操作は mkdir({ recursive: true }), readdir(), stat() を組み合わせ、path.join() でパスを安全に結合します。
- 実行スクリプト基準のパスは import.meta.dirname を使い、カレントディレクトリ起点の相対パス依存を避けます。
- 同期 API(readFileSync 等)は原則避け、CLI など単発で非並行のケースに限定して使います。
- 大きなファイルは createReadStream()/createWriteStream() でストリーミング処理を行い、メモリ常用量を一定に保ちます。
- 書き込みストリームは backpressure(write() が false を返す)を once(‘drain’) で待ち、バッファ溢れを抑えます。
- より低レベルな制御が必要な場合は open() で FileHandle を取得し、read()/write() で位置とバッファを明示的に管理します。
- エラーは ENOENT/EACCES/ENOSPC/EMFILE/ERR_FS_FILE_TOO_LARGE/ENOMEM などコード別にハンドリングし、原因を明確にします。
- Streams は highWaterMark(既定 64KB)をワークロードに合わせて調整し、I/O 回数とスループットを最適化します。
- リソースは finally で fileHandle.close()、ストリームは error 監視か pipeline() を使い、確実にクリーンアップします。
Thread by @karpathy
My pleasure to come on Dwarkesh last week, I thought the questions and conversation were really good.
— Andrej Karpathy (@karpathy) October 18, 2025
I re-watched the pod just now too. First of all, yes I know, and I'm sorry that I speak so fast :). It's to my detriment because sometimes my speaking thread out-executes my… https://t.co/bnPSrY74px
- AGIは「10年」が強気な見通しであり、現在の過熱感に比べて慎重ながら、否定論よりは楽観的であると述べました
- LLMは進歩した一方で、統合・安全・実世界の入出力など「地味な残課題」が多く残っていると指摘しました
- 「動物vs幽霊」比喩で、進化で配線済みの動物知能と、大量の事前学習で“霊”のように立ち上がるLLMの違いを説明しました
- 強化学習(RL)は信号効率が低くノイズが多いとして批判し、エージェント的相互作用や「システムプロンプト学習」など代替パラダイムに期待を示しました
- LLMの「記憶」を削って一般化を促す「認知コア」発想を提案し、まずは巨大化し、その後に小型化が進むと論じました
- 自律エージェントの過剰な自動化を批判し、人間とLLMが段階的に協働し、根拠提示と不確実時の照会を重視する設計を提案しました
- 自動化は職種で影響が異なり、医療放射線科の例のように補助による強化が進むと指摘しました
- 物理教育は脳をブートストラップする最適科目であり、広い問題解決能力の基盤になると主張しました
RSS is still pretty great
- RSS/Atomは安定した仕様に基づく配信フォーマットで、サイトの更新を外部リーダーが取得できるように設計されています。
- ユーザーはFeedlyやInoreaderなどのアグリゲーターに好きなサイトのフィードを登録し、広告やノイズが少ない形で記事を横断的に読めます。
- アルゴリズムではなく自分の選択で情報源を管理でき、長文・熟考型の高品質コンテンツに出会いやすくなります。
- メール購読のような“受信直後の処理負担”がなく、読みたいときに読み進める“ジャストインタイム”なワークフローを実現できます。
- 「分析が取りにくい」「広告が載せにくい」「リアルタイムでない」といった批判はあるものの、用途(落ち着いた読書)に合致しており問題になりにくいです。
- 妥当な課題としては、凝ったビジュアルの再現性の低さ、発見性の弱さ、URL変更への弱さ、非技術者にとっての直感性の低さが挙げられます。
- 発信側はCMSや静的サイトジェネレーター用のRSSプラグイン、あるいはpython-feedgenのようなライブラリで比較的容易に導入できます。
Stop Ignoring the Browser: The Biggest Frontend Shift in a Decade
Stop Ignoring the Browser: The Biggest Frontend Shift in a Decade
- 近年の標準APIがルーティング、状態管理、コンポーネント隔離などを強化し、フレームワークの必然性が低下していることを理解します。
- Shadow DOM と Web Components により、サードパーティに頼らずに真のカプセル化を実現できることを把握します。
- ES Modules、fetch、async/await、Streams、Web Animations、CSSコンテナクエリなどが「昔はライブラリ必須」だった領域を置き換えつつあることを確認します。
- Navigation API と View Transitions API を使うことで、重いクライアントサイドルーターに頼らずにスムーズなページ遷移を実装できることを理解します。
- 「Signals」などのリアクティブ原始が標準化議論に入り、フレームワーク発の発想がブラウザーへ還流していることを認識します。
- フレームワークは依然として規約、チームスケール、開発者体験で強みを持つため、完全に不要になるわけではないことを押さえます。
- パフォーマンス面では、ネイティブ手法がバンドル削減や実行時オーバーヘッド低減で有利になりやすいことを意識します。
- 教育や採用の慣性によりフレームワークの心的シェアは当面続くため、標準APIの広報と実例提示が課題であることを理解します。
Everyone should be using Claude Code more
Everyone should be using Claude Code more
- 従来のエージェント(Agents 1.0)はLLMのコンテキストウィンドウに全てを依存し、短い取引的タスクには強い一方で長期・多段タスクで破綻しやすいことを理解しました。
- Deep Agents(Agents 2.0)は「明示的な計画」「階層的な委譲(サブエージェント)」「永続的な外部記憶」「極端なコンテキスト設計」の4本柱で動作すると説明しました。
- 計画はツールで管理し、進行状況や失敗の反映を都度更新することで目標から逸脱しないようにしました。
- オーケストレーターが研究・実装・執筆などのサブエージェントに分業させ、要約された成果のみを受け取る構造を採用しました。
- ファイルシステムやベクタDBを一次情報源として読み書きし、必要な情報だけを再取得することでコンテキストの肥大化を回避しました。
- 詳細かつ手続き的なプロンプト設計により、停止条件、分業プロトコル、ツール使用基準、命名規則、HITL手順などを明文化しました。
- これらにより、数時間〜数日の複雑課題でも迷走や無限ループを避け、計画に沿って確実に完了させる道筋を示しました。
Is AI adoption slowing down?
- Ramp Economics Labのデータによると、2025年は少なくとも2回、AI関連の有料支出が減少しました。
- テック業界の有料AI採用率は約73%で最も高い一方、リテールや建設、宿泊・飲食では20〜30%台に留まり、普及の広がりが鈍化しています。
- AI製品の年次リテンションは2023年の約60%から、2025年は80%以上が見込まれ、導入後の定着が進んでいます。
- 企業は新規ユースケースの拡大より、既存ユースケースのスケールとクレジット最適化を優先しています。
- サブスク成長の伸び悩みを受け、OpenAIはSora 2などソーシャル的な収益化(最後の手段モデル)に踏み込み、成人向けコンテンツ解禁も検討しています。
- 一方で市場規模は依然拡大し、Anthropicは2025年末に年率売上約90億ドル目標、OpenAIは200億ドル超ペースと報じられました。
- OpenAIは「1兆トークン超」利用のトップ30顧客を公開し、トークン到達記念の“盾”で話題化を狙うなど、利用促進と話題づくりを同時進行しています。
- 就職市場では応募者がAIで大量応募し、企業側もAIでスクリーニングする構図が一般化し、履歴書への隠し指示でAIを欺く手法が問題化しています。
- ポッドキャストはシェア拡散性が低く、上位入りが難しいため、継続配信と外部導線(Web・LinkedIn等)の整備が成長の近道と指摘されました。
2025/10/20時点で最良のAIコーディングプロセス
- 気に食わないコードが1ミリでもあれば採用せず、タスク自体を見直すことを基本方針とします。
- 実装はAIに任せ、時間配分はほぼレビューに振り切ることで品質を維持します。
- タスクはテンプレート化し、複製して投げ直しを繰り返し、途中介入は避けて結果で評価します。
- 修正が3〜5回を超えたら前提を疑い、分割・仕様再考・アーキ見直しを行います。
- 「暗黙のフォールバック」「過剰なオプショナルやデフォルト」「将来拡張の過剰設計」を禁止します。
- TSDoc必須やno-restricted-syntaxなど、型安全・文法統制・Lint強化で逸脱を機械的に防ぎます。
- 知らないコードが1行でもあれば背景まで説明を引き出し、省略を禁じて理解を徹底します。
- 動作確認とテスト検証は必ず人間が実施し、LLMの「通ったことにする」錯誤を鵜呑みにしません。
- コンテキスト肥大対策として出力抑制やテストbail設定を用い、ログ肥大で思考崩壊を防ぎます。
- プロンプトやMCPは過剰整備を避け、進化に追従できる最小限の運用を心がけます。
Thread by @dwarkesh_sp
The most interesting part for me is where @karpathy describes why LLMs aren't able to learn like humans.
— Dwarkesh Patel (@dwarkesh_sp) October 17, 2025
As you would expect, he comes up with a wonderfully evocative phrase to describe RL: “sucking supervision bits through a straw.”
A single end reward gets broadcast across… https://t.co/3guOwdewKd pic.twitter.com/lYonLgrukB
- RLは「ストローで監督信号を吸う」ように単一の報酬を軌跡全体に薄く配り、途中の誤りまで強化してしまうために学習が粗くなってしまうと述べました
- 人間は読書や体験を「自分の頭の中で再表現・再構成(合成データ生成)」し、既存知識と突き合わせて一般化を獲得すると説明しました
- 現状のLLMには、この内的な再表現フェーズ(素材の理解・整合・反省)に相当する前処理・前学習段階が存在しないと指摘しました
- LLMに自己生成した思考ログを学習させると、出力の多様性(エントロピー)が失われ、同じパターンに「崩壊」しやすく、性能がむしろ悪化しやすいと警告しました
- 人間も加齢で思考が反復に偏り「崩壊」に近づくが、夢や忘却が過学習を防ぎ一般化を助ける可能性があると示唆しました(“The Overfitted Brain”に言及)
- LLMの過剰記憶は一般化を妨げることがあり、「記憶を減らし、必要時に参照し、思考アルゴリズムと実験の作法といった認知的コアを育てたい」と主張しました
Thread by @kenn
コンテキストといえばサイズ。
— Kenn Ejima (@kenn) October 18, 2025
初期にはたった2048トークンしかなかったのが、今や1000倍近くも一気に大きくなり、1Mもめずらしくなくなりました。… pic.twitter.com/7G6frVH6ZT