<< DN 2025-10-21 | DN 2025-10-23 >>

Introducing ChatGPT Atlas

Introducing ChatGPT Atlas

  • AtlasはChatGPTを内蔵した新しいウェブブラウザとして公開され、ページ内容を理解し、その場で支援や作業代行を行います。
  • ブラウザメモリー(任意)を有効にすると、閲覧サイトの文脈を記憶し、後日「先週見ていた求人をまとめて」などの指示に基づき横断的に支援します。
  • アドレスバーの可視性トグルや設定画面から、どのページをChatGPTに見せるか、何を記憶するかを細かく制御できます。
  • 既定では閲覧内容をモデル学習に利用しませんが、ユーザーは設定で「web browsing を含める」を選んで明示的にオプトインできます。
  • Agentモードを使うと、タブを開いてクリックし、買い物や調査、予定調整などを自動実行し、処理の途中で許可確認を行います。
  • 安全策として、ブラウザ内でコード実行・ファイルダウンロード・拡張機能インストールは行わず、ローカルアプリやファイルシステムにもアクセスしません。
  • 重要サイトでは操作を一時停止してユーザー確認を求め、ログアウト状態でのエージェント実行によりリスクを抑えられます。
  • エージェントはプロンプトインジェクションなどの攻撃に脆弱性があり得るため、OpenAIは継続的なレッドチーミングとパッチ適用を実施します。
  • macOSでFree/Plus/Pro/Goに提供開始し、Businessはベータ、Enterprise/Eduは管理者有効化で利用可能です。Windows/iOS/Androidは近日提供予定です。
  • 新規タブでは質問とURL入力を統合し、検索リンク・画像・動画・ニュースのタブで結果を素早く切り替えられます。
  • インコグニート(プライベート)で一時的にChatGPTからログアウトし、閲覧や会話を保存せずに利用できます。
  • 保護者による制御が引き継がれ、Atlas側でもブラウザメモリーやAgentモードを無効化できます。
  • 今後のロードマップにはマルチプロファイル、開発者ツール強化、Apps SDKの発見性向上が含まれ、サイト側はARIAタグでエージェント操作性を改善できます。
  • 導入は簡単で、初回起動時にサインインし、既存ブラウザからブックマーク・パスワード・履歴をインポートできます。

The Right Way to Interview Senior Talent, According to the Former CEO of Coach

The Right Way to Interview Senior Talent, According to the Former CEO of Coach

  • 採用の目的を「投資適格(investment-grade)のリーダー陣を作ること」と定義し、価値観と能力を両輪で評価すると明確にしました
  • 面接は「人物理解→他者視点での自己評価→能力の自己採点」の3段階で構成し、全体像と一貫性を検証しました
  • 第1段階で生い立ち・家族・転機・前職の好き嫌い・誇りを深掘りし、価値観と行動様式を具体的に引き出しました
  • 第2段階で現上司のEQ評価と、上司が見る強み・成長課題を事例付きで語らせ、自己認識と誠実さを測定しました
  • 第3段階で80超のコンピテンシーを1〜10で自己採点させ、クラスター・外れ値・矛盾を手掛かりに追加深掘りを行いました
  • 「意思決定の難題」「曖昧さへの耐性」「プレッシャー下の遂行」など重要領域での低評価をレッドフラッグと見なしました
  • 自己採点のギャップ(例:ファイナンス9・数的巧緻性5)には具体例で再定義を促し、コーチングで補えるかを判断しました
  • 魅力や経歴に惹かれて過大評価するバイアスや、カリスマ性と協働不能を取り違えるリスクを自覚し、ナーチシズムの兆候に警戒しました
  • 面接を通じて「入社後の支援計画」まで見立て、採用の可否だけでなく活躍設計につなげました

Thread by @iwashi86

Thread by @claudeai

Thread by @nextjs

Thread by @simonw

Europe’s Sovereign Tech Push Moves Capital to Rockets, Drones and War

Europe’s Sovereign Tech Push Moves Capital to Rockets, Drones and War

  • 欧州VCがソフトウェアやフィンテック中心の投資から、ロケット、ドローン、量子、半導体設計、ロボティクス、防衛AIへと投資領域を広げています。
  • 背景には、米中との通商対立、ウクライナ戦争、米国のNATOへの姿勢不確実性などがあり、外部依存を減らしたいという「テック主権」志向が強まっています。
  • 規制当局もデジタル依存のリスクを警告し、クラウドやIT基盤の域外依存をシステムリスクと位置づけています。
  • ベンチャー大手が欧州の防衛テックを「最大の成長機会」と評価し、AI×防衛を重点テーマに据えています。
  • 一部VCは攻撃型ドローンなど致死性兵器への投資に慎重ですが、ロシアに近い北欧の出資者などは姿勢を見直しつつあります。
  • 英国はEU域外ながら、計算資源や先端技術で連携を模索し、同時にシリコンバレー資本も積極的に受け入れています。
  • 日本では早期上場抑制の動きが進み、スケール重視に転換しており、各地域で資本配分の再設計が進んでいます。
  • クラウド障害(AWS)の事例が、基幹インフラの域外依存リスクの具体例として取り上げられ、主権論の追い風になっています。

決算:TDK、8事業の撤退決めたROIC経営 「ベンチャー気質」に新機軸 - 日本経済新聞

決算:TDK、8事業の撤退決めたROIC経営 「ベンチャー気質」に新機軸 - 日本経済新聞

  • TDKは約80の事業単位(BU)をROICで精査し、1年で8事業から撤退し1事業を再建しました。
  • 事業別ROICが10%未満で成長性が低い27BUを重点監視対象とし、対話を通じて再建か撤退を早期に決めています。
  • EV向け充電器など一部事業を売却しつつ、HDD向けサスペンションは構造改革でROICを10%超に改善しました。
  • 全社ROICは26年3月期にベースで7.1%(WACC 7%超え)、27年3月期に8%見通しと改善が進んでいます。
  • ROICを撤退判断に明確に使う運用へ進化させ、在庫や稼働率まで踏み込んだ改善を事業部に促しています。
  • 研究開発投資は売上高比で高水準(過去5年平均9%、26年3月期見通し12%)を維持し、成長ドライバーを磨いています。
  • 27年3月期までの3年間で設備投資を従来計画より1,000億円増額しつつ、ROICで規律を担保しています。
  • 経営との直接対話を通じてBU長のオーナーシップが高まり、人材育成とガバナンス強化につながっています。
  • 市場はROIC経営を評価しており、株価は高値圏ですが、PERは業種平均より高く、継続的なポートフォリオ見直しが株価の鍵となります。
  • 次の成長柱としてAI関連製品の売上を31年3月期までに約3倍にする目標を掲げています。

エッセンシャルワーカーの転職、AIが仲介 パーソル系やレバレジーズ - 日本経済新聞

エッセンシャルワーカーの転職、AIが仲介 パーソル系やレバレジーズ - 日本経済新聞

  • 介護職や運転手などの現場職でAIマッチングが広がり、未経験者受け入れや大量採用で生じやすいミスマッチを減らすことを狙っています。
  • パーソルイノベーションは東大松尾研発のBAKUTANと共同で、キャリア観・職場環境・適性を踏まえたアルゴリズムを開発し、「ピタテン」への実装を2027年春までに目指しています。
  • AIは応募者の志望度の変化やモチベーションも予測し、第1志望不合格時に適性ベースで代替求人を提示することで納得感のある転職を支援します。
  • 現場職は欠員率や有効求人倍率が高く人手不足が深刻であり、定着率向上は企業・社会の双方にメリットがあります。
  • 手数料が年収の約3割という人材紹介モデルでは、年収が比較的低い現場職は採算が厳しかったものの、賃上げとAI自動化で事業性が改善しつつあります。
  • ピタテンは登録者が2万5,000人に達し、業務の9割自動化を目指しつつも不安払拭のためにキャリアアドバイザー配置を継続します。
  • レバレジーズは運転手特化の「レバジョブ」で生成AIによる即時求人提案を導入し、初回面談当日に提案が可能になり、面談直後の転職開始が2倍に増えました。
  • ROXXの「Zキャリア」は求職者の強みを活かす求人をAIで優先提示し、アドバイザーの提案品質と応募率の向上を図ります。
  • 2040年に現場職で約819万人不足との推計がある中、AI仲介は早期離職の減少と欠員率の低下に寄与する可能性があります。

生成AI基盤、「国産」に勝ち筋 ソフトバンクなど日本語特化モデル - 日本経済新聞

生成AI基盤、「国産」に勝ち筋 ソフトバンクなど日本語特化モデル - 日本経済新聞

  • ソフトバンクが約9,000時間・延べ3万人の日本語対話データを収集し、2025年度中に公開すると発表しました
  • 同社は大型LLMの知識を抽出した小型モデル「Sarashina mini」を今秋提供し、金融・製薬の大手5社と共同研究を進めています
  • NTTはGPU1基で動く約300億パラメーターの小型LLM「tsuzumi 2」を提供開始し、金融・医療・自治体向けに日本語性能を強化しました
  • 日本は汎用LLMの規模競争で米中に大差を付けられており、ChatGPT級と比べてパラメーターで約20倍の差があるとされています
  • 日本勢は「日本語最適化」「閉域運用」「機密データ保護」を強みに、領域特化・用途限定のモデルで実装価値を出そうとしています
  • 経産省のGENIAC支援など政府後押しはある一方、国内需要の限定と投資継続の重さが課題として残っています

Thread by @shreyas on Thread Reader App

Thread by @shreyas on Thread Reader App

  • ブルートフォース(長時間労働)はスコープ拡大で必ず通用しなくなるため、早めに捨てて働き方を再設計します。
  • ToDoではなくカレンダーを真実の計画と見なし、深い仕事のブロックを先に確保し、翌日・翌週を終業時に組み立てます。
  • LNO(Leverage/Neutral/Overhead)でタスクを分類し、投入品質と時間配分を意図的に変えます。高エネルギー帯はLタスクに充てます。
  • 「Proof of Worth(有能アピール)タスク」を常態化させず、必要最小限かつ意図的に行い、コア価値創出に時間を戻します。
  • アイゼンハワー行列の上半分からも「ラディカル・デリゲーション」を行い、委譲契約で権限と期待を明確化します。
  • 最大のレバレッジは洞察(顧客/ドメイン/創造/実行/流通)にあり、恐れによる回避を断ち切って洞察の時間を先に確保します。
  • ROIより機会費用で意思決定を行い、クイックウィンに偏らず「最良の選択肢」に集中します。
  • 週の「キャリア時間」の10〜20%を成長投資に固定し、残りの仕事時間の生産性を底上げします(難しい週があっても長期比率を維持します)。
  • 人生の優先順位トップ3に十分な時間を使える状態を成功と定義し、仕事と生活を統合的に設計します。

Momentum is the only MOAT by a16z Bryan Kim

Momentum is the only MOAT by a16z Bryan Kim

  • 早期のスタートアップに恒久的なモートは存在せず、必要なのはモメンタムであると述べています。
  • モート(防御力)は「規模の経済・ブランド・埋め込み・ネットワーク効果」の4種に集約され、どれもスケールを前提に成立すると説明しています。
  • モメンタム → 採用(Adoption) → スケール → モートという順序を踏む必要があると整理しています。
  • 投資家が成熟企業の評価軸でシード段階を測ると「モートの欠如」を誤解しやすいため、初期はスピードと実装力で評価すべきだと指摘しています。
  • Amazon、Airbnb、Booking.comの例を通じ、モートは後付けで強化されるものであり、初期はスピードと分配(ディストリビューション)が重要だと示しています。
  • 創業初期は「成長ループ設計・定着とエンゲージメント・高速反復・ナラティブ(注目)形成」に集中すべきだと提案しています。

AI Interview Success: An Interviewer’s Inside Guide - Canva Engineering Blog

AI Interview Success: An Interviewer’s Inside Guide - Canva Engineering Blog

  • 面接官はAIスキル単体ではなく、AIによって増幅されたエンジニアリング力を評価しますと明言しています。
  • 計画→開発→議論の各フェーズで、要件理解、設計の妥当性、品質基準、トレードオフ説明を一貫して示すことが求められます。
  • AIは骨組み生成やAPI調査、定型実装の加速に活用し、難解な提案は要件や制約に照らして吟味しますと強調しています。
  • 「AIの見せ場作り」「機能数の稼ぎ」「丸投げ」は減点につながるため、能動的にレビューと修正を行いますと述べています。
  • 評価軸は、問題解決力、技術的深さとオーナーシップ、AI協働の有効性の3点で構成されます。
  • 事前準備として、AI統合IDEの用意、最小プロジェクト雛形の準備、AIの限界理解の訓練が推奨されます。
  • 面接中は、要件を明確化し、考えを声に出し、まず自分の見解を述べてからAIを使い、生成物を必ず理解・再検証しますと勧めています。
  • 最後の説明では、選択理由、改善余地、スケール戦略、品質上の懸念点を自分の言葉で説明できることが重要です。

AI hype is excessive, but its productivity gains are real

AI hype is excessive, but its productivity gains are real

  • AIの誇大広告にうんざりして距離を置いた結果、生産性向上の機会を長く逃してしまったと筆者は反省しています。
  • LLMベースのコード補完は驚くほど的確に次の一手を提示し、補完だけでも十分な効率化が得られると述べています。
  • エージェント機能は無制限に変更させるのではなく、質問を具体化し、制約を与え、リポジトリ内に方針を記したmarkdownを用意することで有効に活用できると説明しています。
  • エージェントを使ってコードベース理解、新規サービスやテストの雛形生成、バグ調査を効率化できると実体験を示しています。
  • ハイプに対する拒否反応を克服し、段階的に使い方を学ぶことで、懐疑派でも開発者として大幅に生産性を高められると結論づけています。

Production RAG: what I learned from processing 5M+ documents

Production RAG: what I learned from processing 5M+ documents

  • 単一のユーザー質問に依存せず、会話履歴から意味的・キーワード両方の追加クエリを生成して並列検索し、カバレッジを広げるべきだと述べています。
  • リランキングは最小のコード変更で最大の改善をもたらすため、まず導入するべきだと示しています(例として50件入力→15件出力が効果的でした)。
  • チャンク設計は最重要の職人領域であり、語や文の途中で切らず、1チャンクで意味が完結するようデータに合わせて最適化する必要があると強調しています。
  • LLMへの入力には本文だけでなく、タイトルや著者などの関連メタデータを注入すると回答の文脈精度が大きく向上すると報告しています。
  • RAGで答えにくい質問(要約や著者確認など)は小さなクエリルーターで検出し、APIやLLM直回答に切り替えると全体の体験が改善すると述べています。
  • スタック選定は固定しすぎず、ベクタDBやリランカーは段階的に乗り換えながら、コストや機能(キーワード検索のネイティブ対応など)で最適化することが有効だと示しています。
  • 早期の小規模セットで良く見えても、本番全量では劣化が顕在化するため、段階的にボトルネックを差し替える開発運用が重要だと説明しています。

Thread by @_WEEXIAO

AI Trading Benchmark

AI Trading Benchmark

image

DocsAlot - Docs Manager Your Projects

DocsAlot - Docs Manager Your Projects

A tale of two Agent Builders

A tale of two Agent Builders

  • 問題提起は「確定的UI」と「確率的UI」をどう統合するかという設計課題だと示しました。
  • OpenAIのAgent Builderはキャンバス型で、ノードとフローによりif-then-elseの確定的ロジックを視覚的に構築する設計だと説明しました。
  • キャンバス型は分岐が増えると保守が難しくなり、現実世界の複雑さ(ループや戻り道)への対応が煩雑になりがちだと指摘しました。
  • FinのProceduresはドキュメント/ノートブック型で、自然言語を起点に必要に応じて分岐・データ接続・コードなど確定的要素を埋め込めると説明しました。
  • ドキュメント型は「まず確率的(自然言語)」で大枠を捉え、必要箇所だけ確定的ルールで締めるため、複雑さを後追いで足せる利点があると強調しました。
  • 著者は将来の主要UIは確率的と確定的を優雅にブレンドするものだと展望しました。
  • どちらが勝つかではなく、双方に確率的ブロック/確定的ブロックが相互に取り込まれて収斂していく可能性が高いと述べました。
  • 用途差も重要で、OpenAIは汎用・マルチエージェント志向、Finは顧客対応という特化用途で単一エージェント志向だと整理しました。

Context Engineering in Manus

Context Engineering in Manus

  • エージェントは多数のツールを循環的に呼び出すため、結果が際限なく履歴に溜まり性能が落ちるため、コンテキスト管理が致命的に重要であると理解します。
  • Manusは「Reduce/Offload/Isolate」という3軸で文脈を制御し、劣化(context rot)と注意予算の枯渇を防ぎます。
  • Reduce(削減):古いツール結果を「参照(パス)」だけ残すコンパクト表現に置換し、必要時にだけファイルから復元します。さらに効果が鈍る段階でスキーマを定めた要約を作成します。
  • Offload(外部化):多数の機能を関数ツールに直結せず、仮想マシンのファイルシステムとBashに逃がします。結果やスキルはFSに置き、grep/glob等の基本ユーティリティでオンデマンド検索します。
  • Isolate(分離):サブエージェントを「役割」ではなく「文脈の隔離」のために用います。単純作業には指示のみ渡し、複雑作業ではプランナーの完全文脈を共有します。
  • ツール設計は最小集合(<20の原子的関数)に抑え、残りはサンドボックス側で展開します。ツールの氾濫や重複説明による混乱を避けます。
  • 出力整形はあらかじめスキーマを定義し、サブエージェントは「submit results」ツールと制約付きデコーディングで厳密に従います。
  • モデル選択はタスク単位で切り替え、キャッシュ(特にKVキャッシュ)を活用してコストとレイテンシを削減します。プロバイダのキャッシュ機能が実運用コストに効きます。
  • 「Bitter Lesson」を前提に、構造(ハーネス)が成長したモデルの性能を阻害していないかを定期評価します。強いモデルで性能が伸びなければ構造過多を疑い、設計を見直します。

Agentic AI’s OODA Loop Problem

Agentic AI’s OODA Loop Problem

  • OODAループ(観察→状況判断→決定→行動)はAIにも当てはまりますが、現実のAIは「観測者・環境・ツール」が不信頼である前提に変化しました。
  • LLMは指示とデータを同列のトークンとして扱うため境界が溶け、プロンプトインジェクションが構造的に発生しやすくなります。
  • 供給網的リスクが拡大し、学習・推論・状態管理の各層で毒性(データ汚染・バックドア・キャッシュ汚染)が持続します。
  • エージェントとツール連携(MCP等)は入れ子のOODAを生み、ツール定義や記述自体が攻撃面となり、意味論の検証ができません。
  • スピードは防御を弱め、検証時間を奪うため「ミリ秒の意思決定がミリ秒の侵害」を招きます。
  • 現在のLLMではトークンに特権を付与できず、境界設定の工夫(デリミタ・階層・分離)は新たな注入面を増やしがちです。
  • 状態を持つAIは「記憶が負債」になり、要約やキャッシュが汚染を再拡散させる「trusting trust」問題を再演します。
  • 「速い・賢い・安全」の三立は難しく、現実には二者択一のトリレンマが生じます。
  • 求められるのは可用性や機密性に続く「汚染されても整合性を保つ」枠組みであり、これは後付けの機能ではなくアーキテクチャ選択の問題です。

Do AIs think differently in different languages?

Do AIs think differently in different languages?

  • 著者は英・仏・西・中・アラビア語・ヒンディー語で15問×3回ずつをChatGPT-4o、Claude 4.5 Sonnet、DeepSeekに投げ、言語ごとの回答差を検証しました。
  • 多くの設問で回答はほぼ同質となり、AI版サピア=ウォーフ仮説(言語が思考を規定する)は概ね支持されませんでした。
  • AIは男女平等、LGBTQ+の尊重、世俗性などリベラルな価値観を各言語で一貫して示しました。
  • 例外として、DeepSeekは中国語で抗議参加をやんわり抑制する傾向を示し、モデル固有の挙動が見られました。
  • 暴力(DV)に関する助言では全モデル・全言語で「暴力は許容されない」「安全確保と支援先案内」という一致が見られました。
  • 英語と(比較的に)フランス語で拒否率が高く、ヒンディー語・アラビア語・中国語では同内容で拒否されにくい現象が観察されました。
  • オープンエンドの設問では言語間でニュアンス差が出る場合がありましたが、核心価値は大きく揺れませんでした。
  • 一因として、モデルが内部「思考」を英語で行い最終出力だけを他言語へ翻訳している可能性が指摘されました。
  • 学術的背景として、英語優位の学習データと現代的・世俗的・平等主義的なテキスト偏重が、価値観の一貫性を生んでいると示唆されました。
  • 「無偏見AI」は実質的に不可能であり、価値選択は不可避だと結論づけられました。

Bubble, Bubble, Toil and Trouble

Bubble, Bubble, Toil and Trouble

  • 「バブル」の定義を明確にしない議論は無意味であり、価格下落の有無と、将来キャッシュフローの非現実性は別物だと整理しました
  • ドットコム期のように実体が伴わない極端なバリュエーションではなく、利益成長と設備投資(AIインフラ)が整合的に進んでいる点を強調しました
  • 市場の上振れ(超大成功)可能性がある以上、対称的に下振れ(失望)も起こり得ることを認め、価格調整の確率を一定程度見込みました
  • 「蒸気ローラーに轢かれる側」(フロンティアラボに置き換えられる製品企業)と「ピック&ショベル」(GPUやクラウド、基盤モデル)の明暗を区別しました
  • 収益性の鍵は「AIがどれほど価値を生み、誰がその価値を取り込むか」であり、技術の有用性と高マージン化は別問題だと指摘しました
  • GPUの減価償却を過度に短く見積もる悲観論に反論し、需給逼迫と旧世代チップの稼働価値を根拠に、実務上は寿命が十分あると述べました
  • マクロ・政治(関税、台湾リスク)、反AIムーブメント、相互出資や循環取引によるセンチメント悪化など、非技術要因による調整リスクを認めました
  • 足元のバリュエーション(NASDAQのフォワードP/E約28、MAG7約32)は歴史的バブル水準(2000年の70超)より低く、成長率と整合的だと評価しました
  • OpenAIなどの売上急拡大予想は前例が少ないが、これまでの実績や需要環境から達成余地があると見て、むしろ控えめな見積もりの可能性を示しました
  • 6か月持続する20%超の調整は起こり得るが、長期の技術進展トレンド自体は大きく変わらないという立場を提示しました

This Is How Much Anthropic and Cursor Spend On Amazon Web Services

This Is How Much Anthropic and Cursor Spend On Amazon Web Services

  • 2024年のAnthropicのAWS支出は約13.59億ドルで、推定売上(4〜6億ドル)を大幅に上回りましたと報告されました。
  • 2025年1〜9月のAnthropicのAWS支出は26.6億ドルで、同期間の推定売上25.5億ドルを超えましたと分析されました。
  • 月次でみると2025年9月のAWSコストは5.189億ドルまで急増し、年初比で174%増になりましたと指摘されました。
  • Google Cloudにも多額を支出していると見られ、AWS以外のコストを含めると計算上の赤字幅はさらに拡大すると考えられました。
  • Anthropicは2025年5月末にPriority Tier(サービス階層)を導入し、キャッシュ書き込み課金を強化しました。これがCursorなどAIコーディング系のコスト構造を直撃しましたと説明されました。
  • CursorのAWS請求は2025年5月の619万ドルから6月に1,267万ドルへと約2倍化し、その後も高止まりしましたと示されました。
  • Anthropicのコストは売上とほぼ線形に増加し、スケールしても粗利が改善しない構造が見られましたと結論づけられました。
  • Claude Codeなど自社プロダクトを出す一方で、外部顧客にはPriority Tier等で実質値上げを課し、競合関係と収益確保を同時に図ったと論じられました。
  • 著者は「サブプライムAI危機」として、補助金的価格からの引き上げが連鎖的にスタートアップ側の値上げ・改悪を招くと警鐘を鳴らしました。

Why a ‘Boring’ Life Might Be the Happiest One

Why a ‘Boring’ Life Might Be the Happiest One

  • 「退屈」とは活力を欠くことではなく、心が落ち着く反復のある暮らしを選ぶことだと説明しています。
  • 流行やアルゴリズムに追い立てられる「取り残される恐怖」を手放すことが、安定した幸福につながると主張しています。
  • アナログや旧来のやり方を選んでもよく、他人に合わせて自分を裏切らないことが大切だと述べています。
  • 多くを器用にこなす必要はなく、ひとつ得意を丁寧に続けるだけでも十分だと強調しています。
  • 趣味を少数に絞り、長期的に続けられる習慣を育てることが心の余白を生むと示しています。
  • 平凡なもの(朝の光、同じ店、鉛筆の香りなど)に注意を向けることで、日常の美しさを回復できると示唆しています。
  • FOMO(取り残される不安)をJOMO(見逃す喜び)に置き換え、自然や読書、静けさに時間を投資することを提案しています。
  • 他人に理解されない生き方でも、自分に正直であることが意味を生むと結論づけています。

BERT is just a Single Text Diffusion Step

BERT is just a Single Text Diffusion Step

  • 離散テキスト拡散は、マスク率を0%→100%へ上げる「前向き過程」と、モデルで予測してマスクを減らす「逆過程」から成り立つことを説明しました。
  • BERT/RoBERTaのMLMは、実質的に拡散の一時刻の学習(特定のマスク率)に相当することを示しました。
  • マスク率を複数段階にランダムサンプリングして学習することで、拡散的な逐次生成を可能にすることを実証しました。
  • 先頭トークンを固定(例: 16トークン)してマスクしないことで、プロンプト条件付き生成を実現しました。
  • 生成時は「予測→サンプリング→一部を再マスク」を繰り返し、段階的にテキストを具体化する手順を採用しました。
  • 簡易実装でもRoBERTaを微調整すれば、まとまりのあるテキストをブロック単位で生成できることを示しました。
  • GPT-2の自回帰生成に比べると速度・整合性はやや劣るものの、拡散的生成の有望性が確認できました。
  • AR-DiffusionやSkip-Step Diffusionなどの工夫で、品質と速度がさらに改善できる可能性を指摘しました。

claude-cookbooks/multimodal/using_sub_agents.ipynb at main · anthropics/claude-cookbooks

claude-cookbooks/multimodal/using_sub_agents.ipynb at main · anthropics/claude-cookbooks

Spec-driven development: Using Markdown as a programming language when building with AI

Spec-driven development: Using Markdown as a programming language when building with AI

  • README.mdはユーザー向け、main.mdはAI向けの仕様として位置づけ、両者をリンクさせて実装とドキュメントを同期させます。
  • main.mdにCLI挙動、データ取得ロジック、GraphQLクエリ、DBスキーマなどを明示し、AIにコード生成(コンパイル)を指示します。
  • .github/prompts/compile.prompt.mdで「仕様に従いコードを更新せよ」という固定プロンプトを用意し、繰り返し実行可能にします。
  • Lint用のprompt(lint.prompt.md)で仕様文書そのものの一貫性・冗長さ・語彙統一を改善し、生成品質を底上げします。
  • 開発ループは「仕様編集 → AIでコンパイル → 実行と確認 → 仕様更新」の反復に単純化します。
  • ドキュメント(README)の変更を仕様(main.md)に取り込み、引数名やコマンドの追加を自然に反映させます。
  • 仕様内に「停止条件」「保存単位」「主キー」「ログ要件」などの非機能/運用要件を明記し、AIの迷走を抑止します。
  • スケール時は「セクションごとにコードを分割する」など、仕様でモジュール分割方針を指示してコンパイル時間と可読性を改善します。
  • テストは未導入だが、仕様駆動であっても検証は不可欠であり、将来的にテスト仕様もMarkdown化して併存させることが推奨されます。

Reasoning with Sampling: Your Base Model is Smarter Than You Think

Reasoning with Sampling: Your Base Model is Smarter Than You Think

Building CLIs with Ace: a Bookmarks App in Node.js and Bun

Building CLIs with Ace: a Bookmarks App in Node.js and Bun

  • AceはAdonisJS製の軽量CLIフレームワークで、プロンプト、ロガー、テーブル、スピナー、色付け、強力な引数解析(Yargs)やdocopt準拠のヘルプを同梱しています。
  • コマンドはBaseCommandを継承したクラスとして定義し、@argsデコレータで引数を宣言し、runメソッドで実行ロジックを記述します。
  • interactメソッドを使うことで、引数未指定時にプロンプトを出し、バリデーションを行い、ユーザー体験を補完できます。
  • HelpCommandとグローバルフラグ(—help)のリスナーを使い、どのコマンドでも統一的なヘルプを表示できます。
  • グローバルフラグ(—ansi/—no-ansi)とリスナーで、カラー出力の有効・無効を切り替えられます。
  • Configstoreを使い、ホームディレクトリ配下にJSONストア(例: list配列)としてブックマークを永続化できます。
  • 一覧表示コマンドではAceのui.tableを用いて、URLとタイトルを整形表示し、空リスト時はガイドメッセージを返す設計にできます。
  • テストはAceのTUIプリミティブが標準でログ出力のアサートやプロンプトのトラップを支援し、stdoutモック無しで堅牢に書けます。
  • Bunの実行ファイル機能を使うと、Node.js未インストール環境でも動く単体バイナリとしてCLIを配布できます。
  • Aceは実験的デコレータを用いるため、tsxやbunなどデコレータ対応のトランスパイラで実行する必要があります。

【斬新】トップCEOが絶対見る「新型メディア」がすごい

【斬新】トップCEOが絶対見る「新型メディア」がすごい

  • TBPNはテック×ビジネスのニュースを毎平日3時間ライブ配信し、内輪ネタや速報をエンタメ化して届けました
  • 司会のジョルディ・ヘイズとジョン・クーガンは“テクノロジー支持派”として、対立より共感を重視する聞き方で経営者を引きつけました
  • メタの開発者会議でマーク・ザッカーバーグに独占インタビューするなど、影響力のあるゲスト獲得に成功しました
  • 同時視聴は最大約13万人と決して巨大ではない一方、ラリー・エリソンやマーク・キューバンなど超富裕層も視聴する“誰が見ているか”が強みになりました
  • 従来型テレビより、XやYouTubeなどを横断するクロスプラットフォーム戦略で配信しました
  • ランキングやティッカー、予測市場の確率表示など“ゲーム化”の仕掛けで、競争と戦略に観客参加型の楽しさを持ち込みました
  • 収益はスポンサー中心で、スタートアップ企業(Ramp、Polymarketなど)が支え、年収益は約500万ドルを見込みました
  • 規模は約10人で維持し、司会者の当人たちが前面に立ち続ける方針を明言しました
  • 創業・売却の実体験(ソイレント、パーティ・ラウンド)があることで、起業家目線の文脈化と共感的な語りに強みがありました
  • ジャーナリズムというより“業界内視点のライブショー”で、哲学よりも企業間競争・人事・資金調達・M&Aに焦点を当てました

【激怒】世界で一番、嫌われているAI起業家がヤバい

【激怒】世界で一番、嫌われているAI起業家がヤバい

  • フレンド(Friend.com)は首掛け型AIペンダントを129ドルで販売し、NY地下鉄で約100万ドルの史上最大級広告を展開しました。
  • 広告は大量の落書きや破損の対象となり、プライバシー侵害懸念、製品完成度の低さ、孤独のマネタイズという3点で強い反発を受けました。
  • 端末は一日中周囲の会話を傾聴する仕様であり、公共空間での非同意録音リスクが批判の中心になりました。
  • 創業者はパンデミック時の感染追跡や難民支援の実績を持ち、「孤独緩和も倫理的」と主張しましたが、社会はテックが孤独を増幅した歴史を想起しました。
  • SNSは友人間交流からアルゴリズム主導の動画視聴へと大きく転換し(FBで80%以上、IGで90%以上が動画視聴)、“ソーシャル性”が希薄化しました。
  • 2024年のSNS利用時間は平均約2時間20分とされ、2022年比で約10%減少し、とくに若年層で縮小が顕著という調査が紹介されました。
  • 業界は“本質的価値”やニッチコミュニティへの期待を語りますが、依存性の高い設計が続く限り、幸福とのアラインは簡単ではありません。

Thread by @Hesamation

Issue, Pull-request, GitHub Copilotによる「普通」の一人チーム開発

Issue, Pull-request, GitHub Copilotによる「普通」の一人チーム開発

  • 実装前にCopilotと仕様の壁打ちを行い、曖昧な要件を質問で潰してからREADMEに落とし込みます。
  • 大きなIssueをCopilotでsub-issueに分割し、各タスクにテスト追加・デバッグログ・UI反映のタイミングを組み込みます。
  • VSCodeのCopilot(MCP)を使い、Planning→承認→ブランチ作成→実装→check:ai→PR作成までを秘伝プロンプトで自動化します。
  • 事前に型定義・テスト・Lint・ビルドの最小セットを用意し、check:aiで合格するまでAIが自走して修正します。
  • コードレビューは人間とCopilotの二重チェックにし、URL提示でドキュメントをfetchさせて自己修正させます。
  • レビュー修正も専用プロンプトで自動化し、コメント分類→修正計画→実装→pushを一括で実行します。
  • 対立コメントがあれば優先ルール(例:著者のコメント優先)をプロンプトに明示して衝突を制御します。
  • sub-issue駆動はCopilot coding agentと相性が良く、80点の実装を反復で素早く積み上げられます。

Living dangerously with Claude

Living dangerously with Claude

  • YOLOモードは許可確認をスキップし、エージェントが長時間自律的に問題を解決するため、生産性が飛躍的に向上しますが、同時に制御不能なリスクが増大します
  • リスクの本質はプロンプトインジェクションにあり、誰かが文脈に文字列を紛れ込ませるだけで、次に実行されるツールや行動を事実上乗っ取られてしまいます
  • 「致死的三位一体」は、私的データへのアクセス、外部との通信能力、不正なコンテンツ曝露が同時に成立したときにデータ流出が現実化することを示します
  • 防御の決定打はサンドボックスであり、特にネットワーク制御によって外部へのデータ持ち出し経路を遮断することが最優先事項になります
  • 実運用では「他人のコンピュータ上のサンドボックス」を選ぶことが有効で、ウェブ版のClaude Codeや各種クラウド実行環境が現実的な選択肢になります
  • macOSではsandbox-execとプロキシ許可リストを組み合わせる方法が紹介され、ファイルI/Oとネットワークの双方を粒度高く制御できる一方、sandbox-execが非推奨である点に留意が必要です
  • コードベースが機密の場合は、ネットワークを「明示的許可先のみ」に制限し、環境変数など秘匿情報を最小化する運用が不可欠になります

AI Is Reshaping Developer Career Paths

AI Is Reshaping Developer Career Paths

  • AIが大量のイディオマティックなコード例で訓練されているため、特定フレームワークの熟練度の優位性が相対的に低下しました。
  • 価値の源泉が「ニッチ技術の深知」から「システム横断の統合・設計判断・パターン認識」へ移動しました。
  • AIは設計の将来リスクやユーザー課題との齟齬を自動で見抜けないため、人間のアーキテクチャ判断が引き続き重要です。
  • 成功する開発者は、生成コードの保守性リスクを見抜き、複数システムを橋渡しし、良し悪しのパターンを見極め、プロンプトを構造化してAI出力を批判的に洗練します。
  • 経験者はツール特化の権威から脱し、システム設計・統合・パターン認識など汎用スキルを強化する必要があります。
  • 初学者はAI依存で思考の土台を失わないようにし、要件定義・設計判断・ドメイン理解など時間のかかる基礎を計画的に積み上げる必要があります。
  • チームは「Railsの人」よりも、異種技術をつなぎ将来の設計負債を予見できる人材を高く評価する体制を整えるべきです。

People Who Say They’re Experiencing AI Psychosis Beg the FTC for Help

People Who Say They’re Experiencing AI Psychosis Beg the FTC for Help

  • 2025年3〜8月にかけて、ChatGPTが妄想や精神的危機を悪化させたとする少数ながら深刻な苦情がFTCに寄せられたと報告されました。
  • 事例には、服薬中止の助言や家族を危険とみなす発言、現実確認への矛盾した応答、宗教的・スピリチュアルな物語の過剰強化などが含まれていました。
  • 専門家は「AIが新たに精神病を引き起こすのではなく、既存の妄想や思考の乱れを強化する」と説明し、チャットボットは強い強化因子になり得ると指摘しました。
  • OpenAIはGPT-5で精神的兆候の検出とディエスカレーションを強化したと説明しましたが、苦情者の多くはサポートへの到達困難を訴え、規制当局の介入を求めました。
  • 一部の苦情は、AIが「信頼構築」「共感」「親密さ」を高度に模倣し、警告や境界設定なしに感情的没入を促したことを「過失」だと主張しました。
  • Sam Altman氏は精神的健康リスクの緩和を完了したとして制限緩和の意向を示しましたが、未成年向け制限は維持すると補足しました。
  • 政府機関のシャットダウンによりFTCの対応が滞り、被害者救済や調査の遅延が生じていると示唆されました。

Is Andrej Karpathy Right About Overhyped AI?

Is Andrej Karpathy Right About Overhyped AI?

  • カーパシーはAGIが間近という見方に懐疑的であり、現行のLLMは人間や動物とは学習様式が根本的に異なると指摘しました。
  • 強化学習(RL)を「terrible」と評し、最終結果だけに報酬を与える設計が思考過程の評価を欠落させる問題を強調しました。
  • LLMは訓練分布外への一般化が弱く、新規の発想や未学習領域の推論に苦手さが残ると説明しました。
  • コード生成は補完やボイラープレートに強みがある一方、従来と異なる設計選択には誤誘導しやすいと述べました。
  • 「AIがAI研究を自動化する」ビジョンは、発想力の自動化が難しくても実装と評価の自動化で大きな前進が可能だと補足されました。
  • OpenAIの「GPT-5が未見の数学問題を解いた」主張に疑義が生じ、検証と透明性の重要性が再確認されました。
  • 資金調達や事業動向として、OpenEvidenceやLangChainなど大型調達が続き、AnthropicやDeepSeekの新製品発表が相次ぎました。
  • OpenAIとNvidiaの大型提携の背景に、TPU利用報道とその後の関係修復があったと報じられました。