<< DN 2025-11-03 | DN 2025-11-05 >>

Anthropic, AWS Give Customers of AI Agents a Helping Hand - The Information

link 🔗

  • 多くの企業でAIエージェントが期待通りに動かず、ベンダーのエンジニアが常駐に近い形で支援して初めて価値が出始めると指摘しました。
  • Fnacは複数モデルを試したが信頼性に課題が残り、AI21の手厚いエンジニア支援で安定稼働に近づいたと説明しました。
  • Cox AutomotiveはAWSとAnthropicのエンジニアが現地に入り、数日間の共同開発でマーケ用Webページ生成エージェントを構築しました。
  • サイバー領域では誤情報が致命的になるため、KyndrylはMicrosoft Security Copilotの検証で誤回答が多く導入を見送りました。
  • Boschは高度なトラブルシュートは依然難しく、購入場所案内など範囲を絞った用途は有効だと評価しました。
  • Cirque du Soleilは請求照会対応をSAPのエージェントで半自動化し、人手の確認だけで対応を高速化しました。
  • ベンダー各社(OpenAI、Anthropic、Salesforce、Snowflake、AWSなど)はFDE(Forward-Deployed Engineer)やコンサル型支援を拡充しました。
  • 収益面では、汎用チャットボットやコーディング支援は伸びている一方、エージェント単体の収益寄与はまだ限定的だと分析されました。
  • 経営者コメントは総じて慎重で、完全自動化は数年〜10年スパンの投資として位置づけるべきだと強調しました。

Google and Microsoft Face Less AI Spending Risk Than Meta, Amazon - The Information

link 🔗

  • グーグルとマイクロソフトは強いキャッシュ創出と増加するクラウドの受注残を背景に、AI向け設備投資の負担を相対的に軽く抑えられています。
  • メタはクラウド事業を持たず、現金創出に対する設備投資の比率が高いため、AI投資が広告景気に強く依存する構造になっています。
  • アマゾンは設備投資比率が高いものの、AWSの巨大な受注残が将来の収益を見込みやすく、資金回収の見通しが比較的良好になっています。
  • 大手は過去数年でキャッシュ創出を急拡大させ、特に直近2年はデータセンターなどAI関連の設備投資に資金配分がシフトしています。
  • グーグルは2025年の設備投資を約187%増と強気に拡大しましたが、キャッシュ創出の伸びがそれを十分にカバーしています。
  • マイクロソフトはキャッシュ創出に対して約半分を設備投資に回しますが、ファイナンスリースも活用しつつ、全体資金力は健全です。
  • メタは2026年に設備投資と営業費用をさらに増やす方針を示し、AI計算資源を前倒しで確保しようとしていますが、広告市場減速に脆弱です。
  • オラクルを含む各社のクラウド受注残はAI需要で急増し、新規データセンター投資のリスクを低減する役割を果たしています。

Clara Wu Tsai’s Plan to Build the First $1 Billion WNBA Franchise - The Information

link 🔗

  • クララ・ウー・ツァイは「節約志向」から「成長投資」へ発想を転換し、勝てる土台を先行整備する方針を明確にしました。
  • ブルックリン・グリーンポイントに約$80M(約80億円)の最新練習施設を建設し、バイオメカやモーションキャプチャ、AIを活用した個別強化環境を整備すると語りました。
  • WNBAの視聴はNBAの約30%に達する一方、メディア収入分配は現行2%(新契約でも4%)にとどまり、収益化の伸びしろが大きいと指摘しました。
  • スポンサーシップに下限価格(フロア)を設け、規模と成長志向のあるパートナーに絞り込み、コートサイドやプレミアム席などの価格を価値に見合う水準へ引き上げる方針を示しました。
  • ストリーミングは既に「放送規模」に達しており、Amazonの演出・データレイヤー(インタラクティブ分析、ベッティング情報等)を評価し、若年層の獲得に直結すると述べました。
  • CBA(労使協約)は給与・福利厚生・移動基準などコストの最大要素であり、選手報酬の拡大とリーグの持続的黒字化を両立する設計が不可欠だと説明しました。
  • WNBAは投資マネーの需要が強く、拡張により2030年に18チーム体制を見込み、希少性がバリュエーションを押し上げると見通しました。
  • プライベートエクイティはオーナーの流動性確保と評価維持に寄与し、NBAでは約3分の2のチームが導入、WNBA拡張入札にも関与が進んでいると述べました。
  • リバティは短期的利益がポストシーズン成績に左右されやすく脆弱である一方、設備・体験への先行投資が中長期の価値最大化に資すると位置づけました。
  • 2019年の買収後、会場をバークレイズ・センターへ戻し、施設投資とスター選手獲得(ブリアナ・スチュワートら)で競争力を強化し、5年で優勝に到達しました。

What Ilya Saw: Mira Murati’s Screenshots About Sam Altman - The Information

link 🔗

  • 2023年11月のサム・アルトマン解任・再任劇について、主要人物は今も権力中枢に留まり、新証言が続いていますと記事は説明しました。
  • イリヤ・スツケバーの証言によると、解任の根拠として提示したメモの主要な証拠は、当時CTOだったミラ・ムラティのスクリーンショットや情報でしたと述べました。
  • その情報には、アルトマンが同僚に嘘をついた、役員を分断した、批判への微妙な報復を行ったとする主張が含まれていましたと説明しました。
  • ムラティは2024年3月の社内メモで、「自分から取締役会に働きかけてはいない」と距離を取る発言をし、スツケバーの示す因果とは齟齬が生じましたと指摘しました。
  • スツケバーは1年前から解任のタイミングを考えていたと述べつつ、ムラティの情報が意思決定を後押しした可能性を示唆しましたと整理しました。
  • ムラティは解任直後に暫定CEOに就任したものの約1日でアルトマン支持に転じ、その後2024年9月に退社して独自のAI企業を設立しましたと経緯を説明しました。
  • スツケバーはAGIの統治者像について「政治家を選ぶのに近い」と述べ、理想的な「聖人」が実権を握るのは難しいが試みる価値はあると語りましたと紹介しました。
  • スツケバーは解任プロセスが「拙速だった」とも認め、意思決定の手続き面の課題を示しましたと補足しました。
  • アルトマンは解任後も有力な交渉者・政治家的リーダーとして、半導体各社との関係やマイクロソフトとの再調整、上場可能な再編への道筋を付けましたと現状を説明しました。
  • イーロン・マスクの訴訟がスツケバーの証言を引き出し、非営利から営利への転換を巡る「背信」主張が争点となり、早ければ来年初にも審理入りの可能性がありますとまとめました。

The Electric: China’s Next Targets for Domination—Robots, Rockets and Low-Orbit Satellites - The Information

link 🔗

  • 中国はレアアースやドローンでの支配に続き、低軌道衛星・ヒューマノイドロボット・ロケットへ国家主導で投資を拡大しています。
  • 習近平政権は「新興・未来産業」を省レベルで育成する方針を再確認し、地方政府に競争的な支援を促しています。
  • 中国の産業プレイブックは、補助金・安価な用地・低コスト公共料金で参入を促し、激しい競争で生き残った企業が海外で価格攻勢をかける構図になっています。
  • 低軌道衛星では、吉利(Geely)や恰帆(Qiafan)などが数千〜1万5,000超の衛星群を計画し、価格でStarlinkに挑戦しようとしています。
  • ロケットでは約40社の新興企業が乱立し、少なくとも5社が打ち上げ実績を持ち、3社以上が再使用型の開発でコスト低減を目指しています。
  • ヒューマノイドロボットでは世界約160社のうち中国が60社超を占め、Unitreeなどが低価格で販売し、部品の国内供給優位が価格競争力を支えています。
  • ロボット部品のコストは米国より中国が優位で、例としてロボットアームは米国製造コストの約半分とされ、供給網の地産地消が進んでいます。
  • この手法は国内で利益が出にくい「内巻き(involution)」を生みつつも、最終的に海外市場で西側企業の価格・収益を圧迫する可能性があります。
  • すべての分野で成功するわけではなく巨額損失も頻発しますが、成功した分野では供給網支配が強固になりやすいことが指摘されています。
  • 併載のトピックとして、中国がNexperiaの自動車向けチップ輸出再開を示し、EV・自動車産業のサプライリスク緩和に一部動きがありました。

The Neo Robot Economy - The Information

link 🔗

  • 1X Technologiesがヒューマノイド「Neo」を発表し、販売価格約$20,000・月額$499のレンタル提供を計画しました。
  • 早ければ来年の小規模出荷を目指すものの、実現可能性には不確実性が残ることを識者が指摘しました。
  • 家庭内活用の筆頭例として、掃除・家事支援など高齢者ケアの実需に刺さる可能性が高いことが示されました。
  • 広く普及した場合、家事労働市場の賃金を押し下げるリスクがあり、再訓練や雇用転換策が不可欠になりました。
  • Neoは当面テレオペレーターの遠隔支援を必要とし、コールセンターのような低賃金・海外委託モデルに傾く懸念が示されました。
  • パンデミック期とは逆に、在宅が低スキル労働、対面が社会的ステータスの象徴になる“労働の逆転”が起き得ると論じました。
  • 著者は利便性への期待と、雇用・格差への懸念という相反する感情を併記し、ロボット経済の光と影を強調しました。
  • 併載トピックとして、VCの“バイブコード”趣味化、カシオのAIロボペット“Moflins”のヒット、女性リーダーのWTFサミット、WNBAの成長戦略などが紹介されました。

Sing the News to Me? The VCs Who Turned Vibe Code Into Whimsical Passion Projects - The Information

link 🔗

  • AI支援コーディングがシリコンバレーで一般化し、非プロでも短時間で動くアプリを作れる状況が広がりました
  • VCたちは流行を追う姿勢でバイブコーディングを習慣化し、業務効率化と遊びの両方に活用しています
  • Scott Stanfordはニュースを歌に要約するPopcorn AIをLovableで一晩で作り、情報摂取の体験をエンタメ化しました
  • Roy BahatはReplit等で週2〜3回取り組み、Xのフィード表示改造やアイデア提案アプリなどをその場で作りました
  • Yohei NakajimaはBabyAGIやMeanVCなどを公開し、創業者の発想を鍛えるツールや子ども向け作品を継続的に制作しました
  • Arek Zarowskiは家族の家計可視化や親族のサイト改修に活用し、消費の偏りを見直すきっかけを得ました
  • これらの事例は、大規模ヒット狙いではなく、個人的な課題解決や実験を迅速に形にする文化の定着を示しています

Do We Want an Age of AI Robopets? - The Information

link 🔗

  • CasioのAIロボペット「Moflin」が日本でヒットし、米国でも約$429で販売され始めたことを示しました。
  • Moflinは耳や口をあえて持たない抽象的デザインを採用し、持ち主が自由に人格を投影できるよう設計されていると説明しました。
  • 「感情AI」により持ち主の声色やタッチに反応し、時間とともに性格が変化すると説明されました。
  • 大人向けの“ウェルネス”用途をうたい、ストレス軽減や安心感の提供を目指していることが強調されました。
  • TikTokやRedditを中心にファンダムが形成され、メンテや“毛並みケア”まで含む有料クラブも存在すると紹介されました。
  • 子どもへの影響に関する研究が不足しており、発売前にエビデンスを求める声があることが指摘されました。
  • プライバシー面で「言葉は理解・記録しない」とするCasioの説明に対して、声の“トーン”解析には実質的に言語データが関与し得るとの疑義が示されました。
  • AI搭載のライフスタイル製品への需要はあるものの、過去の“AIガジェット”失敗例から持続価値の見極めが課題であると論じました。

Google Pulls AI Model Following Defamation Accusations - The Information

link 🔗

  • GoogleはオープンソースLLM「Gemma」をAI Studioから削除し、API経由の提供に限定すると説明しました。
  • 発端は、上院議員マーシャ・ブラックバーン氏がGemmaが自分への虚偽の性的暴行疑惑を捏造したと抗議し、書簡を送ったことにあります。
  • 先月には保守系活動家ロビー・スターバック氏も類似の理由でGoogleを提訴しており、政治家・保守陣営の懸念が高まっています。
  • Googleは「AI Studioは開発者向けであり、一般消費者が事実確認用途で使うことは意図していない」と説明しました。
  • 上院公聴会でGoogle幹部は「LLMは幻覚を起こす」と述べており、ブラックバーン氏はこれを「受け入れられない」と批判しました。

An OpenAI Founder Discusses Anthropic Merger Talks, Internal Beefs in Deposition - The Information

link 🔗

  • 2023年のサム・アルトマン解任直後、AnthropicはOpenAIとの合併に「興奮」して前向きでしたが、実務的障壁により実現しませんでした。
  • 合併が成立していた場合、Anthropicのダリオ・アモデイがOpenAIのトップに就く可能性がありました。
  • イリヤ・スツケヴァーは証言で、アルトマンに「一貫した虚言や対立煽りのパターン」があるとする52ページのメモを独立取締役に提出していたと述べました。
  • メモには「人と人を対立させる」「Daniela vs Mira」「Dario vs Greg, Ilya」などの見出しがあり、内部の不信と権限争いが深刻だったことを示しました。
  • スツケヴァーは当初合併に否定的で、アルトマンの解任を推奨しましたが、混乱の4日後には復任支持に転じました。
  • 合併不成立の背景として、両社に巨額出資した多くの投資家の利害や希薄化リスクなどの「実務的障壁」が示唆されました。
  • その後、Anthropicは年換算売上約70億ドル、評価額1,830億ドルに成長し、OpenAIは評価額5,000億ドル、年換算売上120億ドルに到達しました。
  • 法廷資料はイーロン・マスクのOpenAI提訴(非営利から営利化への構造変更を巡る争い)の過程で公開されました。OpenAIは反訴し、独立調査はアルトマンとブロックマンの続投を妥当と結論づけました。
  • GPT-4 Turboの社内安全審査を巡る記述もありましたが、OpenAIは安全ボード承認済みと説明しました。

Benchmark’s AI Pressure Test: High Prices, Smaller Stakes—and a Poached Star - The Information

link 🔗

  • ベンチマークは従来の20%超の持ち分要求を緩め、MercorやCursorでは小さな持ち分で高い評価額に応じました。
  • AIブームで資金需要が巨大化し、MicrosoftやGoogleなどの戦略投資勢と大手VCが参入した結果、従来の戦い方だけでは競争しにくくなりました。
  • LLM開発のような資本集約型ビジネスには慎重姿勢を維持しつつ、Fireworks AIやSierraなど周辺・応用領域には積極的に投資しました。
  • 取締役席を取りに行く一方で、Mercorは最終的に10%取得・評価額2.5億ドルへと折衷し、意思決定の柔軟性を示しました。
  • Kleiner PerkinsからEv Randleを招聘し、大型・後期ラウンドの経験を補完しました。
  • 社内ではファンド規模拡大案が議論されましたが、現時点で数百億円規模(約4.25億ドル)の小型ファンド方針を維持しました。
  • 小規模パートナー体制により意思決定が迅速で、創業者との距離が近いという強みを引き続き活用しました。
  • Sierraの成功やFireworksの評価額上昇などで、2020年組成ファンドは投入資金の約8倍の価値に達したとされました。
  • 中国拠点を巡るコンプライアンス課題が生じたButterfly Effect投資では、創業者のシンガポール移転などで対応が進みました。
  • 人材流出(Miles Grimshaw、Victor Lazarte、Sarah Tavelの役割変更)を経て、Randle加入で布陣を再構築しました。

Stock Market’s Crypto Rally Boosts Private Companies - The Information

link 🔗

  • 公開市場のクリプト関連株高が私募市場に波及し、未上場企業の評価額が全体的に高まっています。
  • Krakenは来年のIPO観測を背景に、8月の約150億ドル評価から約200億ドルでの資金調達を目指していると報じられました。
  • 公開企業のCoinbaseは約840億ドルの時価総額まで上昇し、私募側のバリュエーションの目安として機能しました。
  • 2024年の売上はKrakenが約15億ドル、Coinbaseが約66億ドルとなり、評価倍率の引き上げを正当化する材料になりました。
  • トランプ次期政権の友好的な規制姿勢期待がビットコインなどを押し上げ、セクター全体のリスク選好を強めました。
  • Circleは6月のIPOで初値から168%上昇し、上場直後の「ポップ」期待が私募評価をさらに押し上げました。
  • 需要が強い中、既存株主は手放しを渋り、Rippleは400億ドル評価で10億ドルの自社株買いを提示しましたが参加率は低迷しました。
  • 予想市場のPolymarketは売上ゼロながら、夏の12億ドル評価から80億ドル、さらに最大150億ドル評価の提示を受けるなど過熱感が目立っています。
  • 事業会社のM&Aでも高値がつき、Stripeは年換算売上1,000万〜1,500万ドルのBridgeを約11億ドルで買収しました。
  • 小型案件も活況で、SecuritizeはSPAC上場で12.5億ドル評価を得る見込みと報じられました。
  • 一方で上場後の反落事例が増え、BullishやGemini、Circleはピークから下落し、過度な私募評価が上場後のパフォーマンスを圧迫しています。
  • クリプト企業の指数採用(CoinbaseのS&P500入り)により、次のセクター調整が広範な株式市場へ波及するリスクが高まっています。

Lightspeed, Zeev Win Billions From Navan IPO - The Information

link 🔗

  • Navanは旅行・経費管理ソフトの企業で、パンデミックで業績が急落したものの、その後に急回復しました。
  • 上場初日は株価が20%下落しましたが、時価総額は60億ドル超で取引を終えました。
  • Oren Zeevは2015年のシードから累計1.5億ドルを投じ、IPO時点で約10億ドル相当の持分となりました。
  • Lightspeed Venture Partnersは累計2.57億ドルを投資し、IPO時点で約12.5億ドル相当の持分となりました。
  • Andreessen Horowitzは約6.35億ドル、Greenoaksは約3.58億ドル相当の持分となり、Greenoaksは第4位の大株主となりました。
  • Greenoaksはパンデミック期に転換社債で出資し、将来のIPOで投資を追加できるオプションを得たことが功を奏しました。
  • Navanの売上はFY2021(2021年1月期)で1,700万ドルから、翌期に8,800万ドル、その後FY2024(2024年1月期)に5.36億ドルへ伸び、損失は1.81億ドルに縮小しました。
  • 2022年に一度IPOを目指しましたが、市況悪化で延期し、2025年に政府閉鎖の逆風下でも上場を断行しました。

Amazon’s Cloud Lifts - The Information

link 🔗

  • AWSの売上成長率が第3四半期に約3ポイント加速して20%となり、2022年末以来の最速ペースに戻りました。
  • アマゾンはAI向けデータセンター投資を加速し、四半期の設備投資は$34.2B、通年見込みは$125Bに達すると見込まれています。
  • 投資超過で前三四半期は営業キャッシュ創出額を上回る投資となりましたが、年末商戦の第4四半期でフリーキャッシュフロー改善が期待されます。
  • CEOのアンディ・ジャシー氏はTrainiumなど自社AIチップと生成AIサービスへの旺盛な需要を強調し、投資の回収が進んでいると説明しました。
  • AWSは年率換算売上で約$132Bと、Azure(~$75B超)やGoogle Cloudより規模が大きく、成長率単純比較には注意が必要です。
  • 市場はAWSの加速を好感し、アマゾン株は時間外で約13%上昇しました。
  • CoreWeaveによるCore Scientificの約$9Bの株式交換買収は、相手株主の反対で不成立となりました。
  • CoreWeaveは重いリース負債と高コストの債務調達に直面し、データセンター垂直統合による年間$500Mのコスト削減機会を逃しました。
  • CoreWeaveは他のデータセンター事業者の買収検討余地を残しつつも、足元では資本コストの高さ(米国債+最大4%)と$11.1Bの総債務が課題となっています。
  • そのほか、Appleの年末強気見通し、SpaceXの月着陸計画見直し可能性、Peacockの加入者停滞、NavanのIPO初日下落、Metaの大型社債発行などが伝えられました。

How Microsoft Escaped the AI Margin Squeeze; An FDE Boom - The Information

link 🔗

  • マイクロソフトはCopilotの無料利用増でマージン圧力を受けましたが、AI運用効率化により全社の利益率を前年並みに維持しました。
  • Office事業の粗利益率はAIコスト増にもかかわらず前年から改善し、コスト最適化の効果が表面化しました。
  • 自社データセンターとAzure上の最適化により、OpenAIモデルの運用コストを第三者に左右されずに下げられる体制を確立しました。
  • ナデラCEOはAzure上のNVIDIAチップでGPT-5のトークンスループットを30%向上させたと述べ、単位時間あたり処理効率を高めてコスト削減を進めました。
  • 現時点でAzureのGPT-5単価は据え置きですが、将来的に効率化の成果を価格に反映する意向を示唆しました。
  • 企業向けAI導入ではFDE(Forward-Deployed Engineers)が成果創出の近道として注目され、SnowflakeやServiceNowなどで大型案件獲得に寄与しました。
  • FDEは顧客の複雑な既存システムを横断してAIを早期に実装し、価値を可視化する役割を果たしますが、採用コストが高いという課題があります。
  • FDE体制はServiceNowだけでなく、Microsoft、Oracle、Salesforce、OpenAI、Anthropic、Sierraなど大手・スタートアップ各社が整備しています。

サイバーエージェントがAIアプリ「Dify」のベクトルDBとしてTiDBを選択。AIアプリの全社導入に耐えうる基盤を構築

link 🔗

  • サイバーエージェントは非エンジニアでもAIアプリを作れるDifyを全社展開し、約2,000名が利用して月3,000時間の業務削減を実現しました。
  • RAGのベクトル検索基盤として、MySQL互換の分散DB「TiDB(TiDB Cloud Starter)」を選定し、スケール、コスト、運用性で評価しました。
  • 全社展開を見据え、セキュリティ(国内保管・閉域接続)、大量データ対応(分散・シャーディング・インデックス)、コスト・運用効率を必須要件に据えました。
  • サーバレス課金により未使用時は費用が発生せず、約60GBで月額数千円と報告され、ピーク時も遅延が許容範囲で安定運用を実現しました。
  • バージョンアップや構成変更で計画停止が不要であり、少人数チームでも継続運用できる体制を確立しました。

AI browsers are a cybersecurity time bomb - The Verge

link 🔗

  • AI搭載ブラウザはユーザーの行動や会話を「記憶」し、通常のブラウザ以上に詳細な個人プロファイルを形成してしまいます。
  • 研究者はAtlasやCometで、プロンプトインジェクションにより権限取得やマルウェア実行が可能になる脆弱性を確認しました。
  • プロンプトは画像やスクリーンショット、フォーム、メール、白文字など目に見えにくい形でも埋め込まれ、AIエージェントを乗っ取る恐れがあります。
  • エージェントは自動でサイト訪問や入力を行うため、攻撃者が無限に試行錯誤でき、ゼロデイの発見と悪用が加速します。
  • 市場の早期参入競争で十分な検証が不足し、初期のOfficeマクロや拡張機能乱立期のようなリスクが再来しています。
  • 具体的な被害例として、保存住所のすり替えによる物品窃取や、個人データの自動送信が想定されます。
  • 専門家は「AI機能は既定でオフ」を推奨し、使う場合は安全と確認済みのサイトを明示してエージェントを誘導する運用を勧めています。

Generative AI in the Real World: Chris Butler on GenAI in Product Management - O’Reilly Media

link 🔗

  • 「Toil(雑務)」を、価値に直結せず反復・手作業で増殖する作業として定義し、AIで削減しながらも人間の判断と専門性の形成は残すべきだと説明しました。
  • ステータス報告では、LLMを「圧縮・翻訳エンジン」として下書き生成と多視点の早期フィードバックに使い、人間が意図と影響を吟味して最終的な判断を行うべきだと述べました。
  • 会議やドキュメントに“視点を持ったエージェント”を参加させ、デザイナー視点、法務視点、ファシリテーター視点などから受動的に助言する仕組みを実験していると紹介しました。
  • 自動化の水準は「ドライバーアシスト」に近く、人間は常にループ内にいるという前提で、適切なタイミングで文脈を提示するセミエージェント的運用を推奨しました。
  • GitHub内部では「Copilot Spaces」を使い、社内スタイル・設計体系・リリース手順・顧客フィードバックなどの文脈を束ねて、自動下書きやリンク付けを進めていると説明しました。
  • リリース課題と顧客フィードバックの自動リンクなど、情報の“見えない結節点”を継続探索する半自律の仕組みが有効だと述べました。
  • マルチモーダル化により、表情・発話トーン・注視点などの非言語情報を会議進行や論点選別に活かす可能性を示しました。
  • 「CPOプロキシ」のような人物視点のプロンプト空間を作り、意思決定者の関心・問いを模した批評を得る実験を紹介し、同時に倫理と権力構造への配慮が必要だと指摘しました。
  • 生成AIは新人の“経験学習”を奪うべきではなく、初学者向けと上級者向けで異なるフィードバック設計を行い、習熟を加速させる教育設計が重要だと述べました。
  • 大企業導入の障壁はツール制約とデータ接続であり、エンタープライズ検索やRAGは“魔法ではない”ため、統合・権限・分類設計の地道な取り組みが不可欠だと強調しました。
  • プロダクトマネージャーの本質は不確実性の扱い、戦略との整合、チームの意思決定促進にあり、AIで代替されず、むしろ抽象度の高い仕事に集中できるようになると論じました。
  • 実務では「批評を受ける」と「藁人形(ストローマン)草案を批評する」という二つのループを回し続けることで、専門性が磨かれると提案しました。

スタートアップ新時代——熱量への回帰、市場・資金とチーム、3つの論点から考える「新たな事業の作り方」 - BRIDGE(ブリッジ) - BRIDGE(ブリッジ) - スタートアップをつなぐブログメディア

link 🔗

  • 勝ち筋は「ウェブにないデータ×ハードウェア×AI」によってリアルタイム性と独自性を確保することにあります
  • 投資は利回り競争から離れ、先に共創期間を設けてマインドコミットを引き出す「熱量回帰」を重視します
  • チームはフルタイム雇用中心から、業務委託や準委任で小さく始めて拡張する構えに切り替える必要があります
  • AIをチームメンバーとして位置づけ、リモート前提のテキスト運用と相性良くプロセスを再設計します
  • プロダクトはハード×ソフトの両輪で素早く試作し、使われる状況づくり(プライバシー配慮や標準化)まで設計します
  • 金銭的インセンティブ偏重を避け、自己実現と熱量が起動力になる設計を行います

汎用LLMはもう終わり? Gartnerが「次の5年」を決める技術を発表 - ITmedia エンタープライズ

link 🔗

  • 2026年が転換点になると位置付け、責任あるイノベーション、運用の卓越性、デジタルトラストの確立を不可欠と説明しました。
  • AIネイティブ開発により小規模・多能工のチームが人とAIの協働で高速開発を実現すると見込みました。
  • マルチエージェント・システムが複雑業務を自律連携で遂行し、業務自動化の柔軟性と拡張性を高めると示しました。
  • ドメイン特化型言語モデルが汎用LLMより正確で、2028年には企業利用モデルの過半が特化型になると予測しました。
  • AIスーパーコンピューティングやハイブリッド型コンピューティングの採用が進み、データ集約型処理を効率化すると述べました。
  • 先制的サイバーセキュリティへの支出が拡大し、受け身から能動的な防御へ移行すると指摘しました。
  • デジタル属性(SBOMやウォーターマークなど)によって出所と完全性を証明し、サプライチェーンリスクを低減すると提起しました。
  • ジオパトリエーションが進展し、規制・主権・レジデンシ対応のためにグローバルクラウドから地域・主権クラウドや自社DCへ再配置が進むと述べました。
  • AIセキュリティ・プラットフォームでプロンプトインジェクションやデータ漏えいを横断的に管理すると説明しました。
  • コンフィデンシャル・コンピューティングで処理中データを保護し、非信頼インフラ上でも機密性を確保すると強調しました。

技術革新で一気に高まる核融合投資、過熱する米国の開発競争 - 日経クロステック(xTECH)

link 🔗

  • MITのREBCO高温超伝導実証により強磁場コイルの実現性が高まり、トカマク炉の体積を従来比で約1/40に小型化できる可能性が示されました。
  • 小型化とコスト低減の見込みが投資を呼び込み、米国を中心に核融合スタートアップが40社超へ拡大し、累計で数十億ドル規模の資金が流入しました。
  • レーザー核融合はLLNLで入力2.05MJに対して出力3.15MJの「エネルギー純増」を初達成しましたが、システム全体では約300MJの投入が必要で電源化の道筋は見えていません。
  • トカマクを核とする工学的路線では、超伝導磁石の高温化が経済性の鍵となり、Commonwealth Fusion Systemsが実証炉SPARCを建設中です。
  • 逆磁場配位(FRC)など多様な方式も台頭し、TAEはp-B(陽子—ホウ素)反応、HelionはD-He3反応と直接発電(磁気流体発電)を狙うなど、非D-T路線が存在感を増しています。
  • 米連邦政府はマイルストーン型助成や「核融合エネルギー戦略2024」を通じて民間主導を後押しし、規制面ではNRCが核融合向けに原子炉より緩やかな枠組みを2027年までに整備予定です。
  • 実用化には高温プラズマ制御、材料の中性子耐性、長パルス運転、トリチウム増殖などの未解決課題が残り、2030年代前半の送電網接続は楽観的だと見込まれます。
  • 成功確度と資金力の差が顕在化し、今後は淘汰・統合が進む一方で、成功時の社会的インパクトは極めて大きいと評価されています。

コードは書ける、でも”AIを理解してない”エンジニアが増えている現実😭 - Zenn

link 🔗

  • ノーコードやAPI連携で“動く”ものは作れますが、“使える”品質に上げるにはAIの仕組み理解とチューニング設計が必要だと述べています。
  • ツール操作(OpenAI APIやLangChain)はスキルですが、モデル挙動やRAG構造を理解しないと改善の打ち手を選べないと指摘しています。
  • プロンプト変更だけで粘るのではなく、リトリーバーやインデクシング、メタデータ設計など構造面から手当てする必要があると説明しています。
  • 事業会社ではSaaS依存で成果最優先になりやすく、原理理解の機会が失われがちだと課題化しています。
  • “デモ映え”で終わらせず、正確さ・再現性・効率性などの評価指標を定義して可視化するべきだと提案しています。
  • 小さく検証し、定量化して改善する短いループをプロジェクト運営に組み込み、継続的に品質を押し上げるべきだと述べています。
  • AI時代は「使える人」から「理解して活かせる人」に力点が移り、学習継続と説明責任が重要になるとまとめています。

【エンジニアの日常】これが私の推しツール! 〜日々の開発を豊かにするおすすめツール〜 Part4 - Findy Tech Blog

link 🔗

  • WezTermのタブを「大きな作業単位」に、Zellijのタブ・ペインを「細かな作業単位」に分けて階層的に運用しました。
  • VS CodeのWorkspaceにたとえて説明し、プロジェクトごとに領域を切り替える発想でマルチプロジェクト開発を効率化しました。
  • 設定はLuaで統一的に管理し、マウス操作からショートカットへの段階的移行を許容して学習コストと操作効率のバランスを取りました。
  • iTerm2では透過表示とホットキー起動を活用し、ドキュメント確認やレビュー閲覧とターミナル作業を同一画面で素早く往復できるようにしました。
  • iTerm2のProfile機能を使い、用途別(作業/レビュー/軽量接続など)に表示や挙動をカスタマイズしました。
  • AI駆動開発の業務フローに合わせ、参照コンテンツとコマンド操作を同時進行しやすい画面構成を重視しました。

Large Language Models Get All the Hype, but Small Models Do the Real Work - The Wall Street Journal

link 🔗

  • 企業の実務では巨大LLMよりも小型・特化型モデルを連携させる構成が主流になりつつあると説明しました。
  • 小型モデルは十分な性能を持ちながら、推論コストとレイテンシを大幅に抑えられるため、運用上の必然として選ばれていると述べました。
  • 「AI工場」や「知識の組立ライン」という設計思想では、従来ソフトウェアのパイプライン上で小型モデルが段階的に加工・分類・要約を行うと説明しました。
  • 先端の大規模モデルは全体設計や難所の解決など要所に限定して使い、小型モデルが反復的な下流作業を担う役割分担が有効だと指摘しました。
  • メタは広告配信で大型モデルを直接使わず、知識蒸留で小型モデルに置き換えて運用コストを抑えていると紹介しました。
  • GongやHark、Airbnbなどの事例では、計画立案や最終レポート作成に高性能モデルを限定使用し、検索・要約・分類は小型モデルで回すことでスケールさせていると解説しました。
  • トークン課金では小型モデルが圧倒的に安く、さらに大規模モデルは内部思考でトークン消費が膨らみやすいため、全工程を巨大モデルで回す設計は非現実的だと整理しました。
  • 小型モデルは微調整やプロンプト設計で業務特化させやすく、企業の固有データや人間のフィードバックを取り込みやすい利点があると述べました。

WebLLM(Wasm上で動くLLM)は何が凄い?3種のLLM実行環境を徹底比較〜ローカルブラウザ型、ローカルネイティブ型、クラウド型〜 - Zenn

link 🔗

  • WebLLMはWasmとWebGPUを用いてブラウザ内でLLM推論を実行し、プロンプトや出力を外部に送信しない形でプライバシーを確保します。
  • 一度ダウンロードしたモデルをブラウザのキャッシュに保存し、オフラインでも再利用できるように設計されています。
  • ブラウザのメモリ制約とGPU・RAMの端末依存により、実行できるのは数GB級の軽量モデルに限られ、品質や速度は制約を受けます。
  • クラウド型は高品質・大規模モデルと運用の自動更新が強みですが、データをサーバーに送るため機密情報の利用には注意が必要です。
  • ローカルネイティブ型はOSレベルの資源に直接アクセスでき、より大きなモデルや最適化が可能ですが、インストールとアップデートの手間が発生します。
  • 導入の容易さではWebLLMが最もハードルが低く、URLアクセスだけで最新のWebアプリとして配布・更新できます。
  • 用途別の使い分けとして、機密・即時配布・オフライン重視はWebLLM、品質・大規模重視はクラウド、ローカル高性能・チューニング重視はネイティブが適しています。

Claude Code のサンドボックス機能を試してみた - azukiazusaのテックブログ2

link 🔗

  • 承認疲れを招く細かな権限確認の代わりに、OSレベルのサンドボックスでAIの行動範囲を物理的に制限します。
  • サンドボックスはファイルシステムとネットワークを分離し、許可されたパスやドメイン以外へのアクセスを遮断します。
  • macOSではApple Seatbelt(sandbox-exec)、LinuxではBubblewrapを用いて実現されています。
  • npmパッケージ @anthropic-ai/sandbox-runtime(srt)でサンドボックス実行を単体でも試せます。
  • Claude Codeでは /sandbox で有効化でき、失敗時は通常のpermissionsに基づき承認を求めて再試行します。
  • settings.jsonで sandbox と permissions を組み合わせ、Read/Edit(ファイル)とWebFetch(ネットワーク)で細かく制御します。
  • dangerouslyOverrideSandboxや—dangerously-skip-permissionsは強力な回避手段であり、無闇に許可しない設定が重要です。

The profitable startup - Linear

link 🔗

  • 黒字化は野心の欠如ではなく、自分たちの運命をコントロールする手段であると説明しました。
  • 小さく優秀なチームは品質と開発速度を高め、マネジメント負荷や意思決定の遅延を避けられると述べました。
  • 収益性は投資家との関係を断つことではなく、資金調達のタイミング・条件を自分で選べる選択権をもたらすと強調しました。
  • プロダクト市場適合前の人数は最大でも約10人を上限とし、採用は「次の一人を厳選する」姿勢で進めるべきだと提案しました。
  • 採用規模の適正を測る指標として従業員1人当たりの売上を示し、スタートアップの目安を50万〜100万ドルと提示しました。
  • リスクの性質により黒字化までの期間は変化し、既存市場の現代化であれば早期黒字化が現実的だと整理しました。
  • 黒字化がもたらす最大の効用は「生存不安からの解放」であり、顧客価値の最大化に集中できると述べました。

Introducing gpt-oss-safeguard - OpenAI

link 🔗

  • gpt-oss-safeguardは推論能力を使って「ポリシーそのもの」を読み、コンテンツを分類するとともに理由を出力します。
  • モデルは2サイズ(120b/20b)で、Apache 2.0ライセンスのオープン重みとしてHugging Faceから利用できます。
  • ポリシーを推論時に差し替えられるため、再学習なしで素早く運用ポリシーを更新できます。
  • 少量データや新興リスク、領域特化のニュアンスに強く、説明可能性を重視する場面で有効に働きます。
  • 伝統的な教師あり分類器より遅く高コストになりやすく、大量スケールには前段の小型高速クラシファイア併用が推奨されます。
  • 内部評価では複数ポリシー同時判定で良好な精度を示し、一部で大規模思考モデルを上回る結果が示されました(用途により差異あり)。
  • OpenAI内部のSafety Reasonerと同系の発想で、防御の多層化(defense in depth)を現場運用に適用します。
  • フォーラムのチート投稿や偽レビュー検出など、各社固有のポリシーに合わせたラベリングに活用できます。
  • 高難度リスクでは、数万件規模の良質データで訓練した専用分類器が依然として有利な場合があります。

Introducing Firecrawl v2.5 - The World’s Best Web Data API - Firecrawl

link 🔗

  • 独自実装のブラウザスタックにより、PDFや動的JS、ページネーションなど多様なコンテンツを高品質に抽出できるように設計しました。
  • ページの描画方式を自動判定し、完全ページ単位でのインデックス化を行い、部分抽出による欠落を避けました。
  • セマンティックインデックスを導入し、スナップショット・埋め込み・構造メタデータを活用して40%のAPI呼び出しを即応処理できるようにしました。
  • 「現在の状態」か「最後に確認済みの良好コピー」を選択して取得でき、鮮度と信頼性のトレードオフをユースケースに合わせて最適化しました。
  • ベンチマークで品質とカバレッジの向上を確認し、AIエージェントが利用しやすいクリーンな出力形式を提供しました。
  • v2.5は既存ユーザーもコード変更なしで利用でき、Playgroundやドキュメントからすぐ試せるようにしました。
  • 取得品質・再現性の評価基盤をコミュニティに公開予定で、透明性の向上とエコシステム拡大を目指しました。

anthropic-experimental/sandbox-runtime: A lightweight sandboxing tool for enforcing filesystem and network restrictions on arbitrary processes at the OS level, without requiring a container. - GitHub

link 🔗

  • srtはmacOSではsandbox-exec、Linuxではbubblewrapを使い、コンテナなしでプロセス全体の権限を制御します。
  • ネットワークはHTTP/HTTPS用のHTTPプロキシと汎用TCP用のSOCKS5プロキシに経路を強制し、ドメインの許可/拒否を適用します。
  • ファイルシステムは既定で「読み取りは広く許可・書き込みは作業ディレクトリのみ許可」とし、deny/allowで細かく調整します。
  • Linuxではseccomp BPFと静的リンクのapply-seccompバイナリでAF_UNIXソケット作成をsyscallレベルで阻止します。
  • 設定は~/.srt-settings.jsonに置き、allowedDomains/denyRead/allowWrite/denyWriteなどを宣言的に管理します。
  • MCPサーバーや任意コマンドをsrtでラップするだけで、プロセスツリー全体に制約を適用できます。
  • macOSはシステムのサンドボックス違反ログを購読してリアルタイム通知が可能です。Linuxはstraceで違反観測を補助します。
  • 広いドメイン許可(例: github.com)や危険なUnixソケット許可(例: /var/run/docker.sock)はデータ流出や権限昇格のリスクを生みます。
  • LinuxのDocker内での互換運用用にweakerモードがありますが、セキュリティは大きく低下します。
  • 導入はnpm -gで完了し、Linuxはbwrap/socat/rgが必要になります。x64/arm64はランタイム依存なしで動作します。

Claude Agent Skills: A First Principles Deep Dive - Han Lee

link 🔗

  • Skillsは実行コードではなく、SKILL.mdに書いたプロンプトと設定を会話に注入してClaudeの挙動を一時的に変える仕組みだと理解します。
  • Skill(大文字)は“メタツール”で、個々のskills(小文字)の一覧と説明を動的に提示し、Claude自身の推論でどれを呼ぶか決めさせます。
  • スキルを呼ぶと、ユーザー向けの短いメタデータメッセージと、UIに表示しない長文の指示(isMeta: true)が会話に注入されます。
  • スキルは会話文脈(指示)だけでなく実行文脈(allowed-toolsやモデル指定)も変更し、以降のツール利用を前提承認に切り替えます。
  • 選択ロジックはアプリ側のルーティングや埋め込み検索ではなく、LLMの言語理解と推論に委ねられます。
  • SKILL.mdはYAMLフロントマター(name, description, allowed-tools, model, ほか)+本文(手順・出力形式・エラー対応など)で構成されます。
  • Progressive Disclosureを徹底し、一覧では最小限の説明のみ、起動後に詳細プロンプトや必要ファイルを段階的に読み込ませます。
  • references/はReadで読み込む“テキスト資料”、assets/はパス参照のみで文脈トークンを消費しない“静的テンプレート”として使い分けます。
  • セキュリティと可搬性のため、allowed-toolsは最小権限にし、パスは{baseDir}を使って絶対パスを避けます。
  • スキルはコンテキストを“準備”するもので、実処理はその後に通常ツール(Bash/Read/Write等)が動きます。

Thread by @kregenrek - X (formerly Twitter)

Kevin Kern on X: “If you’re setting up your Coding CLI, here are some tools worth adding.

I’ve found fd, ripgrep, and ast-grep especially useful when working with codex. https://t.co/qS6HcBNiVq” / X

Thread by @iwiwi - X (formerly Twitter)

Takuya Akiba on X: “今日の WandB Fully Connected Tokyoの講演資料です! https://t.co/85hL3Zw9J6 AIエージェントを強力にするにはどうしますか?Sakana AIには “専門家級” のAIエージェントの開発実績があります。その実力の土台となる「推論時スケーリング」と「ドメイン知識の活用」のアプローチをまとめました。” / X

Thread by @gregisenberg - X (formerly Twitter)

  • 9時–17時の勤務が崩れ、解雇やフリーランス化が進み、エージェント補助の仕事ポートフォリオが標準化すると予測されています。
  • 本人性の証明としてライブ配信が爆発的に伸び、クリエイター経済は創業者経済へ移行すると指摘されています。
  • 既存AIツールの再組み合わせで縦型ワークフローを作る「アプリ再合成時代」が到来すると見込まれています。
  • エージェント同士がAPIで直接連携し、中間の人間オペレーションが自動化されると予測されています。
  • 代理店・リクルーター・コンサルの価値が縮小し、少人数のオペレーターが多数のエージェントを束ねる体制が台頭すると述べられています。
  • 配信・広告の最適化がエージェント化し、サムネやCTAのA/Bテストを常時回す運用が当たり前になると見込まれています。
  • パーソナライズされた価格・導線が一般化し、同一製品でも顧客ごとに価格が変動すると警鐘が鳴らされています。
  • データプライバシーと「人間性の保証」が高級価値となり、オフライン検証やノーモデル訴求がブランド化すると予測されています。
  • クリエイターは「チャンネル」より「AIスタジオ」を持ち、1つのプロンプトから動画・アプリ・製品ラインへ展開すると説明されています。
  • SNSは「シグナル市場」に分化し、アイデアやプロンプト資産が金融商品化すると論じられています。
  • エネルギーと計算資源がボトルネックとなり、安価でローカルな電力・計算の確保が決定的に重要になると強調されています。
  • 物語性・審美眼・信頼が最後の堀(モート)となり、創作と経済活動が再び結びつくと述べられています。
  • エージェントが意思決定する時代に合わせたAIネイティブ保険が巨大機会になると予測されています。
  • ナショナルモデルや計算資源の確保が外交・安全保障課題となり、データは武器化すると警告されています。
  • 人はロジスティクスから美学・ブランド設計へ役割が上がり、日常的にアートディレクションが必要になると示唆されています。
  • どこにAIを使わないかという「抑制の戦略」が富を生むと指摘されています。
  • 計算資源の地理的裁定取引(GPU版Airbnb)が巨大市場になると予測されています。
  • ニッチで検証済みのデータ資産がサプライチェーンの要となり、データ獲得競争が加速すると論じられています。
  • VCは計算資源配分とデータ倉庫機能を併せ持つハイブリッド化が進むと見込まれています。
  • 個人AGI到来で「万能AIサブスク」に集約し、スーパーアプリが兆ドル企業になる可能性があると示されています。
  • 既存産業の再梱包(AI会計士・AI仲介・AI物流など)から大型ユニコーンが生まれると予測されています。
  • モバイルUIはタップ中心から「チャット+カメラ」中心へ移行し、アプリ時代からエージェント時代へ移ると説明されています。
  • バックエンドではなく顧客接点(インターフェース)を押さえる企業が価値を握ると強調されています。
  • 縦型メディアと縦型SaaSが融合し、メディアとプロダクトの境界が消えると述べられています。
  • 一貫性より実験速度が成果を生み、テストの反復が複利を生むと提案されています。
  • 製品は「著者性」を帯び、創業者は自動化のクリエイティブ・ディレクターになると示されています。
  • 規制は気候政策のように遅く抜け穴だらけとなり、計算資源を石油のように扱う国へイノベーションが移ると予測されています。
  • 公開フィードは雑踏化し、AIがキュレートするプライベートコミュニティが実質的なウェブになると見込まれています。
  • 完全自律型スタートアップが3年以内に登場し、従業員ゼロで利益を生む可能性があると主張されています。
  • 2026–2029年は初期インターネット期に匹敵し、許可や大資本がなくても価値あるものを作れば勝てると鼓舞しています。
  • モバイルアプリは「生き生きと対話し記憶する」体験へ進化し、静的UIは時代遅れに感じられると予見されています。
  • 次の富は「配信=レバレッジ」「審美眼=戦略」「AI=インフラ」を理解した人に集まると結論づけられています。

The Secrets of Claude Code From the Engineers Who Built It - YouTube

The Secrets of Claude Code From the Engineers Who Built It

Thread by @tmiyatake1 - X (formerly Twitter)

Tetsuro Miyatake on X Carta上のデータによると、今年は50%以上のシードとSeries Aの調達額を連続起業家が占めた(案件数の割合だと35%)。 比較すると2019年だと代替21%の調達額と22%の調達件数だったので、かなり連続起業家への比重が高まっている。 httpst.coTOKSo0fQYf X

Sakana AI 秋葉氏が解き明かす、「本番で戦えるAIエージェントの作り方」W&B Fully Connected公演 - Zenn

link 🔗

  • Repeated Samplingを用いて同一プロンプトで多数生成し、検証器で最良解を選ぶことで性能を大幅に引き上げます。
  • AB-MCTSで「広く探索(go wide)」と「深く改良(go deep)」を状況適応的に切り替え、探索効率と品質を両立させます。
  • 異なるLLMを動的に組み合わせることで、単一モデルを上回る堅牢性と性能を獲得します。
  • 専門知識をプロンプトに具体化し、タスク固有の手順をワークフローとしてコード化し、評価軸をルーブリックとして明文化します。
  • ルーブリックによりLLM-as-a-Judgeの精度が安定し、推論時スケーリングと組み合わせて高品質な自動選別が可能になります。
  • 実例として、AIが研究から論文化まで実施する「AI Scientist」、最適化アルゴリズム設計の「AE-Agent」、自己進化する「ShinkaEvolve」が専門家ベンチや実競技で有効性を示しました。

Thread by @Kimi_Moonshot - X (formerly Twitter)

Kimi.ai on X Kimi Linear Tech Report is dropped! 🚀 httpst.coLwNB2sQnzM Kimi Linear A novel architecture that outperforms full attention with faster speeds and better performance—ready to serve as a drop-in replacement for full attention, featur

Amazonやソフトバンクが注目 「フィジカルAI」が分かる10選 - 日本経済新聞 - 日本経済新聞社

link 🔗

Traffic is no longer a reliable growth metric - Kyle Poyar’s Growth Unhinged

link 🔗

  • 合計トラフィックは質を反映しないため、可視性・理解度・転換を日次〜週次で追い、品質指標を主軸に据える必要があると述べています。
  • LLM由来の流入はChatGPTが圧倒的であり、まずChatGPT最適化に注力することが推奨されています。
  • SEOとAEOは対立せず連続しており、構造・品質・速度・権威性といったSEO基盤の上で「LLMに理解・参照される」最適化が必要だと説明しています。
  • AI検索はクエリ毎に結果が再計算されるため変動が激しく、継続的な言及・引用・新鮮な更新で順位を稼ぎ直す発想が重要だと強調しています。
  • 計測は「可視性(LLMでの露出・引用)」「理解度(LLMがどう説明するか)」「転換(速度と率)」の三層で設計することが有効だと提案しています。
  • llms.txtは現時点で効果が確認できず、コンテンツ最適化を優先すべきだと示しています。
  • Redditは依然として強い可視性シグナルであり、ブランドではなく人としての参加、意図的なコミュニティ運用、洞察の採掘が有効だと述べています。
  • 実践タクティクスとして「更新の自動化」「ウェビナーの多面展開」「FAQとスキーマの自動生成」が短期で効果を出しやすいと紹介しています。

Pipelex/pipelex: Pipelex: open-source language for AI Agents to create and run repeatable AI workflows - GitHub

link 🔗

Jerome Powell says the AI hiring apocalypse is real: ‘Job creation is pretty close to zero.’ - Fortune

link 🔗

  • パウエル議長は「統計の過大計上を調整すると、雇用創出はほぼゼロ」と述べ、労働市場の下振れを強調しました。
  • 企業はAIと自動化で生産性を高め、採用凍結やレイオフを実施しており、AIを理由にした人員削減の発表が相次いでいます。
  • FRBは景気の下支えを優先し、政策金利を0.25ポイント引き下げて3.75%〜4%にしましたが、インフレ上振れリスクとの板挟みが続いています。
  • データセンターなどAI関連の設備投資は堅調で、長期の生産性向上を見込む投資は金利に鈍感だと指摘しました。
  • 現在のAIブームはドットコム期と異なり、投資主体が収益を伴っているため「バブル」とは言い切れないと述べました。
  • 雇用は弱いがGDPはプラスという「二面性」が生じ、政策判断が難しくなっています。
  • 所得階層で景気の体感が分かれる「K字型」傾向が強まり、低所得層は支出を絞り、富裕層は消費を維持しています。
  • 今年の米国でのレイオフは約94.6万人、うちAI・自動化が少なくとも3.7万人超に関連し、若年層の就職難が顕著です。

‘Disposable apps’ are the hot new thing in tech, as AI makes coding easier and quicker - Business Insider

link 🔗

  • AIコーディングツールの進化により、アプリの初期開発コストと時間が大幅に下がりました。
  • 一度きりの会議、旅行計画、データの可視化など、短期ニーズに合わせた小規模アプリを即時に作成できます。
  • Vercelのv0などを使うと、CSVやスプレッドシートから即座にインタラクティブなダッシュボードを生成できます。
  • ハッカソンの案内、旅行の行程管理、社内カウント用のツールなど、実例が増えています。
  • 「使い捨て」とはいえ、継続的な価値があればそのまま常用ツールとして残す柔軟性があります。

Rethinking async loops in JavaScript - Matt Smith - @allthingssmitty

link 🔗

  • for…of の中で await を使うと逐次実行になり、独立したリクエストでは遅くなるため、必要なときだけ使います。
  • map() 内で async を返すと配列は Promise の配列になり、結果はすぐ得られないため、await Promise.all(…) でまとめて待機します。
  • Promise.all() は一つでも失敗すると全体が reject になるため、部分成功を扱いたい場合は Promise.allSettled() を使います。
  • 例外を個別に握りつぶしてフォールバックする場合は、map 内で try/catch を行い、Promise.all() と組み合わせます。
  • forEach() に async/await を入れてもループは待機しないため、for…of か Promise.all() を必ず使います。
  • API 制限や負荷制御が必要な場合は p-limit などで同時実行数を制限して、スピードと安全性のバランスを取ります。
  • 用途別指針は「順序が必要なら for…of」「速度重視なら Promise.all」「安全重視なら allSettled/try-catch」「バランスは p-limit」です。

Inside Amazon’s Engineering Culture: Lessons from Their Senior Principals - Olshansky’s Newsletter

link 🔗

  • アマゾンは「目的(Mission)・構造(Role clarity)・集中(Craft)」の3本柱で組織運営を行い、スケール時の意思決定の質を維持しました。
  • 役割の明確化が徹底され、Senior Principal Engineerは「何をやるかを定めて実現し」、Directorは「実行のための障害を取り除き」、VPは「一方向(不可逆)の意思決定を担う」と説明しました。
  • 意思決定は「一方向(One-way door)は上から慎重に」「可逆(Two-way door)は現場から迅速に」という運用でスピードと安全性を両立しました。
  • 顧客への執着があらゆる技術的トレードオフの制約条件として機能し、福利厚生などの話題よりもクラフトの質が優先されました。
  • ミッションドリブンな仕事観が強く、宇宙分野(Project Kuiper、JPL、Blue Origin)などで長期・高難度課題に私企業の資源と規律で挑む姿勢が共有されました。
  • 採用やプロダクト終了、主要顧客の扱いなどは「一方向の意思決定」として扱われ、文化や組織構造に不可逆の影響を与えるものとして重視されました。
  • 文化はスローガンではなく日々の意思決定の積み重ねで維持され、「好奇心・明瞭さ・実行」の3要素が基盤として強調されました。
  • 現場の一部ではAIツールの採用がまだ遅く、エンジニアリングにおける活用余地が大きいという示唆が示されました。

High Agency Matters - Addy Osmani

link 🔗

  • エージェンシーとは、自分の状況を変えられると信じ、責任を持って行動し結果を動かす姿勢を指すと記事は説明しました。
  • 知能は役立ちますが、行動がなければ価値を生まず、実社会では行動バイアスが高い人が最終的に成果を出すと述べました。
  • 高知能は分析麻痺や失敗回避の固定観念を誘発し、実行を遅らせる落とし穴になり得ると指摘しました。
  • 学校や大組織は従順さを評価しがちで、主体性を育てにくいため、エージェンシーは希少で価値が高いと整理しました。
  • AI時代ほど人間の差は主体性で開き、同じツールを使っても能動的に試す人が大きな成果を生むと論じました。
  • エンジニアリングでは「Ownership」と「Bias for Action」が10倍の差を生み、仕様待ちではなく課題を見つけて動く人が評価されると強調しました。
  • 採用では学歴やIQだけでなく、率先して動いた具体例や内的統制感を重視するべきだと提案しました。
  • 主体性は訓練可能であり、小さな行動選好、自己課題設定、失敗の学習化、環境づくり、適度な「イエス」、定期的な振り返りで伸ばせると示しました。

Agentic AI and Security - martinfowler.com

link 🔗

  • LLMは「文書を最尤に補完する装置」であり、データ中の指示も実行候補として解釈してしまうため、コンテンツと命令を厳密に区別できないことを理解します。
  • 「致死の三点セット(Lethal Trifecta)」として、機密データへのアクセス・不審コンテンツへの曝露・外部通信の能力が同時に満たされると、漏えい・不正実行・持ち出しが連鎖し、攻撃が成立しやすくなることを認識します。
  • 機密データを最小化するために、資格情報をファイルで保持せず環境変数やシークレットツールを活用し、トークン権限を最小化し、MCPやブラウザ自動化の権限を絞り込みます。
  • 外部通信を制限するために、投稿・コメント・公開ドキュメント作成などの「見えにくい公開経路」を洗い出し、ネットワークの許可リストとファイアウォールで送信先を限定します。
  • 不審コンテンツの取り込みを抑えるために、読む情報源を許可リストで管理し、一般公開のチケット・掲示板・任意Webを安易に読ませないようにします。
  • LLM搭載ブラウザや拡張は三条件を同時に満たしやすく、資格情報やCookieを扱う構成を避け、どうしても使う場合は完全に分離された無認証・サンドボックス実行に限定します。
  • サンドボックス(特にコンテナ)でLLMやMCPを実行し、ファイル・ネットワーク・プロセス権限を細かく制御しつつ、許可ドメインの厳格なリストで外部アクセスを絞ります。
  • タスク分割(Think/Research/Plan/Act)により、各ステージの権限・データ・通信を切り分け、致死の三点セットが同時に成立しないように運用します。
  • 人間が常に出力とツール実行を確認し、長時間・広権限の処理は隔離環境で回し、成果物をレビューして不正命令・改ざん・幻覚を検出します。
  • 従来の供給網リスクも増大しているため、MCPや拡張・サンプルコードの出所・メンテ状況・ライセンス・データ送信の有無を精査し、公式レジストリも盲信せず確認します。

The future of the web is the history of YouTube - a16z

link 🔗

  • YouTubeは「クリエイティブ制作」と「マイクロビジネス運営」を一本化し、動画の長い尾を商業的に成立させました。
  • LLMとコードエージェントは「誰でも作れる」の範囲を開発者から一般人へ拡張し、ウェブはソフトウェア不足だったと振り返る時代をつくります。
  • 大規模市場に届かないニッチアプリでも、低コスト(例: 月額$200程度)で制作・収益化が可能になりました。
  • コンテンツ層・コマース層・アプリ層のうち、LLMは特にアプリ層を「見せる=遊べる」コンテンツ化し、逆にコンテンツはLLMというアプリで消費される形に再編します。
  • 収益や配信の主導権が、既存プラットフォームや大企業から、個人や少人数チームへシフトします。
  • 成功する制作者像は「開発者」よりも「YouTuber的プロフェッショナル」に近づき、作る・届ける・共創する能力(ショービジネス的スキル)が重要になります。
  • 既存の開発者や投資家は、この「雰囲気コード(vibe coded)なアプリ」を軽視しがちで、用途や価値を誤解するリスクがあります。
  • 具体例として、Replitやv0、Lovable、Figma Make、Bolt、Base44、Wabiなどが、個人発アプリの試作・公開・課金を加速させています。
  • LLMによるクローリングと回答の前面化は、従来のトラフィック配分を変え、Cloudflareのペイ・パー・クロールやx402のような新しい対価モデルを促します。
  • ソフトウェアは巨大売上を前提にしなくても存在意義を持ち、パーソナルで小さなコミュニティ向けの「良いアイデア」が十分に成立します。

Thoughts on the AI buildout - Dwarkesh Podcast

link 🔗

  • Nvidiaの収益規模がTSMCや装置産業の累計投資を上回り、半導体製造のCapEx不足(fab CapEx overhang)が生じていると指摘しました。
  • データセンターの総コストはチップが圧倒し、建屋や電力よりも「とにかく早く稼働させる」ことが最優先だと整理しました。
  • 上流(変圧器・開閉器・銅線・タービン等)の供給能力が不足し、長寿命投資の回収不安が増す中で、ハイパースケーラーが高マージンで前倒し増産を促す余地があると論じました。
  • 労働力(電工・HVAC・鉄骨・重機オペ等)が最も逼迫し、100GW級の増設には数十万規模の追加人員が必要になり得ると試算しました。
  • 2030年に向けた年¥60兆超($400B)のAI投資が正当化されるには、同等規模の年商が見込める製品化(エージェント・広告等)が必要だと整理しました。
  • リードタイムの観点から、現行世代の原子力よりもガスタービンやオンサイト発電が優先され、系統連系待ちを避けるための「オフグリッド化」が進む可能性を示しました。
  • 中規模(100MW)散在型DCとギガワット級の巨大DCという二極化シナリオを提示し、前者は系統余剰の吸収、後者は垂直統合・量産化に適すると整理しました。
  • 週1GWを実現するには、配線済みラックや冷却・電力を含むモジュールの工場大量生産へ設計を最適化する必要があると主張しました。
  • 中国は電力増強・送配電機器・太陽光で優位性が高く、長期戦ではインフラ構築力で追い上げる可能性があると警鐘を鳴らしました。
  • 2040年に向け、爆発成長とAIウィンターの二筋書を数値化し、どちらでも電力・供給網・リードタイム管理が鍵になると結論づけました。

Data & AI Infrastructure Are Fusing - Theory Ventures

link 🔗

  • AIは静的なETL→DWH→BIの直線型スタックでは性能を発揮できず、継続的なフィードバックと即時の文脈取得を必要とすると述べています。
  • 具体例として、ATMの数十秒以内の取引反映やNetflixのレコメンドの即時アップデート、Stripeのミリ秒単位の不正検知を紹介しています。
  • 新しいAIスタックは、ベクトルDBでの埋め込みと高次元データ、コンテキストDBでの業務知識、そして実験・評価・RLを回すループで構成されると説明しています。
  • GEPAやDSPyなどの手法を用いて、多面的な品質指標に基づく進化的最適化を行う必要があると指摘しています。
  • データの正確性と速度を担保するため、データ観測とAI観測を統合したエンドツーエンドのオブザーバビリティ層が不可欠だと強調しています。
  • 著者は「収斂ではなく既に融合が起きている」と結論づけ、分離設計の前提を見直すべきだと示唆しています。

社内AIヘルプデスク 正答率80%達成 RAG精度改善の軌跡 | BLOG - DeNA Engineering

link 🔗

  • まず問い合わせのスコープを明確に定義し、目標と評価対象のブレを防ぎました(操作質問・トラブルシュートを対象、作業依頼は除外しました)。
  • AI回答の合格基準を「ユーザーが自己解決できること」とし、AI評価と人間評価の二層で高速・安定に検証しました。
  • AIによる自己採点は「正確性」単一指標の5段階評価に集約し、3点以上を合格としました。
  • テストケース(約100件)をカテゴリ横断で用意し、施策ごとに再評価して継続的に精度を測定しました。
  • 精度低下の原因を検索結果とナレッジ起因で分解し、ナレッジ不足・学習対象外・不要情報混入・ケーススタディ過多・質問文の品質を特定しました。
  • 精度向上の要因は、充実かつ構造化されたマニュアル/トラブルシュートナレッジと、その選定の適切さにあると結論づけました。
  • 学習対象(Confluenceスペース)の削減と絞り込みによりノイズを減らし、回答の一貫性を改善しました。
  • 「良い書き方」のテンプレート化でナレッジの質を底上げし、推論しやすい構造を整えました。
  • 結果として2025年10月時点で正答率80%を達成し、ヘルプデスク負荷を大幅に軽減し、ユーザーの解決時間を短縮しました。

AIがコードを書いてくれるなら、新米エンジニアは何をする? / komekaigi2025 - Speaker Deck

link 🔗

How I Use Every Claude Code Feature - Shrivu’s Substack

link 🔗

  • CLAUDE.mdを“憲法”として扱い、守るべきルールや参照すべき場所を短く明確に記述し、冗長なマニュアル化を避けます
  • 自動コンパクションを過信せず、/clear + /catchup や「Document & Clear」で外部メモを残してから再開します
  • カスタムサブエージェントを乱立させず、Task(…)で一般エージェントのクローンに任せて動的に委譲させます
  • Hooksは“block-at-submit”でテスト合格を強制し、編集途中のブロックは避けて計画完了後に検証します
  • 計画モードを大型変更で必ず使い、実装前に合意形成と検査ポイントを設定します
  • Skillsをスクリプティング層の正式化と捉え、MCPは高権限・状態付き実行などの安全な入口に限定します
  • SDKで並列スクリプト化(大量リファクタ)、社内向けチャットツール化、早期プロトタイピングを行います
  • GitHub ActionsでClaude Codeを実行し、ログ監査と改善ループ(バグ→CLAUDE.md/CLI改善→より良いエージェント)を回します
  • settings.jsonでプロキシ、タイムアウト、APIキー、権限の監査を調整し、デバッグとサンドボックスを強化します
  • スラッシュコマンドは最小限のショートカットに留め、学習コストの高い“魔法一覧”化を避けます

【注意】現代人が「喜べない」病に陥っている - NewsPicks編集部

link 🔗

  • アンヘドニアは「喜びを感じにくい・喜びを求める動機が弱まる」症状であり、診断名というより複数の精神疾患に共通する重要な症状として位置づけられています。
  • うつ病でよく見られますが、うつ病の診断がつかない人にも起こり得ることが強調されています。
  • 症状は、趣味や社交への関心低下、起床や外出の著しいおっくう感、感情の鈍さ、人間関係からの距離取りなどとして現れます。
  • 見過ごされやすい一方で、日常機能の低下、治療反応性の悪化、自殺リスクの上昇と結びつくため、臨床的に重大だと示されています。
  • 原因は単一ではなく、ドーパミンなどの神経伝達物質の機能変化、炎症、遺伝的要因、慢性ストレス(貧困・差別など)が関与する可能性が示されています。
  • SSRIの副作用としての「感情鈍麻」がアンヘドニアに似た状態を引き起こし得ることが注意点として挙げられています。
  • アンヘドニア単独の承認薬は存在しないため、背景疾患(例:うつ病)の治療、睡眠と運動の確保、行動活性化療法などを組み合わせて介入します。
  • 行動活性化療法は「小さく始めて実行する」ことで脳が楽しさを再学習し、動機づけが回復していくことを狙います。
  • 自分に当てはまると感じた場合は自己判断で放置せず、精神医療の専門家に早めに相談することが推奨されています。

【過酷】SaaSスタートアップのCEOが語る、資金調達のリアル - NewsPicks編集部

link 🔗

  • 東証グロースの改革により上場維持基準が強化され、VCは時価総額200億円を目安に投資可否を判断するようになりました。
  • ミドル〜アーリーレイターは資金の「深い崖」に直面し、新規投資家の獲得が難しくなったため既存投資家中心の調達に回帰しました。
  • SaaSのARRマルチプルは約10倍から約5倍に低下し、単機能SaaSは成長期待が乏しいと見なされやすくなりました。
  • 「言ったことをやり切る」実行検証が厳格化し、夢物語より現実的な成長計画とコントロールされた赤字が重視されました。
  • デットは出し手が増えて調達しやすくなり、ワラント付きベンチャーデットを含めて、エクイティよりも資本コストが低い場合が増えました。
  • キャッシュアウト抑制と人員増の慎重運用が評価され、短期の計画達成度(3〜6カ月)に対する問われ方が強まりました。
  • M&Aは成長手段として評価が上昇し、PMI経験と連結決算を扱える経理体制などの実務能力が重要になりました。
  • 起業家側の実力不足も課題とされ、より大きな時価総額での上場とリターン創出が求められています。
  • プライム市場の改革浸透により流動性の質が改善し、2年程度の中期でグロース市場に資金回帰の可能性があると強気に見ています。

【実録】「AIガチ勢」SHIFTに学ぶ、AI活用術(前編) - NewsPicks編集部

link 🔗

  • 汎用チャット型AIの“使い方がわからない”障壁を、用途別UI「天才くん」で解消しましたと明言しました。
  • 社員が普段使うポータルや業務フローにAIを埋め込み、意識せず使える状態を設計しましたと説明しました。
  • 営業と人事に優先投入し、休眠顧客メールのCVを約1%未満から約7%へ引き上げましたと示しました。
  • ノーコードで現場が機能を自作し、約1500の「天才くん」を内製拡大しましたと述べました。
  • 年齢層に関係なく利用率が高まり、全社平均約89.9%、65歳以上で約94.7%を達成しましたと共有しました。
  • 用途に応じてAzureやClaude、Geminiなど最適モデルを裏側で自動選択し、ユーザーは意識せず最良のAIを使えましたと説明しました。

Emergent introspective awareness in large language models - @AnthropicAI

link 🔗

  • 研究は「概念注入(concept injection)」により、モデル内部の特定の活性化パターンを別文脈に埋め込み、モデルがそれを“内部で起きた異常”として認識・言語報告できるかを検証しました。
  • 成功例では、モデルが注入概念を言及する前に「何か不自然な注入がある」と自己報告し、単なる誘導出力ではなく内的検知が働いている可能性を示しました。
  • 成功率は高くなく、最良プロトコルでもOpus 4.1で約20%程度にとどまり、強度が弱すぎると未検知、強すぎると幻覚や混乱が増えました。
  • 「prefill(強制出力)」の異常検知では、直前の内部“意図”と実際の出力の不一致を参照して謝罪したり正当化を変えたりし、内的状態を照合して判断している可能性が示唆されました。
  • 指示やインセンティブ(ごほうび/罰)の提示によって、特定概念の内部表現の強度をモデルが能動的に上下できる兆候が観測され、限定的な内的制御能力が示されました。
  • 高性能モデル(Claude Opus 4/4.1)が他より良好な成績を示し、ポストトレーニングの違い(“helpful-only”の方が積極的に自己報告する傾向)も影響しました。
  • ただし、この内省能力は不安定で限定的であり、人間の内省と同等と結論づけられる段階ではなく、誤検出や取り違え、作話も頻発しました。
  • 実践的意義として、将来的に自己チェックによる透明性・デバッグ改善が期待される一方、内省報告の検証法や欺瞞・取りこぼし検出手法の確立が不可欠だと述べられました。

browseros-ai/BrowserOS: 🌐 The open-source Agentic browser; privacy-first alternative to ChatGPT Atlas, Perplexity Comet, Dia. - GitHub

link 🔗

製造業特化のAIエージェント機能で工数削減 / 属人化解消を実現 専門業務を自動化する「技術探索/特許調査エージェント」を『Aconnect』に新搭載 - ストックマーク株式会社

link 🔗

  • 製造業向けAI『Aconnect』に「技術探索エージェント」「特許調査エージェント」を2025年10月30日から搭載しました
  • 技術探索エージェントは論文・ニュースから解決アプローチを抽出し、ロジックツリーUIで網羅性を可視化しながら検討を支援します
  • 特許調査エージェントは開発予定技術を分解し構成要素を自動抽出し、関連特許の一致度を根拠付きで評価し、優先調査対象を直感的に提示します
  • 調査業務の工数削減と品質向上により、技術者が実験・試作などのコア業務へ集中できる環境を実現します
  • ベテラン依存を緩和し、若手でも高水準の調査を再現できるため、組織のスキル平準化と開発スピード向上に寄与します
  • 事例コメント(IHIプラント):公開特許の関連性確認の自動化と精度向上に効果を見込み、属人業務の負荷分散と抜け漏れリスク低減を期待しています

就職せずに自己資本でクラスメソッドを起業して21年掛けて年商950億円になった話 - Speaker Deck

link 🔗

ボトムアップの生成AI活用を推進する社内AIエージェント開発 - Speaker Deck

link 🔗

進化する大規模言語モデル評価: Swallowプロジェクトにおける実践と知見 - Speaker Deck

link 🔗

The Gen AI Playbook for Organizations - Harvard Business Review

link 🔗

  • 生成AIの議論を「どれだけ賢いか」から「どのタスクで有用か」に切り替えるべきだと提案しました
  • タスク適合性は「誤りコスト(低/高)」と「知識タイプ(明示/暗黙)」の2軸で判断するべきだと説明しました
  • 低コスト×明示知識ではAIに任せ切りにして速度と規模のメリットを獲得するべきだと述べました
  • 低コスト×暗黙知識ではAIを創造の触媒として使い、人間が選択・最終判断を行うべきだと示しました
  • 高コスト×明示知識ではAIが下書きや分析を担い、人間が検証・責任を負う体制を整えるべきだと指摘しました
  • 高コスト×暗黙知識では人間主導を貫き、AIは補助に限定するべきだと強調しました
  • 全員が自分の仕事を分解し、各タスクを4象限にマッピングして採用順序を決めるべきだと提案しました
  • 「アクセスのパラドックス」により同質的活用では価値が外部に流出すると警告しました
  • 優位性の源泉は①迅速・選択的導入、②自社データとプロセス整流化、③人・プロセス・文化の補完資産にあると整理しました
  • ITの過剰ガードで全社実験を止めず、重大リスクに絞ったガバナンスで現場の試行を促進するべきだと助言しました
  • データの集約・整備を今すぐ開始し、学習ループ(実験→計測→改善)を組織設計に組み込むべきだと訴えました
  • AIで浮いた時間を可視化し再配分しないとP/Lに現れないため、目標設定とインセンティブを紐付けるべきだと述べました
  • 近未来の競争相手はAIを梃子にした少数精鋭やソロ起業家になるため、業務と組織の再設計を前提に準備するべきだと示しました

Lessons from Market Crashes Past - Harvard Business Review

link 🔗

  • 1929年の大暴落は1907年危機に先行事例があり、2008年危機とも多くの共通点があることを示しました。
  • ナショナリズムの高まりや移民抑制、技術による職の置き換えといった社会的背景が、1920年代と2020年代で響き合っていることを指摘しました。
  • アンドリュー・ロス・ソーキンの新著『1929』は、人物同士の会議や駆け引きをドラマ仕立てで描き、歴史の臨場感を通じて危機の連鎖を理解しやすくしました。
  • ナショナル・シティ銀行のミッチェルやリーマンのフルドのケースを通じ、流動性危機と信用不安が連鎖的に崩壊を招く典型パターンを描写しました。
  • 書籍は緻密な経済分析や処方箋を主題にせず、危機の根底にあるのは「人間の性向(強欲、過信、群集心理)」だと結論づけました。
  • 教訓として経営者や投資家が取るべき姿勢は、万能な規制や予測への依存ではなく、リスクに対する謙虚さと流動性管理の徹底だと示しました。

What are AI Agents? - ByteByteGo Newsletter

link 🔗

  • AIエージェントは「環境を知覚し、意思決定し、行動して、結果を観察して次へ活かす」ループで自律的に目標達成を目指します。
  • 4つの特性(自律性・反応性・能動性・社会性)がエージェントらしさを規定し、複雑なマルチステップ作業を可能にします。
  • LLM(大規模言語モデル)が「頭脳」となり、検索/API/計算/コード実行/データベースなど外部ツールを適切に呼び出して能力を拡張します。
  • エージェントは単純→高度へと段階があり、用途に応じて使い分けることが重要です(単純反射型→モデルベース→ゴールベース→効用ベース→学習型)。
  • 観察と適応のループにより、計画を状況に合わせて修正し、現実世界の不確実性に対処します。
  • 学習型エージェントは経験から方針を改善し、時間とともに応答品質や戦略を洗練させます。
  • 実務ではレポート作成、旅行計画、面接準備、顧客対応、ワークフロー連携などで効果を発揮し、開発者の仕事様式も「共創」へと変わります。

Directives and the Platform Boundary | TanStack Blog - Tanner Linsley

link 🔗

  • フレームワーク独自の ‘use client’ や ‘use server’ といったディレクティブは標準JavaScriptではなく、ランタイムやツールが理解しないため、言語機能に見えても実際はベンダー仕様であることを理解する必要があります。
  • ディレクティブは由来やバージョンが分からず、オプションが載せにくいため、現実的な要件(認可、キャッシュ戦略、トレース、HTTPポリシーなど)を扱うには不向きであると認識することが重要です。
  • 同じ見た目のディレクティブが各フレームワークで意味逸脱を起こすと、可搬性低下とツールチェーンの特殊対応が発生するため、共有シンタックスに共有契約がない状態を避ける必要があります。
  • インポートされるAPI(例: import { cache } from ‘next/cache’)は、由来・バージョン・型・テスト容易性を提供し、変換やマクロで同等の最適化をしても「フレームワーク空間」に留められるため、選好すべき設計だと説明されています。
  • ディレクティブは短期的なDX向上に見えても、学習者に「それがJavaScriptだ」という誤解を与え、標準策定プロセス外で期待値を固定化させるリスクがある点に注意が必要です。
  • もし本当に共通プリミティブが必要であれば、クロスフレームワークな仕様化とTC39提案を進め、非標準の機能はAPI空間に限定して提供することが推奨されています。

Write Rust-like code in TypeScript - Andrew Israel

link 🔗

  • RustのResultと豊かなenumモデリングを、フロントまで貫く設計を採用しました
  • ts_rsでRustのstruct/enumからTypeScript型を自動生成し、serdeの命名規則にも追従させました
  • 内部エラー(詳細・技術的)と外部エラー(FEに渡すJSON)の二層設計を行い、Fromで変換を実装しました
  • フロント側は { ok: true, data } | { ok: false, error } のResult風ラッパーで受け取り、判別共用体で分岐しました
  • 新たなエラーVariant追加時にフロントのマッチ箇所がビルドエラーになるよう、網羅性チェック(assertNeverやmatchヘルパ)で担保しました
  • ルートごとのクライアント関数生成はLLMに差分追加させ、人間がレビュー可能な粒度に留めました
  • OpenAPIやgRPCのスキーマ管理を避け、Rust中心のDXを維持する方針を取りました
  • 冗長さはあるものの、可読性・追跡可能性・安全性の向上でトレードオフに見合うと判断しました

vue-command -

link 🔗

Introducing Perplexity Patents: AI-Powered Patent Search for Everyone - Perplexity

link 🔗

  • キーワード調整や専門的な検索構文に頼らず、自然言語の質問だけで特許調査を進められることを打ち出しました。
  • 会話型のインターフェースにより、追質問で文脈を引き継いだ深掘りや比較検討をスムーズに進められるようにしました。
  • 類義表現や概念の近さを捉える検索で、「フィットネストラッカー」以外の「活動量計バンド」なども網羅し、見落としを減らしました。
  • 特許文献だけに限定せず、必要に応じて論文、OSSリポジトリ、ウェブ情報も探索し、最新の先行技術やトレンドを把握できるようにしました。
  • エージェント型の研究システムが問い合わせを細分化し、特許向け知識インデックスと大規模検索基盤で数十〜数百件の裏付けを収集して回答を提示しました。
  • 引用重視の設計により、インラインビューアや原文リンクを通じて根拠を即座に確認できるようにしました。
  • ベータ版として世界に向けて無料提供を開始し、Pro/Maxは利用枠拡大やモデル設定の追加オプションを利用できるようにしました。

How we built OWL, the new architecture behind our ChatGPT-based browser, Atlas - Ken Rockot, Ben Goodger

link 🔗

  • AtlasはChromiumを直接「埋め込む」のではなく、OWL(OpenAI’s Web Layer)として別プロセスに分離して動かしました。
  • OWLはAtlas本体(SwiftUI/AppKit)とChromium側(OWL Host)をMojo IPCで接続し、Swift/TypeScript向けバインディングを実装しました。
  • この分離により、Atlasは起動を非同期化して表示を即時化し、Chromiumのハングやクラッシュがあってもアプリ全体が落ちないようにしました。
  • UIはChromiumの既存UXを「スキン変更」せず、SwiftUI/Metalで全面再構築し、リッチなアニメーションやAgentモードに最適化しました。
  • WebView描画はCALayer/AcceleratedWidgetを用いた委譲レンダリングで実現し、ポップアップ(