Zennの「LLM」のフィード
フィード

[Kotlin] JetBrains公式AIエージェント"Koog"の0.4.0出たから触る
1

Zennの「LLM」のフィード
はじめにスマートラウンドで野生のAIエンジニアをやっている福本です🐈普段はLangChainやMastraを使ったAIワークフロー/エージェントの新規開発や運用をやっています。JetBrainsが公式で提供するAIエージェント開発フレームワークKoogが発表され、それに関する以下の記事を書きました📝https://zenn.dev/smartround_dev/articles/9faa2d870b15b2この記事を書いたときのバージョンは記事に記載の通り0.3.0だったのですが、8/28に0.4.0がリリースされました。 時が経つのがはやい(爺)。https://blo...
13時間前

なぜ、AGIの登場は今から30年後くらいになるのか?
Zennの「LLM」のフィード
はじめに近年、生成AI(特に大規模言語モデル:LLM)の進化は目覚ましく、さまざまな分野で実用化が進んでいます。その圧倒的な性能向上を目の当たりにして、「このまま進化を続ければ、人間と同等の汎用人工知能(AGI)が数年以内に誕生するのではないか」と考える人も少なくありません。しかし実際には、現在のLLMは急峻な成長曲線の立ち上がりを終え、すでに飽和領域に差しかかっていると考えられます。本稿では、なぜAGIの登場が今からおよそ30年後になると予想できるのかについて、以下の観点から論じます。LLMの構造的限界強化学習と自己改善の欠如資源制約技術史的なパラダイム転換周期...
15時間前

Anthropicに学ぶ:AIエージェント向けツール設計の5原則
3

Zennの「LLM」のフィード
これはなに?Xでも絶賛しましたが、Anthropicが発表した "Writing effective tools for agents — with agents" という記事が素晴らしい内容でした。その中でも特に「Principles for writing effective tools (効果的なツールを作成するための原則)」のセクションが実践的な内容だったので、AIエージェント向けツールを実装するときの社内ガイドラインとしても使えるように抜き出して簡潔にまとめてみました。以下の5つの原則としてまとめてあります。AIの特性に合わせたツール設計をしようツール名を体系的...
16時間前

Google CloudのModel ArmorのテンプレートをTerraformで記述してみた
Zennの「LLM」のフィード
今回はGoogle CloudのSecurity Command Centerで提供されているModel Armorについて、Terraformを利用してテンプレートを作成してみました。なお、内容については前回コンソール画面上で作成した設定を再現する形で実装してみます。https://zenn.dev/akasan/articles/7ce40551040ccc 早速実装してみる Model Armorのリソースについて今回は以下のgoogle_model_armor_templateを利用してModel Armorのテンプレートを実装します。https://registr...
1日前

LLMとの協働開発で1日427ファイル爆発!? - AI時代の情報管理術
Zennの「LLM」のフィード
LLMとの協働開発で1日427ファイル爆発!? - AI時代の情報管理術 はじめに - 笑えない現実「今日も順調にAIと開発してるな〜」と思っていたら、気づけば1日で427個のマークダウンファイルが生成されていました。$ find . -name "*.md" | wc -l427AI駆動開発あるあるですね...笑最近いくつかのプロジェクトでエージェント型AI駆動開発を続けてきましたが、毎回この「情報爆発問題」に悩まされてきました。この記事ではその対策メモを残します。この記事も、基本的にClaudeCodeに書いてもらってます🤖(なので、一部ワイのことディスってん...
1日前

【dataiku】ノーコードで販売管理チャットボットを作ってみた②
Zennの「LLM」のフィード
kobayashiです。ブログをお引越ししてZennで初投稿します!結構時間が経ってしまったのですが、dataikuで販売管理チャットボットを作ってみた①の続きです。https://blog.truestar.co.jp/dataiku/20250704/63399/ 振り返り前回はOFFICE de YASAIという社食販売システムのデータをdataikuのWebapp機能を用いて「OFFICE de YASAI チャットボット」を作成しましたが、精度が悪く改良を試みていました。今回はうまく回答できるようになったので、何を修正したのかご紹介します。うまく回答できている例...
2日前

Qwen3-Next:究極のトレーニング・推論効率へ
Zennの「LLM」のフィード
Qwen3-Next:究極のトレーニング・推論効率へ公開日:2025年9月11日著者:Qwenチーム元ブログ:https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list一言で言うと:Qwen3-Nextは、800億パラメータながら推論時にわずか30億パラメータしか使わない超効率モデル。長文処理(最大256Kトークン)で10倍以上の高速化を実現し、Qwen3-235Bクラスの性能を1/10以下のトレーニングコストで達成...
2日前

RAGは数値を正しく認識できるのか?
17

Zennの「LLM」のフィード
導入こんにちは、株式会社ナレッジセンスの須藤英寿です。今回は、RAGで数値情報を正しく認識できるのかを調査した論文を紹介します。https://arxiv.org/pdf/2509.05691 サマリーRAGはユーザーの質問に対して、意味的な類似度から関連性の高い情報を検索して、ユーザーの質問に回答します。この意味的な類似度の検索がRAGの技術を支えていますが、その性能に関しては様々なベンチマークが乱立しており、体系的に把握されていないことも多く存在します。今回は、数値にフォーカスして、RAGが正確に数値を把握できているかの調査結果とその分析をしていきます。課題意識...
2日前

AIエージェント設計の3つのアプローチ:プレイブック・MCP・ハイブリッド型の選択指針
Zennの「LLM」のフィード
新人エンジニアにタスクを任せるとき、詳細な手順書を渡しますか?それとも目標だけ伝えて任せますか?経験豊富な開発者なら、この判断が後のプロジェクト成否を左右することを知っています。AIエージェントでも、まったく同じ判断が求められています。エージェントに厳格な手順を守らせるか、それとも目標達成の方法を自由に考えさせるか——この設計選択が、システムの信頼性、開発効率、そして事業リスクを決定します。現在、この課題に対して3つの主要なアーキテクチャアプローチがあります:プレイブック駆動型:確実な手順を事前定義し、エージェントはその案内役に徹する「制御重視」MCP(Model Cont...
2日前

まだ間に合う!Android端末でオンデバイスLLM入門(MediaPipe + Gemma)
Zennの「LLM」のフィード
9/11,12のDroidKaigi 2025に参加してきました!!https://2025.droidkaigi.jp/今年は特にLLM関連のセッションが印象に残りました。https://2025.droidkaigi.jp/timetable/944464/https://2025.droidkaigi.jp/timetable/945497/全然キャッチアップができておらず初めて学ぶことばかりでしたので、実際に自分でも触ってみようと思います。私と同じように「LLMの情報追えてなかった」「なんか難しそうだな」という方を想定して書いています。カスタマイズや最適化については書...
2日前

なぜ、LLM AIは「システム2」がスカスカな「システム1」のお化けなのか?
Zennの「LLM」のフィード
はじめに近年、生成系AI、特に大規模言語モデル(LLM: Large Language Model)が社会に与える影響は急速に拡大しています。ChatGPTをはじめとするモデルは、日常会話からプログラミング支援、教育、ビジネス分析に至るまで多様な領域で活用され、その知識量や反応速度に驚嘆する人は少なくありません。とりわけ、GPT-5の登場によって日本の芸能やマイナーなアニメ作品に関する知識まで網羅され、まるで「百科事典を超えた即答機械」と化しています。しかし、冷静にその本質を考えると、LLMの仕組みは「人間のシステム1を極限まで肥大化させた存在」であり、システム2にあたる批判的思...
2日前

AgentCLIを作る方法
Zennの「LLM」のフィード
Agent CLI使っていますか?Claude Code Codex Gemini CLIと世界はターミナルの世界に回帰して激戦区になっていますね。Claude Codeエディタ連携や対話主導のコーディング体験で知られる系統です。CLI/IDE拡張の形で、タスク分解・リファクタ・テスト生成などを対話で進めます。Codexかつてのコードモデルを起点にした自動補完/変換の文脈から、ターミナル操作やスクリプト生成を対話で行うCLIの流儀が広がりました。Gemini CLILLMをローカルの作業文脈(ファイル群・ログ)に接続し、質問→アクション→再質問のループを小回りよく回す...
2日前

HIGH CONTEXT MANAGEMENT
Zennの「LLM」のフィード
結論は、前提で決まる。“正しい決定”は、会議中には生まれない。目的・禁則・適用境界――足場を先に整える。High OutputからHigh Contextへ。組織は軽く、速く、賢く。
2日前

AI共創論:確率的創造【動画で深掘り解説|全6話・随時更新】
Zennの「LLM」のフィード
はじめに:読むから、「聴く」「見る」理解へZennで公開した技術エッセイのもととなった、Noteの連載記事を、随時更新していっています。その記事をNotebookLMで動画解説しましたので、ご興味のある方はご覧ください。このページは、Noteで連載中の各話のテーマについて、著者である私自身が、AI(NotebookLM)と共に、その内容を「動画」で深掘り解説していく、「展示室」です。新しい動画が完成するたびに、この記事は随時更新されていきます。ぜひ、ブックマークして、この探求の旅にお付き合いください。 展示室1:第1話「始まりは、『なぜ、こんなことが起きるのか?』」...
3日前

ポエム-孤独な蒸留とRWKV(07A)の夢
Zennの「LLM」のフィード
孤独な蒸留とRWKVの夢~Transformerに敬意を払いながら、異端の道を歩く記録~ はじめにTransformerは世界を征服した。学術も産業も、誰もがTransformerを中心に動いている。数え切れないほどの論文、無数の実装、飽和するほどのベンチマーク。「Attention is All You Need」――その名の通りだった。少なくとも、この数年間は。僕もその成果を否定するつもりはない。むしろ深い敬意を抱いている。だが、人類の言語理解の未来がそれだけで完結するとも思わない。そして僕は、誰も振り返らないニッチな道を選んでしまった。RWKVという「...
3日前

Grok Code Fast1 の詳細
Zennの「LLM」のフィード
はじめにおそくなりましたが、「Grok Code Fast1」の詳細が xAI から公開されていたので、紹介します。 Grok Code Fast1 の詳細Grok Code Fast1 は、2025/08/27に、Windsurf に突如取り入れられたモデルです。発表当初は、情報がなく謎のモデルでした。2025/08/27に Windsurf に追加されて、翌日の 2025/08/28 に xAI の公式 Web サイトに情報が掲載されたようです。読んでいくと Grok Code Fast1 は、全く新しいモデルアーキテクチャで作られている。各 IDE ベン...
3日前

【Code Reading Agent 開発】探索を簡単にする機能を作りました(フォルダ検索機能)
Zennの「LLM」のフィード
この記事は、以下の記事らへんの続きです。https://zenn.dev/coffeecupjp/articles/89bb2b40ced6ebhttps://zenn.dev/coffeecupjp/articles/09eaa20edcf2c0https://speakerdeck.com/ymbigo/potipotixuan-ze-surudakedeosswodu-meruvscodekuo-zhang-ji-neng これまでの振り返りLLMによるコーディングは、この1年で進化しました。去年5月に自分はOpenDevin(現OpenHands)を使った時は、使い...
3日前

Koog応用編 - イベント駆動とサブグラフでAIエージェントの動作を制御する
Zennの「LLM」のフィード
はじめに前回まで「Koog入門」「Koog実践編」と、KoogでAIエージェントを実装する基本的な方法を学んできました。今回は第3回として、Koogのイベント駆動機能とサブグラフ機能を実際に触りながら、より高度なエージェント制御について学んでいきます。 この記事で試すことKoogには、エージェントの動作を透明化し、複雑な処理を構造化するための2つの重要な機能があるようです。今回はこれらを実際に動かしてみます。 1. EventHandler - エージェント動作の可視化エージェントの内部動作をリアルタイムで監視できる機能とのこと。デバッグに便利そうなので試してみます。...
3日前

CodexとClaude codeの考え方の違いを振る舞いのシミュレートで体験してみる
Zennの「LLM」のフィード
要約Claude codeとCodexの違いについて生成される文章から判断してみるClaude codeは全体をぼんやりみている感じ、一方Codexは局所をスッとみている感じ次の行動が決まっているならcodex、ざっくり戦略を立てるならclaude code(かも) 条件Claude codeはClaude Sonnet 4 で"ultrathink"CodexはReasoning Effortをhighに両方ともvscodeから拡張機能経由で使用複数回同じPromptで入力し、それらをリポジトリにまとめていますが記事内ではピックアップして説明します。 リ...
4日前

なぜ、LLM AIは今後も高知識層にばかり優遇的なツールで有り続けるのか?
Zennの「LLM」のフィード
はじめに大規模言語モデル(Large Language Model: LLM)は、この数年で社会に大きなインパクトを与えてきました。GPT-3.5からGPT-4、GPT-5と進化を遂げ、翻訳、文書作成、プログラミング支援、情報検索など多方面で「実務に耐える道具」として成立するようになったことは確かです。特に知識の整理や文章化といった「収束思考的な作業」においては、LLMは人間を大きく補助することができるようになりました。しかし、現実を冷静に分析すると、この恩恵はすべての人々に均等に分配されているわけではありません。むしろ「知識が豊富で論理的に問いを立てられる人」、すなわち知的水準...
4日前