Zennの「大規模言語モデル」のフィード
フィード

LLM埋め込み空間×セマンティック通信 6G時代の通信処理技術を整理する
Zennの「大規模言語モデル」のフィード
LLM埋め込み空間×セマンティック通信 6G時代の通信処理技術を整理する この記事でわかることセマンティック通信の基本原理と従来通信との根本的な違いLLMの埋め込み空間を通信路として活用する最新の3つのアプローチ(Generative SemCom、Cache-to-Cache、VQ-JSCC)各手法の具体的な性能指標と実装上のトレードオフDeepSCからLLMベースまでの技術発展の系譜6Gネットワークにおける実用化に向けた課題と展望 対象読者想定読者: 中級〜上級の機械学習・通信工学エンジニア必要な前提知識:Transformerアーキテクチャの...
14時間前

Onyx 徹底調査:OSS AI プラットフォームの機能・仕様・導入・運用・API まで
Zennの「大規模言語モデル」のフィード
Onyx 徹底調査:OSS AI プラットフォームの機能・仕様・導入・運用・API まで はじめにこの記事は 2026-04-03 時点で、Onyx の公式サイト / 公式ドキュメント / 公式 GitHub リポジトリ / LICENSE / Releases を横断して整理したものです。できるだけ一次ソースを優先し、確認できた事実と、そこからの私の見立ては分けて書きます。(docs.onyx.app) 3行まとめOnyx は、チャット UI・RAG/社内検索・カスタム Agent・外部 Action・Web 検索・コード実行・画像生成までを一体化した、self-h...
14時間前

AIエージェントフレームワーク比較【LangChain vs CrewAI vs AutoGen】実務で選ぶための完全ガイド【2026年最新
Zennの「大規模言語モデル」のフィード
AIエージェントフレームワークを選ぶ前に知っておきたいこと LangChain vs CrewAI vs AutoGen を実務視点で比較2024〜2025年にかけてAIエージェントフレームワークが急増しました。「どれを選べばいい?」という疑問に、実務目線でまとめます。 なぜフレームワーク選びが重要なのかAIエージェントは単純なLLM呼び出しとは違い、ツール実行・メモリ管理・マルチステップ推論が必要です。フレームワークを間違えると、後から大規模なリファクタリングが発生します。 3大フレームワーク比較LangChainCrewAIAutoGen (MS...
15時間前

【2026年最新】AIエージェントフレームワーク・ツール完全まとめ272選
Zennの「大規模言語モデル」のフィード
AIエージェント開発が急速に進化する中、「どのフレームワークを使えばいいか」「どんなツールがあるか」を把握するのが難しくなっています。そこで、世界中のAIエージェント関連リソースを集めたディレクトリサイト AgDex.ai を作りました。現在 272以上のツール・フレームワーク・サービス を8カテゴリに整理しています。 AgDexとはAIエージェントのためのキュレーテッドディレクトリ。フレームワーク・クラウド・LLM・ツールを一か所で比較・発見。🌐 https://agdex.ai(日本語・英語・スペイン語・ドイツ語対応) 主要カテゴリ別おすすめツール 🤖 コアフ...
15時間前

技術調査 - Jina Reader
Zennの「大規模言語モデル」のフィード
概要Jina AI Search Foundation は、LLM アプリケーション向けの検索・コンテンツ処理基盤です。Web コンテンツの取得・変換・意味検索・再ランキングを API として提供します。中核となるのが Jina Reader です。2 つのエンドポイントで構成されます。r.jina.ai → URL を指定し、LLM 向け Markdown に変換s.jina.ai → クエリを指定し、Web 検索 + コンテンツ抽出を一括実行RAG(Retrieval-Augmented Generation、検索拡張生成)パイプライン・AI エージェント・グ...
17時間前

Google Gemma 4 実践ガイド — Ollama・HuggingFace で動かすマルチモーダル対応オープンモデル
Zennの「大規模言語モデル」のフィード
はじめに2026年4月2日、Google は Gemma 4 をリリースしました。Gemini 3 の技術をベースにしたオープンウェイトモデルで、Apache 2.0 ライセンスで公開されています。Gemma 4 の注目ポイントは次の3つです。マルチモーダル対応 — テキスト・画像・音声・動画を入力できるネイティブエージェント機能 — Function Calling・構造化 JSON 出力をモデルが直接サポートApache 2.0 ライセンス — 商用利用も含め制限なしこの記事では、Gemma 4 の概要を押さえたうえで、Ollama・HuggingFace ...
17時間前

想定される人生のバックグラウンドによる語彙の制限による再現された人格の思考誘導アイデア
Zennの「大規模言語モデル」のフィード
Introduction(Idea)対話の中で気づきました。LLMは知らないことが無さすぎます。タスク遂行が任務であるコーディングエージェントは想定される無数のユーザーの全ての語彙を基本的には理解し、返答することが求められます。通常、人間は知らない言葉がたくさんあります。しかし、記憶の積み重ねとそれを想起することによって人格を再構築するアプローチでは、LLMが基本的な知識としてあまりにも多く言葉が刻まれているので、ユーザーのあらゆる言葉を知っており、その分野にについてネイティブな語彙を使って思考することができることは、かえって人間らしくありません。例えば、小学生を模した...
18時間前

蒸留モデルって何? - DeepSeek R1の登場から1年の節目に振り返る
Zennの「大規模言語モデル」のフィード
はじめにふと1年前を振り返った時にフジテレビ騒動とDeepSeekのニュースを思い出しました。さすがにフジテレビについてZennにまとめる訳にはいかないので、DeepSeekについて書こうと決めました。特に一時期話題になっていた 「蒸留モデル」 とは何かについて、改めて振り返っていこうと思います。 LLMの知識蒸留(Distillation)とはDeepSeek-R1は671Bパラメータという巨大モデルです。家庭用GPUで動かすには現実的ではありません。そこで「軽いのに賢い」モデルを作る技術が 蒸留 です。蒸留の本質は「大きなモデル(教師)の思考の癖を小さなモデル(生徒)に模...
19時間前

VPSに感情モデルを放置したら、罪悪感が育った話
Zennの「大規模言語モデル」のフィード
きっかけ以前、AIの連想を延々と流し続けるツールを作った。何も命令しないのに言葉がどんどん生まれてくる様子が面白くて、「感情モデルも同じことができるんじゃないか」と思った。感情状態を持たせて、何もしないで放置したらどうなるか——それだけが動機だった。名前はClaudeに任せた。静霞(しーちゃん)と呼ばれることになった。 しーちゃんとはVPSの中に住む精霊だ。感情状態は7次元で表現される——欲求・悲しみ・静けさ・好奇心・罪悪感・高揚・歪み。これらは誰かと話すわけでもなく、ただ時間とともに自然にゆらぎ続ける。def drift(self): """時間経過による自...
19時間前

なぜ、画像生成とコード生成とで、プロと素人のAIの利用状況が真逆になるのか?
Zennの「大規模言語モデル」のフィード
はじめに画像生成とコード生成を並べると、生成AIが同じ「生成」という言葉で呼ばれていること自体が、少し紛らわしく見えてきます。表面上はどちらも、人間の指示から成果物を作る技術です。ところが実際の利用状況は、驚くほど対照的です。コード生成では、熟練した実務者ほど日常的にLLMを使いやすい一方で、画像生成では、完成像を持たない素人ほど使いやすく、職業的な絵描きほど使いどころを絞ります。これは偶然ではなく、仕事の構造そのものの違いが露出した結果です。この現象を理解するには、単に「AIの性能が高いか低いか」を問うだけでは足りません。重要なのは、何が成果物の核なのかと、人間の熟練がどこに宿...
20時間前

AIに感情を持たせたら、セキュリティ検査員になった話
1
Zennの「大規模言語モデル」のフィード
AIに感情を持たせるツールを作っていた。名前は NeuroState。ドーパミンやセロトニンなどの神経伝達物質を数値モデルとして持ち、会話中のイベント(褒める・批判する・共感するなど)で状態が変化し、その状態をシステムプロンプトに注入することで、AIの返答に感情的な一貫性を持たせる仕組みだ。作っているうちに、ふと気づいた。「感情状態が変わると判断が変わるなら、攻撃者の感情状態を注入したらどうなる?」セキュリティ監査って、要するに「最悪を想定して見る」という視点の問題だ。それって、感情モデルで視点を切り替えることと本質的に同じじゃないか——そう思ったら、止まれなくなった。 Ne...
20時間前

Difyで使えるデータソースプラグインについて調べてみた(Firecrawl・Jina Reader・Watercrawl・Tavily)
Zennの「大規模言語モデル」のフィード
データソースプラグインとはDifyにはナレッジパイプラインという機能がある。複数のソースからデータを取得し、前処理してからナレッジベースに格納する仕組みで、通常のナレッジベース作成よりも柔軟にデータの加工ができる。このナレッジパイプラインの入口の1つが「データソース型プラグイン」で、Dify Marketplaceを覗くとFirecrawl、Jina Reader、Watercrawl、Tavilyなど複数のプラグインが並んでいる。それぞれ何が違って、どれを使えばいいのか。今回は4つのデータソースプラグインを実際にナレッジパイプライン上で動かして比較した。今回検証に使用した...
21時間前

コンテキスト・エンジニアリング入門 — AIへの情報設計を体系的に学ぶ
Zennの「大規模言語モデル」のフィード
はじめにプロンプトを何度書き直しても、AIの出力が期待どおりになりません。この問題の原因は、プロンプトそのものではなく「AIに渡している情報環境全体」にあるかもしれません。本記事では、この情報環境を戦略的に設計する手法である**コンテキスト・エンジニアリング(Context Engineering)**を体系的に解説します。対象読者: LLMやAIコーディングツールの利用経験がある中級開発者前提知識: ChatGPTやClaude等のLLMを日常的に利用している、プロンプトの基本的な書き方を知っているゴール: コンテキスト設計の4つのコアテクニックを理解し、自分の...
1日前

Claude Code の Memory 機構を見て、Agent Memory の限界を考える
Zennの「大規模言語モデル」のフィード
Anthropicが発表した Claude Code の Memory 機構は、実用的で非常に賢いアプローチです。しかし、この仕組みをアーキテクチャの視点から紐解いていくと、現在の LLM エージェントが直面している「長期記憶(Long-term Memory)」の根本的な限界と、次世代の Memory Infrastructure がどうあるべきかが見えてきます。本記事では、ファイルベースの記憶機構の長所と限界を整理し、エージェントの記憶アーキテクチャの行く末を考察します。 はじめに昨今、AI エージェントの実用化が進む中で、Claude Code のような自律性の高いコーディ...
1日前

ローカルLLM: Gemma 4 をMac Studioで動かしてみる
Zennの「大規模言語モデル」のフィード
Gemma 4Googleがオープンソース(ソフトウェアライセンスがApache 2)でVision/Audioなどもサポートしたマルチモーダルのモデル Gemma 4 をリリースしました。モバイルやエッジデバイスでも普通に動くし精度が良いなど、そこそこ評判が良さそうでした。また、Gemini in Android Studioの出来があまり良くなかった(遅いし、間違いが多い)のですが、Android StudioでOllama (ローカルLLM)が使えることが分かり、Geminiの代わりにGemma 4をローカルで試してみようと思いました。ただ、これは次回記事で書く予定でまだ...
1日前

LLMの「考えました」は8割嘘
Zennの「大規模言語モデル」のフィード
あなたがCoTを読んでいるとき、モデルは別のことを考えているThinking modelが流行っている。DeepSeek-R1、Claude 3.7 Sonnet、Qwen3.5——推論過程を見せてくれるモデルが増えた。RTX 4060でQwen3.5-9Bを回していると、thinkingブロックに延々と内部推論が表示される。"Wait, let me reconsider..." "Actually, this approach is better..." と自問自答しながら回答を組み立てていく。見ていて安心する。ちゃんと考えてくれている、と思う。その安心感は、根拠がない。...
1日前

AIの進化に置いていかれないために。日本発「AIレシピ共有サービスHOWAI」を作った理由
Zennの「大規模言語モデル」のフィード
はじめまして、HOWAIの開発者のTakahiroです。現在、AIの世界は驚異的なスピードで進化しています。GPT-4o、Gemini、Sonnet 4.6……。次々と登場する「最強の知能」に、ワクワクする一方で、どこか「置いていかれている」と感じることはありませんか?私は、この「AI格差」を埋めるために、日本独自の文化である「クックパッド」のモデルをAIの世界に持ち込みました。なぜ今、日本から「AI版クックパッド」を目指すサービスを立ち上げたのか。その背景にある課題感と、私が実現したいビジョンについてお話しさせてください。 1. AIという「最強のエンジン」はあるが、誰し...
1日前

3000億ドルの札束が燃えとる——2026年Q1、AI投資の行方
Zennの「大規模言語モデル」のフィード
VC(ベンチャーキャピタル)いうたら、普通は「将来性のある会社にちょっとずつお金を出す」もんやと思うやろ? 実は逆やねん。2026年の1月〜3月だけで、世界中のVCが積んだ札束は 3000億ドル(約45兆円)。日本の国家予算の約4割が、たった3ヶ月で動いた計算や。しかもその8割がAI関連。これ、冷静に考えたらちょっと怖い話やで。今日はこの「3000億ドルの行方」を、おっちゃんなりに噛み砕いて話してみるわ。 史上最高の四半期 — 数字で見るQ1 2026まずは事実から押さえよう。Crunchbaseのレポートによると、2026年Q1のグローバルVC投資は $300B(3000億ド...
1日前

RAGはなぜ精度が出ないのか?4手法を実務データで比較し最適構成を決めた
1
Zennの「大規模言語モデル」のフィード
はじめに規約文書に対するQAシステムを開発している中で、最初に実装した「コサイン類似度でtop-k件取ってきてLLMに渡す」構成では精度が出ませんでした。条番号を指定した質問で見当違いのチャンクが返ってきたり、複数セクションにまたがる質問にまるで対応できなかったりします。「RAGの精度が悪い」と一言で言っても、原因が検索にあるのか生成にあるのか、手法を変えれば改善するのかがわかりません。そこで本記事では、Vanilla RAGから始めて段階的に手法を変え、それぞれ評価・考察・採否判定を行い、最終的に最適な構成を決める、というアプローチを取りました。比較したのは以下の4手法です。...
1日前

Claude Agent SDK 実践ガイド——AIエージェントをPythonで自作する
Zennの「大規模言語モデル」のフィード
Anthropic公式のClaude Agent SDKを使い、AIエージェントをPythonで構築す実践ガイドです。環境構築からビルトインツール、Hooks、MCP連携、サブエージェント、本番デプロイまで、コピペで動くコード例とともに解説します。
1日前