Zennの「機械学習」のフィード
フィード

J-Quants API 入門(V2対応)
Zennの「機械学習」のフィード
概要日本株のデータをPythonで分析したいとき、最初のハードルは「信頼できるデータソースの確保」だ。海外株ならYahoo Finance APIやAlpaca APIがあるが、日本株で同等のAPIは限られている。J-Quants API は、東京証券取引所を運営するJPXグループが公式に提供する金融データAPIだ。株価(四本値)、出来高、財務データ、上場銘柄一覧などをプログラマティックに取得できる。Freeプラン(無料)でも過去2年分のデータが利用可能で、分析手法の検証やバックテストに十分なデータ量がある。本記事では以下を扱う。J-Quants API V2の登録とAPI...
2時間前

【Transformerとは? - 第七回B】QKVで理解するSelf-Attentionの本質と限界
Zennの「機械学習」のフィード
1. はじめに本記事は、「機械学習素人が Transformer を理解するまでの記録」という連載の第七回のBです。ChatGPT は日常的に使っているものの、Transformer の中身は実はよく分かっていないという立場から、基礎に立ち返って理解していく過程を整理しています。 1.1. シリーズの内容導入回:【Transformerとは? - 導入回】機械学習素人が Transformer を理解するまでの記録Transformerとは(概要)ニューラルネットワークとは何か重み・バイアス・活性化関数脳との関係(比喩として)ニューラルネット...
11時間前

Google Gemma 4 実践ガイド — Ollama・HuggingFace で動かすマルチモーダル対応オープンモデル
Zennの「機械学習」のフィード
はじめに2026年4月2日、Google は Gemma 4 をリリースしました。Gemini 3 の技術をベースにしたオープンウェイトモデルで、Apache 2.0 ライセンスで公開されています。Gemma 4 の注目ポイントは次の3つです。マルチモーダル対応 — テキスト・画像・音声・動画を入力できるネイティブエージェント機能 — Function Calling・構造化 JSON 出力をモデルが直接サポートApache 2.0 ライセンス — 商用利用も含め制限なしこの記事では、Gemma 4 の概要を押さえたうえで、Ollama・HuggingFace ...
17時間前

MLで株価を予測することはできるのか
Zennの「機械学習」のフィード
はじめに機械学習を学んでいると「金融データにも応用できるのでは?」と一度は考えるだろう。画像認識や自然言語処理で成果を上げているMLが、株価のような数値時系列に対しても有効なはずだ、と。結論から言えば、MLを金融データに適用すること自体は可能だ。しかし、素朴なアプローチには深刻な落とし穴がいくつもあり、正しい検証手法を知らなければ「当たっているように見えるだけ」の結果に騙されることになる。本記事では、実際にPythonでモデルを組みながら、金融時系列データ特有の問題点と正しい検証手法を解説する。扱うトピックは以下の通りだ。素朴な二値分類モデルの構築と、その結果が信用できない...
19時間前

AIに180回の株価予測実験を丸投げしてわかったこと——「AIだけでは正しく評価できない」という話
Zennの「機械学習」のフィード
AIに実験を全部任せてみたら、性能は上がった。でも「本当に良くなっているのか」を判断するのは、結局ずっと人間だった。 やったことAndrej Karpathy の AutoResearch というプロジェクトをご存知でしょうか。AIが自律的に仮説を立てて実験し、結果が良ければ保存・悪ければ巻き戻し、を繰り返すというコンセプトです。これを日本株の予測モデルで試してみました。Claude Code(AI)が実験ファイルを書き換えて実行→評価→保存/巻き戻しを繰り返すループを約2日間・約180回走らせた記録です。 「株価予測モデルを作りたい」と言っただけで、コードが全部できた...
1日前

PythonではじめるDSP・音声処理 実践入門
Zennの「機械学習」のフィード
Pythonは書けるが音声処理は未経験のエンジニア向け。サンプリング定理からFFT、メルスペクトログラム、MFCC、音声分類まで、実際に手を動かしながら学ぶ実践入門書。Ch1〜Ch7は無料で読めます。
1日前

LLMの「考えました」は8割嘘
Zennの「機械学習」のフィード
あなたがCoTを読んでいるとき、モデルは別のことを考えているThinking modelが流行っている。DeepSeek-R1、Claude 3.7 Sonnet、Qwen3.5——推論過程を見せてくれるモデルが増えた。RTX 4060でQwen3.5-9Bを回していると、thinkingブロックに延々と内部推論が表示される。"Wait, let me reconsider..." "Actually, this approach is better..." と自問自答しながら回答を組み立てていく。見ていて安心する。ちゃんと考えてくれている、と思う。その安心感は、根拠がない。...
1日前

「知らない」は武器になる — クーン・SSL・オートポイエーシスが教える生産的無知の技法
Zennの「機械学習」のフィード
!著者: シキカク (@4shiki_kaku9)ピアニスト → ロシア留学 → Web開発 → AI開発 → SEO+GEOと自動取引。REAL VALUEで「買うAI」の話をしたら当たりました。 Lang: Rust / Python / C++ / TS(Nuxt4) / JP / EN / RU。ご依頼はDMまで。あなたの部屋に本棚があるとしよう。500冊の本が並んでいる。あなたはその500冊を読み、その内容を理解し、引用すらできる。この部屋に入ったとき、あなたは何を感じるだろうか。おそらく、知識の充実だ。安心感かもしれない。ところが、である。本棚の外に存在する本は、お...
1日前

パラメータ4個で710M超えのFoundation Modelに勝った時系列予測手法FLAIRの全貌
3
Zennの「機械学習」のフィード
710Mパラメータ vs 4パラメータChronos-T5-Large。Amazonの時系列Foundation Model。710Mパラメータ、GPU必須。FLAIR。パラメータ約4個。GPUなし。numpy と scipy だけ。Pythonファイル1つ、約500行。この2つを同じベンチマークで比較するとどうなるか。Chronos Benchmark II (25データセット、ゼロショット評価) の結果です。RankModelParamsAgg. Rel. MASEGPU1FLAIR~40.696No2Chronos-Bolt-B...
2日前

Claude Code × Google Colab 第4弾 LSTMの次にPatchTSTを試したら、Claudeが設計を直してきた話
Zennの「機械学習」のフィード
はじめに第3弾でLSTMを使って東京の気温を予測したあと、自然と「次は何を試そうか」となりました。調べてみるとTransformerベースのモデルが時系列予測でも注目されていて、中でも PatchTST が「シンプルに使えてLSTMより良い」という話だったので試してみることにしました。ところが実装すすめるものの、いまいち数字があがらない。それについて、Claudeが一言。「PatchTSTは長い文脈が得意なモデルです。seq_len=30 は短すぎるかもしれません。元論文では 336〜720 ステップを使っています。60 程度に伸ばしてみませんか?」「そうなの?」と...
2日前

# 青空文庫11冊でLLMをゼロから作ったら、意外と日本語を喋った話
Zennの「機械学習」のフィード
はじめに先日、こんなクライアントワークを受注しました。「オリジナルのGPTを作って、ファインチューニングして遊びたい」正直、未知の領域でした。LLMの仕組みはなんとなく知っていたけど、ゼロから実装したことはない。でも「Claude Codeで何とかなるだろう」と思って受けました。結果、実働5時間で動くLLMができました。しかも、意外とちゃんと日本語を喋る。この記事では、その過程を技術的な話と非技術的な話を混ぜながら書きます。エンジニアじゃない人も、LLMがどういうものか少しわかるように書くつもりです。 作ったものアーキテクチャ:Transformer(GP...
2日前

Kaggle アッカド語コンペの振り返りと1位解法 + α の紹介
Zennの「機械学習」のフィード
はじめに昨日から社会人のihiratchです。先日終了したDeep Past Challenge - Translate Akkadian to English、通称アッカド語コンペに参加していました。結果は628/1349チーム(Private 35.58)と悔しい結果に終わってしまいました。落ち込んでいても仕方がないので、本記事ではコンペの振り返りと1位解法 + α の紹介をします。アッカド語コンペに出ていた人も、そうでない人にも、本記事がなにかの参考になれば幸いです。 アッカド語コンペとは?アッカド語コンペは、4000年前の古代アッシリア商人が粘土板に刻んだアッカド語...
3日前

ベクトルの微分 for 数理最適化, 機械学習
Zennの「機械学習」のフィード
はじめに数理最適化や機械学習の理論の勉強をする際に避けては通れない,スカラーのベクトルによる微分ベクトルのベクトルによる微分についてまとめます.この内容は,学部 1 年生の線形代数と微分積分がある程度わかっていれば習得できます.本記事の特徴は,Jacobi 行列と勾配を区別している点にあります.こうすることで,多変数関数の微分をまとまりよく扱うことができます. スカラーのベクトルによる微分まずはじめに,ベクトル(多変数)に対してスカラー値(一変数)を対応づける関数の微分を考えましょう.f:\mathbb{R}^n\rightarrow\mathbb{R}としま...
3日前

FlashRAGの仕組みをサクッと図解で解説!
1
Zennの「機械学習」のフィード
はじめにルミナイR&Dチームの宮脇彰梧です。普段は大学院でマルチモーダルAIの研究をしながら、生成AIやAIエージェントの技術をあれこれ触っています。いきなりですが、みなさん。RAGの開発、つらくないですか?「LangChainで組んではみたものの、なんか精度が出ない…」「Self-RAGとかFLAREとか、新しい手法が出すぎて追いつけない!」「論文のコードを動かそうとしたら、環境構築だけで一日終わった…」あるあるですよね。私もよく頭を抱えています。そんなRAGのカオスに、一筋の光を差し込んでくれるかもしれない論文が登場しました。それが 「FlashRAG」 ...
3日前

# Antigravity・Crew AIユーザーがHugging Faceでモデル比較
Zennの「機械学習」のフィード
by [Hideki Tamae] | #HuggingFace #CrewAI #Antigravity #AI #ケア資本主義 AIツール、何を基準に選んでいますか?多くの人は「スピード」「効率」「売上への貢献」で選ぶ。それは正しい。私もそうだった。Crew AIやAntigravityを使い始めたのも、仕事を速く、賢くこなすためだった。でも、ある時ふと思った。このツールの先に、何がある? 第一章:1956年、ダートマスの夢1956年、夏。アメリカ、ニューハンプシャー州ハノーバー。ダートマス大学の数学棟最上階に、若き俊英たちが集まった。ジョン・マッカーシー、マービ...
3日前

MLflowって何ができるの?機械学習ライフサイクルの全体像とツールの役割をサクッと解説
Zennの「機械学習」のフィード
はじめに機械学習のモデルを作っていると、こんな経験はないでしょうか?あのとき一番精度が高かったモデル、どのパラメータで動かしたんだっけ?同僚と実験結果を共有したいけど、どうやって渡せばいいの?本番に出したモデルをロールバックしたい…でもどのバージョンだっけ?機械学習のプロジェクトは、コードを書くだけでは終わりません。データの準備から実験管理、モデルのデプロイ・監視まで、幅広い工程を継続的に回し続ける必要があります。とても大変そうですよね?こうした複雑な工程をまとめてサポートしてくれる 機械学習ライフサイクル管理ツール というものがあります。 そもそも機械学習の...
3日前

Nishika 日本酒銘柄画像検索コンペ 7位解法(備忘録)
Zennの「機械学習」のフィード
はじめに(本記事ついて)本記事は、2023年6月~9月にNishikaさんで開催されたコンペ「日本酒銘柄画像検索」にて、コンペ終了後2023年9月当時にトピック投稿していた7位解法の内容です。公開が今更ではあります、Nishikaさんが2026年3月31日をもってコンペティションサービスを終了されることに伴い、こちらに備忘録として投稿することにしました!とても良い経験のできたコンペでしたので、コンペ運営・ホスト・参加者の皆様に改めて感謝します。こちらの記事では、主に自チームのアプローチのみの内容となっています。コンペ概要や他上位解法などについては、Speaker Deckの...
4日前

Claude Code × Google Colab 第3弾 PyTorch LSTMが怖くなかった話 GPUで気温予測
Zennの「機械学習」のフィード
はじめに「一人でやったらエライことになっていた」正直、これが今回の感想のすべてです。PyTorch、LSTM、スライディングウィンドウ、DataLoader、GPU切り替え——それぞれ一つひとつなら調べながら進められるかもしれない。でも「PyTorchで、久しぶりのLSTM、それを多ステップ予測に使って、Colab GPU で動かす」というのは大変!な状態でした。今回は Claude Code をナビゲーターにして 、気象庁オープンデータ(東京の日別気温)から翌7日間の気温を予測するLSTMモデルを完走した話をします。この記事は以下のシリーズの3本目です。第1弾: C...
4日前

DPO学習におけるバッチサイズと勾配累積がlossに与える影響を検証
Zennの「機械学習」のフィード
はじめに株式会社 松尾研究所インターンの松本です。本記事では、LLMの学習手法であるDPOにおけるバッチサイズについて扱います。DPO(Direct Preference Optimization)とは、好ましい回答(chosen)と好ましくない回答(rejected)のデータを用いて、モデルが人間にとってより望ましい応答を生成できるように学習するアライメント手法です。バッチサイズとは、1回の学習ステップで同時に処理されるデータサンプル数を指します。一般的に、バッチサイズを大きくすると勾配が安定し、学習が安定しやすくなります。一方で、バッチサイズを小さくすると勾配に分散が大...
4日前

Claude Code × Google Colab 第2弾——MLの出力をClaudeが読んで改善提案してくれた話
Zennの「機械学習」のフィード
!この記事は「Claude Code × Google Colabで始めるAI開発——GPUをタダで使いながらAIと二人三脚」の続編です。前記事で作った環境をそのまま使っています。 はじめに前回はVSCode + Claude Code + Google Colabの環境構築とGPU活用を試した。今回はその環境を使って、実際に機械学習をやってみた。そこで気づいた使い方がある。**「コードを書いてもらう」のではなく、「実行結果をClaudeに見てもらう」**というフローだ。コピペ不要で、シームレスに回る。これは思ったより画期的だった。 環境VSCode + Cla...
5日前