Zennの「大規模言語モデル」のフィード

フィード

記事のアイキャッチ画像
Claude APIでZenn記事を半自動生成する仕組みを作った
Zennの「大規模言語モデル」のフィード
はじめにエンジニアになってからZennの記事を読む機会が増えました。ただ、自分で記事を書いたことは一度もない。「アウトプットしなきゃ」と思いつつも、めんどくさがりな性格が邪魔をして、なかなか手が動かない……。そこで思いついたのが、「記事作成そのものを自動化してしまおう」 というアイデアです。Claude APIを使って、テーマを入力するだけでZenn記事の下書きを生成し、プレビュー確認・修正・コミットまでを一気通貫で行える仕組みを作りました。最終的に人間がチェックしてからpushする「半自動」設計です。 全体構成まずは処理の全体像をMermaidで示します。主要な技術ス...
13時間前
記事のアイキャッチ画像
野良AIレビュアーは正しいコードを書く――そして間違ったシステムを作る
Zennの「大規模言語モデル」のフィード
AIにレビューを頼んだら、指摘通りに直した。そしてバグが出た。その夜、あなたは何を思っただろうか。「やっぱりAIは信用できない」――おそらく、そう結論づけたはずだ。だがその結論は、半分正しくて半分間違っている。 差分レビューが例外制御を壊した今日、こんなことが起きた。あるモジュールに変更を加えた差分を、AIにレビューさせた。AIはすぐに指摘を返してきた。差分上の例外処理を、汎用的な例外ルートに乗せる変更を提案してきた。コードとして見れば、整理された自然な変更に見えた。だから従った。バグが出た。問題は例外制御だった。そのアプリ固有の例外クラスは、単なるエラー通知ではなかった。...
14時間前
記事のアイキャッチ画像
UnityでLLMを使った音声対応NPCを作る(前編)
Zennの「大規模言語モデル」のフィード
🎙️ UnityでLLMを使った音声対応NPCを作る(前編) ステップ1〜7:音声で話しかけると返答するNPCをゼロから作る 📋 この記事でできることUnityからローカルLLMにリクエストを送るマイクで話しかけてWhisperで文字起こしedge-ttsでNPCが音声で返答するゲーム世界の情報(場所・時間帯)をNPCに渡す後編では記憶・リフレクション・プランニングを追加します。 🛠️ 使用技術項目バージョン・内容Unity6.3 LTSPython3.14LLMMistral 7B(Ollama経由)STT...
15時間前
記事のアイキャッチ画像
セッション記録ベースのコンテンツ候補自動抽出システム設計
Zennの「大規模言語モデル」のフィード
なぜ「会話は使い捨て」になるのか — 知識損失問題の構造 セッション記録の現状AIアシスタントの利用が日常化した現在、AIを業務活用するナレッジワーカーの多くは1日に複数回のセッションをこなしています。コードのデバッグ、設計の相談、技術調査、文章の推敲——それぞれのセッションで、かなりの量の「有益な情報交換」が発生しています。しかし、そのうち後から再活用されているセッションは、肌感覚としてもごく一部ではないでしょうか。筆者の観測範囲における主観的推定であり統計的根拠はありませんが、 日常的なAI利用者のセッションのうち、何らかの形でナレッジとして残されているのはごく一部 と考...
16時間前
記事のアイキャッチ画像
Ollama 0.19がMLXを採用 ─ Apple Siliconのローカル推論はどう変わるか
Zennの「大規模言語モデル」のフィード
2026年3月末、Ollamaがバージョン0.19のプレビューをリリースしました。Apple Silicon向けの推論バックエンドが、従来のllama.cpp(Metal)からApple製フレームワーク「MLX」に切り替わっています。公式ベンチマークでは、NVFP4量子化との組み合わせでデコード性能が約2倍に向上しました。この記事では、MLXへの移行が技術的に何を意味するのか、パフォーマンスの変化、NVFP4量子化やキャッシュ改善といった周辺アップデート、そして現時点での制約を整理します。 Ollama 0.19の変更点の全体像 推論バックエンドがllama.cppからMLXに...
16時間前
記事のアイキャッチ画像
# 青空文庫11冊でLLMをゼロから作ったら、意外と日本語を喋った話
Zennの「大規模言語モデル」のフィード
はじめに先日、こんなクライアントワークを受注しました。「オリジナルのGPTを作って、ファインチューニングして遊びたい」正直、未知の領域でした。LLMの仕組みはなんとなく知っていたけど、ゼロから実装したことはない。でも「Claude Codeで何とかなるだろう」と思って受けました。結果、実働5時間で動くLLMができました。しかも、意外とちゃんと日本語を喋る。この記事では、その過程を技術的な話と非技術的な話を混ぜながら書きます。エンジニアじゃない人も、LLMがどういうものか少しわかるように書くつもりです。 作ったものアーキテクチャ:Transformer(GP...
17時間前
記事のアイキャッチ画像
LiteLLM × Langfuse を安く安定して動かす構成(VPS + Cloudflare)
Zennの「大規模言語モデル」のフィード
はじめにLLM アプリを運用し始めると、プロンプトの管理やコスト計算、トレースの仕組みがすぐに欲しくなります。LiteLLM と Langfuse の組み合わせはそのあたりをうまくカバーしてくれるのですが、Langfuse v3 から ClickHouse が必須になったことで、セルフホストのハードルが一気に上がりました。メモリ不足(OOM)で落ちる、再起動を繰り返す——そんな運用地獄に片足を突っ込んだ末にたどり着いた構成をまとめます。方針はシンプルで、「まともに動いて、かつ安い」 ことだけを優先しています。 結論:推奨構成(月額 ¥3,000〜6,000)コンポーネ...
17時間前
記事のアイキャッチ画像
バイブコーディングからエージェンティックエンジニアリングへ——AIコーディングの次世代を徹底解説
Zennの「大規模言語モデル」のフィード
!📺 この記事は YouTube「きなこもっちーのテック深掘り」の動画解説記事です。動画はこちら: バイブコーディングは終わった?次世代AIコーディングを徹底解説 この記事で分かることバイブコーディングの定義・起源・問題点エージェンティックエンジニアリングという新パラダイムの登場Cursor・Claude Code・GitHub Copilot など主要ツールの現状シニア開発者がAIを最も活用できている理由(データあり) バイブコーディングとは何か「バイブコーディング(Vibe Coding)」は、2025年2月に Andrej Karpathy(元 O...
18時間前
記事のアイキャッチ画像
Mastra で ローカルLLM をサクッと動かす
Zennの「大規模言語モデル」のフィード
Mastra でサクッとローカルLLMを実験したい。Mac (Arm) に最適化された MLX版のモデルを使いたいので LM Studio を使います。 動作環境Model Name: MacBook ProChip: Apple M1 ProMemory: 32 GBSystem Version: macOS 15.0 (24A335) ローカルLLMをインストール LM Studio をインストールcurl -fsSL https://lmstudio.ai/install.sh | bashlms -vCLI commit: df81c60 モデルを...
18時間前
記事のアイキャッチ画像
Claude Codeに長期記憶を持たせたら、開発壁打ちが激変した話
Zennの「大規模言語モデル」のフィード
はじめに:AIとの壁打ち、その「もどかしさ」近年、LLM(大規模言語モデル)を活用した開発はもはや日常的なものとなりました。特に、コード生成や設計の壁打ちにおいて、ClaudeやChatGPTといったAIアシスタントは強力なパートナーです。しかし、皆さんもこんな経験はありませんか?「さっき説明したプロジェクトの全体像、もう一度説明し直すのか…」「この関数の仕様、何回も伝えなきゃいけないの、面倒だな」「議論が深まってくると、AIが前の会話の文脈を忘れて、トンチンカンな提案をしてくる」まさに、これが私が日々感じていた「もどかしさ」でした。開発初期段階のモックアップ作成や、特定の...
18時間前
記事のアイキャッチ画像
AIメモリ設計の最適解:エージェントは何を記憶し、何を「忘れる」べきか
Zennの「大規模言語モデル」のフィード
AIは一体何を記憶し、何を忘れるべきなのでしょうか?結論から言えば、AIはユーザーの不変的な好み、長期的な目標、反復するワークフローなど「シグナルの高い文脈」を記憶し、一時的な会話のノイズ、古くなった前提条件、永続化すべきでない機密データを忘れるべきです。効果的なAIメモリ(AI Memory)とは、生のチャット履歴をすべて保存することでも、コンテキストウィンドウに情報を詰め込むこと(Context Stuffing)でもありません。それは「選択(Selection)」「永続性(Persistence)」「ガバナンス(Governance)」によって成り立つシステムです。💡 Qu...
19時間前
記事のアイキャッチ画像
ビッグテックの無料枠をハシゴして、原始人が石を交換するゲームを作った
Zennの「大規模言語モデル」のフィード
TL;DR各社が開発者を呼び込むために用意してくれた無料枠を贅沢にハシゴして、AI住民が勝手に文明を築く箱庭ゲームを作りました。開発費0円。サーバー代0円。Cerebrasの235Bパラメータモデルは「たけち○ぽ」を虹信仰に変換するために回り、Groqの超高速推論エンジンは「畑を耕すかどうか」の判断に全力投球されています。ビッグテックの善意が、最もくだらない形で結晶化している背徳感がすごいです。ゲーム: 高天原より常世のくにへ開発者サイト: L.a.F どんなゲームか(30秒で)AI住民がマップ上を自律的に動き回り、出会えば会話し、会話の中から道具を発明し、宗教を作...
19時間前
記事のアイキャッチ画像
【徹底解説】クロスエージェントメモリとは?AIがツールとセッションを超えて文脈を共有する仕組み
Zennの「大規模言語モデル」のフィード
はじめにクロスエージェントメモリ(Cross-Agent Memory)とは、複数のAIエージェントがセッションやツールの枠を超えて、ユーザーのコンテキスト、過去の対話、作業状態を永続的に共有し、連携するための統合的なメモリ基盤のことです。個別のエージェントが独自の記憶を持つのではなく、共通の「記憶の保管庫」を参照・更新することで、シームレスなマルチエージェント協調を実現します。LLM(大規模言語モデル)のコンテキストウィンドウが拡大するにつれ、単一のAIエージェントは一度に大量の情報を処理できるようになりました。しかし、エンタープライズの現場や複雑なワークフローにおいては、単一...
21時間前
記事のアイキャッチ画像
遺産であるCOBOLを現代化し、その正確性を自ら証明するAIを開発した話
Zennの「大規模言語モデル」のフィード
別で書いた記事:https://medium.com/@watanabe42463/i-built-an-ai-that-modernizes-legacy-cobol-and-then-made-it-prove-its-own-work-aa982343c833 8,000億行の基幹業務コードに言語モデルを解き放つと何が起きるのかまず、この変数名を見てください。WS-CUST-ID-X予想してみてください。CUSTはCustomer(顧客)でしょう。IDはそのままID。ですが、末尾のXは何を指すのか、さっぱりわかりません。次に、一般的なAI移行ツールによって「現代化」さ...
21時間前
記事のアイキャッチ画像
LLM SDK を基礎から理解する5/5〜5.Embedding(埋め込み)とRAGの関係〜"
Zennの「大規模言語モデル」のフィード
はじめに本記事は「LLM SDK を基礎から理解する」シリーズの最終回です。回テーマ第1回テキスト生成の基本第2回マルチターン会話第3回ストリーミング第4回ツール呼び出し(Function Calling)第5回(本記事)埋め込み(Embedding)とRAGへの入口前回はツール呼び出しを解説しました。今回はシリーズの締めくくりとして、RAG(検索拡張生成)の仕組みと実装を解説します。Embeddingが何者か理解できると、社内ドキュメント検索できるAIの原理が理解できるようになります。 なぜRAGが必要なのか...
1日前
記事のアイキャッチ画像
GLM-5入門 — Huaweiチップで訓練された最強オープンソースLLMの全貌
Zennの「大規模言語モデル」のフィード
はじめに2026年2月、中国のAI企業Z.ai(旧称: Zhipu AI / 智谱AI)がオープンソースLLM「GLM-5」をリリースしました。744Bパラメータ(MoE構成、40Bアクティブ)という大規模モデルでありながら、MITライセンスで公開されており、LMArenaやArtificial Analysisのオープンモデルランキングで1位を獲得しています。この記事では、GLM-5のアーキテクチャ、ベンチマーク性能、API利用方法、セルフホスティング手順をまとめます。 この記事で学べることGLM-5のモデルアーキテクチャと技術的特徴主要ベンチマークでの性能と既存モ...
1日前
記事のアイキャッチ画像
Agent Teamsは要らない。カスタムスキル1本で品質ゲート付きパイプラインを作る
Zennの「大規模言語モデル」のフィード
結論: 20エージェント並列は要らない。スキル1本で同じ構造は作れる「20体のAIエージェントを並列稼働させ、売上 $3M」——X で 340万回読まれた投稿を見て、その日のうちに Claude Code で再現してみた。結論から言うと、Agent Teams も API 課金も要らなかった。 核心は「1エージェントに全部やらせない」という設計思想であり、それは Claude Code のカスタムスキル(.claude/skills/)1本で十分に再現できる。この記事では、専門分業+品質ゲートの構造をサブスク内で構築する方法と、実際にこのパイプラインで差し戻しが発生した具体例を...
1日前
記事のアイキャッチ画像
ローカルSLMで生成した1,000本のシナリオでゲーム仕様を見直せた話がしたい
Zennの「大規模言語モデル」のフィード
この記事についてAI対話ログと実験記録をもとに Claude Code が下書きを作成し、私が加筆修正しました。本記事の内容は個人開発の PoC フェーズにおける実験結果であり、一般最適を主張するものではありません。前回の記事では、ローカル SLM に約 300 本のゲームシナリオを書いてもらって設計の穴を見つけた話を書きました。今回はその続きです。300 本を 1,000 本に拡大し、さらに 3 つのモデルサイズ(4b・9b・14b)で比較実験をしました。問いはシンプルだった。創造性はモデルサイズに比例してスケールするのか? 結果は、そう単純ではなかった。!少なくとも私...
1日前
記事のアイキャッチ画像
役所の書類仕事が激変!大阪市とAIが証明した「3つの衝撃的な成果」
Zennの「大規模言語モデル」のフィード
1. ざっくり言うと?(要約)大阪市と日立製作所が、年間約1万件の「通勤届」処理にAIエージェントを導入した実証実験で、業務時間を最大40%削減できる可能性を確認しました。AIが「申請書の自動生成」「不備の自動チェック」「認定判定サポート」「払戻計算サポート」の4役をこなし、担当者の手作業をごっそり肩代わりします。2026年度以降、大阪市全庁への本格導入を検討中。行政DXの"現実解"として全国の自治体に波及する可能性があります。 2. もっと詳しく!(深掘り) なぜ「通勤届」だったのか?年間1万件、しかも約半数が4月に集中する通勤届の処理は、職員にとって毎年恒例...
1日前
記事のアイキャッチ画像
RTX5070Ti + Ollama で動くローカル LLM で一番賢いのはどれだ?!実際に比較検証してみました
はてなブックマークアイコン 1
Zennの「大規模言語モデル」のフィード
はじめにこんにちは、Neo です。先日、RTX5070Ti 搭載の PC を新調しました。それまで使っていた GTX1080 搭載マシンと比べて VRAM 容量は 8GB から 16GB に倍増。ローカル LLM で動かせるモデルもかなり優秀なモノになりました。そこで今回は、CanIRun.ai の情報を参考に、Ollama でインストールして RTX5070Ti で動かせる優秀なローカル LLM を使用比較してみました。既に色々な人が検証記事を出しているとは思いますが、実際にこのスペックの PC を購入・所持してみての実感として、分かりやすいデータを提供できればと思い、今回...
1日前