Zennta
ログイン
会員登録
検索
後で読む
お気に入り
お気に入りグループ
検索
Qiita一覧
Zenn一覧
お問い合わせフォーム
利用規約
プライバシーポリシー
1
次へ
【ローカルLLM × MCP】OllamaとMCPでLINE風チャットAIを作ってみた【Node.js/TypeScript】
DRAMを128GBから256GBに増設したら、ollamaがGPUを認識しなくなった話
UbuntuにOllamaとOpen WebUIをインストールして、ChatGPT風のローカル対話環境を構築する
Ollamaを使ったローカルLLMによるマルチエージェントアプリを作った
Roo Code(Roo-Cline)でローカルLLM(Ollama)のQwen3を設定する
LangFlow入門 (ollama版)
OllamaでQwen3をサクッと試そうとしてつまずく
Ollamaを使用したオンプレミスLLMによる構造化データ抽出
思い立ったが吉日!!Swallow8B→Ollama→Mattermost
Ollamaで実装する無料 MCP Agent
GPU なし Ubuntu で Ollama のカスタムモデルを試してみた
onnxruntime地獄からの脱出!LangChain × Ollama × ChromaでローカルRAG環境を構築するまでの戦い
タダでLLMにコミットメッセージを考えてもらおう(Ollama + OpenCommit)
Ubuntu 以外の Distro で Intel GPU を効かせて Ollama を動かす
Ollama で Hugging Face のモデルを使う
Ollama + Gemma3 でshell command生成させたら便利だった
Mac StudioでOllamaを使ったローカルLLMのやり方
Vercel AI SDK + Next.jsで簡易チャットページ(OllamaとOpenAI)
Gemma3をローカル環境のDockerで動かす(Ollama+OpenWebUI)
Ollama Web UIでGemma3 1Bの実用性を検証する
Ollama + LangChainで画像を入力する方法【Gemma3 27B】
ollama実践
WSL2+Docker+Ollama+Open-WebUIによるローカルLLM環境構築
今更だけど DeepSeek R1 使ってみた(Ollama on Jetson)
Ollama + Open-WebUI を使用して DeepSeek R1をローカルPCにインストールする手順
SSH トンネルで Ollama をリモート利用する方法
ollama-deep-researcherを試す
SmolagentsをOllamaを使ってローカルPC上で動かしてみた
GitHub API x Ollama で、自分が先週何やったかを思い出してくれる GitHub CLI Extension を作った
DeepSeekが凄そうなのでOllamaを使ってローカルで動かして体感してみた
Ollamaを利用してローカル環境でdeepseek-r1を使ってみた
[DeepSeek R1]ローカルで簡単に!Open WebUIとOllamaを使った環境構築手順
なにかと話題のDeepSeekをローカル環境でサクッと動かす(ollama + Open WebUI)
Browser-use web-uiでollamaを使ってDeepseek-r1を使用する
MacローカルでCline+ローカルDeepSeek-R1を動かす(Ollama+WebUI) 🚀
VSCode+Contiune+ollama環境
[Ollama] DeepSeek-R1:70b 動かしてみた
macOSにDockerでPDFMathTranslateとollamaを入れてPDFの英文を日本語化する
Browser-useでollamaを使ってローカルLLMを使用する
Ollama + phi-4 + Cool Cline を使いローカルでコード生成を試す
AI ToolkitのPlaygroundでOllamaのphi-4を動かしてみる
Clineで動作するようにOllamaモデルを調整する
WSL2上でOllamaとopen-webuiを使ったローカルでのLLMの推論実行環境を構築する
Ollamaのサーバーを、Macでサービスとして利用する場合の注意点
OLLAMAでAI(LLM)をローカルマシンで動かしてみた。
Ollamaとllama3.1 8bで始める関数呼び出し機能の実装チュートリアル
OllamaのK/V Context量子化の実践的検証と実装
マルチモデルOllamaベンチマークのコード解説
1
次へ
前へ
More pages
2
3
4
More pages
次へ
[生成AI] OpenAI Agents SDKによる、シンプルなコード生成エージェント
生成AI
OpenAIAgentsSDK
プログラム自動生成
エラー: enviroment block too small。
Ubuntu
boot
grub2
DeepSeek-R1
Gemma3
低スペックでもローカルLLM走らせたい!
備忘録
AI
LLM
ollama
Dify
ONLYOFFICEでAlibabaのQwen AIモデルを使って文書処理を強化
AI
Alibaba
ONLYOFFICE
Qwen
IBM watsonx Code Assistantの超基本を調査
WatsonxCodeAssistant
ローカルLLM(Ollama)でRoo Codeを使ってみよう(+Phi4-miniをCline用にカスタムして動かそう)
ollama
cline
Phi4-mini
RooCode
Ollama on FreeBSD
FreeBSD
ollama
Dify+Xinference+OllamaでローカルAIチャットボットを作る!
LLM
ollama
Dify
XInference
ローカルLLM
OpenAI Agents SDK の Tools を調べてみた
Python
OpenAI
生成AI
AIAgent
OpenAIAgentsSDK
macOS 上で Ollama を使用して Gemma 3 を実行する
Mac
ollama
Gemma3
工数を抑えて社内LLMを導入! 「Open WebUI」とは? ~難しいことはわからないデザイナーがざっくり解説~
UI
Design
AI
OSS
OpenWebUI
minimaをclineから使う
MCP
rag
Cline の閉域利用を開始する検証メモ(Docker)
Docker
VSCode
vLLM
cline
Florence-2の画像キャプションとOCRの日本語化
ファインチューニング
vlm
Florence-2
SAOのようなNPCだけの世界を作る - Part 2
AI
ollama で hugginfaceで公開されているggufの実行
ollama
Livebook で生成 AI RAG チャットアプリを実装しよう
Elixir
rag
Livebook
LLM
ollama
OllamaローカルモデルとSpring AI Alibabaを組み合わせて次世代のRAGアプリケーションを構築する
AI
CloudNative
ArtificialIntelligence
developers
GenerativeAI
Mastraを使ってRAGを実装してみる
TypeScript
OpenAI
Deno
ollama
Mastra
手元でLLMを動かすロマン~AndroidスマホにOllamaを入れる~
Android
UserLand
生成AI
LLM
ollama
マルチモーダル/ビジョン系モデルのローカル環境の構築方法
プラットフォーム
ファインチューニング
vlm
ローカルLLM
1週間でLangChainを使えるようになる: Day 1 - LangChainとは
GenerativeAI
LangChain
LLM
LangSmith
1週間でLangChainを使えるようになる
Ollama と Open WebUI で IBM granite3.1-dense:8b, granite3.2:2b を IBM Power (CPU)上で稼働する
Granite
IBMPower
open-webui
ローカルAIコーディングアシスタント比較:OLI vs Kwaak vs Goose
Rust
goose
ClaudeCode
OLI
Kwaak
M2 MacBook AirでGemma3 1bを動かしてみる
Mac
生成AI
Gemma3
Mac Studioでollamaのgemma3:27bを128k コンテキスト長で動かしてみた
MacStudio
ollama
Gemma3
UbuntuでOllamaを試してみよう
Gemma
LLaMA
ollama
deepseek
OpenWebUI
Mac Studioでollamaのdeepseek-r1:671bを動かしてみた
ollama
DeepSeekR1
Ollama で GGUF の直接取得に失敗したときの対処方法
Go
GGUF
ollama
AnthropicのAIモデルをONLYOFFICEに接続し、文書編集に使用する方法
AI
ONLYOFFICE
Anthropic
Claude
前へ
More pages
2
3
4
More pages
次へ