Zennta

  • ログイン会員登録
  • 検索後で読むお気に入りお気に入りグループ

履歴

履歴がありません

Qiita一覧

Zenn一覧

  • お問い合わせフォーム利用規約プライバシーポリシー
    • 1
    「Could not build wheels for llama-cpp-python」の対処法 
    Windowsマシン に llama-cpp-python を入れても BLAS not found でGPUが使ってもらえない
    llama-cpp-pythonをMacで動かしているときにやたら遅いと思ったら
    Google Colabでllama-cpp-python
    【CUDA非依存】CLBlast+llama-cpp-pythonでLLM推論入門
    【cuBLAS】llama-cpp-pythonでのGPU推論入門
    WSL2にCUDA(CUBLAS) + llama-cpp-pythonでローカルllm環境を構築
    【備忘録】llama-cpp-python+pyinstallerでexe配布するときの注意点
    • 1
    • 1
    • 2
    • 3
    • More pages
    • 次へ
    MCP Python SDKとGoogle ADKでMCPサーバ(ODBC経由PostgreSQL接続)を試してみた
    Python
    ODBC
    ADK
    MCP
    AgentDevelopmentKit
    ollamaを使ったSlack AIボット開発1
    Python
    AI
    LLM
    ollama
    猿でもわかるAIの倫理・リスクシリーズ 🐵⚠️AIによる中小企業排除リスク
    機械学習
    AI
    バイナリテック
    中古GPU(RTX 3060/12GB)でローカルLLM検証-4 ~ RakutenAI-7B-chat を試す
    NVIDIA
    RTX3060
    LLM
    llama.cpp
    RakutenAI
    中古GPU(RTX 3060/12GB)でローカルLLM検証-3 ~ Calm2-7B-chat.GGUFで日本語検証
    NVIDIA
    huggingface
    RTX3060
    LLM
    CALM2
    中古GPU(RTX 3060/12GB)でローカルLLM検証-2 ~ llama.cpp で TinyLlama 1.1B を試す
    CUDA
    NVIDIA
    RTX3060
    LLM
    llama.cpp
    中古GPU(RTX 3060/12GB)でローカルLLM検証-1 ~ 初期設定とGPUコンテナ
    CUDA
    NVIDIA
    RTX3060
    LLM
    🛠️ Windowsで始めるローカルLLM環境構築:Ollamaを使ってみよう
    Windows
    AI
    LLM
    ollama
    ローカルLLM
    8枚のH100 GPUを使用した大規模言語モデルトレーニング環境の構築ガイド
    LLM
    H100
    レーニング環境
    Windows11の環境でllama-cpp-pythonをGPU対応でビルドするまでにハマった話
    Python
    AI
    whisper
    LLM
    LLaMA
    【徹底比較】OpenAI o3 / o4‑mini vs. 最新LLM勢 ─ 性能・用途・価格まで丸わかりガイド(2025年4月版)
    claude3.7
    OpenAIo3
    OpenAIo4‑mini
    GoogleGemini2.5Pro
    AIモデル比較
    【LlamaIndex 0.12.x対応】GGUF形式の量子化モデルをGPUに載せて爆速推論するまで【Qwen2.5-1M】
    Python
    LlamaIndex
    llama-cpp-python
    公式からllamaをインストールして使う
    LLM
    LLaMA
    HuggingFace で公開されている LLM のモデルを MLXで変換してLM Studioで動かす手順
    mlx
    huggingface
    LLM
    LMStudio
    Docker Model Runnerで実現する簡単生成AIアプリケーション ~Hello GenAI実践レポート~
    Go
    Docker
    AI
    GenAI
    Mac Studio M3 UltraでDeepSeek v3 0324を使ってRoo Codeを動かす
    MacStudio
    DeepSeekV3
    RooCode
    IBM watsonx Code Assistantの超基本を調査
    WatsonxCodeAssistant
    ローカルAIコーディングアシスタント比較:OLI vs Kwaak vs Goose
    Rust
    goose
    ClaudeCode
    OLI
    Kwaak
    Ollama で Gemma 3 による画像認識
    Python
    画像認識
    Gemma
    ollama
    Ollamaが遂にMLXをサポートするらしいので試してみました
    macOS
    mlx
    LLM
    Ollma
    Linux(Debian)と GeForce RTX 3050 でローカル LLM の構築
    Linux
    Debian
    Ubuntu
    NVIDIA
    ローカルLLM
    M5Stack Module LLMでFunction Callingを実行~StackFlow編
    M5stack
    Module-LLM
    AX630C
    1台のPCで671Bを動かす時代!KTransformers + DeepSeek-R1の爆速導入まとめ
    DeepSeek-R1
    KTransformers
    LLM推論最適化
    MoEモデル
    DeepSeek R1 Dynamic 1.58-bit 量子化されたモデルをWindows 11(WSL)で動かしてみる
    LLM
    DeepSeek-R1の動的量子化モデルをローカルPCで動かして、AI小説を書くまで。
    初心者
    AI
    deepseek
    DeepSeek-R1_Dynamic
    AI小説
    DeepSeek R1 (671B) フルモデルをローカルで
    DeepSeekR1
    llama.cppでの量子化環境構築ガイド
    llama.cpp
    DeepSeek-R1-Distill-Qwen-32B-Japaneseをollamaで動かそう
    ollama
    deepseek
    ローカルLLM!老技術者が文書生成AIのWebアプリを30分で作った話
    Webアプリケーション
    生成AI
    LLM
    Ollama で Llama-3.1-Swallow-8B-Instruct-v0.3 を動かす
    LLM
    LLaMA
    llama.cpp
    ollama
    ローカルLLM
    • 1
    • 2
    • 3
    • More pages
    • 次へ