Zennta

  • ログイン会員登録
  • 検索後で読むお気に入りお気に入りグループ

履歴

履歴がありません

Qiita一覧

Zenn一覧

  • お問い合わせフォーム利用規約プライバシーポリシー
    記事がありません
    • 1
    EC2 G系インスタンスで Gemma3 & Ollama のセットアップ と 検証
    LLM
    ollama
    SLM
    LocalLLM
    Gemma3
    ローカルLLMモデル比較
    LLaMA
    ollama
    ローカルLLM
    LocalLLM
    余ったPCパーツでもう一台PCが生えてきたのでOllamaを用いてLocalLLMの検証環境を構築した
    Gemma
    LLM
    日本語LLM
    ollama
    LocalLLM
    browser-use + ollamaでローカルサイト(Zabbix)を操作してみた
    zabbix
    ollama
    browser-use
    LocalLLM
    【簡単】DeepSeek R1 をGPUなしでUbuntu で ローカルで使う CPUのみ
    ローカル
    deepseek
    ローカルLLM
    LocalLLM
    DeepSeekR1
    【簡単】DeepSeek R1 をGPUなしでローカルで使う CPUのみ [Windows編]
    ローカル
    deepseek
    ローカルLLM
    LocalLLM
    DeepSeekR1
    【備忘録】ローカルLLMでPDFの要約を試してみる【Ollama OpenWebUI Llama3.2-vision】
    PDF
    LLaMA
    ollama
    OpenWebUI
    LocalLLM
    教育関係者のための Local LLM 入門 その 1
    education
    ollama
    LocalLLM
    Phi-4
    MLX でローカルLLM:「mlx-community/phi-4-4bit」を試す(M4 Mac mini、mlx-lm を利用)
    Microsoft
    mlx
    ローカルLLM
    mlx-lm
    Phi-4
    ローカルLLM構築を(真似して)やってみた
    Python
    LLaMA
    LocalLLM
    CPUだけでローカルLLM(GPU不使用)
    Python
    LLM
    llama-cpp-python
    Ubuntu、Docker Desktop で Dify を作成
    Ubuntu
    Docker
    OpenAI
    Dify
    Jetson Orin Nano Super 開発者キットがほしい
    JetsonOrinNanoSuper
    モダンWebアプリ開発用の基礎知識詰め込み
    Python
    nginx
    Vue.js
    FastAPI
    LLM
    Intel® NPU Acceleration Library を使って LocalLLM を Intel NPU で動かす
    Python
    LLM
    rye
    NPU
    Intel®NPUAccelerationLibrary
    ローカルLLMの最新動向と事例
    Python
    AWS
    Azure
    LLM
    #生成AI
    Local LLM AIを簡単に構築し開発への活用を試す
    IDE
    gpt
    生成AI
    LLM
    ollama
    Kong AI Gatewayをdeck CLIで設定する
    Kong
    KongGateway
    第4回 StreamlitとLangChainとLM studioを使って自分専用LLMウェブアプリを作りたい!
    Python3
    Streamlit
    LangChain
    第3回 StreamlitとLangChainとLM studioを使って自分専用LLMウェブアプリを作りたい!
    Python3
    Streamlit
    LangChain
    2023年の世界における生成AI発展から、2024年のElixir AI・LLMを占う
    Python
    Elixir
    Livebook
    生成AI
    LLM
    • 1