Zennta

  • ログイン会員登録
  • 検索後で読むお気に入りお気に入りグループ

履歴

履歴がありません

Qiita一覧

Zenn一覧

  • お問い合わせフォーム利用規約プライバシーポリシー
    記事がありません
    • 1
    • 2
    Mac mini で ローカルLLM: Google の Gemma 3(量子化された MLX版 2種)の画像入力を MLX-VLM で試す
    mlx
    ローカルLLM
    mlx-vlm
    Gemma3
    Mac mini で ローカルLLM:「Qwen3-30B-A3B」「Phi-4-reasoning」を MLX LM で試す(量子化された MLX版)
    mlx
    ローカルLLM
    mlx-lm
    Qwen3
    Phi-4-reasoning
    MacBook Air 32GBでローカルLLMによるコード生成を評価してみた(2025/04 最終稿:Qwen3-30B-A3Bのlmxが最強)
    M4
    コード生成
    LLM
    ローカルLLM
    Qwen3モデル評価:MacBook Air M4(32GB)でのローカルLLMコード生成検証
    M4
    コード生成
    LLM
    ローカルLLM
    Mac mini で ローカルLLM: Google の Gemma 3(MLX版 27B 3bit)を MLX LM + コマンドライン/Python で試す
    Python
    mlx
    ローカルLLM
    mlx-lm
    Gemma3
    Mac mini で ローカルLLM: MLX LM を使ってモデルを扱うHTTPサーバーを用意する
    mlx
    Gemma
    ローカルLLM
    mlx-lm
    Gemma3
    Mac mini での ローカルLLM で使ったモデルの一部を削除する(MLX LM、MLX-VLM で使ったもの)
    Mac
    mlx
    ローカルLLM
    mlx-vlm
    mlx-lm
    Mac mini で ローカルLLM: Qwen3(MLX版)を MLX LM + Python で試した時のメモ
    Python
    mlx
    ローカルLLM
    mlx-lm
    Qwen3
    Mac mini で ローカルLLM: Qwen3(MLX版 14B 8bit)を MLX LM で試した時のメモ
    mlx
    Qwen
    ローカルLLM
    mlx-lm
    Qwen3
    MacBook Air 32GBでローカルLLMによるコード生成を評価してみた
    M4
    コード生成
    LLM
    ローカルLLM
    HuggingFace で公開されている LLM のモデルを MLXで変換してLM Studioで動かす手順
    mlx
    huggingface
    LLM
    LMStudio
    Mac Studio M3 Ultraでmlx-lmを使ってllama4 Scoutを動かす
    Python3
    MacStudio
    mlx-lm
    Llama4
    Mac Studio M3 UltraでDeepSeek v3 0324を使ってRoo Codeを動かす
    MacStudio
    DeepSeekV3
    RooCode
    マルチモーダル/ビジョン系モデルのローカル環境の構築方法
    プラットフォーム
    ファインチューニング
    vlm
    ローカルLLM
    Mac mini で ローカルLLM: Google の Gemma 3(MLX版 12B 8bit)を MLX LM で試す
    Google
    mlx
    ローカルLLM
    mlx-lm
    Gemma3
    Ollamaが遂にMLXをサポートするらしいので試してみました
    macOS
    mlx
    LLM
    Ollma
    Unsloth: 大規模言語モデルのファインチューニングを2倍速く、メモリ使用量を70%削減する方法
    LLM
    Unsloth
    DeepSeekR1
    GRPO
    PlaMo 2 1Bをファインチューニングして記事推薦AIをつくる
    FineTuning
    LLM
    PLaMo
    MacでLLM触るならmlx_lmだろ!~Notebookでの学習編~
    Mac
    LLM
    mlx-lm
    MacでLLM触るならmlx_lmだろ!~コマンドラインでの学習編~
    Mac
    LLM
    mlx-lm
    「Qwen2.5-VL」の量子化された MLX版のモデル(7B 8bit)と「MLX-VLM」を使ったローカルLLM(Image to Text、M4 Mac mini を利用)
    Python
    mlx
    ローカルLLM
    mlx-vlm
    qwen2.5VL
    MacでLLM触るならmlx_lmだろ!~推論編~
    Mac
    LLM
    mlx-lm
    テスト
    テスト
    mlx-community の「Llama-3-ELYZA-JP-8B-8bit」「Swallow-13b-instruct-v0.1-8bit」を mlx-lm で試す
    mlx
    LLaMA
    ELYZA
    Swallow
    mlx-lm
    MLX でローカルLLM:「mlx-community/phi-4-4bit」を試す(M4 Mac mini、mlx-lm を利用)
    Microsoft
    mlx
    ローカルLLM
    mlx-lm
    Phi-4
    Apple silicon専用機械学習フレームワークでLLMのファインチューニングをやってみた
    LoRa
    FineTuning
    mlx
    LLM-jp
    円城塔
    2
    2
    OpenELM・SmolLM等小規模LLM(SLM)の各種チューニング手法について
    merge
    FineTuning
    small
    LLM
    最近(~2024年5月)公開された LLM の性能を ELYZA-tasks-100 で比較してみた
    LLM
    karakuri-lm
    Phi-3
    OpenELM
    Fugaku-LLM
    Vecteus-v1をLangChain Agentにしてみた
    huggingface
    Streamlit
    LangChain
    • 1
    • 2