Zennta
ログイン
会員登録
検索
後で読む
お気に入り
お気に入りグループ
検索
Qiita一覧
Zenn一覧
お問い合わせフォーム
利用規約
プライバシーポリシー
記事がありません
1
2
Mac mini で ローカルLLM: Google の Gemma 3(量子化された MLX版 2種)の画像入力を MLX-VLM で試す
mlx
ローカルLLM
mlx-vlm
Gemma3
Mac mini で ローカルLLM:「Qwen3-30B-A3B」「Phi-4-reasoning」を MLX LM で試す(量子化された MLX版)
mlx
ローカルLLM
mlx-lm
Qwen3
Phi-4-reasoning
MacBook Air 32GBでローカルLLMによるコード生成を評価してみた(2025/04 最終稿:Qwen3-30B-A3Bのlmxが最強)
M4
コード生成
LLM
ローカルLLM
Qwen3モデル評価:MacBook Air M4(32GB)でのローカルLLMコード生成検証
M4
コード生成
LLM
ローカルLLM
Mac mini で ローカルLLM: Google の Gemma 3(MLX版 27B 3bit)を MLX LM + コマンドライン/Python で試す
Python
mlx
ローカルLLM
mlx-lm
Gemma3
Mac mini で ローカルLLM: MLX LM を使ってモデルを扱うHTTPサーバーを用意する
mlx
Gemma
ローカルLLM
mlx-lm
Gemma3
Mac mini での ローカルLLM で使ったモデルの一部を削除する(MLX LM、MLX-VLM で使ったもの)
Mac
mlx
ローカルLLM
mlx-vlm
mlx-lm
Mac mini で ローカルLLM: Qwen3(MLX版)を MLX LM + Python で試した時のメモ
Python
mlx
ローカルLLM
mlx-lm
Qwen3
Mac mini で ローカルLLM: Qwen3(MLX版 14B 8bit)を MLX LM で試した時のメモ
mlx
Qwen
ローカルLLM
mlx-lm
Qwen3
MacBook Air 32GBでローカルLLMによるコード生成を評価してみた
M4
コード生成
LLM
ローカルLLM
HuggingFace で公開されている LLM のモデルを MLXで変換してLM Studioで動かす手順
mlx
huggingface
LLM
LMStudio
Mac Studio M3 Ultraでmlx-lmを使ってllama4 Scoutを動かす
Python3
MacStudio
mlx-lm
Llama4
Mac Studio M3 UltraでDeepSeek v3 0324を使ってRoo Codeを動かす
MacStudio
DeepSeekV3
RooCode
マルチモーダル/ビジョン系モデルのローカル環境の構築方法
プラットフォーム
ファインチューニング
vlm
ローカルLLM
Mac mini で ローカルLLM: Google の Gemma 3(MLX版 12B 8bit)を MLX LM で試す
Google
mlx
ローカルLLM
mlx-lm
Gemma3
Ollamaが遂にMLXをサポートするらしいので試してみました
macOS
mlx
LLM
Ollma
Unsloth: 大規模言語モデルのファインチューニングを2倍速く、メモリ使用量を70%削減する方法
LLM
Unsloth
DeepSeekR1
GRPO
PlaMo 2 1Bをファインチューニングして記事推薦AIをつくる
FineTuning
LLM
PLaMo
MacでLLM触るならmlx_lmだろ!~Notebookでの学習編~
Mac
LLM
mlx-lm
MacでLLM触るならmlx_lmだろ!~コマンドラインでの学習編~
Mac
LLM
mlx-lm
「Qwen2.5-VL」の量子化された MLX版のモデル(7B 8bit)と「MLX-VLM」を使ったローカルLLM(Image to Text、M4 Mac mini を利用)
Python
mlx
ローカルLLM
mlx-vlm
qwen2.5VL
MacでLLM触るならmlx_lmだろ!~推論編~
Mac
LLM
mlx-lm
テスト
テスト
mlx-community の「Llama-3-ELYZA-JP-8B-8bit」「Swallow-13b-instruct-v0.1-8bit」を mlx-lm で試す
mlx
LLaMA
ELYZA
Swallow
mlx-lm
MLX でローカルLLM:「mlx-community/phi-4-4bit」を試す(M4 Mac mini、mlx-lm を利用)
Microsoft
mlx
ローカルLLM
mlx-lm
Phi-4
Apple silicon専用機械学習フレームワークでLLMのファインチューニングをやってみた
LoRa
FineTuning
mlx
LLM-jp
円城塔
2
2
OpenELM・SmolLM等小規模LLM(SLM)の各種チューニング手法について
merge
FineTuning
small
LLM
最近(~2024年5月)公開された LLM の性能を ELYZA-tasks-100 で比較してみた
LLM
karakuri-lm
Phi-3
OpenELM
Fugaku-LLM
Vecteus-v1をLangChain Agentにしてみた
huggingface
Streamlit
LangChain
1
2