Zennta
ログイン
会員登録
検索
後で読む
お気に入り
お気に入りグループ
検索
Qiita一覧
Zenn一覧
お問い合わせフォーム
利用規約
プライバシーポリシー
1
MLX Swift Examples で高クオリティ!カスタム Stable Diffusion モデル追加ガイド
iPad で、LLM を動作させる手順詳細(Deep Seek R1, Qwen , MLX)、オンデバイスAIに向けて
【LLM】MLXの基本的なコードまとめ(lora,seed,Temperature設定など)
Phi-4-miniのMLX-8bitモデル
Appleが研究しているMLXとは
Llama3(Hugging Face)のモデルの重みをmlxに変換し、Apple Silicon Macで動かす
Stockmark-100BをMLXでローカルで動かしてみた
Llama3 を MLX で動かしてみた
Swallow v0.1とMLXでローカルチャットbotを動かしてみた
MLX SwiftでMeta Llama 3を動かす
Llama 3とApple MLXでローカルチャットbotを動かしてみた
Llama3をローカルMac(MLX)で使ってみる
MLXと⌘R+ (Command R+)でローカルチャットbotを動かしてみた
Command-R (35B)をMac(MLX)でローカルで動かしてAPIサーバにする
MLXを使ってMacのローカル環境で”ござる”loraを作成してみる
MLX で Mac で LLM fine-tuning
MLX で Llama2 を動かしてみる
mlxでStable Diffusionを動かす
Apple Silicon用に最適化されたML用のライブラリMLXで最速Whisperを試す
【IoT】”AtomS3”でM5StickC Thermal Camera Hat(MLX90640)を動かす
1
1
2
3
More pages
次へ
Mac mini で ローカルLLM: Google の Gemma 3(量子化された MLX版 2種)の画像入力を MLX-VLM で試す
mlx
ローカルLLM
mlx-vlm
Gemma3
FastRTCを日本語対応に!リアルタイム音声処理拡張パッケージ fastrtc-jp を作りました
音声合成
WebRTC
音声認識
VOICEVOX
Style-Bert-VITS2
Mac mini で ローカルLLM:「Qwen3-30B-A3B」「Phi-4-reasoning」を MLX LM で試す(量子化された MLX版)
mlx
ローカルLLM
mlx-lm
Qwen3
Phi-4-reasoning
MacBook Air 32GBでローカルLLMによるコード生成を評価してみた(2025/04 最終稿:Qwen3-30B-A3Bのlmxが最強)
M4
コード生成
LLM
ローカルLLM
Qwen3モデル評価:MacBook Air M4(32GB)でのローカルLLMコード生成検証
M4
コード生成
LLM
ローカルLLM
Mac mini で ローカルLLM: Google の Gemma 3(MLX版 27B 3bit)を MLX LM + コマンドライン/Python で試す
Python
mlx
ローカルLLM
mlx-lm
Gemma3
Mac mini で ローカルLLM: MLX LM を使ってモデルを扱うHTTPサーバーを用意する
mlx
Gemma
ローカルLLM
mlx-lm
Gemma3
Mac mini での ローカルLLM で使ったモデルの一部を削除する(MLX LM、MLX-VLM で使ったもの)
Mac
mlx
ローカルLLM
mlx-vlm
mlx-lm
Mac mini で ローカルLLM: Qwen3(MLX版)を MLX LM + Python で試した時のメモ
Python
mlx
ローカルLLM
mlx-lm
Qwen3
Mac mini で ローカルLLM: Qwen3(MLX版 14B 8bit)を MLX LM で試した時のメモ
mlx
Qwen
ローカルLLM
mlx-lm
Qwen3
MacBook Air 32GBでローカルLLMによるコード生成を評価してみた
M4
コード生成
LLM
ローカルLLM
MLXだけでMNISTを予測してみた(numpy完全排除)
Python
Apple
AI
MNIST
mlx
HuggingFace で公開されている LLM のモデルを MLXで変換してLM Studioで動かす手順
mlx
huggingface
LLM
LMStudio
【失敗】ペットボトルを暖めるホルダーが欲しい
電子工作
PID
M5StickC
Mac Studio M3 Ultraでmlx-lmを使ってllama4 Scoutを動かす
Python3
MacStudio
mlx-lm
Llama4
Mac Studio M3 UltraでDeepSeek v3 0324を使ってRoo Codeを動かす
MacStudio
DeepSeekV3
RooCode
【Node.js】OpenAI の API + 新モデル(gpt-4o-transcribe、gpt-4o-mini-transcribe)で音声認識
JavaScript
Node.js
OpenAI
gpt-4o-transcribe
gpt-4o-mini-transcribe
Rocky LinuxやAlmaLinuxで使うかもしれない、ELRepoってなんだ?
elrepo
AlmaLinux
RockyLinux
RockyLinux9
マルチモーダル/ビジョン系モデルのローカル環境の構築方法
プラットフォーム
ファインチューニング
vlm
ローカルLLM
Mac mini で ローカルLLM: Google の Gemma 3(MLX版 12B 8bit)を MLX LM で試す
Google
mlx
ローカルLLM
mlx-lm
Gemma3
音声のフーリエ変換
MATLAB
Ollamaが遂にMLXをサポートするらしいので試してみました
macOS
mlx
LLM
Ollma
Unsloth: 大規模言語モデルのファインチューニングを2倍速く、メモリ使用量を70%削減する方法
LLM
Unsloth
DeepSeekR1
GRPO
PlaMo 2 1Bをファインチューニングして記事推薦AIをつくる
FineTuning
LLM
PLaMo
はじめてのNN実装:MATLAB/Simulinkでゼロから作るシンプルXORニューラルネットワーク入門
MATLAB
DeepLearning
ニューラルネットワーク
XOR
Simulink
MacでLLM触るならmlx_lmだろ!~Notebookでの学習編~
Mac
LLM
mlx-lm
MacでLLM触るならmlx_lmだろ!~コマンドラインでの学習編~
Mac
LLM
mlx-lm
「Qwen2.5-VL」の量子化された MLX版のモデル(7B 8bit)と「MLX-VLM」を使ったローカルLLM(Image to Text、M4 Mac mini を利用)
Python
mlx
ローカルLLM
mlx-vlm
qwen2.5VL
【蒸留モデル】DeepSeek-R1ローカル実行時におすすめのモデル
macOS
ollama
DeepSeekR1
MacでLLM触るならmlx_lmだろ!~推論編~
Mac
LLM
mlx-lm
1
2
3
More pages
次へ