Zennta

  • ログイン会員登録
  • 検索後で読むお気に入りお気に入りグループ

履歴

履歴がありません

Qiita一覧

Zenn一覧

  • お問い合わせフォーム利用規約プライバシーポリシー
    • 1
    MLX Swift Examples で高クオリティ!カスタム Stable Diffusion モデル追加ガイド
    iPad で、LLM を動作させる手順詳細(Deep Seek R1, Qwen , MLX)、オンデバイスAIに向けて
    【LLM】MLXの基本的なコードまとめ(lora,seed,Temperature設定など)
    Phi-4-miniのMLX-8bitモデル
    Appleが研究しているMLXとは
    Llama3(Hugging Face)のモデルの重みをmlxに変換し、Apple Silicon Macで動かす
    Stockmark-100BをMLXでローカルで動かしてみた
    Llama3 を MLX で動かしてみた
    Swallow v0.1とMLXでローカルチャットbotを動かしてみた
    MLX SwiftでMeta Llama 3を動かす
    Llama 3とApple MLXでローカルチャットbotを動かしてみた
    Llama3をローカルMac(MLX)で使ってみる
    MLXと⌘R+ (Command R+)でローカルチャットbotを動かしてみた
    Command-R (35B)をMac(MLX)でローカルで動かしてAPIサーバにする
    MLXを使ってMacのローカル環境で”ござる”loraを作成してみる
    MLX で Mac で LLM fine-tuning
    MLX で Llama2 を動かしてみる
    mlxでStable Diffusionを動かす
    Apple Silicon用に最適化されたML用のライブラリMLXで最速Whisperを試す
    【IoT】”AtomS3”でM5StickC Thermal Camera Hat(MLX90640)を動かす
    • 1
    • 1
    • 2
    • 3
    • More pages
    • 次へ
    Mac mini で ローカルLLM: Google の Gemma 3(量子化された MLX版 2種)の画像入力を MLX-VLM で試す
    mlx
    ローカルLLM
    mlx-vlm
    Gemma3
    FastRTCを日本語対応に!リアルタイム音声処理拡張パッケージ fastrtc-jp を作りました
    音声合成
    WebRTC
    音声認識
    VOICEVOX
    Style-Bert-VITS2
    Mac mini で ローカルLLM:「Qwen3-30B-A3B」「Phi-4-reasoning」を MLX LM で試す(量子化された MLX版)
    mlx
    ローカルLLM
    mlx-lm
    Qwen3
    Phi-4-reasoning
    MacBook Air 32GBでローカルLLMによるコード生成を評価してみた(2025/04 最終稿:Qwen3-30B-A3Bのlmxが最強)
    M4
    コード生成
    LLM
    ローカルLLM
    Qwen3モデル評価:MacBook Air M4(32GB)でのローカルLLMコード生成検証
    M4
    コード生成
    LLM
    ローカルLLM
    Mac mini で ローカルLLM: Google の Gemma 3(MLX版 27B 3bit)を MLX LM + コマンドライン/Python で試す
    Python
    mlx
    ローカルLLM
    mlx-lm
    Gemma3
    Mac mini で ローカルLLM: MLX LM を使ってモデルを扱うHTTPサーバーを用意する
    mlx
    Gemma
    ローカルLLM
    mlx-lm
    Gemma3
    Mac mini での ローカルLLM で使ったモデルの一部を削除する(MLX LM、MLX-VLM で使ったもの)
    Mac
    mlx
    ローカルLLM
    mlx-vlm
    mlx-lm
    Mac mini で ローカルLLM: Qwen3(MLX版)を MLX LM + Python で試した時のメモ
    Python
    mlx
    ローカルLLM
    mlx-lm
    Qwen3
    Mac mini で ローカルLLM: Qwen3(MLX版 14B 8bit)を MLX LM で試した時のメモ
    mlx
    Qwen
    ローカルLLM
    mlx-lm
    Qwen3
    MacBook Air 32GBでローカルLLMによるコード生成を評価してみた
    M4
    コード生成
    LLM
    ローカルLLM
    MLXだけでMNISTを予測してみた(numpy完全排除)
    Python
    Apple
    AI
    MNIST
    mlx
    HuggingFace で公開されている LLM のモデルを MLXで変換してLM Studioで動かす手順
    mlx
    huggingface
    LLM
    LMStudio
    【失敗】ペットボトルを暖めるホルダーが欲しい
    電子工作
    PID
    M5StickC
    Mac Studio M3 Ultraでmlx-lmを使ってllama4 Scoutを動かす
    Python3
    MacStudio
    mlx-lm
    Llama4
    Mac Studio M3 UltraでDeepSeek v3 0324を使ってRoo Codeを動かす
    MacStudio
    DeepSeekV3
    RooCode
    【Node.js】OpenAI の API + 新モデル(gpt-4o-transcribe、gpt-4o-mini-transcribe)で音声認識
    JavaScript
    Node.js
    OpenAI
    gpt-4o-transcribe
    gpt-4o-mini-transcribe
    Rocky LinuxやAlmaLinuxで使うかもしれない、ELRepoってなんだ?
    elrepo
    AlmaLinux
    RockyLinux
    RockyLinux9
    マルチモーダル/ビジョン系モデルのローカル環境の構築方法
    プラットフォーム
    ファインチューニング
    vlm
    ローカルLLM
    Mac mini で ローカルLLM: Google の Gemma 3(MLX版 12B 8bit)を MLX LM で試す
    Google
    mlx
    ローカルLLM
    mlx-lm
    Gemma3
    音声のフーリエ変換
    MATLAB
    Ollamaが遂にMLXをサポートするらしいので試してみました
    macOS
    mlx
    LLM
    Ollma
    Unsloth: 大規模言語モデルのファインチューニングを2倍速く、メモリ使用量を70%削減する方法
    LLM
    Unsloth
    DeepSeekR1
    GRPO
    PlaMo 2 1Bをファインチューニングして記事推薦AIをつくる
    FineTuning
    LLM
    PLaMo
    はじめてのNN実装:MATLAB/Simulinkでゼロから作るシンプルXORニューラルネットワーク入門
    MATLAB
    DeepLearning
    ニューラルネットワーク
    XOR
    Simulink
    MacでLLM触るならmlx_lmだろ!~Notebookでの学習編~
    Mac
    LLM
    mlx-lm
    MacでLLM触るならmlx_lmだろ!~コマンドラインでの学習編~
    Mac
    LLM
    mlx-lm
    「Qwen2.5-VL」の量子化された MLX版のモデル(7B 8bit)と「MLX-VLM」を使ったローカルLLM(Image to Text、M4 Mac mini を利用)
    Python
    mlx
    ローカルLLM
    mlx-vlm
    qwen2.5VL
    【蒸留モデル】DeepSeek-R1ローカル実行時におすすめのモデル
    macOS
    ollama
    DeepSeekR1
    MacでLLM触るならmlx_lmだろ!~推論編~
    Mac
    LLM
    mlx-lm
    • 1
    • 2
    • 3
    • More pages
    • 次へ