Zennta

  • ログイン会員登録
  • 検索後で読むお気に入りお気に入りグループ

履歴

履歴がありません

Qiita一覧

Zenn一覧

  • お問い合わせフォーム利用規約プライバシーポリシー
    • 1
    小さい計算コストでスマートにLLMをチューニング!-Hugging Face PEFT入門(後編)
    小さい計算コストでスマートにLLMをチューニング!-Hugging Face PEFT入門(前編)
    Hugging Face peft(lora)まとめ
    LLM model を, PEFT checkpoint から from_pretrained するメモ
    huggingfaceのPEFTについて
    RLHFとTRLとPEFTの関係性
    japanese-stablelmを低コストEC2でaccelerateとpeft使ってQlora並列学習させてみるコード
    • 1
    • 1
    • 2
    • 3
    • More pages
    • 次へ
    猿でもわかるAIの倫理・リスクシリーズ 🐵⚠️AIによる文化消滅リスク
    機械学習
    AI
    バイナリテック
    🔥 賞金総額28,000ドル!データフィルタリングチャレンジ開催!
    NVIDIA
    機械学習
    MachineLearning
    Dataset
    深層学習
    オープンなRetriever (ColPaliベース) とGenerator (VLM) を用いたVision RAG
    rag
    ImageToText
    生成AI
    LLM
    vlm
    RuntimeErrorとRecursionErrorが出た話
    Python
    numpy
    RuntimeError
    RecursionError
    ChatGPT
    gemma-2-2b-jpn-itで二値分類をする
    自然言語処理
    難しいことは知りましぇん
    LLM
    QLORA
    AIによる文書処理の自動化
    AI
    文書分類
    OCR
    Dataiku
    ドキュメンAI
    【LLMファインチューニング】LoRA × Falcon-RW-1Bによる意図分類(Buyer Intent Prediction)
    Python
    AI
    FineTuning
    huggingface
    LLM
    FlowerとLoRAで実現する Federated Fine-Tuning(連合学習 × Fine-Tuning)
    LoRa
    FineTuning
    連合学習
    GenerativeAI
    LLM
    自作FineTuningモデルを作ってGoogle ColabでAITuberを動かしてみた
    FineTuning
    GoogleColaboratory
    huggingface
    LLM
    AITuber
    NVIDIA GTC2025@San Joseに参加してきました
    NVIDIA
    GTC
    生成AI
    LLM
    GTC2025
    医療AIの最新研究:時系列データの表現学習、リスク層別化、そしてLLMラベリング
    中野哲平
    株式会社NAM
    非営利団体NAM
    NAM中野哲平氏による論文解説
    Florence-2の画像キャプションとOCRの日本語化
    ファインチューニング
    vlm
    Florence-2
    Google Cloudアップデート (3/13-3/19/2025)
    GoogleCloud
    マルチモーダル/ビジョン系モデルのローカル環境の構築方法
    プラットフォーム
    ファインチューニング
    vlm
    ローカルLLM
    RAGとファインチューニングについて
    AI
    FineTuning
    rag
    ファインチューニング
    LLM
    Llama2 のファインチューニングに低ランク適応 (LoRA) を使用
    DeepLearning
    intel
    LoRa
    ファインチューニング
    llama2
    【マルチモーダル】Phi-4-multimodalで音声ファイルからテキスト生成させる
    AI
    SpeechToText
    MultiModal
    GoogleColaboratory
    Phi-4
    生成AI用語集
    用語
    AI
    単語帳
    生成AI
    LLM
    【GitHub人気急騰】Unsloth徹底解説:LoRA+4bit量子化で大規模モデルを軽量・高速に運用する方法
    OSS
    LoRa
    ChatGPT
    LLM
    Unsloth
    DeepSeekをオンプレミス環境でファインチューニングする方法
    MLOps
    LLM
    LLMOps
    中野哲平
    慶應
    Unsloth: 大規模言語モデルのファインチューニングを2倍速く、メモリ使用量を70%削減する方法
    LLM
    Unsloth
    DeepSeekR1
    GRPO
    Azure AI Foundry から gpt-4o-miniをファインチューニング
    Azure
    FineTuning
    ファインチューニング
    AzureAIFoundry
    Llama 3.2-1B を Unsloth + vLLM でファインチューニング & 高速推論
    LoRa
    FineTuning
    LLaMA
    vLLM
    Unsloth
    マルチモーダルモデル(LLaVA)に触れてみる
    DeepLearning
    MultiModal
    LLaVA
    TinySwallow-1.5BをSFTして大喜利生成してみた
    Python
    huggingface
    LLM
    SakanaAI
    DeepSeek-R1-Distill-Llama-8Bを日本語でファインチューニングしてみる
    Databricks
    FineTuning
    DeepSeekR1
    2025年版:データサイエンティスト協会スキルチェックリストver.5.0「データサイエンス力」に必要な本
    本
    機械学習
    データ分析
    データサイエンス
    データサイエンティスト
    AIを使ってアプリケーション名からCPEを求められないか? #1 LoRA
    AI
    LoRa
    cpe
    LLM
    DeepSeek R1モデルで数学問題をGRPO (Group Relative Policy Optimization) トレーニング
    DeepSeekR1
    GRPO
    PEFT手法サーベイ
    FineTuning
    LLM
    PEFT
    • 1
    • 2
    • 3
    • More pages
    • 次へ