Zennta
ログイン
会員登録
検索
後で読む
お気に入り
お気に入りグループ
検索
Qiita一覧
Zenn一覧
お問い合わせフォーム
利用規約
プライバシーポリシー
1
小さい計算コストでスマートにLLMをチューニング!-Hugging Face PEFT入門(後編)
小さい計算コストでスマートにLLMをチューニング!-Hugging Face PEFT入門(前編)
Hugging Face peft(lora)まとめ
LLM model を, PEFT checkpoint から from_pretrained するメモ
huggingfaceのPEFTについて
RLHFとTRLとPEFTの関係性
japanese-stablelmを低コストEC2でaccelerateとpeft使ってQlora並列学習させてみるコード
1
1
2
3
More pages
次へ
猿でもわかるAIの倫理・リスクシリーズ 🐵⚠️AIによる文化消滅リスク
機械学習
AI
バイナリテック
🔥 賞金総額28,000ドル!データフィルタリングチャレンジ開催!
NVIDIA
機械学習
MachineLearning
Dataset
深層学習
オープンなRetriever (ColPaliベース) とGenerator (VLM) を用いたVision RAG
rag
ImageToText
生成AI
LLM
vlm
RuntimeErrorとRecursionErrorが出た話
Python
numpy
RuntimeError
RecursionError
ChatGPT
gemma-2-2b-jpn-itで二値分類をする
自然言語処理
難しいことは知りましぇん
LLM
QLORA
AIによる文書処理の自動化
AI
文書分類
OCR
Dataiku
ドキュメンAI
【LLMファインチューニング】LoRA × Falcon-RW-1Bによる意図分類(Buyer Intent Prediction)
Python
AI
FineTuning
huggingface
LLM
FlowerとLoRAで実現する Federated Fine-Tuning(連合学習 × Fine-Tuning)
LoRa
FineTuning
連合学習
GenerativeAI
LLM
自作FineTuningモデルを作ってGoogle ColabでAITuberを動かしてみた
FineTuning
GoogleColaboratory
huggingface
LLM
AITuber
NVIDIA GTC2025@San Joseに参加してきました
NVIDIA
GTC
生成AI
LLM
GTC2025
医療AIの最新研究:時系列データの表現学習、リスク層別化、そしてLLMラベリング
中野哲平
株式会社NAM
非営利団体NAM
NAM中野哲平氏による論文解説
Florence-2の画像キャプションとOCRの日本語化
ファインチューニング
vlm
Florence-2
Google Cloudアップデート (3/13-3/19/2025)
GoogleCloud
マルチモーダル/ビジョン系モデルのローカル環境の構築方法
プラットフォーム
ファインチューニング
vlm
ローカルLLM
RAGとファインチューニングについて
AI
FineTuning
rag
ファインチューニング
LLM
Llama2 のファインチューニングに低ランク適応 (LoRA) を使用
DeepLearning
intel
LoRa
ファインチューニング
llama2
【マルチモーダル】Phi-4-multimodalで音声ファイルからテキスト生成させる
AI
SpeechToText
MultiModal
GoogleColaboratory
Phi-4
生成AI用語集
用語
AI
単語帳
生成AI
LLM
【GitHub人気急騰】Unsloth徹底解説:LoRA+4bit量子化で大規模モデルを軽量・高速に運用する方法
OSS
LoRa
ChatGPT
LLM
Unsloth
DeepSeekをオンプレミス環境でファインチューニングする方法
MLOps
LLM
LLMOps
中野哲平
慶應
Unsloth: 大規模言語モデルのファインチューニングを2倍速く、メモリ使用量を70%削減する方法
LLM
Unsloth
DeepSeekR1
GRPO
Azure AI Foundry から gpt-4o-miniをファインチューニング
Azure
FineTuning
ファインチューニング
AzureAIFoundry
Llama 3.2-1B を Unsloth + vLLM でファインチューニング & 高速推論
LoRa
FineTuning
LLaMA
vLLM
Unsloth
マルチモーダルモデル(LLaVA)に触れてみる
DeepLearning
MultiModal
LLaVA
TinySwallow-1.5BをSFTして大喜利生成してみた
Python
huggingface
LLM
SakanaAI
DeepSeek-R1-Distill-Llama-8Bを日本語でファインチューニングしてみる
Databricks
FineTuning
DeepSeekR1
2025年版:データサイエンティスト協会スキルチェックリストver.5.0「データサイエンス力」に必要な本
本
機械学習
データ分析
データサイエンス
データサイエンティスト
AIを使ってアプリケーション名からCPEを求められないか? #1 LoRA
AI
LoRa
cpe
LLM
DeepSeek R1モデルで数学問題をGRPO (Group Relative Policy Optimization) トレーニング
DeepSeekR1
GRPO
PEFT手法サーベイ
FineTuning
LLM
PEFT
1
2
3
More pages
次へ