Zennta
ログイン
会員登録
検索
後で読む
お気に入り
お気に入りグループ
検索
Qiita一覧
Zenn一覧
お問い合わせフォーム
利用規約
プライバシーポリシー
1
初めてのSageMaker AIでSFTTrainerによるLLMのフルパラメータファインチューニングを試す
ADOPTをTrainerで使う&ADOPTとAdamWの比較
SFTTrainerでdataset_text_fieldの引数を使う場合、学習データの構造次第では意図した学習が行われない可能性がある
TransformersのTrainerを汎用的に使用する
HuggingfaceのTrainer.train()でログを残す方法
Vertex AIのworkbenchを使用した際、HuggingFaceのTrainer()が開始されない事象への対処法
transformers の Trainer のモデル評価/保存戦略 (evaluation_strategy/save_strategy)
Error:Couldn't connect to trainer on port 5004(Unity ml-agents )
1
1
2
3
More pages
次へ
0から学んだLLM ~GW 1週間の学習記録~
初心者
Transformer
LLM
猿でもわかるAIの倫理・リスクシリーズ 🐵⚠️AIによる文化消滅リスク
機械学習
AI
バイナリテック
小学生用のポケモン計算コード(日記)
Python
プロンプトエンジニアリングは死んだ(in 2025)
生成AI
GenerativeAI
LLM
プロンプトエンジニアリング
prompt_engineering
猿でもわかるAIの倫理・リスクシリーズ 🐵⚠️AIによるニュースフェイク拡散問題
機械学習
AI
バイナリテック
ポケポケのシミュレータを作った
JavaScript
初心者
シミュレーション
ポケモン
猿でもわかるAIプログラミングシリーズ 🐵💻 | [第7回]Chatbotをゼロから作る方法(Python編)
機械学習
AI
バイナリテック
DQN、PPO、GRPOの比較
DQN
PPO
GRPO
【LLMファインチューニング】LoRA × Falcon-RW-1Bによる意図分類(Buyer Intent Prediction)
Python
AI
FineTuning
huggingface
LLM
GPTプロンプトとポケモンを活用したTOEIC
AI
TOEIC
チャットGPT
FlowerとLoRAで実現する Federated Fine-Tuning(連合学習 × Fine-Tuning)
LoRa
FineTuning
連合学習
GenerativeAI
LLM
WandBのSweepsやってみた(ViT + PyTorchLightning + Transformer-Explainability)※精度は上がってないよ
PyTorch
Transformer
Pytorch-lightning
ViT
VisionTransformer
小規模な事前学習モデルのSarashina2.2の0.5Bと3Bを使ってアニメクイズモデルを作ってみた
Python
AI
SLM
Sarashina2.2
自作FineTuningモデルを作ってGoogle ColabでAITuberを動かしてみた
FineTuning
GoogleColaboratory
huggingface
LLM
AITuber
CloudfrontとS3で静的ホスティングしてみる[AWS]
AWS
初心者
Florence-2の画像キャプションとOCRの日本語化
ファインチューニング
vlm
Florence-2
【関西Kaggler会 2025#1】DatabricksからKaggler向けにMLflowのセッションを実施させて頂きました
Kaggle
Databricks
関西kaggler
マルチモーダル/ビジョン系モデルのローカル環境の構築方法
プラットフォーム
ファインチューニング
vlm
ローカルLLM
Pythonで学ぶ強化学習から Kaggle ConnectX への第一歩を解説
強化学習
BERTの実装を試す
NLP
AI
transformers
LLM
wslでelixir その158
Elixir
WSL
Axon
sin波
Livebook
プリント基盤(PCB)の画像分類 - 欠陥検知のためのディープラーニング
Databricks
転移学習
SHAP
huggingface
wslでelixir その155
Elixir
WSL
Axon
Livebook
【GitHub人気急騰】Unsloth徹底解説:LoRA+4bit量子化で大規模モデルを軽量・高速に運用する方法
OSS
LoRa
ChatGPT
LLM
Unsloth
日本語ModernBERTの分類をお試ししてみる
Python
初心者
自然言語処理
SLM
ModernBERT
DeepSeekをオンプレミス環境でファインチューニングする方法
MLOps
LLM
LLMOps
中野哲平
慶應
Unsloth: 大規模言語モデルのファインチューニングを2倍速く、メモリ使用量を70%削減する方法
LLM
Unsloth
DeepSeekR1
GRPO
Llama 3.2-1B を Unsloth + vLLM でファインチューニング & 高速推論
LoRa
FineTuning
LLaMA
vLLM
Unsloth
SwiftでCoreMLの学習モデルを自作してみた
Swift
coreML
🚀 RAGを活用した次世代AIチューニング 🤖 データ検索+生成の最強手法!
機械学習
#RAG
#AIチューニング
#データ検索
#LLM最適化
1
2
3
More pages
次へ