Zennta

  • ログイン会員登録
  • 検索後で読むお気に入りお気に入りグループ

履歴

履歴がありません

Qiita一覧

Zenn一覧

  • お問い合わせフォーム利用規約プライバシーポリシー
    • 1
    初めてのSageMaker AIでSFTTrainerによるLLMのフルパラメータファインチューニングを試す
    ADOPTをTrainerで使う&ADOPTとAdamWの比較
    SFTTrainerでdataset_text_fieldの引数を使う場合、学習データの構造次第では意図した学習が行われない可能性がある
    TransformersのTrainerを汎用的に使用する
    HuggingfaceのTrainer.train()でログを残す方法
    Vertex AIのworkbenchを使用した際、HuggingFaceのTrainer()が開始されない事象への対処法
    transformers の Trainer のモデル評価/保存戦略 (evaluation_strategy/save_strategy)
    Error:Couldn't connect to trainer on port 5004(Unity ml-agents )
    • 1
    • 1
    • 2
    • 3
    • More pages
    • 次へ
    0から学んだLLM ~GW 1週間の学習記録~
    初心者
    Transformer
    LLM
    猿でもわかるAIの倫理・リスクシリーズ 🐵⚠️AIによる文化消滅リスク
    機械学習
    AI
    バイナリテック
    小学生用のポケモン計算コード(日記)
    Python
    プロンプトエンジニアリングは死んだ(in 2025)
    生成AI
    GenerativeAI
    LLM
    プロンプトエンジニアリング
    prompt_engineering
    猿でもわかるAIの倫理・リスクシリーズ 🐵⚠️AIによるニュースフェイク拡散問題
    機械学習
    AI
    バイナリテック
    ポケポケのシミュレータを作った
    JavaScript
    初心者
    シミュレーション
    ポケモン
    猿でもわかるAIプログラミングシリーズ 🐵💻 | [第7回]Chatbotをゼロから作る方法(Python編)
    機械学習
    AI
    バイナリテック
    DQN、PPO、GRPOの比較
    DQN
    PPO
    GRPO
    【LLMファインチューニング】LoRA × Falcon-RW-1Bによる意図分類(Buyer Intent Prediction)
    Python
    AI
    FineTuning
    huggingface
    LLM
    GPTプロンプトとポケモンを活用したTOEIC
    AI
    TOEIC
    チャットGPT
    FlowerとLoRAで実現する Federated Fine-Tuning(連合学習 × Fine-Tuning)
    LoRa
    FineTuning
    連合学習
    GenerativeAI
    LLM
    WandBのSweepsやってみた(ViT + PyTorchLightning + Transformer-Explainability)※精度は上がってないよ
    PyTorch
    Transformer
    Pytorch-lightning
    ViT
    VisionTransformer
    小規模な事前学習モデルのSarashina2.2の0.5Bと3Bを使ってアニメクイズモデルを作ってみた
    Python
    AI
    SLM
    Sarashina2.2
    自作FineTuningモデルを作ってGoogle ColabでAITuberを動かしてみた
    FineTuning
    GoogleColaboratory
    huggingface
    LLM
    AITuber
    CloudfrontとS3で静的ホスティングしてみる[AWS]
    AWS
    初心者
    Florence-2の画像キャプションとOCRの日本語化
    ファインチューニング
    vlm
    Florence-2
    【関西Kaggler会 2025#1】DatabricksからKaggler向けにMLflowのセッションを実施させて頂きました
    Kaggle
    Databricks
    関西kaggler
    マルチモーダル/ビジョン系モデルのローカル環境の構築方法
    プラットフォーム
    ファインチューニング
    vlm
    ローカルLLM
    Pythonで学ぶ強化学習から Kaggle ConnectX への第一歩を解説
    強化学習
    BERTの実装を試す
    NLP
    AI
    transformers
    LLM
    wslでelixir その158
    Elixir
    WSL
    Axon
    sin波
    Livebook
    プリント基盤(PCB)の画像分類 - 欠陥検知のためのディープラーニング
    Databricks
    転移学習
    SHAP
    huggingface
    wslでelixir その155
    Elixir
    WSL
    Axon
    Livebook
    【GitHub人気急騰】Unsloth徹底解説:LoRA+4bit量子化で大規模モデルを軽量・高速に運用する方法
    OSS
    LoRa
    ChatGPT
    LLM
    Unsloth
    日本語ModernBERTの分類をお試ししてみる
    Python
    初心者
    自然言語処理
    SLM
    ModernBERT
    DeepSeekをオンプレミス環境でファインチューニングする方法
    MLOps
    LLM
    LLMOps
    中野哲平
    慶應
    Unsloth: 大規模言語モデルのファインチューニングを2倍速く、メモリ使用量を70%削減する方法
    LLM
    Unsloth
    DeepSeekR1
    GRPO
    Llama 3.2-1B を Unsloth + vLLM でファインチューニング & 高速推論
    LoRa
    FineTuning
    LLaMA
    vLLM
    Unsloth
    SwiftでCoreMLの学習モデルを自作してみた
    Swift
    coreML
    🚀 RAGを活用した次世代AIチューニング 🤖 データ検索+生成の最強手法!
    機械学習
    #RAG
    #AIチューニング
    #データ検索
    #LLM最適化
    • 1
    • 2
    • 3
    • More pages
    • 次へ