Zennta

  • ログイン会員登録
  • 検索後で読むお気に入りお気に入りグループ

履歴

履歴がありません

Qiita一覧

Zenn一覧

  • お問い合わせフォーム利用規約プライバシーポリシー
    記事がありません
    • 1
    Azure OpenAI Service でモデルの蒸留 (Model Distillation) を行う
    文献調査: 「TAID: Temporally Adaptive Interpolated Distillation」
    OpenAIの蒸留機能(Model Distillation)を使って運用中のLLMのコストを削減する取り組み
    【Knowledge Distillation explained】Part1: Intro ~ DataLoading【Method】
    論文要約:FoPro-KD: Fourier Prompted Effective Knowledge Distillation for L
    • 1