Zennta
ログイン
会員登録
検索
後で読む
お気に入り
お気に入りグループ
検索
Qiita一覧
Zenn一覧
お問い合わせフォーム
利用規約
プライバシーポリシー
記事がありません
1
Tanuki で MoE の挙動を調査
Tanuki8Bに対するMT-Benchを用いた評価を体験してみる
LLMのInstruction Tuning用教師データをTanuki-8x8Bで合成
量子化済みのTanuki-8bにfine-tuning
Tanuki-8B, 8x8B - Direct Preference Optimization (DPO)実行(11/24日勉強会公開用)
Tanuki-8B, 8x8B - Supervised Fine-Tuning (SFT) 実行(11/24日勉強会公開用)
Tanuki-8x8B-vision-exp学習作業記録・tips【前編】
Tanuki-8BにMagpieを適用して日本語の合成対話データセットを作成する
大規模言語モデルの性能の自動評価に関する問題点のメモ書き:Tanuki-8x8Bの事例から
Tanuki-8B の GGUF 版トークナイザ―の調査
Tanukiモデルが全角数字・記号を認識出来ない問題とその解決(LLM学習コーパスの正規化の落とし穴)
Tanuki-8B, 8x8B - 事後学習の軌跡
Tanuki-8x8BにおけるMoE upcycling検討及び事前学習について
TanukiモデルのAWQ、GPTQ、GGUF量子化について
Tanuki-8BとOllamaとDifyを使って日本語ローカルRAG構築
Team Tanuki Phase2 - Tanuki-8B, 8x8B 開発の経緯
Tanuki-8x8Bをダウンロードした後に推論させる方法について
ChatbotArena的なシステムでTanuki-8x8Bを始めとする大規模言語モデルの日本語性能を評価する(2024年8月)
Tanuki-8B,8x8Bの開発完了までに考えていたことと、「科学の基盤モデル」の構築に向けた考え
フルスクラッチで開発した大規模言語モデルTanuki-8B, 8x8Bの性能についての技術的な詳細
大規模言語モデルTanuki-8B, 8x8Bの位置づけや開発指針など
1