Zennta

  • ログイン会員登録
  • 検索後で読むお気に入りお気に入りグループ

履歴

履歴がありません

Qiita一覧

Zenn一覧

  • お問い合わせフォーム利用規約プライバシーポリシー
    記事がありません
    • 1
    大規模言語モデル(LLM)の事前学習と圧縮理論:基礎から理解する
    特化型llm(Doujinshi-1.8b)の開発報告書④:DeepSpeedを用いた継続事前学習
    特化型llm(Doujinshi-1.8b)の開発報告書②:特定のドメインに特化した事前学習用データセット(コーパス)の作成
    Unsloth で継続事前学習 + ファインチューニングする
    継続事前学習とフルファインチューニングを比較してみた
    T5で使える継続事前学習とは?
    Megatron-LMとGCPを用いたLlama-3.1 70Bのマルチノード継続事前学習
    Gemma 2の日本語継続事前学習モデルGemma 2 Baku 2B Instructを使ってみた
    事前学習の方法(10/27日勉強会公開用)
    事前学習環境構築 ~シェルスクリプトによる再現性の担保~
    Tanuki-8x8BにおけるMoE upcycling検討及び事前学習について
    日本語LLMにヒンディー語も学習させてみた。①事前学習・知識転移編
    事前学習編:Llama2 7B マルチノード/マルチGPU環境での事前学習
    時間とリソースの制約下での前処理:事前学習用データセットの構築方法
    GENIAC: 172B 事前学習知見
    Llama-3-Swallow: 日本語に強い継続事前学習モデル
    【LLM】1B帯の日本語事前学習モデルのベンチマークを測定する
    Qwen/Qwen1.5-0.5Bを継続事前学習してみた【Tokara-0.5B】
    LiteLlama-460M-1Tを日英データで継続事前学習してみた
    Megatron-DeepSpeedによるLlama2継続事前学習入門
    HuggingFaceとDeepSpeedで実践継続事前学習
    Swallow-MS: Mistral日本語継続事前学習モデル
    Swallow-MX: Mixtral日本語継続事前学習MoEモデル
    Swallow: LLaMA-2 日本語継続事前学習モデル
    大規模言語モデルの事前学習知見を振り返る
    LiLM 小規模言語モデル TinyLlama 1.1B の日本語追加事前学習(incremental pretrain) を試したメモ
    ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (1) 事前学習編
    TensorflowのResNet50の事前学習モデルをU-Netに転移学習させる方法
    【超簡単】事前学習済みモデルRetinaNetを使った物体検出をご紹介します
    Huggingface Transformersで可能な限り多くの事前学習済み画像キャプション生成機械学習モデルを試して考察せよ🤗。実行:
    脱・人力アノテーション!自己教師あり学習による事前学習手法と自動運転への応用
    論文要約: GraphCodeBERT - コードの変数の依存関係を入力して事前学習したモデル
    論文要約: DITTO - 事前学習済み言語モデルを利用したEntity Matching手法
    BertJapaneseTokenizerを使った日本語事前学習済みALBERTモデルをつくった
    論文要約: PANNs - 音声タスクのための汎用事前学習済みモデル
    SudachiをつかったBERTの事前学習モデルの構築をしてみようとおもったら(いまやってる途中)
    日本語事前学習済みALBERTモデルを公開します
    • 1