Zennta

  • ログイン会員登録
  • 検索後で読むお気に入りお気に入りグループ

履歴

履歴がありません

Qiita一覧

Zenn一覧

  • お問い合わせフォーム利用規約プライバシーポリシー
    • 1
    ELYZA-Thinking-1.0で数学オリンピック予選問題を解く
    ELYZA-Thinking-1.0: MCTS を用いた推論パス探索と模倣学習による Reasoning Model の開発
    Grok API(Grok 2)で遊んでみた!【Elyza Tasks 100】
    採点理由を出力しながらローカルLLMを評価する【Elyza Tasks 100】
    Developing “Llama-3-ELYZA-JP-120B” Using Depth Up-Scaling
    無料APIを利用したElyza-tasks-100の評価ツール
    Elyza-tasks-100の自動評価スクリプト
    Depth Up-Scalingを用いた「Llama-3-ELYZA-JP-120B」の開発
    【LLM】CPU環境でLlama-3-ELYZA-JP on gRPCを試してみた
    「ELYZA-japanese-Llama-2-70b」開発における、大規模モデル学習ノウハウの解説
    🤖💯Elyza-tasks-100 人間の回答をAIに評価してもらうシステム作ってみた
    ELYZA-tasks-100を人間が解くと何点取れるのか?
    Dify + Llama 3 で遊んでみる (2) — Llama-3-ELYZA-JP-8B も使ってしまう
    Llama-3-ELYZA-JP-8Bを動かす 
    ELYZA LLM for JP (デモ版)についての解説: (1) 70Bモデルの推論基盤
    Singularity + ELYZA-7bでLocal LLM の fine-tuningを実行する(環境構築メイン)
    ELYZA日本語LLMの70億パラメータと130億パラメータを比較してみた
    ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (3) 英語での性能評価編
    M1 Macでnode-llama-cppを使ってElyza-13bを動かしてみた
    M1 Macでllama.cppを使ってElyza-13bを動かしてみた
    M1 MacでAirLLMを使ってElyza-13bを動かしてみた
    ELYZA-japanese-Llama-2-7bをM1 Mac上でRustで動かす
    「Code Llama」をベースとした商用利用可能な日本語LLM「ELYZA-japanese-CodeLlama-7b」を公開しました
    M1/M2 Macのローカルで日本語対応のLLMを実行する(ELYZA版)
    ELYZA-japanese-Llama-2-7bをAWQ化して利用する
    ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (2) 評価編
    ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (1) 事前学習編
    ローカルのELYZA-japanese-Llama-2-7bをlangchainで試す
    • 1
    記事がありません