Zennta

  • ログイン会員登録
  • 検索後で読むお気に入りお気に入りグループ

履歴

履歴がありません

Qiita一覧

Zenn一覧

  • お問い合わせフォーム利用規約プライバシーポリシー
    • 1
    rinna/japanese-gpt2-mediumをgguf化してllama.cppで動かす
    Rinna-3.6Bに子供の名前を考えてもらった
    Rinnaで遊ぶ
    生成AIモデルrinnaをFineTuningしてデモを公開するまでやってみた
    Japanese MiniGPT-4: rinna 3.6bとBLIP-2を組み合わせてマルチモーダルチャットのモデルを作る
    Rinna-3.6B のLoRAファインチューニングをWindows11上でやってみた
    バッチ化対応APIサーバで rinna 3.6b のスループットを実測する
    FastAPIでStreamingResponseに対応したrinna APIを作ってみる
    rinnaをdeepspeedとaccelerate使ってlora&並列学習させてみる
    Ec2でrinnaとopen-clamを動かすメモ
    DeepSpeed, vLLM, CTranslate2 で rinna 3.6b の生成速度を比較する
    RinnaのppoモデルをCTranslate2で高速に動かす
    rinna-3.6bをiPhoneでも動かす
    rinna-3.6bをmlc-llmを使ってMacで動かす
    Rinna-3.6B を llama.cpp で CPU 動作のメモ
    rinnaのllmに献立を考えてもらう
    rinnaに続く道(かも)1 Hugging FaceのDatasetsクイックスタート紹介
    rinna GPT-2モデルの生成パラメータ
    • 1
    • 前へ
    • More pages
    • 2
    • 3
    • 4
    • More pages
    • 次へ
    言語モデルは最新のポケモンを知っているのか
    Python
    PaLM
    ChatGPT
    48個の LLM を用いた Instruction データセットの品質スコアリング
    Python
    自然言語処理
    機械学習
    LLM
    普通ののWindows11(ノートPC)でllama.cppが動く
    LLaMA
    llama.cpp
    Google Colabでtext generation webuiを起動しLlama 2と会話してみた
    LLM
    llama2
    youri-7b
    自分のPCでLLMをdockerを使ってWebUIで動かしてみる
    huggingface
    gradio
    rinna
    ChatGPT
    LLM
    LLMで社内規定エキスパートを作る
    GoogleColaboratory
    rag
    rinna
    LangChain
    LLM
    Youri 7BをFastChatでChatGPT互換APIサーバとして動かして遊ぶ
    rinna
    ChatGPT
    LLM
    fastchat
    youri-7b
    rinna社の日本語LLM 「Youri 7B」を試してみた
    Python
    プロンプト
    LLM
    職場の先輩をLLMで作ってみようとした話
    Python
    機械学習
    AI
    ファインチューニング
    LLM
    onnx runtime を使って GPT を c++ から使ってみる on Windows
    C++
    IME
    gpt
    ONNXRUNTIME
    Rinna-3.6B
    UE5でAPI経由でリアルタイムに合成音声を使うためにプラグインを作った (Koemotion)
    C++
    UnrealEngine
    合成音声
    ue5
    rinna
    mozcの変換にRinna GPTモデルを使ってみる
    C++
    IME
    Mozc
    gpt
    rinna
    【第1回】日本語生成モデル 選手権
    自然言語処理
    ChatGPT
    GPT-4
    Open-Calm
    Weblab-10B
    HuggingFaceのTransformerライブラリを使ってみよう
    Transformer
    huggingface
    mozcの変換コードを理解してみる (on Windows)
    C++
    Windows
    IME
    Mozc
    GPT-NEOXとGoogleColabを使ってLLMをフルスクラッチで作ってみる
    gpt
    LLM
    gpt-neox
    NVIDIA RTX 4060 Ti (16GB) で LLM ファインチューニングの実行時間を測定しました
    LoRa
    FineTuning
    OpenCALM-7B
    rtx4060ti
    Rinna-3.6B
    langchainのカスタムChat Modelを作る
    LangChain
    LLM
    MLflowでLLM カスタムモデルをロギングしてストリーム出力する on Databricks
    Databricks
    MLflow
    LLM
    IMEのリランカでGPTが使えるか試してみる
    C++
    IME
    gpt-2
    大規模言語モデルのパラメーター数ごとに適したSageMakerインスタンスタイプはこれだ!価格感もあるよ
    AI
    OpenAI
    SageMaker
    huggingface
    LLM
    ローカル環境で動作する!AI検索ツールを作った話 〜質問に対する文書検索から回答生成まで〜
    AI
    Search
    embedding
    knn
    LLM
    rinna GPTモデルをonnxに変換し、C++から使ってみる
    C++
    Windows
    ONNX
    gpt-2
    rinna
    LLMのモデルの生成速度とVRAM利用量について調査
    Python3
    LLM
    ローカルで動くマルチモーダルモデル(rinna-4b multimodal)を使って簡単なゲーム実況AIを作ってみた
    AI
    マルチモーダル
    rinna
    LLM
    AITuber
    CTranslate2で変換したLLモデルをMLflowでロギングする on Databricks
    Databricks
    MLflow
    LangChain
    LLM
    CTranslate2
    CTranslate2+langchainで推論をStream出力する on Databricks
    Databricks
    LangChain
    LLM
    CTranslate2
    Vicuna v1.5をCTranslate2で変換して動かす on Databricks
    VICUNA
    Databricks
    LLM
    CTranslate2
    QAタスクでRinna 3.6BをファインチューニングしてChatGPTの性能を目指す
    LoRa
    JGLUE
    rinna
    ChatGPT
    LLM
    Python初心者が4か月でAIアプリを開発した話
    Python
    初心者
    Streamlit
    ChatGPT
    • 前へ
    • More pages
    • 2
    • 3
    • 4
    • More pages
    • 次へ