Zennta
ログイン
会員登録
検索
後で読む
お気に入り
お気に入りグループ
検索
Qiita一覧
Zenn一覧
お問い合わせフォーム
利用規約
プライバシーポリシー
1
rinna/japanese-gpt2-mediumをgguf化してllama.cppで動かす
Rinna-3.6Bに子供の名前を考えてもらった
Rinnaで遊ぶ
生成AIモデルrinnaをFineTuningしてデモを公開するまでやってみた
Japanese MiniGPT-4: rinna 3.6bとBLIP-2を組み合わせてマルチモーダルチャットのモデルを作る
Rinna-3.6B のLoRAファインチューニングをWindows11上でやってみた
バッチ化対応APIサーバで rinna 3.6b のスループットを実測する
FastAPIでStreamingResponseに対応したrinna APIを作ってみる
rinnaをdeepspeedとaccelerate使ってlora&並列学習させてみる
Ec2でrinnaとopen-clamを動かすメモ
DeepSpeed, vLLM, CTranslate2 で rinna 3.6b の生成速度を比較する
RinnaのppoモデルをCTranslate2で高速に動かす
rinna-3.6bをiPhoneでも動かす
rinna-3.6bをmlc-llmを使ってMacで動かす
Rinna-3.6B を llama.cpp で CPU 動作のメモ
rinnaのllmに献立を考えてもらう
rinnaに続く道(かも)1 Hugging FaceのDatasetsクイックスタート紹介
rinna GPT-2モデルの生成パラメータ
1
前へ
More pages
2
3
4
More pages
次へ
言語モデルは最新のポケモンを知っているのか
Python
PaLM
ChatGPT
48個の LLM を用いた Instruction データセットの品質スコアリング
Python
自然言語処理
機械学習
LLM
普通ののWindows11(ノートPC)でllama.cppが動く
LLaMA
llama.cpp
Google Colabでtext generation webuiを起動しLlama 2と会話してみた
LLM
llama2
youri-7b
自分のPCでLLMをdockerを使ってWebUIで動かしてみる
huggingface
gradio
rinna
ChatGPT
LLM
LLMで社内規定エキスパートを作る
GoogleColaboratory
rag
rinna
LangChain
LLM
Youri 7BをFastChatでChatGPT互換APIサーバとして動かして遊ぶ
rinna
ChatGPT
LLM
fastchat
youri-7b
rinna社の日本語LLM 「Youri 7B」を試してみた
Python
プロンプト
LLM
職場の先輩をLLMで作ってみようとした話
Python
機械学習
AI
ファインチューニング
LLM
onnx runtime を使って GPT を c++ から使ってみる on Windows
C++
IME
gpt
ONNXRUNTIME
Rinna-3.6B
UE5でAPI経由でリアルタイムに合成音声を使うためにプラグインを作った (Koemotion)
C++
UnrealEngine
合成音声
ue5
rinna
mozcの変換にRinna GPTモデルを使ってみる
C++
IME
Mozc
gpt
rinna
【第1回】日本語生成モデル 選手権
自然言語処理
ChatGPT
GPT-4
Open-Calm
Weblab-10B
HuggingFaceのTransformerライブラリを使ってみよう
Transformer
huggingface
mozcの変換コードを理解してみる (on Windows)
C++
Windows
IME
Mozc
GPT-NEOXとGoogleColabを使ってLLMをフルスクラッチで作ってみる
gpt
LLM
gpt-neox
NVIDIA RTX 4060 Ti (16GB) で LLM ファインチューニングの実行時間を測定しました
LoRa
FineTuning
OpenCALM-7B
rtx4060ti
Rinna-3.6B
langchainのカスタムChat Modelを作る
LangChain
LLM
MLflowでLLM カスタムモデルをロギングしてストリーム出力する on Databricks
Databricks
MLflow
LLM
IMEのリランカでGPTが使えるか試してみる
C++
IME
gpt-2
大規模言語モデルのパラメーター数ごとに適したSageMakerインスタンスタイプはこれだ!価格感もあるよ
AI
OpenAI
SageMaker
huggingface
LLM
ローカル環境で動作する!AI検索ツールを作った話 〜質問に対する文書検索から回答生成まで〜
AI
Search
embedding
knn
LLM
rinna GPTモデルをonnxに変換し、C++から使ってみる
C++
Windows
ONNX
gpt-2
rinna
LLMのモデルの生成速度とVRAM利用量について調査
Python3
LLM
ローカルで動くマルチモーダルモデル(rinna-4b multimodal)を使って簡単なゲーム実況AIを作ってみた
AI
マルチモーダル
rinna
LLM
AITuber
CTranslate2で変換したLLモデルをMLflowでロギングする on Databricks
Databricks
MLflow
LangChain
LLM
CTranslate2
CTranslate2+langchainで推論をStream出力する on Databricks
Databricks
LangChain
LLM
CTranslate2
Vicuna v1.5をCTranslate2で変換して動かす on Databricks
VICUNA
Databricks
LLM
CTranslate2
QAタスクでRinna 3.6BをファインチューニングしてChatGPTの性能を目指す
LoRa
JGLUE
rinna
ChatGPT
LLM
Python初心者が4か月でAIアプリを開発した話
Python
初心者
Streamlit
ChatGPT
前へ
More pages
2
3
4
More pages
次へ