Googleの最新AIモデルGemmaを使ってみた
Googleがオープンソースの大規模言語モデル「Gemma(ジェマ)」を公開しました。早速、Google CloudのVertex AIへのモデルのデプロイとGoogle ColabでGemmaにプロンプトを投げるチュートリアルを試してみました。
19件の記事
Googleがオープンソースの大規模言語モデル「Gemma(ジェマ)」を公開しました。早速、Google CloudのVertex AIへのモデルのデプロイとGoogle ColabでGemmaにプロンプトを投げるチュートリアルを試してみました。
今回はLLMのプロンプトに手を入れて日頃少し距離を感じてしまうようなChatアプリからの回答をキャラクターっぽく変更して身近なものに変える試みをしています。かなり簡単にできる変更な割に効果も思ったより大きいと思われるので、まだ実装していない場合はぜひ実装してみると良いかと思います。
LangChainを使うと多様なLLMモデルを簡単に切り替えて使用できます。今回は最近GA(一般公開)になったGoogle Cloudで提供されているLLMであるPaLM2をLangChainで使用する方法についてまとめています。
本ブログではLLMで自前データを活用する方法についてまとめてきましたが、実際にこのTech Blogの内容を踏まえた上で色々と質問をしてみたらどのような回答が得られるかの実験結果についてまとめてみました。
今回は、自前のデータを踏まえた回答をLLMから得るための方法論をなぞって実際にPythonのスクリプトをどのように実装すれば良いかについてまとめてみます。自前のデータとしては本ブログのMarkdownデータを活用します。
ChatGPTをはじめとして、大変便利に活用が進んでいるLLMですが、やはりやってみたくなるのは自前のデータとの組み合わせかと思います。本記事では、自前データを踏まえた上での回答をLLMから取得するにはどうすれば良いかの方法論についてまとめました。
ユカイ工学のコミュニケーションロボットとして「BOCCO emo」について専用のAPIが公開されているので、まずはその導入と、簡単な文章を発話させてみたいと思います。