Page: 16 / 103
AI / MLJavaScriptLangChain.jsLLMNode.js
LangChain.jsの動作確認コストを抑えるため、FakeLLMを利用する
LangChainを使用すると、複数のモデル呼び出しやベクトル検索、データ処理などのワークフローを簡単に作ることができます。しかし、LLMのAPIを呼び出すたびにコストが心配になる場合もあります。そこで、FakeLLMがLangChain / LangChain.jsに用意されており、ダミーのLLMとして使用できます。FakeLLMでは言語モデルをLLMまたはChatモデルとして利用できます。また、FakeListLLMを使用することで、ダミーの返答文章を配列で設定し、呼び出すたびに順番に返すことができます。さらに、sleepを使用することでレスポンスの遅延をシミュレートすることも可能です。
AI / MLCloudflareHono / SonikJavaScriptLangChain.jsLLMNode.jsSaaS / FaaS
Cloudflare Workers / R2 / Hono / LangChain.jsを使ってRAGを作ってみる
この記事は、特定のアドベントカレンダーに関連しており、CloudflareとHonoの利用方法について説明されています。記事では、ベクターストアの作成や定期的なデータの取り込み処理などが紹介されています。また、自分のブログを参照したり、HonoでAPIを実装する方法やGUIアプリケーションの作成についても説明されています。しかしながら、Cloudflare Vectorizeの使用やFAISSの利用も検討する必要があると述べられています。
AI / MLJavaScriptLangChain.jsLLMNode.js
LangChain (Amazon Bedrock & Claude)で、文章から検索キーワードを抽出してみた
この記事はLangChain Advent Calendar 2023の22日目の記事です。LangChainやLLMを使ってデータを検索する仕組みを作る際、一般的にはベクターストアなどのRAGを利用することが多いですが、コストや案件規模によってはより簡素な仕組みでも十分です。この記事ではGoogle検索のような「文章で検索できる仕組み」を作る方法を紹介しています。具体的な処理方法やコードの実装例も掲載されています。
AI / MLJavaScriptLangChain.jsLLMNode.js
LangChainのRemoteLangChainRetrieverでREST APIを使う
この記事は「LangChain Advent Calendar 2023」21日目の記事で、LangChainを使った回答作成について説明しています。通常、外部データソースを使う場合はEmbeddingやベクターストアを使うことが一般的ですが、LangChainのドキュメントにはREST APIを使った実装もできることが書かれています。具体的な実装例として、RemoteLangChainRetrieverを使用したコードが紹介されています。また、Retriever向けのAPIを作成する際のポイントも解説されています。
AI / MLJavaScriptLangChain.jsLLMNode.js
Faiss-node + LangChainでEmbeddingしたベクトルデータをローカルファイルに保存・ロードする
LangChainでRAGを作る際、Embedding APIで作ったベクトルデータを保存する方法として、faissを試しました。Node.jsで動作するfaiss-nodeを使用し、FaissStoreを利用することでベクトルデータを生成し、保存できます。保存したデータを利用して検索する場合も、FaissStoreのloadメソッドを使用します。保存したファイルからベクトルデータを読み込むことができます。これにより、より手軽にRAGのデモやPoCを作成できるようになります。また、Amazon S3やCloudflare R2に保存することも検討しています。