Categories
AI / MLAWSLLM
この記事ではAWSを使用してコミュニティイベントのセッション動画の文字起こしを自動化する手順が詳しく解説されています。手順には、AWSを利用して音声ファイルを生成し、文字起こし、レポート作成する過程が含まれています。文章内では具体的な設定や注意点も紹介されており、Amazon TranscribeやAmazon Bedrockを使用して作業を効率化する方法が解説されています。
AI / MLLLMSaaS / FaaS
この記事では、生成AIを使ったアプリ開発の手法を紹介しています。Lovableを使用すると、ノーコードでアプリを作成し、GitHubやGoogleアカウントで無料で試すことができます。テンプレートを活用することで簡単にアプリをセットアップでき、生成されたアプリはSupabaseやGitHubと連携して公開できます。日本語にも対応したモデルを使用し、ReactやShadcnを使ったアプリ開発が可能です。生成AIを活用した手法を試してみる価値があります。
AI / MLDifyLLM
この記事では、Difyのベータ版提供中のワークフロー機能について紹介しています。Difyはノーコードで生成AIを使ったアプリケーションを作成できるオープンソースプロダクトで、AWSやローカルマシン、マネージド版の利用も可能です。ワークフローを作成する際はビジュアルエディタを使用し、ブロックを追加して線で接続することで処理を設計できます。複数ステップや条件分岐も可能で、作成したアプリはAPIやブラウザから利用できます。
AI / MLLLM
この記事では、AWSマネージメントコンソールを使用して複数の生成AIモデルを比較する方法が紹介されています。モデル選定はアプリ開発において重要なステップであり、Amazon Bedrockを使用することで簡単に比較検証が可能です。モデル間の生成結果・精度・入出力のバリエーションを確認できるだけでなく、テキスト生成結果やトークン数、生成時間などを比較することもできます。将来的にはEmbeddingなど他の機能も比較できるようになることが期待されています。
この記事では、オープンデータを活用したアプリの企画や雛形作成に生成AIを使用。京都市の地下鉄の最終電車発車時間を表示するシンプルなアプリをNext.jsで実装し、AWS Amplifyにホスト。Claudeを使用してオープンデータからアプリの企画を考え、データ変換スクリプトやビルドに関する課題に取り組んだ。生成AIのコードレビューや仕上げ作業で自身の知識や経験が必要であることを振り返り、今後は通知機能などの追加を検討している。
この記事では、Claudeを使って複数ディレクトリ・ファイルで構成されたアプリケーションやライブラリについて説明できるAIチャットを作る仕組みを検討した記録が紹介されています。目標はGitHubリポジトリに関する質問に回答できる仕組みを作ることで、RAGでプロンプトに挿入する最適なテキストを検討しました。AWS Lambda関数でAPIGatewayのレスポンスを構築するためのライブラリ群について詳細な説明があります。
この記事では、JavaScriptを利用した生成AIチャットの作り方が紹介されています。LangChainやAmazon Bedrock、そしてHonoを使用することで実装が容易になります。また、Honoを使うことで複雑なフロントエンド実装を行う必要がなくなり、AWS Lambdaなどのホスティングサービスの違いに影響を受けにくくなります。技術選定の背景やAPIの実装方法などが詳細に説明されています。
AI / MLLLMProductsPython
DevRelとして企画運営に携わるJP_Stripesコミュニティでは、登壇者のセッションを動画アーカイブ化しており、Google ColaboratoryとWhisperを使用して動画の説明文やコミュニティウェブサイトの文章作成を行っています。動画のアーカイブ化により、過去のセッション内容の理解を深める取り組みをしており、Shifterを用いてウェブサイトの保守時間を短縮しています。文字起こしや動画紹介文章の生成を自動化するためにWhisperやClaude 3.5 Sonnetを活用しています。
以前の1ファイルのライブラリの実験に続き、今回は複数ファイルで構成されたライブラリを使用して、使い方やドキュメントの生成などの実験をおこないました。”aws-api-responsebuilder”はAWS Lambda関数でAPIGatewayのレスポンスを構築するための便利なライブラリで、インストールから使い方まで詳細に解説されています。フルエントインターフェースを活用し、型安全性が確保されています。README.mdの生成に利用することも可能です。
AI / MLCloudflareLLM
LangSmithを使用して、LLMアプリのトレースと分析方法を調査中。Cloudflareにデプロイする際の環境変数の扱いについて説明。LangSmithでは環境変数のexportが必要であり、Cloudflareでは実行時の引数で設定。LangSmithの方法だとトレースが開始できないため、実行時に直接値を設定する方法を紹介。Honoを使用する際はmiddlewareを利用して全リクエストで処理可能。詳細は参考資料をご覧ください。