こんにちは、横断CoSの大田(@OTA57)です。
先日以下のnoteを書きました。
このエントリでは、その裏側の仕組みやコードを紹介していきます。
まずは事例①の弊社の勤務場所を選択する機能です。
- Slackの設定について①
- 毎朝の定時実行のコード
- Actionを受け取る側のコード
- Slackの設定②
- 終わりに
こんにちは。AI transformation(AX)の荒井(@yusaku_0426)です。
2024/10/09 に行われた『LangChain Meetup Tokyo #3』にて、弊社からAIエンジニアの伊藤と山中(@gura105)の2名が登壇しましたので、本記事では簡単にイベント概要を振り返ります。
続きを読むこんにちは。Algomatic CTO室 でインターンしている藤巻(@makiart13)です。 普段は、さまざまな業務の改善やPoCを行っています。
弊社Algomaticでは、定期的に技術系ミートアップやカンファレンスを開催しています。イベント運営は開催の1ヶ月前から準備を始め、登壇者とのコミュニケーション、会場手配、資料作成など多岐にわたるタスクが発生します。これらの作業は運営側のマインドシェアを恒常的に割きがちです。これら問題を解決するために、LLMの活用はもちろん、Slack、Notion、GASなどを活用した、イベント準備効率化ツールを作成、運用しています。
本記事では、そのイベント準備効率化ツールの中から、いくつかをピックアップして紹介します。
続きを読むLLM APIの最強の一角であるAnthropic Claudeにprompt cachingが実装されました。簡単に言うとプロンプトの先頭から指定の位置までをキャッシュしてくれて、キャッシュを利用できた場合はAPI使用料金と、APIでかかる処理時間が大幅に改善するというものです。
キャッシュ書き込みではコストが1.25倍(つまり25%アップ)になってしまいますが、キャッシュ読み込みではコストが1/10(ただしHaikuの場合だけは$0.25/1Mtokensが$0.03になるので厳密には違う)になります。
速度に関しても、コストのうち処理時間が支配的なLLMにおいて値段が1/10になることから察する通りの速度がでます。
LLMの使い方に依存するものの、prompt cachingを使いこなせば、少なくない事業インパクトをもたらす事は間違いありません。
続きを読む