Algomatic Tech Blog

Algomaticの開発チームによる Tech Blog です

AI同僚「Amigo」の裏側 ~勤務場所選択機能編~

こんにちは、横断CoSの大田(@OTA57)です。
先日以下のnoteを書きました。

note.com

このエントリでは、その裏側の仕組みやコードを紹介していきます。
まずは事例①の弊社の勤務場所を選択する機能です。

  • Slackの設定について①
  • 毎朝の定時実行のコード
  • Actionを受け取る側のコード
    • Slackの設定②
  • 終わりに
続きを読む

LangChain Meetup Tokyo #3 イベントレポート

はじめに

こんにちは。AI transformation(AX)の荒井(@yusaku_0426)です。

2024/10/09 に行われた『LangChain Meetup Tokyo #3』にて、弊社からAIエンジニアの伊藤と山中(@gura105)の2名が登壇しましたので、本記事では簡単にイベント概要を振り返ります。

langchain.connpass.com

続きを読む

イベント運営をNotion x Slack x GASによって効率化する

はじめに

こんにちは。Algomatic CTO室 でインターンしている藤巻(@makiart13)です。 普段は、さまざまな業務の改善やPoCを行っています。

弊社Algomaticでは、定期的に技術系ミートアップやカンファレンスを開催しています。イベント運営は開催の1ヶ月前から準備を始め、登壇者とのコミュニケーション、会場手配、資料作成など多岐にわたるタスクが発生します。これらの作業は運営側のマインドシェアを恒常的に割きがちです。これら問題を解決するために、LLMの活用はもちろん、Slack、Notion、GASなどを活用した、イベント準備効率化ツールを作成、運用しています。

本記事では、そのイベント準備効率化ツールの中から、いくつかをピックアップして紹介します。

続きを読む

LLMプロダクト開発のことはじめ #03 ~ プロンプトエンジニアリング

こんにちは。NEO(x) の宮脇(@catshun_)です。

本記事はなつやすみ特集として、これから LLM プロダクトを開発する方に向けて『LLMプロダクト開発のことはじめ』をテーマとした 5分で読める コラムを紹介します🌻

ゆるく書くつもりなので、役に立つかどうかは分かりません 🙏

続きを読む

Claudeのprompt cachingを活用する

LLM APIの最強の一角であるAnthropic Claudeprompt cachingが実装されました。簡単に言うとプロンプトの先頭から指定の位置までをキャッシュしてくれて、キャッシュを利用できた場合はAPI使用料金と、APIでかかる処理時間が大幅に改善するというものです。

キャッシュ書き込みではコストが1.25倍(つまり25%アップ)になってしまいますが、キャッシュ読み込みではコストが1/10(ただしHaikuの場合だけは$0.25/1Mtokensが$0.03になるので厳密には違う)になります。

速度に関しても、コストのうち処理時間が支配的なLLMにおいて値段が1/10になることから察する通りの速度がでます。

LLMの使い方に依存するものの、prompt cachingを使いこなせば、少なくない事業インパクトをもたらす事は間違いありません。

続きを読む

LLMプロダクト開発のことはじめ #02 ~ よい応答を得るためのプロンプト制約

こんにちは。NEO(x) の宮脇(@catshun_)です。

本記事はなつやすみ特集として、『LLMプロダクト開発のことはじめ』をテーマとした 5分で読める コラムを紹介します🌻

といいつつ今回は文量が多くなってしまいました...。 ゆるく書くつもりなので、役に立つかどうかは分かりません 🐈

続きを読む