Algomatic Tech Blog

Algomaticの開発チームによる Tech Blog です

イベント運営をNotion x Slack x GASによって効率化する

はじめに

こんにちは。Algomatic CTO室 でインターンしている藤巻(@makiart13)です。 普段は、さまざまな業務の改善やPoCを行っています。

弊社Algomaticでは、定期的に技術系ミートアップやカンファレンスを開催しています。イベント運営は開催の1ヶ月前から準備を始め、登壇者とのコミュニケーション、会場手配、資料作成など多岐にわたるタスクが発生します。これらの作業は運営側のマインドシェアを恒常的に割きがちです。これら問題を解決するために、LLMの活用はもちろん、Slack、Notion、GASなどを活用した、イベント準備効率化ツールを作成、運用しています。

本記事では、そのイベント準備効率化ツールの中から、いくつかをピックアップして紹介します。

続きを読む

LLMプロダクト開発のことはじめ #03 ~ プロンプトエンジニアリング

こんにちは。NEO(x) の宮脇(@catshun_)です。

本記事はなつやすみ特集として、これから LLM プロダクトを開発する方に向けて『LLMプロダクト開発のことはじめ』をテーマとした 5分で読める コラムを紹介します🌻

ゆるく書くつもりなので、役に立つかどうかは分かりません 🙏

続きを読む

Claudeのprompt cachingを活用する

LLM APIの最強の一角であるAnthropic Claudeprompt cachingが実装されました。簡単に言うとプロンプトの先頭から指定の位置までをキャッシュしてくれて、キャッシュを利用できた場合はAPI使用料金と、APIでかかる処理時間が大幅に改善するというものです。

キャッシュ書き込みではコストが1.25倍(つまり25%アップ)になってしまいますが、キャッシュ読み込みではコストが1/10(ただしHaikuの場合だけは$0.25/1Mtokensが$0.03になるので厳密には違う)になります。

速度に関しても、コストのうち処理時間が支配的なLLMにおいて値段が1/10になることから察する通りの速度がでます。

LLMの使い方に依存するものの、prompt cachingを使いこなせば、少なくない事業インパクトをもたらす事は間違いありません。

続きを読む

LLMプロダクト開発のことはじめ #02 ~ よい応答を得るためのプロンプト制約

こんにちは。NEO(x) の宮脇(@catshun_)です。

本記事はなつやすみ特集として、『LLMプロダクト開発のことはじめ』をテーマとした 5分で読める コラムを紹介します🌻

といいつつ今回は文量が多くなってしまいました...。 ゆるく書くつもりなので、役に立つかどうかは分かりません 🐈

続きを読む

LLMプロダクト開発のことはじめ #01 ~ 問いをデザインする

こんにちは。NEO(x) の宮脇(@catshun_)です。

本記事はなつやすみ特集として、『LLMプロダクト開発のことはじめ』をテーマとした 3分で読める コラムを紹介します🌻

ゆるく書くつもりなので、役に立つかどうかは分かりません 🙏

続きを読む

2024.07 - Algomaticで話題になった生成AIニュースまとめ

こんにちは。Algomatic NEO(x) の宮脇(@catshun_)です。

本記事では Inside Algomatic という podcast の「Algomaticで話題になった生成AIニュースまとめ」という回で用意している会話ネタの一部として、7月に話題となったニュース一覧を公開します。なお以降で記述するニュースは、社内 slack や技術キャッチアップ会等から抽出しています。


続きを読む

LLMのシステム導入時に行いたい動作検証について

こんにちは。NEO(x) 機械学習エンジニアの宮脇(@catshun_)です。

LLM から望ましい出力を得るための評価については、評価セットを用いた定量評価などが挙げられますが、本記事では システムへのLLM導入 という側面から動作検証に焦点を当てた話をコラムとして記述します。

LLM の評価に関する紹介は、以下のブログで紹介しているのでこちらもご参照いただけると嬉しいです。

続きを読む