好文分享 — Semantic Cache: Accelerating AI with Lightning-Fast Data Retrieval

本來以為 LLM 應用很難做快取(cache),畢竟每個人用字遣詞都不一樣,而且相同問題也會有不同問法,對於以往快取採取精準匹配(exact match)的作法來說,顯然很難行得通⋯⋯。

想不到!

還是有相關的快取技術,稱為 “Semantic Cache” 。

簡單解釋它的做法:

  1. 是把 prompt 的 vector 變成 key, 把 LLM 生成的答案變成 value
  2. 把第 1 步的 key 與 value 映對存進向量資料庫
  3. 下次收到 prompt 時,先到向量資料庫搜尋相似度高的 vector, 然後取出它的 value 直接回應給使用者;如果沒有相似的 vector 就按照既有流程交給 LLM 生成答案,再回到第 1, 2 步做成 semantic cache

Semantic cache 的好處是以加速 RAG 應用的回應速度(因為生成答案這件事會降低服務回應速度),也「可能可以」節省使用 LLM 的費用支出。

不過 semantic cache 只適合應用在 question-answering 系統,這種系統特性是問題會有標準答案,例如「美國首都是哪裡?」、「告訴我哪裏是美國的首都?」之類的問題,都指向同一個答案之外,這些問題也是相似度高的 vectors, 所以適合做 semantic cache 。

但如果是那種生成式的 LLM 應用,包含生成式圖片、生成式程式碼等應用,就不適合使用 semantic cache, 這些不僅沒有標準答案,還容易因為 context 變化而需要生成截然不同的答案,使用 semantic cache 就沒有意義。

更多關於 Semantic Cache 的介紹可以閱讀 “Semantic Cache: Accelerating AI with Lightning-Fast Data Retrieval” 。

Facebook Threads X

對抗久坐職業傷害

研究指出每天增加 2 小時坐著的時間,會增加大腸癌、心臟疾病、肺癌的風險,也造成肩頸、腰背疼痛等常見問題。

然而對抗這些問題,卻只需要工作時定期休息跟伸展身體即可!

你想輕鬆改變現狀嗎?試試看我們的 PomodoRoll 番茄鐘吧! PomodoRoll 番茄鐘會根據你所設定的專注時間,定期建議你 1 項辦公族適用的伸展運動,幫助你打敗久坐所帶來的傷害!

贊助我們的創作

看完這篇文章了嗎? 休息一下,喝杯咖啡吧!

如果你覺得 MyApollo 有讓你獲得實用的資訊,希望能看到更多的技術分享,邀請你贊助我們一杯咖啡,讓我們有更多的動力與精力繼續提供高品質的文章,感謝你的支持!