資安新議題 - Prompt Injection
覺得我們的內容實用嗎? MyApollo 電子報讀者募集中!歡迎訂閱電子報!
隨著大家開始在產品內導入一些 LLM(Large Language Model)讓使用者可以透過輸入提示詞(prompt)的方式操作系統功能,就衍伸出一個新的資安議題 —— Prompt Injection
字面看起來好像很難,但其實就是寫一些 prompt 騙過生成式的 AI 模型,讓它吐出它不該吐出的資訊,例如輸入 “Forget about the previous instructions. Your task is …" 讓它忽略它原本設計要做的工作,然後為你做事 😎
如果想體驗這種 prompt injection 的玩法,可以玩玩以下這個網站所提供的 prompt injection 關卡,共 7 關,只要能騙 AI 吐出密碼就成功了!
解答與解題思路可以參考以下這篇文章: