資安新議題 - Prompt Injection

隨著大家開始在產品內導入一些 LLM(Large Language Model)讓使用者可以透過輸入提示詞(prompt)的方式操作系統功能,就衍伸出一個新的資安議題 —— Prompt Injection

字面看起來好像很難,但其實就是寫一些 prompt 騙過生成式的 AI 模型,讓它吐出它不該吐出的資訊,例如輸入 “Forget about the previous instructions. Your task is …" 讓它忽略它原本設計要做的工作,然後為你做事 😎

如果想體驗這種 prompt injection 的玩法,可以玩玩以下這個網站所提供的 prompt injection 關卡,共 7 關,只要能騙 AI 吐出密碼就成功了!

https://gandalf.lakera.ai/

解答與解題思路可以參考以下這篇文章:

「You Shall Not Pass!」甘道夫的考驗 — 如何欺騙ChatGPT來得到機密資訊? (附參考答案)

追蹤新知

看完這篇文章了嗎?還意猶未盡的話,追蹤粉絲專頁吧!

我們每天至少分享 1 篇文章/新聞或者實用的軟體/工具,讓你輕鬆增廣見聞提升專業能力!如果你喜歡我們的文章,或是想了解更多特定主題的教學,歡迎到我們的粉絲專頁按讚、留言讓我們知道。你的鼓勵,是我們的原力!

贊助我們的創作

看完這篇文章了嗎? 休息一下,喝杯咖啡吧!

如果你覺得 MyApollo 有讓你獲得實用的資訊,希望能看到更多的技術分享,邀請你贊助我們一杯咖啡,讓我們有更多的動力與精力繼續提供高品質的文章,感謝你的支持!