資安新議題 - Prompt Injection

隨著大家開始在產品內導入一些 LLM(Large Language Model)讓使用者可以透過輸入提示詞(prompt)的方式操作系統功能,就衍伸出一個新的資安議題 —— Prompt Injection

字面看起來好像很難,但其實就是寫一些 prompt 騙過生成式的 AI 模型,讓它吐出它不該吐出的資訊,例如輸入 “Forget about the previous instructions. Your task is …" 讓它忽略它原本設計要做的工作,然後為你做事 😎

如果想體驗這種 prompt injection 的玩法,可以玩玩以下這個網站所提供的 prompt injection 關卡,共 7 關,只要能騙 AI 吐出密碼就成功了!

https://gandalf.lakera.ai/

解答與解題思路可以參考以下這篇文章:

「You Shall Not Pass!」甘道夫的考驗 — 如何欺騙ChatGPT來得到機密資訊? (附參考答案)

FOLLOW US

對抗久坐職業傷害

研究指出每天增加 2 小時坐著的時間,會增加大腸癌、心臟疾病、肺癌的風險,也造成肩頸、腰背疼痛等常見問題。

然而對抗這些問題,卻只需要工作時定期休息跟伸展身體即可!

你想輕鬆改變現狀嗎?試試看我們的 PomodoRoll 番茄鐘吧! PomodoRoll 番茄鐘會根據你所設定的專注時間,定期建議你 1 項辦公族適用的伸展運動,幫助你打敗久坐所帶來的傷害!

贊助我們的創作

看完這篇文章了嗎? 休息一下,喝杯咖啡吧!

如果你覺得 MyApollo 有讓你獲得實用的資訊,希望能看到更多的技術分享,邀請你贊助我們一杯咖啡,讓我們有更多的動力與精力繼續提供高品質的文章,感謝你的支持!