醒醒吧,你根本沒有 AI 男/女朋友
覺得我們的內容實用嗎? MyApollo 電子報讀者募集中!歡迎訂閱電子報!
Mozilla 基金會於 2024 年初針對隱私保護的議題,對市面上 11 款陪伴型 AI 對話機器人做了相關調查,結果令人意外的是超過 90% 的陪伴型 AI 服務壓根兒不在乎使用者的隱私甚至想從使用者身上挖到更多關於你的私密資料。
陪伴型 AI 服務多半是利用 AI 提供虛擬男友、女友的服務,也由於它與使用者的距離比起社群網路上的朋友更加親近,所以更容易讓使用者自願提供私密資料,包含聲音、照片甚至是關於身體健康的資料等等,而且它們都是被設計成容易讓使用者產生依賴、成癮的服務,越使用越容易沉浸,進而無意間洩漏關於你的隱私資料。
當然,如果服務提供商願意允諾保護使用者隱私的話,其實使用陪伴型 AI 並沒有什麼大礙,只可惜 Mozilla 基金會調查的結果發現,這些服務多半有以下 3 個問題:
- 服務提供商沒有揭露 AI 訓練的模型資料來源,更無從評估 AI 的運作是否會傷害使用者,譬如鼓勵使用者進行不該行使的危險行為,不幸的是確實發生過幾起 AI 對人類產生危害的案例,而服務提供商早在使用條款上已經將法律責任撇的一乾二凈。
- 服務提供商沒有善盡保護使用者隱私的責任,譬如允許使用弱密碼、沒有揭露是否針對使用者資料進行加密、不允許使用者刪除個資等等,而且 90% 的服務提供商會分享、販售使用者的個資。最重要的是,只要政府單位提出要求,會將交出你的使用紀錄等相關資料,甚至不需要法院命令,也就是說你跟 AI 的一切對話,早已成為呈堂證供。
- 追蹤、追蹤、再追蹤,服務提供商會使用上百、上千個追蹤器(tracker),盡可能的收集你的資料,其中有一家甚至使用高達 24,354 個追蹤器,所以你逛過什麼網站、看了什麼商品,這些服務提供商可能都暸若指掌。
你有使用陪伴型 AI 的服務嗎?
如果有的話,你可能要想想你正在吃的是不是吃裹著糖衣的毒藥。
Happy Valentine’s Day! Romantic AI Chatbots Don’t Have Your Privacy at Heart