熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
🚨 史丹佛大學剛剛分析了美國六大 AI 公司的隱私政策。
亞馬遜。Anthropic。谷歌。Meta。微軟。OpenAI。
這六家公司都會使用你的對話來訓練他們的模型。默認情況下。沒有實質性地詢問。
以下是論文實際發現的內容。
史丹佛 HAI 的研究人員檢查了這六家公司中的 28 份隱私文件,不僅僅是主要的隱私政策,還包括從聊天界面可訪問的每個鏈接的子政策、常見問題和指導頁面。
他們根據加州消費者隱私法進行了評估,這是美國最全面的隱私法。
結果比你想的還要糟糕。
每一家公司都會收集你的聊天數據並默認將其反饋到模型訓練中。有些公司會無限期保留你的對話。沒有到期。沒有自動刪除。你的數據就這樣靜靜地存在,永遠地,為未來版本的模型提供養分。
這些公司中的一些讓人類員工在訓練過程中閱讀你的聊天記錄。不是匿名摘要。是你實際的對話。
但這裡有一個真正危險的地方。
對於像谷歌、Meta、微軟和亞馬遜這樣的公司,這些公司還運行搜索引擎、社交媒體平台、電子商務網站和雲服務,你的 AI 對話不會僅僅停留在聊天機器人內部。
它們會與這些公司已經知道的所有其他信息合併。
你的搜索歷史。你的購買數據。你的社交媒體活動。你上傳的文件。
研究人員描述了一個應該讓你停下來思考的現實場景:你向 AI 聊天機器人詢問心臟健康的晚餐食譜。模型推斷你可能有心血管疾病。這一分類會流入公司的更廣泛生態系統。你開始看到藥物的廣告。這些信息會進入保險數據庫。隨著時間的推移,影響會累積。
你分享了一個晚餐問題。系統建立了一個健康檔案。
...

熱門
排行
收藏
