OpenAI 因 ChatGPT 誹謗性“幻覺”在挪威面臨隱私投訴

人工智能聊天機器人 ChatGPT 背後的組織 OpenAI 在挪威面臨著隱私投訴,因為該聊天機器人生成了有關個人的虛假和誹謗性信息。這一事件凸顯了人們對人工智能生成內容的準確性和可靠性的持續擔憂。

一名挪威人發現 ChatGPT 偽造了信息,指控他謀殺了自己的兩個孩子並試圖殺死第三個孩子。這些毫無根據的指控給相關個人帶來了巨大的痛苦和潛在的聲譽損害。

隱私倡導組織 NOYB(與你無關)正在向挪威數據保護機構 Datatilsynet 提出投訴,以支持受影響的個人。 NOYB 認為 OpenAI 的 ChatGPT 生成和傳播不准確的個人數據,違反了《通用數據保護條例》(GDPR)。 NOYB 的數據保護律師 Joakim Söderberg 表示:“GDPR 很明確。個人數據必須準確。如果不准確,用戶有權對其進行更改以反映事實。”

根據 GDPR,組織有義務確保其處理的個人數據的準確性。該法規賦予個人糾正與其相關的不准確數據的權利。在本案中,ChatGPT 生成有關投訴人的虛假信息可被視為違反了這些規定。經確認違反 GDPR 的行為可能會導致公司面臨高達全球年營業額 4% 的處罰。

這並不是 ChatGPT 的不准確(通常被稱為“幻覺”)第一次導致法律挑戰:

  • 2023 年,一位澳大利亞市長在 ChatGPT 謊稱他因賄賂而入獄後考慮採取法律行動。
  • 2024 年,意大利數據保護機構因在沒有適當法律依據的情況下處理個人數據而對 OpenAI 處以 1500 萬歐元的罰款。
  • 在美國,ChatGPT 對一名電台主持人捏造法律指控後,OpenAI 被提起誹謗訴訟。

這些事件凸顯了人工智能生成的錯誤信息這一更廣泛的問題及其潛在的法律後果。

OpenAI 承認 ChatGPT 可能會產生不准確的信息,並實施了免責聲明,建議用戶驗證聊天機器人的輸出。然而,批評者認為,此類免責聲明不足以減輕虛假信息造成的危害。如果挪威數據保護機構發現 OpenAI 違反了 GDPR,該公司可能會面臨巨額罰款,並被要求採取措施防止未來出現錯誤。

在挪威提起的投訴進一步加強了對 ChatGPT 等人工智能係統及其對數據保護法的遵守情況的日益嚴格的審查。隨著人工智能技術的不斷發展,確保人工智能生成內容的準確性和可靠性仍然是開發者和監管者面臨的嚴峻挑戰。

參見:蘋果隱私團隊在 iOS 18 中推出突破性隱私功能

來源:TechCrunch