歐盟已正式開始執行其人工智能法案,第一個合規截止日期為 2 月 2 日。該法規允許歐盟當局禁止被視為對個人或社會“不可接受的風險”的人工智能係統。
2024 年 3 月批准並自 8 月起生效的《人工智能法案》將人工智能風險分為四個級別:最小、有限、高和不可接受。雖然風險最小和有限的人工智能(例如垃圾郵件過濾器和聊天機器人)幾乎不受監管,但高風險系統(例如醫療保健中使用的系統)卻受到嚴格監管。最嚴重的類別,即不可接受風險的人工智能,現已在歐盟範圍內被禁止。
一些被禁止的人工智能應用包括社會評分、基於外表的預測性警務、公共場所的實時生物識別監控、工作場所或學校的情緒檢測以及操縱或欺騙個人的人工智能係統。違反這些規則的公司可能面臨高達 3500 萬歐元(約合 3600 萬美元)或其年收入 7% 的罰款,以較高者為準。
然而,也存在某些例外情況。執法機構可以使用生物識別人工智能進行有針對性的搜索,例如尋找失踪人員或防止迫在眉睫的威脅,前提是他們獲得適當的授權。同樣,如果出於醫療或安全原因,可以允許用於工作場所或教育情緒分析的人工智能係統。
儘管包括亞馬遜、谷歌和 OpenAI 在內的 100 多家公司自願承諾儘早遵守歐盟人工智能協議,但蘋果、Meta 和 Mistral AI 等主要參與者尚未加入。儘管如此,所有在歐盟運營的公司最終都必須遵守新規則。
下一個主要合規截止日期是八月,屆時執行機制和處罰將正式生效。隨著監管機構不斷完善指導方針,企業必須了解《人工智能法案》如何與 GDPR 等現有法律相交叉,從而帶來進一步的合規挑戰。
