人工智能(AI)危險嗎?

2023年5月22日,星期一,經過驗證的Twitter帳戶“彭博飼料”分享了一條推文,聲稱有一個五角大樓的爆炸,伴隨圖像。如果您想知道這與人工智能(AI)有什麼關係,那麼該圖像是AI生成的圖像,推文迅速流行並引發了短暫的股票市場下跌。情況可能會更糟 - 這是一個明顯的提醒,可以提醒人工智能的危險。

人工智能危險

我們不僅需要擔心假新聞。與AI有關的直接或潛在風險,從有關隱私和安全性的風險到偏見和版權問題。我們將探討其中一些人工智能危險,看看現在和將來正在減輕它們正在採取的措施,並詢問AI的風險是否超過了收益。

目錄

    假新聞

    當Deepfakes首次降落時,人們擔心它們可能不適。對於新浪潮的AI圖像發生器,例如Dall-E 2,Midjourney或DreamStudio,也可以這樣說。 2023年3月28日,假弗朗西斯教皇的AI生成的圖像穿著白色的Balenciaga Puffer夾克,並享受了幾次冒險,包括滑板和打撲克的風靡一時。除非您仔細研究圖像,否則很難將這些圖像與真實事物區分開。

    雖然教皇的例子無疑有點有趣,但有關五角大樓的圖像(以及隨附的推文)絕非如此。人工智能產生的假圖像有權損害聲譽,結束婚姻或職業,如果被錯誤的人揮舞,造成了政治動盪,甚至開始戰爭 - 簡而言之,這些AI生成的圖像有可能遇到極大的危險。

    現在可以免費使用AI Image Generator,任何人都可以使用,並且Photoshop添加了AI映像生成器對於其流行的軟件,操縱圖像和創建假新聞的機會比以往任何時候都更大。

    隱私,安全和黑客

    當涉及AI的風險時,隱私和安全也是巨大的問題,許多國家已經禁止Openai的Chatppt。意大利由於隱私問題而禁止該模型,認為該模型不符合歐洲一般數據保護法規(GDPR),而中國,朝鮮和俄羅斯政府由於擔心會傳播錯誤信息而禁止該模型。

    那麼,為什麼我們在AI方面如此關注隱私? AI應用程序和系統收集大量數據,以學習和做出預測。但是,這些數據如何存儲和處理?洩露數據洩露,黑客攻擊和信息落入錯誤的手中的真正風險。

    不僅僅是我們的個人數據處於危險之中。 AI黑客是一種真正的風險 - 尚未發生,但是如果那些有惡意意圖的人可以闖入AI系統,這可能會帶來嚴重的後果。例如,黑客可以控制無人駕駛車輛,黑客AI安全系統以進入高度安全的位置,甚至可以使用AI安全性黑客武器系統。

    美國國防部國防高級研究項目局(DARPA)的專家認識到這些風險,並且已經致力於DARPA保證AI穩健性針對欺騙(GARD)項目,從而從頭開始解決問題。該項目的目標是確保對黑客入侵和篡改的阻力內置在算法和AI中。

    版權侵權

    AI的另一個危險是侵犯版權。這聽起來可能不如我們提到的其他危險那麼嚴重,但是像GPT-4這樣的AI模型的發展使每個人都有侵權風險的增加。

    每當您要求Chatgpt為您創建一些東西時(無論是旅行的博客文章還是為您的企業的新名稱),您都在提供信息,然後用來回答未來的查詢。它回饋您的信息可能侵犯了別人的版權,這就是為什麼在發布之前使用竊探測器並編輯AI創建的任何內容如此重要的原因。

    社會和數據偏見

    人工智能不是人類,所以它不會有偏見,對嗎?錯誤的。人員和數據用於培訓AI模型和聊天機器人,這意味著偏見的數據或個性將導致AI有偏見。 AI中有兩種類型的偏見:社會偏見和數據偏見。

    在日常社會中存在許多偏見,當這些偏見成為AI的一部分時會發生什麼?負責培訓模型的程序員可能會有偏見的期望,然後進入AI系統。

    或用於訓練和開發AI的數據可能是不正確的,偏見或以惡意收集的。這會導致數據偏見,這可能與社會偏見一樣危險。例如,如果主要使用白人面孔對面部識別系統進行訓練,則可能很難認出少數群體的人,從而使壓迫永久性。

    機器人從事我們的工作

    聊天機器人(例如Chatgpt和Google Bard)的開發打開了圍繞AI的全新憂慮:機器人會從事我們的工作的風險。我們已經看到技術行業中的作家被AI取代,軟件開發人員擔心他們會失去工作,而使用ChatGpt的公司創建博客內容和社交媒體內容,而不是僱用人類作家。

    根據世界經濟論壇的《未來的工作未來報告》 2020年,預計到2025年,人工智能預計將替換全球8500萬個就業機會。即使AI不取代作家,許多人已經被許多人用作工具。那些有可能被AI取代的工作風險的人可能需要適應生存 - 例如,作家可能會成為AI及時工程師,使他們能夠使用諸如Chatgpt之類的工具進行內容創建,而不是被這些模型代替。

    這些都是直接或迫在眉睫的風險,但是我們將來可能看到的AI的可能性較小但仍然可能的危險呢?其中包括諸如AI被編程以傷害人類的事情,例如,在戰爭期間訓練有素的自主武器。

    然後,AI可能會單一集中精力將其編程的目標集中在試圖以不惜一切代價實現該目標的過程中,即使人類試圖阻止這種情況的發生時,就會開發破壞性行為。

    天網告訴我們,當人工智能變得有知識時會發生什麼。但是,儘管Google工程師Blake Lemoine可能試圖說服所有人LAMDA,Google的人工智能聊天機器人發電機很有意義早在2022年6月,迄今為止,還沒有證據表明這是真的。

    AI法規的挑戰

    202年5月15日星期一Openai首席執行官Sam Altman參加了關於人工智能的首次國會聽證會,警告說:“如果這項技術出錯,那可能會錯。” Openai Co明確表示,他贊成法規,並將自己的許多想法帶到了聽證會上。問題是AI正在以這種速度發展,很難知道從哪裡開始。

    國會希望避免在社交媒體時代開始時犯同樣的錯誤,而參議院多數黨領袖查克·舒默(Chuck Schumer)的專家團隊已經在製定法規,這些法規將要求公司揭示他們用來培訓模型並培訓他們的數據源。不過,可能需要一段時間才能確切地調節AI,但毫無疑問,AI公司會有反彈。

    人工通用情報的威脅

    還存在人工通用智能(AGI)的風險,可以完成人類(或動物)可以執行的任何任務。在科幻電影中經常提到,我們可能仍然距離這種創作數十年了,但是如果我們創造了AGI,它可能會對人類構成威脅。

    許多公眾人物已經認可這樣一種信念,即AI對人類構成生存威脅,包括Stephen Hawking,Bill Gates,甚至是Google的前首席執行官Eric Sc​​hmidt,他們說:“人工智能可能構成存在的風險,政府需要知道如何確保該技術不會被邪惡的人濫用。”

    建議閱讀:人工智能橋樑在人類動物交流中的差距

    那麼,人工智能是否危險,並且其風險大於其益處嗎?陪審團仍在那個陪審團上,但是我們已經看到了目前我們周圍一些風險的證據。如果有的話,其他危險不太可能很快實現。但是,一件事很清楚:不應低估AI的危險。至關重要的是,我們確保從一開始就對AI進行適當的調節,以最大程度地減少並希望減輕任何未來的風險。