霍金 馬斯克攜手力推23條原則,告誡AI發展底線

2021-09-23 08:17:23 字數 3842 閱讀 3070

「乙個好的未來是什麼樣子?」 特斯拉首席執行官伊隆·馬斯克(elon musk)在加利福尼亞州阿西洛馬的beneficial ai會議上發言。 「我們正走向超級智慧型,亦或是人類文明的結束。」

全球2000多人,包括844名人工智慧和機械人領域的專家聯合簽署了23條ai發展原則,呼籲全世界的人工智慧領域在發展ai的同時嚴格遵守這些原則,共同保障人類未來的利益和安全。

宇宙學家史蒂芬·霍金和特斯拉首席執行官埃倫·馬斯克本週公開大力支援了一系列原則,用以確保擁有自主思考能力的機器保持安全發展,並符合人類權益行事。

機器正逐年變得更加智慧型,研究人員相信他們在未來幾十年內可以擁有人類智慧型水平。 一旦他們達到這個程度,他們就可以開始改善自己,並創造其他智慧型,甚至更強大的ai,牛津哲學家尼克·博斯特羅姆和其他幾個該領域的專家認為,應當稱其為超級智慧型。

2023年,馬斯克警告說,人工智慧有可能「比核**更危險」,而霍金在2023年12月說,人工智慧可能會終結人類。 但它也是雙刃劍。 ai也可以幫助**癌症及減緩全球變暖。

2023年1月初舉行的「beneficial  ai」會議為基礎上建立起來的「阿西洛馬人工智慧原則」,名稱來自此次會議的地點 –美國加州的阿西洛馬(asilomar)市,旨在確保ai為人類利益服務。

本次會議參加者是業界最富盛名的領袖,如deepmind首席執行官 demis hassabis和facebook ai 負責人yann lecun等。全球2000多人,包括844名人工智慧和機械人領域的專家已聯合簽署該原則,呼籲全世界的人工智慧領域在發展ai的同時嚴格遵守這些原則,共同保障人類未來的利益和安全。完整名單可以見futureoflife.org/。

這一系列原則目前共23項,分為三大類:

1、科研問題

ai研究的目標應該是「有益的智慧型」。 它應該防止ai系統被黑客入侵。 它還應該解決「維護人類的資源和理想」。法律應該「跟上ai的步伐」,應該考慮人工智慧「價值觀」的問題。 此外,應該努力使研究人員和法律/政策制定者合作,並且應該「在ai的研究人員和開發人員之間培養整體的信任和尊重文化。

2、倫理和價值觀

應根據原則以一種安全和透明的方式開發ai。 自主系統應必須可以解釋它的行為。 建立ai系統的人必須對這些系統的使用方式承擔責任。 自主系統的設計應反映人類的價值觀。 人們應該有機會控制這些系統共享和使用資料的方式。ai應該盡可能使更多多的人受益,並應該為人類做出貢獻,而不是僅僅得益於某些組織或個人。有的國家在競爭建立智慧型的自主** ,這是很大的潛在危害,應該主動積極的避免。

3、長期問題

我們不知道ai會有什麼能力,應該計畫「災難性或風險」。

beneficial ai會議上的乙個小組討論會,包括埃隆·馬斯克(最左邊)和deepmind的ceo(手持麥克風)

「人工智慧已經為世界各地的人們提供了日常使用的有益工具,」生命的未來 (future of life)**上宣告,「它的持續發展,須以後文原則為指導,在未來幾十年甚至幾個世紀,為幫助人類更加強大提供很多驚人的機會。」

會議上,馬斯克坐在hassabis、bostrom、tallinn和其他ai領域領導人組成的專家組中。 他們每個人都輪流回答他們所認為的超級智慧型,bostrom在一篇學術**中把它定義為「一種比每個領域最優秀的人類智慧型還要優秀的智慧型,這包括科學創造力、一般智力和社會技能。

當小組被問到超級智慧型是否可能,每個人都表示了十分的肯定,除了馬斯克,當他說「不」的時候應該也是在開玩笑。可見,這些大佬都認為超級智慧型的發生是遲早的事情。有趣的是,當小組被問到是否期待超級智慧型出現時,回答開始出現矛盾了,有四個人思慮再三覺得「這很難說」,而馬斯克說,這「取決於它到底是什麼型別的智慧型了。」 

「阿西洛馬人工智慧原則」是開發安全ai的重要指南,它們得到了ai社群和廣大從業者的廣泛支援。路易斯維爾大學網路安全實驗室主任roman yampolskiy說:「從簽署名單數量可以看出,對這些原則的巨大支援為人工智慧安全這個年輕的領域提供了可信度,但它仍然需要面對眾多對ai風險的否認者,他們仍舊拒絕相信設計不當或惡意的ai /超級智慧型可能給人類帶來巨大風險」。

在電影「她(her)」中,人類愛上了人工智慧。

阿西洛馬人工智慧23原則原文:

科研問題

1)研究目標:人工智慧研究的目標不是為了創造不受指揮的智慧型,而是有益的智慧型。

2)研究經費:對人工智慧進行投資的同時,要保證有經費用於研究如何有益地使用人工智慧,研究包括電腦科學、經濟學、法律、倫理以及社會研究中的棘手問題,比如:

如何使未來的人工智慧系統變得高度穩健,即系統會執行我們所想的而不會發生故障或被入侵?

如何通過自動化提公升我們的繁榮程度,同時保持人們的資源和意志?

如何公升級我們的法制體系使其更公平高效,能夠跟得上人工智慧的發展速度,並且能控制人工智慧帶來的風險?

人工智慧該與什麼樣的價值體系保持一致?它該有怎樣的法律和倫理地位?

3)科學與政策的聯絡:在人工智慧研究員和政策制定者之間應該要有富有建設性的和健康的交流。

4)科研文化:在人工智慧研究員和開發者中應該要培養起一種以合作、信任與透明為基礎的文化。

5)  避免不必要的競爭:人工智慧開發團隊之間應該積極合作,避免有人鑽空子導致安全標準被削弱。

倫理和價值

6)安全性:人工智慧系統在它們整個的運轉週期內應該是安全可靠的,並且能在可應用的和可行的地方被驗證。

7)失敗透明性:如果乙個人工智慧系統造成了損害,那麼造成損害的原因要能被確定。

8)審判透明性:任何自動系統參與的司法決策都應提供令人滿意的解釋,可被有能力的人類監管機構審核。

10)價值觀一致:高度自主的人工智慧系統應該被設計,確保它們的目標和行為在整個執行過程裡與人類的價值觀相一致。

11)人類價值觀:人工智慧系統應該被設計和操作,以使其和人類尊嚴、權力、自由和文化多樣性的理想相一致。

12)個人隱私:人們應該擁有權力去訪問、管理和控制他們產生的資料,考慮到人工智慧系統有分析和使用那些資料的能力。

13)自由和隱私:人工智慧在個人資料上的應用必須不能不當地剝奪人們真實的或認為的自由。

14)分享利益:人工智慧科技應該惠及並賦權最大可能的多數人。

15)共同繁榮:由人工智慧創造的經濟繁榮應該被廣泛地分享,惠及全人類。

16)人類控制:人類應該來選擇如何和是否委派人工智慧系統去完**類選擇的目標。

17)非顛覆:高階人工智慧被授予的權力應該尊重和改進健康的社會所依賴的社會和公民秩序。

,而不是顛覆。

18)人工智慧裝備競賽:致命的自動化**的裝備競賽應該被禁止。

更長期的問題

19)能力警惕:我們應該避免關於未來人工智慧能力上限的假設,但這一點還沒有共識。

20)重要性:高階人工智慧能夠代表地球生命歷史的乙個重大變化,我們應該用與之相稱的警惕和資源來管理。

21)風險:人工智慧系統造成的風險,特別是災難性的或有關人類存亡的風險,必須能夠被相應的努力所管理和減輕。

22)遞迴的自我提公升:人工智慧系統被設計成能夠以一種可以快速提公升質量和數量的方式進行自我公升級或自我替代,這種方式必須受制於嚴格的安全和控制標準。

23)公共利益:超級智慧型的開發是為了服務廣泛認可的倫理理想,並且是為了全人類的利益而不是乙個國家和組織的利益。

參考素材:businessinsider.com/、techrepublic.com

資訊 馬斯克8

2022 03 29 馬斯克 資料圖 財聯社3月29日電,馬斯克表示,星鏈專案在取得進展,預計在18個月內將有超過4200顆星鏈衛星執行,約佔地球所有活動衛星的2 3。星鏈依賴於名為 星座 的衛星網路,目前囊括有2000多顆衛星。相比之下,與之競爭的viasat服務只有8顆衛星。這使spacex成為...

構架 馬斯克軟體思維

1.馬斯克語言,這是一種將每天的生活準確無誤的描述出來的語言。無論什麼宗教信仰,閱讀本文的應該更相信資料,證據和準確度。普通家長 我想少花一些時間工作,因為我的孩子開始長大。馬斯克 我在嘗試少工作一些時間,因為我的三胞胎開始有自己的意識。他們快兩歲了。普通單身漢 我想要乙個女朋友。我不想工作太忙以至...

馬斯克腦機介面 馬斯克說的「腦機介面」是啥?

令馬斯克在前幾日的發布會上興奮不已的 腦機介面 技術到底是什麼呢?人類的大腦中要植入一台電腦了嗎?能給人類帶來什麼呢?懷著好奇心,去查了些簡單的資料,分享給大家。首先,讓我們看看腦機介面是什麼。腦機介面是最前沿的研究領域,是建立人 或動物 與外部裝置進行資訊傳輸的通路,可以實現人類意識的實時傳輸,並...