可控的人工智慧 才有未來

2021-09-26 18:54:59 字數 1322 閱讀 1360

儘管並非所有人都認同ai的這幾個「可」,但這提出了ai的一種方向,即ai產品的研發和使用必須同時具有幾個維度,而不能只發展乙個方面。ai或其他科技產品無論如何新穎和實用,也需要在可控的狀態下才能受到人們的歡迎,並且在獲得極大效益的同時,防止和減少對人類社會可能造成的麻煩和災難。這或許是反思世界各國經濟發展與環境保護曾犯下的錯誤後得出的經驗。

確保ai的「知、控、用、靠」也是總結了科技史上的先研發、後管理的傳統思路和做法的教訓。在科技史上,汽車的發明把人類社會帶入了工業文明時代,但是,在汽車的使用過程中,人們卻較難控制其帶來的交通事故和傷害,安全帶的發明和使用就是控制汽車傷害事件的乙個要素,但是,汽車發明之後80年才研發出安全帶。

基於這樣的認知,微軟提出了其人工智慧發展的一項原則——每一項ai產品都要經過ai倫理道德審查。ai的迅猛發展也讓人類認識到,如果ai在可用的同時不可控的話,人類將付出更大的代價。因此,對每一種ai產品進行倫理審查和立規也成為ai研發必須同時完成的任務。2023年微軟的ceo薩提亞·納德拉(satya nadella)提出了人工智慧的十大倫理:ai必須用來輔助人類;ai必須是透明的;ai必須實現效能最大化,同時又不能傷害人的尊嚴;ai必須保護人的隱私;ai必須承擔演算法責任以便人類可以撤銷非故意的傷害;ai必須防止偏見。

以上6項是對ai產品提出的,但同時也提出了使用ai產品的人類應該擁有的4個倫理原則,包括人要有同理心,這在人與ai共存的世界裡非常有價值;教育,為研發和管理ai提供基礎;保持人的創造力,機器也會繼續豐富和增強人們的創造力;裁決和責任,最終由人來對ai的判決或診斷,或對ai產生的所有結果負責。

如果能實施,這些原則當然能對ai進行有效的控制。但實際上,由於種種原因,很多機構和研發者設計的ai產品並非可控,也因此會在應用時出現種種問題。目前最大的問題就是侵犯人們的隱私,難以保證安全,也因此受到人們的批評和反對。

最近乙個比較大的教訓是蘋果產品的語音助手西瑞(siri)。2023年7月,**報道,西瑞會偷錄使用者的隱私語音,如就診時的醫療資訊等,並轉化為聲音檔案,傳送給蘋果公司在不同國家的承包商。聲音檔案同時也記錄使用者的位置、使用資料與通訊內容。在經過一番解釋和拉鋸之後,蘋果公司於8月28日就西瑞秘密錄下與使用者的交流,並將檔案洩露給外包商正式道歉。由於隱私不保,使用者提出了批評,而且如果這些情況不能改善,就會讓蘋果失去大量的使用者,甚至被市場拋棄。

不過這種情況也表明,人工智慧的發展最終還是取決於是否能受人控制,因為離開了人的控制,ai就無法進化和公升級。正是在人與ai的互動情況之下,才有可能讓ai的倫理審查和監控失靈或失範,並造成安全漏洞。

因此,不只是可知可用,可控和可靠也要同時得到保證和保障,ai才會有未來。其他產品同樣如此。

大連**醫院 mobile.dlrlyy.cn

大連****醫院排名 mobile.dlrlyy.cn

Forecast的人工智慧

forecast智慧型專案管理軟體 人工智慧 英語 artificial intelligence,ai 亦稱機器智慧型,是指由人工製造出來的系統所表現出來的智慧型。通常人工智慧是指通過普通電腦實現的智慧型。人工智慧的研究可以分為幾個技術問題。其分支領域主要集中在解決具體問題,其中之一是,如何使用各...

讀《人工智慧的未來》

雷 庫茲韋爾,名人也 加速回報定律,the law of accelerating returns 思想實驗 思考的思想實驗 大腦皮質的運作原理 大腦新皮質模型,思維模式識別理論 分為 6 層,共包含 300 億個神經元,它們又組成了 3 億個模式識別器。模式能做的事 學習,確認,執行。資訊沿著概念...

展望人工智慧的未來

我們的未來將不可避免的與人工智慧綁在一起,那麼人工智慧將朝向哪個方向發展呢?對於人工智慧未來的發展,我們最好的猜想有哪些 近期和遠期 如果真的創造出乙個有意識的人工智慧,又會有哪些倫理性和實踐性的思考?在這個投機的社會,人工智慧應該被賦予權利,又或是被人們忌憚?上週,我們討論了人工智慧的過去及其現狀...