IT道德與倫理

2021-08-13 04:05:53 字數 4465 閱讀 7748

人工智慧和包括機械人在內的智慧型化自動系統的普遍應用,不僅僅是一場結果未知的開放性的科技創新,更將是人類文明史上影響甚為深遠的社會倫理試驗。誠如霍金所言,人工智慧的短期影響由控制它的人決定,而長期影響則取決於人工智慧是否完全為人所控制。

人工智慧體的擬主體性與人工倫理智慧型體

人工智慧的倫理問題之所以受到前所未有的關注,關鍵原因在於其能實現某種可計算的感知、認知和行為,從而在功能上模擬人的智慧型和行動。有鑑於此,人工智慧學家引入了智慧型體(agents,又稱智慧型主體)的概念來定義人工智慧:對能夠從環境中獲取感知並執行行動的智慧型體的描述和構建。於是,可將各種人工智慧系統稱為人工智慧體或智慧型體。如果僅將智慧型體看作一般的技術人造物,其研究進路與其他科技倫理類似,主要包括面向應用場景的描述性研究、凸顯主體責任的責任倫理研究以及基於主體權利的權利倫理研究。但在人們賦予智慧型體以擬主體性的同時,會自然地聯想到,不論智慧型體是否像主體那樣具有道德意識,它們的行為可以看作是與主體倫理行為類似的擬倫理行為。進而可追問:能不能運用智慧型演算法對人工智慧體的擬倫理行為進行倫理設計,即用**編寫的演算法使人所倡導的價值取向與倫理規範得以嵌入到各種智慧型體之中,令其成為遵守道德規範乃至具有自主倫理抉擇能力的人工倫理智慧型體?

機械人三定律與嵌入式的機器倫理調節器

其實,這一思路並不新鮮,早在70多年前,美國人阿西莫夫在對機械人三定律的科學幻想中,就提出了通過內建的「機器倫理調節器」使機械人成為服從道德律令的類似構想。在短篇科幻**《轉圈圈》(1942)中,阿西莫夫提出了按優先順序排列的機械人三定律:第一定律,機械人不得傷害人類或坐視人類受到傷害;第二定律,在與第一定律不相衝突的情況下,機械人必須服從人類的命令;第三定律,在不違背第一與第二定律的前提下,機械人有自我保護的義務。此後,為了克服第一定律的侷限性,他還提出了優先順序更高的機械人第零定律:機械人不得危害人類整體或坐視人類整體受到危害。

從內涵上講,機械人定律是一種康德式的道德律令,更確切地講是人為機械人確立的普遍道德法則,以確保其成為遵守絕對道德律令的群體。而更耐人尋味的是,機械人三定律是通過技術實現的。機械人定律並不全然是道德律令,也符合其技術實現背後的自然律。換言之,機械人定律所採取的方**是自然主義的,它們是人以技術為尺度給機械人確立的行為法則,既體現道德法則又合乎自然規律。從自然主義的方**來看,這一構想又似乎明顯超前。在提出第零定律時,阿西莫夫也意識到,機械人可能無法理解人類整體及人性等抽象概念。或許是這些困難令他轉而暢想,一旦機械人靈活自主到可以選擇其行為,機械人定律將是人類理性地對待機械人或其他智慧型體的唯一方式。這似乎是在暗示,使人工智慧體成為可以自主作出倫理抉擇的人工倫理智慧型體的前提是其可與人的智慧型媲美。

走向可計算的機器倫理與智慧型體倫理嵌入

回到人工智慧的現實發展,隨著無人機、自動駕駛、社會化機械人、致命性自律**等應用的發展,湧現出大量人可能處於決策圈外的智慧型化自主認知、決策與執行系統,這迫使人們在實現強人工智慧之前,就不得不考慮如何讓人工智慧體自主地做出恰當的倫理抉擇,試圖將人工智慧體構造為人工倫理智慧型體。

在實踐層面,機器倫理構建的具體策略有三:其一是自上而下,即在智慧型體中預設一套可操作的倫理規範,如自動駕駛汽車應將撞車對他人造成的傷害降到最低。其二是自下而上,即讓智慧型體運用反向強化學習等機器學習技術研究人類相關現實和模擬場景中的行為,使其樹立與人類相似的價值觀並付諸行動,如讓自動駕駛汽車研究人類的駕駛行為。其三是人機互動,即讓智慧型體用自然語言解釋其決策,使人類能把握其複雜的邏輯並及時糾正其中可能存在的問題。但這些策略都有其顯見的困難:如何在量化和計算中準確和不走樣地表達與定義倫理範疇?如何使智慧型體準確地理解自然語言並與人進行深度溝通?

鑑於機器倫理在實踐中的困難,人工智慧體的倫理嵌入不能侷限於智慧型體,而須將人的主導作用納入其中。倫理評估工具旨在對智慧型體是否應該以及是否恰當地**了相關主體的倫理決策做出評估,並對機器倫理的道德理論(如效益論、道義論等)和倫理立場(如個性化立場、多數人立場、隨機性選擇等)等元倫理預設做出評價和選擇。人機介面旨在使人與智慧型體廣泛借助肢體語言、結構化語言、簡單指令乃至神經傳導訊號加強相互溝通,使機器更有效地理解人的意圖,並對人的行為做出更好的預判。倫理督導者則旨在全盤考量相關倫理衝突、責任擔當和權利訴求,致力於釐清由人類操控不當或智慧型體自主抉擇不當所造成的不良後果,進而追溯相關責任,尋求修正措施。

對人類文明而言,人工智慧將是乙個好訊息還是壞訊息,最終取決於我們的倫理智慧型。在中國推出新一代人工智慧發展規劃的今天,我們更要悉心體味孕育了巧奪天工精神和天工開物情懷的中國思想,審天人之性,度萬物之勢,以探求人機和諧、文明通達之道。

人工智慧和包括機械人在內的智慧型化自動系統的普遍應用,不僅僅是一場結果未知的開放性的科技創新,更將是人類文明史上影響甚為深遠的社會倫理試驗。誠如霍金所言,人工智慧的短期影響由控制它的人決定,而長期影響則取決於人工智慧是否完全為人所控制。

人工智慧體的擬主體性與人工倫理智慧型體

人工智慧的倫理問題之所以受到前所未有的關注,關鍵原因在於其能實現某種可計算的感知、認知和行為,從而在功能上模擬人的智慧型和行動。有鑑於此,人工智慧學家引入了智慧型體(agents,又稱智慧型主體)的概念來定義人工智慧:對能夠從環境中獲取感知並執行行動的智慧型體的描述和構建。於是,可將各種人工智慧系統稱為人工智慧體或智慧型體。如果僅將智慧型體看作一般的技術人造物,其研究進路與其他科技倫理類似,主要包括面向應用場景的描述性研究、凸顯主體責任的責任倫理研究以及基於主體權利的權利倫理研究。但在人們賦予智慧型體以擬主體性的同時,會自然地聯想到,不論智慧型體是否像主體那樣具有道德意識,它們的行為可以看作是與主體倫理行為類似的擬倫理行為。進而可追問:能不能運用智慧型演算法對人工智慧體的擬倫理行為進行倫理設計,即用**編寫的演算法使人所倡導的價值取向與倫理規範得以嵌入到各種智慧型體之中,令其成為遵守道德規範乃至具有自主倫理抉擇能力的人工倫理智慧型體?

機械人三定律與嵌入式的機器倫理調節器

其實,這一思路並不新鮮,早在70多年前,美國人阿西莫夫在對機械人三定律的科學幻想中,就提出了通過內建的「機器倫理調節器」使機械人成為服從道德律令的類似構想。在短篇科幻**《轉圈圈》(1942)中,阿西莫夫提出了按優先順序排列的機械人三定律:第一定律,機械人不得傷害人類或坐視人類受到傷害;第二定律,在與第一定律不相衝突的情況下,機械人必須服從人類的命令;第三定律,在不違背第一與第二定律的前提下,機械人有自我保護的義務。此後,為了克服第一定律的侷限性,他還提出了優先順序更高的機械人第零定律:機械人不得危害人類整體或坐視人類整體受到危害。

從內涵上講,機械人定律是一種康德式的道德律令,更確切地講是人為機械人確立的普遍道德法則,以確保其成為遵守絕對道德律令的群體。而更耐人尋味的是,機械人三定律是通過技術實現的。機械人定律並不全然是道德律令,也符合其技術實現背後的自然律。換言之,機械人定律所採取的方**是自然主義的,它們是人以技術為尺度給機械人確立的行為法則,既體現道德法則又合乎自然規律。從自然主義的方**來看,這一構想又似乎明顯超前。在提出第零定律時,阿西莫夫也意識到,機械人可能無法理解人類整體及人性等抽象概念。或許是這些困難令他轉而暢想,一旦機械人靈活自主到可以選擇其行為,機械人定律將是人類理性地對待機械人或其他智慧型體的唯一方式。這似乎是在暗示,使人工智慧體成為可以自主作出倫理抉擇的人工倫理智慧型體的前提是其可與人的智慧型媲美。

走向可計算的機器倫理與智慧型體倫理嵌入

回到人工智慧的現實發展,隨著無人機、自動駕駛、社會化機械人、致命性自律**等應用的發展,湧現出大量人可能處於決策圈外的智慧型化自主認知、決策與執行系統,這迫使人們在實現強人工智慧之前,就不得不考慮如何讓人工智慧體自主地做出恰當的倫理抉擇,試圖將人工智慧體構造為人工倫理智慧型體。

在實踐層面,機器倫理構建的具體策略有三:其一是自上而下,即在智慧型體中預設一套可操作的倫理規範,如自動駕駛汽車應將撞車對他人造成的傷害降到最低。其二是自下而上,即讓智慧型體運用反向強化學習等機器學習技術研究人類相關現實和模擬場景中的行為,使其樹立與人類相似的價值觀並付諸行動,如讓自動駕駛汽車研究人類的駕駛行為。其三是人機互動,即讓智慧型體用自然語言解釋其決策,使人類能把握其複雜的邏輯並及時糾正其中可能存在的問題。但這些策略都有其顯見的困難:如何在量化和計算中準確和不走樣地表達與定義倫理範疇?如何使智慧型體準確地理解自然語言並與人進行深度溝通?

鑑於機器倫理在實踐中的困難,人工智慧體的倫理嵌入不能侷限於智慧型體,而須將人的主導作用納入其中。倫理評估工具旨在對智慧型體是否應該以及是否恰當地**了相關主體的倫理決策做出評估,並對機器倫理的道德理論(如效益論、道義論等)和倫理立場(如個性化立場、多數人立場、隨機性選擇等)等元倫理預設做出評價和選擇。人機介面旨在使人與智慧型體廣泛借助肢體語言、結構化語言、簡單指令乃至神經傳導訊號加強相互溝通,使機器更有效地理解人的意圖,並對人的行為做出更好的預判。倫理督導者則旨在全盤考量相關倫理衝突、責任擔當和權利訴求,致力於釐清由人類操控不當或智慧型體自主抉擇不當所造成的不良後果,進而追溯相關責任,尋求修正措施。

對人類文明而言,人工智慧將是乙個好訊息還是壞訊息,最終取決於我們的倫理智慧型。在中國推出新一代人工智慧發展規劃的今天,我們更要悉心體味孕育了巧奪天工精神和天工開物情懷的中國思想,審天人之性,度萬物之勢,以探求人機和諧、文明通達之道。

IT倫理與道德

it行業的倫理與道德邊緣的故事 近年來隨著it行業的蓬勃發展,帶給人們巨大便易,財富的同時也會隨之帶來一些社會問題,現在我們小談一番發生在it行業的有關倫理道德的事件。首先作為乙個程式設計師我們應該具有哪些道德準則,首先對於公司,程式設計師應該做到保護公司的商業機密,決不允許發生洩露公司源 重要文件...

IT倫理與道德

人工智慧的持續進步和廣泛應用帶來的好處將是巨大的。但是,為了讓人工智慧真正有益於人類社會,我們也不能忽視人工智慧背後的倫理問題。現在的人工智慧界更多是工程師在參與,缺乏哲學 倫理學 法學等其他社會學科的參與,未來跨學科的人工智慧倫理測試需要加強研究。第乙個是隱私憂慮。很多ai系統,包括深度學習,都是...

IT的道德與倫理

1942年,阿西莫夫在短篇 runaround 環舞 中首次提出了三定律 一 機械人不得傷害人類,或因不作為使人類受到傷害。二 除非違背第一定律,機械人必須服從人類的命令。三 除非違背第一及第二定律,機械人必須保護自己。但後來,阿西莫夫加入了一條新定律 第零定律。零 機械人不得傷害人類整體,或因不作...