是您還是虛擬的您? 聊天機械人太真實了嗎?

2021-10-06 09:28:02 字數 3259 閱讀 9451

在hbo的電視節目的最近一集中,pied piper網路工程師bertram gilfoyle(由演員martin starr扮演)在矽谷創造了乙個聊天機械人,他稱之為「安東之子」,該聊天機械人在公司網路上自動與其他員工互動,冒充為吉爾福伊爾

有一段時間,pied piper開發人員dinesh chugtai(由kumail nanjiani扮演)與該機械人聊天,直到在一次互動中,他看到gilfoyle站在附近,遠離了他的計算機。 當發現自己一直在與ai聊天時,dinesh很生氣。 但是隨後,他要求使用「安東之子」來自動化與煩人的員工的互動。

像dinesh一樣,我們討厭被愚弄與模仿人的軟體進行互動的想法。 但是也像dinesh一樣,我們可能會愛上這樣的想法,即軟體可以像我們一樣進行互動,因此我們不必自己做。

google的ai是否會讓您人為地愚蠢? ]

我們正處於假冒他人的ai的邊緣。 現在,可以通過以下方式對聊天或聊天的ai進行分類:

像人一樣互動,但將自己標識為ai

冒充人類,而不是特定的人

冒充特定的人

這三者的共同點是-不管他們是怎樣假扮**類的-他們都試圖表現得像人類。 甚至將自己標識為軟體的聊天機械人也越來越多地被設計為與人類互動的步調,語氣甚至缺陷進行互動。

[不要錯過:mike elgan每週都會在insider pro上使用 ]

我最近在此空間中詳細介紹了google對其duplex技術的兩個公開實現之間的細微差別 。 當有人呼叫google pixel手機是第一類ai時,它用於接聽**-它可以將呼叫者自身標識為ai。

[內部ai電子書: 企業中的人工智慧 ]

duplex的另一種用法是google公開展示的第一種方法,而第二種方法是使用duplex。 後

在hbo的電視節目的最近一集中,pied piper網路工程師bertram gilfoyle(由演員martin starr扮演)在矽谷創造了乙個聊天機械人,他稱之為「安東之子」,該聊天機械人在公司網路上自動與其他員工互動,冒充為吉爾福伊爾

有一段時間,pied piper開發人員dinesh chugtai(由kumail nanjiani扮演)與該機械人聊天,直到在一次互動中,他看到gilfoyle站在附近,遠離了他的計算機。 當發現自己一直在與ai聊天時,dinesh很生氣。 但是隨後,他要求使用「安東之子」來自動化與煩人的員工的互動。

像dinesh一樣,我們討厭被愚弄與模仿人的軟體進行互動的想法。 但是也像dinesh一樣,我們可能會愛上這樣的想法,即軟體可以像我們一樣進行互動,因此我們不必自己做。

google的ai是否會讓您人為地愚蠢? ]

我們正處於假冒他人的ai的邊緣。 現在,可以通過以下方式對聊天或聊天的ai進行分類:

像人一樣互動,但將自己標識為ai

冒充人類,而不是特定的人

冒充特定的人

這三者的共同點是-不管他們是怎樣假扮**類的-他們都試圖表現得像人類。 甚至將自己標識為軟體的聊天機械人也越來越多地被設計為與人類互動的步調,語氣甚至缺陷進行互動。

[不要錯過:mike elgan每週都會在insider pro上使用 ]

我最近在此空間中詳細介紹了google對其duplex技術的兩個公開實現之間的細微差別 。 當有人呼叫google pixel手機是第一類ai時,它用於接聽**-它可以將呼叫者自身標識為ai。

[內部ai電子書: 企業中的人工智慧 ]

duplex的另一種用法是google公開展示的第一種方法,而第二種方法是使用duplex。 使用google助理啟動餐廳預訂後,duplex會呼叫餐廳,以乙個人(而不是乙個特定的在世人士)的身份進行互動,並且不會將自己標識為ai。 現在,google在通話開始時新增了模糊的資訊披露。

而且,事實上,這是來自像公司使用的增殖客服聊天機械人的主要型別instabot , liveperson , imperson , 阿達 , id登入 , hubspot和chatfuel 。 聊天機械人已被證明是客戶服務和銷售的福音。 他們都將自己視為機械人。

gartner去年估計,到明年,所有客戶服務和支援業務中將有四分之一將整合ai聊天機械人,而2023年這一比例不到2%。

當我們想到「客戶服務」時,我們會想到專門打**尋求某種幫助。 但是,這種互動越來越多地通過**和應用程式作為提醒或通知發生。 uber應用程式會通知您汽車還沒有到達。 航空公司的應用程式可讓您知道航班的變化。 通常由客戶來假設互動是來自人還是機器。

是否有人在與人或機器聊天或聊天? 如果這樣做的話,在每個人都更習慣於基於ai的互動之後的幾年內,他們會關心嗎?

在調查中,人們會說,他們寧願跟人類聊天,也不願與機械人聊天。 但是柏林馬克斯蒲朗克人類發展研究所的人類與機器中心的研究人員發現,如果聊天機械人冒充人,則與聊天機械人的互動最為成功。 在發表在《自然機器智慧型》雜誌上的這項研究中,目標是讓聊天機械人贏得人類的合作。 當人們認為機械人是人類時,他們更有可能合作。

換句話說,由於人們不太可能與聊天機械人合作,因此前進的最佳方法是讓聊天機械人模仿人類,而不是將自己標識為ai。

這是菲利普·迪克(philip k dick)或威廉·吉布森(william gibson)的**-「虛擬**人」在「網路空間」中以「虛擬您」的身份張貼。

立法者對此有話要說。 加利福尼亞州的法律於7月1日生效,該法律要求ai在任何互動中都必須將自己標識為非人類。 但是,該法律可能僅適用於具有「面向公眾」聊天機械人的公司,而不適用於像rubin的「您的虛擬版本」這樣的技術的個人使用者。

當被問及是否希望ai在互動過程中將自己標識為非人類時,大多數人會說是-他們希望這樣做。 人們不喜歡被「愚弄」到與機器互動的想法。

問題是基於機器的通訊不是二進位制的。 機器可以幫助我們以各種方式進行交流,從語法檢查程式到辦公室外的自動答覆,再到自動更正,再到google的smart compose。

人們已經從聊天機械人那裡收到了訊息,這些訊息不會因為諸如送披薩的狀態之類的簡單事情而透露其非人道性。 每當我們致電銀行或航空公司尋求客戶服務時,我們每天都會與越來越複雜的互動式語音響應(ivr)系統進行互動。 當我們接觸到人類時,他們通常會從ai生成的指令碼中讀取內容。

我認為,圍繞冒充人類的人工智慧的道德恐慌(或更準確地說,是含糊的不滿)是暫時的。

從現在開始的幾年內,這就像**上的cookie披露一樣。 歐洲,加利福尼亞和其他一些政治實體將強制要求ai披露。 但是大多數使用者會發現這些披露令人討厭地浪費時間。

該技術就在這裡,並且很快將變得無處不在。 我們可能會生氣,得知我們一直在與之混日子的人不是人類。 但是,讓聊天機械人代表我們互動也可能會讓我們感到興奮。

無論哪種方式,「安東之子」都會來。

from:

我的extjs聊天機械人

這幾天對聊天機械人感興趣,看看網上幾個吹得響的,也是常答非所問,自己研究了幾天,也出來乙個有模有樣的,這幾天不斷改進演算法,機械人出生第五天了,目前實現 1.查詢全國各地天氣,郵碼,區號,計算算式 2.自動分詞 4.今天時間,明天星期幾等,會在客戶端自動計算結果應答 6.以上都失敗,會自動找打哈哈的...

物件導向的聊天機械人

using system using system.collections.generic using system.linq using system.text namespace 聊天機械人 物件導向 class person public int age public int fullleve...

python實現簡單的聊天機械人

coding utf 8 created on sat aug 3 16 25 26 2019 author gongmingxian import requests,json,time,random feature text 我有問必答,有人會問我 今天深圳天氣怎麼樣?也有人問我 你喜歡我嗎?快來...