在效能和應用之間,人工智慧需要找到乙個平衡點

2021-09-20 12:04:50 字數 2797 閱讀 6848

不同工作,對錯誤的容忍度不同

麥當勞的收銀員不需要太多培訓就能上崗。即使是上班第一天,大多數收銀員也能勝任工作。工作時間越長,他們就越有經驗。雖然新人可能有些慢,比起老員工,錯誤會多一些,但整體來說,大家都相信他們會從經驗中學習提高。

我們一般不這麼想,但其實商業飛行員也是這樣。我們坐飛機感到放心,是因為航空運輸飛行員認證是由美國交通部聯邦航空管理局管理的,要求飛行員最少擁有1500小時的飛行時長,500小時的國際航班經驗,100小時的夜間飛行時間,還有75小時的儀表操作時長。不過我們也知道,飛行員的成長也需要工作經驗。

2023年1月15日,當美國航空1549號航班被一群加拿大鵝擊中後,在所有發動機關閉的情況下,機長chelsey「sully」sullenberger奇蹟般地將飛機降落在哈德遜河上,拯救了所有155名乘客的生命。大多數記者將他的表現歸功於經驗。他擁有19,663小時的飛行時長,其中a320飛機的飛行時長達到了4,765小時。sully自己說:「可以這麼看,42年來,我一直在乙個叫做經驗、教育和培訓的銀行中持續做著小額定期存款。1月15日那天,數額攢了不少,於是我提了一大筆錢。」sully和他所有乘客,都應該感謝以前陪sully飛過的那數以千計的人。

在收銀員和飛行員之間,「勝任工作」的判斷標準是有差異的。這種差異基於對錯誤的容忍度。很明顯,對飛行員來說,容忍度要低得多。這體現在他們服務第一批真實客戶之前,我們要求他們積累的訓練時長上,即使他們真正上崗後會隨著經驗的增長而提高。對於不同的職業,我們對於接受多長時間的培訓就算「勝任工作」了,有著不同的定義。

機器學習也是如此。

ai應用是基於**的。傳統的程式設計演算法遵循指定步驟處理資料,輸出結果。但機器學習不同。作為當今ai技術的主要方法,機器學習演算法會在學習過程中持續進化。給機器以包括結果在內的資料,它會找到其中的關聯,根據這些關聯,機器可以處理它從未見過的資料,並給出**結果。

這意味著智慧型機器需要接受訓練,就像飛行員和收銀員一樣。新員工在公司的培訓體系中變得可以「勝任工作」,之後走上工作崗位,隨著工作經驗的積累持續提高。在這一過程中,判斷何時可以「勝任工作」是個重要決定。就機器智慧型來說,這可能是個和時機有關的重要戰略決策:何時從內部訓練轉換為實際工作過程中的學習。

需要尋找乙個平衡點

對於機器智慧型何時算是「勝任工作」,沒有現成的答案。我們只能去尋找乙個平衡點。機器智慧型應用的成功有賴於認真地去尋找這些平衡點,並富有策略地與這些平衡點相靠近。

公司必須搞清楚的首要問題是他們和他們的客戶對錯誤的容忍度是什麼。我們對一些智慧型機器有很高的錯誤容忍度,而對另一些則很低。例如,google的inbox應用程式讀取你的電子郵件,並使用ai來**你對某封郵件將作何反應,然後生成三個簡短的響應選項供使用者選擇。即使有70%的錯誤率(即ai生成的響應僅在30%的時間內有用),許多使用者還是聲稱自己很喜歡使用這一應用程式。這種高容忍度的原因在於,減少撰寫郵件和打字之利超過了響應**錯誤時浪費的螢幕空間之弊。

相反,我們對和無人駕駛有關的錯誤容忍度就很低。主要由谷歌率先研發的第一代無人駕駛車輛,使用了專業的人類車手進行訓練。他們駕駛著有限數量的車輛,進行了數十萬公里的道路實測。這就像父母在讓孩子自己開車上路前,會先坐在副駕駛上監督他們一段時間。

專業的人類車手提供了安全但同時又非常有限的訓練環境。機器只能接觸到一小部分路況。人在學會如何應對更可能導致事故的罕見事件之前,或許已經在不同的環境和路況下開了數百萬英里。對於無人駕駛的車輛來說,真實的道路複雜又無情,因為人為因素造成的複雜又無情的路況會影響到它們。

那麼第二個問題就是,要在真實環境中獲取使用者資料有多麼重要。正因為知道訓練可能需要很長時間,特斯拉在最近所有的車型上都配備了自主駕駛功能。這些功能包含了一組感測器,用於收集環境資料和駕駛資料,並上傳到特斯拉機器學習伺服器。在非常短的時間內,特斯拉可以通過觀察其汽車駕駛員的駕駛狀況來獲取訓練資料。道路上的特斯拉車輛越多,特斯拉的計算機就學的越多。

然而,除了在人類駕駛特斯拉汽車時被動地收集資料,公司還需要無人駕駛的資料來了解其系統的執行,以評估其效能,同**估安全司機的干預時間。特斯拉的最終目標不是製造一名副駕駛,或是一名在監督下開車的青少年,而是完全自主的車輛。這就需要真正做到讓人們在無人駕駛的汽車中感到舒適的地步。

何時讓機器到真實環境中學習?

這個平衡點並不容易找到。特斯拉需要機器在實際路況下學習,但將現有車輛置於實際路況下,意味著給予客戶乙個相對「年輕和缺乏經驗」的駕駛員——儘管可能已經比許多年輕的司機更好。不過,這比beta測試的風險還是高多了。siri或alexa是否理解了你說的話,或是谷歌inbox是否正確地**了你對電子郵件的回應,這些風險並不大。siri、alexa或谷歌inbox出錯,意味著較差的使用者體驗;無人駕駛車輛出錯,意味著生命危險。

如同行車記錄儀中記錄到的那樣,這種經驗很嚇人。汽車擅自下了高速公路,或者錯誤地把地下行人道當成交通堵塞而踩了剎車。緊張的司機可能會選擇不使用無人駕駛功能,這樣也許會阻礙特斯拉的學習。此外,即使公司能夠說服一些人成為beta測試人員,這些人會是汽車學習時真正需要的嗎?畢竟,願意參與無人駕駛的測試人員可能比平均駕駛員更喜愛冒險,這樣一來,公司會把他們的機器訓練成什麼樣子呢?

有更多的資料,機器就可以學習得更快,而上路以後,機器又可以獲得更多的資料。然而,真實的路況中,可能會發生車禍,這又會損害公司的品牌。將產品放在真實路況中,可以加速學習,但會危害品牌(也許是客戶的生命!);將產品暫緩投入真實路況,會減慢學習,但可以花更多的時間在內部改進產品並保護品牌(也可能是客戶的生命)。

對於某些產品,比如谷歌inbox,平衡點似乎很清楚,因為效能不佳的代價較低,而客戶的使用大大有利於機器學習。盡早對外部署這種型別的產品是有意義的。對於其他產品,比如汽車,答案不太清楚。隨著越來越多的公司開始引入機器學習,有更多的平衡點需要被找到。

人工智慧行業應用之 為教育加入新血液

當人工智慧技術和應用成熟之時,其將在教育發動一場大變革。2016年即將過去,在這一年,ai技術得到了極大的突破,並被人們應用於多個領域,從而衍生出了智慧型醫療 智慧型家居等多個新興行業。此前,軟銀將自己的智慧型機械人pepper放到了日本福島縣早稻田shoshi高階中學和學生們一起上學,幫助學生學習...

李傑 人工智慧與工業4 0在智慧型製造的應用

至頂網cio與應用頻道 07月20日 北京訊息 在2017中國大資料應用大會上,美國辛辛那提大學特聘講座教授 美國白宮資訊物理系統與美國挑戰專案顧問李傑,分享了對工業大資料,以及人工智慧怎麼改進工業大資料分析的見解。美國辛辛那提大學特聘講座教授 美國白宮資訊物理系統與美國挑戰專案顧問 李傑 工業大資...

檢查機關探索人工智慧應用 政務智慧型化在路上

圍繞人工智慧領域,我國陸續出台相關政策,指出新一代人工智慧相關學科發展 理論建模 技術創新 軟硬體公升級等整體推進,正在引發鏈式突破,推動經濟社會各領域從數位化 網路化向智慧型化加速躍公升。位於西南的四川省南部縣人民檢察院率先開展了人工智慧在內部管理中的應用。該院採用基於神經網路的深度學習人臉識別技...