AI犯錯誰之過?切勿盲目相信之

2021-09-16 18:26:34 字數 2399 閱讀 9829

\n

\n人工智慧、機器學習,在這個智慧型當道的時代,你幾乎可以在任何地方看到ai的身影,小到你手裡的智慧型手機,大到工廠的超大型生產裝置,人們相信人工智慧,甚至在某些領域,人們已經開始對ai產生了依賴。但是,ai的判斷一定是準確的嗎?如果ai出現了失誤,那麼這個責任應該是誰的呢?本文作者cassie kozyrkov對這一問題提出了他的想法。

\n\n\n

\n別誤會,我其實很喜歡機器學習和人工智慧,但我不會盲目地相信它們,你應該也是吧,因為建立有效的、可信任的人工智慧或機器學習解決方案是乙個建立信任的過程。

\n\n圖:盲目信任是件可怕的事情

\n\n在你開始臆想任何有關機械人或科幻**的故事之前,先打斷一下!

人工智慧系統並不像人類那樣,它們只是被賦予了詩意般名字的貼標機。它們之所以不值得信任,是因為一些其他原因。正所謂事實勝於雄辯,讓我們來看幾個

熟悉的例子吧。\n\n

\n\n

\n之前,我們建立的

機器學習系統成功地返回了我所期望的結果!\n

\n圖:這個例子是為了說明有監督學習和無監督學習

模型成功地將兩隻貓分開了,並且達到了100%的訓練準確率。

\n\n這些影象中共有兩隻貓,並且模型成功地返回了他們的標籤。這意味著我成功地建立了乙個tesla和huxley分類器,對嗎?\n\n

還沒這麼快!其實我們的期望欺騙了我們!仔細觀察這些,你會發現,在所有tesla的背景中都有散熱器,而huxley的則沒有。

\n\n圖:這個系統其實不是乙個貓咪檢測器。由於

確認偏差的存在,我選擇性地注意到了我喜歡的結果,而並沒有注意到實際上我設計的系統是乙個

散熱器檢測器

\n\n

很不幸,實驗結果表明,這的確是乙個散熱器檢測器。使用新樣本進行測試可能會有所幫助,所以讓我們看看是否以這種方式解決問題……

\n\n\n

\n即使我使用新資料(這些新)來測試它,也不會有太多的錯誤,所以我們的分類器到底有問題嗎?

\n假設tesla總是和散熱器一起而huxley總是不和散熱器一起,那麼誰會在乎它是如何工作的?它總能奏效。它每次都會給出合適的分類,如果是這樣就沒有問題了。

\n但這真的是乙個很大的假設。如果貓搬到另一間公寓了會怎樣?如果你直接使用我的分類器對你的進行分類會怎樣?

\n在這些情況下,返回的標籤將是「huxley」,依賴了我的檢測器的任意乙個關鍵任務系統都會發生崩潰。

\n\n

讓我們先分析一下:

\n\n

到現在為止還挺好,實際上還沒有什麼問題。你相信很多東西,卻不知道它們是如何起作用的,例如我們許多人因為頭痛而服用撲熱息痛。它的確有效,但科學也無法解釋為什麼。重要的是,你可以驗證撲熱息痛確實有效。

\n\n圖:不知道這種流行了100多年的藥物在分子水平上如何起作用?科學也不知道。

\n\n把複雜的ai系統想成頭痛**一樣。只有確保它們有效,你就會沒事。那麼是不是這個系統就沒有問題了?\n

可惜的是,我檢查了一些樣本,這些樣本與我希望系統使用的樣本不同。

\n這一次,它出了大問題。只要我們使用適當的樣本適當地測試系統,其他就不會有問題。所以答案是:這是我的人為錯誤

\n\n圖:如果針對乙個任務測試了該系統,然後將其用於其他任務,你期望得到怎樣的結果呢?

\n\n如果教學的時候我不按考點來教學生,那麼他們考試成績很差不應該是理所當然的嗎?如果我的所有樣本都來自tes和散熱器總是在一起的世界,那麼我只能期望我的分類器只能在那個世界中是有效的。當我把它移到另乙個世界,就等於把它放在乙個不屬於它的地方。應用程式最好是低風險的,因為「我不知道它在超出預設時就不奏效」這樣的藉口是不存在的。如果你以前不明白,那麼現在應該知道了吧。\n

這就是為什麼從一開始就要考慮到你的目標和使用者,這點很重要。開始之前一定要指定規格和設定。負起乙個成年人的責任,否則你只能開發一些玩具一樣的應用程式。

\n\n\n

\n如果沒有熟練和負責任的領導力,我希望你的應用程式永遠不要涉及任何人的健康、安全、尊嚴或未來的事情......\n\n

我一直在使用「樣本」這個詞而不是「資料」(實際上它們是同樣的東西)來提醒你這不是魔術。 ml / ai的要點是,你使用樣本而不是描

述來表達你所期望的結果 。為了使它起作用,這些樣本必須是相關的。並且,任務越複雜,你所需要的樣本就越多。你每天都使用樣本進行交流,因此你已經知道了這些內容。也許你想知道數學是否表達了不一樣的東西,實際上它沒有。請放心,常識是你最好的演算法。

\n\n圖:如果你想用樣本進行教學,那麼這些樣本必須是好樣本。如果你想要信任你的學生,那麼測驗必須是好測驗。

\n\n### 盲目的信任是一件可怕的事情\n

在你規定的條件之外,你對系統的安全性一無所知,因此請注意:

\n\n

如果你使用的工具尚未經過測試,那麼你的工具導致的錯誤應該算到你頭上。a也只是一種工具而已。

\n\n

\n\n

AI犯錯誰之過?切勿盲目相信之

人工智慧 機器學習,在這個智慧型當道的時代,你幾乎可以在任何地方看到ai的身影,小到你手裡的智慧型手機,大到工廠的超大型生產裝置,人們相信人工智慧,甚至在某些領域,人們已經開始對ai產生了依賴。但是,ai的判斷一定是準確的嗎?如果ai出現了失誤,那麼這個責任應該是誰的呢?本文作者cassie koz...

AI犯錯誰之過?切勿盲目相信之

人工智慧 機器學習,在這個智慧型當道的時代,你幾乎可以在任何地方看到ai的身影,小到你手裡的智慧型手機,大到工廠的超大型生產裝置,人們相信人工智慧,甚至在某些領域,人們已經開始對ai產生了依賴。但是,ai的判斷一定是準確的嗎?如果ai出現了失誤,那麼這個責任應該是誰的呢?本文作者cassie koz...

AI犯錯誰之過?切勿盲目相信之

人工智慧 機器學習,在這個智慧型當道的時代,你幾乎可以在任何地方看到ai的身影,小到你手裡的智慧型手機,大到工廠的超大型生產裝置,人們相信人工智慧,甚至在某些領域,人們已經開始對ai產生了依賴。但是,ai的判斷一定是準確的嗎?如果ai出現了失誤,那麼這個責任應該是誰的呢?本文作者cassie koz...