譯 iOS 11 機器學習人人有份

2021-09-22 23:21:49 字數 1618 閱讀 4023

本文講的是[譯] ios 11:機器學習人人有份,

譯文出自:掘金翻譯計畫

譯者:changkun ou

校對者:wilsonandusa

atuooo

做出**

收益!!!

let model = resnet50()
let pixelbuffer: cvpixelbuffer = /* your image */

iflet prediction = try? model.prediction(image: pixelbuffer)

諸如隨機森林和提公升樹的決策樹整合

線性回歸和 logistic 回歸

前饋神經網、卷積神經網、遞迴神經網

裝置上不能進行訓練。你需要使用離線工具包來進行訓練,然後將它們轉換到 core ml 格式。

如果 core ml 不支援某種型別的 layer,那麼你就不能使用它。在這一點上,你不能使用自己的 kernel 來擴充套件 core ml。在使用 tensorflow 這樣的工具來構建通用計算圖模型時,mlmodel 檔案格式可能就不那麼靈活了。

core ml 轉換工具只支援特定版本的數量有限的訓練工具。例如,如果你在 tensorflow 中訓練了乙個模型,則無法使用此工具,你必須編寫自己的轉換指令碼。正如我剛才提到的:如果你的 tensorflow 模型具有一些 mlmodel 不支援的特性,那麼你就不能在 core ml 上使用你的模型。

你不能檢視中間層的輸出,只能獲得最後一層網路的**值。

尋找面部的詳細特徵,比如眼睛和嘴巴的位置,頭部的形狀等等。

尋找矩形形狀的影象,比如路標。

確定地平線的角度。

轉換兩個影象,使其內容對齊。這對於拼接**非常有用。

檢測包含文字的影象中的區域。

檢測和識別條形碼。

// core ml 的機器學習模型

let modelcoreml = resnet50()

// 將 core ml 鏈結到 vision

let visionmodel = try? vncoremlmodel(for: modelcoreml.model)

let classificationrequest = vncoremlrequest(model: visionmodel) 

}let handler = vnimagerequesthandler(cgimage: yourimage)

try? handler.perform([classificationrequest])

try? handler.perform([facedetectionrequest, classificationrequest])

有侷限只有在新 os 發布時候才會更新

原文發布時間為:2023年6月28日

iOS 11開發教程(四)iOS11模擬器介紹一

在圖1.6或者1.7中所看到的類似於手機的模型就是ios模擬器。ios模擬器是在沒有iphone或ipad裝置時,對程式進行檢測的裝置。ios模擬器可以模 實的iphone或ipad等裝置的一些功能。本小節將講解一些有關模擬器的操作。1.模擬器與真機的區別 ios模擬器可以模 實的iphone或ip...

問題 iOS 11 定位問題

ios11 定位許可權未通過,控制台輸出以下資訊 在 info.plist 檔案新增乙個 nslocationalwaysandwheninuseusagedescription 和 nslocationwheninuseusagedescription 的 key,然後新增描述。定位失敗,方法lo...

IOS11 游標錯位問題

ios11發布後,測試人員反饋回來,鍵盤彈起時,input游標會定位不准。後來查了資料,原來是position fixed,和input一起使用會出現的bug。應該來說,是fixed在移動端支援不怎麼好。如圖 我的輸入框彈出層下面還有乙個遮罩層,我的遮罩層用了fixed定位,當鍵盤彈起時,ios視口...