站長資訊網
        最全最豐富的資訊網站

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          百度推出飛槳(PaddlePaddle)后,不少開發者開始轉向國內的深度學習框架。但是從代碼的轉移談何容易,之前的工作重寫一遍不太現實,成千上萬行代碼的手工轉換等于是在做一次二次開發。

          現在,有個好消息:無論Caffe、TensorFlow、ONNX都可以輕松遷移到飛槳平臺上。雖然目前還不直接遷移PyTorch模型,但PyTorch本身支持導出為ONNX模型,等于間接對該平臺提供了支持。

          然而,有人還對存在疑惑:不同框架之間的API有沒有差異?整個遷移過程如何操作,步驟復雜嗎?遷移后如何保證精度的損失在可接受的范圍內?

          大家會考慮很多問題,而問題再多,歸納一下,無外乎以下幾點:

          1. API差異 :模型的實現方式如何遷移,不同框架之間的API有沒有差異?如何避免這些差異帶來的模型效果的差異?

          2. 模型文件差異 :訓練好的模型文件如何遷移?轉換框架后如何保證精度的損失在可接受的范圍內?

          3. 預測方式差異 :轉換后的模型如何預測?預測的效果與轉換前的模型差異如何?

          飛槳開發了一個新的功能模塊,叫X2Paddle (Github見參考1),可以支持主流深度學習框架模型轉換至飛槳,包括Caffe、Tensorflow、onnx等模型直接轉換為Paddle Fluid可加載的預測模型,并且還提供了這三大主流框架間的API差異比較,方便我們在自己直接復現模型時對比API之間的差異,深入理解API的實現方式從而降低模型遷移帶來的損失。

          下面以TensorFlow轉換成Paddle Fluid模型為例,詳細講講如何實現模型的遷移。

          TensorFlow-Fluid 的API差異

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          在深度學習入門過程中,大家常見的就是手寫數字識別這個demo,下面是一份最簡單的實現手寫數字識別的代碼:

          大家看這段代碼里,第一步是導入mnist數據集,然后設置了一個占位符x來表示輸入的圖片數據,再設置兩個變量w和b,分別表示權重和偏置來計算,最后通過softmax計算得到輸出的y值,而我們真實的label則是變量y_ 。

          前向傳播完成后,就可以計算預測值y與label y_之間的交叉熵。

          再選擇合適的優化函數,此處為梯度下降,最后啟動一個Session,把數據按batch灌進去,計算acc即可得到準確率。

          這是一段非常簡單的代碼,如果我們想把這段代碼變成飛槳的代碼,有人可能會認為非常麻煩,每一個實現的API還要一一去找對應的實現方式,但是這里,我可以告訴大家,不!用!這!么!麻!煩!因為在X2Paddle 里有一份常用的Tensorflow對應Fluid的API表,(https://github.com/PaddlePaddle/X2Paddle/tree/master/tensorflow2fluid/doc),如下所示:

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          對于常用的TensorFlow的API,都有相應的飛槳接口,如果兩者的功能沒有差異,則會標注功能一致,如果實現方式或者支持的功能、參數等有差異,即會標注“差異對比”,并詳細注明。

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          譬如,在上文這份非常簡單的代碼里,出現了這些TensorFlow的API:

          在出現的這些api里,大部分的功能都是一致的,只有兩個功能不同,分別是tf.placeholder和tf.nn.softmax_cross_entropy_with_logits ,分別對應 fluid.layers.data 和 fluid.layers.softmax_with_cross_entropy . 我們來看看具體差異:

          tf.placeholder V.S fluid.layers.data

          常用TensorFlow的同學對placeholder應該不陌生,中文翻譯為占位符,什么意思呢?在TensorFlow 2.0以前,還是靜態圖的設計思想,整個設計理念是計算流圖,在編寫程序時,首先構筑整個系統的graph,代碼并不會直接生效,這一點和python的其他數值計算庫(如Numpy等)不同,graph為靜態的,在實際的運行時,啟動一個session,程序才會真正的運行。這樣做的好處就是:避免反復地切換底層程序實際運行的上下文,tensorflow幫你優化整個系統的代碼。我們知道,很多python程序的底層為C語言或者其他語言,執行一行腳本,就要切換一次,是有成本的,tensorflow通過計算流圖的方式,可以幫你優化整個session需要執行的代碼。

          在代碼層面,每一個tensor值在graph上都是一個op,當我們將train數據分成一個個minibatch然后傳入網絡進行訓練時,每一個minibatch都將是一個op,這樣的話,一副graph上的op未免太多,也會產生巨大的開銷;于是就有了tf.placeholder,我們每次可以將 一個minibatch傳入到x = tf.placeholder(tf.float32,[None,32])上,下一次傳入的x都替換掉上一次傳入的x,這樣就對于所有傳入的minibatch x就只會產生一個op,不會產生其他多余的op,進而減少了graph的開銷。

          參數對比

          tf.placeholder

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          paddle.fluid.layers.data

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          從圖中可以看到,飛槳的api參數更多,具體差異如下:

          · Batch維度處理

          TensorFlow: 對于shape中的batch維度,需要用戶使用None指定;

          飛槳: 將第1維設置為-1表示batch維度;如若第1維為正數,則會默認在最前面插入batch維度,如若要避免batch維,可將參數append_batch_size設為False。

          · 梯度是否回傳

          tensorflow和pytorch都支持對輸入求梯度,在飛槳中直接設置stop_gradient = False即可。如果在某一層使用stop_gradient=True,那么這一層之前的層都會自動的stop_gradient=True,梯度不會參與回傳,可以對某些不需要參與loss計算的信息設置為stop_gradient=True。對于含有BatchNormalization層的CNN網絡,也可以對輸入求梯度,如

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          tf.nn.softmax_cross_entropy_with_logits V.S

          fluid.layers.softmax_with_cross_entropy

          參數對比

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          paddle.fluid.layers.softmax_with_cross_entropy

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          功能差異

          標簽類型

          TensorFlow:labels只能使用軟標簽,其shape為[batch, num_classes],表示樣本在各個類別上的概率分布;

          飛槳:通過設置soft_label,可以選擇軟標簽或者硬標簽。當使用硬標簽時,label的shape為[batch, 1],dtype為int64;當使用軟標簽時,其shape為[batch, num_classes],dtype為int64。

          返回值

          TensorFlow:返回batch中各個樣本的log loss;

          飛槳:當return_softmax為False時,返回batch中各個樣本的log loss;當return_softmax為True時,再額外返回logtis的歸一化值。

          疑問點?

          硬標簽 ,即 one-hot label, 每個樣本僅可分到一個類別

          軟標簽 ,每個樣本可能被分配至多個類別中

          numeric_stable_mode :這個參數是什么呢?標志位,指明是否使用一個具有更佳數學穩定性的算法。僅在 soft_label 為 False的GPU模式下生效. 若 soft_label 為 True 或者執行場所為CPU, 算法一直具有數學穩定性。注意使用穩定算法時速度可能會變慢。默認為 True。

          return_softmax : 指明是否額外返回一個softmax值, 同時返回交叉熵計算結果。默認為False。

          如果 return_softmax 為 False, 則返回交叉熵損失

          如果 return_softmax 為 True,則返回元組 (loss, softmax) ,其中交叉熵損失為形為[N x 1]的二維張量,softmax為[N x K]的二維張量

          代碼示例

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          所以通過API對應表,我們可以直接轉換把TensorFlow代碼轉換成Paddle Fluid代碼。但是如果現在項目已經上線了,代碼幾千行甚至上萬行,或者已經訓練出可預測的模型了,如果想要直接轉換API是一件非常耗時耗精力的事情,有沒有一種方法可以直接把訓練好的可預測模型直接轉換成另一種框架寫的,只要轉換后的損失精度在可接受的范圍內,就可以直接替換。下面就講講訓練好的模型如何遷移。

          模型遷移

          VGG_16是CV領域的一個經典模型,我以tensorflow/models下的VGG_16為例,給大家展示如何將TensorFlow訓練好的模型轉換為飛槳模型。

          下載預訓練模型

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          解壓下載的壓縮文件

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          保存模型為checkpoint格式

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          TensorFlow2fluid目前支持checkpoint格式的模型或者是將網絡結構和參數序列化的pb格式模型,上面下載的vgg_16.ckpt僅僅存儲了模型參數,因此我們需要重新加載參數,并將網絡結構和參數一起保存為checkpoint模型

          將模型轉換為飛槳模型

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          注意:部分OP在轉換時,需要將參數寫入文件;或者是運行tensorflow模型進行infer,獲取tensor值。兩種情況下均會消耗一定的時間用于IO或計算,對于后一種情況,

          打印輸出log信息(截取部分)

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          到這一步,我們已經把tensorflow/models下的vgg16模型轉換成了Paddle Fluid 模型,轉換后的模型與原模型的精度有損失嗎?如何預測呢?來看下面。

          預測結果差異

          加載轉換后的飛槳模型,并進行預測

          上一步轉換后的模型目錄命名為“paddle_model”,在這里我們通過ml.ModelLoader把模型加載進來,注意轉換后的飛槳模型的輸出格式由NHWC轉換為NCHW,所以我們需要對輸入數據做一個轉置。處理好數據后,即可通過model.inference來進行預測了。具體代碼如下:

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          對比模型損失

          轉換模型有一個問題始終避免不了,就是損失,從Tesorflow的模型轉換為Paddle Fluid模型,如果模型的精度損失過大,那么轉換模型實際上是沒有意義的,只有損失的精度在我們可接受的范圍內,模型轉換才能被實際應用。在這里可以通過把兩個模型文件加載進來后,通過numpy.fabs來求兩個模型結果的差異。

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          打印輸出

        飛槳上線萬能轉換小工具,教你玩轉TensorFlow、Caffe等模型遷移

          需要注意的點

          1. 轉換后的模型需要注意輸入格式,飛槳中輸入格式需為NCHW格式。

          此例中不涉及到輸入中間層,如卷積層的輸出,需要了解的是飛槳中的卷積層輸出,卷積核的shape與TensorFlow有差異。

          2. 模型轉換完后,檢查轉換前后模型的diff,需要測試得到的最大diff是否滿足轉換需求。

           

           

          總結

          X2Paddle提供了一個非常方便的轉換方式,讓大家可以直接將訓練好的模型轉換成Paddle Fluid版本。

          轉換模型原先需要直接通過API對照表來重新實現代碼。但是在實際生產過程中這么操作是很麻煩的,甚至還要進行二次開發。

          如果有新的框架能輕松轉換模型,迅速運行調試,迭代出結果,何樂而不為呢?

          雖然飛槳相比其他AI平臺上線較晚,但是憑借X2Paddle小工具,能快速將AI開發者吸引到自己的平臺上來,后續的優勢將愈加明顯。

          除了本文提到的tensoflow2fluid,Paddle Fluid還支持caffe2fluid、onnx2fluid,大家可以根據自身的需求體驗一下,有問題可以留言交流~

          參考資料:

          1. X2Paddle Github:https://github.com/PaddlePaddle/X2Paddle

          2. tensorflow2fluid: https://github.com/PaddlePaddle/X2Paddle/tree/master/tensorflow2fluid

        特別提醒:本網內容轉載自其他媒體,目的在于傳遞更多信息,并不代表本網贊同其觀點。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關內容。本站不承擔此類作品侵權行為的直接責任及連帶責任。如若本網有任何內容侵犯您的權益,請及時聯系我們,本站將會在24小時內處理完畢。

        贊(0)
        分享到: 更多 (0)
        網站地圖   滬ICP備18035694號-2    滬公網安備31011702889846號
        主站蜘蛛池模板: 国产精品亚洲午夜一区二区三区| 国产精品成人免费福利| 久久精品aⅴ无码中文字字幕不卡| 精品久久久久久久久中文字幕| 欧美国产精品va在线观看| 国产一区二区精品| 亚洲国产第一站精品蜜芽| 精品欧美激情在线看| 午夜精品福利视频| 91视频精品全国免费观看| 日韩精品中文字幕无码一区| 精品午夜福利1000在线观看| 2022精品国偷自产免费观看| 久久精品国产亚洲AV高清热| 亚洲国产小视频精品久久久三级| 国产精品一级AV在线播放| 天天爽夜夜爽精品视频app| 2020国产精品永久在线| 精品无码人妻一区二区免费蜜桃 | 国产精品毛片一区二区| 国产成人精品福利网站在线| 精品性影院一区二区三区内射 | 国产精品你懂的在线播放| 国产精品福利一区二区| 国产精品多人p群无码| 无码人妻精品一区二区三区久久| 久99精品视频在线观看婷亚洲片国产一区一级在线 | 国产成人精品怡红院在线观看| 8050免费午夜一级国产精品| 国产精品麻豆高清在线观看| 免费精品99久久国产综合精品| 亚洲国产另类久久久精品| 精品久久久久中文字| 国产精品推荐天天看天天爽| 91亚洲精品自在在线观看| 99久久精品免费看国产一区二区三区| 日韩精品国产自在久久现线拍| 久久久精品免费国产四虎| 欧美精品在线一区二区三区| 99riav国产精品| 国产成人精品曰本亚洲79ren|