<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用DNN深度神經網絡實現圖像AIGC的開發-基于米爾瑞薩RZ/G2L開發板的創新應用

米爾電子 ? 2023-10-21 08:01 ? 次閱讀

本文由米爾論壇優秀評測者“ALSET”提供。

01.

項目背景介紹


AIGC(即ArtificialIntelligence Generated Content),中文譯為人工智能生成內容。簡單來說,就是經過大量特征訓練過的神經網絡模型來對新的內容或者需求來生成人們需要的創作內容,類似使用人類用思考和創造力才能完成的工作過程,而現在可以利用人工智能技術來替代我們完成。在狹義上AIGC是指利用AI自動生成內容的生產方式,比如自動寫作、自動設計等。在廣義上,AIGC是指像人類一樣具備生成創造能力的AI技術,它可以基于訓練數據和生成算法來完成各類的內容生成創作。在圖像生成模型生成方面最主要的幾個代表模型,是以下常見的4個模型:

DNNGANVAEDiffusion

其中基于深度神經網絡(DNN)的進行圖像藝術風格轉移(Transform),生成高質量的具有藝術風格圖像的神經網絡模型。該模型通過深度神經網絡分別提取圖像中的內容和風格特征,然后對其目標圖片內容進行重組,生成具有原圖內容和藝術風格的圖像,其風格轉移不僅對圖像的圖案,顏色,特征等進行修改還保留原圖高可辨識的內容載體。通常AIGC對硬件性能要求較高,只要具備高性能的圖形圖像的PC圖形工作站或者服務器上來運行。而這里我們將使用MYD-YG2L開發板上來實現在嵌入式設備上完成圖像風格轉移計算這一任務。并且結合圖形界面和USB攝像頭完成對任意拍攝的圖片進行圖像風格化的開發。讓嵌入式上也能夠體驗這種獨特的AIGC內容生成方式。


02.

技術硬件方案


項目采用MYD-YG2L為主控板,使用800萬像素4K級廣角USB相機鏡頭,通過采集畫面,在主控板內完成對畫面的風格化處理,并通過HDMI輸出顯示生成的圖像。

這里使用開發板連接HDMI顯示器和接入一個4K高清鏡頭,主要硬件連接如下圖:

01e24ac2-6fa5-11ee-9788-92fbcf53809c.png

03.

主要技術原理


圖像風格轉移的主要過程是對輸入img_content和img_style,然后要把img_content的內容主體和img_style進行一個結合,實現一個圖像的創意創作,這個過程也叫做Style Transform 即風格轉移。

其核心的算法是把基于CNN卷積編碼后的特征向量transformer第一個結合到風格遷移任務中,再對混合后的內容進行解碼,從而輸出新的圖像內容,主要參考李飛飛論文,其核心流程如下圖:02144842-6fa5-11ee-9788-92fbcf53809c.png022a2d7e-6fa5-11ee-9788-92fbcf53809c.png023f21e8-6fa5-11ee-9788-92fbcf53809c.png 經過測試MYD-YG2L較好的支持OpenCV這個工具庫,并且具備較強的圖像處理能力。那么就可以在板上使用OpenCV的DNN模塊來實現以上算法過程。OpenCV的DNN模塊從發行版開始,主要是支持推理,而數據訓練不是其支持的目標。因此我們可以使用已經訓練好的模型,在板上上完成推理過程,即圖像風格轉移生成的這一過程?,F在OpenCV已經支持TensorFlow、Pytorch/Torch、Caffe、DarkNet等模型的讀取,OpenCV的 DNN模塊的用法。OpenCV的DNN模塊進行模型推理就顯得比較簡單,過程就是:1.加載模型因為OpenCV DNN模塊主要用來做推理計算,所以在使用前首先準備一個訓練好的模型(如何訓練自己的不同風格的模型后面也會闡述)。OpenCV支持所有主流框架的大部分模型。OpenCV的readNet系列函數就可以看出所支持的框架類型:

readNetFromCaffereadNetFromTensorflowreadNetFromTorchreadNetFromDarknetreadNetFromONNXreadNetFromModelOptimizer

這里所用風格遷移模型是開源的Torch/Lua的模型fast-neural-style。他們提供了十種風格遷移的模型,模型的下載腳本在:https://github.com/jcjohnson/fas ... _transfer_models.sh。這里使用OpenCV的readNetFromTorch函數加載PyTorch模型。2.輸入圖像預處理在OpenCV中輸入給模型的圖像需要首先被構建成一個4個區塊的數據塊(Blob),并且做如resize、歸一化和縮放之類的一些預處理。3.模型推理模型推理過程就是把輸入構建的blob輸入給模型神經網絡模型進行一次前向傳播,在OpenCV中,用以下非常簡單的兩行代碼即可完成:net.setInput(blob)output = net.forward()

04.

軟件系統設計


在本軟件開發,主要使用MYD-YG2L的SDK中,使用了OpenCV SDK與QT SDK。QT 主要實現文件圖像風格轉移的界面操作,使用OpenCV實現DNN圖像推理計算。設計QTUI,選擇文件或者攝像頭采集原圖像

024432f0-6fa5-11ee-9788-92fbcf53809c.png?

開發UI交互邏輯代碼

025e854c-6fa5-11ee-9788-92fbcf53809c.png?

開發OpenCV DNN神經網絡調用模塊

026b3ab2-6fa5-11ee-9788-92fbcf53809c.png?

在開發板的交叉編譯環境編譯,把編譯的結果部署到開發板上。另外把風格轉移用到的訓練模型文件也部署到開發板上,經過實際測試,以下模型在開發板上運行正常,而其它模型則因內存不夠而報錯。1: "udnie", 2: "la_muse", 3: "the_scream", 4: "candy", 5: "mosaic", 6: "feathers", 7: "starry_night"

05.

軟件運行效果


把QT軟件與相關模型文件部署到開發板上后,即可以運行測試效果,開發板上啟動運行QT程序命令:./style_transform -platform linuxfb運行后,選擇一張圖片顯示

點擊 “transform”按鈕,等待約13秒,得到風格轉移輸出畫面

再換一張米爾的LOGO圖,這個圖片尺寸較小,圖像內容變化率低看一下,風格化轉換時間:

02a73f8a-6fa5-11ee-9788-92fbcf53809c.png?

測試仍然為13秒左右,得到如下輸出圖像:

02b7a230-6fa5-11ee-9788-92fbcf53809c.png?

這上面使用的是feathers模型生成的風格圖片,其它模型時間也差不多在這個時間。

06.

開發后記


最后使用開發的圖像轉換程序,在MAC電腦上編譯了MAC版本與開發板上對同一圖片轉換進行比較。其使用MacBook Pro 2.2G 16G內存主頻硬件運行該圖片轉換時,需要8.6秒。多次測試,對不同模型的轉換分別測試,基本上在MYD-YG2LX上運行速度能達到MAC電腦轉換的66%性能,這個結果看該開發板其DNN推理計算性能比較強悍。 該項目在后續的發展中,在有更多時間時,將嘗試訓練更多特色的風格,以及融入GAN生成神經網絡模型的內容生成模型,嘗試多種方法來進行更豐富多彩的內容生成。在做本項目開發時,從資料中已知知名的內容生成項目stable diffusion已經在一些嵌入式開發板上移植運行成功,這個振奮的消息會不會又給自己挖了一個坑呢。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 開發板
    +關注

    關注

    25

    文章

    4576

    瀏覽量

    94979
  • dnn
    dnn
    +關注

    關注

    0

    文章

    56

    瀏覽量

    8975
  • 米爾電子
    +關注

    關注

    0

    文章

    73

    瀏覽量

    375
  • AIGC
    +關注

    關注

    1

    文章

    282

    瀏覽量

    1205
收藏 人收藏

    評論

    相關推薦

    米爾-米派兼容樹莓派擴展模塊-試用體驗】值得擁有的米爾-米派兼容樹莓派生態

    今天為大家介紹一塊米爾出的精致生態開發板-米爾-米派兼容樹莓派擴展模塊。 超高性價比的RZ/G2L
    發表于 05-13 11:28

    米爾-米派兼容樹莓派擴展模塊-試用體驗】米爾-米派兼容樹莓派初次做上電測試

    先為大家簡單介紹一下這塊生態: 超高性價比的RZ/G2L工業級處理器 RZ/G2L
    發表于 05-11 16:35

    米爾-米派兼容樹莓派擴展模塊-試用體驗】米爾米派Remi Pi系統與Ethercat移植

    米爾米派** Remi Pi** 第一款MPU生態板卡,兼容樹莓派擴展模塊 采用
    發表于 04-29 12:04

    米爾-米派兼容樹莓派擴展模塊-試用體驗】用視頻來了解這塊生態_米爾-米派兼容樹莓派擴展模塊

    今天為大家展示一下初始開發板_米爾-米派兼容樹莓派擴展模塊, 米爾-米派兼容樹莓派擴展模塊介紹如下:
    發表于 04-29 11:51

    米爾-米派兼容樹莓派擴展模塊-試用體驗】初始開發板_米爾-米派兼容樹莓派擴展模塊

    開發板,他兼顧了嚴肅產品開發和愛好者創意實現兩種需要。告訴你,選擇它的五大理由: 1.工業芯片:采用
    發表于 04-29 11:42

    米爾-米派兼容樹莓派擴展模塊-試用體驗】基于ROS系統的三麥輪小車自主導航

    導航。 本次試用套件包括:開發板1塊,tty2usb線1根 和手邊的樹莓派對比一下大?。? 3、開發板介紹 Remi Pi 是一款工業級處理器,基于
    發表于 04-16 22:51

    米爾-RZ/G2UL開發板】3.雜項測試

    米爾-RZ/G2UL開發板】3.雜項測試 不知道為啥我這板子好多奇奇怪怪的調試信息蹦出來,
    發表于 02-28 15:25

    米爾-RZ/G2UL開發板2.串口通信與WIFI測試

    米爾-RZ/G2UL開發板2.串口通信與WI
    發表于 02-05 19:33

    米爾-RZ/G2UL開發板】1.開箱

    米爾-RZ/G2UL開發板】1.開箱 開箱視頻 開箱也許會遲到,但是絕對不會缺席。今天開箱
    發表于 02-04 23:38

    米爾-RZ/G2UL開發板開發板開箱與接口介紹

    開發板簡介 MYC-YG2UL核心開發板基于RZ/G2UL處理器,通用64位工業MPU
    發表于 01-14 13:25

    RZ/G2L開發板使用指南(上)

    如果需要評估RZ/G2L產品的各項功能,RZ/G2L評估板是最合適的平臺。
    的頭像 發表于 11-03 12:19 ?625次閱讀
    <b class='flag-5'>RZ</b>/<b class='flag-5'>G2L</b><b class='flag-5'>開發板</b>使用指南(上)

    米爾基于瑞薩RZ/G2L開發板在工控領域的應用-基于SOEM的EtherCAT主站

    本文介紹【米爾MYD-YG2LX開發板】在工控領域的應用,實現基于SOEM的EtherCAT主站。開發環境基于WSL2。
    的頭像 發表于 08-24 18:57 ?587次閱讀
    <b class='flag-5'>米爾</b>基于瑞薩<b class='flag-5'>RZ</b>/<b class='flag-5'>G2L</b><b class='flag-5'>開發板</b>在工控領域的應用-基于SOEM的EtherCAT主站

    卷積神經網絡深度神經網絡的優缺點 卷積神經網絡深度神經網絡的區別

    深度神經網絡是一種基于神經網絡的機器學習算法,其主要特點是由多層神經元構成,可以根據數據自動調整神經元之間的權重,從而
    發表于 08-21 17:07 ?2983次閱讀

    米爾RZ/G2L開發板-試用體驗】認識一下米爾RZ/G2L開發板的核心

    圖 通過這篇文章,希望各位看官能初步了解米爾RZ/G2L開發板強大的功能及
    發表于 07-29 00:21
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>