<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OpenVINO? C# API部署YOLOv9目標檢測和實例分割模型

英特爾物聯網 ? 來源:英特爾物聯網 ? 2024-04-03 17:35 ? 次閱讀

YOLOv9模型是YOLO系列實時目標檢測算法中的最新版本,代表著該系列在準確性、速度和效率方面的又一次重大飛躍。它通過引入先進的深度學習技術和創新的架構設計,如通用ELAN(GELAN)和可編程梯度信息(PGI),顯著提升了物體檢測的性能。在本文中,我們將結合OpenVINO C# API使用最新發布的OpenVINO 2024.0部署YOLOv9目標檢測和實例分割模型。

1. 前言

1.1

OpenVINO C# API

英特爾發行版 OpenVINO 工具套件基于 oneAPI 而開發,可以加快高性能計算機視覺和深度學習視覺應用開發速度工具套件,適用于從邊緣到云的各種英特爾平臺上,幫助用戶更快地將更準確的真實世界結果部署到生產系統中。通過簡化的開發工作流程,OpenVINO 可賦能開發者在現實世界中部署高性能應用程序和算法。

9dd9c3ca-f19a-11ee-a297-92fbcf53809c.png

2024年3月7日,英特爾發布了開源OpenVINO 2024.0工具包,用于在各種硬件上優化和部署人工智能推理。OpenVINO是英特爾出色的開源AI工具包,不僅可以在x86_64 CPU上加速AI推斷,還可以在ARM CPU和其他架構、英特爾集成顯卡和獨立顯卡等硬件上加速AI推斷,包括最近推出的NPU插件,用于利用新酷睿超 “Meteor Lake”系統芯片中的英特爾神經處理單元。OpenVINO 2024.0更注重生成式人工智能(GenAI),為TensorFlow句子編碼模型提供了更好的開箱即用體驗,支持專家混合(MoE)。同時還提高了LLM的INT4權重壓縮質量,增強了LLM在英特爾CPU上的性能,簡化了Hugging Face模型的優化和轉換,并改進了其他Hugging Face集成。

OpenVINO C# API是一個OpenVINO的.Net wrapper,應用最新的OpenVINO庫開發,通過OpenVINO C API實現.Net對OpenVINO Runtime調用,使用習慣與OpenVINO C++ API一致。OpenVINO C# API由于是基于OpenVINO開發,所支持的平臺與OpenVINO完全一致,具體信息可以參考OpenVINO。通過使用OpenVINO C# API,可以在.NET、.NET Framework等框架下使用C#語言實現深度學習模型在指定平臺推理加速。

下表為當前發布的OpenVINO C# API NuGet Package,支持多個目標平臺,可以通過NuGet一鍵安裝所有依賴。

Core Managed Libraries

9e123778-f19a-11ee-a297-92fbcf53809c.png

Native Runtime Libraries

9e27749e-f19a-11ee-a297-92fbcf53809c.png

1.2

YOLOv9

YOLOv9模型是YOLO系列實時目標檢測算法中的最新版本,代表著該系列在準確性、速度和效率方面的又一次重大飛躍。它通過引入先進的深度學習技術和創新的架構設計,如通用ELAN(GELAN)和可編程梯度信息(PGI),顯著提升了物體檢測的性能。

具體來說,YOLOv9解決了深度神經網絡中信息丟失的問題,通過整合PGI和GELAN架構,不僅增強了模型的學習能力,還確保了在整個檢測過程中保留關鍵信息。此外,它采用更深的網絡結構以提取更豐富的特征,同時引入殘差連接和跨層連接等機制以優化訓練過程。為了提高模型的泛化能力并降低過擬合風險,YOLOv9還使用了正則化技術,如權重衰減和Dropout。

9e55be44-f19a-11ee-a297-92fbcf53809c.png

由于YOLOv9在模型架構、訓練策略以及數據處理等方面的改進,它在COCO數據集上能夠獲得更高的AP值,顯示出其在復雜和多樣化場景下的卓越性能。此外,YOLOv9還注重實時性能,通過優化網絡結構和計算效率,實現了在保持高性能的同時減少計算量和提高處理速度。這使得YOLOv9在實時目標檢測任務中具有顯著優勢,能夠滿足各種應用場景的需求。

9e8d1092-f19a-11ee-a297-92fbcf53809c.png

2. 模型獲取

2.1

源碼下載

YOLOv9模型可以通過源碼進行下載,首先克隆GitHub上的源碼,輸入以下指令:

git clone https://github.com/WongKinYiu/yolov9.git
cd yolov9

9eb020aa-f19a-11ee-a297-92fbcf53809c.png

2.2

配置環境

接下來安裝模型下載以及轉換環境,此處使用Anaconda進行程序集管理,輸入以下指令創建一個yolov9環境:

conda create -n yolov9 python=3.10
conda activate yolov9

然后安裝yolov9模型下載以及轉換所必需的環境,輸入以下指令:

pip install -r requirements.txt
pip install openvino==2024.0.0

2.3

下載模型

首先導出目標識別模型,此處以官方預訓練模型為例,首先下載預訓練模型文件,然后調用export.py文件導出ONBNX格式的模型文件,最后使用OpenVINO的模型轉換命令將模型轉為IR格式,依次輸入以下指令即可:

wget https://github.com/WongKinYiu/yolov9/releases/download/v0.1/yolov9-c.p
python export.py --weights ./yolov9-c.pt --imgsz 640 --include onnx
ovc yolov9-c.onnx

9ed8f1d8-f19a-11ee-a297-92fbcf53809c.png

同樣的方式可以導出實例分割模型:

wget https://github.com/WongKinYiu/yolov9/releases/download/v0.1/gelan-c-seg.ptt
python export.py --weights ./gelan-c-seg.pt --imgsz 640 --include onnx
ovc gelan-c-seg.onnx

模型的結構如下圖所示:

9f1042be-f19a-11ee-a297-92fbcf53809c.png

9f263d4e-f19a-11ee-a297-92fbcf53809c.png

3.Yolov9項目配置

3.1

項目創建與環境配置

在Windows平臺開發者可以使用Visual Studio平臺開發程序,但無法跨平臺實現,為了實現跨平臺,此處采用dotnet指令進行項目的創建和配置。

首先使用dotnet創建一個測試項目,在終端中輸入一下指令:

dotnet new console --framework net6.0 --use-program-main -o yolov9

此處以Windows平臺為例安裝項目依賴,首先是安裝OpenVINO C# API項目依賴,在命令行中輸入以下指令即可:

dotnet add package OpenVINO.CSharp.API
dotnet add package OpenVINO.runtime.win
dotnet add package OpenVINO.CSharp.API.Extensions
dotnet add package OpenVINO.CSharp.API.Extensions.OpenCvSharp

接下來安裝使用到的圖像處理庫OpenCvSharp,在命令行中輸入以下指令即可:

dotnet add package OpenCvSharp4
dotnet add package OpenCvSharp4.Extensions
dotnet add package OpenCvSharp4.runtime.win

添加完成項目依賴后,項目的配置文件如下所示:




 
  Exe
  net6.0
  enable
  enable
 
 
 
  
  
  
  
  
  
 
 

3.2

定義模型預測方法

使用OpenVINO C# API部署模型主要包括以下幾個步驟:

初始化 OpenVINO Runtime Core

讀取本地模型(將圖片數據預處理方式編譯到模型)

將模型編譯到指定設備

創建推理通道

處理圖像輸入數據

設置推理輸入數據

模型推理

獲取推理結果

處理結果數據

01

定義目標檢測模型方法

按照OpenVINO C# API部署深度學習模型的步驟,編寫YOLOv9模型部署流程,在之前的項目里,我們已經部署了YOLOv5~8等一系列模型,其部署流程是基本一致的,YOLOv9模型部署代碼如下所示:

static void yolov9_det(string model_path, string image_path, string device)
{
  // -------- Step 1. Initialize OpenVINO Runtime Core --------
  Core core = new Core();
  // -------- Step 2. Read inference model --------
  Model model = core.read_model(model_path);
  // -------- Step 3. Loading a model to the device --------
  CompiledModel compiled_model = core.compile_model(model, device);
  // -------- Step 4. Create an infer request --------
  InferRequest infer_request = compiled_model.create_infer_request();
  // -------- Step 5. Process input images --------
  Mat image = new Mat(image_path); // Read image by opencvsharp
  int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows;
  Mat max_image = Mat.Zeros(new OpenCvSharp.Size(max_image_length, max_image_length), MatType.CV_8UC3);
  Rect roi = new Rect(0, 0, image.Cols, image.Rows);
  image.CopyTo(new Mat(max_image, roi));
  float factor = (float)(max_image_length / 640.0);
  // -------- Step 6. Set up input data --------
  Tensor input_tensor = infer_request.get_input_tensor();
  Shape input_shape = input_tensor.get_shape();
  Mat input_mat = CvDnn.BlobFromImage(max_image, 1.0 / 255.0, new OpenCvSharp.Size(input_shape[2], input_shape[3]), 0, true, false);
  float[] input_data = new float[input_shape[1] * input_shape[2] * input_shape[3]];
  Marshal.Copy(input_mat.Ptr(0), input_data, 0, input_data.Length);
  input_tensor.set_data(input_data);
  // -------- Step 7. Do inference synchronously --------
  infer_request.infer();
  // -------- Step 8. Get infer result data --------
  start = DateTime.Now;
  Tensor output_tensor = new Tensor();
  if (model.get_outputs_size() > 1)
  {
    output_tensor = infer_request.get_output_tensor(1);
  }
  else
  {
    output_tensor = infer_request.get_output_tensor();
  }
  int output_length = (int)output_tensor.get_size();
  float[] output_data = output_tensor.get_data(output_length);
  // -------- Step 9. Process reault --------
  Mat result_data = new Mat(84, 8400, MatType.CV_32F, output_data);
  result_data = result_data.T();
  // Storage results list
  List position_boxes = new List();
  List class_ids = new List();
  List confidences = new List();
  // Preprocessing output results
  for (int i = 0; i < result_data.Rows; i++)
 ? ?{
 ? ? ? ?Mat classes_scores = new Mat(result_data, new Rect(4, i, 80, 1));
 ? ? ? ?OpenCvSharp.Point max_classId_point, min_classId_point;
 ? ? ? ?double max_score, min_score;
 ? ? ? ?// Obtain the maximum value and its position in a set of data
 ? ? ? ?Cv2.MinMaxLoc(classes_scores, out min_score, out max_score,
 ? ? ? ? ? ?out min_classId_point, out max_classId_point);
 ? ? ? ?// Confidence level between 0 ~ 1
 ? ? ? ?// Obtain identification box information
 ? ? ? ?if (max_score > 0.25)
    {
      float cx = result_data.At(i, 0);
      float cy = result_data.At(i, 1);
      float ow = result_data.At(i, 2);
      float oh = result_data.At(i, 3);
      int x = (int)((cx - 0.5 * ow) * factor);
      int y = (int)((cy - 0.5 * oh) * factor);
      int width = (int)(ow * factor);
      int height = (int)(oh * factor);
      Rect box = new Rect();
      box.X = x;
      box.Y = y;
      box.Width = width;
      box.Height = height;


      position_boxes.Add(box);
      class_ids.Add(max_classId_point.X);
      confidences.Add((float)max_score);
    }
  }
  // NMS non maximum suppression
  int[] indexes = new int[position_boxes.Count];
  CvDnn.NMSBoxes(position_boxes, confidences, 0.5f, 0.5f, out indexes);
  for (int i = 0; i < indexes.Length; i++)
 ? ?{
 ? ? ? ?int index = indexes[i];
 ? ? ? ?Cv2.Rectangle(image, position_boxes[index], new Scalar(0, 0, 255), 2, LineTypes.Link8);
 ? ? ? ?Cv2.Rectangle(image, new OpenCvSharp.Point(position_boxes[index].TopLeft.X, position_boxes[index].TopLeft.Y + 30),
 ? ? ? ? ? ?new OpenCvSharp.Point(position_boxes[index].BottomRight.X, position_boxes[index].TopLeft.Y), new Scalar(0, 255, 255), -1);
 ? ? ? ?Cv2.PutText(image, class_ids[index] + "-" + confidences[index].ToString("0.00"),
 ? ? ? ? ? ?new OpenCvSharp.Point(position_boxes[index].X, position_boxes[index].Y + 25),
 ? ? ? ? ? ?HersheyFonts.HersheySimplex, 0.8, new Scalar(0, 0, 0), 2);
 ? ?}
 ? ?string output_path = Path.Combine(Path.GetDirectoryName(Path.GetFullPath(image_path)),
 ? ? ? ?Path.GetFileNameWithoutExtension(image_path) + "_result.jpg");
 ? ?Cv2.ImWrite(output_path, image);
 ? ?Slog.INFO("The result save to " + output_path);
 ? ?Cv2.ImShow("Result", image);
 ? ?Cv2.WaitKey(0);
}

02

定義實例分割模型方法

實例分割模型部署流程與目標檢測基本一致,主要不同點是模型結果的后處理方式,此處只展示了模型結果后處理代碼,其他代碼與YOLOv9目標檢測代碼一致,YOLOv9實例分割模型部署代碼如下所示:

static void yolov9_seg(string model_path, string image_path, string device)
{
  ... ...(代碼與上文一致)
  // -------- Step 8. Get infer result data --------
  Tensor output_tensor_0 = infer_request.get_output_tensor(0);
  float[] result_detect = output_tensor_0.get_data((int)output_tensor_0.get_size());
  Tensor output_tensor_1 = infer_request.get_output_tensor(1);
  float[] result_proto = output_tensor_1.get_data((int)output_tensor_1.get_size());
  Mat detect_data = new Mat(116, 8400, MatType.CV_32FC1, result_detect);
  Mat proto_data = new Mat(32, 25600, MatType.CV_32F, result_proto);
  detect_data = detect_data.T();
  List position_boxes = new List();
  List class_ids = new List();
  List confidences = new List();
  List masks = new List();
  for (int i = 0; i < detect_data.Rows; i++)
 ? ?{
 ? ? ? ?Mat classes_scores = new Mat(detect_data, new Rect(4, i, 80, 1));//GetArray(i, 5, classes_scores);
 ? ? ? ?Point max_classId_point, min_classId_point;
 ? ? ? ?double max_score, min_score;
 ? ? ? ?Cv2.MinMaxLoc(classes_scores, out min_score, out max_score,
 ? ? ? ? ? ?out min_classId_point, out max_classId_point);
 ? ? ? ?if (max_score > 0.25)
    {
      Mat mask = new Mat(detect_data, new Rect(4 + 80, i, 32, 1));//detect_data.Row(i).ColRange(4 + categ_nums, categ_nums + 36);
      float cx = detect_data.At(i, 0);
      float cy = detect_data.At(i, 1);
      float ow = detect_data.At(i, 2);
      float oh = detect_data.At(i, 3);
      int x = (int)((cx - 0.5 * ow) * factor);
      int y = (int)((cy - 0.5 * oh) * factor);
      int width = (int)(ow * factor);
      int height = (int)(oh * factor);
      Rect box = new Rect();
      box.X = x;
      box.Y = y;
      box.Width = width;
      box.Height = height;
      position_boxes.Add(box);
      class_ids.Add(max_classId_point.X);
      confidences.Add((float)max_score);
      masks.Add(mask);
    }
  }
  int[] indexes = new int[position_boxes.Count];
  CvDnn.NMSBoxes(position_boxes, confidences, 0.5f, 0.5f, out indexes);
  SegResult result = new SegResult();
  Mat rgb_mask = Mat.Zeros(new Size((int)image.Size().Width, (int)image.Size().Height), MatType.CV_8UC3);
  Random rd = new Random(); // Generate Random Numbers
  for (int i = 0; i < indexes.Length; i++)
 ? ?{
 ? ? ? ?int index = indexes[i];
 ? ? ? ?// Division scope
 ? ? ? ?Rect box = position_boxes[index];
 ? ? ? ?int box_x1 = Math.Max(0, box.X);
 ? ? ? ?int box_y1 = Math.Max(0, box.Y);
 ? ? ? ?int box_x2 = Math.Max(0, box.BottomRight.X);
 ? ? ? ?int box_y2 = Math.Max(0, box.BottomRight.Y);
 ? ? ? ?// Segmentation results
 ? ? ? ?Mat original_mask = masks[index] * proto_data;
 ? ? ? ?for (int col = 0; col < original_mask.Cols; col++)
 ? ? ? ?{
 ? ? ? ? ? ?original_mask.Set(0, col, sigmoid(original_mask.At(0, col)));
    }
    // 1x25600 -> 160x160 Convert to original size
    Mat reshape_mask = original_mask.Reshape(1, 160);
    // Split size after scaling
    int mx1 = Math.Max(0, (int)((box_x1 / factor) * 0.25));
    int mx2 = Math.Min(160, (int)((box_x2 / factor) * 0.25));
    int my1 = Math.Max(0, (int)((box_y1 / factor) * 0.25));
    int my2 = Math.Min(160, (int)((box_y2 / factor) * 0.25));
    // Crop Split Region
    Mat mask_roi = new Mat(reshape_mask, new OpenCvSharp.Range(my1, my2), new OpenCvSharp.Range(mx1, mx2));
    // Convert the segmented area to the actual size of the image
    Mat actual_maskm = new Mat();
    Cv2.Resize(mask_roi, actual_maskm, new Size(box_x2 - box_x1, box_y2 - box_y1));
    // Binary segmentation region
    for (int r = 0; r < actual_maskm.Rows; r++)
 ? ? ? ?{
 ? ? ? ? ? ?for (int c = 0; c < actual_maskm.Cols; c++)
 ? ? ? ? ? ?{
 ? ? ? ? ? ? ? ?float pv = actual_maskm.At(r, c);
        if (pv > 0.5)
        {
          actual_maskm.Set(r, c, 1.0f);
        }
        else
        {
          actual_maskm.Set(r, c, 0.0f);
        }
      }
    }
    // 預測
    Mat bin_mask = new Mat();
    actual_maskm = actual_maskm * 200;
    actual_maskm.ConvertTo(bin_mask, MatType.CV_8UC1);
    if ((box_y1 + bin_mask.Rows) >= (int)image.Size().Height)
    {
      box_y2 = (int)image.Size().Height - 1;
    }
    if ((box_x1 + bin_mask.Cols) >= (int)image.Size().Width)
    {
      box_x2 = (int)image.Size().Width - 1;
    }
    // Obtain segmentation area
    Mat mask = Mat.Zeros(new Size((int)image.Size().Width, (int)image.Size().Height), MatType.CV_8UC1);
    bin_mask = new Mat(bin_mask, new OpenCvSharp.Range(0, box_y2 - box_y1), new OpenCvSharp.Range(0, box_x2 - box_x1));
    Rect roi1 = new Rect(box_x1, box_y1, box_x2 - box_x1, box_y2 - box_y1);
    bin_mask.CopyTo(new Mat(mask, roi1));
    // Color segmentation area
    Cv2.Add(rgb_mask, new Scalar(rd.Next(0, 255), rd.Next(0, 255), rd.Next(0, 255)), rgb_mask, mask);
    result.add(class_ids[index], confidences[index], position_boxes[index], rgb_mask.Clone());
  }
  Mat masked_img = new Mat();
  // Draw recognition results on the image
  for (int i = 0; i < result.count; i++)
 ? ?{
 ? ? ? ?Cv2.Rectangle(image, result.datas[i].box, new Scalar(0, 0, 255), 2, LineTypes.Link8);
 ? ? ? ?Cv2.Rectangle(image, new Point(result.datas[i].box.TopLeft.X, result.datas[i].box.TopLeft.Y + 30),
 ? ? ? ? ? ?new Point(result.datas[i].box.BottomRight.X, result.datas[i].box.TopLeft.Y), new Scalar(0, 255, 255), -1);
 ? ? ? ?Cv2.PutText(image, CocoOption.lables[result.datas[i].index] + "-" + result.datas[i].score.ToString("0.00"),
 ? ? ? ? ? ?new Point(result.datas[i].box.X, result.datas[i].box.Y + 25),
 ? ? ? ? ? ?HersheyFonts.HersheySimplex, 0.8, new Scalar(0, 0, 0), 2);
 ? ? ? ?Cv2.AddWeighted(image, 0.5, result.datas[i].mask, 0.5, 0, masked_img);
 ? ?}
 ? ?string output_path = Path.Combine(Path.GetDirectoryName(Path.GetFullPath(image_path)),
 ? ? ? ?Path.GetFileNameWithoutExtension(image_path) + "_result.jpg");
 ? ?Cv2.ImWrite(output_path, masked_img);
 ? ?Slog.INFO("The result save to " + output_path);
 ? ?Cv2.ImShow("Result", masked_img);
 ? ?Cv2.WaitKey(0);
}

03

使用OpenVINO預處理接口編譯模型

OpenVINO提供了推理數據預處理接口,用戶可以更具模型的輸入數據預處理方式進行設置。在讀取本地模型后,調用數據預處理接口,按照模型要求的數據預處理方式進行輸入配置,然后再將配置好的預處理接口與模型編譯到一起,這樣便實現了將模型預處理與模型結合在一起,實現OpenVINO對于處理過程的加速。主要是現在代碼如下所示:

static void yolov9_seg_with_process(string model_path, string image_path, string device)
{
  // -------- Step 1. Initialize OpenVINO Runtime Core --------
  Core core = new Core();
  // -------- Step 2. Read inference model --------
  Model model = core.read_model(model_path);
  OvExtensions.printf_model_info(model);
  PrePostProcessor processor = new PrePostProcessor(model);
  Tensor input_tensor_pro = new Tensor(new OvType(ElementType.U8), new Shape(1, 640, 640, 3));
  InputInfo input_info = processor.input(0);
  InputTensorInfo input_tensor_info = input_info.tensor();
  input_tensor_info.set_from(input_tensor_pro).set_layout(new Layout("NHWC")).set_color_format(ColorFormat.BGR);


  PreProcessSteps process_steps = input_info.preprocess();
  process_steps.convert_color(ColorFormat.RGB).resize(ResizeAlgorithm.RESIZE_LINEAR)
    .convert_element_type(new OvType(ElementType.F32)).scale(255.0f).convert_layout(new Layout("NCHW"));
  Model new_model = processor.build();
  // -------- Step 3. Loading a model to the device --------
  CompiledModel compiled_model = core.compile_model(new_model, device);
  // -------- Step 4. Create an infer request --------
  InferRequest infer_request = compiled_model.create_infer_request();
  // -------- Step 5. Process input images --------
  Mat image = new Mat(image_path); // Read image by opencvsharp
  int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows;
  Mat max_image = Mat.Zeros(new OpenCvSharp.Size(max_image_length, max_image_length), MatType.CV_8UC3);
  Rect roi = new Rect(0, 0, image.Cols, image.Rows);
  image.CopyTo(new Mat(max_image, roi));
  Cv2.Resize(max_image, max_image, new OpenCvSharp.Size(640, 640));
  float factor = (float)(max_image_length / 640.0);
  // -------- Step 6. Set up input data --------
  start = DateTime.Now;
  Tensor input_tensor = infer_request.get_input_tensor();
  Shape input_shape = input_tensor.get_shape();
  byte[] input_data = new byte[input_shape[1] * input_shape[2] * input_shape[3]];
  //max_image.GetArray(out input_data);
  Marshal.Copy(max_image.Ptr(0), input_data, 0, input_data.Length);
  IntPtr destination = input_tensor.data();
  Marshal.Copy(input_data, 0, destination, input_data.Length);
  // -------- Step 7. Do inference synchronously --------
 ... ...(后續與上文代碼一致)
}

4. 模型預測方法調用

定義完模型推理接口后,便可以在主函數里進行調用。此處為了讓大家更好的復現本文代碼,提供了在線模型,用戶只需要運行以下代碼,便可以直接下載轉換好的模型進行模型推理,無需再自行轉換,主函數代碼如下所示:

static void Main(string[] args)
{
  string model_path = "";
  string image_path = "";
  string device = "AUTO";
  if (args.Length == 0)
  {
    if (!Directory.Exists("./model"))
    {
      Directory.CreateDirectory("./model");
    }
    if (!File.Exists("./model/yolov9-c-converted.xml") && !File.Exists("./model/yolov9-c-converted.bin"))
    {
      if (!File.Exists("./model/yolov9-c-converted.tar"))
      {
        _ = Download.download_file_async("https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/releases/download/Model/yolov9-c-converted.tar",
          "./model/yolov9-c-converted.tar").Result;
      }
      Download.unzip("./model/yolov9-c-converted.tar", "./model/");
    }
    if (!File.Exists("./model/test_det_01.jpg"))
    {
      _ = Download.download_file_async("https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/releases/download/Image/test_det_01.jpg",
        "./model/test_det_01.jpg").Result;
    }
    model_path = "./model/yolov9-c-converted.xml";
    image_path = "./model/test_det_01.jpg";
  }
  else if (args.Length >= 2)
  {
    model_path = args[0];
    image_path = args[1];
    device = args[2];
  }
  else
  {
    Console.WriteLine("Please enter the correct command parameters, for example:");
    Console.WriteLine("> 1. dotnet run");
    Console.WriteLine("> 2. dotnet run   ");
  }
  // -------- Get OpenVINO runtime version --------
  OpenVinoSharp.Version version = Ov.get_openvino_version();
  Slog.INFO("---- OpenVINO INFO----");
  Slog.INFO("Description : " + version.description);
  Slog.INFO("Build number: " + version.buildNumber);
  Slog.INFO("Predict model files: " + model_path);
  Slog.INFO("Predict image files: " + image_path);
  Slog.INFO("Inference device: " + device);
  Slog.INFO("Start yolov9 model inference.");
  yolov9_det(model_path, image_path, device);
  yolov9_det_with_process(model_path, image_path, device);
}

5. 項目運行與演示

5.1

項目編譯和運行

接下來輸入項目編譯指令進行項目編譯,輸入以下指令即可:

dotnet build

接下來運行編譯后的程序文件,在CMD中輸入以下指令,運行編譯后的項目文件:

dotnet run --no-build

5.2

YOLOv9目標檢測模型運行結果

下圖為YOLOv9 目標檢測模型運行輸出信息,此處我們使用在線轉換好的模型進行推理。,首先會下載指定模型以及推理數據到本地,這樣避免了開發者在自己配置環境和下載模型;接下來是輸出打印 OpenVINO 版本信息,此處我們使用NuGet安裝的依賴項,已經是OpenVINO 2024.0最新版本;接下來就是打印相關的模型信息,并輸出每個過程所消耗時間。

9f48864c-f19a-11ee-a297-92fbcf53809c.png

下圖為使用YOLOv9目標檢測模型推理結果:

9f7e3a9e-f19a-11ee-a297-92fbcf53809c.png

9fe23468-f19a-11ee-a297-92fbcf53809c.png

5.3

YOLOv9實例分割模型運行結果

下圖為YOLOv9實例分割模型運行輸出信息,此處我們使用在線轉換好的模型進行推理。首先會下載指定模型以及推理數據到本地,這樣避免了開發者在自己配置環境和下載模型;接下來是輸出打印OpenVINO版本信息,此處我們使用NuGet安裝的依賴項,已經是OpenVINO 2024.0最新版本;接下來就是打印相關的模型信息,并輸出每個過程所消耗時間。

a007c8e0-f19a-11ee-a297-92fbcf53809c.png

下圖為使用YOLOv9實例分割模型推理結果:

a02fb274-f19a-11ee-a297-92fbcf53809c.png

a046f2f4-f19a-11ee-a297-92fbcf53809c.png

6. 總結

在該項目中,我們結合之前開發的OpenVINO C# API 項目部署YOLOv9模型,成功實現了對象目標檢測與實例分割,并且根據不同開發者的使用習慣,同時提供了OpenCvSharp以及Emgu.CV兩種版本,供各位開發者使用。


審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英特爾
    +關注

    關注

    60

    文章

    9496

    瀏覽量

    169186
  • 計算機視覺
    +關注

    關注

    8

    文章

    1605

    瀏覽量

    45673
  • 深度學習
    +關注

    關注

    73

    文章

    5249

    瀏覽量

    120006
  • LLM
    LLM
    +關注

    關注

    0

    文章

    209

    瀏覽量

    241
  • OpenVINO
    +關注

    關注

    0

    文章

    61

    瀏覽量

    96

原文標題:OpenVINO? C# API部署YOLOv9目標檢測和實例分割模型 | 開發者實戰

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    如何使用OpenVINO C++ API部署FastSAM模型

    象的位置和邊界。本文將介紹如何使用 OpenVINO C++ API 部署 FastSAM 模型,以實現快速高效的語義分割。在前文中我們發表
    的頭像 發表于 11-17 09:53 ?515次閱讀
    如何使用<b class='flag-5'>OpenVINO</b> C++ <b class='flag-5'>API</b><b class='flag-5'>部署</b>FastSAM<b class='flag-5'>模型</b>

    在C++中使用OpenVINO工具包部署YOLOv5-Seg模型

    YOLOv5兼具速度和精度,工程化做的特別好,Git clone到本地即可在自己的數據集上實現目標檢測任務的訓練和推理,在產業界中應用廣泛。開源社區對YOLOv5支持
    的頭像 發表于 12-21 10:17 ?1165次閱讀
    在C++中使用<b class='flag-5'>OpenVINO</b>工具包<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>5-Seg<b class='flag-5'>模型</b>

    在英特爾獨立顯卡上部署YOLOv5 v7.0版實時實例分割模型

    本文將介紹在基于 OpenVINO 在英特爾獨立顯卡上部署 YOLOv5 實時實例分割模型的全流
    的頭像 發表于 12-20 11:32 ?3214次閱讀

    在C++中使用OpenVINO工具包部署YOLOv5模型

    下載并轉換YOLOv5預訓練模型的詳細步驟,請參考:《基于OpenVINO?2022.2和蝰蛇峽谷優化并部署YOLOv5
    的頭像 發表于 02-15 16:53 ?2238次閱讀

    TensorRT 8.6 C++開發環境配置與YOLOv8實例分割推理演示

    YOLOv8實例分割TensorRT 推理代碼已經完成C++類封裝,三行代碼即可實現YOLOv8對象檢測
    的頭像 發表于 04-25 10:49 ?3858次閱讀
    TensorRT 8.6 C++開發環境配置與<b class='flag-5'>YOLOv</b>8<b class='flag-5'>實例</b><b class='flag-5'>分割</b>推理演示

    在AI愛克斯開發板上用OpenVINO?加速YOLOv8分類模型

    本系列文章將在 AI 愛克斯開發板上使用 OpenVINO 開發套件依次部署并測評 YOLOv8 的分類模型、目標
    的頭像 發表于 05-05 11:47 ?639次閱讀
    在AI愛克斯開發板上用<b class='flag-5'>OpenVINO</b>?加速<b class='flag-5'>YOLOv</b>8分類<b class='flag-5'>模型</b>

    在AI愛克斯開發板上用OpenVINO?加速YOLOv8目標檢測模型

    《在 AI 愛克斯開發板上用 OpenVINO 加速 YOLOv8 分類模型》介紹了在 AI 愛克斯開發板上使用 OpenVINO 開發套件部署
    的頭像 發表于 05-12 09:08 ?905次閱讀
    在AI愛克斯開發板上用<b class='flag-5'>OpenVINO</b>?加速<b class='flag-5'>YOLOv</b>8<b class='flag-5'>目標</b><b class='flag-5'>檢測</b><b class='flag-5'>模型</b>

    AI愛克斯開發板上使用OpenVINO加速YOLOv8目標檢測模型

    《在AI愛克斯開發板上用OpenVINO加速YOLOv8分類模型》介紹了在AI愛克斯開發板上使用OpenVINO 開發套件部署并測評
    的頭像 發表于 05-26 11:03 ?775次閱讀
    AI愛克斯開發板上使用<b class='flag-5'>OpenVINO</b>加速<b class='flag-5'>YOLOv</b>8<b class='flag-5'>目標</b><b class='flag-5'>檢測</b><b class='flag-5'>模型</b>

    在AI愛克斯開發板上用OpenVINO?加速YOLOv8-seg實例分割模型

    《在 AI 愛克斯開發板上用 OpenVINO 加速 YOLOv8 目標檢測模型》介紹了在 AI 愛克斯開發板上使用
    的頭像 發表于 06-05 11:52 ?633次閱讀
    在AI愛克斯開發板上用<b class='flag-5'>OpenVINO</b>?加速<b class='flag-5'>YOLOv</b>8-seg<b class='flag-5'>實例</b><b class='flag-5'>分割</b><b class='flag-5'>模型</b>

    OpenVINO? C++ API編寫YOLOv8-Seg實例分割模型推理程序

    本文章將介紹使用 OpenVINO 2023.0 C++ API 開發YOLOv8-Seg 實例分割(Instance Segmentati
    的頭像 發表于 06-25 16:09 ?782次閱讀
    用<b class='flag-5'>OpenVINO</b>? C++ <b class='flag-5'>API</b>編寫<b class='flag-5'>YOLOv</b>8-Seg<b class='flag-5'>實例</b><b class='flag-5'>分割</b><b class='flag-5'>模型</b>推理程序

    在AI愛克斯開發板上用OpenVINO?加速YOLOv8-seg實例分割模型

    《在 AI 愛克斯開發板上用 OpenVINO 加速 YOLOv8 目標檢測模型》介紹了在 AI 愛克斯開發板上使用
    的頭像 發表于 06-30 10:43 ?475次閱讀
    在AI愛克斯開發板上用<b class='flag-5'>OpenVINO</b>?加速<b class='flag-5'>YOLOv</b>8-seg<b class='flag-5'>實例</b><b class='flag-5'>分割</b><b class='flag-5'>模型</b>

    三種主流模型部署框架YOLOv8推理演示

    部署。這里以YOLOv8為例,演示了YOLOv8對象檢測模型OpenVINO、ONNXRUNT
    的頭像 發表于 08-06 11:39 ?1930次閱讀

    基于OpenVINO Python API部署RT-DETR模型

    平臺實現 OpenVINO 部署 RT-DETR 模型實現深度學習推理加速, 在本文中,我們將首先介紹基于 OpenVINO Python API
    的頭像 發表于 10-20 11:15 ?563次閱讀
    基于<b class='flag-5'>OpenVINO</b> Python <b class='flag-5'>API</b><b class='flag-5'>部署</b>RT-DETR<b class='flag-5'>模型</b>

    如何使用OpenVINO Python API部署FastSAM模型

    象的位置和邊界。本文將介紹如何使用 OpenVINO Python API 部署 FastSAM 模型,以實現快速高效的語義分割。
    的頭像 發表于 10-27 11:04 ?340次閱讀

    基于OpenVINO C# API部署RT-DETR模型

    C# 環境下使用該模型應用到工業檢測中,因此在本文中,我們將向大家展示使用 OpenVINO Csharp API
    的頭像 發表于 11-10 16:59 ?417次閱讀
    基于<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C#</b> <b class='flag-5'>API</b><b class='flag-5'>部署</b>RT-DETR<b class='flag-5'>模型</b>
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>