国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深度相機(jī)和激光雷達(dá)的融合標(biāo)定(Autoware)

這篇具有很好參考價值的文章主要介紹了深度相機(jī)和激光雷達(dá)的融合標(biāo)定(Autoware)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

深度相機(jī)和激光雷達(dá)是智能汽車上常用的傳感器。但深度相機(jī)具有特征難以提取,容易受到視角影響。激光雷達(dá)存在數(shù)據(jù)不夠直觀且容易被吸收,從而丟失信息。因此在自動駕駛領(lǐng)域,需要對于不同傳感器做數(shù)據(jù)的融合和傳感器的標(biāo)定。

相機(jī)內(nèi)參標(biāo)定

內(nèi)參標(biāo)定的原理和方法比較簡單,由于只有焦距是未知量,因此計算焦距,求得內(nèi)參。

深度相機(jī)和激光雷達(dá)的融合標(biāo)定(Autoware)

相機(jī)的畸變

畸變屬于成像的幾何失真,它是由于焦平面上不同區(qū)域?qū)τ跋竦姆糯舐什煌纬傻漠嬅媾で冃维F(xiàn)象。在內(nèi)參標(biāo)定時需要獲取相機(jī)的畸變向量矩陣。

相機(jī)的外參標(biāo)定

?深度相機(jī)和激光雷達(dá)的融合標(biāo)定(Autoware)

?深度相機(jī)和激光雷達(dá)的融合標(biāo)定(Autoware)

?利用Atuoware獲取融合標(biāo)定參數(shù)

  • 啟動16線激光雷達(dá)和深度相機(jī)
  • 錄制標(biāo)定過程bag包(過程中定時改變標(biāo)定板位置)
  • 編譯標(biāo)定工具箱calibration_camera_lidar
  • 編譯非線性庫nlopt
  • 利用calibration_camera_lidar進(jìn)行聯(lián)合標(biāo)定
  • 保存外參矩陣、內(nèi)參矩陣和畸變矩陣
  • 編寫點云投影融合圖像程序
  • 完成標(biāo)定與驗證

具體的操作可以參考:【Autoware】激光雷達(dá)-攝像頭聯(lián)合標(biāo)定1- Calibration Tool Kit - 簡書 (jianshu.com)https://www.jianshu.com/p/5e5902b46f3d

編寫雷達(dá)相機(jī)融合標(biāo)定程序

以下是基于松靈小車的深度相機(jī)和激光雷達(dá)融合代碼:

創(chuàng)建.h文件,包含頭文件,初始化發(fā)布、訂閱者和點云圖像融合類。

#pragma once

#include <vector>
#include <deque>

#include "ros/ros.h"
#include <sensor_msgs/PointCloud2.h>

#include <image_transport/image_transport.h>
#include "opencv2/opencv.hpp"
#include <cv_bridge/cv_bridge.h>

#include <pcl/point_types.h>//支持點類型頭文件
#include <pcl/point_cloud.h> //支持點類型頭文件
#include <pcl_conversions/pcl_conversions.h>
#include <pcl/filters/passthrough.h>
#include <pcl/common/transforms.h>

using namespace std;

class ILProjection {
    private:
        // 節(jié)點句柄
        ros::NodeHandle nh;
        // 圖像訂閱發(fā)布
        image_transport::ImageTransport it;
        // 圖像訂閱者
        image_transport::Subscriber image_sub;
        // 雷達(dá)訂閱者
        ros::Subscriber laser_sub;
        // 圖像發(fā)布者
        image_transport::Publisher image_pub;
        // 雷達(dá)發(fā)布者
        ros::Publisher laser_pub;
        // 圖像融合顯示訂閱者
        image_transport::Subscriber imageShow_sub;

        //使用隊列實現(xiàn)同步
        std::deque<sensor_msgs::ImageConstPtr> imageDeque;
        std::deque<sensor_msgs::PointCloud2ConstPtr> laserDeque;


        cv::Mat extrinsic_mat;  // 外參矩陣
        cv::Mat camera_mat;     // 內(nèi)參矩陣
        cv::Mat dist_coeff;     // 畸變矩陣
        cv::Mat rotate_mat;     // 旋轉(zhuǎn)矩陣
        cv::Mat transform_vec;  // 平移向量

        Eigen::Matrix4d laserToImageTransform; // 坐標(biāo)變化矩陣

        int color[21][3] = 
        {
            {255, 0, 0}, {255, 69, 0}, {255, 99, 71}, 
            {255, 140, 0}, {255, 165, 0}, {238, 173, 14},
            {255, 193, 37}, {255, 255, 0}, {255, 236, 139},
            {202, 255, 112}, {0, 255, 0}, {84, 255, 159},
            {127, 255, 212}, {0, 229, 238}, {152, 245, 255},
            {178, 223, 238}, {126, 192, 238}, {28, 134, 238},
            {0, 0, 255}, {72, 118, 255}, {122, 103, 238} 
        };
        float color_distance;   //根據(jù)平面距離對激光雷達(dá)點進(jìn)行著色的步長(z)
        
    public:
        ILProjection();
        ~ILProjection();
        void imageCb(const sensor_msgs::ImageConstPtr &msg);
        void laserCb(const sensor_msgs::PointCloud2ConstPtr &msg);
        // 加載相機(jī)參數(shù)
        //加載相機(jī)參數(shù)
        void loadProjectionParam();
        // 判斷是否能進(jìn)行映射
        void doProjection();
        // 實現(xiàn)映射
        void projection(pcl::PointCloud<pcl::PointXYZI>::Ptr&ccloud,cv::Mat&img);
        // 激光雷達(dá)濾波
        void filterCloudPoint(pcl::PointCloud<pcl::PointXYZI>::Ptr& cloud_in,pcl::PointCloud<pcl::PointXYZI>::Ptr& cloud_out);
        //openCV顯示圖像
        void imageShowCb(const sensor_msgs::ImageConstPtr &msg);
        void imageShow();
};

創(chuàng)建主函數(shù)文件,寫融合標(biāo)定類的實現(xiàn)方法

#include "ILProjection.h"
#include <iostream>

// TODO 相機(jī)參數(shù)文件路徑需要修改 (絕對路徑)
// 小車路徑: /home/agilex/songling-car-task2/src/image_laser_projection/param/Calibrate-data
const string path = "/home/ubuntu/songling-car-task2/src/image_laser_projection/param/Calibrate-data";

ILProjection::ILProjection():it(nh) {
    color_distance = 1.2;
    loadProjectionParam();
    image_sub = it.subscribe("/camera/color/image_raw", 1, &ILProjection::imageCb, this);
    laser_sub = nh.subscribe<sensor_msgs::PointCloud2>("/rslidar_points",1,&ILProjection::laserCb, this);
    image_pub = it.advertise("/image_laser_projection/image", 1);
    laser_pub = nh.advertise<sensor_msgs::PointCloud2>("/image_laser_projection/laser", 1);
}

ILProjection::~ILProjection() {}

void ILProjection::imageCb(const sensor_msgs::ImageConstPtr &msg) {
    imageDeque.push_back(msg);
    doProjection();
}

void ILProjection::laserCb(const sensor_msgs::PointCloud2ConstPtr &msg) {
    laserDeque.push_back(msg);
    doProjection();
}

void ILProjection::loadProjectionParam(){
    //打開標(biāo)定結(jié)果文件
    cv::FileStorage fs_read(path, cv::FileStorage::READ);
    fs_read["CameraExtrinsicMat"] >> extrinsic_mat; //從文件里讀取4x4外參矩陣
    fs_read["CameraMat"] >> camera_mat; //從文件里讀取3x3相機(jī)內(nèi)參矩陣
    fs_read["DistCoeff"] >> dist_coeff; //從文件里讀取1x5畸變矩陣
    fs_read.release(); //關(guān)閉文件
    
    // 下列代碼段從外參矩陣中讀取旋轉(zhuǎn)矩陣、平移向量
	rotate_mat=cv::Mat(3, 3, cv::DataType<double>::type); // 將旋轉(zhuǎn)矩陣賦值成3x3矩陣
    // 取前三行前三列
    for(int i=0;i<3;i++)
    {
        for(int j=0;j<3;j++)
        {
            rotate_mat.at<double>(i,j)=extrinsic_mat.at<double>(j,i);
        }
    }
    transform_vec=cv::Mat(3, 1, cv::DataType<double>::type); //將平移向量賦值成3x1矩陣
    transform_vec.at<double>(0)=extrinsic_mat.at<double>(1,3);
    transform_vec.at<double>(1)=extrinsic_mat.at<double>(2,3);
    transform_vec.at<double>(2)=-extrinsic_mat.at<double>(0,3);

    for(int i=0;i<4;i++)
    {
        for(int j=0;j<4;j++)
        {
            laserToImageTransform(i,j) = extrinsic_mat.at<double>(j,i);
        }
    }
}

void ILProjection::doProjection() {
    // 當(dāng)圖像或雷達(dá)數(shù)據(jù)隊列為空時,直接退出。
    if(imageDeque.empty() || laserDeque.empty()) {
        return;
    }

    // 從隊列中獲取圖像消息
    sensor_msgs::ImageConstPtr imageMsgPtr = imageDeque.front();
    // 定義圖像接收指針
    cv_bridge::CvImagePtr cv_ptr;
    try {
        // 接收消息
        cv_ptr = cv_bridge::toCvCopy(imageMsgPtr, sensor_msgs::image_encodings::BGR8);
    }
    catch (cv_bridge::Exception &e) {
        ROS_ERROR("cv_bridge exception: %s", e.what());
        return;
    }

    //從隊列中獲取激光雷達(dá)消息
    sensor_msgs::PointCloud2ConstPtr laserMsgPtr = laserDeque.front();
    // 定義點云
    pcl::PointCloud<pcl::PointXYZI>::Ptr lasercloud (new pcl::PointCloud<pcl::PointXYZI>);
    pcl::PointCloud<pcl::PointXYZI>::Ptr imageCloud (new pcl::PointCloud<pcl::PointXYZI>);
    pcl::PointCloud<pcl::PointXYZI>::Ptr laserFilteredCloud (new pcl::PointCloud<pcl::PointXYZI>);
    // 將接受到的雷達(dá)點云消息轉(zhuǎn)化為接收點云數(shù)據(jù)類型
    pcl::fromROSMsg(*laserMsgPtr,*lasercloud);
    // 點云濾波
    filterCloudPoint(lasercloud,laserFilteredCloud);
    // 將激光雷達(dá)點云由激光雷達(dá)坐標(biāo)轉(zhuǎn)為攝像機(jī)坐標(biāo)
    pcl::transformPointCloud(*laserFilteredCloud, *imageCloud, laserToImageTransform);
    
    // 刪除較老的數(shù)據(jù) (時間戳轉(zhuǎn)為浮點數(shù)后,越大則越新)
    double imageTime = imageMsgPtr->header.stamp.toSec();
    double laserTime = laserMsgPtr->header.stamp.toSec();

    if(imageTime > laserTime) {
        laserDeque.pop_front();
    }
    else {
        imageDeque.pop_front();
    }
    // 調(diào)用融合函數(shù)
    projection(imageCloud,cv_ptr->image);
}

void ILProjection::projection(pcl::PointCloud<pcl::PointXYZI>::Ptr&ccloud,cv::Mat&img) {
    std::vector<cv::Point3d> lidar_points;
    std::vector<cv::Scalar> dis_color;

    lidar_points.reserve(ccloud->size()+1);
    dis_color.reserve(ccloud->size()+1);
    
    //保留相機(jī)正前方的點(z>0)
    for(int i=0;i<=ccloud->points.size();i++)
    {
        if(ccloud->points[i].z > 0) {
            lidar_points.push_back(cv::Point3d(ccloud->points[i].x, ccloud->points[i].y, ccloud->points[i].z));
            int color_order = int(ccloud->points[i].z / color_distance);
            if(color_order > 20) {
                color_order = 20;
            }
            dis_color.push_back(cv::Scalar(color[color_order][2], color[color_order][1], color[color_order][0]));
        }
    }

    vector<cv::Point2d> projectedPoints; //該vector用來存儲投影過后的二維點

    // 投影核心函數(shù)
    // 第一個參數(shù)為原始3d點
    // 第二個參數(shù)為旋轉(zhuǎn)矩陣
    // 第三個參數(shù)為平移向量
    // 第四個參數(shù)為相機(jī)內(nèi)參矩陣
    // 第五個參數(shù)為投影結(jié)果
    cv::Mat rMat = cv::Mat::eye(3, 3, CV_64FC1);
    cv::Mat tVec = cv::Mat::zeros(3, 1, CV_64FC1);
    cv::projectPoints(lidar_points,rMat,tVec,camera_mat,dist_coeff,projectedPoints);

    //遍歷投影結(jié)果
    for (int i = 0; i<projectedPoints.size(); i++)
    {
        cv::Point2d p = projectedPoints[i];
        // 由于圖像尺寸為480x640,所以投影后坐標(biāo)處于圖像范圍內(nèi)的點才在圖像中進(jìn)行標(biāo)示
        if (p.y<480&&p.y>=0&&p.x<640&&p.x>=0)
        {
            //cout << p.x << " " << p.y << " " << dis_color[i] << endl;
        	//標(biāo)示的方式是在對應(yīng)位置畫圓圈
            cv::circle(img, p, 1, dis_color[i], 2, 8, 0);
        }
    }

    //利用cv_bridge將opencv圖像轉(zhuǎn)為ros圖像
    sensor_msgs::ImagePtr msg=cv_bridge::CvImage(std_msgs::Header(),"bgr8",img).toImageMsg(); 
    image_pub.publish(msg); //image_pub是在函數(shù)外定義的一個ros圖像發(fā)布器,將標(biāo)示后的圖像發(fā)布
}

void ILProjection::filterCloudPoint(pcl::PointCloud<pcl::PointXYZI>::Ptr& cloud_in,pcl::PointCloud<pcl::PointXYZI>::Ptr& cloud_out) {
    pcl::PointCloud<pcl::PointXYZI>::Ptr temp (new pcl::PointCloud<pcl::PointXYZI>);

    //創(chuàng)建X軸濾波器對象
    pcl::PassThrough<pcl::PointXYZI>  xPass;
    //輸入點云
    xPass.setInputCloud(cloud_in);			
    //設(shè)置在Z軸方向上進(jìn)行濾波
    xPass.setFilterFieldName("x");
    //設(shè)置濾波范圍為0~1,在范圍之外的點會被剪除
    xPass.setFilterLimits(0.0, 1000.0);
    //是否反向過濾,也就是保留范圍以外的點,默認(rèn)為false
    //xPass.setFilterLimitsNegative (true);
    xPass.setFilterLimitsNegative(false);
    //執(zhí)行濾波
    xPass.filter(*temp);

    //創(chuàng)建Y軸濾波器對象
    pcl::PassThrough<pcl::PointXYZI>  yPass;
    //輸入點云
    yPass.setInputCloud(temp);			
    //設(shè)置在Z軸方向上進(jìn)行濾波
    yPass.setFilterFieldName("y");
    //設(shè)置濾波范圍為0~1,在范圍之外的點會被剪除
    yPass.setFilterLimits(-0.6, 0.6);
    //是否反向過濾,也就是保留范圍以外的點,默認(rèn)為false
    //yPass.setFilterLimitsNegative (true);
    yPass.setFilterLimitsNegative(false);
    //執(zhí)行濾波
    yPass.filter(*cloud_out);
}

void ILProjection::imageShowCb(const sensor_msgs::ImageConstPtr &msg){
    cv_bridge::CvImagePtr image_msg_bridge;
    image_msg_bridge = cv_bridge::toCvCopy(msg,sensor_msgs::image_encodings::BGR8);
    cv::Mat image_cv = image_msg_bridge->image;
    cv::imshow("view",image_cv);
    cv::waitKey(3);
}

void ILProjection::imageShow(){
    imageShow_sub = it.subscribe("/image_laser_projection/image",1, &ILProjection::imageShowCb, this);
}

利用彈窗,直接顯示融合標(biāo)定后的結(jié)果

#include "ILProjection.h"

int main(int argc,char *argv[])
{
    // 初始化節(jié)點
    ros::init(argc,argv,"image_laser_projection");
    // 創(chuàng)建句柄
    ros::NodeHandle nh;

    ILProjection imageLaserProjection;

    imageLaserProjection.imageShow();
    
    ros::spin();
    return 0;
}

配置庫文件,運行。

實現(xiàn)效果

深度相機(jī)和激光雷達(dá)的融合標(biāo)定(Autoware)

?代碼倉庫參考:

git@e.coding.net:cqu-top-one/SmartCarSoftware/songling-car-task2.git文章來源地址http://www.zghlxwxcb.cn/news/detail-499725.html

到了這里,關(guān)于深度相機(jī)和激光雷達(dá)的融合標(biāo)定(Autoware)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 激光雷達(dá)-相機(jī)聯(lián)合標(biāo)定

    https://f.daixianiu.cn/csdn/9499401684344864.html imu與lidar標(biāo)定 https://github.com/PJLab-ADG/SensorsCalibration/blob/master/lidar2imu/README.md 多雷達(dá)標(biāo)定 https://f.daixianiu.cn/csdn/3885826454722603.html ros usb相機(jī)內(nèi)參標(biāo)定 ROS系統(tǒng)-攝像頭標(biāo)定camera calibration_berry丶的博客-CSDN博客

    2024年02月15日
    瀏覽(24)
  • 鐳神激光雷達(dá)和相機(jī)聯(lián)合標(biāo)定

    鐳神激光雷達(dá)和相機(jī)聯(lián)合標(biāo)定

    鐳神激光雷達(dá)坐標(biāo)系和相機(jī)坐標(biāo)系都為右手坐標(biāo)系 鐳神激光雷達(dá)坐標(biāo)系:原點為激光雷達(dá)光學(xué)中心,右為X,前為Y,上為Z 相機(jī)坐標(biāo)系:原點為相機(jī)光心,右為X,下為Y,前為Z 同時規(guī)定歐拉角:繞X軸為俯仰角(pitch),繞Y軸為翻滾角(roll),繞Z軸為偏航(航向)角(heading、yaw)。 此時

    2024年02月09日
    瀏覽(43)
  • 3D激光雷達(dá)和相機(jī)融合

    3D激光雷達(dá)和相機(jī)融合

    主要看重投影誤差,cv的標(biāo)定識別率也太低了。。。原因是找到了,相機(jī)給的曝光時間5ms,增大曝光時間成功率大大提升,但曝光時間給打了,影響實時性,頭疼。。 主要是3D-2D的標(biāo)定 采集標(biāo)定數(shù)據(jù) 參照以下采集標(biāo)定數(shù)據(jù)和處理標(biāo)定數(shù)據(jù),pcd角點選取和圖像角點選?。?https:

    2024年02月06日
    瀏覽(95)
  • 【Ubuntu18.04】激光雷達(dá)與相機(jī)聯(lián)合標(biāo)定(Livox+HIKROBOT)(一)相機(jī)內(nèi)參標(biāo)定

    【Ubuntu18.04】激光雷達(dá)與相機(jī)聯(lián)合標(biāo)定(Livox+HIKROBOT)(一)相機(jī)內(nèi)參標(biāo)定

    Livox Lidar + HIKROBOT Camera 聯(lián)合標(biāo)定 參考鏈接:相機(jī)雷達(dá)標(biāo)定文檔 安裝ROS環(huán)境,參考筆者的博客:【ROS】Ubuntu18.04安裝Ros 參考鏈接:??礐amera MVS Linux SDK二次開發(fā)封裝ROS packge過程記錄(c++) ??档南鄼C(jī)沒有ros驅(qū)動,且對linux開發(fā)不太友好(但支持windows),因此需要重寫了sdk接口

    2024年02月04日
    瀏覽(25)
  • 虛擬機(jī)(Ubuntu1804)相機(jī)與激光雷達(dá)聯(lián)合標(biāo)定實現(xiàn)過程記錄

    虛擬機(jī)(Ubuntu1804)相機(jī)與激光雷達(dá)聯(lián)合標(biāo)定實現(xiàn)過程記錄

    在智能小車錄制的點云數(shù)據(jù)在rviz打開一定要修改Fixed Frame為laser_link,這樣才能看到點云,注意此時用的是雷神激光雷達(dá),話題名是lslidar_,可采用rostopic list查看具體名稱 1、新建一個終端打開roscore 2、在文件夾libratia中新建一個終端 【注意】這里的--pause可以暫停,當(dāng)后面需要

    2024年02月16日
    瀏覽(26)
  • ICRA 2023 | 最新激光雷達(dá)-相機(jī)聯(lián)合內(nèi)外參標(biāo)定,一步到位!

    ICRA 2023 | 最新激光雷達(dá)-相機(jī)聯(lián)合內(nèi)外參標(biāo)定,一步到位!

    點擊下方 卡片 ,關(guān)注“ 自動駕駛之心 ”公眾號 ADAS巨卷干貨,即可獲取 今天自動駕駛之心很榮幸邀請到石頭,為大家分享ICRA 2023最新的激光雷達(dá)-相機(jī)的聯(lián)合標(biāo)定方法,可同時標(biāo)定內(nèi)參和外參。如果您有相關(guān)工作需要分享,請在文末聯(lián)系我們! 點擊進(jìn)入→ 自動駕駛之心【多

    2024年02月12日
    瀏覽(25)
  • 【文獻(xiàn)分享】基于線特征的激光雷達(dá)和相機(jī)外參自動標(biāo)定

    【文獻(xiàn)分享】基于線特征的激光雷達(dá)和相機(jī)外參自動標(biāo)定

    論文題目: Line-based Automatic Extrinsic Calibration of LiDAR and Camera 中文題目: 基于線特征的激光雷達(dá)和相機(jī)外參自動標(biāo)定 作者:Xinyu Zhang, Shifan Zhu, Shichun Guo, Jun Li, and Huaping Liu 作者機(jī)構(gòu):清華大學(xué)汽車安全與能源國家重點實驗室 論文鏈接:https://www.researchgate.net/publication/354877994_

    2024年02月06日
    瀏覽(25)
  • MATLAB - 激光雷達(dá) - 相機(jī)聯(lián)合標(biāo)定(Lidar-Camera Calibration)

    MATLAB - 激光雷達(dá) - 相機(jī)聯(lián)合標(biāo)定(Lidar-Camera Calibration)

    ? ? ? 激光雷達(dá) - 相機(jī)標(biāo)定建立了三維激光雷達(dá)點和二維相機(jī)數(shù)據(jù)之間的對應(yīng)關(guān)系,從而將激光雷達(dá)和相機(jī)輸出融合在一起。 激光雷達(dá)傳感器和相機(jī)被廣泛用于自動駕駛、機(jī)器人和導(dǎo)航等應(yīng)用中的三維場景重建。激光雷達(dá)傳感器捕捉環(huán)境的三維結(jié)構(gòu)信息,而相機(jī)則捕捉色彩、

    2024年02月20日
    瀏覽(24)
  • 激光雷達(dá)與相機(jī)外參標(biāo)定(附open3d python代碼)

    激光雷達(dá)與相機(jī)外參標(biāo)定(附open3d python代碼)

    現(xiàn)在的激光雷達(dá)與相機(jī)的標(biāo)定程序基本都是Ubuntu框架下面的,并且都是C++代碼,需要安裝的依賴也比較復(fù)雜,于是自己寫了一個python版本的標(biāo)定程序,依賴非常簡單,Windows系統(tǒng)也可以運行。并且代碼簡單一個文件搞定,符合python簡單易行的風(fēng)格。 先上最后標(biāo)定后的效果圖?

    2024年02月11日
    瀏覽(17)
  • ?CVPR2023 | MSMDFusion: 激光雷達(dá)-相機(jī)融合的3D多模態(tài)檢測新思路(Nuscenes SOTA!)...

    ?CVPR2023 | MSMDFusion: 激光雷達(dá)-相機(jī)融合的3D多模態(tài)檢測新思路(Nuscenes SOTA?。?..

    點擊下方 卡片 ,關(guān)注“ 自動駕駛之心 ”公眾號 ADAS巨卷干貨,即可獲取 點擊進(jìn)入→ 自動駕駛之心【3D目標(biāo)檢測】技術(shù)交流群 后臺回復(fù) 【3D檢測綜述】 獲取最新基于點云/BEV/圖像的3D檢測綜述! 融合激光雷達(dá)和相機(jī)信息對于在自動駕駛系統(tǒng)中實現(xiàn)準(zhǔn)確可靠的3D目標(biāo)檢測至關(guān)重

    2023年04月21日
    瀏覽(89)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包