曙海教育集團
全國報名免費熱線:4008699035 微信:shuhaipeixun
或15921673576(微信同號) QQ:1299983702
首頁 課程表 在線聊 報名 講師 品牌 QQ聊 活動 就業
 
SLAM培訓

 
  班級規模及環境--熱線:4008699035 手機:15921673576( 微信同號)
      每個班級的人數限3到5人,互動授課, 保障效果,小班授課。
  上間和地點
上課地點:【上海】:同濟大學(滬西)/新城金郡商務樓(11號線白銀路站) 【深圳分部】:電影大廈(地鐵一號線大劇院站)/深圳大學成教院 【北京分部】:北京中山學院/福鑫大樓 【南京分部】:金港大廈(和燕路) 【武漢分部】:佳源大廈(高新二路) 【成都分部】:領館區1號(中和大道) 【沈陽分部】:沈陽理工大學/六宅臻品 【鄭州分部】:鄭州大學/錦華大廈 【石家莊分部】:河北科技大學/瑞景大廈 【廣州分部】:廣糧大廈 【西安分部】:協同大廈
最近開間(周末班/連續班/晚班):2018年3月18日
  實驗設備
    ◆小班教學,教學效果好
       
       ☆注重質量☆邊講邊練

       ☆合格學員免費推薦工作
       ★實驗設備請點擊這兒查看★
  質量保障

       1、培訓過程中,如有部分內容理解不透或消化不好,可免費在以后培訓班中重聽;
       2、培訓結束后,授課老師留給學員聯系方式,保障培訓效果,免費提供課后技術支持。
       3、培訓合格學員可享受免費推薦就業機會。☆合格學員免費頒發相關工程師等資格證書,提升職業資質。專注高端技術培訓15年,端海學員的能力得到大家的認同,受到用人單位的廣泛贊譽,端海的證書受到廣泛認可。

課程大綱
 
  •  
  • SLAM相關的計算機視覺基礎。
    1 多視圖幾何基礎
    1.1 三維空間剛體運動
    1.2 射影幾何
    1.3 單視圖幾何
    1.3.1 攝像機模型
    1.3.1.1 針孔攝像機模型
    1.3.1.2 魚眼攝像機模型
    1.3.2 攝像機矩陣P
    1.4 雙視圖幾何
    1.4.1 對極幾何
    1.4.2 攝像機軌跡的計算
    1.5 三維重建
    1.5.1 實時與離線
    1.5.2 SfM Pipeline
    1.5.3 應用
    1.6 常用第三方開發庫介紹
    1.6.1 OpenCV
    1.6.2 PCL
    1.6.3 VTK
    1.6.4 Ceres Solver
    1.7 相關應用
    1.7.1 全景視頻
    1.7.2 虛擬現實
    1.7.3 增強現實
    1.7.4 機器人導航

    SLAM相關
    2 SLAM基礎
    2.1 介紹
    2.2 不同的傳感器
    2.2.1 激光傳感器、雷達傳感器
    2.2.2 彩色攝像頭
    2.2.2.1 單目攝像頭
    2.2.2.2 雙目攝像頭
    2.2.2.3 魚眼鏡頭
    2.2.3 深度攝像頭
    2.2.3.1 雙目RGB攝像頭
    2.2.3.2 單/雙目RGB-D攝像頭
    2.2.3.3 基于飛行時間原理的深度攝像頭
    2.3 不同的輔助設備
    2.3.1 IMU
    2.3.2 GPS
    2.4 視覺SLAM
    2.4.1 基于濾波器的V-SLAM
    2.4.2 基于關鍵幀的V-SLAM
    2.4.3 基于直接跟蹤的V-SLAM
    2.4.4 視覺SLAM算法之間的比較
    2.5 激光SLAM
    2.5.1 GMapping
    2.5.2 Hector SLAM
    2.5.3 Cartographer
    2.5.4 視覺SLAM和激光SLAM之間的差異
    2.6 實踐
    2.6.1 ROS機器人系統入門
    2.6.1.1 ROS是什么
    2.6.1.2 ROS的特點
    2.6.1.3 如何快速上手ROS
    2.6.2 編譯SLAM系統
    2.6.3 運行實例

    經典SLAM框架1
    3 經典視覺SLAM框架1
    3.1 非線性優化
    3.1.1 狀態估計問題
    3.1.1.1 最大后驗與最大似然
    3.1.1.2 最小二乘的引出
    3.1.2 非線性最小二乘
    3.1.2.1 一階和二階梯度法
    3.1.2.2 高斯-牛頓法
    3.1.2.3 列文伯格——馬夸爾特方法
    3.1.2.4 小結
    3.1.3 實踐Ceres
    3.1.4 實踐g2o
    3.1.5 小結
    3.2 視覺里程計1
    3.2.1 特征點法
    3.2.1.1 特征點
    3.2.1.2 ORB特征
    3.2.1.3 特征匹配
    3.2.2 實踐特征提取和匹配
    3.2.3 2D-2D:對極幾何
    3.2.3.1 對極約束
    3.2.3.2 本質矩陣
    3.2.3.3 單應矩陣
    3.2.4 實踐:對極約束求解相機運動
    3.2.5 三角測量
    3.2.6 實踐:三角測量
    3.2.7 3D-2D:PnP
    3.2.7.1 直接線性變換
    3.2.7.2 P3P
    3.2.7.3 Bundle Adjustment
    3.2.8 實踐:求解PnP
    3.2.9 3D-3D:ICP
    3.2.9.1 SVD方法
    3.2.9.2 非線性優化方法
    3.2.10 小結

    經典SLAM框架2
    4 經典視覺SLAM框架2
    4.1 視覺里程計2
    4.1.1 直接法的引出
    4.1.2 光流(Optical Flow)
    4.1.3 實踐:LK光流
    4.1.3.1 使用TUM公開數據集
    4.1.3.2 使用LK光流
    4.1.4 直接法(Direct Method)
    4.1.4.1 直接法的推導
    4.1.4.2 直接法的討論
    4.1.5 實踐:RGB-D的直接法
    4.1.5.1 稀疏直接法
    4.1.5.2 定義直接法的邊
    4.1.5.3 使用直接法估計相機運動
    4.1.5.4 半稠密直接法
    4.1.5.5 直接法的討論
    4.1.5.6 直接法優缺點總結
    4.2 SLAM前端
    4.2.1 VO框架
    4.2.1.1 程序框架
    4.2.1.2 基本數據結構
    4.2.1.3 Camera
    4.2.1.4 Frame
    4.2.1.5 MapPoint
    4.2.1.6 Map
    4.2.1.7 Config
    4.2.2 基本的VO:特征提取和匹配
    4.2.2.1 兩兩幀的視覺里程計
    4.2.2.2 討論
    4.2.3 優化PnP的結果
    4.2.4 局部地圖
    4.2.5 小結
    第一節課講經典SLAM框架3
    5 經典SLAM框架3
    5.1 后端1
    5.1.1 概述
    5.1.1.1 狀態估計的概率解釋
    5.1.1.2 線性系統和KF
    5.1.1.3 非線性系統和EKF
    5.1.1.4 EKF的討論
    5.1.2 BA與圖優化
    5.1.2.1 投影模型和BA代價函數
    5.1.2.2 BA的求解
    5.1.2.3 稀疏性和邊緣化
    5.1.2.4 魯棒核函數
    5.1.2.5 小結
    5.1.3 實踐:g2o
    5.1.3.1 BA數據集
    5.1.3.2 g2o求解BA
    5.1.3.3 求解
    5.1.4 實踐:Ceres
    5.1.4.1 Ceres求解BA
    5.1.4.2 求解
    5.1.5 小結
    5.2 后端2
    5.2.1 位姿圖(Pose Graph)
    5.2.1.1 Pose Graph的意義
    5.2.1.2 Pose Graph的優化
    5.2.2 實踐:位姿圖優化
    5.2.2.1 g2o原生位姿圖
    5.2.2.2 李代數上的位姿圖優化
    5.2.2.3 小結

    經典SLAM框架4
    6 經典SLAM框架4
    6.1 回環檢測
    6.1.1 回環檢測概述
    6.1.1.1 回環檢測的意義
    6.1.1.2 方法
    6.1.1.3 準確率和召回率
    6.1.2 詞袋模型
    6.1.3 字典
    6.1.3.1 字典的結構
    6.1.3.2 實踐:創建字典
    6.1.4 相似度計算
    6.1.4.1 理論部分
    6.1.4.2 相似度的計算
    6.1.5 實驗分析與評述
    6.1.5.1 增加字典規模
    6.1.5.2 相似性評分的處理
    6.1.5.3 關鍵幀的處理
    6.1.5.4 檢測之后的驗證
    6.1.5.5 與機器學習的關系
    6.2 建圖
    6.2.1 概述
    6.2.2 單目稠密重建
    6.2.2.1 立體視覺
    6.2.2.2 極限搜索與快匹配
    6.2.2.3 高斯分布的深度濾波器
    6.2.3 實踐:單目稠密重建
    6.2.4 實驗分析與討論
    6.2.4.1 像素梯度的問題
    6.2.4.2 逆深度
    6.2.4.3 圖像間的變換
    6.2.4.4 并行化:效率的問題
    6.2.4.5 其他的改進
    6.2.5 RGB-D稠密見圖
    6.2.5.1 實踐:點云地圖
    6.2.5.2 八叉樹地圖
    6.2.5.3 實踐:八叉樹地圖
    6.2.6 小結
    6.3 SLAM的未來
    6.3.1 視覺+慣性導航SLAM
    6.3.2 語義SLAM

    7 深度學習
    7.1 機器學習原理
    7.1.1 機器學習術語
    7.1.2 深入了解機器學習
    7.2 深度學習介紹
    7.2.1 神經網絡基礎
    7.3 主流深度學習框架
    7.3.1 Tensorflow
    7.3.2 Theano
    7.3.3 CNTK
    7.4 實踐:Tensorflow的安裝
    7.5 實踐:簡單的識別字符的應用

    深度學習和SLAM的結合
    8 深度學習和SLAM的結合
    8.1 深度學習與幀間估計
    8.2 深度學習與閉環檢測
    8.3 深度學習與語義SLAM
    8.4 深度學習方法與傳統方法對比
    8.5 未來展望
    8.5.1 高維傳感器數據處理與融合
    8.5.2 機器人知識庫
    8.5.3 云機器人
    8.5.4 SLAM促進深度學習
 

-

 

  備案號:備案號:滬ICP備08026168號-1 .(2024年07月24日)...............
主站蜘蛛池模板: 婷婷综合久久狠狠色99h| 亚洲综合精品一二三区在线| 91精品婷婷国产综合久久| 伊人色综合久久天天人手人婷| 亚洲av伊人久久综合密臀性色| 亚洲VA综合VA国产产VA中| 久久精品综合网| 狠狠综合久久AV一区二区三区| 91精品国产91久久综合| 久久久综合香蕉尹人综合网| 狠狠色综合网站久久久久久久| 国产综合一区二区| 欧美日韩国产码高清综合人成| 日日狠狠久久偷偷色综合96蜜桃| 欧美偷窥清纯综合图区| 亚洲国产综合专区在线电影| 色综合天天综合| 综合自拍亚洲综合图不卡区| 亚洲乱码中文字幕综合234| 狠狠色狠狠色综合网| 天天色综合天天色| 一本色道久久88综合日韩精品| 精品综合久久久久久88小说| 欧美精品色婷婷五月综合| 亚洲乱码中文字幕综合234| 五月六月综合欧美网站| 国产色综合一区二区三区| 一本色综合网久久| 激情综合色综合久久综合| 婷婷色香五月激情综合2020| 人妻 日韩 欧美 综合 制服| 国产亚洲欧洲Aⅴ综合一区| 激情伊人五月天久久综合| 区三区激情福利综合中文字幕在线一区| 国产成人麻豆亚洲综合无码精品| 亚洲人成网站999久久久综合| 色狠狠久久AV五月综合| 五月天激情综合网丁香婷婷| 93精91精品国产综合久久香蕉| 欧美综合视频在线| 九月丁香婷婷亚洲综合色|