基于認知深度學習的智能自主無人系統(tǒng)設計與開發(fā) [美]大衛(wèi)·艾倫·布呂博 等 [美]大衛(wèi)·艾倫·布呂博
定 價:109 元
當前圖書已被 2 所學校薦購過!
查看明細
- 作者:[美]大衛(wèi)·艾倫·布呂博(David Allen Blubaugh),[美]斯蒂芬·D.哈伯(Stephen D.Harbour),[美]本杰明·西爾斯(Benjamin Sears),[美]邁克爾·
- 出版時間:2025/9/1
- ISBN:9787111786955
- 出 版 社:機械工業(yè)出版社
- 中圖法分類:
- 頁碼:
- 紙張:膠版紙
- 版次:
- 開本:16開
本書以認知深度學習和無人探測車的制作為主線,介紹了構建智能自主無人探測車的各項關鍵技術,希望能為有志于人工智能行業(yè)的讀者在實踐上提供幫助。本書第1~3章對成功搭建無人探測車的基礎知識和必要工具進行了介紹;第4~8章對無人探測車所涉及的操作系統(tǒng)、開發(fā)環(huán)境、模擬環(huán)境、導航和控制、即時地圖生成、計算機視覺等重要技術進行了全面的闡述;第9~13章視為理論深化部分,希冀讀者能在前面實踐的基礎上更全面地掌握相關理論和技術,從而提升自己在實際工作中的規(guī)劃和設計能力。本書主要面向人工智能無人系統(tǒng)相關領域的工程師、研究生和業(yè)余愛好者。
在人工智能(AI)“第三波浪潮”的推動下,無人系統(tǒng)正成為AI技術產(chǎn)業(yè)化的核心載體。本書以認知深度學習與AI探測車開發(fā)為主線,構建從基礎工具(第1~3章)、核心技術(第4~8章)到理論深化(第9~13章)的三階段架構,整合ROS標準化開發(fā)、UML建模與多仿真環(huán)境測試等工程方法,并配套GitHub開源代碼與仿真測試資源,為讀者提供兼具算法理論與工程實踐的系統(tǒng)化指南。
譯 者序近年來隨著深度學習、強化學習的高速發(fā)展,人工智能迎來了自己的“第三波浪潮”。人們迫切希望將人工智能的最新成果與傳統(tǒng)行業(yè)結合起來,創(chuàng)造出新的產(chǎn)品,替代人類去完成一些危險或不方便從事的工作。于是,無人機、無人車輛、無人潛航器等讓人眼花繚亂的產(chǎn)品應運而生,也促進了若干行業(yè)新風口的誕生。在這個大背景下,越來越多的從業(yè)人員或愛好者熱切地希望自己能盡快投身到人工智能的開發(fā)中,并創(chuàng)造出屬于自己的優(yōu)秀產(chǎn)品。為此,機械工業(yè)出版社引入了這本書,書中以認知深度學習和無人探測車的制作為主線,介紹了構建智能自主無人探測車的各項關鍵技術,希望能為有志于投身人工智能行業(yè)的讀者在實踐上提供幫助。全書共分為13章和3個附錄,正文可以劃分為三個部分,第一部分為第1~3章,對成功搭建無人探測車的基礎知識和必要工具進行了介紹;第二部分為第4~8章,對無人探測車所涉及的操作系統(tǒng)、開發(fā)環(huán)境、仿真環(huán)境、導航和控制、即時地圖生成、計算機視覺等重要技術進行了全面的闡述;第三部分為第9~13章,可以視為理論深化部分,希冀讀者能在前面實踐的基礎上更全面地掌握相關理論和技術,從而提升自己在實際工作中的規(guī)劃和設計能力。書中的源代碼可以在https://github.com/Apress/Intelligent-Autonomous-Drones-with-Cognitive-Deep-Learning上獲取。本書內(nèi)容詳盡,實例豐富,將理論與實踐相結合,是一本難得的好書。全書由胡訓強(第4~8章及附錄)、倪小清(第1~3章及第9、10章)、徐瑜(第11~13章)共同翻譯完成。我們很榮幸能成為本書的譯者,在這里要感謝機械工業(yè)出版社的編輯給予我們的信任。由于人工智能及相關技術的進展日新月異,加之譯者的技術和語言水平有限,書中難免會出現(xiàn)不準確甚至錯誤之處,懇請讀者通過郵箱10185014@qq.com告知我們,在此向您表示感謝!最后,感謝所有為本書順利付梓而付出艱辛勞動的人們!譯者2024年12月于廣州
大衛(wèi)·艾倫·布呂博(David Allen Blubaugh)經(jīng)驗豐富的計算機和電氣工程師,目前在ATR公司工作,并和Benjamin Sears一起在辛克萊學院進修無人機操作員學位課程。David對于MSP 430微控制器和樹莓派4之類的嵌入式系統(tǒng)擁有豐富的開發(fā)經(jīng)驗。斯蒂芬·D.哈伯(Steven D. Harbour)美國西南研究所代頓工程高級項目實驗室的主管工程師和科學家。他是美國國防研究和工程的專業(yè)人士,在工程及航空學科和多個應用領域擁有超過25年的經(jīng)驗。他領導和運營了很多正在進行當中的基礎和應用研究項目,包括第三代尖峰神經(jīng)網(wǎng)絡、神經(jīng)形態(tài)工程以及包括人機協(xié)作在內(nèi)的神經(jīng)形態(tài)應用的開發(fā)。本杰明·西爾斯(Benjamin Sears)具有多年無人機飛行員/操作員工作經(jīng)驗,深入理解無人機任務和機組人員資源管理背后的理論。邁克爾·J.芬德勒(Michael J. Findler)萊特州立大學講師,具有嵌入式系統(tǒng)的開發(fā)經(jīng)驗,目前在人工智能的各個領域從事開發(fā)工作。
目 錄譯者序第1章 探測車平臺概覽11.1 本章目標21.2 認知深度學習子系統(tǒng)31.2.1 基本的系統(tǒng)組件41.2.2 系統(tǒng)的基本原理41.2.3 設計約束51.2.4 其他需求51.2.5 軟件系統(tǒng)特性61.2.6 體系架構61.3 AI探測車統(tǒng)計分析71.3.1 底盤的選擇71.3.2 機器人操作系統(tǒng)81.3.3 Pixhawk 4自動駕駛儀81.3.4 AI探測車任務分析81.3.5 AdruPilot任務規(guī)劃器軟件91.3.6 AI探測車功耗分析91.3.7 AI探測車的面向?qū)ο缶幊?1.3.8 組件清單91.3.9 樹莓派探測車套件清單101.4 本章練習10第2章 AI探測車平臺設計與分析112.1 本章目標112.2 將問題置于應用場景中112.3 為AI探測車繪制第一版靜態(tài)UML圖132.4 為AI探測車繪制第一版動態(tài)UML圖152.5 為AI探測車繪制第一版動態(tài)UML類圖182.6 為AI探測車繪制第一版動態(tài)UML序列圖202.7 本章小結242.8 本章練習25第3章 安裝Linux和開發(fā)工具263.1 本章目標263.2 安裝VirtualBox軟件273.3 在VirtualBox中安裝 Ubuntu 20.04.4333.3.1 更新Ubuntu 20.04.4403.3.2 配置Ubuntu軟件倉庫433.4 安裝Anaconda453.5 ROS源列表463.6 ROS環(huán)境變量密鑰463.7 安裝ROS473.7.1 通過rosinstall安裝附加庫473.7.2 首次啟動ROS473.7.3 添加ROS路徑483.7.4 創(chuàng)建ROS Catkin工作空間493.7.5 Noetic ROS的最終檢測503.7.6 Noetic ROS的體系架構503.7.7 簡單的“Hello World”ROS測試513.7.8 ROS RQT Graph523.7.9 ROS Gazebo523.8 本章小結533.9 本章練習53第4章 搭建一臺簡單的虛擬探測車544.1 本章目標544.2 ROS、RViz和Gazebo544.3 ROS命令554.4 機器人可視化(RViz)554.4.1 Catkin工作空間回顧584.4.2 URDF和SDF之間的關系594.4.3 構建底盤604.4.4 使用ROSLAUNCH命令614.4.5 創(chuàng)建車輪和駕駛儀634.4.6 創(chuàng)建AI探測車的腳輪664.4.7 為AI探測車添加顏色(可選操作)664.4.8 碰撞屬性684.4.9 測試AI探測車的車輪704.4.10 物理屬性714.5 Gazebo簡介734.5.1 Gazebo的背景信息744.5.2 啟動Gazebo744.5.3 Gazebo環(huán)境的工具欄764.5.4 不可見關節(jié)面板764.5.5 Gazebo的菜單欄774.5.6 URDF向Gazebo SDF的轉換784.5.7 檢查URDF向Gazebo SDF的轉換794.5.8 Gazebo中第一個受控AI探測車模型804.5.9 首次應用深度學習的可能性824.5.10 用關節(jié)面板移動AI探測車824.6 本章小結834.7 本章練習83第5章 在仿真系統(tǒng)中添加傳感器845.1 本章目標845.2 XML宏編程語言845.3 更多XML示例865.4 重構探測車875.4.1 模塊化設計的探測車885.4.2 Gazebo插件965.4.3 系統(tǒng)集成1055.4.4 Gazebo啟動文件1085.4.5 Xacro和Gazebo排錯1095.5 探測車的遠程操控(Teleop)節(jié)點1105.6 可視化工具TF Graph1115.7 控制探測車1145.7.1 探測車的漂移問題1145.7.2 第一個Python控制器1145.8 構建虛擬環(huán)境1165.9 本章小結1165.10 本章練習116第6章 感知與避障1186.1 本章目標1186.2 理解坐標系1186.3 構建探測車的環(huán)境模型1196.3.1 項目的組織1196.3.2 墓穴建模(簡化版)1206.4 激光測距濾波器的設置1256.5 感知和規(guī)避障礙1306.5.1 源代碼分析1346.5.2 解譯LiDAR傳感器數(shù)據(jù)1366.5.3 感知和規(guī)避障礙1366.5.4 執(zhí)行避障代碼1396.6 本章小結1406.7 本章練習140第7章 導航、SLAM和目標位置1417.1 本章目標1417.2 概述1417.3 任務類型1417.4 里程計1427.4.1 探測車的局部導航1427.4.2 探測車的全局導航1437.4.3 獲取探測車的航向(方向)1437.4.4 執(zhí)行rotateRobotOdom.py1457.5 控制理論1467.6 即時定位與地圖構建1487.6.1 安裝SLAM及相關庫1487.6.2 設置SLAM庫1497.6.3 導航的目標及任務1507.7 地圖的重要性1507.8 啟動探測車1517.8.1 創(chuàng)建ai_rover_world.launch1517.8.2 slam_gmapping啟動文件1537.8.3 準備slam_gmapping包1547.8.4 修改gmapping_demo.launch文件1547.8.5 RViz中的gMapping1557.9 最終的啟動終端命令1577.9.1 RViz中的地圖構建配置1587.9.2 檢查LaserScan配置1597.9.3 檢查地圖構建配置1597.9.4 保存RViz的配置1617.9.5 Noetic SLAM的補充知識1637.9.6 map_server ROS節(jié)點1637.9.7 保存或修改地圖圖像1647.9.8 地圖圖像數(shù)據(jù)文件rover_map.pgm1657.9.9 地圖圖像元數(shù)據(jù)文件rover_map.yaml1667.9.10 ROS的Bag文件1667.9.11 ROS Bag文件的重要性1687.10 自適應蒙特卡羅定位(找到丟失的探測車)1687.10.1 配置ROS中的AMCL節(jié)點1707.10.2 定位和AMCL的重要性1747.10.3 RViz中AMCL的可視化1747.10.4 用RViz改變探測車的姿態(tài)1797.11 為探測車的目標姿態(tài)編寫程序1797.11.1 Neotic ROS中的導航堆棧1797.11.2 配置導航堆棧1807.12 本章小結180第8章 OpenCV和感知1818.1 本章目標1818.2 概述1818.3 計算機視覺簡介1828.3.1 固態(tài)物理學1828.3.2 神經(jīng)生物學1828.3.3 機器人導航1828.4 何謂計算機視覺1828.5 OpenCV1838.5.1 圖像1848.5.2 濾波器1848.5.3 邊緣檢測器1868.6 Numpy、SciPy、OpenCV和CV_Bridge1868.7 邊緣檢測及其LiDAR實現(xiàn)1938.8 啟動Python文件1948.8.1 pipeline_step_11948.8.2 pipeline_step_21958.8.3 pipeline_step_31968.9 構建和運行ROS數(shù)據(jù)管道應用程序1978.10 用ROS啟動文件啟動數(shù)據(jù)管道1998.11 本章小結200第9章 強化學習2019.1 強化學習入門2019.1.1 情緒識別模擬器2039.1.2 強化深度學習2039.1.3 計算機視覺系統(tǒng)2039.1.4 飛行軌跡分析2039.1.5 飛行員手勢賦值2049.1.6 強化學習智能體:根據(jù)飛行員的動作進行學習2049.1.7 飛行模擬器游戲框架2049.2 策略函數(shù)和效用函數(shù)2069.3 本章小結206參考文獻206第10章 包容認知架構20910.1 自主認知架構20910.2 包容結構20910.3 層與增強有限狀態(tài)機21010.4 使用包容認知架構的示例21110.4.1 控制機器車21510.4.2 控制器類和對象21510.5 創(chuàng)建基于行為的機器人21810.6 其他認知架構21910.6.1 反應式認知架構21910.6.2 規(guī)范操作架構21910.6.3 系統(tǒng)和技術架構22010.6.4 協(xié)商式架構22110.6.5 反應式架構22210.6.6 協(xié)商/反應混合式架構22210.7 本章練習222參考文獻223第11章 AI探測車的地理空間導航22611.1 地理空間導航的需求22611.2 為何AI探測車需要知道自己身處何處22811.3 地理信息系統(tǒng)如何為陸基探測車提供幫助22911.4 我們會使用哪個GIS軟件包,它能和基于ROS的探測車結合使用嗎22911.5 能把GIS嵌入到AI探測車中嗎22911.6 本章小結23011.7 拓展閱讀230第12章 Noetic ROS的深度分析與解析23112.1 本章目標23112.2 ROS設計哲學23112.3 ROS基礎23212.4 Noetic ROS Catkin系統(tǒng)23312.5 Noetic ROS中的包23412.6 Noetic ROS rosrun23512.7 構建探測車的大腦23612.7.1 ROS1與ROS2的對比23612.7.2 選擇ROS1還是ROS2 23712.8 ROS1、Ubuntu、Raspbian和樹莓派423912.9 ROS2、Ubuntu和樹莓派423912.10 ROS1、ROS2、樹莓派4和探測車23912.11 本章小結24012.12 本章練習240第13章 進一步思考24113.1 設計第一個任務24113.1.1 手動控制24113.1.2 平坦地形上的簡單通道24113.1.3 不平坦地形上復雜形狀的通道24113.1.4 不平坦地形上設有障礙的復雜開放式通道24213.1.5 按需進行額外的測試24213.2 AI探測車崩潰時該怎么辦24213.3 任務理念24213.3.1 喪尸獵手24213.3.2 送貨上門24313.3.3 住宅安保24313.3.4 其他任務24313.4 無論喜歡與否,我們正生活在天網(wǎng)時代24313.5 未來的戰(zhàn)場和天空將出現(xiàn)無人系統(tǒng)24313.6 必要的對策24413.7 對更先進的AI無人系統(tǒng)的最后一點思考24413.8 本章小結244參考文獻245附錄A 貝葉斯深度學習246附錄B OpenAI Gym252附錄C 人工智能和機器學習研究的未來273技術縮略語表274