影音先锋男人资源在线观看,精品国产日韩亚洲一区91,中文字幕日韩国产,2018av男人天堂,青青伊人精品,久久久久久久综合日本亚洲,国产日韩欧美一区二区三区在线

基于深度學習的智能分類垃圾桶

上傳人:文*** 文檔編號:48277461 上傳時間:2022-01-02 格式:DOCX 頁數(shù):55 大?。?.66MB
收藏 版權申訴 舉報 下載
基于深度學習的智能分類垃圾桶_第1頁
第1頁 / 共55頁
基于深度學習的智能分類垃圾桶_第2頁
第2頁 / 共55頁
基于深度學習的智能分類垃圾桶_第3頁
第3頁 / 共55頁

下載文檔到電腦,查找使用更方便

30 積分

下載資源

還剩頁未讀,繼續(xù)閱讀

資源描述:

《基于深度學習的智能分類垃圾桶》由會員分享,可在線閱讀,更多相關《基于深度學習的智能分類垃圾桶(55頁珍藏版)》請在裝配圖網(wǎng)上搜索。

1、 基于深度學習的智能分類垃圾桶 Intelligent classification trash can based on deep learning 中文摘要 隨著人類科技的進步和生活質量的提高,隨之而產生的生活垃圾也越來越多,因此如何有效的回收處理生活垃圾成為人們關注的焦點。調查研究發(fā)現(xiàn),在源頭處對垃圾進行分類處理的方法是整個垃圾分類處理流

2、程中最高效的也是分類最徹底的。 而當前的分類規(guī)則其一是難以做到各地全部統(tǒng)一,另一方面是垃圾分類種類繁多,難以區(qū)分,會對人的生活質量造成一定影響。 目前市面上出現(xiàn)了種類繁多的“智能垃圾桶”,但基本都只是實現(xiàn)了自動開合功能,不具備垃圾分類識別的能力。而當前的人工智能技術正在飛速發(fā)展,深度學習領域的圖像識別方向有了長足的發(fā)展,使得使用圖像識別技術對垃圾進行分類成為可能。 選擇正確的圖像識別分類算法是本項目的重中之重。因此,本文對過往的圖像識別方面的突出貢獻的算法做介紹和總結,把握其發(fā)展的脈絡,從而說明選擇MobileNetV2網(wǎng)絡的原因。 在本項目中,系統(tǒng)可分為垃圾識別模塊和垃圾分類投放模塊

3、,即識別模塊和控制模塊。在垃圾投入到垃圾桶中,由識別模塊對垃圾進行識別分類,再把分類結果發(fā)送給控制模塊,由控制模塊將其投放到對應的垃圾桶中。經(jīng)過實際測試,垃圾的類別判斷正確率能在可接受范圍內,而識別分類速度則在經(jīng)過分類結果濾波后,平均成功識別一次垃圾的平均時間為4秒。這證明該項目在智能垃圾分類領域還是很有發(fā)展前景的。 關鍵詞:垃圾分類,卷積神經(jīng)網(wǎng),MobileNetV Abstract With the advancement of human science and technology and the improvement of quality of life, mor

4、e and more domestic waste is generated. Therefore, how to effectively recycle and treat domestic waste has become the focus of peoples attention. The investigation and study found that the method of sorting waste at the source is the most efficient and the most thorough in the entire waste sorting p

5、rocess. One of the current classification rules is that it is difficult to unify all regions, on the other hand, there are many types of garbage classification, which are difficult to distinguish, which will have a certain impact on peoples quality of life. At present, there are a variety of "smar

6、t trash cans" on the market, but basically only the automatic opening and closing function is realized, and the ability to sort and identify trash is not available. The current artificial intelligence technology is developing rapidly, and the direction of image recognition in the field of deep learn

7、ing has made great progress, making it possible to use image recognition technology to classify garbage. Choosing the correct image recognition classification algorithm is the top priority of this project. Therefore, this article introduces and summarizes the algorithms that have made outstanding c

8、ontributions in the past in image recognition, grasping the development context, and thus explaining the reasons for choosing the MobileNetV2 network. In this project, the system can be divided into a garbage recognition module and a garbage classification delivery module, namely a recognition modu

9、le and a control module. After the garbage is put into the garbage bin, the recognition module classifies the garbage, and then sends the classification result to the control module, and the control module puts it into the corresponding garbage bin. After actual testing, the classification accuracy

10、rate of garbage can reach 90%, and the recognition and classification speed is after filtering the classification results, and the average time for successfully identifying a garbage is 4 seconds. This proves that the project is still very promising in the field of intelligent waste classification.

11、 Key words: Garbage Classification; Convolutional Neural Network; MoblieNetV2 目錄 中文摘要 I Abstract II 目錄 IV 圖目錄 VII 表目錄 VIII 第一章 緒論 1 1.1 課題研究背景與意義 1 1.1.1 研究背景 1 1.1.2 意義 2 1.2 國內外垃圾分類及研究現(xiàn)狀 3 1.2.1 國外現(xiàn)狀 3 1.2.2 國內現(xiàn)狀 3 1.3 本文研究內容 3 第二章 智能分類垃圾桶總體設計 5 2.1 概述 5 2.2 系統(tǒng)分析及設計思路 5 2.3 系統(tǒng)框架

12、5 2.4 系統(tǒng)總體運行流程 6 2.4.1 主處理器及主控制器處理流程 6 2.5 本章小結 7 第三章 智能垃圾分類圖像處理原理 8 3.1 卷積神經(jīng)網(wǎng)絡對圖像的基本操作 8 3.1.1 卷積操作 8 3.1.2 池化操作 9 3.2 LeNet網(wǎng)絡 10 3.2.1 綜述 10 3.2.2 特點 12 3.3 AlexNet網(wǎng)絡 13 3.3.1 概述 13 3.3.2 特點 13 3.4 VGGNet網(wǎng)絡 14 3.4.1 特點 15 3.5 GoogleNet網(wǎng)絡及Inception架構 16 3.5.1 背景介紹 16 3.5.2 Incepti

13、onV1 16 3.5.3 InceptionV2 18 3.5.4 InceptionV3 20 3.6 ResNet網(wǎng)絡 21 3.6.1 綜述 21 3.6.2 殘差結構 22 3.7 MobileNet 23 3.7.1 背景介紹 23 3.7.2 MobileNetV1 24 3.7.3 MobileNetV2 24 3.8 本章小結 27 第四章 智能垃圾桶控制系統(tǒng)硬件設計 28 4.1 智能垃圾桶整體結構分布 28 4.2 STM32硬件系統(tǒng)框架 28 4.3 STM32微處理器 29 4.4 步進電機與步進電機驅動器 29 4.4.1 步進電機

14、29 4.4.2 步進電機驅動器 29 4.5 Jetson Nano 30 4.6 本章小結 31 第五章 系統(tǒng)實現(xiàn)及測試 32 5.1 識別算法選取與訓練 32 5.1.1 MobileNetV2 32 5.1.2 TensorFlow框架 32 5.1.3 訓練MobileNetV2網(wǎng)絡 33 5.2 串口通信測試 35 5.2.1 通信格式 35 5.2.2 通信測試 36 5.3 實際垃圾分類測試 37 5.4 本章小結 38 第六章 總結與展望 1 參考文獻 2 致謝 4 圖目錄 圖 1.1 2014-2019年中國大、中城市生活垃圾產生量

15、1 圖 2.1 系統(tǒng)總體框架 5 圖 2.2 左A為主控制器處理流程 右B為主處理器處理流程 6 圖 2.3 系統(tǒng)總體運行流程 6 圖 3.1 卷積在圖象中的計算圖示 9 圖 3.2 左為平均池化 右為最大池化 10 圖 3.3 LeNet-5神經(jīng)網(wǎng)絡模型 10 圖 3.4 全連接層(從左到右分別為輸入層、隱藏層、輸出層) 11 圖 3.5 激活函數(shù) 11 圖 3.6 Sigmoid函數(shù)(S型函數(shù)) 12 圖 3.7 AlexNet網(wǎng)絡 13 圖 3.8 ReLU函數(shù)圖像 13 圖 3.9 Dropout方法 14 圖 3.10 左圖為早期版本 右圖為改進版本 16

16、 圖 3.11 通過不同的卷積核以及池化層實現(xiàn)的聚類 17 圖 3.12 55卷積被替換方式 17 圖 3.13 完善后的InceptionV1結構 18 圖 3.14 兩個連續(xù)33卷積核替代55卷積核 19 圖 3.15 InceptionV2結構 19 圖 3.16 BN方法計算公式 20 圖 3.17 BN方法計算示例 20 圖 3.18 使用31和13的非對稱卷積替代33卷積 21 圖 3.19 InceptionV3結構 21 圖 3.20 常規(guī)深度網(wǎng)絡過深會導致深層網(wǎng)絡訓練效果反而不如淺層網(wǎng)絡 22 圖 3.21 殘差塊(Residual Black) 22

17、 圖 3.22 Shortcut Connections示例 22 圖 3.23 圖左為Option A 圖右為Option B 23 圖 3.24 深度卷積與逐點卷積 24 圖 3.25 兩種倒殘差結構 25 圖 3.26 ReLU6函數(shù)圖像 25 圖 3.27 不同維度下使用ReLU激活函數(shù)后再還原的圖像 25 圖 3.28 MobileNetV2結構 26 圖 4.1 垃圾桶整體結構 28 圖 4.2 STM32主控模塊 28 圖 4.3 電機驅動器連接圖 30 圖 4.4 Jetson Nano B01底板 30 圖 4.5 神經(jīng)計算性能對比 31 圖 5.1

18、 訓練、驗證、測試集 33 圖 5.2 用來訓練網(wǎng)絡的數(shù)據(jù)集 33 圖 5.3 訓練集準確率 33 圖 5.4 驗證集準確率 34 圖 5.5 訓練集損失函數(shù) 34 圖 5.6 驗證集損失函數(shù) 34 圖 5.7 實際測試材料 37 圖 5.8 實際測試材料的識別效果概率分布 37 表目錄 表 1.1 2014-2019年信息發(fā)布城市數(shù)量 1 表 3.1 VGG網(wǎng)絡層數(shù)配置 15 表 3.2 VGGNet各個深度下的單張圖片的準確率 15 表 3.3 ResNet網(wǎng)絡層數(shù)配置 23 表 3.4 MobileNetV2網(wǎng)絡層數(shù)配置 26 表 3.5 Mobile

19、NetV2網(wǎng)絡在ImageNet數(shù)據(jù)集上性能和參數(shù)對比 27 表 3.6 MobileNetV2網(wǎng)絡在COCO數(shù)據(jù)集上性能和參數(shù)對比 27 表 4.1 步進電機參數(shù)表 29 表 4.2 樹莓派4與Jetson Nano參數(shù)對比表 31 表 5.1 各個神經(jīng)計算模型性能對比表 32 表 5.2 測試集圖片識別成功率 35 表 5.3 串口通信格式表 35 表 5.4 主控制器串口測試表 36 表 5.5 主處理器串口測試表 36 X 廣東東軟學院本科生畢業(yè)設計(論文) 第一章 緒論 1.1 課題研究背景與意義 1.1.1 研究背景 人類科技進步和城市化

20、極大的了改善人們的生活質量,生活垃圾產量也隨之水漲船高,“垃圾圍城”這一景象也在各大城市中不斷上演。 據(jù)《2019年全國大、中城市固體廢物污染環(huán)境防治年報》[1]顯示,2019年,全國202個大、中城市的生活垃圾產生量為21147.3萬噸。 圖 一.1 2014-2019年中國大、中城市生活垃圾產生量 表 一.1 2014-2019年信息發(fā)布城市數(shù)量 從上面數(shù)據(jù)可以看到,生活垃圾以每年一千萬噸的量在增長,這是一個驚人數(shù)據(jù)。而在國外,梅波克洛夫指出:,美利堅合眾國一年生成的城市固體廢棄物高達2.39億噸。這些垃圾,大多都是混合回收,在垃圾回收中心進行簡單回收后,再填埋到指定地區(qū)。

21、這種粗暴的垃圾處理方式,不僅占用珍貴的土地資源去填埋垃圾,又浪費了一些可回收的資源。 在2019年極具討論性的上海垃圾分類話題中,上海市實行了史上最嚴垃圾分類管理規(guī)定。根據(jù)官方發(fā)布數(shù)據(jù),截止至當年8月底,上海實現(xiàn)每天4500噸的可回收物回收,比去年年底多了5倍[19]之多。由此可見,在源頭對垃圾進行分類是垃圾分類與回收中極重要的一環(huán)。但是在上海實行的垃圾分類規(guī)定的管理中,可以看到很多都是通過人工去分類、監(jiān)管的,這種方式給人們的日常生活還是造成一定的困擾,例如只能定時扔垃圾、垃圾分類過于復雜等問題。而且,人們雖然認識到垃圾分類的作用,也覺得應該進行,但是對垃圾分類方法卻不是太了解[3],因此需

22、要一種輔助手段去幫助他們。 另一方面,隨著計算機技術的快速變革,深度學習作為機器學習的重要分支日益得到普及。如今世界處處都存在它的蹤跡,如股票行情預測、人臉識別及智能機器人等??梢哉f,它在智能制造行業(yè)里面有著非常光明的前景,而其中的圖像分類與檢測領域更是出類拔萃。 1.1.2 意義 正如日本水泥大王淺野總一郎所說的“在這個世界上沒有一件無用的東西,任何東西都是可以利用的”。如一般做填埋處理的濕垃圾可以通過厭氧發(fā)酵處理工藝[2]等技術實現(xiàn)生物發(fā)電,提高了對資源的利用率。從源頭上采取人工分揀的辦法,對垃圾進行分類回收,使其各盡其用;垃圾越早分揀,成分越簡單,也就越容易分揀[20]。傳統(tǒng)的人工

23、分揀方法,既對人健康不利,效率也不夠高。 因此,本文所設計的基于深度學習的智能分類垃圾桶,通過深度學習算法去分類垃圾類別,并且能根據(jù)不同地區(qū)的要求進行不同種類劃分,從而在源頭處自動對垃圾進行分類和處理。 其優(yōu)點在于:通過技術手段,既客觀上減輕了人們在垃圾分類上面的負擔,也讓主觀上缺乏分類垃圾意識的民眾也一起參與進來,這也符合當前的利用人工智能建設智能城市的市場發(fā)展趨勢。既能促進環(huán)保發(fā)展,又能減輕人們的日常生活負擔,使未來更美好。 1.2 國內外垃圾分類及研究現(xiàn)狀 1.2.1 國外現(xiàn)狀 .(1) 日本 日本對生活垃圾分類的處置采取精細化的態(tài)度,所以垃圾分類領域中名列各國第

24、一。其分類最主要就是在源頭處進行精細分類,共有15大類之多,并且對每一種垃圾都附有詳細的處理要求。如廢舊報紙要求要捆綁得整齊,而廢電器的電線則要求綁在它自身上[4]。但是這種方式,是日本從90年代就開始動員形成的,而且伴隨著高額的罰款。它的發(fā)展不是一蹴而就,而是經(jīng)歷了多個階段才最終形成現(xiàn)在的機制。 .(2) 美國 美國既是一個經(jīng)濟強國,也是一個垃圾產生大國。它本身有一套垃圾分類標準,而且還將垃圾處理形成了產業(yè)。在2018年,美國的清潔科技領域獲得超過40億美元的投資,其投資率相比17年增長了54%。美國垃圾分類機器人初創(chuàng)公司Clean Robotics更是在15年便將一部分智能分類垃圾桶投

25、入到了市場。但是其本身高昂的價格與分類效率低下使得其沒有鋪開來。而也有些公司采用終端處理方式,使用智能分類算法、機械臂和流水線結合的方式形式分類。 1.2.2 國內現(xiàn)狀 國內在垃圾分類處理方面雖然立法和建立試點城市的方法實施已久,但是由于宣傳和成本等問題,在國內沒有形成普遍的垃圾分類意識。同時,政府方面在政策上也沒有足夠支持,很多地方的分類垃圾桶,在進行垃圾回收時,采用的是混合回收,哪怕是在源頭進行分好,最終依然是混在一起。當然,這也與民眾平時也不按垃圾分類標準進行投放有關。2019年的上海最嚴垃圾分類規(guī)定的執(zhí)行,一方面看到了垃圾分類的必要性,另一方面也對民眾生活造成了一定困擾,甚至一度在

26、微博等社交網(wǎng)絡平臺形成了討論熱潮。 在目前的做法中,國內依然采用分類垃圾桶的方式,通過人工分類,手工投放的方式進行投放。當然,為了輔助人工分類,如阿里巴巴集團等公司也上線了手機app分類小程序對垃圾進行分類,還有是基于NB-IOT技術在本地拍照上傳到遠程服務器上進行識別,再返回分類結果后對垃圾進行分類投放到對應垃圾桶的方式[5]。 1.3 本文研究內容 本文主要是基于深度學習的智能分類垃圾桶研究與設計,通過基于深度學習的移動終端的輕量級卷積神經(jīng)系統(tǒng),針對移動終端或嵌入式設備,使用深度學習的圖像分類技術對垃圾桶內的垃圾進行檢測分類,然后通過電機結構將其投放到對應的桶體中。 本文各章節(jié)安排

27、如下: 第一章:緒論。講訴垃圾分類研究的背景和意義,接著介紹國內外在垃圾分類處理這方面的主要方法和現(xiàn)狀。 第二章:智能分類垃圾桶的總體設計。主要是通過分析需求從而確定系統(tǒng)的整體流程,然后分別表述了系統(tǒng)各個模塊和總體的運行流程。 第三章:介紹了卷積神經(jīng)網(wǎng)絡的一些基本術語和操作,同時介紹這一領域算法的逐步發(fā)展,由此引出本身使用MobileNetV2模型的原因。 第四章:智能垃圾桶控制系統(tǒng)硬件設計。主要是描述了垃圾桶的機械結構和硬件電路以及電機等內容。 第五章:系統(tǒng)實現(xiàn)及測試。介紹了模型的訓練過程和模塊之間的通信編碼以及通信測試等。最后對整個智能分類垃圾桶進行總體測試,證明分類的準確性。

28、 第二章 智能分類垃圾桶總體設計 2.1 概述 本項目中所設計的智能分類垃圾桶是基于深度學習實現(xiàn)的智能分類。通過安裝在垃圾桶中的USB攝像頭采集圖像傳送到作為處理中心的Jetson Nano上,然后Jetson Nano對圖像信息進行分類處理,再將處理后的結果通過串口傳輸?shù)絊TM32中,由STM32根據(jù)分類結果將垃圾投放到對應的桶體中。 2.2 系統(tǒng)分析及設計思路 主要是考慮到垃圾桶對垃圾分類并將其投放到相應的垃圾桶中是一個實時性要求很高的任務,而由終端拍攝照片或者傳輸視頻流的方式將采集樣本發(fā)送到云端,

29、再由云端處理完返回結果給終端再進行處理,這種方式耗時太長。而且在網(wǎng)絡波動較大的地方,更是難以使用。 本項目采用的是本地進行處理的方式。由于有Google公司提出的MobileNetV2算法跟NVIDIA公司開發(fā)的Jetson Nano平臺,使得在本地進行高效的圖像檢測分類成為了可能。這種方法避免了因為網(wǎng)絡波動而造成的識別時間過久甚至是無法識別的問題。 本項目中,采用的是模塊化設計的思路,分為識別分類模塊和控制模塊。這樣分類主要原因是Jetson Nano平臺是帶操作系統(tǒng)的,雖然本身有PWM輸出,但是其精準度依舊比不上MCU。因此在控制部分中采用STM32F103作為主控芯片,在接收到Jet

30、son Nano的分類信號后,控制步進電機去投放垃圾到對應的垃圾桶。Jetson Nano和STM32之間由于距離近,所以直接采用串口通信方式進行,避免了無線信號會出現(xiàn)的干擾問題。 2.3 系統(tǒng)框架 圖 二.1 系統(tǒng)總體框架 2.4 系統(tǒng)總體運行流程 2.4.1 主處理器及主控制器處理流程 圖 二.2 左A為主控制器處理流程 右B為主處理器處理流程 圖 二.3 系統(tǒng)總體運行流程 2.5 本章小結 本章主要分析了本項目的項目需求,然后根據(jù)項目需求去制定項目的運作流程。通過運作流程將系統(tǒng)分為控制模塊和處理模塊兩大模塊,通過分開模塊化操作,實現(xiàn)系統(tǒng)的穩(wěn)定運行。同時也介紹了

31、系統(tǒng)各個模塊和總體的運行流程。 第三章 智能垃圾分類圖像處理原理 3.1 卷積神經(jīng)網(wǎng)絡對圖像的基本操作 3.1.1 卷積操作 其實質是圖像矩陣和權值矩陣的點乘 卷積運算公式為 yn=xn?hn=?=0Nxi?n?? (三.1) 卷積計算的相關術語: .(1) Filter 過濾器,也稱卷積核,它的本質是卷積神經(jīng)網(wǎng)絡中的權值矩陣,通過在“二維平面”中運動,將卷積核包裹住的部分元素實行矩陣乘法,接著將計算得到的結果求和得到單個輸出像素值,從而實現(xiàn)對圖像

32、進行特征提取。 .(2) Stride 步長,一般小于卷積核的尺寸,主要用來驅動卷積核在圖像進行上滑動的長度。如果步長等于1,則向右滑動一格,步長為k,滑動k格,具體如圖 3.1 卷積在圖象中的計算圖示所示。 .(3) Padding 填充,就是使用額外的自定義像素(通常值為0,因此也稱零填充)填充圖像的邊緣。在不使用填充的情況下,卷積核很難采集到位于邊緣的像素的特征,邊緣的特征很容易就被忽略掉。而填充通過在邊緣外增加一圈假像素,使得卷積核的可以讓邊緣區(qū)域的像素處于卷積核的中心位置。這樣不僅能在卷積操作結束之后提取到邊緣像素的特征,也能產生與輸入矩陣尺寸相同的輸出矩陣。 .(4) F

33、eature Map 特征圖,卷積計算之后產生的圖像 .(5) 卷積后圖像尺寸 hin為輸入矩陣的高度,win為輸入矩陣的寬度,hout為輸出矩陣的高度,wout為輸出矩陣的寬度,F為卷積核的尺寸,P為填充值,S為步長 ?out=?in?F+PS+1 wout=win?F+PS+1 (三.2) .(6) 圖像中的卷積計算步驟 可分為以下三步: 求點積:將55的輸入矩陣中3x3深藍色區(qū)域中每個元素分別與其對應的權值矩陣相乘,然后再相加,得到輸出矩陣的第一個元素 滑動窗口:若步長為1,則將33權值矩陣向右移動一個格 重復操作:重復執(zhí)行“求點積-滑動窗口”操

34、作,直到輸出矩陣被填滿 圖 三.1 卷積在圖象中的計算圖示 y1,1=42+12 + 0 0 + 1 1 + 2 0 + 1 1 + 2 1 + 0 2 + 1 1 = 14 (三.3) y1,2=11+02 + 1 0 + 2 1 + 1 0 + 1 1 + 0 1 + 1 2 + 2 0 = 6 (三.4) y1,3=01+12 + 3 0 + 1 1 + 1 0 + 2 1 + 1 1 + 2 2 + 5 0 = 10 (三.5) 3.1.2 池化操作 在卷積層之后通常緊挨著一個降采樣層,通過減少矩陣的高度和

35、寬度,從而減少計算參數(shù),加快網(wǎng)絡運行的速度,這一操作就是池化操作。而降采樣就是降低特定信號的采樣率的過程。 池化包括均值池化和最大池化兩種: .(1) 均值池化 對池化區(qū)域內的像素點取均值,這種方法得到的特征數(shù)據(jù)對背景信息更敏感。 .(2) 最大池化 對池化區(qū)域內所有像素點取最大值,這種方法得到的特征數(shù)據(jù)對紋理特征信息更敏感,示例如圖 3.2所示 圖 三.2 左為平均池化 右為最大池化 3.2 LeNet網(wǎng)絡 3.2.1 綜述 Yann LeCun提出的第一個訓練成功的CNN模型:LeNet-5。該模型包含有輸入層、卷積層、池化層、全連接層和Softmax層。 圖

36、 三.3 LeNet-5神經(jīng)網(wǎng)絡模型 .(1) 輸入層 輸入層是整個神經(jīng)網(wǎng)絡的輸入節(jié)點。在LeNe網(wǎng)絡使用灰度圖來訓練和識別,所以其輸入為[32, 32, 1],其中3232是圖像的尺寸,而1代表的是圖像的通道數(shù)。 .(2) 卷積層 在本層使用卷積操作對輸入的圖像矩陣進行處理,以此來提取圖像特征。卷積操作增強特定的輸入特征,并且降低原始圖像的噪音。 .(3) 降采樣/池化層 本層采用的是平均池化,通過利用圖像的局部相關性原理,對圖像進行子抽樣。這種方法在保留有用信息的前提下,不僅能有效的降低神經(jīng)網(wǎng)絡的計算量,還能減少過擬合。 .(4) 全連接層 全連接層的本質為矩陣向量乘積計算

37、,該計算使用特征空間變換方法對輸入的特征圖進行處理,從而集成有用的信息。它的每一層的每個神經(jīng)元都和上一層所有神經(jīng)元相連接。該層結構如圖 3.4所示,其函數(shù)表達為 ai= wx1ix1+ wx2ix2+…+ wxnixn+bi (三.6) yi= wa1ia1+ wa2ia2+…+ wanian+bai (三.7) 圖 三.4 全連接層(從左到右分別為輸入層、隱藏層、輸出層) .(5) 激活函數(shù) 在神經(jīng)網(wǎng)絡中,激活函數(shù)作為一種特殊的映射法則,將特定的輸入映射到對應的輸出上。如圖 3.5所示,通過對上一層所有的節(jié)點的輸出值求加權和,然后生成一個非線性的輸出值,并將

38、其傳遞給下一層節(jié)點作為輸入值。LeNet中采用的激活函數(shù)是Sigmoid函數(shù),也稱S型函數(shù)它本身可導且導數(shù)非零,容易計算。 圖 三.5 激活函數(shù) Sigmiod函數(shù)定義 y=11+e?(z) (三.8) 圖 三.6 Sigmoid函數(shù)(S型函數(shù)) .(6) 損失函數(shù) 損失函數(shù)是用來估算預測值與真實值之間的不一致程度,它是一個非負實值函數(shù)。損失函數(shù)越小,模型的魯棒性就越好。而在目前的卷積神經(jīng)網(wǎng)絡中,通常是使用交叉熵作為損失函數(shù)。 Hp, q= ?xpxlogqx=p=0,q→0Hp,q→0其他 Hp,q>0p=1,q→1Hp,q→

39、0 (三.9) 交叉熵描述的是兩個概率分布之間的距離,p代表樣本的標簽值,而q代表預測值。通過交叉熵方法計算出來的值越小,即兩個概率分布的值越趨近,則預測越準確。交叉熵損失函數(shù)定義如下所示,其中yi為標簽值,而yi’為預測值 Loss= ?i=1nyi logyi (三.10) 3.2.2 特點 LeNet模型首次使用了卷積方法去提取圖像的空間特征,還使用了平均池化方式的池化層來降采樣,而在降采樣層后面使用了S型激活函數(shù)。 3.3 AlexNet網(wǎng)絡 3.3.1 概述 AlexNet網(wǎng)絡是ILSVRC-2012挑戰(zhàn)賽的冠軍,也是首個在大規(guī)模圖像問題中取得突

40、破性進展的深度神經(jīng)網(wǎng)絡[9]。下圖為AlexNet網(wǎng)絡結構 圖 三.7 AlexNet網(wǎng)絡 卷積神經(jīng)網(wǎng)絡的一大特點是模塊化的設計思維,通過卷積層-激活函數(shù)-池化層-標準化的有機組合方式,可以形成多種類型的模塊設計。如圖 三.7中的其中一種模塊設計就是:卷積層-激活函數(shù)(ReLU)-最大池化層。 3.3.2 特點 .(1) 使用ReLU函數(shù)作為激活函數(shù) ReLU函數(shù)定義 fx=max?(0,x) (三.11) 圖 三.8 ReLU函數(shù)圖像 ReLU函數(shù)有效規(guī)避了S型函數(shù)在神經(jīng)網(wǎng)絡層次加深的時候出現(xiàn)的梯度彌散問題。由于采用梯度下降法去訓練AlexNet網(wǎng)絡,因此飽

41、和非線性激活函數(shù)的學習速度要慢于不飽和非線性激活函數(shù)。 .(2) Dropout方法 在全連接層中,使之任意忽略掉一部分神經(jīng)元,從而在一定程度上遏制了過擬合的出現(xiàn)。 圖 三.9 Dropout方法 .(3) 重疊的最大池化操作 盡管常規(guī)的池化操作不會重疊,然而Alex-Net使用到了以下方法,其中卷積核尺寸大于移動的步長,從而達到了池化層重疊操作。如圖 三.2所示的就是池化層重疊。采用最大池化方法是為了除去平均池化帶來的模糊化結果,這也是一種避免過擬合的手段。 .(4) 使用GPU和CUDA加速神經(jīng)網(wǎng)絡的訓練 .(5) 數(shù)據(jù)增強 該技術主要是對圖像進行剪裁、翻轉、鏡像、放縮

42、等操作,在數(shù)據(jù)量較小的情況下增加數(shù)據(jù)量,從而減少過擬合 3.4 VGGNet網(wǎng)絡 從文章名[10]就可以看出來,VGGNet主要是嘗試了更深的結構。VGGNet有深度為16的VGG-16和深度為19的VGG-19。前者計算量相對較少的情況下獲得的準確率比較高,而后者計算量龐大,但是準確率最高。VGG-16的參數(shù)個數(shù)高達1.36億,而VGG-19更是達到了1.44億。 表 三.1 VGG網(wǎng)絡層數(shù)配置 表 三.2 VGGNet各個深度下的單張圖片的準確率 3.4.1 特點 .(1) VGGNet網(wǎng)絡取消了LRN層 主要原因是如表 三.2所示,經(jīng)過作者在ILSV

43、RC dataset上面進行驗證,發(fā)現(xiàn)LRN并不能提升模型的性能,反而會還會增加不少計算量[10]。 .(2) VGGNet網(wǎng)絡使用單一模塊 相比于后面的網(wǎng)絡,超參數(shù)稀少,網(wǎng)絡結構單一。但是相比于經(jīng)過Incepti-on、深度可卷積網(wǎng)絡等方法優(yōu)化過的結構,它本身的訓練參數(shù)過于龐大。 .(3) 使用3個33卷積核來代替77卷積核 根據(jù)“NTN(Network in Network)”的結果,使用三個33網(wǎng)絡來替代77的大卷積核,既不損失精度,又能提高性能。 .(4) 隨著網(wǎng)絡加深,圖片的高度和寬度不斷的以一定的規(guī)律縮減 3.5 GoogleNet網(wǎng)絡及Inception架構 3.5

44、.1 背景介紹 近些年來,為了獲得高質量的模型的最佳做法是增加模型的深度(即層數(shù))和寬度(即每一層的卷積核的數(shù)目或神經(jīng)元的數(shù)目)[11]。但是,這種做法會帶來以下問題: a) 參數(shù)增加過多,若訓練集的數(shù)據(jù)有限,則容易導致過擬合 b) 網(wǎng)絡越大,計算復雜度越大,難以實際應用 c) 梯度消失會隨著網(wǎng)絡的加深而愈加嚴重,最終影響訓練的成敗。 但是,另一個問題又出現(xiàn)了,那就是計算機的硬件對于非均勻稀疏數(shù)據(jù)的計算效率很差。 文章中提出使用從稀疏的連接結構的方法去解決上訴問題,此方法的依據(jù)是Hebbian準則。然后為了解決稀疏連接帶來的計算效率降低的問題,提出了通過使用多個稀疏矩陣并將其聚集為

45、相關的密集子矩陣來提高計算性能的想法。 3.5.2 InceptionV1 .(1) 概述 Inception結構主要是使用密集組件來替代最優(yōu)的局部稀疏結構。 圖 三.10 左圖為早期版本 右圖為改進版本 .(2) 不完善的InceptionV1結構 在上文中提到,卷積網(wǎng)絡是模塊化組成的。在高度稀疏的大型深層神經(jīng)網(wǎng)絡中,可以通過分析每個模塊最后一層的相關性,逐層構建局部最優(yōu)的網(wǎng)絡拓撲結構,從而將高度相關輸出的神經(jīng)元聚合起來。在深度較淺的層,相關的特征信息都集中在局部,并且將這些信息輸出到下一層。而這些信息再被11的卷積核再次提取。 這種做法對應圖 3.11,通過加大單個卷積層

46、的寬度,也就是說在一個卷積層里,使用不同大小的卷積核。而且由于池化層在別的文獻中都有不錯的表現(xiàn),以此也在該模塊中加入了一個池化層。再通過網(wǎng)絡自行調整內部參數(shù),來決定使用哪個過濾器,和是否使用池化層等,增強了網(wǎng)絡的自我學習效果 圖 三.11 通過不同的卷積核以及池化層實現(xiàn)的聚類 采用尺寸不同的卷積核意味著有不同的感受野,從而可以提取到多種不同尺寸的特征圖。而在最后的拼接層中,將不同尺寸的特征圖進行融合。 在該論文中采用的卷積核大小尺寸為11、33、55,是為了更容易對齊。將步長設為1后,再分別將填充設為0、1、2,這樣卷積后得到的特征圖的大小就一致了,再將這些特征圖堆疊聚合。雖然這

47、些特征圖的維度一致,但是由于33和55的卷積核有填充操作,因此他們提取到的特征的值是不一樣的,因此特征圖也就不一樣。 .(3) 完善后的InceptionV1結構 上述的模型存在一個很重要的問題就是,計算量過大,其中55的卷積共需要1.2億次的計算量,這與這個網(wǎng)絡的初衷(減少計算量)是不一致的。 針對這個問題,通過V1結構的作者的實踐,發(fā)現(xiàn)以下網(wǎng)絡替代可以有效的解決上述問題。示意圖如下所示: 圖 三.12 55卷積被替換方式 通過上圖可看到,完善后55卷積核的模型,為完善前的1/10。同理,也可以在33卷積核上應用這一種方法。同時,此結構中的11卷積層又被稱為“bottlenec

48、k”(瓶頸層)。因此,完善后的InceptioV1結構如下所示 圖 三.13 完善后的InceptionV1結構 .(4) 特點 a) 深度和寬度:模型總層數(shù)達到22層,增加了多種卷積核,11、33、55,以及MAX-POOL b) 為了避免上述增加寬度導致的計算量巨大的問題,在33、55卷積核前分別加上11d 卷積核,來降低計算量。 c) 使用Average Pooling代替全連接層,AlexNet的參數(shù)量是GoogleNet的12倍之多,GoogleNet的Top5的錯誤率為6.67%,相比AlexNet提高了10個百分點。但在最后仍添加一個全連接層,以便以后微調分類輸出。

49、 d) 添加了兩個輔助分類器。經(jīng)過論文作者驗證,輔助分類器在訓練早期對精度的提升不大,但是在訓練快要結束的時候,相比于沒有添加輔助分類器的模型準確率會更高。 3.5.3 InceptionV2 .(1) 概述 在InceptionV1中為了獲得不同的感受野,而大的卷積核能帶來大的感受野,因此采用了55的大卷積核。雖然經(jīng)過了InceptionV1結構的優(yōu)化后,參數(shù)減少了很多。但是經(jīng)過計算,在卷積核數(shù)目相同的情況下,55的卷積核的計算成本高出33卷積核2.78倍。 改進后的結構被稱為InceptionV2結構。它用兩個級聯(lián)的33卷積核代替龐大的55的卷積核。同時,論文提出了一個非常強大的

50、算法,即Batch Normalization(BN方法)。 圖 三.14 兩個連續(xù)33卷積核替代55卷積核 圖 三.15 InceptionV2結構 .(2) BN方法 BN方法的靈感來源于機器學習中的常用的規(guī)范化數(shù)據(jù)的方法:白化。但是這種方法計算成本過高,因此該文提出了BN方法,希望既能減少計算量,又能讓數(shù)據(jù)盡可能保留原始的表達能力。 BN是一類強大的正則化的處理方法,它的作用范圍是神經(jīng)網(wǎng)絡中一層所有的feature map,即它不是對某一張圖片的feature map進行標準化處理,而是一個小規(guī)模的數(shù)據(jù)樣本的所有feature map,從而使一整層的輸出契合N(0,1

51、)的正態(tài)分布。 圖 三.16 BN方法計算公式 原文中描述:對于一個擁有d維的輸入x,將其所有維度進行標準化處理。例如:輸入圖像是RGB三通道,則d等于圖像的通道數(shù)等于3,而x=(x1,x2,x3),其中x1就代表R通道所對應的特征矩陣。 圖 三.17 BN方法計算示例 3.5.4 InceptionV3 .(1) 概述 該模型依舊是以Inception系列模型為基礎進行優(yōu)化。在InceptionV2網(wǎng)絡中,我們發(fā)現(xiàn)一個55的卷積核可以被兩個33的卷積核給替換掉,從而明顯的減少了參數(shù)量。作者在此基礎上思考,是否還能對此進行進一步的拆分。從而提出了空間不對稱卷積分解的思路,即

52、兩個相對小的一維卷積替換掉一個大的二維卷積。 .(2) 大卷積核分解 該方法是使用不對稱卷積思想,經(jīng)過作者[12]實際驗證,使用非對稱卷積去對大的卷積核進行拆分,即n1的卷積核,實際效果比22的卷積核效果更好。 圖 三.18 使用31和13的非對稱卷積替代33卷積 圖 三.19 InceptionV3結構 如上圖所示,使用一個31和13的卷積的級聯(lián)去替代一個33的卷積。這種方式可以削減一部分網(wǎng)絡參數(shù),增加計算速度和降低過擬合程度。而且由于多了一個卷積層,模型的表達能力得到增強。 3.6 ResNet網(wǎng)絡 3.6.1 綜述 卷積神經(jīng)網(wǎng)絡的層數(shù)對分類識別效果中起很大作用。然

53、而一般的神經(jīng)網(wǎng)絡層數(shù)不斷堆疊加深,不一定會帶來好的效果。下圖為何凱明博士針對不同層數(shù)的模型做的測試。發(fā)現(xiàn)56層的深度網(wǎng)絡時,表現(xiàn)還不如20層的深度。這種稱為網(wǎng)絡梯度消失或者網(wǎng)絡退化。 圖 三.20 常規(guī)深度網(wǎng)絡過深會導致深層網(wǎng)絡訓練效果反而不如淺層網(wǎng)絡 3.6.2 殘差結構 如圖 3.21 殘差塊(Residual Black)所示,作者提出了一個殘差函數(shù)F(x)=H(x)-x,x為該結構的深入,期望輸出是H(x),而堆疊的非線形層結果F(x)即為我們學習的目標。以下結構也被稱為殘差學習單元。 圖 三.21 殘差塊(Residual Black) 文中將輸入x傳輸?shù)捷敵鯤(x

54、)中的方法使用的是“Shortcut Connections”(捷徑連接),指的是在網(wǎng)絡的輸入層添加一個線形層直接連接到輸出層。在ResNet網(wǎng)絡中,shortcut Connections將輸入x與組合而成的非線性層的輸出相加,即允許原始圖像的輸入信息直接傳輸?shù)胶竺娴膶又小? 圖 三.22 Shortcut Connections示例 在殘差網(wǎng)絡中,將x[m]復制到更深層的網(wǎng)絡節(jié)點中,然后在后續(xù)節(jié)點的激活層前面加上x[m], 這樣原始信息就可以直接傳達到更深層網(wǎng)絡。殘差塊使更深層的網(wǎng)絡構造成為可能。因此,可以使用殘差塊疊加構造ResNet神經(jīng)網(wǎng)絡。 圖 三.23 圖左為Optio

55、n A 圖右為Option B 表 三.3 ResNet網(wǎng)絡層數(shù)配置 在ResNet網(wǎng)絡中,深度較淺的網(wǎng)絡ResNet-34采用的是Option A方式構造殘差模塊,而ResNet-50及以上則采用Option B方式構建殘差模塊。其中, 11的卷積核主要是用來降維以及升維使用。堆疊的非線性層與Shortcut的輸出矩陣必須一致。 3.7 MobileNet 3.7.1 背景介紹 在現(xiàn)實中,如無人駕駛汽車、機器人等產品,使用的往往是性能受限的嵌入式設備,這要求神經(jīng)網(wǎng)絡模型的體積和計算量不能太大。因此,我們需要一個既能保持高準確率又能在嵌入式設備中高速運行的網(wǎng)絡模型[14]。

56、3.7.2 MobileNetV1 .(1) 深度可分離卷積(Depthwise Separable Convolution) MobileNet所用的深度可分離卷積是可分離卷積[12]的一種變形,它將一般卷積分為深度卷積和11的逐點卷積兩個部分。 圖 三.24 深度卷積與逐點卷積 深度卷積中的每一個卷積核負責一個輸入矩陣的chennel,所以輸出矩陣的channel等于卷積核的個數(shù)等于輸入矩陣的chennel。而點卷積則是傳統(tǒng)卷積,只不過特定卷積核尺寸為11。通過深度可分離卷積,可以有效的減少模型的參數(shù)量,從而提高計算速度。在文中,經(jīng)過計算后得出的結論是,深度可分卷積的計算速度是

57、普通卷積的8~9倍。 .(2) 模型收縮超參數(shù)(Model Shrinking Hyperparameters) a) 為了使模型的計算量更少,作者增加了兩個超參數(shù),α(Width Multiplie)和β(Resolution Mult-iplie)。 b) 寬度乘數(shù)α(Width Multiplie):用來改變輸入輸出的chennel,減少feature map的數(shù)量,減少網(wǎng)絡的厚度。其中α的取值為[0,1]。 c) 分辨率乘數(shù)β(Resolution Mult-iplie):用來改變輸入層的分辨率,同樣可以減少網(wǎng)絡的參數(shù)量 3.7.3 MobileNetV2 .(1) 倒殘差

58、結構(Inverted Residuals) MobileNetV2主要是基于MobileNetV1進行改進的。為了提升梯度的跨層傳播能力,因此將殘差結構添加到了MobileNetV2網(wǎng)絡中,提出了一種新的結構,倒殘差結構。 圖 三.25 兩種倒殘差結構 在引用殘差結構的時候,作者提出了兩種殘差結構模型,如圖 三.25所示。經(jīng)過作者的實驗驗證,(b)中的倒殘差結構有著更好的內存利用效率。 同時為了在嵌入式設備中也能使用16位較低精度的浮點數(shù)去精確的描述數(shù)值,作者使用ReLU6替換了ReLU非線性激活函數(shù)。 ReLU6函數(shù)定義為 ReLU6=min?(max0,x,6

59、) (三.12) 圖 三.26 ReLU6函數(shù)圖像 .(2) Linear Bottlenecks 作者做了個實驗,使用一個二維的圖像做輸入,然后采用不同維度的矩陣T對該圖像進行卷積操作并提取相關的圖像特征。再使用ReLU激活函數(shù)得到它的輸出值,接著使用矩陣T的逆矩陣T-1將之前得到的輸出矩陣還原。得出如圖 3.27所示結果。從圖中可以看出,ReLU激活函數(shù)會對低維特征信息造成較大損失,而高維特征造成的損失不大。 圖 三.27 不同維度下使用ReLU激活函數(shù)后再還原的圖像 基于上述所說的問題,因此在MobileNetV2結構中的第二個逐點卷積層中去掉ReLU6激活函數(shù),直接

60、使用線性連接。 .(3) MobileNetV2結構及模型 圖 三.28 MobileNetV2結構 在上圖中提到在Stride=1的時候就需要使用捷徑連接,但是在實際上是需要同時滿足stride=1且輸入矩陣與輸出矩陣的shape相同兩個條件時才能使用捷徑連接,不然shape不同的矩陣根本無法進行加法操作的。 表 三.4 MobileNetV2網(wǎng)絡層數(shù)配置 表 三.4中的t是拓展因子,c是輸出特征矩陣的深度channel,n是bottleneck的重復次數(shù),s是步距(僅針對第一層,其他層均為1)。 表 三.5 MobileNetV2網(wǎng)絡在ImageNet數(shù)據(jù)集上性能和參數(shù)

61、對比 表 三.6 MobileNetV2網(wǎng)絡在COCO數(shù)據(jù)集上性能和參數(shù)對比 3.8 本章小結 本章主要介紹了卷積神經(jīng)網(wǎng)絡在圖像識別領域的發(fā)展脈絡。首先從Alex這個ILSVRC-2012挑戰(zhàn)賽的冠軍開始,分別介紹了AGGNet、GoogleNet、ResNet這些給深度卷積神經(jīng)網(wǎng)絡帶來顯著進步的網(wǎng)絡模型。最后通過對比前面的龐大的卷積神經(jīng)網(wǎng)絡,從而體現(xiàn)了MobileNet及MobileNetV2網(wǎng)絡體積小的優(yōu)點。 第四章 智能垃圾桶控制系統(tǒng)硬件設計 4.1 智能垃圾桶整體結構分布 圖 四.1 垃圾桶整體結構 4.2 STM32硬件系統(tǒng)框架

62、 圖 四.2 STM32主控模塊 STM32接收Jetson Nano通過串口發(fā)送過來的垃圾分類信號,接收到信號之后,判斷接收到的垃圾類別。然后根據(jù)垃圾類別去驅動57步進電機轉動,從而帶動垃圾桶旋轉到對應的分類垃圾桶體。接著驅動42步進電機將暫時存放垃圾的托盤拉起,使垃圾下落到垃圾桶中。再將垃圾托盤收起,垃圾桶轉回原來位置。 4.3 STM32微處理器 微處理器也可稱單片機,它相比于原來的通用計算機而言,有著成本低廉、使用方式靈活和易于產品化等特點。在本項目中,選擇STM32F429作為整個主控模塊的核心處理器,它是一個32位的微處理器,本身主頻高達180M,本身外設資源及其豐富。 4

63、.4 步進電機與步進電機驅動器 4.4.1 步進電機 步進電機是一種能夠產生電磁轉矩的電磁鐵,它接收外部的電脈沖信號并將其轉換為角度位移或者直線位移,電磁脈沖信號又被稱為數(shù)字控制信號[16]。當它每接收到一個脈沖的信號的時候,便會轉動一個角度,這個角度就叫做步距角。因此,如果要它的旋轉角度和旋轉速度,只需要控制單位時間內發(fā)送的脈沖信號的個數(shù)即可。 由于本項目要在底部旋轉分類垃圾桶,需要一個強有力的電機,因此本項目中采取了57步進電機作為動力源。而收放托盤需要的力相對較小,因此可以使用42步進電機。 表 四.1 步進電機參數(shù)表 4.4.2 步進電機驅動器 由于本文中所用的步進電機

64、運行所需要的電流比較大,尤其是57步進電機需要3A的電流,STM32最小系統(tǒng)本身無法驅動這么大的電流。步進電機驅動器是驅動步進電機運行的功率放大器,它可以提供步進電機所需要的能源。而驅動器性能的優(yōu)劣會直接影響到步進電機性能的測試結果[17]。在項目開發(fā)中,在前期由于驅動器選取不當,導致步進電機經(jīng)常發(fā)生丟步現(xiàn)象,后來更換了驅動器之后才正常運轉。 本文中選取的電機驅動器采用DM542芯片,能夠提供最大5A的電流供給電機使用。 圖 四.3 電機驅動器連接圖 4.5 Jetson Nano Jetson Nano是一款專門為AI應用而設計的開發(fā)板。采用1.4Ghz的ARM-A57芯片,12

65、8核Nvidia Maxwell GPU和4GB RAM。它運行的官方系統(tǒng)是Ubuntu 18.04的一個定制版本,名稱為Linux4Tegra,主要設計在NVIDIA的硬件上運行。該系統(tǒng)預配置了CUDA跟TensorRT組件,因此可以使用CUDA對卷積神經(jīng)網(wǎng)絡計算進行加速。它本身也集成了UART、I2C等外設通信組件。 圖 四.4 Jetson Nano B01底板 如圖 四.4所示,Jetson Nano引出來了40個GPIO口,布局與樹莓派一致。但是Jetson Nano的GPIO口的電流特別弱,因此使用的時候需要使用額外的供電電路去驅動電子元器件。 本項目最初考慮使用的主處理

66、器是樹莓派,但是樹莓派本身只有一個ARM的CPU能夠用作神經(jīng)網(wǎng)絡計算,而Jetson Nano除了有CPU還配置了專為AI設計的GPU。而且顯卡上附帶的顯存對于本身最大內存只有4G的機器來說重要性不言而喻。 表 四.2 樹莓派4與Jetson Nano參數(shù)對比表 圖 四.5 神經(jīng)計算性能對比 通過上圖可以看到,在各種模型計算中,Jetson Nano的運算性能完勝樹莓派加英特爾第二代神經(jīng)網(wǎng)絡計算棒的組合。 4.6 本章小結 本章主要介紹了垃圾桶的物理結構以STM32、電機和Jetson Nano等硬件設備。 第五章 系統(tǒng)實現(xiàn)及測試 5.1 識別算法選取與訓練 5.1.1 MobileNetV2 因為要在嵌入式設備上運行,所以模型的計算量和體積是首要的考慮因素,實際使用中,不可能讓機器運行好幾分鐘去分辨識別一次垃圾。而選擇進行本地識別,也有一部分原因是基于設備運行時間考慮的。因

展開閱讀全文
溫馨提示:
1: 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

相關資源

更多
正為您匹配相似的精品文檔
關于我們 - 網(wǎng)站聲明 - 網(wǎng)站地圖 - 資源地圖 - 友情鏈接 - 網(wǎng)站客服 - 聯(lián)系我們

copyright@ 2023-2025  zhuangpeitu.com 裝配圖網(wǎng)版權所有   聯(lián)系電話:18123376007

備案號:ICP2024067431-1 川公網(wǎng)安備51140202000466號


本站為文檔C2C交易模式,即用戶上傳的文檔直接被用戶下載,本站只是中間服務平臺,本站所有文檔下載所得的收益歸上傳人(含作者)所有。裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對上載內容本身不做任何修改或編輯。若文檔所含內容侵犯了您的版權或隱私,請立即通知裝配圖網(wǎng),我們立即給予刪除!