• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      谷歌Tensorflow框架在自動(dòng)駕駛汽車車輛識(shí)別功能中的應(yīng)用

      2018-10-26 08:19:22吳麗華
      汽車實(shí)用技術(shù) 2018年20期
      關(guān)鍵詞:池化層圖像識(shí)別框架

      吳麗華

      ?

      谷歌Tensorflow框架在自動(dòng)駕駛汽車車輛識(shí)別功能中的應(yīng)用

      吳麗華

      (比亞迪產(chǎn)品規(guī)劃及汽車新技術(shù)研究院,廣東 深圳 518118)

      文章研究了基于谷歌深度學(xué)習(xí)框架Tensorflow的圖像識(shí)別在智能駕駛汽車領(lǐng)域里應(yīng)用的可能性。使用卷積神經(jīng)網(wǎng)絡(luò)模型,將車輛圖片作為訓(xùn)練集輸入神經(jīng)網(wǎng)絡(luò),通過多次訓(xùn)練校正神經(jīng)網(wǎng)絡(luò)參數(shù),最終可以得到可以識(shí)別汽車圖片的神經(jīng)網(wǎng)絡(luò)模型。通過學(xué)習(xí)Tensorflow建模,編程的完整流程,為進(jìn)一步使用Tensorflow構(gòu)建圖像識(shí)別應(yīng)用打下了基礎(chǔ)。

      Tensorflow;卷積神經(jīng)網(wǎng)絡(luò);圖像識(shí)別

      1 概述

      Tensorflow是谷歌基于DisBelief進(jìn)行研發(fā)的新一代深度學(xué)習(xí)軟件庫。 Tensorflow為張量從流圖的一端流動(dòng)到另一端的計(jì)算過程。是一個(gè)將復(fù)雜的數(shù)據(jù)結(jié)構(gòu)傳輸至深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中進(jìn)行分析和處理過程的系統(tǒng)。本文基于tensorflow框架,搭建了一套完整的車輛圖片識(shí)別系統(tǒng),對(duì)深度學(xué)習(xí)的圖像獲取與預(yù)處理,識(shí)別訓(xùn)練,識(shí)別結(jié)果整定方面做了詳細(xì)的研究。

      2 Tensorflow深度學(xué)習(xí)框架

      Tensorflow使用圖來表示計(jì)算任務(wù),在執(zhí)行計(jì)算操作之前需要將圖構(gòu)建完成。每一個(gè)非葉子節(jié)點(diǎn)都視為一種操作,葉子節(jié)點(diǎn)則表示特殊的操作類型,比如返回常量值或者變量值。創(chuàng)建圖的最后階段需要向圖中添加一個(gè)初始化操作的節(jié)點(diǎn),其作用是將所有的變量進(jìn)行初始化。圖創(chuàng)建完成后,才能啟動(dòng)圖。啟動(dòng)圖的第一步是創(chuàng)建一個(gè)Session對(duì)象,如果無任何創(chuàng)建參數(shù),會(huì)話構(gòu)造器將啟動(dòng)默認(rèn)圖。然后進(jìn)行變量的初始化操作、運(yùn)行操作節(jié)點(diǎn)、更新變量值。在神經(jīng)網(wǎng)絡(luò)優(yōu)化算法中,最常用的方法是反向傳播算法。圖1主要展示了使用反向傳播算法訓(xùn)練神經(jīng)網(wǎng)絡(luò)的流程圖。反向傳播算法需要實(shí)現(xiàn)一個(gè)迭代的過程。在每次迭代的開始,需要選取小部分訓(xùn)練數(shù)據(jù),通過計(jì)算訓(xùn)練數(shù)據(jù)的預(yù)測(cè)答案與真實(shí)答案進(jìn)行比對(duì),相應(yīng)的更新神經(jīng)網(wǎng)絡(luò)的參數(shù),從而達(dá)到優(yōu)化模型的目的。

      圖1 神經(jīng)網(wǎng)絡(luò)反向傳播優(yōu)化流程圖

      3 TF構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)

      本文采用的訓(xùn)練模型是仿照LeNet5 CNN架構(gòu),LeNet 5最早是在1998年由Yann Lecun博士提出的。它是最早的CNN之一,專門用于對(duì)手寫數(shù)字進(jìn)行分類。就是兩個(gè)卷積層(每個(gè)卷積層后加一個(gè)池化層)加兩個(gè)全連接層加最后一個(gè)softmax輸出分類結(jié)果。

      Lenet5架構(gòu)如下圖所示:

      圖2 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

      本文的構(gòu)建的TF卷積神經(jīng)網(wǎng)絡(luò)主要有5種結(jié)構(gòu)組成:

      (1)輸入層。輸入層是整個(gè)神經(jīng)網(wǎng)絡(luò)的輸入,在處理圖像的卷積神經(jīng)網(wǎng)絡(luò)中,它一般代表了一張圖片的像素矩陣。

      (2)卷積層。從名字就可以看出,卷積層是一個(gè)卷積神經(jīng)網(wǎng)絡(luò)中最為重要的部分。卷積層中每一個(gè)節(jié)點(diǎn)的輸入只是上一層神經(jīng)網(wǎng)絡(luò)的一小塊,這個(gè)小塊常用的有3*3或者5*5。卷積層試圖將神經(jīng)網(wǎng)絡(luò)中的每一小塊進(jìn)行更加深入地分析從而得到抽象程度更高的特征。

      (3)池化層(pooling)。池化層神經(jīng)網(wǎng)絡(luò)不會(huì)改變?nèi)S矩陣的深度,但是它可以縮小矩陣的大小。

      (4)全連接層。如圖所示,在經(jīng)過多輪卷積層和池化層的處理之后,在卷積神經(jīng)網(wǎng)絡(luò)的最后一般會(huì)是由1到2個(gè)全連接層來給出最后的分類結(jié)果。

      (5)Softmax層,該層主要用于分類問題。通過softmax層,可以得到當(dāng)前樣例屬于不同種類的概率。

      程序運(yùn)行構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò),讀取已經(jīng)打亂順序的訓(xùn)練圖像集,每訓(xùn)練一遍則保存新的ckpt文件,該文件為訓(xùn)練模型的參數(shù)文件。通過調(diào)整訓(xùn)練步長和訓(xùn)練次數(shù),我們就可以訓(xùn)練出可以使用的模型文件。訓(xùn)練程序代碼如下:

      def run_training():

      train_dir = '/data/train/'

      logs_train_dir = '/logs/train/'

      train,train_label = input_data.get_files(train_dir)

      train_batch,train_label_batch = input_data.get_batch(train, train_label,IMG_W,IMG_H,BATCH_SIZE,CAPACITY)

      train_logits = model.inference(train_batch, BATCH_SIZE, N_CLASSES)

      train_loss = model.losses(train_logits, train_label_batch)

      train_op = model.trainning(train_loss, learning_rate)

      train_acc = model.evaluation(train_logits,train_label_batch)

      summary_op = tf.summary.merge_all()

      sess = tf.Session()

      train_writer = tf.summary.FileWriter ( logs_train_dir, sess. graph)

      saver = tf.train.Saver()

      sess.run(tf.global_variables_initializer())

      coord = tf.train.Coordinator()

      threads = tf.train.start_queue_runners (sess=sess,coord= coord)

      try:

      for step in np.arange(MAX_STEP):

      if coord.should_stop():

      break

      _,tra_loss,tra_acc = sess.run([train_op,train_loss,train_acc])

      if step % 50 == 0:

      print('Step %d, train loss = %.2f, train accuracy = %.2f%%' %(step, tra_loss, tra_acc))

      summary_str = sess.run(summary_op)

      train_writer.add_summary(summary_str, step)

      if step % 2000 == 0 or (step + 1) == MAX_STEP:

      checkpoint_path = os.path.join(logs_train_dir, 'mode2. ckpt')

      saver.save(sess, checkpoint_path, global_step = step)

      except tf.errors.OutOfRangeError:

      print ('Done training -- epoch limit reached')

      finally:

      coord.request_stop()

      coord.join(threads)

      sess.close()

      然后,運(yùn)用訓(xùn)練好的模型,我們可以代入ckpt參數(shù)文件,檢測(cè)測(cè)試圖片分辨類別。代碼實(shí)例如下:

      with tf.Session() as sess:

      print('reading checkpoints...')

      ckpt = tf.train.get_checkpoint_state(logs_train_dir)

      if ckpt and ckpt.model_checkpoint_path:

      global_step =ckpt.model_checkpoint_ path.split('/') [-1]. split('.')[-1]

      saver.restore(sess,ckpt.model_checkpoint_path)

      print('Loading success, global_step is %s'% global_step)

      else:

      print ('No checkpoint file found')

      prediction = sess.run(logit, feed_dict={x: image_array})

      max_index = np.argmax(prediction)

      通過訓(xùn)練模型,最終可以得到訓(xùn)練集的正確率為 100%;測(cè)試集數(shù)據(jù)集正確率為 90%以上。

      4 總結(jié)

      本文構(gòu)建了一種基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別方法,由輸入層,卷積層,池化層,全連接層和softmax層構(gòu)成,對(duì)于識(shí)別圖像有著不錯(cuò)的效果。目前,深度學(xué)習(xí)廣泛的應(yīng)用于學(xué)術(shù)界和工業(yè)界。Tensorflow有著編程簡單、優(yōu)化算法集成度高,使用靈活的特性,利用Tensorflow將會(huì)使建模,編程,分析效率大大提高。本文介紹了Tensorflow平臺(tái)下神經(jīng)網(wǎng)絡(luò)模型構(gòu)建的一般方法和流程,并且得到了較高識(shí)別率精度的模型。對(duì)構(gòu)建更復(fù)雜的神經(jīng)網(wǎng)絡(luò)具有一定的參考意義。

      [1] 章敏敏,徐和平等.谷歌Tensorflow機(jī)器學(xué)習(xí)框架及應(yīng)用[J].微型機(jī)與應(yīng)用,2017(5).

      [2] 曹大有,胥帥.基于Tensorflow預(yù)訓(xùn)練模型快速、精準(zhǔn)的圖像分類器[J].漢江師范學(xué)院院報(bào),2017(3).

      [3] 鄭澤宇,顧思宇.Tensorflow 實(shí)戰(zhàn)Google深度學(xué)習(xí)框架[m].電子工業(yè)出版社.

      [4] 黃文堅(jiān),唐源.tensorflow實(shí)戰(zhàn)[m].中國工信出版集團(tuán),電子工業(yè)出版社.

      Application of Google Tensorflow Framework in Automatic Driving Vehicle Identification Function

      Wu Lihua

      (BYD Product Planning and Automotive New Technology Research Institute,Guangdong Shenzhen 518118)

      This paper make the research on the Google deep learning Framework, Tensorflow, and study the image recognition utilization possibility in the intelligent drive area. The model used in this paper is based on Convolutional Neural Network (CNN), we collect auto images for the image data set, which used as training set. Through multiple training tests we set the parameters of the Convolutional Neural Network and set up one CNN model used for auto image recognition. During the tensorflow model programming process, we set up the whole process for deep learning training, which are useful for the later tensorflow image recognition applications.

      Tensorflow; Convolutional Neural Network; image recognition

      U471.4

      B

      1671-7988(2018)20-38-03

      U471.4

      B

      1671-7988(2018)20-38-03

      吳麗華,就職于比亞迪產(chǎn)品規(guī)劃及汽車新技術(shù)研究院。

      10.16638/j.cnki.1671-7988.2018.20.013

      猜你喜歡
      池化層圖像識(shí)別框架
      框架
      卷積神經(jīng)網(wǎng)絡(luò)模型研究分析*
      基于卷積神經(jīng)網(wǎng)絡(luò)的紙幣分類與點(diǎn)鈔
      廣義框架的不相交性
      基于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的人體行為識(shí)別研究
      科技傳播(2020年6期)2020-05-25 11:07:46
      基于Resnet-50的貓狗圖像識(shí)別
      電子制作(2019年16期)2019-09-27 09:34:50
      高速公路圖像識(shí)別技術(shù)應(yīng)用探討
      圖像識(shí)別在物聯(lián)網(wǎng)上的應(yīng)用
      電子制作(2018年19期)2018-11-14 02:37:04
      圖像識(shí)別在水質(zhì)檢測(cè)中的應(yīng)用
      電子制作(2018年14期)2018-08-21 01:38:16
      基于全卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)分類*
      宁津县| 卓尼县| 鲁甸县| 柳州市| 兰州市| 遵义县| 安福县| 拜泉县| 和田县| 乐山市| 衡山县| 抚顺市| 沙洋县| 连州市| 满洲里市| 永吉县| 舞阳县| 新和县| 贵港市| 莱阳市| 简阳市| 绥芬河市| 汝城县| 涿鹿县| 余姚市| 泗阳县| 泌阳县| 台南县| 县级市| 西贡区| 邢台县| 澎湖县| 庄浪县| 丁青县| 石狮市| 文水县| 句容市| 丽水市| 大理市| 巴东县| 兴文县|