0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何利用Tensorflow搭建神經(jīng)網(wǎng)絡(luò)?

lviY_AI_shequ ? 來源:未知 ? 作者:胡薇 ? 2018-09-17 17:20 ? 次閱讀

在筆記7中,筆者和大家一起入門了 Tensorflow的基本語法,并舉了一些實(shí)際的例子進(jìn)行了說明,終于告別了使用numpy手動(dòng)搭建的日子。所以我們將繼續(xù)往下走,看看如何利用 Tensorflow搭建神經(jīng)網(wǎng)絡(luò)模型。

盡管對于初學(xué)者而言使用Tensorflow看起來并不那么習(xí)慣,需要各種步驟,但簡單來說,Tensorflow搭建模型實(shí)際就是兩個(gè)過程:創(chuàng)建計(jì)算圖和執(zhí)行計(jì)算圖。在 deeplearningai 課程中,NG和他的課程組給我們提供了Signs Dataset(手勢)數(shù)據(jù)集,其中訓(xùn)練集包括1080張64x64像素的手勢圖片,并給定了 6 種標(biāo)注,測試集包括120張64x64的手勢圖片,我們需要對訓(xùn)練集構(gòu)建神經(jīng)網(wǎng)絡(luò)模型然后對測試集給出預(yù)測。

先來簡單看一下數(shù)據(jù)集:

# Loading the datasetX_train_orig, Y_train_orig, X_test_orig, Y_test_orig, classes = load_dataset()# Flatten the training and test imagesX_train_flatten = X_train_orig.reshape(X_train_orig.shape[0], -1).T X_test_flatten = X_test_orig.reshape(X_test_orig.shape[0], -1).T# Normalize image vectorsX_train = X_train_flatten/255.X_test = X_test_flatten/255.# Convert training and test labels to one hot matricesY_train = convert_to_one_hot(Y_train_orig, 6) Y_test = convert_to_one_hot(Y_test_orig, 6)print ("number of training examples = " + str(X_train.shape[1]))print ("number of test examples = " + str(X_test.shape[1]))print ("X_train shape: " + str(X_train.shape))print ("Y_train shape: " + str(Y_train.shape))print ("X_test shape: " + str(X_test.shape))print ("Y_test shape: " + str(Y_test.shape))

下面就根據(jù) NG 給定的找個(gè)數(shù)據(jù)集利用Tensorflow搭建神經(jīng)網(wǎng)絡(luò)模型。我們選擇構(gòu)建一個(gè)包含 2 個(gè)隱層的神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)大致如下:LINEAR -> RELU -> LINEAR -> RELU -> LINEAR -> SOFTMAX正如我們之前利用numpy手動(dòng)搭建一樣,搭建一個(gè)神經(jīng)網(wǎng)絡(luò)的主要步驟如下:-定義網(wǎng)絡(luò)結(jié)構(gòu)-初始化模型參數(shù)-執(zhí)行前向計(jì)算/計(jì)算當(dāng)前損失/執(zhí)行反向傳播/權(quán)值更新

創(chuàng)建 placeholder

根據(jù)Tensorflow的語法,我們首先創(chuàng)建輸入X和輸出Y的占位符變量,這里需要注意shape參數(shù)的設(shè)置。

def create_placeholders(n_x, n_y): X = tf.placeholder(tf.float32, shape=(n_x, None), name='X') Y = tf.placeholder(tf.float32, shape=(n_y, None), name='Y') return X, Y

初始化模型參數(shù)

其次就是初始化神經(jīng)網(wǎng)絡(luò)的模型參數(shù),三層網(wǎng)絡(luò)包括六個(gè)參數(shù),這里我們采用Xavier初始化方法:

def initialize_parameters(): tf.set_random_seed(1) W1 = tf.get_variable("W1", [25, 12288], initializer = tf.contrib.layers.xavier_initializer(seed = 1)) b1 = tf.get_variable("b1", [25, 1], initializer = tf.zeros_initializer()) W2 = tf.get_variable("W2", [12, 25], initializer = tf.contrib.layers.xavier_initializer(seed = 1)) b2 = tf.get_variable("b2", [12, 1], initializer = tf.zeros_initializer()) W3 = tf.get_variable("W3", [6, 12], initializer = tf.contrib.layers.xavier_initializer(seed = 1)) b3 = tf.get_variable("b3", [6,1], initializer = tf.zeros_initializer()) parameters = {"W1": W1, "b1": b1, "W2": W2, "b2": b2, "W3": W3, "b3": b3} return parameters

執(zhí)行前向傳播

def forward_propagation(X, parameters): """ Implements the forward propagation for the model: LINEAR -> RELU -> LINEAR -> RELU -> LINEAR -> SOFTMAX """ W1 = parameters['W1'] b1 = parameters['b1'] W2 = parameters['W2'] b2 = parameters['b2'] W3 = parameters['W3'] b3 = parameters['b3'] Z1 = tf.add(tf.matmul(W1, X), b1) A1 = tf.nn.relu(Z1) Z2 = tf.add(tf.matmul(W2, A1), b2) A2 = tf.nn.relu(Z2) Z3 = tf.add(tf.matmul(W3, A2), b3) return Z3

計(jì)算損失函數(shù)

在Tensorflow中損失函數(shù)的計(jì)算要比手動(dòng)搭建時(shí)方便很多,一行代碼即可搞定:

def compute_cost(Z3, Y): logits = tf.transpose(Z3) labels = tf.transpose(Y) cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = logits, labels = labels)) return cost

代碼整合:執(zhí)行反向傳播和權(quán)值更新

跟計(jì)算損失函數(shù)類似,Tensorflow中執(zhí)行反向傳播的梯度優(yōu)化非常簡便,兩行代碼即可搞定,定義完整的神經(jīng)網(wǎng)絡(luò)模型如下:

def model(X_train, Y_train, X_test, Y_test, learning_rate = 0.0001, num_epochs = 1500, minibatch_size = 32, print_cost = True): ops.reset_default_graph() tf.set_random_seed(1) seed = 3 (n_x, m) = X_train.shape n_y = Y_train.shape[0] costs = [] # Create Placeholders of shape (n_x, n_y) X, Y = create_placeholders(n_x, n_y) # Initialize parameters parameters = initialize_parameters() # Forward propagation: Build the forward propagation in the tensorflow graph Z3 = forward_propagation(X, parameters) # Cost function: Add cost function to tensorflow graph cost = compute_cost(Z3, Y) # Backpropagation: Define the tensorflow optimizer. Use an AdamOptimizer. optimizer = tf.train.GradientDescentOptimizer(learning_rate = learning_rate).minimize(cost) # Initialize all the variables init = tf.global_variables_initializer() # Start the session to compute the tensorflow graph with tf.Session() as sess: # Run the initialization sess.run(init) # Do the training loop for epoch in range(num_epochs): epoch_cost = 0. num_minibatches = int(m / minibatch_size) seed = seed + 1 minibatches = random_mini_batches(X_train, Y_train, minibatch_size, seed) for minibatch in minibatches: # Select a minibatch (minibatch_X, minibatch_Y) = minibatch _ , minibatch_cost = sess.run([optimizer, cost], feed_dict={X: minibatch_X, Y: minibatch_Y}) epoch_cost += minibatch_cost / num_minibatches # Print the cost every epoch if print_cost == True and epoch % 100 == 0: print ("Cost after epoch %i: %f" % (epoch, epoch_cost)) if print_cost == True and epoch % 5 == 0: costs.append(epoch_cost) # plot the cost plt.plot(np.squeeze(costs)) plt.ylabel('cost') plt.xlabel('iterations (per tens)') plt.title("Learning rate =" + str(learning_rate)) plt.show() # lets save the parameters in a variable parameters = sess.run(parameters) print ("Parameters have been trained!") # Calculate the correct predictions correct_prediction = tf.equal(tf.argmax(Z3), tf.argmax(Y)) # Calculate accuracy on the test set accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) print ("Train Accuracy:", accuracy.eval({X: X_train, Y: Y_train})) print ("Test Accuracy:", accuracy.eval({X: X_test, Y: Y_test})) return parameters

執(zhí)行模型:

parameters = model(X_train, Y_train, X_test, Y_test)

根據(jù)模型的訓(xùn)練誤差和測試誤差可以看到:模型整體效果雖然沒有達(dá)到最佳,但基本也能達(dá)到預(yù)測效果。

總結(jié)

Tensorflow語法中兩個(gè)基本的對象類是 Tensor 和 Operator.

Tensorflow執(zhí)行計(jì)算的基本步驟為

創(chuàng)建計(jì)算圖(張量、變量和占位符變量等)

創(chuàng)建會(huì)話

初始化會(huì)話

在計(jì)算圖中執(zhí)行會(huì)話

可以看到的是,在 Tensorflow 中編寫神經(jīng)網(wǎng)絡(luò)要比我們手動(dòng)搭建要方便的多,這也正是深度學(xué)習(xí)框架存在的意義之一。功能強(qiáng)大的深度學(xué)習(xí)框架能夠幫助我們快速的搭建起復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,在經(jīng)歷了手動(dòng)搭建神經(jīng)網(wǎng)絡(luò)的思維訓(xùn)練過程之后,這對于我們來說就不再困難了。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:深度學(xué)習(xí)筆記8:利用Tensorflow搭建神經(jīng)網(wǎng)絡(luò)

文章出處:【微信號:AI_shequ,微信公眾號:人工智能愛好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    利用LABVIEW 實(shí)現(xiàn)bp神經(jīng)網(wǎng)絡(luò)的程序

    誰有利用LABVIEW 實(shí)現(xiàn)bp神經(jīng)網(wǎng)絡(luò)的程序?。ㄎ矣玫陌姹臼?.6的 )
    發(fā)表于 11-26 14:54

    TF之CNN:Tensorflow構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)CNN的嘻嘻哈哈事之詳細(xì)攻略

    TF之CNN:Tensorflow構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)CNN的嘻嘻哈哈事之詳細(xì)攻略
    發(fā)表于 12-19 17:03

    TensorFlow是什么

    更長。TensorFlow 使這一切變得更加簡單快捷,從而縮短了想法到部署之間的實(shí)現(xiàn)時(shí)間。在本教程中,你將學(xué)習(xí)如何利用 TensorFlow 的功能來實(shí)現(xiàn)深度神經(jīng)網(wǎng)絡(luò)。
    發(fā)表于 07-22 10:14

    【AI學(xué)習(xí)】第3篇--人工神經(jīng)網(wǎng)絡(luò)

    `本篇主要介紹:人工神經(jīng)網(wǎng)絡(luò)的起源、簡單神經(jīng)網(wǎng)絡(luò)模型、更多神經(jīng)網(wǎng)絡(luò)模型、機(jī)器學(xué)習(xí)的步驟:訓(xùn)練與預(yù)測、訓(xùn)練的兩階段:正向推演與反向傳播、以TensorFlow + Excel表達(dá)訓(xùn)練流程
    發(fā)表于 11-05 17:48

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學(xué)習(xí)電機(jī)的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達(dá)能力,可以通過對系統(tǒng)性能的學(xué)習(xí)來實(shí)現(xiàn)具有最佳組合的PID控制。利用
    發(fā)表于 09-07 07:43

    如何使用TensorFlow神經(jīng)網(wǎng)絡(luò)模型部署到移動(dòng)或嵌入式設(shè)備上

    有很多方法可以將經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型部署到移動(dòng)或嵌入式設(shè)備上。不同的框架在各種平臺上支持Arm,包括TensorFlow、PyTorch、Caffe2、MxNet和CNTK,如Android
    發(fā)表于 08-02 06:43

    TensorFlow寫個(gè)簡單的神經(jīng)網(wǎng)絡(luò)

    這次就用TensorFlow寫個(gè)神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)寫的很簡單,就三種層,輸入層--隱藏層----輸出層;
    的頭像 發(fā)表于 03-23 15:37 ?5119次閱讀
    用<b class='flag-5'>TensorFlow</b>寫個(gè)簡單的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    深度學(xué)習(xí)筆記8:利用Tensorflow搭建神經(jīng)網(wǎng)絡(luò)

    ?Tensorflow 搭建神經(jīng)網(wǎng)絡(luò)模型。????? 盡管對于初學(xué)者而言使用 Tensorflow 看起來并不那么習(xí)慣,需要各種步驟,但簡單來說,
    的頭像 發(fā)表于 08-24 18:31 ?3277次閱讀

    如何使用numpy搭建一個(gè)卷積神經(jīng)網(wǎng)絡(luò)詳細(xì)方法和程序概述

    內(nèi)容將繼續(xù)秉承之前 DNN 的學(xué)習(xí)路線,在利用Tensorflow搭建神經(jīng)網(wǎng)絡(luò)之前,先嘗試利用numpy手動(dòng)
    的頭像 發(fā)表于 10-20 10:55 ?6008次閱讀

    如何使用Numpy搭建神經(jīng)網(wǎng)絡(luò)

    很多同學(xué)入門機(jī)器學(xué)習(xí)之后,直接用TensorFlow調(diào)包實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò),對于神經(jīng)網(wǎng)絡(luò)內(nèi)在機(jī)理知之甚少。
    的頭像 發(fā)表于 05-18 11:02 ?3546次閱讀
    如何使用Numpy<b class='flag-5'>搭建</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    基于TensorFlow框架搭建卷積神經(jīng)網(wǎng)絡(luò)的電池片缺陷識別研究

    基于TensorFlow框架搭建卷積神經(jīng)網(wǎng)絡(luò)對電池片電致發(fā)光圖像進(jìn)行缺陷識別。選取公開的數(shù)據(jù)集,其中包含了電池片的不同種類缺陷。
    的頭像 發(fā)表于 08-28 18:46 ?7690次閱讀
    基于<b class='flag-5'>TensorFlow</b>框架<b class='flag-5'>搭建</b>卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的電池片缺陷識別研究

    谷歌正式發(fā)布TensorFlow神經(jīng)網(wǎng)絡(luò)

    日前,我們很高興發(fā)布了 TensorFlow神經(jīng)網(wǎng)絡(luò) (Graph Neural Networks, GNNs),此庫可以幫助開發(fā)者利用 TensorFlow 輕松處理圖結(jié)構(gòu)化數(shù)據(jù)
    的頭像 發(fā)表于 01-05 13:44 ?1441次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)模型搭建

    卷積神經(jīng)網(wǎng)絡(luò)模型搭建 卷積神經(jīng)網(wǎng)絡(luò)模型是一種深度學(xué)習(xí)算法。它已經(jīng)成為了計(jì)算機(jī)視覺和自然語言處理等各種領(lǐng)域的主流算法,具有很大的應(yīng)用前景。本篇文章將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)模型的
    的頭像 發(fā)表于 08-21 17:11 ?888次閱讀

    使用TensorFlow進(jìn)行神經(jīng)網(wǎng)絡(luò)模型更新

    使用TensorFlow進(jìn)行神經(jīng)網(wǎng)絡(luò)模型的更新是一個(gè)涉及多個(gè)步驟的過程,包括模型定義、訓(xùn)練、評估以及根據(jù)新數(shù)據(jù)或需求進(jìn)行模型微調(diào)(Fine-tuning)或重新訓(xùn)練。下面我將詳細(xì)闡述這個(gè)過程,并附上相應(yīng)的TensorFlow代碼
    的頭像 發(fā)表于 07-12 11:51 ?266次閱讀