開(kāi)發(fā)經(jīng)理
互聯(lián)網(wǎng)
深度學(xué)習(xí)
推薦課程
average > 0 ? $model->average . '分' : '10.0分' ?>

TensorFlow深度學(xué)習(xí)

課程費(fèi)用

5800.00 /人

課程時(shí)長(zhǎng)

2

成為教練

課程簡(jiǎn)介

零基礎(chǔ)學(xué)習(xí)深度學(xué)習(xí)框架Tensorflow,從安裝開(kāi)始到常量、變量、操作數(shù)與占位符簡(jiǎn)單的算術(shù)與矩陣運(yùn)算,feed與fetch數(shù)據(jù)使?,梯度下降- BP神經(jīng)?絡(luò),線性回歸、邏輯回歸,?元分類預(yù)測(cè),常?損失函數(shù)與激活函數(shù)使?,mnist數(shù)據(jù)集介紹,卷積神經(jīng)?絡(luò)各層詳解與代碼實(shí)現(xiàn),?寫(xiě)數(shù)字識(shí)別,驗(yàn)證碼識(shí)別,可視化訓(xùn)練過(guò)程tensorboard的使?等內(nèi)容,涵蓋了tensorflow全部基礎(chǔ)知識(shí)點(diǎn),課程全程沒(méi)有復(fù)雜的數(shù)學(xué)推理但是描述清楚了每個(gè)基本概念與數(shù)學(xué)知識(shí)點(diǎn)如梯度流、計(jì)算圖、softmax、交叉熵等。是??專?為程序員準(zhǔn)備的深度學(xué)習(xí)??課程。

目標(biāo)收益

從程序員的獨(dú)特視野出發(fā),讓沒(méi)有任何機(jī)器學(xué)習(xí)與深度學(xué)理論基礎(chǔ)的應(yīng)?開(kāi)發(fā)者輕松??深度學(xué)習(xí)框架tensorflow,學(xué)會(huì)使?tensorflow實(shí)現(xiàn)線性回歸、邏輯回歸、?元分類預(yù)測(cè)、??神經(jīng)?絡(luò)、BP算法與梯度下降,卷積神經(jīng)?絡(luò),?寫(xiě)數(shù)字識(shí)別與應(yīng)?,驗(yàn)證碼識(shí)別訓(xùn)練與應(yīng)?等,為后續(xù)學(xué)習(xí)打下良好基礎(chǔ)!

培訓(xùn)對(duì)象

Python語(yǔ)?開(kāi)發(fā)者,在職程序員與?程師

課程大綱

第一天上午 深度學(xué)習(xí)簡(jiǎn)介
TensorFlow的安裝簡(jiǎn)介
神經(jīng)網(wǎng)絡(luò)算法基礎(chǔ)
高等數(shù)學(xué)基礎(chǔ)鏈?zhǔn)角髮?dǎo)
矩陣運(yùn)算
計(jì)算圖和 TensorFlow 基礎(chǔ)
深度神經(jīng)網(wǎng)絡(luò)
損失函數(shù)定義
反向傳播和優(yōu)化器
神經(jīng)網(wǎng)絡(luò)的優(yōu)化
梯度下降
隨機(jī)梯度下降
第一天下午 基于動(dòng)量的優(yōu)化器
Adam優(yōu)化器
學(xué)習(xí)率設(shè)置、過(guò)擬合問(wèn)題、Drop out
案例:用TensorFlow實(shí)現(xiàn)多分類器
TensorFlow內(nèi)部的TFrecord類型數(shù)據(jù)的生成
特征數(shù)組與特征字典映射
構(gòu)造特征數(shù)據(jù)
構(gòu)造特征標(biāo)簽
特征數(shù)據(jù)與標(biāo)簽合并生成TFrecord
圖像識(shí)別的數(shù)組處理
實(shí)驗(yàn):手工畫(huà)一張圖是如何一步一步被計(jì)算機(jī)處理為3
第二天上午 維度數(shù)數(shù)組
如何通過(guò)運(yùn)算把彩色圖像轉(zhuǎn)換為灰度圖像實(shí)現(xiàn)降維處理
數(shù)組又如何在屏幕上顯示為圖像
卷積神經(jīng)網(wǎng)絡(luò)(CNN)與圖形識(shí)別
卷積神經(jīng)網(wǎng)絡(luò)常用結(jié)構(gòu)
卷積層和池化層
實(shí)現(xiàn)LeNet-5經(jīng)典模型及其他模型
Alex Net圖像識(shí)別模型及實(shí)現(xiàn)
圖形數(shù)據(jù)處理函數(shù)
圖像識(shí)別時(shí)權(quán)重與激活函數(shù)結(jié)果的交互式分析
案例:圖像識(shí)別
第二天下午 RNN 循環(huán)遞歸神經(jīng)網(wǎng)絡(luò)
LSTM 長(zhǎng)短時(shí)間記憶網(wǎng)絡(luò)的結(jié)構(gòu)
LSTM解決梯度消失的數(shù)學(xué)原理
LSTM門(mén)限單元的內(nèi)部結(jié)構(gòu)及手工數(shù)學(xué)計(jì)算(濤德獨(dú)家)
如何用RNN LSTM 進(jìn)行NLP自然語(yǔ)言處理
如何用RNN LSTM 進(jìn)行時(shí)間序列分析
靜態(tài)LSTM特征處理
動(dòng)態(tài)LSTM特征處理
模型存儲(chǔ)
模型參數(shù)載入
案例: NLP機(jī)器人寫(xiě)作
第一天上午
深度學(xué)習(xí)簡(jiǎn)介
TensorFlow的安裝簡(jiǎn)介
神經(jīng)網(wǎng)絡(luò)算法基礎(chǔ)
高等數(shù)學(xué)基礎(chǔ)鏈?zhǔn)角髮?dǎo)
矩陣運(yùn)算
計(jì)算圖和 TensorFlow 基礎(chǔ)
深度神經(jīng)網(wǎng)絡(luò)
損失函數(shù)定義
反向傳播和優(yōu)化器
神經(jīng)網(wǎng)絡(luò)的優(yōu)化
梯度下降
隨機(jī)梯度下降
第一天下午
基于動(dòng)量的優(yōu)化器
Adam優(yōu)化器
學(xué)習(xí)率設(shè)置、過(guò)擬合問(wèn)題、Drop out
案例:用TensorFlow實(shí)現(xiàn)多分類器
TensorFlow內(nèi)部的TFrecord類型數(shù)據(jù)的生成
特征數(shù)組與特征字典映射
構(gòu)造特征數(shù)據(jù)
構(gòu)造特征標(biāo)簽
特征數(shù)據(jù)與標(biāo)簽合并生成TFrecord
圖像識(shí)別的數(shù)組處理
實(shí)驗(yàn):手工畫(huà)一張圖是如何一步一步被計(jì)算機(jī)處理為3
第二天上午
維度數(shù)數(shù)組
如何通過(guò)運(yùn)算把彩色圖像轉(zhuǎn)換為灰度圖像實(shí)現(xiàn)降維處理
數(shù)組又如何在屏幕上顯示為圖像
卷積神經(jīng)網(wǎng)絡(luò)(CNN)與圖形識(shí)別
卷積神經(jīng)網(wǎng)絡(luò)常用結(jié)構(gòu)
卷積層和池化層
實(shí)現(xiàn)LeNet-5經(jīng)典模型及其他模型
Alex Net圖像識(shí)別模型及實(shí)現(xiàn)
圖形數(shù)據(jù)處理函數(shù)
圖像識(shí)別時(shí)權(quán)重與激活函數(shù)結(jié)果的交互式分析
案例:圖像識(shí)別
第二天下午
RNN 循環(huán)遞歸神經(jīng)網(wǎng)絡(luò)
LSTM 長(zhǎng)短時(shí)間記憶網(wǎng)絡(luò)的結(jié)構(gòu)
LSTM解決梯度消失的數(shù)學(xué)原理
LSTM門(mén)限單元的內(nèi)部結(jié)構(gòu)及手工數(shù)學(xué)計(jì)算(濤德獨(dú)家)
如何用RNN LSTM 進(jìn)行NLP自然語(yǔ)言處理
如何用RNN LSTM 進(jìn)行時(shí)間序列分析
靜態(tài)LSTM特征處理
動(dòng)態(tài)LSTM特征處理
模型存儲(chǔ)
模型參數(shù)載入
案例: NLP機(jī)器人寫(xiě)作

活動(dòng)詳情

提交需求