課程簡介
深度學(xué)習(xí)的核心是算法,方法是算法的實(shí)現(xiàn),工具是各種深度學(xué)習(xí)框架
目標(biāo)收益
1. 深度學(xué)習(xí)核心原理(很重要,占50%)
講解深度學(xué)習(xí)運(yùn)行的最核心算法原理與基礎(chǔ)知識(shí)
為之后的代碼實(shí)現(xiàn)與應(yīng)用打下堅(jiān)實(shí)的基礎(chǔ)
2. 深度學(xué)習(xí)核心算法實(shí)現(xiàn)(占20%)
根據(jù)算法原理,用代碼實(shí)現(xiàn)不同的神經(jīng)網(wǎng)絡(luò)
讓你看到深度學(xué)習(xí)的實(shí)際運(yùn)用
3. 各大主流深度學(xué)習(xí)框架
(以Tensorflow 為主,占30%)
講解深度學(xué)習(xí)運(yùn)行的最核心算法原理與基礎(chǔ)知識(shí)
為之后的代碼實(shí)現(xiàn)與應(yīng)用打下堅(jiān)實(shí)的基礎(chǔ)
培訓(xùn)對象
希望對深度學(xué)習(xí)了解的技術(shù)人員
深度學(xué)習(xí)初級從業(yè)人員
課程大綱
一 課程介紹 |
1.課程概述 2.課前準(zhǔn)備 3.深度學(xué)習(xí)簡介—-神經(jīng)元 4.深度學(xué)習(xí)簡介—-激勵(lì)函數(shù) 5.深度學(xué)習(xí)簡介—-神經(jīng)網(wǎng)絡(luò)/深度神經(jīng)網(wǎng)絡(luò) 6.深度學(xué)習(xí)為什么這么強(qiáng) 7.深度學(xué)習(xí)的應(yīng)用 |
二 前饋神經(jīng)網(wǎng)絡(luò) |
1.網(wǎng)絡(luò)結(jié)構(gòu) 2.網(wǎng)絡(luò)結(jié)構(gòu) 代碼實(shí)現(xiàn) 3.線性回歸的訓(xùn)練--樣本,開始訓(xùn)練 4.線性回歸的訓(xùn)練--梯度下降法,一元凸函數(shù) 5.線性回歸的訓(xùn)練--二元凸函數(shù) 6.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--前向傳播 7 神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--前向傳播 代碼實(shí)現(xiàn) 8.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--反向更新 9.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--反向更新 代碼實(shí)現(xiàn) 10.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--隨機(jī)梯度下降 11.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--隨機(jī)梯度下降 代碼實(shí)現(xiàn) 12.應(yīng)用案例—-前饋神經(jīng)網(wǎng)絡(luò)代碼的手寫數(shù)字識(shí)別 |
三 提高神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)效率 |
1.并行計(jì)算 2.梯度消失問題 3.歸一化 4.參數(shù)的初始化問題 5.參數(shù)的初始化問題 代碼實(shí)現(xiàn) 6.正則化 7.正則化 代碼實(shí)現(xiàn) 8.學(xué)習(xí)率和dropout 9.交叉熵 10.交叉熵 代碼實(shí)現(xiàn) 11.模型的保存和加載及代碼實(shí)現(xiàn) 12.應(yīng)用案例—-提高版本的前饋神經(jīng)網(wǎng)絡(luò)代碼的手寫數(shù)字識(shí)別 |
四 卷積神經(jīng)網(wǎng)絡(luò) |
1.與全連接網(wǎng)絡(luò)的對比 2.全連接層GPU實(shí)現(xiàn) 代碼實(shí)現(xiàn) 3.卷積核 4.卷積層其他參數(shù) 5.池化層 6.卷積池化層 代碼實(shí)現(xiàn) 7.典型的cnn網(wǎng)絡(luò) 8.圖片識(shí)別 9.softmax 10.softmax層 代碼實(shí)現(xiàn) 11.應(yīng)用案例—-卷積神經(jīng)網(wǎng)絡(luò)代碼的手寫數(shù)字識(shí)別 |
五 tensorflow |
1.tensorflow簡介 2.tensorflow如何選擇好的框架 3.多環(huán)境與集群支持 4.應(yīng)用案例—-tensorflow版本的線性回歸的實(shí)現(xiàn) 5.tensorboard 6.tensorboard 使用演示 7.訓(xùn)練模型的加載與保存 8.應(yīng)用案例—-tensorflow版本的手寫數(shù)字識(shí)別 |
六.cnn對圖片分類(CIFAR-10) |
1.簡介 2.tensorflow單GPU版本 3.tensorflow多GPU版本 |
七 其他框架是怎么做的 |
1.caffe應(yīng)用對比 2.keras應(yīng)用對比 |
一 課程介紹 1.課程概述 2.課前準(zhǔn)備 3.深度學(xué)習(xí)簡介—-神經(jīng)元 4.深度學(xué)習(xí)簡介—-激勵(lì)函數(shù) 5.深度學(xué)習(xí)簡介—-神經(jīng)網(wǎng)絡(luò)/深度神經(jīng)網(wǎng)絡(luò) 6.深度學(xué)習(xí)為什么這么強(qiáng) 7.深度學(xué)習(xí)的應(yīng)用 |
二 前饋神經(jīng)網(wǎng)絡(luò) 1.網(wǎng)絡(luò)結(jié)構(gòu) 2.網(wǎng)絡(luò)結(jié)構(gòu) 代碼實(shí)現(xiàn) 3.線性回歸的訓(xùn)練--樣本,開始訓(xùn)練 4.線性回歸的訓(xùn)練--梯度下降法,一元凸函數(shù) 5.線性回歸的訓(xùn)練--二元凸函數(shù) 6.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--前向傳播 7 神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--前向傳播 代碼實(shí)現(xiàn) 8.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--反向更新 9.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--反向更新 代碼實(shí)現(xiàn) 10.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--隨機(jī)梯度下降 11.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--隨機(jī)梯度下降 代碼實(shí)現(xiàn) 12.應(yīng)用案例—-前饋神經(jīng)網(wǎng)絡(luò)代碼的手寫數(shù)字識(shí)別 |
三 提高神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)效率 1.并行計(jì)算 2.梯度消失問題 3.歸一化 4.參數(shù)的初始化問題 5.參數(shù)的初始化問題 代碼實(shí)現(xiàn) 6.正則化 7.正則化 代碼實(shí)現(xiàn) 8.學(xué)習(xí)率和dropout 9.交叉熵 10.交叉熵 代碼實(shí)現(xiàn) 11.模型的保存和加載及代碼實(shí)現(xiàn) 12.應(yīng)用案例—-提高版本的前饋神經(jīng)網(wǎng)絡(luò)代碼的手寫數(shù)字識(shí)別 |
四 卷積神經(jīng)網(wǎng)絡(luò) 1.與全連接網(wǎng)絡(luò)的對比 2.全連接層GPU實(shí)現(xiàn) 代碼實(shí)現(xiàn) 3.卷積核 4.卷積層其他參數(shù) 5.池化層 6.卷積池化層 代碼實(shí)現(xiàn) 7.典型的cnn網(wǎng)絡(luò) 8.圖片識(shí)別 9.softmax 10.softmax層 代碼實(shí)現(xiàn) 11.應(yīng)用案例—-卷積神經(jīng)網(wǎng)絡(luò)代碼的手寫數(shù)字識(shí)別 |
五 tensorflow 1.tensorflow簡介 2.tensorflow如何選擇好的框架 3.多環(huán)境與集群支持 4.應(yīng)用案例—-tensorflow版本的線性回歸的實(shí)現(xiàn) 5.tensorboard 6.tensorboard 使用演示 7.訓(xùn)練模型的加載與保存 8.應(yīng)用案例—-tensorflow版本的手寫數(shù)字識(shí)別 |
六.cnn對圖片分類(CIFAR-10) 1.簡介 2.tensorflow單GPU版本 3.tensorflow多GPU版本 |
七 其他框架是怎么做的 1.caffe應(yīng)用對比 2.keras應(yīng)用對比 |