課程費(fèi)用

6800.00 /人

課程時(shí)長(zhǎng)

2

成為教練

課程簡(jiǎn)介

深度學(xué)習(xí)的核心是算法,方法是算法的實(shí)現(xiàn),工具是各種深度學(xué)習(xí)框架

目標(biāo)收益

1. 深度學(xué)習(xí)核心原理(很重要,占50%)
講解深度學(xué)習(xí)運(yùn)行的最核心算法原理與基礎(chǔ)知識(shí)
為之后的代碼實(shí)現(xiàn)與應(yīng)用打下堅(jiān)實(shí)的基礎(chǔ)
2. 深度學(xué)習(xí)核心算法實(shí)現(xiàn)(占20%)
根據(jù)算法原理,用代碼實(shí)現(xiàn)不同的神經(jīng)網(wǎng)絡(luò)
讓你看到深度學(xué)習(xí)的實(shí)際運(yùn)用
3. 各大主流深度學(xué)習(xí)框架
(以Tensorflow 為主,占30%)
講解深度學(xué)習(xí)運(yùn)行的最核心算法原理與基礎(chǔ)知識(shí)
為之后的代碼實(shí)現(xiàn)與應(yīng)用打下堅(jiān)實(shí)的基礎(chǔ)

培訓(xùn)對(duì)象

希望對(duì)深度學(xué)習(xí)了解的技術(shù)人員
深度學(xué)習(xí)初級(jí)從業(yè)人員

課程大綱

一 課程介紹 1.課程概述
2.課前準(zhǔn)備
3.深度學(xué)習(xí)簡(jiǎn)介—-神經(jīng)元
4.深度學(xué)習(xí)簡(jiǎn)介—-激勵(lì)函數(shù)
5.深度學(xué)習(xí)簡(jiǎn)介—-神經(jīng)網(wǎng)絡(luò)/深度神經(jīng)網(wǎng)絡(luò)
6.深度學(xué)習(xí)為什么這么強(qiáng)
7.深度學(xué)習(xí)的應(yīng)用
二 前饋神經(jīng)網(wǎng)絡(luò) 1.網(wǎng)絡(luò)結(jié)構(gòu)
2.網(wǎng)絡(luò)結(jié)構(gòu) 代碼實(shí)現(xiàn)
3.線性回歸的訓(xùn)練--樣本,開(kāi)始訓(xùn)練
4.線性回歸的訓(xùn)練--梯度下降法,一元凸函數(shù)
5.線性回歸的訓(xùn)練--二元凸函數(shù)
6.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--前向傳播
7 神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--前向傳播 代碼實(shí)現(xiàn)
8.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--反向更新
9.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--反向更新 代碼實(shí)現(xiàn)
10.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--隨機(jī)梯度下降
11.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--隨機(jī)梯度下降 代碼實(shí)現(xiàn)
12.應(yīng)用案例—-前饋神經(jīng)網(wǎng)絡(luò)代碼的手寫(xiě)數(shù)字識(shí)別
三 提高神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)效率

1.并行計(jì)算
2.梯度消失問(wèn)題
3.歸一化
4.參數(shù)的初始化問(wèn)題
5.參數(shù)的初始化問(wèn)題 代碼實(shí)現(xiàn)
6.正則化
7.正則化 代碼實(shí)現(xiàn)
8.學(xué)習(xí)率和dropout
9.交叉熵
10.交叉熵 代碼實(shí)現(xiàn)
11.模型的保存和加載及代碼實(shí)現(xiàn)
12.應(yīng)用案例—-提高版本的前饋神經(jīng)網(wǎng)絡(luò)代碼的手寫(xiě)數(shù)字識(shí)別

四 卷積神經(jīng)網(wǎng)絡(luò) 1.與全連接網(wǎng)絡(luò)的對(duì)比
2.全連接層GPU實(shí)現(xiàn) 代碼實(shí)現(xiàn)
3.卷積核
4.卷積層其他參數(shù)
5.池化層
6.卷積池化層 代碼實(shí)現(xiàn)
7.典型的cnn網(wǎng)絡(luò)
8.圖片識(shí)別
9.softmax
10.softmax層 代碼實(shí)現(xiàn)
11.應(yīng)用案例—-卷積神經(jīng)網(wǎng)絡(luò)代碼的手寫(xiě)數(shù)字識(shí)別
五 tensorflow 1.tensorflow簡(jiǎn)介
2.tensorflow如何選擇好的框架
3.多環(huán)境與集群支持
4.應(yīng)用案例—-tensorflow版本的線性回歸的實(shí)現(xiàn)
5.tensorboard
6.tensorboard 使用演示
7.訓(xùn)練模型的加載與保存
8.應(yīng)用案例—-tensorflow版本的手寫(xiě)數(shù)字識(shí)別
六.cnn對(duì)圖片分類(CIFAR-10) 1.簡(jiǎn)介
2.tensorflow單GPU版本
3.tensorflow多GPU版本
七 其他框架是怎么做的 1.caffe應(yīng)用對(duì)比
2.keras應(yīng)用對(duì)比
一 課程介紹
1.課程概述
2.課前準(zhǔn)備
3.深度學(xué)習(xí)簡(jiǎn)介—-神經(jīng)元
4.深度學(xué)習(xí)簡(jiǎn)介—-激勵(lì)函數(shù)
5.深度學(xué)習(xí)簡(jiǎn)介—-神經(jīng)網(wǎng)絡(luò)/深度神經(jīng)網(wǎng)絡(luò)
6.深度學(xué)習(xí)為什么這么強(qiáng)
7.深度學(xué)習(xí)的應(yīng)用
二 前饋神經(jīng)網(wǎng)絡(luò)
1.網(wǎng)絡(luò)結(jié)構(gòu)
2.網(wǎng)絡(luò)結(jié)構(gòu) 代碼實(shí)現(xiàn)
3.線性回歸的訓(xùn)練--樣本,開(kāi)始訓(xùn)練
4.線性回歸的訓(xùn)練--梯度下降法,一元凸函數(shù)
5.線性回歸的訓(xùn)練--二元凸函數(shù)
6.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--前向傳播
7 神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--前向傳播 代碼實(shí)現(xiàn)
8.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--反向更新
9.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--反向更新 代碼實(shí)現(xiàn)
10.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--隨機(jī)梯度下降
11.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練--隨機(jī)梯度下降 代碼實(shí)現(xiàn)
12.應(yīng)用案例—-前饋神經(jīng)網(wǎng)絡(luò)代碼的手寫(xiě)數(shù)字識(shí)別
三 提高神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)效率


1.并行計(jì)算
2.梯度消失問(wèn)題
3.歸一化
4.參數(shù)的初始化問(wèn)題
5.參數(shù)的初始化問(wèn)題 代碼實(shí)現(xiàn)
6.正則化
7.正則化 代碼實(shí)現(xiàn)
8.學(xué)習(xí)率和dropout
9.交叉熵
10.交叉熵 代碼實(shí)現(xiàn)
11.模型的保存和加載及代碼實(shí)現(xiàn)
12.應(yīng)用案例—-提高版本的前饋神經(jīng)網(wǎng)絡(luò)代碼的手寫(xiě)數(shù)字識(shí)別

四 卷積神經(jīng)網(wǎng)絡(luò)
1.與全連接網(wǎng)絡(luò)的對(duì)比
2.全連接層GPU實(shí)現(xiàn) 代碼實(shí)現(xiàn)
3.卷積核
4.卷積層其他參數(shù)
5.池化層
6.卷積池化層 代碼實(shí)現(xiàn)
7.典型的cnn網(wǎng)絡(luò)
8.圖片識(shí)別
9.softmax
10.softmax層 代碼實(shí)現(xiàn)
11.應(yīng)用案例—-卷積神經(jīng)網(wǎng)絡(luò)代碼的手寫(xiě)數(shù)字識(shí)別
五 tensorflow
1.tensorflow簡(jiǎn)介
2.tensorflow如何選擇好的框架
3.多環(huán)境與集群支持
4.應(yīng)用案例—-tensorflow版本的線性回歸的實(shí)現(xiàn)
5.tensorboard
6.tensorboard 使用演示
7.訓(xùn)練模型的加載與保存
8.應(yīng)用案例—-tensorflow版本的手寫(xiě)數(shù)字識(shí)別
六.cnn對(duì)圖片分類(CIFAR-10)
1.簡(jiǎn)介
2.tensorflow單GPU版本
3.tensorflow多GPU版本
七 其他框架是怎么做的
1.caffe應(yīng)用對(duì)比
2.keras應(yīng)用對(duì)比

活動(dòng)詳情

提交需求