課程簡(jiǎn)介
本課程專注于統(tǒng)計(jì)學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)基礎(chǔ)、卷積網(wǎng)絡(luò)應(yīng)用及循環(huán)神經(jīng)網(wǎng)絡(luò)與自然語(yǔ)言處理。通過(guò)貝葉斯統(tǒng)計(jì)、混合模型、主題模型等,深入探索統(tǒng)計(jì)學(xué)習(xí)精髓。進(jìn)一步掌握神經(jīng)網(wǎng)絡(luò)的基本原理,包括激活函數(shù)、反向傳播等。課程還涉及卷積網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)中的應(yīng)用,以及循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理領(lǐng)域的實(shí)踐,如LSTM時(shí)序建模、神經(jīng)語(yǔ)言模型等,旨在全面提升學(xué)生在機(jī)器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)領(lǐng)域的專業(yè)技能。
目標(biāo)收益
培訓(xùn)對(duì)象
課程內(nèi)容
1.統(tǒng)計(jì)學(xué)習(xí)
Statistical Learning
1.1 貝葉斯統(tǒng)計(jì)
Bayesian Statistics
1.1.1 隨機(jī)變量與參數(shù)
Random Variable and Parameters
1.1.2 貝葉斯網(wǎng)絡(luò)
Bayesian Networks
1.1.3 隱含變量
Hidden Variable
1.2 混合模型
Mixture Model
1.2.1 硬幣問(wèn)題
Problem of Coins
1.2.2 最大期望算法
Expectation Maximization
1.2.3 高斯混合模型
Gaussian Mixture Model
1.3 主題模型
Topic Models
1.3.1 狄利克雷分布
Dirichlet Distribution
1.3.2 從 LSA 到 p-LSA 模型
LSA to p-LSA
1.3.3 LDA 模型
Latent Dirichlet Allocation
1.3.4 變分法
Variational Methods
1.4 MCMC
Markov Chain Monte Carlo
1.4.1 蒙特卡洛方法
Monte Carlo Method
1.4.2 馬可夫鏈
Markov Chain
1.4.3 MCMC 采樣
MCMC Sampling
1.5 隱馬可夫模型
Hidden Markov Model
2.神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
Basics of Neural Networks
2.1 大腦與認(rèn)知
Brain and Cognition
2.2 神經(jīng)科學(xué)與人類(lèi)藝術(shù)
Neuroscience and Human Art
2.3 廣義線性模型
Generalized Linear Model
2.4 激活函數(shù)
Activation Function
2.5 反向傳播
Back-propagation
2.6 通用擬合
Universal Approximation
2.7 Hopfield 網(wǎng)絡(luò)
Hopfield Network
2.8 編碼器與降維
Encoder and Dimension Reduction
3.卷積網(wǎng)絡(luò)與應(yīng)用
CNN and Computer Vision Applications
3.1 視覺(jué)特征的卷積
Convolution of Visual Features
3.2 卷積網(wǎng)絡(luò)結(jié)構(gòu)與卷積技巧
CNN Structure and Conv Tricks
3.3 卷積網(wǎng)絡(luò): 從 LeNet 到
ResNet CNN Variants: from LeNet to ResNet
3.4 隨機(jī)梯度優(yōu)化
SGD Optimization
3.5 視覺(jué)特征建構(gòu)
Construction of Visual Features
3.6 分割、識(shí)別與檢測(cè)
Segmentation, Recognition and Detection
3.7 R-CNN、動(dòng)作識(shí)別
R-CNN、Post Estimation
3.8 U-網(wǎng)絡(luò)與 Pix2Pix 模型
U-Net and Pix2Pix Model
4.循環(huán)神經(jīng)網(wǎng)絡(luò)與自然語(yǔ)言處理
Recurrent Neural Network and Natural Language Processing
4.1 循環(huán)網(wǎng)絡(luò)
Recurrent Network
4.2 長(zhǎng)短記憶網(wǎng)絡(luò)
Long Short-term Memory (LSTM)
4.3 LSTM 的時(shí)序建模應(yīng)用
LSTM for Time-series Data
4.4 神經(jīng)語(yǔ)言模型與詞嵌入
Neural Language Model and Word Embeddings
4.5 Seq2Seq 的端對(duì)端模型
Seq2Seq Model
4.6 注意力機(jī)制
Attention Mechanism
4.7 記憶網(wǎng)絡(luò)與神經(jīng)圖靈機(jī)
Memory Network and Neural Turing Machine
4.8 文本語(yǔ)義變遷
Evolution of Semantics
4.9 文本生成
Text Generation
4.10 基于 LSTM 金融數(shù)據(jù)分析
LSTM for Financial Data Analysis