工程師
其他
深度學(xué)習(xí)
圖神經(jīng)網(wǎng)絡(luò)
大模型
推薦課程
average > 0 ? $model->average . '分' : '10.0分' ?>

前沿深度學(xué)習(xí)與智能模型創(chuàng)新(系列3)

北京航空航天大學(xué) 副教授

秦曾昌,北京航空航天大學(xué)自動(dòng)化科學(xué)與電氣工程學(xué)院教授,教育部新世紀(jì)優(yōu)秀人才。英國(guó)布里斯托(Bristol)大學(xué)機(jī)器學(xué)習(xí)與人工智能方向碩士、博士。美國(guó)加州大學(xué)伯克利分校 (UC Berkeley) 博士后、牛津 (Oxford) 大學(xué)與卡內(nèi)基梅隆大學(xué) (CMU) 訪問學(xué)者。目前主要研究方向?yàn)槿斯ぶ悄堋C(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘、跨媒體檢索與自然語言理解。主持過國(guó)家自然基金在內(nèi)的省部級(jí)基金10余項(xiàng),出版英文專著1本、發(fā)表包括T-IP, T-Multimedia, Information Fusion, AAAI, IJCAI, MM,CVPR, EMNLP等專業(yè)期刊或會(huì)議論文近 130余篇。 是我國(guó)第一次太空授課專家組成員,也是青少年科技創(chuàng)新大賽、機(jī)器人大賽、宋慶齡發(fā)明獎(jiǎng)等國(guó)內(nèi)外很多青少年科技比賽的評(píng)審專家,開展網(wǎng)絡(luò)科普獲得搜狐視頻2023年百大播主稱號(hào)。

秦曾昌,北京航空航天大學(xué)自動(dòng)化科學(xué)與電氣工程學(xué)院教授,教育部新世紀(jì)優(yōu)秀人才。英國(guó)布里斯托(Bristol)大學(xué)機(jī)器學(xué)習(xí)與人工智能方向碩士、博士。美國(guó)加州大學(xué)伯克利分校 (UC Berkeley) 博士后、牛津 (Oxford) 大學(xué)與卡內(nèi)基梅隆大學(xué) (CMU) 訪問學(xué)者。目前主要研究方向?yàn)槿斯ぶ悄?、機(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘、跨媒體檢索與自然語言理解。主持過國(guó)家自然基金在內(nèi)的省部級(jí)基金10余項(xiàng),出版英文專著1本、發(fā)表包括T-IP, T-Multimedia, Information Fusion, AAAI, IJCAI, MM,CVPR, EMNLP等專業(yè)期刊或會(huì)議論文近 130余篇。 是我國(guó)第一次太空授課專家組成員,也是青少年科技創(chuàng)新大賽、機(jī)器人大賽、宋慶齡發(fā)明獎(jiǎng)等國(guó)內(nèi)外很多青少年科技比賽的評(píng)審專家,開展網(wǎng)絡(luò)科普獲得搜狐視頻2023年百大播主稱號(hào)。

課程費(fèi)用

6800.00 /人

課程時(shí)長(zhǎng)

3

成為教練

課程簡(jiǎn)介

本課程深入探索深度生成模型、圖神經(jīng)網(wǎng)絡(luò)、大語言模型、跨模態(tài)大模型以及深度增強(qiáng)學(xué)習(xí)等前沿領(lǐng)域。從Transformer到對(duì)抗生成網(wǎng)絡(luò),全面理解深度生成模型的核心原理與應(yīng)用。同時(shí),圖神經(jīng)網(wǎng)絡(luò)部分涵蓋圖卷積網(wǎng)絡(luò)及注意力機(jī)制,拓展非結(jié)構(gòu)數(shù)據(jù)的深度學(xué)習(xí)應(yīng)用。此外,課程還將講解大語言模型的發(fā)展,并探索跨模態(tài)大模型在語義空間和跨模態(tài)檢索中的應(yīng)用,最后深入講解深度增強(qiáng)學(xué)習(xí)在實(shí)踐中的應(yīng)用。

目標(biāo)收益

培訓(xùn)對(duì)象

課程內(nèi)容

1.深度生成模型
Deep Generative Models
1.1 注意力是你所有所需
Attention is All You Need
1.2 Transformer
1.3 Transformer 應(yīng)用
Applications of Transformer
1.4 深度生成模型
Deep Generative Model
1.5 對(duì)抗生成網(wǎng)絡(luò)
Generative Adversarial Network
1.6 變分自編碼器
Variational Auto-Encoder

2.圖神經(jīng)網(wǎng)絡(luò)模型
Graph Neural Networks
2.1 圖卷積網(wǎng)絡(luò)
Graph Convolution
2.2 DeepWalk 與 DIN
Deep Walk and Deep Interest Network
2.3 注意力機(jī)制網(wǎng)絡(luò)
Graph Attention Networks (GAT)
2.4 非結(jié)構(gòu)數(shù)據(jù)的深度學(xué)習(xí)應(yīng)用
Applications of GCN in Unstructured Data

3.大語言模型
Large Language Model
3.1 語言模型
Language Model
3.2 N-gram 模型
N-gram Model
3.3 BERT
BERT
3.4 GPT 模型
Generative Pre-trained Transformer
3.5 Meta LLaMA
LLaMA 模型
3.6 混合專家模型
Mixture of Expert
3.7 RAG
Retrieval-Augmented Models
3.8 大模型下的智能體
LLM Based Intelligent Agent

4.跨模態(tài)大模型
Cross-Modal Large Models
4.1 語義空間
Semantic Space
4.2 跨模態(tài)檢索
Cross-modal Retrieval
4.3 圖像問答與對(duì)話
VQA and Visual Dialogue
4.4 CLIP 模型
CLIP Model
4.5 擴(kuò)散生成模型
Stable Diffusion
4.6 SORA 與視頻生成
SORA and Video Generation
4.7 AGI 之路
Road to Artificial General Intelligence

5.深度增強(qiáng)學(xué)習(xí)
Deep Reinforcement Learning
5.1 代理與環(huán)境
Agent and Environment
5.2 狀態(tài)-行為深度模型
Deep Learning for State-Action
5.3 AlphaGo
AlphaGo
5.4 深度 Q-學(xué)習(xí)
Deep Q-Learning
5.5 策略梯度方法
Policy Gradient Methods
5.6 DRL 的應(yīng)用
Applications of Deep Reinforcement Learning

活動(dòng)詳情

提交需求