課程簡介
本課程全面覆蓋機器智能的哲學基礎(chǔ)、歷史發(fā)展、編程算法、數(shù)學原理及經(jīng)典機器學習模型。從自然語言的數(shù)學解讀到現(xiàn)代人工智能的應(yīng)用,再到Python編程與算法實現(xiàn),逐步深入。課程深入探討線性代數(shù)、概率統(tǒng)計等數(shù)學工具在機器智能中的應(yīng)用,并詳細介紹監(jiān)督學習、決策樹、樸素貝葉斯、支撐向量機等經(jīng)典機器學習模型,旨在培養(yǎng)學生的算法思維與機器智能應(yīng)用能力。
目標收益
培訓對象
課程內(nèi)容
1. 機器智能 的哲學與歷史
History and Philosophy of Machine Intelligence
1.1 自然的語言
Mathematical Interpretation of the Nature
1.2 可計算的機器
Computing Machines
1.3 思想的機械性推理
Mechanical Reasoning of Minds
1.4 人工智能的歷史
History of AI
1.5 現(xiàn)代人工智能
Modern AI
1.6 諾貝爾獎與人工智能
Nobel Prize and AI
2. 編程與算法
Coding and Algorithms
2.1 Python 編程
Python Coding
2.2 算法實現(xiàn)
Algorithm Implementation
2.3 算法效率
Efficiency of Algorithms
2.4 算法思維
Algorithmic Thinking
3 .機器智能的數(shù)學
Mathematics for Machine Intelligence
3.1 數(shù)與函數(shù)
Numbers and Functions
3.1.1 數(shù)與群
Number and Group
3.1.2 微分與積分
Derivative and Integral
3.1.3 動態(tài)系統(tǒng)與混沌
Dynamic System and Chaos
3.2 線性代數(shù)
Linear Algebra
3.2.1 矩陣與線性變換
Matrix and Linear Transformation
3.2.3 特征向量與特征值
Eigenvectors and Eigenvalues
3.2.4 奇異值分解
SVD Decomposition
3.3 概率與統(tǒng)計
Probability and Statistics
3.3.1 隨機變量
Random Variable
3.3.2 條件概率與貝葉斯
Conditional Probability and Bayes
3.3.3 概率分布
Probability Distribution
3.3.4 極大似然估計
Maximum Likelihood Estimation
3.3.5 采樣
Sampling
4. 經(jīng)典機器學習模型
Classical Machine Learning Models
4.1 監(jiān)督與非監(jiān)督學習
Supervised and Unsupervised Learning
4.1.1 最近鄰預(yù)測
K-Nearest Neighbors
4.1.2 K-均值算法
K-Means
4.1.3 核密度估計
Kernel Density Estimation
4.2 決策樹
Decision Trees
4.2.1 信息熵
Information Entropy
4.2.2 集成學習
Ensemble Learning
4.2.3 XGBoost
XGBoost
4.3 樸素貝葉斯
Naive Bayes
4.4 線性回歸
Linear Regression
4.4.1 最小二乘法
LMS
4.4.2 梯度下降
Gradient Descent
4.4.3 感知器算法
Perceptron
4.5 支撐向量機
Support Vector Machines
4.5.1 最大間隙
Maximum Margin
4.5.2 拉格朗日乘子與 KKT 條件
Lagrange Multiplier and KKT Condition
4.5.3 對偶表達
Dual Form
4.5.4 核方法
Kernel Methods