做AI是否需要数学?线性代数?高等数学?凸优化?概率论?零基础如何快速起步?

Поделиться
HTML-код
  • Опубликовано: 10 сен 2024
  • 欢迎来到我的频道,在这里我会讲解机器学习、深度学习最经典或者最前沿的模型,同时我还会讲在美国如何生活,如何找工作,如何刷LeetCode,如何快速融入社会。喜欢记得订阅、点赞哦!如果你有什么想要听的,在下面留言吧!
    目前的讲解清单:
    线性回归 (LR)、逻辑回归 (LogR)、多项式回归 (PR)、Lasso 回归、Ridge 回归、弹性网络 (Elastic Net)、决策树 (DT)、随机森林 (RF)、梯度提升树 (GBT)、XGBoost、LightGBM、CatBoost、支持向量机 (SVM)、朴素贝叶斯 (NB)、K 最近邻 (KNN)、主成分分析 (PCA)、独立成分分析 (ICA)、线性判别分析 (LDA)、t-分布邻近嵌入 (t-SNE)、高斯混合模型 (GMM)、聚类分析 (CA)、K 均值聚类 (K-means)、DBSCAN、HDBSCAN、层次聚类 (HC)、GAN (生成对抗网络)、CGAN、DCGAN、WGAN (Wasserstein GAN)、StyleGAN、CycleGAN、VAE (变分自编码器)、GPT (生成式预训练模型)、BERT、Transformer、LSTM (长短期记忆网络)、GRU (门控循环单元)、RNN (循环神经网络)、CNN (卷积神经网络)、AlexNet、VGG、GoogLeNet、ResNet、MobileNet、EfficientNet、Inception、DeepDream、深度信念网络 (DBN)、自动编码器 (AE)、强化学习 (RL)、Q-learning、SARSA、DDPG、A3C、SAC、时序差分学习 (TD)、Actor-Critic、对抗训练 (Adversarial Training)、梯度下降 (GD)、随机梯度下降 (SGD)、批量梯度下降 (BGD)、Adam、RMSprop、AdaGrad、AdaDelta、Nadam、交叉熵损失函数 (Cross-Entropy Loss)、均方误差损失函数 (Mean Squared Error Loss)、KL 散度损失函数 (KL Divergence Loss)、Hinge 损失函数、感知器 (Perceptron)、RBF 神经网络、Hopfield 网络、Boltzmann 机、深度强化学习 (DRL)、自监督学习 (Self-supervised Learning)、迁移学习 (Transfer Learning)、泛化对抗网络 (GAN)、对抗生成网络 (GAN)、训练生成网络 (TGAN)、CycleGAN、深度学习生成模型 (DLGM)、自动编码器生成对抗网络 (AEGAN)、分布式自编码器 (DAE)、网络激活优化器 (NAO)、自编码器 (Autoencoder)、VQ-VAE、LSTM-VAE、卷积自编码器 (CAE)、GAN 自编码器 (GANAE)、U-Net、深度 Q 网络 (DQN)、双重 DQN (DDQN)、优先回放 DQN (Prioritized Experience Replay DQN)、多智能体 DQN (Multi-agent DQN)、深度确定性策略梯度 (DDPG)、感知器 (Perceptron)、稀疏自编码器 (SAE)、稀疏表示分类 (SRC)、深度置信网络 (DBN)、支持向量机 (SVM)、集成学习 (Ensemble Learning)、随机森林 (Random Forest)、极限梯度提升树 (XGBoost)、AdaBoost、梯度提升机 (Gradient Boosting Machine)、Stacking、贝叶斯优化器 (Bayesian Optimization)、贝叶斯网络 (Bayesian Network)、EM 算法 (Expectation-Maximization Algorithm)、高斯过程 (Gaussian Process)、马尔科夫链蒙特卡洛 (MCMC)、强化学习 (Reinforcement Learning)、无监督学习 (Unsupervised Learning)、半监督学习 (Semi-supervised Learning)、监督学习 (Supervised Learning)、迁移学习 (Transfer Learning)、维数约简 (Dimensionality Reduction)、特征选择 (Feature Selection)、特征提取 (Feature Extraction)、正则化 (Regularization)、标准化 (Normalization)、聚类 (Clustering)、分类 (Classification)、回归 (Regression)、降维 (Dimensionality Reduction)、特征映射 (Feature Mapping)、神经网络 (Neural Network)、神经元 (Neuron)、激活函数 (Activation Function)、损失函数 (Loss Function)、优化器 (Optimizer)、学习率 (Learning Rate)、批次大小 (Batch Size)、迭代次数 (Epoch)、超参数 (Hyperparameter)、模型评估 (Model Evaluation)、交叉验证 (Cross Validation)、混淆矩阵 (Confusion Matrix)、ROC 曲线 (ROC Curve)、AUC 值 (AUC Value)、精确度 (Precision)、召回率 (Recall)、F1 分数 (F1 Score)、模型解释 (Model Interpretability)、特征重要性 (Feature Importance)、局部解释 (Local Explanation)、全局解释 (Global Explanation)、机器学习管道 (Machine Learning Pipeline)、一键生成模型 (AutoML)、超参数优化 (Hyperparameter Tuning)、FFT、拉普拉斯变换、z变换、傅里叶变换、短时傅里叶变换 (STFT)、IIR、FIR、卡尔曼滤波、DIP算法、小波变换
    音乐使用许可:RUclips 音频库许可
    你可以将此音频曲目用在任何视频中,包括你用来创收的视频。
    无需署名。
    视频中的音乐(均为以上许可):
    AETHER - Density & Time
    If I Had a Chicken - Kevin MacLeod
    Missing Persons - Jeremy Blake
    PELAGIC - Density & Time

Комментарии • 34

  • @shaomh
    @shaomh Месяц назад +5

    是的,我也感觉先实战,对模型构建有一定实际认知和理解之后,对一些基础的知识理论有了探索的兴趣,再去对应的补充一些基础知识。这样会更容易坚持一点,直接纯从理论基础出发,太费脑子了,还很难坚持下来🥲

  • @432v01
    @432v01 Месяц назад +9

    線性代數用一天就能學會 XD 這種話可能連陶哲軒都不敢說

    • @yu_hsiang
      @yu_hsiang Месяц назад +6

      @@432v01 這是指看得懂paper上的算式的程度吧

    • @aquathewise7838
      @aquathewise7838 Месяц назад +6

      看你想学到什么程度 要是Bourbaki式的linear algebra那肯定不止一天了 但学了这个对你看懂ai文章没有什么帮助

    • @phdvlog2024
      @phdvlog2024  Месяц назад +2

      就是学会基本的 应用的

    • @svl8389
      @svl8389 Месяц назад

      MIT有Gilbert Strang的课,我感觉里面内容专心学的话最起码得一个月。

  • @yeeyee9079
    @yeeyee9079 Месяц назад +1

    身為一個電資領域相關的研究生,雖然實驗室玩的偏向在AI推理的部分,但對於AI模型架構都是燃燒熱忱自學的,因為我覺得我用一個模型卻不懂他最主要的核心這樣太奇怪了,雖然曾經有想過靠一己之力去改變模型(這裡指的不只是優化),但AI這圈子太內卷了,雖然我有想法,但這些想法別的團隊早就做出來了,甚至做得比我預期的好很多,所以我覺得在發明創造的部分真的太硬核了。

    • @phdvlog2024
      @phdvlog2024  Месяц назад

      也没有那么硬核,有硬核的,有还行的,看你选的什么赛道了

  • @chrislin4540
    @chrislin4540 Месяц назад

    要去發論文的自然要有相關的理工知識,基本上不是去唸研究所就是已經待在研究所。
    那些東西都是數學/CS undergrade 底下的,在學校的話應該去找老師 / open courseware / 書
    應用的話看懂 introduction 跟 experiment + conclusion就可以了。

    • @phdvlog2024
      @phdvlog2024  Месяц назад

      能发论文的基本上是学都学过 只是冷知识库罢了

  • @miltonrue9026
    @miltonrue9026 Месяц назад

    实战的时候是不需要,但是面试的时候可能考啊😂😂😂

  • @yuyasa3997
    @yuyasa3997 Месяц назад +2

    感谢分享

  • @star_anise_Hook.F.
    @star_anise_Hook.F. Месяц назад

    难绷,要想写游戏的话,基于图形的需要也得会线性代数......

    • @phdvlog2024
      @phdvlog2024  Месяц назад

      不需要啊,直接调库就行了,线性代数?写OpenGL都不需要线性代数啊

  • @ush1742
    @ush1742 Месяц назад +1

    你漏寫一個統計學,這也挺重要的

    • @phdvlog2024
      @phdvlog2024  Месяц назад

      没写 但说了 概率统计 随机过程 信息论(熵之类的东西)可能还有点数字信号处理(FFT)

  • @future7442
    @future7442 Месяц назад +1

    來報到拉

  • @waynechiu9078
    @waynechiu9078 Месяц назад +1

    看要做到多深

  • @nekososu
    @nekososu Месяц назад

    最新的alphaproof有imo银牌能力了,要不多讲点rl+mcts之类的paper

    • @phdvlog2024
      @phdvlog2024  Месяц назад

      强化学习这一块我不是很熟,可以试试

  • @fdsmolasfae
    @fdsmolasfae Месяц назад +1

    pi套持是什么?

    • @fdsmolasfae
      @fdsmolasfae Месяц назад

      是pytorch吗 转录的字幕听不太懂

    • @phdvlog2024
      @phdvlog2024  Месяц назад

      😂,这几天火气有点大,讲了太多,声音都不清楚了

    • @fdsmolasfae
      @fdsmolasfae Месяц назад

      @@phdvlog2024 多休息啊 大佬 来日方长

  • @easonwong6799
    @easonwong6799 Месяц назад

    请赐教视频的实时字幕是用的什么呢?

  • @mengmeng4312
    @mengmeng4312 Месяц назад +6

    教GPT视频最好的是台大李宏毅

    • @cicerochen313
      @cicerochen313 Месяц назад +3

      Umar Jamil 個人覺得最佳!深入淺出!

    • @phdvlog2024
      @phdvlog2024  Месяц назад +3

      多看论文吧 看视频太慢了

    • @benc7910
      @benc7910 Месяц назад

      @@phdvlog2024 多看論文還是多看期刊?

    • @phdvlog2024
      @phdvlog2024  Месяц назад +1

      计算机都是会议

  • @highholy3207
    @highholy3207 Месяц назад

    我感觉现在连高中数学水平都没有了。。