全网最易懂:10分钟深入了解对比学习!

Поделиться
HTML-код
  • Опубликовано: 18 сен 2024
  • 欢迎来到我的频道,在这里我会讲解机器学习、深度学习最经典或者最前沿的模型,同时我还会讲在美国如何生活,如何找工作,如何刷LeetCode,如何快速融入社会。喜欢记得订阅、点赞哦!如果你有什么想要听的,在下面留言吧!
    目前的讲解清单:
    线性回归 (LR)、逻辑回归 (LogR)、多项式回归 (PR)、Lasso 回归、Ridge 回归、弹性网络 (Elastic Net)、决策树 (DT)、随机森林 (RF)、梯度提升树 (GBT)、XGBoost、LightGBM、CatBoost、支持向量机 (SVM)、朴素贝叶斯 (NB)、K 最近邻 (KNN)、主成分分析 (PCA)、独立成分分析 (ICA)、线性判别分析 (LDA)、t-分布邻近嵌入 (t-SNE)、高斯混合模型 (GMM)、聚类分析 (CA)、K 均值聚类 (K-means)、DBSCAN、HDBSCAN、层次聚类 (HC)、GAN (生成对抗网络)、CGAN、DCGAN、WGAN (Wasserstein GAN)、StyleGAN、CycleGAN、VAE (变分自编码器)、GPT (生成式预训练模型)、BERT、Transformer、LSTM (长短期记忆网络)、GRU (门控循环单元)、RNN (循环神经网络)、CNN (卷积神经网络)、AlexNet、VGG、GoogLeNet、ResNet、MobileNet、EfficientNet、Inception、DeepDream、深度信念网络 (DBN)、自动编码器 (AE)、强化学习 (RL)、Q-learning、SARSA、DDPG、A3C、SAC、时序差分学习 (TD)、Actor-Critic、对抗训练 (Adversarial Training)、梯度下降 (GD)、随机梯度下降 (SGD)、批量梯度下降 (BGD)、Adam、RMSprop、AdaGrad、AdaDelta、Nadam、交叉熵损失函数 (Cross-Entropy Loss)、均方误差损失函数 (Mean Squared Error Loss)、KL 散度损失函数 (KL Divergence Loss)、Hinge 损失函数、感知器 (Perceptron)、RBF 神经网络、Hopfield 网络、Boltzmann 机、深度强化学习 (DRL)、自监督学习 (Self-supervised Learning)、迁移学习 (Transfer Learning)、泛化对抗网络 (GAN)、对抗生成网络 (GAN)、训练生成网络 (TGAN)、CycleGAN、深度学习生成模型 (DLGM)、自动编码器生成对抗网络 (AEGAN)、分布式自编码器 (DAE)、网络激活优化器 (NAO)、自编码器 (Autoencoder)、VQ-VAE、LSTM-VAE、卷积自编码器 (CAE)、GAN 自编码器 (GANAE)、U-Net、深度 Q 网络 (DQN)、双重 DQN (DDQN)、优先回放 DQN (Prioritized Experience Replay DQN)、多智能体 DQN (Multi-agent DQN)、深度确定性策略梯度 (DDPG)、感知器 (Perceptron)、稀疏自编码器 (SAE)、稀疏表示分类 (SRC)、深度置信网络 (DBN)、支持向量机 (SVM)、集成学习 (Ensemble Learning)、随机森林 (Random Forest)、极限梯度提升树 (XGBoost)、AdaBoost、梯度提升机 (Gradient Boosting Machine)、Stacking、贝叶斯优化器 (Bayesian Optimization)、贝叶斯网络 (Bayesian Network)、EM 算法 (Expectation-Maximization Algorithm)、高斯过程 (Gaussian Process)、马尔科夫链蒙特卡洛 (MCMC)、强化学习 (Reinforcement Learning)、无监督学习 (Unsupervised Learning)、半监督学习 (Semi-supervised Learning)、监督学习 (Supervised Learning)、迁移学习 (Transfer Learning)、维数约简 (Dimensionality Reduction)、特征选择 (Feature Selection)、特征提取 (Feature Extraction)、正则化 (Regularization)、标准化 (Normalization)、聚类 (Clustering)、分类 (Classification)、回归 (Regression)、降维 (Dimensionality Reduction)、特征映射 (Feature Mapping)、神经网络 (Neural Network)、神经元 (Neuron)、激活函数 (Activation Function)、损失函数 (Loss Function)、优化器 (Optimizer)、学习率 (Learning Rate)、批次大小 (Batch Size)、迭代次数 (Epoch)、超参数 (Hyperparameter)、模型评估 (Model Evaluation)、交叉验证 (Cross Validation)、混淆矩阵 (Confusion Matrix)、ROC 曲线 (ROC Curve)、AUC 值 (AUC Value)、精确度 (Precision)、召回率 (Recall)、F1 分数 (F1 Score)、模型解释 (Model Interpretability)、特征重要性 (Feature Importance)、局部解释 (Local Explanation)、全局解释 (Global Explanation)、机器学习管道 (Machine Learning Pipeline)、一键生成模型 (AutoML)、超参数优化 (Hyperparameter Tuning)、FFT、拉普拉斯变换、z变换、傅里叶变换、短时傅里叶变换 (STFT)、IIR、FIR、卡尔曼滤波、DIP算法、小波变换

Комментарии • 26

  • @tgtbabm
    @tgtbabm 2 месяца назад +2

    感觉上contrastive learning 有点像 few shots learning/meta learning,anchor 和 positive/negative set有点像support set 和 query set ,请问下few shots learning/meta learning这种learn to learn的能力会cover contrastive learning 的能力吗?

  • @mintisan
    @mintisan 4 месяца назад +1

    进来学习了

    • @phdvlog2024
      @phdvlog2024  4 месяца назад

      你换头像了 都没认出来

  • @YiJiang
    @YiJiang 4 месяца назад +1

    这个视频是我全网看了那么多讲神经网络最容易理解的。 (二十年前读水硕的时候只做过监督学习的“项目”)

    • @phdvlog2024
      @phdvlog2024  4 месяца назад

      对比学习这五年来的东西 二十年前还没有

  • @Tanibu
    @Tanibu 4 месяца назад

    博主你好,我也有一些工作和论文想请您讲一下

    • @phdvlog2024
      @phdvlog2024  4 месяца назад

      我只能试试

    • @phdvlog2024
      @phdvlog2024  4 месяца назад

      没看到 你可能要重新发 被RUclips吞了 或者你加qq群,找管理

  • @mintisan
    @mintisan 4 месяца назад

    感觉对比学习还是要有标注【标注负样本,也就是正负拆开的初步标注[粗标记]】,但是没有监督学习标注的那么详细;半监督就是标注少量准确样本。

    • @phdvlog2024
      @phdvlog2024  4 месяца назад +1

      不 对比学习不需要标注 负样本是所有其他图片 正样本是经过数据增强的图片

    • @mintisan
      @mintisan 4 месяца назад

      @@phdvlog2024 这样确实,了解了

  • @alsonyang230
    @alsonyang230 23 дня назад

    请问19:32说的转机神经网络怎么写?我没听清。。但又搜不到类似读音的
    原话:它就可以用这样的一个xx神经网络去提取...

    • @phdvlog2024
      @phdvlog2024  18 дней назад

      卷积神经网络

    • @alsonyang230
      @alsonyang230 17 дней назад

      @@phdvlog2024 哦哦哦好的,谢谢哈!

  • @laviefu0630
    @laviefu0630 4 месяца назад

    這次是「櫻桃、奶油、蛋糕」,下回來個「草莓、大福、冰淇淋」,就能圈更多粉了!

  • @mintisan
    @mintisan 4 месяца назад

    中间态 semi-supervised 呢,,,

    • @phdvlog2024
      @phdvlog2024  4 месяца назад

      太多了 现在没时间讲了

  • @Ryan.66666
    @Ryan.66666 4 месяца назад +1

    怎么这么高产。

  • @user-pl7df6pd3i
    @user-pl7df6pd3i 4 месяца назад

    内容很好,但是标题说好的十分钟呢

    • @phdvlog2024
      @phdvlog2024  4 месяца назад

      😂里面讲了一半论文 另一半是其他视频 所以十分钟

  • @Ryan.66666
    @Ryan.66666 4 месяца назад

    up 话筒总有 咚咚咚的声音。。

    • @phdvlog2024
      @phdvlog2024  4 месяца назад +2

      话筒开关的声音 讲到一半忘词了 缓缓

  • @fdsmolasfae
    @fdsmolasfae 4 месяца назад

    qq群哪里找

    • @phdvlog2024
      @phdvlog2024  4 месяца назад

      个人简介(频道简介)

    • @fdsmolasfae
      @fdsmolasfae 4 месяца назад

      @@phdvlog2024 看不到啊