让人欲哭无泪的科研猪队友!你中招了吗?

Поделиться
HTML-код
  • Опубликовано: 10 сен 2024
  • 欢迎来到我的频道,在这里我会讲解机器学习、深度学习最经典或者最前沿的模型,同时我还会讲在美国如何生活,如何找工作,如何刷LeetCode,如何快速融入社会。喜欢记得订阅、点赞哦!如果你有什么想要听的,在下面留言吧!
    目前的讲解清单:
    线性回归 (LR)、逻辑回归 (LogR)、多项式回归 (PR)、Lasso 回归、Ridge 回归、弹性网络 (Elastic Net)、决策树 (DT)、随机森林 (RF)、梯度提升树 (GBT)、XGBoost、LightGBM、CatBoost、支持向量机 (SVM)、朴素贝叶斯 (NB)、K 最近邻 (KNN)、主成分分析 (PCA)、独立成分分析 (ICA)、线性判别分析 (LDA)、t-分布邻近嵌入 (t-SNE)、高斯混合模型 (GMM)、聚类分析 (CA)、K 均值聚类 (K-means)、DBSCAN、HDBSCAN、层次聚类 (HC)、GAN (生成对抗网络)、CGAN、DCGAN、WGAN (Wasserstein GAN)、StyleGAN、CycleGAN、VAE (变分自编码器)、GPT (生成式预训练模型)、BERT、Transformer、LSTM (长短期记忆网络)、GRU (门控循环单元)、RNN (循环神经网络)、CNN (卷积神经网络)、AlexNet、VGG、GoogLeNet、ResNet、MobileNet、EfficientNet、Inception、DeepDream、深度信念网络 (DBN)、自动编码器 (AE)、强化学习 (RL)、Q-learning、SARSA、DDPG、A3C、SAC、时序差分学习 (TD)、Actor-Critic、对抗训练 (Adversarial Training)、梯度下降 (GD)、随机梯度下降 (SGD)、批量梯度下降 (BGD)、Adam、RMSprop、AdaGrad、AdaDelta、Nadam、交叉熵损失函数 (Cross-Entropy Loss)、均方误差损失函数 (Mean Squared Error Loss)、KL 散度损失函数 (KL Divergence Loss)、Hinge 损失函数、感知器 (Perceptron)、RBF 神经网络、Hopfield 网络、Boltzmann 机、深度强化学习 (DRL)、自监督学习 (Self-supervised Learning)、迁移学习 (Transfer Learning)、泛化对抗网络 (GAN)、对抗生成网络 (GAN)、训练生成网络 (TGAN)、CycleGAN、深度学习生成模型 (DLGM)、自动编码器生成对抗网络 (AEGAN)、分布式自编码器 (DAE)、网络激活优化器 (NAO)、自编码器 (Autoencoder)、VQ-VAE、LSTM-VAE、卷积自编码器 (CAE)、GAN 自编码器 (GANAE)、U-Net、深度 Q 网络 (DQN)、双重 DQN (DDQN)、优先回放 DQN (Prioritized Experience Replay DQN)、多智能体 DQN (Multi-agent DQN)、深度确定性策略梯度 (DDPG)、感知器 (Perceptron)、稀疏自编码器 (SAE)、稀疏表示分类 (SRC)、深度置信网络 (DBN)、支持向量机 (SVM)、集成学习 (Ensemble Learning)、随机森林 (Random Forest)、极限梯度提升树 (XGBoost)、AdaBoost、梯度提升机 (Gradient Boosting Machine)、Stacking、贝叶斯优化器 (Bayesian Optimization)、贝叶斯网络 (Bayesian Network)、EM 算法 (Expectation-Maximization Algorithm)、高斯过程 (Gaussian Process)、马尔科夫链蒙特卡洛 (MCMC)、强化学习 (Reinforcement Learning)、无监督学习 (Unsupervised Learning)、半监督学习 (Semi-supervised Learning)、监督学习 (Supervised Learning)、迁移学习 (Transfer Learning)、维数约简 (Dimensionality Reduction)、特征选择 (Feature Selection)、特征提取 (Feature Extraction)、正则化 (Regularization)、标准化 (Normalization)、聚类 (Clustering)、分类 (Classification)、回归 (Regression)、降维 (Dimensionality Reduction)、特征映射 (Feature Mapping)、神经网络 (Neural Network)、神经元 (Neuron)、激活函数 (Activation Function)、损失函数 (Loss Function)、优化器 (Optimizer)、学习率 (Learning Rate)、批次大小 (Batch Size)、迭代次数 (Epoch)、超参数 (Hyperparameter)、模型评估 (Model Evaluation)、交叉验证 (Cross Validation)、混淆矩阵 (Confusion Matrix)、ROC 曲线 (ROC Curve)、AUC 值 (AUC Value)、精确度 (Precision)、召回率 (Recall)、F1 分数 (F1 Score)、模型解释 (Model Interpretability)、特征重要性 (Feature Importance)、局部解释 (Local Explanation)、全局解释 (Global Explanation)、机器学习管道 (Machine Learning Pipeline)、一键生成模型 (AutoML)、超参数优化 (Hyperparameter Tuning)、FFT、拉普拉斯变换、z变换、傅里叶变换、短时傅里叶变换 (STFT)、IIR、FIR、卡尔曼滤波、DIP算法、小波变换
    音乐使用许可:RUclips 音频库许可
    你可以将此音频曲目用在任何视频中,包括你用来创收的视频。
    无需署名。
    视频中的音乐(均为以上许可):
    AETHER - Density & Time
    If I Had a Chicken - Kevin MacLeod
    Missing Persons - Jeremy Blake
    PELAGIC - Density & Time

Комментарии • 40

  • @user-rb5ez7zv2h
    @user-rb5ez7zv2h Месяц назад +4

    这种人确实是让人感到压力大,感觉我有个教授就那样,所以就感觉平时他没啥朋友😅

  • @user-ux3wf5do8f
    @user-ux3wf5do8f Месяц назад +6

    还有一种猪队友是“不请自来的猪队友”,导师让我带转专业读硕士的师弟科研,师弟从0开始学python,编程靠chatgpt,不去实验室平时宿舍开摆,很多时候只能对这种类型的人冷处理,不然就会产生1+1

    • @phdvlog2024
      @phdvlog2024  Месяц назад +6

      这种很可怕 用ChatGPT写出来的东西要是错了 可直接算造假 而不是误差了

    • @Ryan.66666
      @Ryan.66666 Месяц назад +2

      哎,公司里见得多了,1+1+1+1=0.1 这种太多了。

    • @menkiguo7805
      @menkiguo7805 Месяц назад

      @@phdvlog2024 我带的那个本科生就是这样😅

  • @wisdomfleet
    @wisdomfleet Месяц назад +4

    对UP主的痛苦经历深感同情。不过UP主好像对商业公司环境有点过高期待。高校和公司环境各有优劣,令人无语的共性远多于差异。这世界就是个草台班子,没有象牙塔,也不存在世外桃源。个人浅见,与诸君共勉。

    • @phdvlog2024
      @phdvlog2024  Месяц назад +1

      公司里面跳槽比较简单,学校嘛,太恶心了

    • @wisdomfleet
      @wisdomfleet Месяц назад

      @@phdvlog2024 跳槽是一个临时的解,跳多了,发现到哪都差不多,多是草台班子。如果个人能力强,更好的方案就是独挑大梁。

    • @phdvlog2024
      @phdvlog2024  Месяц назад

      草台班子 但是干活不累 挣得还多 给我钱就行了 至于说做出来什么我才不管😂

  • @tl7955
    @tl7955 Месяц назад +2

    沒聯合老闆把真一作給擠下去就不錯了

  • @abse-mj8pw
    @abse-mj8pw Месяц назад

    国内top2在读,想请教youtuber怎么才能进research公司呢?25fall要申请了,感觉很多master项目不是很适合科研而且很多人都说读了ms也找不到工作,但是读phd又得5 6年(现在也没有很好的结果去申请),如果以进公司搞研究或者做ai相关产品的话,什么路径是比较好成功的呢?

    • @phdvlog2024
      @phdvlog2024  Месяц назад +2

      别读phd 读个master然后稍微拖延一下毕业,多找几份实习吧

    • @abse-mj8pw
      @abse-mj8pw Месяц назад

      @@phdvlog2024 感谢大佬回复!ms的顾虑一个是工作机会一个是h1b难抽😭感觉phd能度过这个衰退周期并且申请niw😭您这么劝退phd是因为学校没有很多卡以后做不出什么有意思的work吗

  • @menkiguo7805
    @menkiguo7805 Месяц назад

    做科研还是得要尽量严谨

    • @phdvlog2024
      @phdvlog2024  Месяц назад

      一百万数据里面有一个有问题这种无所谓

    • @menkiguo7805
      @menkiguo7805 Месяц назад

      @@phdvlog2024 对 但我知道有些人分训练集验证集不按实际分。比如说我们k个样品每个过了三次柱子,就有3k个replicate因该按照样品来分而不是replicate来分。但很多人似乎没在意

    • @phdvlog2024
      @phdvlog2024  Месяц назад

      这种问题多了 连公司都会搞出来

  • @alexli2023
    @alexli2023 Месяц назад +1

    ChatGDP 1個頂10個 不怕

  • @allenlin1309
    @allenlin1309 Месяц назад

    我比較好奇如果是一群白人作實驗會怎樣,也是一直鑽牛角尖? 還是他們可以弄出更好的東西?

    • @phdvlog2024
      @phdvlog2024  Месяц назад

      cvpr现在中国队伍占60-80%吧 不能太钻牛角尖 你是一个人而不是一个部门 结果就是做不到完美 只要不影响结果超过比如说千分之一(这里的千分之一是指 如果你的论文提升了百分之五 那这种误差不能超过百分之五乘以千分之一

    • @phdvlog2024
      @phdvlog2024  Месяц назад

      白人吧 你看到比如说transformer 那是顶尖的团队 和你能接触到的那些不太一样 大部分不太行

  • @zewenzhou3574
    @zewenzhou3574 Месяц назад

    谢谢up主,我就是那种猪队友!马上悔改!

    • @phdvlog2024
      @phdvlog2024  Месяц назад

      😂

    • @phdvlog2024
      @phdvlog2024  Месяц назад

      不要太认真,而且能把责任撇清的那种就不要管了,管不过来的

    • @zewenzhou3574
      @zewenzhou3574 Месяц назад

      @@phdvlog2024 😉嗯嗯

  • @dreamingkid2227
    @dreamingkid2227 Месяц назад

    听说有一种叫做 -铊- 的化学物质!

    • @phdvlog2024
      @phdvlog2024  Месяц назад +1

      😂,那个是室友矛盾。这个是同事的问题

    • @dreamingkid2227
      @dreamingkid2227 Месяц назад

      @@phdvlog2024 吃了都一样,不过如果是最后才爆炸这种确实没办法。。

  • @mengmeng4312
    @mengmeng4312 Месяц назад +2

    感谢分享,
    自己做两年独立开发了,现在觉得软件能跑就行,bug什么的先放放