Tất cả các Layer trong Neural Network trong 20 phút

Поделиться
HTML-код
  • Опубликовано: 13 дек 2024

Комментарии • 26

  • @buhbuhlmao9018
    @buhbuhlmao9018 8 дней назад +1

    cảm ơn anh rất nhiều, đúng lúc em đang chuẩn bị tổng hợp lại kiến thức thì gặp video này

  • @HaiNguyen-fz3xv
    @HaiNguyen-fz3xv 8 дней назад +1

    Video rất chi tiết và dễ hiểu ạ

  • @KHERP-bp8nw
    @KHERP-bp8nw 8 дней назад +1

    video rất hay ạ, mong anh ra thêm nhiều video hơn nữa ạ

  • @samefrequency20
    @samefrequency20 4 дня назад

    Em cảm ơn anh ạ🎉🎉

  • @Lunalevi-toan
    @Lunalevi-toan 7 дней назад +1

    anh giải thích e mới hiểu luôn á. chưa hiểu cái phần hàm kích hoạt cho lắm chắc em xem lại rồi search thôi. Dù sao cũng cảm ơn video của anh Việt. ❤

    • @vietnh1009
      @vietnh1009  7 дней назад

      Cảm ơn em nhiều nha

    • @sieusaoduongdua
      @sieusaoduongdua 6 дней назад

      Cái hàm kích hoạt thì ta có thể hiểu đơn giản nó như 1 cái lọc neuron tùy loại activate mình dùng. Còn với lớp cuối cùng thì activate dùng như 1 kiểu tính toán để neuron cho phạm vi số mà ta mong muốn để giải quyết bài toán

  • @trungpham9241
    @trungpham9241 4 дня назад

    Khi nào a giải thích về hàm loss và các kiểm soát nó được không anh, em theo dõi a được một thời gian và trong việc đi học e cũng được các thầy nói hãy nghiên cứu sâu vào các hàm loss và học cách kiểm soát được nó ấy ạ. Em cảm ơn anh nhiều

  • @lathinh3413
    @lathinh3413 5 дней назад

    Cảm ơn anh vì kiến thức ạ. Em có thấy ở slide cuối video có nói đến lặp lại B1 B2 đến khi Fea Map đủ nhỏ thì ở đây Fea Map là gì, và làm sao để biết được nó "đủ nhỏ" thế anh? Mong được anh trả lời ạ.

  • @peterjackson4530
    @peterjackson4530 7 дней назад

    Bạn có làm Transformer nữa ko nhỉ?

  • @manhhoang6670
    @manhhoang6670 8 дней назад +1

    anh ơi, có thể làm 1 video về LSTM được không ạ

    • @vietnh1009
      @vietnh1009  8 дней назад +2

      Có em ạ. Anh sẽ làm riêng 1 video về recurrent neural network

    • @manhhoang6670
      @manhhoang6670 4 дня назад

      @@vietnh1009 dạ em cảm ơn anh, rất mong chờ về series Deep Learning này ạ

  • @thanhdanhthai4484
    @thanhdanhthai4484 6 дней назад

    11:39 tinder

  • @caonguyennguyen7669
    @caonguyennguyen7669 8 дней назад

    Dạ anh ơi để phân biệt các đối tượng có cùng label thì có cách nào k ạ. Ví dụ như phân biệt các đối tượng “person” với các đối tượng “person” khác trong camera thời gian thực ạ. Mong a giải đáp. E cám ơn

    • @sieusaoduongdua
      @sieusaoduongdua 6 дней назад

      Chắc bạn phải giải thích rõ hơn rồi. Bạn muốn mô hình phân biệt giữa người và vật, trong nhóm đối tượng người, bạn muốn phân biệt từng người 1 có phải không

    • @caonguyennguyen7669
      @caonguyennguyen7669 6 дней назад

      @@sieusaoduongdua Dạ đúng rồi ạ, em muốn phân biệt từng đối tượng người trong bài toán Object Detection nhưng chưa rõ hướng làm ạ

    • @sieusaoduongdua
      @sieusaoduongdua 6 дней назад

      @@caonguyennguyen7669 mình đang hình dung là đầu ra của bạn sẽ có dạng (batch size, số lượng đối tượng, nhãn cho từng đối tượng) softmax cho chiều cuối như thường. phần đầu mô hình thì bạn cứ dùng bất cứ gì bạn thích cho đến fully connected layer thì nối với 1 lớp tuyến tính cuối cùng nn.Linear(ff_size, số lượng đối tượng * nhãn cho từng đối tượng)

    • @sieusaoduongdua
      @sieusaoduongdua 6 дней назад

      self.out = nn.Linear(ff_size, số lượng đối tượng * nhãn cho từng đối tượng)
      trong phương thức forward
      out = self.out(x)
      out = out.view(-1, số lượng đối tượng, nhãn cho từng đối tượng)
      out = torch.softmax(out, dim=-1)

  • @thanhdanhthai4484
    @thanhdanhthai4484 6 дней назад

    Deep learning

  • @sieusaoduongdua
    @sieusaoduongdua 6 дней назад

    Video nên đặt tên là những layer phổ biến chứ tất cả, các bạn nghe lại mê mệt 😅