Cái hàm kích hoạt thì ta có thể hiểu đơn giản nó như 1 cái lọc neuron tùy loại activate mình dùng. Còn với lớp cuối cùng thì activate dùng như 1 kiểu tính toán để neuron cho phạm vi số mà ta mong muốn để giải quyết bài toán
Khi nào a giải thích về hàm loss và các kiểm soát nó được không anh, em theo dõi a được một thời gian và trong việc đi học e cũng được các thầy nói hãy nghiên cứu sâu vào các hàm loss và học cách kiểm soát được nó ấy ạ. Em cảm ơn anh nhiều
Cảm ơn anh vì kiến thức ạ. Em có thấy ở slide cuối video có nói đến lặp lại B1 B2 đến khi Fea Map đủ nhỏ thì ở đây Fea Map là gì, và làm sao để biết được nó "đủ nhỏ" thế anh? Mong được anh trả lời ạ.
Dạ anh ơi để phân biệt các đối tượng có cùng label thì có cách nào k ạ. Ví dụ như phân biệt các đối tượng “person” với các đối tượng “person” khác trong camera thời gian thực ạ. Mong a giải đáp. E cám ơn
Chắc bạn phải giải thích rõ hơn rồi. Bạn muốn mô hình phân biệt giữa người và vật, trong nhóm đối tượng người, bạn muốn phân biệt từng người 1 có phải không
@@caonguyennguyen7669 mình đang hình dung là đầu ra của bạn sẽ có dạng (batch size, số lượng đối tượng, nhãn cho từng đối tượng) softmax cho chiều cuối như thường. phần đầu mô hình thì bạn cứ dùng bất cứ gì bạn thích cho đến fully connected layer thì nối với 1 lớp tuyến tính cuối cùng nn.Linear(ff_size, số lượng đối tượng * nhãn cho từng đối tượng)
self.out = nn.Linear(ff_size, số lượng đối tượng * nhãn cho từng đối tượng) trong phương thức forward out = self.out(x) out = out.view(-1, số lượng đối tượng, nhãn cho từng đối tượng) out = torch.softmax(out, dim=-1)
cảm ơn anh rất nhiều, đúng lúc em đang chuẩn bị tổng hợp lại kiến thức thì gặp video này
Cảm ơn em nha
Video rất chi tiết và dễ hiểu ạ
thankss em nha
video rất hay ạ, mong anh ra thêm nhiều video hơn nữa ạ
cảm ơn em nha
Em cảm ơn anh ạ🎉🎉
anh giải thích e mới hiểu luôn á. chưa hiểu cái phần hàm kích hoạt cho lắm chắc em xem lại rồi search thôi. Dù sao cũng cảm ơn video của anh Việt. ❤
Cảm ơn em nhiều nha
Cái hàm kích hoạt thì ta có thể hiểu đơn giản nó như 1 cái lọc neuron tùy loại activate mình dùng. Còn với lớp cuối cùng thì activate dùng như 1 kiểu tính toán để neuron cho phạm vi số mà ta mong muốn để giải quyết bài toán
Khi nào a giải thích về hàm loss và các kiểm soát nó được không anh, em theo dõi a được một thời gian và trong việc đi học e cũng được các thầy nói hãy nghiên cứu sâu vào các hàm loss và học cách kiểm soát được nó ấy ạ. Em cảm ơn anh nhiều
Cảm ơn anh vì kiến thức ạ. Em có thấy ở slide cuối video có nói đến lặp lại B1 B2 đến khi Fea Map đủ nhỏ thì ở đây Fea Map là gì, và làm sao để biết được nó "đủ nhỏ" thế anh? Mong được anh trả lời ạ.
Bạn có làm Transformer nữa ko nhỉ?
anh ơi, có thể làm 1 video về LSTM được không ạ
Có em ạ. Anh sẽ làm riêng 1 video về recurrent neural network
@@vietnh1009 dạ em cảm ơn anh, rất mong chờ về series Deep Learning này ạ
11:39 tinder
Dạ anh ơi để phân biệt các đối tượng có cùng label thì có cách nào k ạ. Ví dụ như phân biệt các đối tượng “person” với các đối tượng “person” khác trong camera thời gian thực ạ. Mong a giải đáp. E cám ơn
Chắc bạn phải giải thích rõ hơn rồi. Bạn muốn mô hình phân biệt giữa người và vật, trong nhóm đối tượng người, bạn muốn phân biệt từng người 1 có phải không
@@sieusaoduongdua Dạ đúng rồi ạ, em muốn phân biệt từng đối tượng người trong bài toán Object Detection nhưng chưa rõ hướng làm ạ
@@caonguyennguyen7669 mình đang hình dung là đầu ra của bạn sẽ có dạng (batch size, số lượng đối tượng, nhãn cho từng đối tượng) softmax cho chiều cuối như thường. phần đầu mô hình thì bạn cứ dùng bất cứ gì bạn thích cho đến fully connected layer thì nối với 1 lớp tuyến tính cuối cùng nn.Linear(ff_size, số lượng đối tượng * nhãn cho từng đối tượng)
self.out = nn.Linear(ff_size, số lượng đối tượng * nhãn cho từng đối tượng)
trong phương thức forward
out = self.out(x)
out = out.view(-1, số lượng đối tượng, nhãn cho từng đối tượng)
out = torch.softmax(out, dim=-1)
Deep learning
Exness
Xm
Xtb
Exit
Video nên đặt tên là những layer phổ biến chứ tất cả, các bạn nghe lại mê mệt 😅