Комментарии •

  • @sorsun20707
    @sorsun20707 3 года назад +1

    ขอบคุณอาจารย์มากๆครับ อธิบายได้เห็นภาพชัดเจนมากครับ

  • @พิณผกาสุคชเดช

    มีประโยชน์มากค่ะ ขอบคุณอาจารย์มากๆ ค่ะ

  • @wjakkari
    @wjakkari 5 лет назад

    ขอบคุณอาจารย์มากๆครับ มีประโยชน์มากๆ

  • @wanruedeemanowilaipong6819
    @wanruedeemanowilaipong6819 4 года назад +1

    รบกวนสอบถามหน่อยค่ะ ถ้าจะขอไฟล์ powerpoint สามารถดาวน์โหลดได้ที่ไหนคะ พอดีว่าหนูกำลังศึกษาเรื่องนี้สำหรับโปรเจคจบอยู่ค่ะ ถ้ายังไงรบกวนด้วยนะค่ะ

    • @AIAT2015
      @AIAT2015 4 года назад

      ไม่มีให้โหลดครับ

  • @rithirongk
    @rithirongk 3 года назад

    ขอบคุณมากครับ +1 สับตะไคร้ สมาคมนี้มีรับสมาชิกไหมครับ?

  • @watcharapongjaichphoa7197
    @watcharapongjaichphoa7197 5 лет назад +1

    ขอขอบคุณ อาจารย์ทั้งสองท่าน และทีมงาน ที่ให้ความรู้ครับ (^_^)

  • @dv6000atgmail
    @dv6000atgmail 5 лет назад

    ขอบคุณครับ เป็นประโยชน์มากครับ

  • @-wits4645
    @-wits4645 4 года назад

    การเรียนรู้เชิงลึกเข้าไป กับ การที่ผมมีชั้น hidden layer ของ NN ที่มากขึ้น 2 3 ชั้นก้อเป็น deep learning แล้วเหรอคับ deep learning มันน่าจะมีคุณลักษณะอย่างอื่นที่ไม่ใช่จำนวนชั้นที่ซ่อนอยู่นะคับ

    • @AIAT2015
      @AIAT2015 4 года назад +2

      มีหลายท่านช่วยตอบครับ
      ท่านแรก อาจารย์ธนารักษ์ตอบดังนี้
      1. การทำให้เกิดชั้นมากขึ้นแล้วยังคำนวณได้
      มาจากการที่เครื่องคอมพิวเตอร์ มีประสิทธิภาพมากขึ้น
      2. เมื่อมีชั้นมากขึ้น เราจะออกแบบแต่ละชั้นอย่างไรก็ทำได้
      ในสมัยก่อน เราไม่สามารถทำชั้นได้มาก จึงไม่สามารถออกแบบได้
      3. การเชื่อมโยงของ Neural Network มีความซับซ้อนมากขึ้น
      ดังนั้น จะว่า มีชั้นมากขึ้นเท่านั้นเอง ก็ไม่ถูกที่เดียว
      เพราะเรา ต้องทำวิจัยว่า ชั้นที่ต่อกันแบบได้ จึงจะได้ผลที่ดี
      จึงเกิด architecture มากมายย่างใน URL นี้
      - recurrent neural networks (RNNs),
      - long short-term memory (LSTM)
      - gated recurrent unit (GRU),
      - convolutional neural networks (CNNs),
      - deep belief networks (DBN), and
      - deep stacking networks (DSNs)
      developer.ibm.com/technologies/artificial-intelligence/articles/cc-machine-learning-deep-learning-architectures/
      และ
      - AlexNet,
      - VGG Net,
      - GoogleNet,
      - ResNet,
      - ResNeXt,
      - RCNN,
      - YOLO,
      - SqueezeNet,
      - SegNet,
      - GAN
      เป็นต้น
      www.analyticsvidhya.com/blog/2017/08/10-advanced-deep-learning-architectures-data-scientists/

    • @AIAT2015
      @AIAT2015 4 года назад +1

      ดร. สรรพฤทธิ์ มฤคทัต ตอบดังนี้ครับ
      นิยามไม่เคยเคลียร์น่ะครับ
      ของที่ชัวร์คือถ้ามีแค่ input+1 hidden+output นี่ปกติเราเรียก shallow network
      และ
      เรื่องหา feature ผมเฉยๆ นะ เพราะยังไง internal representation มันก็มองเป็น feature ได้เสมอ
      ถ้าเราเน้น “feature” มากไปบางคนก็จะบอกว่า cnn 3 ชั้นก็เป็น deep ในขณะที่ fully connected layers 100 ชั้นไม่ใช่ deep
      ทั้งนี้ paper ที่เริ่มคำว่า “deep” เองก็ใช้ rbm ที่เทียบได้กับ fully connected layer มากกว่า cnn

    • @-wits4645
      @-wits4645 4 года назад

      @@AIAT2015 ขอบคุณ อ. ทั้งสองท่านมากที่เพิ่มความกระจ่างคับ ...deep learning ยังคงเป็นนิยามนี้ไม่เคยเคลียร์สำหรับ NN ขอบคุนมากๆคับ