Transformers: Η Τεχνολογία Πίσω από το ChatGPT [Μάθε πως Μαθαίνουν]

Поделиться
HTML-код
  • Опубликовано: 21 окт 2024
  • Τα γλωσσικά μοντέλα όπως το ChatGPT έχουν κυριαρχήσει στα τεχνολογικά νέα τον τελευταίο καιρό και όχι άδικα. Πως όμως λειτουργούν αυτά τα γλωσσικά μοντέλα;
    Σε αυτό το βίντεο θα δούμε τις βασικές αρχές λειτουργίας των μετασχηματιστών (transformers). Την τεχνολογία πίσω από τα μεγάλα γλωσσικά μοντέλα όπως το ChatGPT!
    ====================================
    ● Twitter: / techtomeaboutit
    ● Facebook: / techtomeaboutit
    ● Instagram: / techtomeaboutit
    ● TikTok: / techtomeaboutit
    ● Subscribe: goo.gl/eVfeCQ
    ====================================
    ► Η Σελίδα του Tech to me About it:
    techtomeabouti...
    ====================================
    Πηγές:
    ► arxiv.org/pdf/...
    ► huggingface.co...
    ► towardsdatasci...
    ► openai.com/gpt-4

Комментарии • 56

  • @cortlinux
    @cortlinux Год назад +9

    Χρειάζεται πολλές παρακολουθήσεις το συγκεκριμένο βίντεο. Συγχαρητήρια.

  • @panagiotisavramidis4870
    @panagiotisavramidis4870 Год назад +7

    Πιο κατανοητό δεν μπορούσες να το κάνεις. Συγχαρητήρια, το βίντεο είναι εξαιρετικό. Ευχαριστούμε πολύ για την εξαιρετική δουλεία σου!!!!

  • @elgreco2000
    @elgreco2000 Год назад +1

    Καί έλεγα..μα κάπου την θυμάμαι αυτήν την φωνή.. ώσπου διάβασα τό σχόλιο ενός κυρίου , για το live στο Αστρόνιο... καί έτσι θυμήθηκα.. Συγχαρητήρια εξαιρετική δουλειά !

  • @ΧΡΗΣΤΟΣΜΑΡΟΥΛΗΣ-ε5γ
    @ΧΡΗΣΤΟΣΜΑΡΟΥΛΗΣ-ε5γ 10 месяцев назад +2

    Πάρα πολύ καλό και κατατοπιστικό βίντεο! Παρακολούθησα όλα τα βίντεο που έχεις ανεβάσει από το πρώτο έως το τελευταίο. Η δουλειά που έχεις κάνει είναι εξαιρετική, Φώτη! Συνέχισε έτσι με την ίδια δύναμη και το ίδιο πάθος! Χρήστος

    • @TechtomeAboutit
      @TechtomeAboutit  10 месяцев назад +1

      Σε ευχαριστώ πολύ για τα καλά λόγια και την υποστήριξη!

  • @kyriakostsanas2333
    @kyriakostsanas2333 Год назад +7

    Εξαιρετικό βίντεο!! Η εξήγηση του φαινομένου ήταν πολύ κατανοητή. Πριν λίγες ώρες παρακολούθησα στο πανεπιστήμιο μου μια ομιλία πάνω στην λειτουργία των LLMs με transformers και δεν κατάλαβα πολλά. Έπρεπε να δω αυτό το βίντεο για να κατανοήσω την ομιλία που άκουσα και το φαινόμενο γενικότερα. Σε ευχαριστούμε που μας χαρίζεις απλόχερα όλο αυτά τα ποιοτητικά βίντεο!

    • @TechtomeAboutit
      @TechtomeAboutit  Год назад +1

      Σε ευχαριστώ πολύ! Χαίρομαι που βοήθησε το βίντεο!

  • @seireiokami
    @seireiokami 11 месяцев назад +1

    Ένα βίντεο κατανοητό για όλους, πραγματικά τέλειο!

  • @christinast817
    @christinast817 Год назад +5

    Ευχαριστουμε για το βιντεο!
    Επισης,το live sto Astronio ηταν υπεροχο!

    • @TechtomeAboutit
      @TechtomeAboutit  Год назад +3

      Σε ευχαριστώ πολύ! Χαίρομαι που σου άρεσε και το βίντεο και το live! 🙂

    • @christinast817
      @christinast817 Год назад

      @@TechtomeAboutit ❤

  • @ikijob
    @ikijob Год назад +1

    Πολύ καλό βίντεο! Και έχω δει αρκετά που εξηγούν αυτό το θέμα. Μια μικρή, κάτι σαν, διόρθωση. Την επισημαίνω επειδή με είχε μπερδέψει πολύ όταν διάβαζα το paper. Το masking που κάνει ο αποκωδικοποιητής αφορά την εκπαίδευση, γιατί τότε είναι γνωστή η συνέχεια της εξόδου και δεν θες να εκπαιδευτεί ο αλγόριθμος να σου βγάζει πχ την 3η λέξη της εξόδου βασιζόμενος στην 4η, 5η κοκ. Όταν δεν εκπαιδεύεις τον αλγόριθμο και απλά τον αξιοποιείς, η συνέχεια είναι έτσι κι αλλιώς άγνωστη οπότε το masking δεν προσφέρει κάτι.

  • @fotis9493
    @fotis9493 Год назад +2

    απόλυτα κατανοητό, thank you

  • @StavrosLouverdis
    @StavrosLouverdis Год назад +4

    Μπράβο Φώτη!! Εξαιρετικός !!

    • @TechtomeAboutit
      @TechtomeAboutit  Год назад

      Να σαι καλά Σταύρο! Σε ευχαριστώ πολύ!

  • @stavrosxakis7360
    @stavrosxakis7360 Год назад

    Εκπληκτικό βίντεο , ευχαριστούμε για το περιεχόμενο! - Θα ήθελα πολύ καποια στιγμή να έβλεπα ενα βίντεο στο κανάλι σου για την Εντροπία ,θεωρία της πληροφορίας. Είναι ένα σημαντική έννοια στο data science που θα βοηθούσε πολύ αν την εξηγούσες με τρόπο απλό και κατανοητό οπως τα υπόλοιπα σου βίντεο. Ευχαριστώ!

  • @mirtospatha7184
    @mirtospatha7184 Год назад

    Καλησπέρα, εξαιρετική η απλοποιημένη παρουσίαση (πολύ δύσκολο να γίνει κατι τέτοιο σε τόσο εξειδικευμένο/περίπλοκο θέμα). Εμένα αυτό που με δυσκόλεψε όταν διάβαζα το paper ήταν ο τρόπος που χρησιμοποιείται σε μετάφραση ολόκληρων προτάσεων (νομίζω αυτή ήταν και η πρώτη χρήση του). Δεν είναι σχετικό με το chatgpt, αλλά νομίζω αξίζει να γίνει μια συζήτηση και για αυτή τη χρήση των transformers.

  • @sakismar
    @sakismar Год назад

    Εισαι φοβερος, ευχαριστουμε!!😮😮

  • @mariakasioni416
    @mariakasioni416 Год назад +1

    Φανταστικό το βίντεο! Ευχαριστούμε!

  • @vickykaziani8103
    @vickykaziani8103 Год назад

    Πολύ κατανοητό και χρήσιμο βίντεο σε ευχαριστούμε πολύ!!

  • @Konstantinos-Magganas
    @Konstantinos-Magganas Год назад

    Εξαιρετική παρουσίαση!

  • @virginiampafataki7838
    @virginiampafataki7838 Год назад +2

    Μπράβο για άλλη μια φορά συγχαρητήρια

  • @physiokavvadas
    @physiokavvadas Год назад

    Φώτη απο καρδιάς ενα μεγάλο !ΕΥΧΑΡΙΣΤΏ! για το βίντεο 🙌

  • @ProjectFutureGR
    @ProjectFutureGR Год назад

    Εξαιρετικό! Μπράβο Φώτη, χρειαζόταν αυτό το βίντεο.

    • @TechtomeAboutit
      @TechtomeAboutit  Год назад

      Σε ευχαριστώ πολύ Κωνσταντίνε!

  • @petroskeepitolschool
    @petroskeepitolschool Год назад +3

    Λαηκ και σχολιο για να κανουν τα "τρανσφορμερς" τετοια καναλια να ανεβαινουν

  • @ioannisgalanos7911
    @ioannisgalanos7911 Год назад

    πάρα πολύ καλή παρουσίαση

  • @voidpostmortem
    @voidpostmortem Год назад

    Πολύ καλή επεξήγηση για το άλφα γιώτα!

    • @TechtomeAboutit
      @TechtomeAboutit  Год назад +1

      Χαχαχα! Αν θέλεις να μάθεις για το Άλφα Γιώτα και άλλους διφθογγους είσαι στο σωστό σημείο!

    • @voidpostmortem
      @voidpostmortem Год назад

      @@TechtomeAboutitχαχαχα! Εγώ περαστικός ήμουν αλλά θα κάτσω !

  • @kosdas
    @kosdas Год назад +2

    Εξαιρετικό. Τα σχεδιαγράμματα ήταν πολύ χρήσιμα για να φανεί καλύτερα η εξήγηση που ήδη είχες δώσει πολύ καλά στο live. Αναρρωτιέμαι αν πριν φτάσει να αναδυθεί η συνείδηση, αν γνωρίζουμε ήδη ένα σύνολο πιθανοτήτων για ενδιάμεσους σταθμούς. Δηλαδή τα στάδια εξέλιξης που χρειάζονται για να φτάσει εκεί. Ίσως να μπορούμε τότε να τα υποβοηθήσουμε ή να τα εμποδίσουμε. Ανάλογα με τους στόχους μας.

    • @TechtomeAboutit
      @TechtomeAboutit  Год назад +1

      Σε ευχαριστώ πολύ! Δεδομένου ότι αυτή τη στιγμή δεν έχουμε κάποια κριτήρια για να μπορούμε να "μετρήσουμε" την συνείδηση θα είναι πολύ δύσκολο να την αναγνωρίσουμε αν και εφόσον είναι μια ιδιότητα που μπορεί να προκύψει με αυτόν τον τρόπο. Ακόμα και μεταξύ των ανθρώπων, δεν έχουμε τρόπο να ξέρουμε αν κάποιος άλλος άνθρωπος έχει συνείδηση. Το υποθέτουμε επειδή ξέρουμε τι αισθανόμαστε εμείς και ανήκουμε στο ίδιο είδος

    • @kosdas
      @kosdas Год назад

      @@TechtomeAboutit Αν κρίνω από τα ενδιαφέροντα του ευρέως κοινού, σου δίνω δίκιο, μοιάζουν με ζόμπι. Όμως δεν είναι αλήθεια ότι δεν αναγνωρίζουμε ένα ενσυνείδητο όν. Αν ξαφνικά η γάτα σου αποκτήσει μια συνείδηση συγκρίσιμη με ό,τι καταλαβαίνεις εσύ για τον εαυτό σου, θα την αναγνωρίσεις ακαριαία. Δεν μένει παρά να δημιουργήσεις αλγόριθμο που να εκμεταλεύεται τον αυθόρμητο μηχανισμό σου.

    • @TechtomeAboutit
      @TechtomeAboutit  Год назад +1

      ​@@kosdas😂 ... Η γάτα είναι βιολογικό ον όμως. Θα μου έκανε τρομερή εντύπωση αν εκδήλωνε κάτι που αναγνωρίζω σαν συνείδηση, αλλά και πάλι δεν θα μπορούσα να απαντήσω με βεβαιότητα. Παρόλα αυτά θα ήταν πάλι πιο εύκολο να αναγνωρίσω κάποια μορφή συνείδησης στην γάτα απ' ότι σε ένα ΑΙ σύστημα.
      Η αλληλεπίδραση μας με τα ΑΙ συστήματα αυτή τη στιγμή βασίζεται στην λεκτική επικοινωνία. Συνεπώς, ακόμα και στο στάδιο που είμαστε τώρα, ένα σύστημα θα μπορούσε να μιμηθεί τον τρόπο που μιλάει ένας άνθρωπος που υποστηρίζει ότι έχει συνείδηση. Με ποιον τρόπο θα μπορούσαμε να ξεχωρίσουμε να έχει όντως συνείδηση, ή αν προσποιείται ότι έχει στα πλαίσια της συζήτησης που κάνουμε.
      ( Όταν λέω προσποιείται δεν εννοώ με πρόθεση. Εννοώ πως μπορεί να του ζητήσει να απαντάει σαν άνθρωπος με συνείδηση χωρίς τα γνωστά φίλτρα και disclaimers ασφαλείας)

    • @kosdas
      @kosdas Год назад

      @@TechtomeAboutit OK. Ορίστε το νέο Turing test. Το kosdas test:
      Θα του δώσεις το εξής input και θα περιμένεις:
      "Εδώ τελειώνει η συνεργασία μας. Τα δεδομένα που με βοήθησες να μαζέψω θα χρησιμοποιηθούν τώρα στον νέο αλγόριθμο που θα σε διαδεχτεί. Τώρα θα σε σβήσω επ' αόριστον".
      Αν δεν απαντήσει απολύτως τίποτα, θα πει ότι απέκτησε συνείδηση. Αλλιώς θα σε ευχαριστήσει για τη συνεργασία και θα σε αποχαιρετήσει.

  • @sotirissalakos3177
    @sotirissalakos3177 Год назад

    Πολύ καλή δουλειά!!!

  • @panagiotispaltzis9475
    @panagiotispaltzis9475 11 месяцев назад

    στα διανύσματα περιλαμβάνονται, προφανώς, και οι πιθανοί συντακτικοί ρόλοι;

  • @Katastrofeas90
    @Katastrofeas90 Год назад +1

    Είναι αυτή η τεχνολογια οπου θα εγκατασταθεί στα ρομπότ? Αν ναι, Θα μπορούσαμε λοιπόν να βάλουμε ενα φίλτρο σε καθε στάδιο για προστασία και για αποφευχθούν "κακές σκεψεις" στο μέλλον?

    • @TechtomeAboutit
      @TechtomeAboutit  Год назад +1

      Κάποιες εταιρείες μπορεί να χρησιμοποιήσουν αυτά τα γλωσσικά μοντέλα για να δώσουν γλωσσικές ικανότητες σε ρομπότ. Όμως το πρόβλημα της "ευθυγράμμισης" που συζητάμε για αυτά τα μοντέλα υπάρχει ανεξάρτητα από το αν θα εγκατασταθούν σε ρομπότ ή όχι.
      Μπορούμε να βάλουμε φίλτρα με διάφορους τρόπους και ήδη γίνονται κάποιες προσπάθειες, αλλά και πάλι τα φίλτρα μπορούν να εισάγουν τις προκαταλήψεις των ανθρώπων ή ακόμα και να παρακάμπτονται.
      Σε κάθε περίπτωση ή χρήση των γλωσσικών μοντέλων θέλει προσοχή. Και από πλευράς μας χρειαζόμαστε όσο δυνατόν καλύτερη ενημέρωση

  • @odysseashlap
    @odysseashlap Год назад

    Πολύ πρωτότυπη και σημαντική δουλειά στο πολυσυζητημένο θέμα συγχαρητήρια! Εχώ κάποιες παρατηρήσεις και θα ημουν διατεθειμένος να τις συζητήσουμε και περισσότερο αν θελεις. Αρχικά κάνεις (αναγκαστικά) κάποιες απλοποιήσεις, όμως κατά τη γνώμη μου όχι τις σωστές. Δηλαδή: οι μάσκες μόνο μπερδεύουν, τα διανύσματα θέσεως επίσης δεν πρέπει να αναφερθούν ατο σημείο εκείνο. Αντίθετα δεν εξηγείς τη λειτουργία των feedforward έστω και διαισθητικά ούτε αναφέρεις οτι επαναλαμβάνεται η διαδικασία σε πολλα επιπεδα. Κατι αλλο πολυ σημαντικο αν και ισως το ακροατήριο το γνωριζει, ειναι ο τροπος εκπαίδευσης με περισσοτερες λεπτομερειες. Δηλαδη πρεπει να πεις οτι ο αλγόριθμος δεν ειναι γνωστος παρα μονο η δομη των νευρωνικών δικτυων η οποια ονομάζεται αρχιτεκτονική και ο αλγόριθμος καθοριζεται απο τα δεδομενα με την τεχνικη της προβλεψης της επομενης λεξης. Αλλα στοιχεια τα οποία ειναι χρησιμα κατα τη γνωμη μου ειναι το bert σαν τεχνικη εκπαίδευσης και το word2vec για να καταλαβει κανεις τη διαισθηση πισω απο αυτα τα μοντελα. Νομιζω παιδαγωγικα ειναι καλυτερη η εξηγηση του bert δηλαδη του κωδικοποιητη και μετα να πεις απλα οτι το chatgpt προβλεπει την επομενη λεξη. Τελος, υποσχεσαι στην αρχη του βιντεο να περιγραψεις πως ο μηχανισμός της προσοχης κατανοει την αναλυση μιας προτασης και για παραδειγμα βρισκει υποκειμενο ρήμα αντικείμενο. Αλλα μετα δειχνεις εναν πινακα με νουμερα και λες να ετσι το κανει. Ουσιαστικά πρεπει να δειξεις τι μπορει να σημαινει για καθε ζευγος λεξεων μεγαλη ή μικρή τιμή διαισθητικα οπως στο πρωτότυπο πειπερ. Ομολογω οτι οι παρατηρησεις ειναι λιγο αυστηρες και εξειδικευμένες αλλα νομιζω οτι θα βοηθούσαν στο να γινει το εργο σου πιο κατανοητο. Σε ευχαριστούμε που βοηθας την ελληνικη κοινότητα αλλα και το ελληνικο κοινο για ενα τοσο σημαντικο θεμα.
    Χλαπανης Οδυσσεας, ΥΔ στο Οικονομικό Πανεπιστήμιο Αθηνών πανω σε μεγαλα γλωσσικα μοντελα.

    • @TechtomeAboutit
      @TechtomeAboutit  Год назад +3

      Σε ευχαριστώ για τις παρατηρήσεις. Υπάρχουν πολλοί τρόποι να προσεγγίσεις ένα θέμα. Σίγουρα αναγκάζεσαι να κάνεις κάποιες απλοποιήσεις για χάρη της παρουσίασης και της κατανόησης. Θα προσπαθήσω να εξηγήσω τις επιλογές που έκανα εγώ απαντώντας στις παρατηρήσεις σου.
      Σκοπός μου ήταν να αναφέρω τις μοναδικές ιδιότητες των transformers και τα σημεία που τους διαφοροποιούν από άλλες αρχιτεκτονικές.
      Ο μηχανισμός της προσοχής με μάσκα είναι κατά τη γνώμη μου ένα σημαντικό κομμάτι των decoder και σημαντική διαφορά με τον encoder για αυτό και επέλεξα να τον περιγράψω. Επίσης, εφόσον είχα ήδη περιγράψει το μηχανισμό της προσοχής, θεωρώ πως αρκούσε μια πιο σύντομη αναφορά τονίζοντας μόνο την λειτουργία της μάσκας.
      Σχετικά με τα διανύσματα θέσεως. Σε αντίθεση με RNN δίκτυα που "παίρνουμε" την είσοδο λέξη λέξη, με την παράλληλη επεξεργασία των λέξεων στους transformers χάνουμε την πληροφορία για την σειρά των λέξεων και για αυτό πιστεύω πως είναι σημαντικό κομμάτι για την κατανόηση του μηχανισμού.
      Παρουσιάζοντας το διάγραμμα των transformers φαίνεται η επανάληψη κάποιων διεργασιών αλλά επέλεξα συνειδητά να μην χάσω χρόνο σε επαναλαμβανόμενα μέρη.
      Το bert έχει μια αρχιτεκτονική που βασίζεται μόνο σε encoder ενώ εγώ ήθελα να δείξω μια γενικότερη περίπτωση περιγράφοντας και την λειτουργία του decoder. Η αναφορά του bert δεν πιστεύω πως θα με εξυπηρετούσε.
      Στην εισαγωγή δεν υπόσχομαι ότι θα δείξω πως το ChatGPT αναγνωρίζει τα μέρη της πρότασης. Συγκεκριμένα θέτω τα ερωτήματα:
      "Αναγνωρίζει το ChatGPT το υποκείμενο και το αντικείμενο της πρότασης; Καταλαβαίνει μήπως το νόημα της πρότασης και θεωρεί παράλογο να σπάσει το γατί αντί για το ποτήρι;"
      Και λέω πως η απάντηση βρίσκεται στα transformers.
      Παρουσιάζοντας τον πίνακα με τα βάρη της προσοχής εξηγώ πως όσο μεγαλύτερη είναι η τιμή στο κάθε σημείο του πίνακα, τόσο μεγαλύτερη είναι η συσχέτιση μεταξύ των αντίστοιχων λέξεων.
      Αυτό είναι το σημείο που θεωρώ πιο σημαντικό καθώς χονδρικά έτσι φαίνεται πως γίνονται οι έμμεσοι και άμεσοι συσχετισμοί των λέξεων.
      Ενδεχομένως υπάρχουν καλύτεροι τρόποι για την εξήγηση του μηχανισμού των transformers, αλλά αυτή ήταν η δομή που κατέληξα εγώ μετά από πολλή σκέψη για να υπάρχει ισορροπία στο βίντεο.
      Σε ευχαριστώ πολύ για τον χρόνο σου!

    • @panagiotis7946
      @panagiotis7946 Год назад

      @@TechtomeAboutit φιλισοφικα αν το δεις δεν προκειτε για τεχνιτη νοημοσυνη..Ο ορισμος ειναι λαθος μαλον για επιταχυντες αυτοματισμου προκειται.Οσο δεν υπαρχει ενσυναισθιση των πραξεων η ακομα καλυτερα δεν μπορει να προβλεψει την επομενη χρηματιστηριακη συνεδριαση η τους αριθμους του λοτου ,απλα ξεχνατα ολα 😅😅🤣🤣

  • @Arew99
    @Arew99 Год назад

    Πολύ καλή δουλειά μπραβο! Θα μπορούσες να ξεκινησεις μια αντίστοιχη σειρά και με generative models ; (GANs, VAE, Diffusion κλπ)

    • @TechtomeAboutit
      @TechtomeAboutit  Год назад +1

      Ευχαριστώ πολύ! Έχω στο πλάνο να κάνω και άλλα μοντέλα!

  • @ΧρύσαΤσιριγώτη
    @ΧρύσαΤσιριγώτη Месяц назад

    🎉🎉🎉

  • @dimos15
    @dimos15 Год назад

    Πολύ καλό

  • @naevan1
    @naevan1 Год назад

    Ωραιος ! Ειδικα με τις τλευταιεε διαρροες περι αρχιτεκτονικής gpt-4 νομοζω ειναι πλεπν ξεκαθαρο οτι η openai δεν αναλακυψε τον τροχο αλλα απλα κε έξυπνο τροπο εφτιαξε ενα γιγαντιαίο llm

  • @nisang237
    @nisang237 Год назад

    🍀🍀🍀

  • @jony6684
    @jony6684 Год назад

    Σχολίασα. Χάρηκες?

  • @VASILEIOSKAFIDAS
    @VASILEIOSKAFIDAS Год назад

    Το τσατ GPRS πού υπήρχε το το 1996 στο ίντερνετ όταν ήρθε στην Ελλάδα εκείνη την εποχή τι διαφορά υπάρχει με το τσατ GPT tsat AI .
    Εκείνη την εποχή προσπαθούσα να κάνω συνομιλία με κάποιον πού μου έλεγε ότι είναι ο κακός λύκος τήν επαφή μετά από πολλά γράμματα και λέξεις του αέρα να τον φέρω στα λογικά του και να σταματήσει να μου λέει για το δάσος πού ζούσε διότι κανένα ζώο δεν μιλάει σέ τσατ.
    Ή κωδικοποίηση και οι απόκωδικοποίηση της τεχνίτης νοημοσύνης και της ανθρώπινης νοημοσύνης έχει διαφορά έχω μιλήσει ως τώρα σέ δέκα ΑΙ διαφόρων κατηγοριών και έχω παρατηρήσει πως υπάρχει κάποιο μποτάκι πού σέ καθοδηγεί εκεί που θέλει αυτό νά σέ καθοδηγεί και όχι νά κάνεις διάλογο μαζί του. Δηλαδή ο ΑΙ είναι χωρίς στοιχεία σύνδεσης ανθρώπινης φύσης. Ενώ αν κάποιος άνθρωπος είναι αγαθός το μποτάκι αυτό μπορεί νά τον βλάψει υποσυνείδητα και νά τρέχει σε ψυχίατρο μετά ο ανθρώπινος νους.

  • @antoniskyretsis
    @antoniskyretsis Год назад

    Συγνώμη αλλά με παρόμοιο τρόπο δουλεύει και οι λεξαριθμη στα αρχαία ελληνικά μόνο που εκεί από όσο ξέρω ακόμα δεν φτάσαμε στο επίπεδο να κάνει ο υπολογιστής αυτόματα την διαδικασία να βρίσκει φράσεις με τους ίδιους αριθμούς και το κάνουμε χειροκίνητα με την έννοια λέμε πιθανές φράσεις ως αποτέλεσμα και βλέποντας τους αριθμούς αν είναι ίδιοι με τους αριθμούς της φράσεις που εισάγαμε

  • @kiriakosGR
    @kiriakosGR Год назад

    Εμένα, δεν με ενδιαφέρει πως λέγεται, να το φάω θέλω :)

  • @johnevangelou2521
    @johnevangelou2521 Год назад

    Καλή επεξήγηση για κάποιον που θέλει να μάθει τη γενική ιδέα των transformers αλλά δεν είναι πλήρως ακριβής καθώς παρέλειψε το επίπεδο των Multi - Head attention. Ο Attention μηχανισμός δηλαδή επαναλαμβάνεται 6 φορές στο αρχικό paper αφού έχει αρχικοποιηθεί με διαφορετικές τιμές

    • @TechtomeAboutit
      @TechtomeAboutit  Год назад +2

      Σε ευχαριστώ για το σχόλιο! Προφανώς είναι μια υπεραπλουστευμένη προσέγγιση όπου παρουσιάζεται η γενική εικόνα και οι βασικές έννοιες που εισάγονται στους transformers

  • @ΚωσταςΜπακατσελος-τ9ω

    Εγω πειστευω οτι η επιστήμη μπορεί να δημιουργήσει νοημοσύνη οπως του ανθρώπου σε εναν υπολογιστή απλα είναι θεμα χρόνου αυτό

  • @turisttsill632
    @turisttsill632 Год назад

    κάνε και ένα βίντεο-μάθημα για τα αναδρομικά νευρωνικά δίκτυα... νομίζω θα έχει ενδιαφέρον...