Priority queue... al rovescio. E anticipazioni su un video comparativo sugli LLM.

Поделиться
HTML-код
  • Опубликовано: 31 дек 2024

Комментарии • 16

  • @dario_de_luca
    @dario_de_luca 2 дня назад +2

    Molto piacevole questo video ""nella mente dello sviluppatore"" dove si ripercorre il flusso logico che porta ad una soluzione. C'è sempre da imparare, anche sul modo di affrontare i problemi :)

  • @filippomenchini
    @filippomenchini 2 дня назад +2

    Top 1 persone che potrei ascoltare per 7 giorni di fila senza annoiarmi

  • @vaniar.1583
    @vaniar.1583 10 часов назад

    Riuscita a capire forse 20%, con flash di sinapsi che si riattivavano dopo 30 anni di pausa dalla programmazione "vera". Che bello. 🙏🏻

  • @asbestomolesto
    @asbestomolesto День назад

    Consiglio sw di montaggio; Shotcut per GNU/ Linux ma anche Mac, win. e' favoloso!

  • @manchicoffee
    @manchicoffee 2 дня назад +1

    Almost considering learning Italian just to understand what the OG is teaching here!

    • @antirez
      @antirez  2 дня назад +4

      The real deal (LLMs coding comparison) will be in English of course! And as soon as RUclips activates for me auto dubbing, I'll auto-dub also the random blabbling like the above :D Thanks for following!

    • @walteroggioni675
      @walteroggioni675 2 дня назад +1

      @@antirez I'm curious to see how RUclips translates "catafotti dentro" ;-)
      great content btw, I liked, subscribed and recommended to all my friends, even if sometimes I have to google your sicilian expressions

  • @emanuele6619
    @emanuele6619 День назад

    Ma pensa che llm riescano a identificare un baco così nascosto?

  • @engineeringdisillusion
    @engineeringdisillusion 2 дня назад +1

    Prova anche Qwq e Qvq

  • @kairosplayer5955
    @kairosplayer5955 2 дня назад

    Video interessantissimo! Ho centomila domande e considerazioni, ne butto un paio qui in ordine sparso.
    1. Ho praticamente lo stesso rack nel mio garage per la mia "palestra" personale. Io ho un protocollo specifico di allenamento dove ottimizzo per tempo per cui posso allenarmi, volume allenamento per gruppo muscolare, HRV a fine seduta su giorno della settimana, etc. Quando abitavo sull'Etna includevo anche sessioni lunghe di hiking in salita su vari percorsi (mozzafiato) assieme ad un amico - migliaia di km fatti discorrendo di algoritmi e strutture dati :) ! Ti va in futuro di condividere qualche informazione su come ti alleni tu? (So che è molto off-topic per il tuo canale, ma il bello di youtube è anche questo - conoscere aspetti altresì di difficile accesso di persone fortissime nel loro settore; sono curioso di sapere cosa una mente come la tua partorisce per migliorare le proprie prestazioni fisiche);
    2. Mi ha fatto troppo ridere la parte in cui ti rendi conto col profiler dei trade offs della tua prima implementazione e definisci "da sfigati" il non ottimizzarla, a scapito di dover cambiare completamente la priority queue. È esattamente l'approccio da "artigiano vero" di cui si scrive in Clean Code. (Mi fa ridere perché lavoro nel mondo fintech e vedo clienti, colossi assoluti della finanza internazionale, lavorare con file csv mastodontici e con processi pachidermici dove l'unica cosa che conta per i loro devs è che gli script giungano alla fine senza - troppi -errori).
    3. Per rendere il discorso più "pratico" e mostrare il prima / dopo il refactoring (e magari anche il bug della funzione che ritorna l'elemento con lo score peggiore), puoi / ti va di aggiungere alla descrizione del video il link ai commit, se sono pubblici?
    4. Suggerimento: io uso in locale qwen-32B (su un mac M1 che uso per lavoro). Non riesco purtroppo a farlo girare sulla mia macchina personale (linux), nonostante i miei 32Gb di VRAM / ed una NVIDIA 4070 da 12Gb. Lo escluderesti o includeresti nel prossimo video sugli LLM - e perché? Hai provato a usare i processori M per far fare inferenza agli LLM? (Scusa se la domanda è stata già posta altrove, ho da poco riscoperto il tuo canale youtube).

    • @antirez
      @antirez  2 дня назад +2

      Ciao! Ci avevo pensato a fare qualche video sull'allenamento. Non è proprio in topic ma pensavo che questo canale potesse anche avere qualche contenuto più personale, perché non siamo fatti di solo codice e sudore ;D Per cui ci penso. Grazie. Per quanto riguarda l'artigianato del software, è una cosa in cui credo tantissimo: si sta perdendo quasi completamente. Ma fin quando posso ancora lavorare così, continuerò a farlo. Per quanto riguarda i commit, ancora non è pubblico questo lavoro, ma lo sarà presto. È l'implementazione dei Vector Set di Redis. Normalmente quando il codice è pubblico, metterò i link. È una buona idea. Infine anche io uso dei modelli locali con ollama: sono profondamente interessato ai local LLMs, ma purtroppo attualmente la differenza nel reasoning, quando il codice si fa complicato, è troppo abissale. Per cui pensavo di includere solo il top disponibile, DeekSeek v3. Altrimenti finirebbe per essere quasi un video che scoraggia l'uso degli LLM locali: finirebbero per sfigurare di troppo.

  • @4ndreasomaini
    @4ndreasomaini 2 дня назад

    Ciao Salvatore, molto interessante un video dove siamo la tua "rubber duck" :) Da quanto ho capito hai implementato la priority queue con un array che é già ordinato in memoria, come mai non un heap?

    • @antirez
      @antirez  2 дня назад

      Ciao Andrea, lo spiego un po' nel video: siccome ho pochi elementi, una struttura dati "vera" è più lenta di un array contiguo, anche al costo di spostare gli elementi ogni volta. In sostanza da quando ho rovesciato la priority queue, nel profiler quasi non spunta più. La computazione è dominata dalla cosine similarity (si parla di HNSW, in questo caso).
      Questo non lo dico ma va detto: probabilmente sarebbe inutile anche usare la binary search durante l'inserimento invece di uno scan, come sto facendo ora, perché comunque dagli elementi ci devo passare (per spostarli), tanto vale che durante lo scan trovo anche la posizione.