Fine Tuning vs RAG: Was ist besser?

Поделиться
HTML-код
  • Опубликовано: 20 окт 2024
  • In diesem Video möchten wir dir die zwei Verfahren Retrieval Augmented Generation und Fine-Tuning zur Verarbeitung natürlicher Sprache (NPL) vorstellen, mit denen du deinem Sprachmodell effizient Informationen anreichern kannst. Im Weiteren werden wir Vor- und Nachteile dieser beiden Ansätze präsentieren und vergleichend feststellen, welches Verfahren besser ist.
    Unser Video möchte auf ein Paper referieren, welches im Januar 2024 veröffentlicht wurde und welches als Grundlage für unseren Vergleich dieser beiden Verfahren dienen soll.
    Bevor näher auf die beiden Techniken eingegangen wird, erklären wir anhand von Metaphern und Beispielen, inwieweit RAG und Fine-Tuning verglichen werden können.
    Weitergehend wird zuerst auf RAG eingegangen und welche Vor- und Nachteile die Arbeit mit diesem Verfahren mit sich gebracht werden. Hier sind Schlagworte, wie der Vector Search oder auch die Reduzierung von Halluzinationen, aber auch eine erhöhte Latenz in der Arbeit mit RAG hervorzuheben.
    Darauffolgend soll das Verfahren des Fine-Tunings präsentiert werden. Auch hier ergeben sich einige Vor- und Nachteile wie eine niedrige Latenz, aber auch erhöhte Kosten in der Arbeit mit dieser Technik.
    Abschließend wird in einer kurzen Zusammenfassung festgestellt, welches Verfahren hier die Nase vorne hat und mit seinen Vorteilen überwiegen kann. Auch hier dient das vorgestellte Paper als eine Grundlage, um unsere Ergebnisse fachgerecht zu evaluieren.
    Internetpräsenz:
    Mehr zum Thema, was Retrieval Augmented Generation (RAG) und Fine-Tuning ist, findest du in unserem Blog unter:
    RAG: datasolut.com/...
    Fine-Tuning: datasolut.com/...
    Unsere Website: datasolut.com
    LinkedIn: / datasolut
    Studie: Knowledge Injection (arxiv.org/pdf/...)

Комментарии • 4

  • @Eron-dx9dn
    @Eron-dx9dn 4 месяца назад +1

    Sehr interessant den Unterschied mal so präsentiert zu kriegen.
    Vielen Dank!

    • @datasolut
      @datasolut  4 месяца назад

      Gerne, danke für dein Feedback!

  • @Andzej-PL_DE
    @Andzej-PL_DE 3 месяца назад +1

    Hallo, ich finde deine Videos sehr hilfreich und informativ.
    Könntest du vielleicht ein Tutorial zur AutoTrain-Funktionalität von HuggingFace machen?
    Es wäre toll, wenn du auch zeigen könntest, wie man mit der kostenlosen Variante eigene Text-Daten verwendet, um Modelle nachzutrainieren (Fine Tuning).
    Vielen Dank für deine großartige Arbeit.

    • @datasolut
      @datasolut  2 месяца назад +1

      Vielen Dank für dein Feedback! Im Moment lege ich den Fokus stärker aus Data Engineering Themen, aber ich schaue mir das Thema Fine Tuning auf jeden Fall an.