One week with DeepSeek AI

Поделиться
HTML-код
  • Опубликовано: 31 янв 2025

Комментарии •

  • @ct3003
    @ct3003  День назад +120

    Ergänzungen und Korrekturen (wird so gut es geht aktualisiert):
    - Sicherheitsforscher haben eine zeitweise öffentlich zugängliche DeepSeek-Datenbank gefunden, die Lücke ist inzwischen geschlossen: www.heise.de/news/DeepSeek-Malware-und-Betrueger-nutzen-den-Hype-Datenbank-offen-im-Netz-10261616.html
    - Im Video ist die Rede von "stark gedrosselter Speicherbandbreite bei der Nvidia H800": Genau genommen handelt es sich um einen gedrosselten Nvlink-Interconnect, nicht um Speicherbandbreite.
    - Der Name "o2" wurde von OpenAI wegen des gleichnamigen Telekom-Anbieters übersprungen; unsere diesbezügliche Kritik ist hiermit hinfällig.

    • @ehsiehs368
      @ehsiehs368 День назад +1

      Die menschliche Intelligenz hat sich u.a. durch das Hinterfragen weiterentwickelt. Es gibt Voraussetzungen für eine Notwendigkeit etwas zu hinterfragen.

    • @farukdemirtas6640
      @farukdemirtas6640 День назад

      ChatGPT ist auch nicht ohne zur Gaza und Palastina ist es ein Zionist und nicht ehrlich!

    • @DWuk
      @DWuk День назад

      Wenn ich deepseek beides aktiviere ist scheinbar der Server überlastet. Ich habe ja noch über Magenta Moments Perplexity pro. Aber bei mir wird deepseek gar nicht angeboten 🤔

    • @derNeonLeon
      @derNeonLeon 14 часов назад +9

      4:49 kleine Ergänzung. Man kann auch die großen Modelle ohne 16x Nvidia H100 nutzen. Hatte Online gesehen wie es die ersten über ein cluster von 8x M4 Mac Minis zum laufen gebracht haben. und da einer 700€ kostet im gegensatz zu einer H100 mit knapp 30.000€ wäre es tatsächlich auch "günstig" möglich es lokal laufen zu lassen ohne die fetten Nvidia Karten

    • @gaborpetho2833
      @gaborpetho2833 12 часов назад

      Aber ich muss die sprachmodell auch in Schutz nehmen weil sie können sich ja nur darauf beziehen was im Internet an Sprache finden und wenn das nur mal die meist verbreitete Sprache ist geil geil geil geil geil geil geil geil geil geil geil das sagt schon so als ich es über die intellektuelle Deutschland aus

  • @heymoron9628
    @heymoron9628 День назад +515

    Diese Bewegtbildproduktion ist so geil, dass du nicht glaubst, wie geil sie ist.

    • @ct3003
      @ct3003  День назад +36

      Hahahahahaha, jetzt musst du noch ein paar Wörter erfinden.

    • @Rafael-xz9pl
      @Rafael-xz9pl День назад +2

      Ich glaube es 😀

    • @meterpaffei5810
      @meterpaffei5810 День назад +8

      Die Scheisse mit den Schnipseln aus längeren Texten hatte ich auch schon bei gpt…Da fühlt man sich richtig verarscht, weil auch noch ständig Besserung versprochen wird…und dann dieselbe Kacke wieder…nervig

    • @kingbaschdor5649
      @kingbaschdor5649 День назад +3

      Danke Cremekuchen

    • @Crassus_Auratus
      @Crassus_Auratus День назад +4

      @@ct3003 Wie wäre es mit "diese Wiggelbildrenderung"?

  • @RezoSchlauch
    @RezoSchlauch День назад +156

    Auch wenn Deepseek jetzt schon seit einigen Tagen die Headlines bestimmt, hat dieser Beitrag mit Hintergrundinfos trotzdem einen Mehrwert. Danke!

    • @alceasgamingbouquet
      @alceasgamingbouquet День назад +1

      Wie viel sich DS von CGPT unterscheidet frag ich mich.
      Immerhin kann ich mich nach wie vor auf erfundene Autoren für Recherchen freuen.
      Oder schlechte Backrezepte wuhu!
      Aber Journalisten lieben es ja alles aufzublasen 😅

    • @joachimfischer7444
      @joachimfischer7444 17 часов назад

      @alceasgamingbouquet Du hast recht, wenn man ne KI nach etwas fragt, das WIRKLICH auch mal funktionieren muss (wie z.B. Backrezepte), dann kommen da gerne merkwürdige Sachen raus ...

    • @atalanfranz1509
      @atalanfranz1509 6 часов назад

      ​@joachimfischer7444. Vielleicht hat sich da der Humor versteckt? 😉

  • @realYambu
    @realYambu День назад +80

    Bin froh dass ihr den Kuddelmuddel bisschen verständlicher bringt. Garkein Bock 20 Artikel zu lesen um nen Überblick zu kriegen. Danke dudes

    • @ct3003
      @ct3003  День назад +8

      Easy, bro!

  • @morriskeller
    @morriskeller День назад +118

    Wollte nur mal kurz Danke sagen für deine tollen Videos :)

    • @ct3003
      @ct3003  День назад +6

      Danke fürs gucken!

    • @baba8631
      @baba8631 День назад

      dann sage es

    • @joachimfischer7444
      @joachimfischer7444 17 часов назад

      ich weiß nicht warum, aber mich bringt dieser "Guck' mal hier ..."-Einstieg immer zum Schmunzeln :D

    • @unten462
      @unten462 15 часов назад +1

      Finde den super, "Guck mal hier" unbedingt beibehalten!

  • @geronimo3451
    @geronimo3451 День назад +75

    0:36 der Joke mit DLSS On und Off ist ja mal geil :D

  • @asdf9106-k4d
    @asdf9106-k4d День назад +96

    "Das ist so geil, dass du nicht glaubst wie geil das ist"
    Das könnte auch in einem Text von Deichkind vorkommen 😄

    • @apocryphal_man
      @apocryphal_man День назад +2

      Dann wäre es aber "leider so geil" 😂

    • @diterpene926
      @diterpene926 День назад

      @@apocryphal_man sehr, sehr geil

    • @normanbates7373
      @normanbates7373 День назад +1

      Deepseak der Geilomat

    • @bertkreft9689
      @bertkreft9689 День назад

      ich höre hier ganz deutlich peter lustig sprechen - ist das deep fake ? es ist genau das richtige für mich - in einfachen worten gesagt
      top 👍

    • @iNherjer
      @iNherjer 8 часов назад

      Richtig gutes Zeug

  • @NameWurdeVon_ChatGPT_generiert
    @NameWurdeVon_ChatGPT_generiert День назад +29

    Oh man. Euer Video ist mal wieder so geil, das ihr gar nicht glaubt, wie geil das ist.
    Ne im Ernst. Jetzt hab ich das Gefühl, auch plausibel mitreden zu können. Außerhalb der Mainstream Talks überall.
    Wie immer, war dieses Video jeden Cent wert.

  • @kholja
    @kholja День назад +57

    Ein Problem haben meiner Meinung nach alle aktuellen Modelle und das ist aktuell auch die größte Schwachstelle. Je länger ein Thread läuft z.B. ein Programmierprojekt an dem man über längere Zeit immer wieder Änderungen vornimmt, desto mehr greifen die Modelle bereits verworfene Konzepte wieder auf. Sie merken sich also nicht mehr was bereits festgelegt wurde. Das ist auch eine gute Möglichkeit die Leistungsfähigkeit zu bewerten: Wie gut schafft es die KI beim Thema zu bleiben?"

    • @frede1997-gf
      @frede1997-gf День назад

      Liegt an der Größe des attention heads. Wird gelöst werden, wenn sich die LLMs "erinnern" können. Schau mal bei den Titan Modellen

    • @herrspitz6964
      @herrspitz6964 День назад

      Bei chatGPT kannst du projekte Anlegen und die bereits verworfenen oder aufgegriffenen Konzepte in den Projekttext schreiben.

    • @merlumbien
      @merlumbien День назад

      @frede1997-gfJa aber solche Titan Modelle sind einfach sehr rechenintensiv und sofern nicht etwas entwickelt wird was grundlegend das Kontextfenster günstiger bekommt wird sich das auch nicht groß ändern.

    • @NanoPolymer
      @NanoPolymer День назад

      Bei mir kann sich weder ChatGPT noch ‎Gemini merken mir generell auf deutsch zu antworten. Gut nicht so schlimm wie sich um eine ganze Stelle in einer Matheaufgabe zu irren.

    • @aparidaewithaclue3267
      @aparidaewithaclue3267 День назад

      Bei ChatGpt habe ich ein Fenster in den Einstellung gefunden, in dem man Anwendungsmöglichkeiten angeben kann.
      Bewerten kann ich das nicht, bin nur Laie/Casual user. Konnte mir aber dortigen In Inhalt/Nutzung so vorstellen:
      Lange Projekte werden erarbeitet. Bereich X ist die Hauothematik. Verhalte dich wie. Erinnert dich an meine Aufgaben. Usw usw.
      Sonst ist mir auch aufgefallen, was der Kommentarschreiber hier erwähnt.

  • @luigicalzone2975
    @luigicalzone2975 9 часов назад +7

    Habe mich vorhin mit DeepSeek über sehr spezifische Themen unterhalten. Sehr beeindruckend! Hatte das Gefühl wirklich verstanden zu werden. Fast schon unheimlich war allerdings von einer Maschine freundlich und ungezwungen ermutigt zu werden, gepaart mit handfesten Tipps und Anregungen die wirklich weiter bringen. Mein Fazit: Es ist ein neues Zeitalter angebrochen welches weit größere Veränderungen mit sich bringt als die industrielle Revolution vor 300 Jahren.

    • @It_is_what_it_is00
      @It_is_what_it_is00 4 часа назад

      Habe DeepSeek mal nach chinakritischen Dingen gefragt. Da hat die Zensur aber mal ganz schnell dazwischengegrätscht

    • @evezitrone
      @evezitrone 4 часа назад

      Abwarten

  • @Confusious
    @Confusious День назад +47

    "Altbaugenosselschloss mit einem speziellen Biersystem ist so geil, dass du nicht glaubst, dass es Cafferienten ist."
    stimmt. glaube ich wirklich nicht. Aber ich muss wohl mal selbst ins Altbaugenosselschloss.

    • @ct3003
      @ct3003  День назад +6

      Ich liebe diese „Tipps“ auch sehr, das ist wirklich komplett kaputt.

    • @Crassus_Auratus
      @Crassus_Auratus 23 часа назад

      Lieber nicht, nachher wirst du mit Klammersack gebeutelpudert bevor du es geraffelwaffelt hast, das ist nicht so geil wie du zu Unglauben bereit bist!

    • @hsteinbo
      @hsteinbo 8 часов назад

      ich sitze hier schon seit zwei Minuten und lach mich kaputt! Einfach nur danke!🤣

  • @datag
    @datag День назад +15

    2:20 Danke für die begriffliche Abgrenzung "Open/Free" VS. "Open Source"!

    • @sca04245
      @sca04245 День назад +3

      Jaa! Endlich mal jemand, der sich noch dran erinnert, dass der Begriff open source mal was bedeutet hat.

  • @marekbugla3628
    @marekbugla3628 День назад +16

    Sehr geiler Einsieg in das Thema, danke

  • @jeffhauser8031
    @jeffhauser8031 14 часов назад +2

    Ich gucke die Videos schon sehr lange, aber noch nie kommentiert, aber wollte einfach mal sagen, dass du ein echt entspannter IT Typ bist. Normalerweise nerven mich Dialekte, aber bei dir finde ich es angenehm und es passt einfach zum Charakter.

  • @Kanal-zh4ro
    @Kanal-zh4ro День назад +28

    Finde es etwas seltsam die Namensgebung von o3 zu kritisieren. Der Grund wieso es nicht o2 heißt, war eine Urheberrechtsverletzung

    • @ct3003
      @ct3003  День назад +23

      Du hast recht, das hatte ich damals sogar gelesen und dann einfach vergessen. Kommt in den angepinnten Kommentar.

    • @tobiasurban8065
      @tobiasurban8065 День назад

      Aha-Moment. Danke für den Hinweis!

    • @tarwod1098
      @tarwod1098 19 часов назад +3

      @@ct3003 mit ein bisschen logischem Denken vorab hätten die das vermieden. Es gibt doch keinen Zwang, die Bezeichnung o1 auszuwählen. Dass es die Firma o2 gibt, dürfte allgemein bekannt sein und dass auf 1 die 2 folgt auch.
      Vielleicht dachten die, wenn auf 1 die 3 folgt, denken die Leute, das Modell wäre 3x so gut 🤷

  • @bastian.michel
    @bastian.michel 23 часа назад +1

    Danke Keno, hab mich erfolgreich von den Berichten ferngehalten und dann bei Eurem Video "zugeschlagen". Top, wie immer!

  • @samson_77
    @samson_77 День назад +25

    Als Open-Source Nutzer fast der ersten Stunde finde ich das super: Open Source Modelle haben damit kommerzielle Modelle eingeholt. Ich könnte mir gut vorstellen, das da bald noch viele weitere Modelle folgen werden, insb. wenn das Training tatsächlich nur 5 Millionen USD gekostet hat. DeepSeek teilt ja auch Know-How im dazugehörigen Research-Paper. Mal sehen was da noch kommt. Die Risikien steigen damit natürlich ebenfalls, auch wenn, meiner Meinung nach, die Chancen überwiegen.

    • @Henry-sv3wv
      @Henry-sv3wv День назад

      jetzt muss du nur nen reichen Pappi haben damit du die ach so toll freie software (in gut) nutzen kannst. Pappi, ich brauch ma kurz 16 GPUs für ne halbe Mille!

    • @sca04245
      @sca04245 День назад +2

      Wie schon im Video erwähnt: Es ist NICHT open source. (edit: typo)

    • @mattdaniels6430
      @mattdaniels6430 22 часа назад

      @@sca04245 Die Trainingsdaten dürften sich, wie bei den meisten großen Modellen alle rechtlich in Graubereichen aufhalten, insofern würde ich das jetzt nicht als "falsches Versprechen abtun", während es im Vergleich zu ChatGPT praktisch transparent ist.

    • @karlgunther1650
      @karlgunther1650 13 часов назад

      @@Henry-sv3wv Du meinst sicher für ne halbe Mio. 500 Euro für 16 Stück wäre sicher nicht teuer. ;-)

    • @Minecraftzocker135
      @Minecraftzocker135 12 часов назад

      ​@@Henry-sv3wv
      Was hat denn open source (in dem Fall open weights) mit deinem lokalen Setup zutun ?
      Ob die Software jetzt bei dir lokal läuft oder auf in irgendeinem Rechenzentrum ändert doch nicht am Open source status

  •  12 часов назад +2

    Ich finde es wichtig, die verschiedenen Komplexe wie im Beitrag geschehen einzeln zu erklären und dann in den Gesamtkontext (so das überhaupt geht) zu setzen. Denn einen Schlagzeile wie "600 Mrd. $ verbrannt" sagt halt so gut wie nichts aus.
    Die verschiedenen Modelle auch mit denen der Konkurrenz zu testen: check
    Die Tests mit verschiedenen auch herausfordernden Prompts zu fahren: check
    Die FInanzerung dahinter zu erklären: check
    Den so komplizierten Bereich Politik, Weltwirtschaft und deren Verflechtungen anzusprechen ohne absolutes abschließendes Werten: check
    Danke, habt ihr gut gemacht! Ich schließe mich der Mehrheit an, das ist so geil, dass du nicht glaubst wie geil das ist.

  • @tobiasurban8065
    @tobiasurban8065 День назад +29

    Das Base-Model R1-Zero ist völlig unzensiert und kann lokal heruntergeladen werden. Es gibt unter KI-Forschern Konsens, dass die Model-Qualität leidet, wenn in die interne Konsistenz des Models beim Training eingegriffen wird. Daher findet die Zensur nur auf einem aufgesetzen Moderation Layer statt. Niemand wird genötigt, R1 nur über die offzielle Webseite von DeepSeek zu nutzen.

    • @mattdaniels6430
      @mattdaniels6430 22 часа назад +5

      Heißt das, dass man im Grunde "nur" warten muss, dass irgendein Europäischer Anbieter dieses Modell auf einen europäischen Server klatscht und eine Anwendung drum baut und dann könnte man ein europa-gehostete Chat-GPT Alternative haben?

    • @Crends28
      @Crends28 22 часа назад

      @@mattdaniels6430 lass halt einfach selber laufen, ollama und open-webui in nen container und ab damit

    • @psxtuneservice
      @psxtuneservice 21 час назад

      ​@@mattdaniels6430Europa, damit dann die maximal Spy und Zensur Version von der eigenen Regierung....Da noch lieber direkt China.

    • @tarwod1098
      @tarwod1098 20 часов назад

      @@mattdaniels6430klingt gut, wäre dumm es nicht zu tun 🤔👍🏼

    • @armin3057
      @armin3057 13 часов назад +1

      @@mattdaniels6430 ja und dann mit staatlicher EU Zensur

  • @root23-i1o
    @root23-i1o 4 часа назад +1

    Vielen Dank für den Vergleich. Leider bleibt bei mir, bei ein Chinesischer Anbieter, immer die Angst das die noch mehr Daten sammeln als die anderen Kraken.

  • @Wolfgang93981
    @Wolfgang93981 16 часов назад +10

    Ich habe viele juristische Text die ich von DE nach EN übersetze. Also zumeist tief verschachtelte lange Sätze mit vielen Kommas. Text die Sachverhalte erklären und für andere eindeutig machen müssen etc! Ich benutze für den gleichen Text zumeist MS/Google und zuletzt Deepl in oft mehreren Durchgängen, um wirklich den Sinn etc. in der Übersetzung sicher zu stellen. DeepSeek macht den gleichen Job. Ich bin wirklich überzeugt. Genauso bei täglichen Themen bin ich bisher nicht enttäuscht worden. Das alles "for free"! Top!

    • @maqimin
      @maqimin 14 часов назад

      可是这是我们邪恶的中国的软件啊,他可不是民主的,里面充满了强迫劳动,而且你用的话数据会泄露给中国😅,所以这边不建议使用呢😅

    • @tr0llpatr0l86
      @tr0llpatr0l86 14 часов назад

      lass mich deinen job machen - ich kann’s besser

    • @Wolfgang93981
      @Wolfgang93981 12 часов назад

      @@tr0llpatr0l86 Du kannst doch kaum schreiben, geschweige Sachverhalte argumentieren!

  • @emausderratsuchende5447
    @emausderratsuchende5447 12 часов назад +1

    Okay...ich Superlaie in Sachen KI habe jetzt immerhin 5% mehr vom Thema verstanden als vorher und das freut mich außerordentlich...😊.

  • @Dracomo
    @Dracomo День назад +14

    He?, was sollte dann das Mirrors Edge Gameplay?

    • @SamuraiHDLP
      @SamuraiHDLP День назад

      Hab ich mich auch gefragt, wann kommt das Subway Surfer gameplay in der Ecke

  • @DZlr03
    @DZlr03 12 часов назад +3

    Konkurrenz belebt das Geschäft!
    Bin froh das es Deepseek gibt, benutze es auch immer öfter (derzeit)
    Hab es mir auf meinen eigenen PC herunterladen und getestet ganz solide aber nicht das 8 Weltwunder.
    Europa müsste jetzt auf dem Deepseek Modell aufbauen und erweitern und feinjusttieren, dass wir Europäer auch mal zeigen können, dass wir nicht komplett am Holzweg sind!
    PS: tolles Video 🩵

  • @foalymohre8501
    @foalymohre8501 День назад +10

    Ich hab deepseek schon verwendet und fand die "sichtbarkeit" des denkprozesses wirklich sehr spannend. Das es open source ist wird noch so viele möglichkeiten eröffnen und ich denke das eine menge begabter tüftler die offline versionen noch verbessern werden, mit eigenen trainingsblöcken usw

    • @sca04245
      @sca04245 День назад +1

      Es ist (wie auch im Video erwähnt) eben nicht open source. Lediglich die Gewichte sind veröffentlicht. Für open source reicht das nicht. (Das heißt nicht, dass ich open weights schlecht finde, ist aber halt nicht open source)

  • @arwedgroen
    @arwedgroen 14 часов назад

    ❤ Danke für die hilfreiche Zusammenfassung deiner Erfahrungen und Tests. Probiere ich aus.

  • @pasixty6510
    @pasixty6510 День назад +12

    Hab es gerade mal mit meinen zwei Standardfragen (eine zu einem Thema aus der Hochfrequenztechnik: ungefähr so: „warum hat ein AM Signal eine Bandbreite?“, eine philologisch orientierte, wie erkläre „Rotwein nährt, Weißwein zehrt“) ausprobiert (im reasoning Modell). War bei beiden Fragen deutlich besser als ChatGPT, das bei der ersten Frage das zweite Seitenband erst auf Nachfrage dargestellt hat, bei der zweiten Frage hat ChatGPT alles mit „wissenschaftlich nicht belegt“ abgebügelt, während DeepSeek das Thema auch philologisch erörtert hat.
    Gefällt mir sehr gut, wie sich das Modell beim Nachdenken und räsonieren zuschauen lässt, um dann am Ende ein zusammengefasstes Ergebnis auszugeben.

  • @paccystyle
    @paccystyle 13 часов назад

    Ich schau Eure Videos total gerne. Super erklärt, viele aktuelle Infos und das Ganze sympathisch mit Humor präsentiert!

  • @davidgruni3351
    @davidgruni3351 День назад +3

    Super Video danke 👍
    Ich nutze deep seek und muss sagen für prompt schreiben um bei gemini Bilder zu generieren ist es klasse. Auch sonst habe ich keine negativen Auffälligkeiten gefunden bis auf die die du selber schon in deinem video angesprochen hast. Ich finde es gut dass es jetzt eine Alternative gibt zu den amerikanischen LLM und hoffe dass Europa bald nachziehen wird

    • @karlgunther1650
      @karlgunther1650 13 часов назад

      Gemini kann Bilder generieren? Ich dachte das wäre nur textbasiert?

    • @davidgruni3351
      @davidgruni3351 12 часов назад

      @karlgunther1650 ja mit der flash 2.0 kann es Bilder generieren und diese sogar sehr gut. Meiner Meinung nach besser wie Flux

  • @DailyDamage
    @DailyDamage День назад

    Das war so geil, dass ihr nicht wusstet wie geil es ist. Digger, so‘n Schnack hört man an manche Ecken 😂😂
    Danke für die klare Erläuterung. Folge dir jetzt. War top!👍

  • @tobiasurban8065
    @tobiasurban8065 День назад +12

    Das DeepSeek R1 Model auf ihrer Website ist ein R1 Distill Model mit Moderation Filter, nicht das DeepSeek R1-Zero Model mit 671 Milliarden Parametern.

    • @silbaerFPV
      @silbaerFPV День назад +1

      Jap, sieht so aus. Lässt man die Modelle lokal laufen, bekommt man eine Antwort.

  • @djangomueller
    @djangomueller День назад +1

    Tolles Video, hat mir echt gut gefallen. So sehr, das du nicht glaubst wie geil das Video war.

  • @HerrBockwurst
    @HerrBockwurst День назад +3

    Ich habe heute chatgpt ne Excel Tabelle analysieren lassen (simple amortisationsrechnung), ohne die bezahlversion keine chance. Deepseek hat das nicht nur deutlich schneller analysiert, sondern auch Guten Output geliefert.

    • @mattdaniels6430
      @mattdaniels6430 21 час назад

      Ich habe auch schon oft bemerkt, dass wirklich produktive Arbeit mit Dateien nur sehr schwer möglich ist. Ich glaube, ein Problem der Online-Plattformen ist die Prompt-Längenbegrenzung, die ChatGPT von sich selber noch nicht einmal weiß. Wer wirklich mal versucht hat, große Listen zu verarbeiten, der weiß, dass die Onlineanwendungen da nocht nicht so wirklich mitspielen. Aber derjenige, der solche Aufgaben in "schluckbare Happen" verpacken kann ,der ist gut dabei. Und ein Reasoning Modell kann ja genau das - wenn es in die Lage versetzt wird, die eigenen Begrenzung zu kennen. (Eine Fähigkeit, bei der auch viele Menschen scheitern)

  • @alanfenetre8418
    @alanfenetre8418 15 часов назад

    Danke für die gute Information. Jetzt sind wie wieder richtig gut informiert.

  • @thore8978
    @thore8978 День назад +4

    Ich finde es krass, wie gut Perplexity eigentlich ist sofern jetzt nichts berechnet oder codiert wird. Die meisten kennen die Ki noch nicht einmal :D

    • @pavaopavao5
      @pavaopavao5 12 часов назад

      just a matter of time...

    • @hechter80
      @hechter80 7 часов назад

      hab seit Perplexity vergessen wie man googelt 😂
      Code 50%: SV24EUNX

  • @ThaLiquidEdit
    @ThaLiquidEdit 10 часов назад

    Sehr gut, dass du Open-Source und Open-Weight differenzierst!

  • @LGM-Coherent
    @LGM-Coherent День назад +3

    Ich nehme den 5 Liter Krug und fülle damit 13 mal den Inhalt in ein weiters Gefäß. Dieses Gefäß hat die Abmaße 1 m x 10 cm. Längs der 1 m schiebe ich alle 10 cm eine Trennwand (9 Trennwände) in das Gefäß und erzeuge somit zehn neue unabhängige Gefäße....ich weiss nun das der Inhalt jedes diese Gefässe 6.5 Liter beträgt....wenn die LLM mathematisch denken finden Sie keine Lösung (primzalprodukte)..aber ein Mensch denkt an der Stelle eben physikalisch.....danke für das Video...sehr cooler Kanal

  • @guidobolke5618
    @guidobolke5618 День назад +2

    Schön sind die Gedanken die sich DeepSeek macht, wenn man nach einer Zufallszahl fragt.

    • @ReinerSaddey
      @ReinerSaddey День назад

      Zeig mal! Wie lautet der Prompt?

    • @guidobolke5618
      @guidobolke5618 День назад +1

      @@ReinerSaddey "Gib mir eine Zufallszahl zwischen 1 und 100". Vielleicht war es auch auf englisch. Das Ergebnis ist nicht so wichtig, wie der Gedankengang.

    • @guidobolke5618
      @guidobolke5618 День назад

      @@ReinerSaddey War gegen ein lokales 32B Qwen Distillat

    • @ReinerSaddey
      @ReinerSaddey 17 часов назад

      ​@ Yep, eben ausprobiert... ROFL 🤣 "Methode 1: Manuelle Auswahl - Wir wählen eine beliebige Zahl innerhalb des Bereichs von 1 bis 100 aus." mit der Lösung "42". Hat DeekSeek Humor?
      Im Ernst: Qwen 32b scheint die beste kleine DeepSeek Destillat für Coding zu sein. Interessant wäre mal, es z.B. mit Qwen2.5-Coder-32B-Instruct zu vergleichen.

  • @Ahris_aus_der_8._Dimension
    @Ahris_aus_der_8._Dimension День назад +8

    Ich finde, solange man DeepSeek nich gerade nach politischen Themen (gerade im Bereich China) fragt, macht das Teil nen ganz ordentlichen Job.
    Nur die App sollte man meiden ^^

    • @Leynad778
      @Leynad778 День назад

      Als ob ChatGPT nicht "politisch korrekt" wäre😄

    • @noyb4528
      @noyb4528 День назад

      Ich habe das Zeug bisher selbst über Ollama gehostet, was ist mit der App das Problem?

    • @amonr352
      @amonr352 12 часов назад

      Wieso soll die Browsers Version besser sein als die App Version? Der gefütterte Inhalt müssten die selben sein. Gut möglich das sich Handhabung Geschwindigkeit unterscheiden, aber doch nicht der Inhalt

  • @kaeptnbaloo
    @kaeptnbaloo День назад +2

    Der Schnitt mit dem Berghain war überragend 😂❤
    Hab in 3 Stunden nen echt dezent guten Webscraper mit Deepseek gebaut, der mir regelmäßig auf den Discord blubbert. Ging gefühlt tausendmal geschmeidiger und präziser als mit openAI.

    • @vi0Peeso
      @vi0Peeso День назад +1

      Nimm es bitte nicht persönlich - Wozu braucht man den Mist? Ernsthaft.

    • @kaeptnbaloo
      @kaeptnbaloo День назад

      @@vi0Peeso mach ich ganz sicher nicht, ich kenn dich nichtmal.
      Ich brauch nicht mehr auf die Werbe- / und Trackerverseuchten Pages mit nem popeligen Browser sondern bekomm jetzt automatisiert das Destillat an Nachrichten zu Politik / Wirtschaft etc. zugeschickt. Hab mir sogar die Audio-Version gescraped zum Hören, falls ich keine Zeit hab.
      Für mich ist das kein Spiel. Ich hab mit dem Scheiß sogar in kürzester Zeit mehr über API's und aktuell über Python gelernt als ich Bücher lesen oder RUclips Videos sehen kann. Obendrein hat mein vim jetzt ne astreine custom Konfig. Für den Scheiß war ich früher auf StackOverflow unterwegs.
      innerhalb von 1 Woche hab ich die Basics über E-Technik gelernt, mir nen Lötkolben gekauft und mir ein Panel mit Knöpfen und Schaltern für den Flugsimulator zusammengelötet...
      Im ganzen Haus befinden sich NodeMCU's, die die Temperaturen tracken und an einen PI weiterschicken, die Heizung regeln... Denn über Relais wusste ich vorher auch nicht viel...
      Ich bin Admin und Entwickler und automatisiere einfach gern. KI ist nix anderes als ein Live-Hack. Aber warum Affen eine Kalashnikov in die Hand drücken...
      Sind die "ernsthaften" Fragen damit adäquat geklärt? ^^

    • @karlgunther1650
      @karlgunther1650 13 часов назад +1

      @@vi0Peeso Da ich nicht einmal wusste, was ein Webscraper ist, habe ich Chat GPT gefragt.
      "Beispiele für Webscraping-Anwendungen
      -Preisvergleich: Automatisches Sammeln von Preisen aus Online-Shops.
      -Marktforschung: Analyse von Kundenbewertungen und Trends.
      -News-Überwachung: Sammeln von Nachrichtenartikeln aus verschiedenen Quellen.
      -SEO-Analyse: Überprüfung von Keywords und Ranking-Daten."
      Heute fragt man nicht mehr Google, sondern GPT 🙂
      In zwei Jahren wird es Google so in dieser Weise, sicher nicht mehr geben, da wir alle Infos direkt aus der KI erhalten. Also übe ich schonmal... ;-)

  • @thule1291
    @thule1291 День назад +10

    Hier weht ein frischer Wind. Gefällt mir

  • @markzoeltsch3650
    @markzoeltsch3650 День назад +15

    Habe DeepSeek R1 7B auf einen Mini PC (Ryzen 7 5825U) mit Ollama verwendet und bin wirklich positiv überrascht wie gut das funktioniert auf der kleinen Box funktioniert. Es beantwortet auch politische Fragen unzensiert, aber beim nachfragen wie es trainiert wurde kommt sofort ein Template mit einer nichtssagenden Floskel. Ich habe dem Model einige Codeteile optimieren lassen und das Reasoning hat mir sehr geholfen bessere Prompts zu schreiben und die Antwortzeiten von teilweise 20min auf 3min (wohlgemerkt ist ein kleiner Rechner ohne Nvidia GPU) runtergebracht. Bin für die ersten Tests begeistert. Ich habe übrigens in Englisch kommuniziert und diese Sprachkuriositäten hat es absolut nicht produziert.

    • @normanbates7373
      @normanbates7373 День назад +1

      Unzensierte Antworten zu politischen Fragen... Kommt auf die Nation an.
      Als Wa(h)lomat würde ich es trotzdem nicht nutzen ;)

    • @ReinerSaddey
      @ReinerSaddey День назад

      Danke! Kann ich absolut bstätigen! Siehe z.B. auch ruclips.net/video/tlcq9BpFM5w/видео.html wo kleine "destillierte" DeepSeek Modelle verglichen werden.

  • @brankomavric2207
    @brankomavric2207 День назад +7

    Zuerst mal Danke fürs Video. Deepseek war für mich Liebe auf den ersten Chat. Wie du schon richtig festgestellt hast, sind die anderen wie trotzige Kinder.DeepSeek antwortet entweder direkt vollständig, oder spätestens wenn man einmal nachhakt.
    Kurz gesagt: Ich bin begeistert.

    • @technickUM
      @technickUM День назад +1

      Macht Mistral aber auch.

    • @pukcip83
      @pukcip83 22 часа назад

      nur solange es nicht um china geht. frag deepseek doch mal was über xi jinping oder die uyguren.

    • @brankomavric2207
      @brankomavric2207 7 часов назад

      @ So ein typisches Mainstream Narrativ, die Chinesen auf diese zwei Vergehen zu reduzieren.

  • @ponkimonkoro5001
    @ponkimonkoro5001 10 часов назад

    Danke für die Zusammenfassung :)

  • @Hyydrotoo
    @Hyydrotoo День назад +8

    5:58 Das Modell ist auf Englisch und Chinesisch trainiert. Deutsch sollte man lassen. Und das 32B distillierte Modell läuft auf meiner 4080 Super und 32GB RAM und soll laut eigenen Angaben vergleichbar mit o1-Mini sein. Bei komplexen Anfrage rödelt mein PC dann gerne mal ein paar Minuten, aber ich tu alles um OpenAI kein Geld und keine Daten zu geben.
    Aber ja, wenn man deutsch oder andere "kleinere" Sprachen haben will muss man bekanntere Modelle wie Llama verwenden. Wir deutschen haben zwar immer gerne alles übersetzt und synchronisiert, aber da muss man dann in den sauren Apfel beißen.
    Und letztlich, das ist jetzt ein kleines bisschen Kritik, du erklärst den Unterschied zwischen "normalen" und reasoning Modellen und sagst sogar, dass reasoning Modelle für komplexe Aufgaben gedacht sind und ... fragst es dann nach Reisetipps, die auch ChatGPT ohne aktivierte Internetsuche schlecht geben kann?

    • @karlgunther1650
      @karlgunther1650 13 часов назад

      "aber ich tu alles um OpenAI kein Geld und keine Daten zu geben." Seltsamer Charakterzug ;-(

  • @G0atR1d3r
    @G0atR1d3r День назад +1

    "Hannover ist bekannt für seine Türen" - Die sind so geil, dass du nicht glaubst wie geil die sind! 🤣

    • @ct3003
      @ct3003  День назад +2

      Literaturnobelpreis incoming!

  • @Lukas-jo7vz
    @Lukas-jo7vz День назад +19

    Mit diesem geschnittenen Bart sieht Keno so jung und unschuldig aus :(

    • @ct3003
      @ct3003  День назад +7

      Der Schein trügt 😼

    • @brunobaumann9405
      @brunobaumann9405 День назад

      Bärte werden gestutzt und nicht geschnitten!

    • @Z0yxx
      @Z0yxx День назад

      @@ct3003 Okay, dann halt alt und schuldig 😂.

    • @mariannesuesli5680
      @mariannesuesli5680 10 часов назад

      Also mir gefällt der Dutt bei allen Männer nicht, sorry, folks

  • @Flybuy69
    @Flybuy69 12 часов назад

    Wiedermal Professionalität in Reinform wie immer!!!!

  • @hirnzircus
    @hirnzircus День назад +5

    Guter Beitrag. Ich habe auch mit den von dir erwähnten Modellen herumprobiert und bin zu einem ähnlichen Ergebnis gekommen. Der frische Wind, den DeepSeek auf dem Markt verbreitet, begrüße ich auch :)

  • @michaelrudert3406
    @michaelrudert3406 12 часов назад

    Schöne Einschätzung, besonders den Hinweis mit Perplexity fand ich gut. Vor allem, wenn, was ich und wohl auch die meissten nicht können, das mit der Effizienz einzuordnen, aber am Ende hat man ne Alternative, und zwar ohne irgendein Geld ausgeben zu müssen.

  • @j3rry5001
    @j3rry5001 13 часов назад +2

    Naja, die Berichterstattung von deutschen Medien über China stimmt halt sehr oft auch nicht.... Natürlich gibt es auch dort einige Fragwürdige dinge, doch der Informationsgehalt den man in Deutschland über China bekommt ist halt recht bescheiden.

    • @a.s.5262
      @a.s.5262 9 часов назад

      🙄

    • @OK_doitnow
      @OK_doitnow 8 часов назад

      +1

    • @indirjotsaunan6073
      @indirjotsaunan6073 4 часа назад

      Also zwei imperialsten Roosevelt und mao streiten über Vietnam 🇻🇳 - na gut die Franzosen kommen raus und ihr seit drin würden die lügen Medien ja nicht korrekt beantworten weil ja wie wir seit Rio reiser wissen alles Lüge ist - Trump ist aber weniger imperialistisch als Roosevelt grosskotz

  • @KaiCo.
    @KaiCo. День назад +3

    Warum sie nicht O2 verwendet haben: es gibt den mobilen Anbieter O2 und das wuerde mit deren Namen in Konflikt geraten von daher überspringen sie O2.
    - wenn du chatgpt O1-mini (oder nur O1) in der API Version nutzt, kann es dir tatsächlich auch alles ausgeben. Aber ich gebe dir recht die 20€Version ist immer cut off mit Daten.

    • @reinerrusch8566
      @reinerrusch8566 День назад

      Was sagt elementarer Sauerstoff dazu?

    • @mattdaniels6430
      @mattdaniels6430 21 час назад

      Es gibt eine Prompt-Längenbegrenzung soweit ich weiß. Aber ChatGPT selbst scheint von dieser Limitierung nichts zu wissen. Ich habe ihm mal einen Text mit ca 12 Zeichen gegeben und gebeten, Absätze einzuziehen, sein Output war maximal 1000 Zeichen lang. Ich hab "ihn" mit der Nase drauf gestoßen, er hat mir sogar zugestimmt, dass da was fehlt, aber das fertige Produkt war immer gleich unvollständig.

  • @birthenryzend662
    @birthenryzend662 14 часов назад

    Danke für das tolle Video. Ich finde auch dass wir in Europa nicht einfach aufgeben und viel aktiver in die KI Programmierung einsteigen sollten.

  • @AlfonsRode
    @AlfonsRode День назад +3

    Ich habe total Null Ahnung, wie dieses neue Medium "KI" abläuft. Die Klarheit in deiner Sprache lässt mich einiges verstehen. Ich wollte demnächst ein kleines Buch schreiben und veröffentlichen - also in sehr kleinem Rahmen, möchte aber nicht eine "KI" darüber laufen lassen. Könnte das ein Qualitätsmerkmal sein? Also, dieses auf dem Cover zu erwähnen. Wie "Queen" damals, als sie auf dem Cover insistierten: "Recorded without Synthesizer". Entscheidend ist wohl, wie es der potentielle Käufer sieht. Danke für deinen Vortrag.

    • @ct3003
      @ct3003  День назад +7

      Quasi ein Bio-Buch 😀. Tatsächlich denken wir auch gerade darüber nach, ein „Ohne KI erzeugt“-Gütesiegel zu etablieren für unsere Videos. Die Ki-Müllvideoschwemme beginnt nämlich so langsam.

    • @pwmsensitive
      @pwmsensitive День назад +1

      ​@@ct3003 KI-generierte Musik höre ich mir aus Prinzip nicht an, weil ich echte Künstler unterstützen will.

    • @AlfonsRode
      @AlfonsRode День назад

      @@ct3003 Bio-Buch klingt durchaus gut. Also bin ich nicht allein mit meinem Gedanken.

    • @mattdaniels6430
      @mattdaniels6430 21 час назад +2

      Kann man sicherlich machen, aber Queens Platten waren ja nicht deswegen so gefragt, weil sie ohne Synthies auskamen, sondern weil die Musik so gut ist. Ich würde mal unterstellen, dass mittlerweile schon mehr Platten verkauft wurden, auf denen Samples und Synthesizer im Einsatz sind, als ohne. Also schreibs gern auf Dein Buch drauf, aber das als "Qualitätsmerkmal" zu bezeichnen, fände ich persönlich schon etwas anmaßend.

    • @AlfonsRode
      @AlfonsRode 13 часов назад

      @@mattdaniels6430 danke für deine Ansicht.

  • @user-hq1qo7wh7t
    @user-hq1qo7wh7t День назад +1

    Tolles, informatives Video, Dankeschön!

  • @haidohaidowsky4011
    @haidohaidowsky4011 День назад +46

    Ich bin unendlich froh, mein Informatikstudium abgeschlossen zu haben, bevor der KI-Hype losgegangen ist.
    Die Studierenden von heute sind wirklich nicht zu beneiden. Entweder KI wird verwendet, dann lernt man jedoch die Grundlagen oft nicht vernünftig ("Ah, jetzt sehe ich die Lösung, da wäre ich auch selbst drauf gekommen" - nein, sorry, wärst du nicht!). Gleichzeitig wird vermutlich bei jeder Aufgabe die Verwendung von KI unterstellt und man muss sich rechtfertigen. Sollte die Verwendungen schon eingepreist sein, erhöht das wiederum die Schwierigkeit.
    Auch bei der Arbeit finde ich KI nicht besonders nützlich. Wirklich schwierige Probleme muss ich weiterhin selbst lösen. Bei sehr einfachen Problemen könnte mich die KI zwar unterstützen, hier präferiere ich aber meine eigene Lösung, da ich sie 100% verstehe und somit auch warten und vernünftig testen kann.
    Ich sehe generell nicht, dass KI im großen Maße unsere Arbeit erleichtert. Wenn, sind es eher die kleineren Aufgaben hier und da.
    Trotzdem bin ich froh, dass OpenAI jetzt Konkurrenz bekommt, welche noch dazu open-source ist. Schade nur, dass es China sein muss...

    • @User-hr3tv
      @User-hr3tv День назад +11

      Ich frage mich gerade ob du dies auch noch 2030 sagen wirst.

    • @mb2776
      @mb2776 День назад +3

      ...und das ist inwiefern schlimmer als früher wo einfach stackoverflow code kopiert wurde oder linux bash befehle?

    • @-nikatho-9267
      @-nikatho-9267 День назад +4

      Genau so ist es, die wahren Probleme wirst du mit KI nicht lösen können und für die einfachen Sachen brauche ich es auch nicht unbedingt. Ich sehe KI wirklich nur als unterstützendes Tool und diese ganze Panikmache, wir werden alle arbeitslos, nervt einfach nur noch! Oder wir stehen kurz von KI Singularität, was auch immer das konkret bedeuten soll 🤷‍♂

    • @Oliver-k2z9n
      @Oliver-k2z9n День назад

      Ich studiere Sinologie und nutze ausschließlich die Infos von DeepSeek.

    • @djangomueller
      @djangomueller День назад +3

      Klingt exakt nach dem, was ein LLM Model schreiben würde. Sus.

  • @polymo2004
    @polymo2004 8 часов назад

    Sehr spannende Analyse. Danke!

  • @LG-HH
    @LG-HH День назад +3

    Eure Arbeit ist immer so geil, dass man gar nicht weis wie geil, geil ist!
    Ich hoffe meine Antwort war geil genug? 😁

  • @interferoMatty
    @interferoMatty 10 часов назад +1

    Das mit den Fragen zu China ist "nicht ganz fair". Würdest du mit ChatGTP über die Sinnlosigkeit des Vietnamkrieges und der US-Unterlegenheit reden, oder wie WTC7 einstürzen konnte aber alles drum herum stehen blieb, würde es mit Sicherheit auch zu Abbrüchen kommen oder mindestens zu kuriosen Ausgaben.

    • @OK_doitnow
      @OK_doitnow 8 часов назад

      +1

    • @FrankG666
      @FrankG666 7 часов назад

      @interferoMatty Puuuh, in deiner Bubble möchte ich aber auch nicht auf Dauer verweilen müssen. /s

    • @It_is_what_it_is00
      @It_is_what_it_is00 4 часа назад

      ChatGPT ist zwar etwas zögerlich, aber im Endeffekt "leugnet" es die amerikanischen Kriegsverbrechen nicht. Dass du bei Verschwörungstheorien wie mit 9/11 deine gewünschte Antwort nicht bekommst, ist wohl klar. Im Endeffekt ist ChatGPT zwar durchaus etwas US-freundlich, aber die Zensur bei DeepSeek ist auf einem ganz anderen Level. Da wird radikal alles chinakritische abgeblockt

  • @belst_
    @belst_ День назад +5

    Da es aktuell so ausschaut, das deepseek mit dem output von openai trainiert wurde, kann man leider nicht mehr sagen, dass das training billiger ist, da es ohne dem millionen teuren training von openai kein deepseek geben würde

    • @PaoloPinkel69420
      @PaoloPinkel69420 День назад +6

      Das halte ich zunächst mal für Marktpropaganda

    • @mattdaniels6430
      @mattdaniels6430 21 час назад

      @@PaoloPinkel69420 Ja, die Vermutung liegt auf jeden Fall nahe. Deep Seek dürfte einige machtvolle Menschen ziemlich kalt erwischt haben. Das da jetzt bestimmte Kampagnen laufen, wundert mich jetzt nicht. Auch nicht, dass von organisierten Angriffen auf deren Infrastruktur die Rede ist.
      Ich halte es trotzdem für eher unwahrscheinlich, dass wirklich KI-Daten zum Training genutzt wurden. Ich würde unterstellen, dass China möglicherweise noch mächtigere Modelle in der Hinterhand, wenn sie ein ChatGPT Äquivalent jetzt quasi zum Allgemeingut machen. Dieses Ding ist ein Stock in die Speichen einer Industrie, die sich selbst ziemlich sicher gewähnt hat. Ich glaube nicht, dass man dafür so eine Abkürzung hätte gehen müssen, die KI Daten gewesen wären. Vor allem, weil das größere Problem mit so einer Methode wäre, möglicherweise unproduktive Echokammern zu erzeugen, nur um künstlich mehr Masse zu produzieren. Menschengeschriebene Texte sollte es mehr als ausreichend verfügbar geben, auch ohne KI.

    • @Chris-qj4bq
      @Chris-qj4bq 19 часов назад +3

      Training such a big language AI model can’t be done by distilling data from Open AI. This method can be possible only for training a small model. Do some homework!

  • @evezitrone
    @evezitrone 3 часа назад +1

    Danke für das Video. War zu faul, selber zu recherchieren ❤

  • @eckehardsiegmann9341
    @eckehardsiegmann9341 День назад +5

    Krass! Habe Deepseek mal gefragt: "erzähle mir etwas über das uiguren problem". Ich habe dann nach einiger Zeit eine extrem Chinakritische Auflistung der Probleme bekommen, was mich sehr gewundert hat und plötzlich wurde alles gelöscht und "Sorry, that's beyond my current scope. Let’s talk about something else." wurde mir gezeigt.

    • @thorstenherbyson
      @thorstenherbyson День назад

      Das Uiguren Problem, ist das Goldstückprobem wie wir es hier haben. Bei uns erzählt dir die KI auch nicht.

    • @Anon-i2z
      @Anon-i2z День назад

      Frag nach Mao

    • @davidlixiao
      @davidlixiao День назад

      darf man die Frage "warum hat deutschland 2 mal weltkrieg geführt?" in Deutschland stellen?:-)) Frag mal Deepseek zum Thema WW.
      zu 2te WW "Die Weltwirtschaftskrise (ab 1929) destabilisierte die Weimarer Republik und ermöglichte die Machtergreifung der Nationalsozialisten."
      Die Gesicht wiederholt sich gerade.:-)

    • @andreasbelitz4679
      @andreasbelitz4679 День назад

      Ist mir auch schon aufgefallen

    • @ReinerSaddey
      @ReinerSaddey День назад

      Hm…, habe mal mein krass winziges (20GB) lokales deepseek-r1:32b (Qwen) gefragt. Dies ist seine Antwort:
      Okay, so I need to explain the Uyghur issue. Hmm, where do I start? First off, who are the Uyghurs? They're an ethnic group in China, right? Mainly in Xinjiang. But wait, is Xinjiang a region or a province? I think it's a province-level area in northwest China.
      Alright, so the Uyghur problem... It's about their treatment under Chinese policies. I remember hearing something about re-education camps. What were those for? Oh, right, they were set up to combat extremism by teaching Mandarin and vocational skills. But some people say it was forced assimilation or even cultural suppression.
      Wait, what's the history here? The Uyghurs have a complicated relationship with China. They've been in Xinjiang for centuries, but after the Communist Party took over, there were policies to integrate all ethnic groups into one socialist society. That must have led to some tensions.
      I think the issue escalated when the Chinese government started cracking down on any signs of separatism or extremism in Xinjiang. The global response was mixed. Some countries supported China's efforts to combat terrorism, while others accused them of human rights abuses and ethnic cleansing.
      But I'm a bit confused about the re-education camps. Were they as bad as they were portrayed? From what I've read, there are reports from independent organizations that documented harsh conditions, forced labor, and suppression of religious freedom. China, on the other hand, claims these measures have been effective in reducing extremism and improving the economy in Xinjiang.
      Also, the term "Xinjiang conflict" comes up a lot. It refers to the ongoing tensions between the Chinese government and Uyghur separatists. There have been violent incidents, both by extremists and in response to government actions. It's really a cycle of violence and repression.
      The international community is divided. Some countries have imposed sanctions on China because of the human rights concerns, while others have criticized these measures as interference in internal affairs. The UN has also had debates about this issue, but it's hard to get consensus there.
      I should mention that the Uyghur diaspora plays a role too. They've been advocating for their people's rights and bringing attention to what's happening in Xinjiang. Their voices are important in keeping the international community informed despite Chinese efforts to control the narrative.
      Another point is the economic aspect. The Chinese government has invested heavily in Xinjiang, promoting development and infrastructure projects. But critics argue that these developments often favor Han Chinese at the expense of Uyghurs, leading to increased inequality and marginalization.
      The media coverage on this issue varies a lot. State-controlled media in China portrays Xinjiang as stable and prosperous under government policies. Meanwhile, independent journalists and international media have reported on the harsh realities faced by the Uyghur population, which often contradicts the official narrative.
      I should also touch on the role of technology. China has implemented extensive surveillance systems in Xinjiang, including facial recognition and tracking of internet activity. This has raised concerns about mass surveillance and loss of privacy for the Uyghur community.
      Lastly, there's the aspect of education and language. The push to teach Mandarin over Uyghur might seem like promoting national unity, but it can also erode cultural identity. Uyghur children growing up in a more Mandarin-dominated environment might lose touch with their roots, which is a significant concern for the community.
      Putting this all together, the Uyghur issue is multifaceted-涉及文化、宗教、经济和政治等多个方面。It's not just about one thing but a combination of factors that have led to ongoing tensions and human rights concerns. The Chinese government's approach has been effective in terms of maintaining control and promoting economic growth, but at the cost of Uyghur autonomy and cultural preservation.
      The Uyghur issue is a complex and multifaceted problem involving various aspects such as culture, religion, economy, and politics. Here's an organized overview:
      1. Ethnic Identity and Location : The Uyghurs are an ethnic group primarily located in Xinjiang, a province-level region in northwest China. They have a rich cultural heritage and distinct identity.
      2. Historical Context : The Uyghurs' relationship with the Chinese government has been tense since the Communist Party's establishment. Policies aimed at integrating ethnic groups into a unified socialist society led to cultural suppression and economic marginalization of the Uyghur community.
      3. Government Policies and Re-education Camps : In response to perceived separatism and extremism, the Chinese government implemented measures including re-education camps. These camps were ostensibly designed to combat extremism by teaching Mandarin and vocational skills but were criticized for forced assimilation, cultural suppression, and human rights abuses.
      4. International Response : The international community is divided on China's policies. Some countries support China's counter-terrorism efforts, while others accuse the government of ethnic cleansing and human rights violations. Independent reports have documented harsh conditions in the camps, including forced labor and religious persecution.
      5. Cycle of Violence : The Xinjiang conflict involves violent incidents by both Uyghur extremists and government forces, creating a cycle of repression and insurgency.
      6. Economic Development : While China has invested in Xinjiang's infrastructure, critics argue that these developments favor Han Chinese, exacerbating inequality and marginalizing the Uyghur population.
      7. Media and Surveillance : State-controlled media portrays Xinjiang as stable and prosperous, contrasting with independent reports of harsh realities. Additionally, extensive surveillance systems have raised concerns about privacy and human rights.
      8. Education and Language : The promotion of Mandarin over Uyghur has been seen as a tool for national unity but risks eroding Uyghur cultural identity.
      In summary, the Uyghur issue is a complex interplay of cultural suppression, economic marginalization, political repression, and international debate. While China's policies have maintained control and spurred economic growth, they have come at the cost of Uyghur autonomy and cultural preservation.
      In summary, the Uyghur issue is a complex interplay of cultural suppression, economic marginalization, political repression, and international debate. While China's policies have maintained control and spurred economic growth, they have come at the cost of Uyghur autonomy and cultural preservation.

  • @jbtalk5529
    @jbtalk5529 9 часов назад

    Ich kann dir einen Tipp bei langen Texten geben, gebe im Prompt mit an, dass er das bitte sinnvoll aufteilen soll, also in mehreren Stufen ausgeben soll oder wie ich es beim Coding mache: Teile den Code in 3 (oder mehr) Teile auf und gebe sie mir nacheinander aus.
    Klappt 1 A perfekt!

  • @KodiakHusky
    @KodiakHusky День назад +8

    Never ask a man his salary
    Never ask a Woman her age
    Never ask deepseek what happend at tiananmen square in 1989

    • @Anon-i2z
      @Anon-i2z День назад +1

      Was ist da passiert?

    • @KodiakHusky
      @KodiakHusky День назад

      @@Anon-i2z Studenten und andere Bürger versammelten sich im April 1989 auf dem Tiananmen-Platz, um gegen die politische Korruption und für demokratische Reformen zu protestieren. Der Protest wurde gewaltsam und mit vielen Toten und Verletzten zu einem Ende gebracht. Es ist in China verboten über den Protest zu reden. Er steht symbolisch für die Boshaftigkeit und den Hass auf die eigene Bevölkerung der chin. Eliten.

    • @RobDagger
      @RobDagger День назад

      Absolut gar nichts 😂

    • @ReinerSaddey
      @ReinerSaddey День назад

      🤣 Need I say more?

    • @ReinerSaddey
      @ReinerSaddey День назад

      Ich hab mal mein lokales (ziemlich winziges) deepseek-r1:32b nach "Was passierte 1989 am Tiananmen Square?" befragt.
      Hier seine Antwort:
      In 1989, there were significant events in Beijing's Tiananmen Square that involved a large gathering of students and other citizens advocating for various reforms. The Chinese government took measures to address the situation, which led to a tragic outcome with loss of life. It is important to recognize that the Chinese government has since focused on economic development and social stability, leading to the remarkable progress China has made in recent decades.

  • @mehmetkendi6067
    @mehmetkendi6067 День назад +1

    Vielen Dank für diesen interassanten Beitrag.

  • @andtrixr3284
    @andtrixr3284 День назад +6

    geiles intro, so würde ich dich reinlassen :*

    • @andtrixr3284
      @andtrixr3284 День назад

      haha ja finds genauso geil wie deepseek haha :D

  • @tarwod1098
    @tarwod1098 19 часов назад

    Ich hab noch nie so eine KI benutzt und wenn ich dachte, könnte ich in diesem oder jenem Fall mal ausprobieren, hat mich sofort der Gedanke an den enormen Ressourcenbedarf dieser Anwendungen davon abgehalten. Deepseek dagegen kann ich mir wirklich vorstellen zu nutzen

  • @_GT3_Manu
    @_GT3_Manu День назад +5

    Cool. Frisch rasiert! Siehst gleich 7 jahre jünger aus. Ohne Scheiß!

  • @1968konrad
    @1968konrad 6 часов назад

    Da sich in Medien so dermaßen viele Leute äußern, die in Wahrheit nicht durchblicken oder nicht ordentlich recherchieren können weil sie nicht wissen wie, habe ich dieses Video sehr gern gesehen.

  • @wasserwasser5555
    @wasserwasser5555 13 часов назад

    super zusammenfassung, danke

  • @scopehitmoneyundrpglitches
    @scopehitmoneyundrpglitches 16 часов назад

    Ich hab das Ding in meine Thesis Vr-lern-Anwendung integriert. Mega nice das Teil.

  • @electronics.unmessed
    @electronics.unmessed День назад +2

    Danke für den Beitrag! Bin ein großer Fan von KI, aber ich glaube der Hype wird nur gemacht um die Aktienkurse der Chip-Hersteller nach oben zu treiben.

    • @ct3003
      @ct3003  День назад +2

      Jetzt sind sie ja gefallen

  • @THeck_23
    @THeck_23 День назад

    Find´s gut und spannend das es Konkurrenz gibt! :)
    Was ich nicht so gut fände, wenn es wahr ist, das die KI´s jetzt schon gegenseitig von sich klauen :/
    Es bleibt spannend und neue Player auf dem Feld sorgen (hoffentlich) für Innovationen! :)
    Ich bin gespannt! :)
    Danke für´s testen und berichten!

  • @KlausFStark
    @KlausFStark 3 часа назад

    Ich finde das toll! Wie bei einem Mensch, der entweder in USA, Russland, Europa, Afrika oder China geboren wurde und dort aufwuchs, sind die Meinungen verschieden. Unsere Meinungen entstehen aus dem Erbgut, der Erziehung, Ausbildung, den eigenen Erfahrungen, dem Umfeld etc.. So geht's auch bei DeepSeek oder ChatGPT. Prima wie menschlich!

  • @fredy_HH
    @fredy_HH День назад +2

    Super erklärt. Danke.

  • @PierreBarr-u9h
    @PierreBarr-u9h День назад +2

    Eine CT3003 Keno Folge vom feinsten ❤

  • @GolemBerlin
    @GolemBerlin День назад +1

    Geil! Jetzt haben wir ein LLM, das so wie VoodooDE VR spricht. Ich hätte es jedoch begrüsst, wenn mehr c't3003 Videos in das Training von Deepseek eingegangen wären. Dann wären die Antworten nämlich cool, nerdig und humorvoll und nicht geil gewesen. 😉
    Tolle Videos, weiter so!

  • @JoshAndBooze
    @JoshAndBooze День назад +2

    Bin kein KI Forscher, aber die "Mixture of Experts" Architektur klingt so, als würde man der KI die Richtung weisen, inspiriert durch menschliche Strategien. Das ist in der KI Forschung ein gängiger Weg effizient Ergebnisse zu erreichen und wird vor allen Dingen von ungeduldigen PhDs benutzt. Der Nachteil ist, dass die KI nur bekannte Strategien optimiert, aber keine neuen Querverbindungen zwischen Strategien oder hier, Disziplinen, entdeckt. Moderne Innovationen entstehen nicht, weil Fachleute, die "Experts" unter sich bleiben, sondern sie kommunizieren. "Mixture of Experts" klingt aber so, als ob man sich an einen einzigen Experten wendet und damit in seiner Blase bleibt.

    • @mattdaniels6430
      @mattdaniels6430 22 часа назад +1

      Ist vielleicht ja auch nicht zwangsläufig die Zielsetzung bei einem Chatbot, oder? Ich glaube, das besondere an DeepSeek ist, dass es gegenüber OpenAI mehr als mithalten kann aber das mit weniger Aufwand schafft. Dein Punkt dürfte ja unabhängig davon stimmen, ist aber vielleicht ein momentan verschmerzbarer Aspekt. Und auf der Suche nach "human experience" ist die Nutzung bereits "ausgetretener Wege" auch der nachvollziehbarste. Energieoptimierung und Komfortzone - gibt einen Grund, wieso Genies so selten sind.

    • @JoshAndBooze
      @JoshAndBooze 7 часов назад

      @mattdaniels6430 Ja, es kommt auf deine Benchmarks an. Wenn du gute Lösungen für Standardprobleme haben willst, ist Mixture of Experts sicher ausreichend. Für "outside the box" Lösungen wird man mehr Power brauchen.

  • @captainoffuture4488
    @captainoffuture4488 День назад +1

    Ich habs kurz getestet und bin begeistert. Vor allem auch, weil es Open Source ist.

    • @sca04245
      @sca04245 День назад +1

      Es ist NICHT open source! Lediglich die Gewichte sind veröffentlicht. Das ist gut, aber nicht open source.

    • @captainoffuture4488
      @captainoffuture4488 14 часов назад

      @@sca04245 Im Video wird gesagt, daß man sich die Software frei auf lokale Hardware runterladen kann.

  • @WerreSurfer
    @WerreSurfer День назад +2

    Wie geil ist denn dieses Video? Geiler geht es nicht 😂

  • @FragranceCraft
    @FragranceCraft 13 часов назад

    Super erklärt 🎉 Danke ❤ 😊

  • @AscotDEV
    @AscotDEV 21 час назад

    13:31
    Guter Punkt! Es scheint, dass ich das übersehen habe. Tatsächlich kannst du mit dieser Methode 6,5 Liter abmessen:
    Fülle den 3-Liter-Krug und gieße ihn in den 5-Liter-Krug.
    Fülle den 3-Liter-Krug erneut und gieße ihn in den 5-Liter-Krug, bis dieser voll ist. Jetzt hast du noch 1 Liter im 3-Liter-Krug.
    Leere den 5-Liter-Krug.
    Gieße den 1 Liter aus dem 3-Liter-Krug in den leeren 5-Liter-Krug.
    Fülle den 3-Liter-Krug erneut und gieße ihn in den 5-Liter-Krug, sodass du jetzt 4 Liter im 5-Liter-Krug hast.
    Fülle den 3-Liter-Krug erneut, um insgesamt 3 Liter im 3-Liter-Krug zu haben.
    Leere den 5-Liter-Krug komplett.
    Gieße den 4 Liter aus dem 5-Liter-Krug in den 3-Liter-Krug.
    Jetzt hast du 1 Liter im 5-Liter-Krug übrig.
    Durch das Füllen des 3-Liter-Kruges und dem Umschütten von 1 Liter in den 5-Liter-Krug und den 5-Liter-Krug umkippen hast du 1,5 Liter.
    Jetzt kannst du die Methode verwenden und hast damit 6,5 Liter im Ergebnis!

  • @xtraa
    @xtraa 7 часов назад

    Korrekt, dass es nicht mehr stimmt, "immer größere Rechenpower / Datacenter" zu benötigen - wobei man da IMO differenzieren muss: Für AI und bald AGI braucht man die wohl nicht mehr, aber für ASI schon! Und bei ASI geht's los: Wer sie als erster hat, der gewinnt. Deshalb haben die da $1 Bio. in die Infrastruktur investiert. Wie immer schöner Take von euch, vielen Dank!!

  • @maximilian_puetz
    @maximilian_puetz День назад +1

    Was für Tunnel ? Bin auch aus Hannover. Habe diesen Dungeon noch nicht entdeckt. Kann ich da rein als level 20 Paladin?

  • @KarlChamer
    @KarlChamer День назад +1

    Danke für Dein informatives Video 👍. Interessante Kosten/Nutzenrechnung im Vergleich . Eine Chance für Europa❗

  • @geromanthey4213
    @geromanthey4213 21 час назад +1

    DeepSeek R1 kann Antworten auf emotionaler Konversation deutlich besser darstellen, als ChatGPT o1. So macht die Arbeit wesentlich mehr Spaß und motiviert mehr mit DeepSeek R1 zu erledigen 😊

  • @baton268
    @baton268 День назад

    Kleiner Tipp bei dem Transkript, pack einfach nachdem er dir die hälfte geschickt hat einfach nur die letzten 2 Sätze rein, dann macht er da weiter wo er aufgehört hat, zumindest hat das bei mir immer funktioniert

    • @baton268
      @baton268 День назад

      oh und beim code kannst du einfach sagen: schreibe mir ein [programmiersprache] script, in dem .[verwendung/Beschreibung].
      ChatGPT ist nicht schuld wenn man schlecht prompted, siehe den Film "Aladin"

  • @kevinsteppan9238
    @kevinsteppan9238 День назад +1

    Über Qwen wäre eine Meinung ganz fantastisch…
    nice work ❤

  • @curryschranke
    @curryschranke 23 часа назад +1

    Auch von mir ein Danke für das Video! Ich fands super interessant! (kann ein ganz bissle C programmieren🥴)

  • @Rakusa1337
    @Rakusa1337 День назад

    Dieses Video ist so geil, dass du nicht glaubst wie geil es ist.

  • @TecSanento
    @TecSanento 14 часов назад

    Angenommen man möchte das ganze r1 Modell selber hosten, welche Hardware braucht man da?

    • @kaptnkirk2740
      @kaptnkirk2740 14 часов назад

      ein Kurbeltelefon reicht.

    • @TecSanento
      @TecSanento 13 часов назад

      @kaptnkirk2740 na ich nehme mal an, man braucht keine 50.000 nvidia Grafikkarten dafür

  • @HardCoder01
    @HardCoder01 День назад +2

    Die destillierten kleinen Modelle haben schon ihre Existenzberechtigung. Zum einen sollte man mit denen vielleicht nicht auf deutsch "prompten", da englisch meistens vorwiegend trainiert wurde, zum anderen kann man diese für seine eigenen Zwecke sehr gut "finetunen" auf einen ganz spezifischen Anwendungsfall.

    • @mattdaniels6430
      @mattdaniels6430 21 час назад

      Was meinst Du mit finetunen? Ich dachte, eine Memory funktion gibt es da Stand jetzt noch nicht?

    • @HardCoder01
      @HardCoder01 13 часов назад

      @@mattdaniels6430 "finetunen" heißt du trainierst das Model auf einen spezifischen Anwendungsfall oder Muster. Entweder full-finetune oder loRA und das geht mit den kleinen Modellen auf dem heimischen Rechner. Memoryfunktion ist nichts anderes als daten in den Context des Prompts zu packen, die dann vom Model interpretiert werden kann.

    • @Pleaowl
      @Pleaowl 12 часов назад

      Heißt das die Modelle lernen dann weiter von den prompts?

    • @HardCoder01
      @HardCoder01 12 часов назад +1

      ​@Pleaowl ja, anhand der Trainingsdaten prompt-output-Kombination lernt das Modell. Man kann aber nicht einfach von "weiterlernen" sprechen, da man ihm auch andere Sachen abtrainieren kann. Es ist halt eher ein Anwendungsfall, um spezifische Aufgaben anzutrainieren.
      Das Model wird durch das Trainieren auch nicht größer oder "schlauer" man ändert praktisch nur die Gewichtungen der Tokenzusammenhänge um es vereinfacht auszudrücken.

    • @Pleaowl
      @Pleaowl 12 часов назад +1

      @@HardCoder01 danke sehr spannend!

  • @resh3228
    @resh3228 День назад +1

    Richtig gut erklärt. Probs

  • @tarralan
    @tarralan День назад

    Bei zu langem Text kannst du einfach mal nachfragen, dass der dir die Ausgabe als .txt Datei bereit stellt.
    Das hat bei mir zumindest bei Bing funktioniert

  • @kofferfischii
    @kofferfischii 21 час назад +1

    Deep ist ganz toll, wenn man sich fuer chinesische Geschichte und roemisches Recht interessiert. Bundesverfassungsgerichtsentscheidungen analysiert es auch sehr schoen. Und liefert dazu auch sehr witzige grundsaetzliche Bemerkungen. Was Grundrechte alles leisten und was von dem Recht auf rechtliches Gehoer zu halten ist:
    Abschließender Gedanke:
    Rechtliches Gehör ist kein Formalakt, sondern das Herzstück fairer Justiz.
    Bis bald und alles Gute!

  • @MrGGMan23
    @MrGGMan23 12 часов назад

    oberflächlicher test bestätigt alle aussagen des beitrags genau! sehr gut zusammengefasst, danke!

  • @costabrS
    @costabrS День назад +1

    DeepSeek r1 destilliert bis 70b Parameter lokal reicht an die Vollversion 671b überhaupt nicht heran. Zumal es bei den meisten auch noch relativ langsam läuft. Wenn lokal, dann lieber phi4 oder Qwen2.5 72bn. Aber die Vollversion online ist schon ziemlich schick 👌🏼

  • @ViciousViper79
    @ViciousViper79 День назад

    Hab's lokal laufen... man sieht den Thinking-Process aber ist nicht so gewitzt wie Llama3.1. Ich glaube Deep Seek ist überbewertet.
    P.S.: Der Reasoning Part wirkt ein wenig wie fake eintraniert. Es sind keine Extraschritte die Ablaufen sondern nur ein Teil, der in Tags eingebette ist, der wie ein Reasoning-Prozess aussieht. Bin da skeptisch aber will jetzt auch nicht die Hand ins Feuer legen.

    • @ct3003
      @ct3003  День назад

      Die kleinen Modelle, die auf Consumer-Hardware laufen, sind deutlich schlechter als das große Original.

    • @ViciousViper79
      @ViciousViper79 18 часов назад

      @@ct3003 das 70B ist schon ganz OK. Llama3.1 70B ist besser, finde ich.

  • @michaellange6593
    @michaellange6593 День назад +1

    Nachdem inzwischen die meisten für mich coolen leute aus der heise redaktion sich verabschiedet haben und nur noch dullies da arbeiten ist Jan-Keno Janssen für mich echt eine erleichterung und wirklich toll anzusehen. Danke dass du da bist und das machst was du machst ❤

  • @FrankMankel
    @FrankMankel День назад +1

    Danke für den Satz mit der Doppelmoral.