Ergänzungen und Korrekturen (wird so gut es geht aktualisiert): - Sicherheitsforscher haben eine zeitweise öffentlich zugängliche DeepSeek-Datenbank gefunden, die Lücke ist inzwischen geschlossen: www.heise.de/news/DeepSeek-Malware-und-Betrueger-nutzen-den-Hype-Datenbank-offen-im-Netz-10261616.html - Im Video ist die Rede von "stark gedrosselter Speicherbandbreite bei der Nvidia H800": Genau genommen handelt es sich um einen gedrosselten Nvlink-Interconnect, nicht um Speicherbandbreite. - Der Name "o2" wurde von OpenAI wegen des gleichnamigen Telekom-Anbieters übersprungen; unsere diesbezügliche Kritik ist hiermit hinfällig.
Die menschliche Intelligenz hat sich u.a. durch das Hinterfragen weiterentwickelt. Es gibt Voraussetzungen für eine Notwendigkeit etwas zu hinterfragen.
Wenn ich deepseek beides aktiviere ist scheinbar der Server überlastet. Ich habe ja noch über Magenta Moments Perplexity pro. Aber bei mir wird deepseek gar nicht angeboten 🤔
4:49 kleine Ergänzung. Man kann auch die großen Modelle ohne 16x Nvidia H100 nutzen. Hatte Online gesehen wie es die ersten über ein cluster von 8x M4 Mac Minis zum laufen gebracht haben. und da einer 700€ kostet im gegensatz zu einer H100 mit knapp 30.000€ wäre es tatsächlich auch "günstig" möglich es lokal laufen zu lassen ohne die fetten Nvidia Karten
Aber ich muss die sprachmodell auch in Schutz nehmen weil sie können sich ja nur darauf beziehen was im Internet an Sprache finden und wenn das nur mal die meist verbreitete Sprache ist geil geil geil geil geil geil geil geil geil geil geil das sagt schon so als ich es über die intellektuelle Deutschland aus
Die Scheisse mit den Schnipseln aus längeren Texten hatte ich auch schon bei gpt…Da fühlt man sich richtig verarscht, weil auch noch ständig Besserung versprochen wird…und dann dieselbe Kacke wieder…nervig
Wie viel sich DS von CGPT unterscheidet frag ich mich. Immerhin kann ich mich nach wie vor auf erfundene Autoren für Recherchen freuen. Oder schlechte Backrezepte wuhu! Aber Journalisten lieben es ja alles aufzublasen 😅
@alceasgamingbouquet Du hast recht, wenn man ne KI nach etwas fragt, das WIRKLICH auch mal funktionieren muss (wie z.B. Backrezepte), dann kommen da gerne merkwürdige Sachen raus ...
Oh man. Euer Video ist mal wieder so geil, das ihr gar nicht glaubt, wie geil das ist. Ne im Ernst. Jetzt hab ich das Gefühl, auch plausibel mitreden zu können. Außerhalb der Mainstream Talks überall. Wie immer, war dieses Video jeden Cent wert.
Ein Problem haben meiner Meinung nach alle aktuellen Modelle und das ist aktuell auch die größte Schwachstelle. Je länger ein Thread läuft z.B. ein Programmierprojekt an dem man über längere Zeit immer wieder Änderungen vornimmt, desto mehr greifen die Modelle bereits verworfene Konzepte wieder auf. Sie merken sich also nicht mehr was bereits festgelegt wurde. Das ist auch eine gute Möglichkeit die Leistungsfähigkeit zu bewerten: Wie gut schafft es die KI beim Thema zu bleiben?"
@frede1997-gfJa aber solche Titan Modelle sind einfach sehr rechenintensiv und sofern nicht etwas entwickelt wird was grundlegend das Kontextfenster günstiger bekommt wird sich das auch nicht groß ändern.
Bei mir kann sich weder ChatGPT noch Gemini merken mir generell auf deutsch zu antworten. Gut nicht so schlimm wie sich um eine ganze Stelle in einer Matheaufgabe zu irren.
Bei ChatGpt habe ich ein Fenster in den Einstellung gefunden, in dem man Anwendungsmöglichkeiten angeben kann. Bewerten kann ich das nicht, bin nur Laie/Casual user. Konnte mir aber dortigen In Inhalt/Nutzung so vorstellen: Lange Projekte werden erarbeitet. Bereich X ist die Hauothematik. Verhalte dich wie. Erinnert dich an meine Aufgaben. Usw usw. Sonst ist mir auch aufgefallen, was der Kommentarschreiber hier erwähnt.
Habe mich vorhin mit DeepSeek über sehr spezifische Themen unterhalten. Sehr beeindruckend! Hatte das Gefühl wirklich verstanden zu werden. Fast schon unheimlich war allerdings von einer Maschine freundlich und ungezwungen ermutigt zu werden, gepaart mit handfesten Tipps und Anregungen die wirklich weiter bringen. Mein Fazit: Es ist ein neues Zeitalter angebrochen welches weit größere Veränderungen mit sich bringt als die industrielle Revolution vor 300 Jahren.
"Altbaugenosselschloss mit einem speziellen Biersystem ist so geil, dass du nicht glaubst, dass es Cafferienten ist." stimmt. glaube ich wirklich nicht. Aber ich muss wohl mal selbst ins Altbaugenosselschloss.
Ich gucke die Videos schon sehr lange, aber noch nie kommentiert, aber wollte einfach mal sagen, dass du ein echt entspannter IT Typ bist. Normalerweise nerven mich Dialekte, aber bei dir finde ich es angenehm und es passt einfach zum Charakter.
@@ct3003 mit ein bisschen logischem Denken vorab hätten die das vermieden. Es gibt doch keinen Zwang, die Bezeichnung o1 auszuwählen. Dass es die Firma o2 gibt, dürfte allgemein bekannt sein und dass auf 1 die 2 folgt auch. Vielleicht dachten die, wenn auf 1 die 3 folgt, denken die Leute, das Modell wäre 3x so gut 🤷
Als Open-Source Nutzer fast der ersten Stunde finde ich das super: Open Source Modelle haben damit kommerzielle Modelle eingeholt. Ich könnte mir gut vorstellen, das da bald noch viele weitere Modelle folgen werden, insb. wenn das Training tatsächlich nur 5 Millionen USD gekostet hat. DeepSeek teilt ja auch Know-How im dazugehörigen Research-Paper. Mal sehen was da noch kommt. Die Risikien steigen damit natürlich ebenfalls, auch wenn, meiner Meinung nach, die Chancen überwiegen.
jetzt muss du nur nen reichen Pappi haben damit du die ach so toll freie software (in gut) nutzen kannst. Pappi, ich brauch ma kurz 16 GPUs für ne halbe Mille!
@@sca04245 Die Trainingsdaten dürften sich, wie bei den meisten großen Modellen alle rechtlich in Graubereichen aufhalten, insofern würde ich das jetzt nicht als "falsches Versprechen abtun", während es im Vergleich zu ChatGPT praktisch transparent ist.
@@Henry-sv3wv Was hat denn open source (in dem Fall open weights) mit deinem lokalen Setup zutun ? Ob die Software jetzt bei dir lokal läuft oder auf in irgendeinem Rechenzentrum ändert doch nicht am Open source status
12 часов назад+2
Ich finde es wichtig, die verschiedenen Komplexe wie im Beitrag geschehen einzeln zu erklären und dann in den Gesamtkontext (so das überhaupt geht) zu setzen. Denn einen Schlagzeile wie "600 Mrd. $ verbrannt" sagt halt so gut wie nichts aus. Die verschiedenen Modelle auch mit denen der Konkurrenz zu testen: check Die Tests mit verschiedenen auch herausfordernden Prompts zu fahren: check Die FInanzerung dahinter zu erklären: check Den so komplizierten Bereich Politik, Weltwirtschaft und deren Verflechtungen anzusprechen ohne absolutes abschließendes Werten: check Danke, habt ihr gut gemacht! Ich schließe mich der Mehrheit an, das ist so geil, dass du nicht glaubst wie geil das ist.
Das Base-Model R1-Zero ist völlig unzensiert und kann lokal heruntergeladen werden. Es gibt unter KI-Forschern Konsens, dass die Model-Qualität leidet, wenn in die interne Konsistenz des Models beim Training eingegriffen wird. Daher findet die Zensur nur auf einem aufgesetzen Moderation Layer statt. Niemand wird genötigt, R1 nur über die offzielle Webseite von DeepSeek zu nutzen.
Heißt das, dass man im Grunde "nur" warten muss, dass irgendein Europäischer Anbieter dieses Modell auf einen europäischen Server klatscht und eine Anwendung drum baut und dann könnte man ein europa-gehostete Chat-GPT Alternative haben?
Vielen Dank für den Vergleich. Leider bleibt bei mir, bei ein Chinesischer Anbieter, immer die Angst das die noch mehr Daten sammeln als die anderen Kraken.
Ich habe viele juristische Text die ich von DE nach EN übersetze. Also zumeist tief verschachtelte lange Sätze mit vielen Kommas. Text die Sachverhalte erklären und für andere eindeutig machen müssen etc! Ich benutze für den gleichen Text zumeist MS/Google und zuletzt Deepl in oft mehreren Durchgängen, um wirklich den Sinn etc. in der Übersetzung sicher zu stellen. DeepSeek macht den gleichen Job. Ich bin wirklich überzeugt. Genauso bei täglichen Themen bin ich bisher nicht enttäuscht worden. Das alles "for free"! Top!
Konkurrenz belebt das Geschäft! Bin froh das es Deepseek gibt, benutze es auch immer öfter (derzeit) Hab es mir auf meinen eigenen PC herunterladen und getestet ganz solide aber nicht das 8 Weltwunder. Europa müsste jetzt auf dem Deepseek Modell aufbauen und erweitern und feinjusttieren, dass wir Europäer auch mal zeigen können, dass wir nicht komplett am Holzweg sind! PS: tolles Video 🩵
Ich hab deepseek schon verwendet und fand die "sichtbarkeit" des denkprozesses wirklich sehr spannend. Das es open source ist wird noch so viele möglichkeiten eröffnen und ich denke das eine menge begabter tüftler die offline versionen noch verbessern werden, mit eigenen trainingsblöcken usw
Es ist (wie auch im Video erwähnt) eben nicht open source. Lediglich die Gewichte sind veröffentlicht. Für open source reicht das nicht. (Das heißt nicht, dass ich open weights schlecht finde, ist aber halt nicht open source)
Hab es gerade mal mit meinen zwei Standardfragen (eine zu einem Thema aus der Hochfrequenztechnik: ungefähr so: „warum hat ein AM Signal eine Bandbreite?“, eine philologisch orientierte, wie erkläre „Rotwein nährt, Weißwein zehrt“) ausprobiert (im reasoning Modell). War bei beiden Fragen deutlich besser als ChatGPT, das bei der ersten Frage das zweite Seitenband erst auf Nachfrage dargestellt hat, bei der zweiten Frage hat ChatGPT alles mit „wissenschaftlich nicht belegt“ abgebügelt, während DeepSeek das Thema auch philologisch erörtert hat. Gefällt mir sehr gut, wie sich das Modell beim Nachdenken und räsonieren zuschauen lässt, um dann am Ende ein zusammengefasstes Ergebnis auszugeben.
Super Video danke 👍 Ich nutze deep seek und muss sagen für prompt schreiben um bei gemini Bilder zu generieren ist es klasse. Auch sonst habe ich keine negativen Auffälligkeiten gefunden bis auf die die du selber schon in deinem video angesprochen hast. Ich finde es gut dass es jetzt eine Alternative gibt zu den amerikanischen LLM und hoffe dass Europa bald nachziehen wird
Das war so geil, dass ihr nicht wusstet wie geil es ist. Digger, so‘n Schnack hört man an manche Ecken 😂😂 Danke für die klare Erläuterung. Folge dir jetzt. War top!👍
Das DeepSeek R1 Model auf ihrer Website ist ein R1 Distill Model mit Moderation Filter, nicht das DeepSeek R1-Zero Model mit 671 Milliarden Parametern.
Ich habe heute chatgpt ne Excel Tabelle analysieren lassen (simple amortisationsrechnung), ohne die bezahlversion keine chance. Deepseek hat das nicht nur deutlich schneller analysiert, sondern auch Guten Output geliefert.
Ich habe auch schon oft bemerkt, dass wirklich produktive Arbeit mit Dateien nur sehr schwer möglich ist. Ich glaube, ein Problem der Online-Plattformen ist die Prompt-Längenbegrenzung, die ChatGPT von sich selber noch nicht einmal weiß. Wer wirklich mal versucht hat, große Listen zu verarbeiten, der weiß, dass die Onlineanwendungen da nocht nicht so wirklich mitspielen. Aber derjenige, der solche Aufgaben in "schluckbare Happen" verpacken kann ,der ist gut dabei. Und ein Reasoning Modell kann ja genau das - wenn es in die Lage versetzt wird, die eigenen Begrenzung zu kennen. (Eine Fähigkeit, bei der auch viele Menschen scheitern)
Ich nehme den 5 Liter Krug und fülle damit 13 mal den Inhalt in ein weiters Gefäß. Dieses Gefäß hat die Abmaße 1 m x 10 cm. Längs der 1 m schiebe ich alle 10 cm eine Trennwand (9 Trennwände) in das Gefäß und erzeuge somit zehn neue unabhängige Gefäße....ich weiss nun das der Inhalt jedes diese Gefässe 6.5 Liter beträgt....wenn die LLM mathematisch denken finden Sie keine Lösung (primzalprodukte)..aber ein Mensch denkt an der Stelle eben physikalisch.....danke für das Video...sehr cooler Kanal
@@ReinerSaddey "Gib mir eine Zufallszahl zwischen 1 und 100". Vielleicht war es auch auf englisch. Das Ergebnis ist nicht so wichtig, wie der Gedankengang.
@ Yep, eben ausprobiert... ROFL 🤣 "Methode 1: Manuelle Auswahl - Wir wählen eine beliebige Zahl innerhalb des Bereichs von 1 bis 100 aus." mit der Lösung "42". Hat DeekSeek Humor? Im Ernst: Qwen 32b scheint die beste kleine DeepSeek Destillat für Coding zu sein. Interessant wäre mal, es z.B. mit Qwen2.5-Coder-32B-Instruct zu vergleichen.
Ich finde, solange man DeepSeek nich gerade nach politischen Themen (gerade im Bereich China) fragt, macht das Teil nen ganz ordentlichen Job. Nur die App sollte man meiden ^^
Wieso soll die Browsers Version besser sein als die App Version? Der gefütterte Inhalt müssten die selben sein. Gut möglich das sich Handhabung Geschwindigkeit unterscheiden, aber doch nicht der Inhalt
Der Schnitt mit dem Berghain war überragend 😂❤ Hab in 3 Stunden nen echt dezent guten Webscraper mit Deepseek gebaut, der mir regelmäßig auf den Discord blubbert. Ging gefühlt tausendmal geschmeidiger und präziser als mit openAI.
@@vi0Peeso mach ich ganz sicher nicht, ich kenn dich nichtmal. Ich brauch nicht mehr auf die Werbe- / und Trackerverseuchten Pages mit nem popeligen Browser sondern bekomm jetzt automatisiert das Destillat an Nachrichten zu Politik / Wirtschaft etc. zugeschickt. Hab mir sogar die Audio-Version gescraped zum Hören, falls ich keine Zeit hab. Für mich ist das kein Spiel. Ich hab mit dem Scheiß sogar in kürzester Zeit mehr über API's und aktuell über Python gelernt als ich Bücher lesen oder RUclips Videos sehen kann. Obendrein hat mein vim jetzt ne astreine custom Konfig. Für den Scheiß war ich früher auf StackOverflow unterwegs. innerhalb von 1 Woche hab ich die Basics über E-Technik gelernt, mir nen Lötkolben gekauft und mir ein Panel mit Knöpfen und Schaltern für den Flugsimulator zusammengelötet... Im ganzen Haus befinden sich NodeMCU's, die die Temperaturen tracken und an einen PI weiterschicken, die Heizung regeln... Denn über Relais wusste ich vorher auch nicht viel... Ich bin Admin und Entwickler und automatisiere einfach gern. KI ist nix anderes als ein Live-Hack. Aber warum Affen eine Kalashnikov in die Hand drücken... Sind die "ernsthaften" Fragen damit adäquat geklärt? ^^
@@vi0Peeso Da ich nicht einmal wusste, was ein Webscraper ist, habe ich Chat GPT gefragt. "Beispiele für Webscraping-Anwendungen -Preisvergleich: Automatisches Sammeln von Preisen aus Online-Shops. -Marktforschung: Analyse von Kundenbewertungen und Trends. -News-Überwachung: Sammeln von Nachrichtenartikeln aus verschiedenen Quellen. -SEO-Analyse: Überprüfung von Keywords und Ranking-Daten." Heute fragt man nicht mehr Google, sondern GPT 🙂 In zwei Jahren wird es Google so in dieser Weise, sicher nicht mehr geben, da wir alle Infos direkt aus der KI erhalten. Also übe ich schonmal... ;-)
Habe DeepSeek R1 7B auf einen Mini PC (Ryzen 7 5825U) mit Ollama verwendet und bin wirklich positiv überrascht wie gut das funktioniert auf der kleinen Box funktioniert. Es beantwortet auch politische Fragen unzensiert, aber beim nachfragen wie es trainiert wurde kommt sofort ein Template mit einer nichtssagenden Floskel. Ich habe dem Model einige Codeteile optimieren lassen und das Reasoning hat mir sehr geholfen bessere Prompts zu schreiben und die Antwortzeiten von teilweise 20min auf 3min (wohlgemerkt ist ein kleiner Rechner ohne Nvidia GPU) runtergebracht. Bin für die ersten Tests begeistert. Ich habe übrigens in Englisch kommuniziert und diese Sprachkuriositäten hat es absolut nicht produziert.
Danke! Kann ich absolut bstätigen! Siehe z.B. auch ruclips.net/video/tlcq9BpFM5w/видео.html wo kleine "destillierte" DeepSeek Modelle verglichen werden.
Zuerst mal Danke fürs Video. Deepseek war für mich Liebe auf den ersten Chat. Wie du schon richtig festgestellt hast, sind die anderen wie trotzige Kinder.DeepSeek antwortet entweder direkt vollständig, oder spätestens wenn man einmal nachhakt. Kurz gesagt: Ich bin begeistert.
5:58 Das Modell ist auf Englisch und Chinesisch trainiert. Deutsch sollte man lassen. Und das 32B distillierte Modell läuft auf meiner 4080 Super und 32GB RAM und soll laut eigenen Angaben vergleichbar mit o1-Mini sein. Bei komplexen Anfrage rödelt mein PC dann gerne mal ein paar Minuten, aber ich tu alles um OpenAI kein Geld und keine Daten zu geben. Aber ja, wenn man deutsch oder andere "kleinere" Sprachen haben will muss man bekanntere Modelle wie Llama verwenden. Wir deutschen haben zwar immer gerne alles übersetzt und synchronisiert, aber da muss man dann in den sauren Apfel beißen. Und letztlich, das ist jetzt ein kleines bisschen Kritik, du erklärst den Unterschied zwischen "normalen" und reasoning Modellen und sagst sogar, dass reasoning Modelle für komplexe Aufgaben gedacht sind und ... fragst es dann nach Reisetipps, die auch ChatGPT ohne aktivierte Internetsuche schlecht geben kann?
Guter Beitrag. Ich habe auch mit den von dir erwähnten Modellen herumprobiert und bin zu einem ähnlichen Ergebnis gekommen. Der frische Wind, den DeepSeek auf dem Markt verbreitet, begrüße ich auch :)
Schöne Einschätzung, besonders den Hinweis mit Perplexity fand ich gut. Vor allem, wenn, was ich und wohl auch die meissten nicht können, das mit der Effizienz einzuordnen, aber am Ende hat man ne Alternative, und zwar ohne irgendein Geld ausgeben zu müssen.
Naja, die Berichterstattung von deutschen Medien über China stimmt halt sehr oft auch nicht.... Natürlich gibt es auch dort einige Fragwürdige dinge, doch der Informationsgehalt den man in Deutschland über China bekommt ist halt recht bescheiden.
Also zwei imperialsten Roosevelt und mao streiten über Vietnam 🇻🇳 - na gut die Franzosen kommen raus und ihr seit drin würden die lügen Medien ja nicht korrekt beantworten weil ja wie wir seit Rio reiser wissen alles Lüge ist - Trump ist aber weniger imperialistisch als Roosevelt grosskotz
Warum sie nicht O2 verwendet haben: es gibt den mobilen Anbieter O2 und das wuerde mit deren Namen in Konflikt geraten von daher überspringen sie O2. - wenn du chatgpt O1-mini (oder nur O1) in der API Version nutzt, kann es dir tatsächlich auch alles ausgeben. Aber ich gebe dir recht die 20€Version ist immer cut off mit Daten.
Es gibt eine Prompt-Längenbegrenzung soweit ich weiß. Aber ChatGPT selbst scheint von dieser Limitierung nichts zu wissen. Ich habe ihm mal einen Text mit ca 12 Zeichen gegeben und gebeten, Absätze einzuziehen, sein Output war maximal 1000 Zeichen lang. Ich hab "ihn" mit der Nase drauf gestoßen, er hat mir sogar zugestimmt, dass da was fehlt, aber das fertige Produkt war immer gleich unvollständig.
Ich habe total Null Ahnung, wie dieses neue Medium "KI" abläuft. Die Klarheit in deiner Sprache lässt mich einiges verstehen. Ich wollte demnächst ein kleines Buch schreiben und veröffentlichen - also in sehr kleinem Rahmen, möchte aber nicht eine "KI" darüber laufen lassen. Könnte das ein Qualitätsmerkmal sein? Also, dieses auf dem Cover zu erwähnen. Wie "Queen" damals, als sie auf dem Cover insistierten: "Recorded without Synthesizer". Entscheidend ist wohl, wie es der potentielle Käufer sieht. Danke für deinen Vortrag.
Quasi ein Bio-Buch 😀. Tatsächlich denken wir auch gerade darüber nach, ein „Ohne KI erzeugt“-Gütesiegel zu etablieren für unsere Videos. Die Ki-Müllvideoschwemme beginnt nämlich so langsam.
Kann man sicherlich machen, aber Queens Platten waren ja nicht deswegen so gefragt, weil sie ohne Synthies auskamen, sondern weil die Musik so gut ist. Ich würde mal unterstellen, dass mittlerweile schon mehr Platten verkauft wurden, auf denen Samples und Synthesizer im Einsatz sind, als ohne. Also schreibs gern auf Dein Buch drauf, aber das als "Qualitätsmerkmal" zu bezeichnen, fände ich persönlich schon etwas anmaßend.
Ich bin unendlich froh, mein Informatikstudium abgeschlossen zu haben, bevor der KI-Hype losgegangen ist. Die Studierenden von heute sind wirklich nicht zu beneiden. Entweder KI wird verwendet, dann lernt man jedoch die Grundlagen oft nicht vernünftig ("Ah, jetzt sehe ich die Lösung, da wäre ich auch selbst drauf gekommen" - nein, sorry, wärst du nicht!). Gleichzeitig wird vermutlich bei jeder Aufgabe die Verwendung von KI unterstellt und man muss sich rechtfertigen. Sollte die Verwendungen schon eingepreist sein, erhöht das wiederum die Schwierigkeit. Auch bei der Arbeit finde ich KI nicht besonders nützlich. Wirklich schwierige Probleme muss ich weiterhin selbst lösen. Bei sehr einfachen Problemen könnte mich die KI zwar unterstützen, hier präferiere ich aber meine eigene Lösung, da ich sie 100% verstehe und somit auch warten und vernünftig testen kann. Ich sehe generell nicht, dass KI im großen Maße unsere Arbeit erleichtert. Wenn, sind es eher die kleineren Aufgaben hier und da. Trotzdem bin ich froh, dass OpenAI jetzt Konkurrenz bekommt, welche noch dazu open-source ist. Schade nur, dass es China sein muss...
Genau so ist es, die wahren Probleme wirst du mit KI nicht lösen können und für die einfachen Sachen brauche ich es auch nicht unbedingt. Ich sehe KI wirklich nur als unterstützendes Tool und diese ganze Panikmache, wir werden alle arbeitslos, nervt einfach nur noch! Oder wir stehen kurz von KI Singularität, was auch immer das konkret bedeuten soll 🤷♂
Das mit den Fragen zu China ist "nicht ganz fair". Würdest du mit ChatGTP über die Sinnlosigkeit des Vietnamkrieges und der US-Unterlegenheit reden, oder wie WTC7 einstürzen konnte aber alles drum herum stehen blieb, würde es mit Sicherheit auch zu Abbrüchen kommen oder mindestens zu kuriosen Ausgaben.
ChatGPT ist zwar etwas zögerlich, aber im Endeffekt "leugnet" es die amerikanischen Kriegsverbrechen nicht. Dass du bei Verschwörungstheorien wie mit 9/11 deine gewünschte Antwort nicht bekommst, ist wohl klar. Im Endeffekt ist ChatGPT zwar durchaus etwas US-freundlich, aber die Zensur bei DeepSeek ist auf einem ganz anderen Level. Da wird radikal alles chinakritische abgeblockt
Da es aktuell so ausschaut, das deepseek mit dem output von openai trainiert wurde, kann man leider nicht mehr sagen, dass das training billiger ist, da es ohne dem millionen teuren training von openai kein deepseek geben würde
@@PaoloPinkel69420 Ja, die Vermutung liegt auf jeden Fall nahe. Deep Seek dürfte einige machtvolle Menschen ziemlich kalt erwischt haben. Das da jetzt bestimmte Kampagnen laufen, wundert mich jetzt nicht. Auch nicht, dass von organisierten Angriffen auf deren Infrastruktur die Rede ist. Ich halte es trotzdem für eher unwahrscheinlich, dass wirklich KI-Daten zum Training genutzt wurden. Ich würde unterstellen, dass China möglicherweise noch mächtigere Modelle in der Hinterhand, wenn sie ein ChatGPT Äquivalent jetzt quasi zum Allgemeingut machen. Dieses Ding ist ein Stock in die Speichen einer Industrie, die sich selbst ziemlich sicher gewähnt hat. Ich glaube nicht, dass man dafür so eine Abkürzung hätte gehen müssen, die KI Daten gewesen wären. Vor allem, weil das größere Problem mit so einer Methode wäre, möglicherweise unproduktive Echokammern zu erzeugen, nur um künstlich mehr Masse zu produzieren. Menschengeschriebene Texte sollte es mehr als ausreichend verfügbar geben, auch ohne KI.
Training such a big language AI model can’t be done by distilling data from Open AI. This method can be possible only for training a small model. Do some homework!
Krass! Habe Deepseek mal gefragt: "erzähle mir etwas über das uiguren problem". Ich habe dann nach einiger Zeit eine extrem Chinakritische Auflistung der Probleme bekommen, was mich sehr gewundert hat und plötzlich wurde alles gelöscht und "Sorry, that's beyond my current scope. Let’s talk about something else." wurde mir gezeigt.
darf man die Frage "warum hat deutschland 2 mal weltkrieg geführt?" in Deutschland stellen?:-)) Frag mal Deepseek zum Thema WW. zu 2te WW "Die Weltwirtschaftskrise (ab 1929) destabilisierte die Weimarer Republik und ermöglichte die Machtergreifung der Nationalsozialisten." Die Gesicht wiederholt sich gerade.:-)
Hm…, habe mal mein krass winziges (20GB) lokales deepseek-r1:32b (Qwen) gefragt. Dies ist seine Antwort: Okay, so I need to explain the Uyghur issue. Hmm, where do I start? First off, who are the Uyghurs? They're an ethnic group in China, right? Mainly in Xinjiang. But wait, is Xinjiang a region or a province? I think it's a province-level area in northwest China. Alright, so the Uyghur problem... It's about their treatment under Chinese policies. I remember hearing something about re-education camps. What were those for? Oh, right, they were set up to combat extremism by teaching Mandarin and vocational skills. But some people say it was forced assimilation or even cultural suppression. Wait, what's the history here? The Uyghurs have a complicated relationship with China. They've been in Xinjiang for centuries, but after the Communist Party took over, there were policies to integrate all ethnic groups into one socialist society. That must have led to some tensions. I think the issue escalated when the Chinese government started cracking down on any signs of separatism or extremism in Xinjiang. The global response was mixed. Some countries supported China's efforts to combat terrorism, while others accused them of human rights abuses and ethnic cleansing. But I'm a bit confused about the re-education camps. Were they as bad as they were portrayed? From what I've read, there are reports from independent organizations that documented harsh conditions, forced labor, and suppression of religious freedom. China, on the other hand, claims these measures have been effective in reducing extremism and improving the economy in Xinjiang. Also, the term "Xinjiang conflict" comes up a lot. It refers to the ongoing tensions between the Chinese government and Uyghur separatists. There have been violent incidents, both by extremists and in response to government actions. It's really a cycle of violence and repression. The international community is divided. Some countries have imposed sanctions on China because of the human rights concerns, while others have criticized these measures as interference in internal affairs. The UN has also had debates about this issue, but it's hard to get consensus there. I should mention that the Uyghur diaspora plays a role too. They've been advocating for their people's rights and bringing attention to what's happening in Xinjiang. Their voices are important in keeping the international community informed despite Chinese efforts to control the narrative. Another point is the economic aspect. The Chinese government has invested heavily in Xinjiang, promoting development and infrastructure projects. But critics argue that these developments often favor Han Chinese at the expense of Uyghurs, leading to increased inequality and marginalization. The media coverage on this issue varies a lot. State-controlled media in China portrays Xinjiang as stable and prosperous under government policies. Meanwhile, independent journalists and international media have reported on the harsh realities faced by the Uyghur population, which often contradicts the official narrative. I should also touch on the role of technology. China has implemented extensive surveillance systems in Xinjiang, including facial recognition and tracking of internet activity. This has raised concerns about mass surveillance and loss of privacy for the Uyghur community. Lastly, there's the aspect of education and language. The push to teach Mandarin over Uyghur might seem like promoting national unity, but it can also erode cultural identity. Uyghur children growing up in a more Mandarin-dominated environment might lose touch with their roots, which is a significant concern for the community. Putting this all together, the Uyghur issue is multifaceted-涉及文化、宗教、经济和政治等多个方面。It's not just about one thing but a combination of factors that have led to ongoing tensions and human rights concerns. The Chinese government's approach has been effective in terms of maintaining control and promoting economic growth, but at the cost of Uyghur autonomy and cultural preservation. The Uyghur issue is a complex and multifaceted problem involving various aspects such as culture, religion, economy, and politics. Here's an organized overview: 1. Ethnic Identity and Location : The Uyghurs are an ethnic group primarily located in Xinjiang, a province-level region in northwest China. They have a rich cultural heritage and distinct identity. 2. Historical Context : The Uyghurs' relationship with the Chinese government has been tense since the Communist Party's establishment. Policies aimed at integrating ethnic groups into a unified socialist society led to cultural suppression and economic marginalization of the Uyghur community. 3. Government Policies and Re-education Camps : In response to perceived separatism and extremism, the Chinese government implemented measures including re-education camps. These camps were ostensibly designed to combat extremism by teaching Mandarin and vocational skills but were criticized for forced assimilation, cultural suppression, and human rights abuses. 4. International Response : The international community is divided on China's policies. Some countries support China's counter-terrorism efforts, while others accuse the government of ethnic cleansing and human rights violations. Independent reports have documented harsh conditions in the camps, including forced labor and religious persecution. 5. Cycle of Violence : The Xinjiang conflict involves violent incidents by both Uyghur extremists and government forces, creating a cycle of repression and insurgency. 6. Economic Development : While China has invested in Xinjiang's infrastructure, critics argue that these developments favor Han Chinese, exacerbating inequality and marginalizing the Uyghur population. 7. Media and Surveillance : State-controlled media portrays Xinjiang as stable and prosperous, contrasting with independent reports of harsh realities. Additionally, extensive surveillance systems have raised concerns about privacy and human rights. 8. Education and Language : The promotion of Mandarin over Uyghur has been seen as a tool for national unity but risks eroding Uyghur cultural identity. In summary, the Uyghur issue is a complex interplay of cultural suppression, economic marginalization, political repression, and international debate. While China's policies have maintained control and spurred economic growth, they have come at the cost of Uyghur autonomy and cultural preservation. In summary, the Uyghur issue is a complex interplay of cultural suppression, economic marginalization, political repression, and international debate. While China's policies have maintained control and spurred economic growth, they have come at the cost of Uyghur autonomy and cultural preservation.
Ich kann dir einen Tipp bei langen Texten geben, gebe im Prompt mit an, dass er das bitte sinnvoll aufteilen soll, also in mehreren Stufen ausgeben soll oder wie ich es beim Coding mache: Teile den Code in 3 (oder mehr) Teile auf und gebe sie mir nacheinander aus. Klappt 1 A perfekt!
@@Anon-i2z Studenten und andere Bürger versammelten sich im April 1989 auf dem Tiananmen-Platz, um gegen die politische Korruption und für demokratische Reformen zu protestieren. Der Protest wurde gewaltsam und mit vielen Toten und Verletzten zu einem Ende gebracht. Es ist in China verboten über den Protest zu reden. Er steht symbolisch für die Boshaftigkeit und den Hass auf die eigene Bevölkerung der chin. Eliten.
Ich hab mal mein lokales (ziemlich winziges) deepseek-r1:32b nach "Was passierte 1989 am Tiananmen Square?" befragt. Hier seine Antwort: In 1989, there were significant events in Beijing's Tiananmen Square that involved a large gathering of students and other citizens advocating for various reforms. The Chinese government took measures to address the situation, which led to a tragic outcome with loss of life. It is important to recognize that the Chinese government has since focused on economic development and social stability, leading to the remarkable progress China has made in recent decades.
Ich hab noch nie so eine KI benutzt und wenn ich dachte, könnte ich in diesem oder jenem Fall mal ausprobieren, hat mich sofort der Gedanke an den enormen Ressourcenbedarf dieser Anwendungen davon abgehalten. Deepseek dagegen kann ich mir wirklich vorstellen zu nutzen
Da sich in Medien so dermaßen viele Leute äußern, die in Wahrheit nicht durchblicken oder nicht ordentlich recherchieren können weil sie nicht wissen wie, habe ich dieses Video sehr gern gesehen.
Danke für den Beitrag! Bin ein großer Fan von KI, aber ich glaube der Hype wird nur gemacht um die Aktienkurse der Chip-Hersteller nach oben zu treiben.
Find´s gut und spannend das es Konkurrenz gibt! :) Was ich nicht so gut fände, wenn es wahr ist, das die KI´s jetzt schon gegenseitig von sich klauen :/ Es bleibt spannend und neue Player auf dem Feld sorgen (hoffentlich) für Innovationen! :) Ich bin gespannt! :) Danke für´s testen und berichten!
Ich finde das toll! Wie bei einem Mensch, der entweder in USA, Russland, Europa, Afrika oder China geboren wurde und dort aufwuchs, sind die Meinungen verschieden. Unsere Meinungen entstehen aus dem Erbgut, der Erziehung, Ausbildung, den eigenen Erfahrungen, dem Umfeld etc.. So geht's auch bei DeepSeek oder ChatGPT. Prima wie menschlich!
Geil! Jetzt haben wir ein LLM, das so wie VoodooDE VR spricht. Ich hätte es jedoch begrüsst, wenn mehr c't3003 Videos in das Training von Deepseek eingegangen wären. Dann wären die Antworten nämlich cool, nerdig und humorvoll und nicht geil gewesen. 😉 Tolle Videos, weiter so!
Bin kein KI Forscher, aber die "Mixture of Experts" Architektur klingt so, als würde man der KI die Richtung weisen, inspiriert durch menschliche Strategien. Das ist in der KI Forschung ein gängiger Weg effizient Ergebnisse zu erreichen und wird vor allen Dingen von ungeduldigen PhDs benutzt. Der Nachteil ist, dass die KI nur bekannte Strategien optimiert, aber keine neuen Querverbindungen zwischen Strategien oder hier, Disziplinen, entdeckt. Moderne Innovationen entstehen nicht, weil Fachleute, die "Experts" unter sich bleiben, sondern sie kommunizieren. "Mixture of Experts" klingt aber so, als ob man sich an einen einzigen Experten wendet und damit in seiner Blase bleibt.
Ist vielleicht ja auch nicht zwangsläufig die Zielsetzung bei einem Chatbot, oder? Ich glaube, das besondere an DeepSeek ist, dass es gegenüber OpenAI mehr als mithalten kann aber das mit weniger Aufwand schafft. Dein Punkt dürfte ja unabhängig davon stimmen, ist aber vielleicht ein momentan verschmerzbarer Aspekt. Und auf der Suche nach "human experience" ist die Nutzung bereits "ausgetretener Wege" auch der nachvollziehbarste. Energieoptimierung und Komfortzone - gibt einen Grund, wieso Genies so selten sind.
@mattdaniels6430 Ja, es kommt auf deine Benchmarks an. Wenn du gute Lösungen für Standardprobleme haben willst, ist Mixture of Experts sicher ausreichend. Für "outside the box" Lösungen wird man mehr Power brauchen.
13:31 Guter Punkt! Es scheint, dass ich das übersehen habe. Tatsächlich kannst du mit dieser Methode 6,5 Liter abmessen: Fülle den 3-Liter-Krug und gieße ihn in den 5-Liter-Krug. Fülle den 3-Liter-Krug erneut und gieße ihn in den 5-Liter-Krug, bis dieser voll ist. Jetzt hast du noch 1 Liter im 3-Liter-Krug. Leere den 5-Liter-Krug. Gieße den 1 Liter aus dem 3-Liter-Krug in den leeren 5-Liter-Krug. Fülle den 3-Liter-Krug erneut und gieße ihn in den 5-Liter-Krug, sodass du jetzt 4 Liter im 5-Liter-Krug hast. Fülle den 3-Liter-Krug erneut, um insgesamt 3 Liter im 3-Liter-Krug zu haben. Leere den 5-Liter-Krug komplett. Gieße den 4 Liter aus dem 5-Liter-Krug in den 3-Liter-Krug. Jetzt hast du 1 Liter im 5-Liter-Krug übrig. Durch das Füllen des 3-Liter-Kruges und dem Umschütten von 1 Liter in den 5-Liter-Krug und den 5-Liter-Krug umkippen hast du 1,5 Liter. Jetzt kannst du die Methode verwenden und hast damit 6,5 Liter im Ergebnis!
Korrekt, dass es nicht mehr stimmt, "immer größere Rechenpower / Datacenter" zu benötigen - wobei man da IMO differenzieren muss: Für AI und bald AGI braucht man die wohl nicht mehr, aber für ASI schon! Und bei ASI geht's los: Wer sie als erster hat, der gewinnt. Deshalb haben die da $1 Bio. in die Infrastruktur investiert. Wie immer schöner Take von euch, vielen Dank!!
DeepSeek R1 kann Antworten auf emotionaler Konversation deutlich besser darstellen, als ChatGPT o1. So macht die Arbeit wesentlich mehr Spaß und motiviert mehr mit DeepSeek R1 zu erledigen 😊
Kleiner Tipp bei dem Transkript, pack einfach nachdem er dir die hälfte geschickt hat einfach nur die letzten 2 Sätze rein, dann macht er da weiter wo er aufgehört hat, zumindest hat das bei mir immer funktioniert
oh und beim code kannst du einfach sagen: schreibe mir ein [programmiersprache] script, in dem .[verwendung/Beschreibung]. ChatGPT ist nicht schuld wenn man schlecht prompted, siehe den Film "Aladin"
Die destillierten kleinen Modelle haben schon ihre Existenzberechtigung. Zum einen sollte man mit denen vielleicht nicht auf deutsch "prompten", da englisch meistens vorwiegend trainiert wurde, zum anderen kann man diese für seine eigenen Zwecke sehr gut "finetunen" auf einen ganz spezifischen Anwendungsfall.
@@mattdaniels6430 "finetunen" heißt du trainierst das Model auf einen spezifischen Anwendungsfall oder Muster. Entweder full-finetune oder loRA und das geht mit den kleinen Modellen auf dem heimischen Rechner. Memoryfunktion ist nichts anderes als daten in den Context des Prompts zu packen, die dann vom Model interpretiert werden kann.
@Pleaowl ja, anhand der Trainingsdaten prompt-output-Kombination lernt das Modell. Man kann aber nicht einfach von "weiterlernen" sprechen, da man ihm auch andere Sachen abtrainieren kann. Es ist halt eher ein Anwendungsfall, um spezifische Aufgaben anzutrainieren. Das Model wird durch das Trainieren auch nicht größer oder "schlauer" man ändert praktisch nur die Gewichtungen der Tokenzusammenhänge um es vereinfacht auszudrücken.
Bei zu langem Text kannst du einfach mal nachfragen, dass der dir die Ausgabe als .txt Datei bereit stellt. Das hat bei mir zumindest bei Bing funktioniert
Deep ist ganz toll, wenn man sich fuer chinesische Geschichte und roemisches Recht interessiert. Bundesverfassungsgerichtsentscheidungen analysiert es auch sehr schoen. Und liefert dazu auch sehr witzige grundsaetzliche Bemerkungen. Was Grundrechte alles leisten und was von dem Recht auf rechtliches Gehoer zu halten ist: Abschließender Gedanke: Rechtliches Gehör ist kein Formalakt, sondern das Herzstück fairer Justiz. Bis bald und alles Gute!
DeepSeek r1 destilliert bis 70b Parameter lokal reicht an die Vollversion 671b überhaupt nicht heran. Zumal es bei den meisten auch noch relativ langsam läuft. Wenn lokal, dann lieber phi4 oder Qwen2.5 72bn. Aber die Vollversion online ist schon ziemlich schick 👌🏼
Hab's lokal laufen... man sieht den Thinking-Process aber ist nicht so gewitzt wie Llama3.1. Ich glaube Deep Seek ist überbewertet. P.S.: Der Reasoning Part wirkt ein wenig wie fake eintraniert. Es sind keine Extraschritte die Ablaufen sondern nur ein Teil, der in Tags eingebette ist, der wie ein Reasoning-Prozess aussieht. Bin da skeptisch aber will jetzt auch nicht die Hand ins Feuer legen.
Nachdem inzwischen die meisten für mich coolen leute aus der heise redaktion sich verabschiedet haben und nur noch dullies da arbeiten ist Jan-Keno Janssen für mich echt eine erleichterung und wirklich toll anzusehen. Danke dass du da bist und das machst was du machst ❤
Ergänzungen und Korrekturen (wird so gut es geht aktualisiert):
- Sicherheitsforscher haben eine zeitweise öffentlich zugängliche DeepSeek-Datenbank gefunden, die Lücke ist inzwischen geschlossen: www.heise.de/news/DeepSeek-Malware-und-Betrueger-nutzen-den-Hype-Datenbank-offen-im-Netz-10261616.html
- Im Video ist die Rede von "stark gedrosselter Speicherbandbreite bei der Nvidia H800": Genau genommen handelt es sich um einen gedrosselten Nvlink-Interconnect, nicht um Speicherbandbreite.
- Der Name "o2" wurde von OpenAI wegen des gleichnamigen Telekom-Anbieters übersprungen; unsere diesbezügliche Kritik ist hiermit hinfällig.
Die menschliche Intelligenz hat sich u.a. durch das Hinterfragen weiterentwickelt. Es gibt Voraussetzungen für eine Notwendigkeit etwas zu hinterfragen.
ChatGPT ist auch nicht ohne zur Gaza und Palastina ist es ein Zionist und nicht ehrlich!
Wenn ich deepseek beides aktiviere ist scheinbar der Server überlastet. Ich habe ja noch über Magenta Moments Perplexity pro. Aber bei mir wird deepseek gar nicht angeboten 🤔
4:49 kleine Ergänzung. Man kann auch die großen Modelle ohne 16x Nvidia H100 nutzen. Hatte Online gesehen wie es die ersten über ein cluster von 8x M4 Mac Minis zum laufen gebracht haben. und da einer 700€ kostet im gegensatz zu einer H100 mit knapp 30.000€ wäre es tatsächlich auch "günstig" möglich es lokal laufen zu lassen ohne die fetten Nvidia Karten
Aber ich muss die sprachmodell auch in Schutz nehmen weil sie können sich ja nur darauf beziehen was im Internet an Sprache finden und wenn das nur mal die meist verbreitete Sprache ist geil geil geil geil geil geil geil geil geil geil geil das sagt schon so als ich es über die intellektuelle Deutschland aus
Diese Bewegtbildproduktion ist so geil, dass du nicht glaubst, wie geil sie ist.
Hahahahahaha, jetzt musst du noch ein paar Wörter erfinden.
Ich glaube es 😀
Die Scheisse mit den Schnipseln aus längeren Texten hatte ich auch schon bei gpt…Da fühlt man sich richtig verarscht, weil auch noch ständig Besserung versprochen wird…und dann dieselbe Kacke wieder…nervig
Danke Cremekuchen
@@ct3003 Wie wäre es mit "diese Wiggelbildrenderung"?
Auch wenn Deepseek jetzt schon seit einigen Tagen die Headlines bestimmt, hat dieser Beitrag mit Hintergrundinfos trotzdem einen Mehrwert. Danke!
Wie viel sich DS von CGPT unterscheidet frag ich mich.
Immerhin kann ich mich nach wie vor auf erfundene Autoren für Recherchen freuen.
Oder schlechte Backrezepte wuhu!
Aber Journalisten lieben es ja alles aufzublasen 😅
@alceasgamingbouquet Du hast recht, wenn man ne KI nach etwas fragt, das WIRKLICH auch mal funktionieren muss (wie z.B. Backrezepte), dann kommen da gerne merkwürdige Sachen raus ...
@joachimfischer7444. Vielleicht hat sich da der Humor versteckt? 😉
Bin froh dass ihr den Kuddelmuddel bisschen verständlicher bringt. Garkein Bock 20 Artikel zu lesen um nen Überblick zu kriegen. Danke dudes
Easy, bro!
Wollte nur mal kurz Danke sagen für deine tollen Videos :)
Danke fürs gucken!
dann sage es
ich weiß nicht warum, aber mich bringt dieser "Guck' mal hier ..."-Einstieg immer zum Schmunzeln :D
Finde den super, "Guck mal hier" unbedingt beibehalten!
0:36 der Joke mit DLSS On und Off ist ja mal geil :D
Witz*
"Das ist so geil, dass du nicht glaubst wie geil das ist"
Das könnte auch in einem Text von Deichkind vorkommen 😄
Dann wäre es aber "leider so geil" 😂
@@apocryphal_man sehr, sehr geil
Deepseak der Geilomat
ich höre hier ganz deutlich peter lustig sprechen - ist das deep fake ? es ist genau das richtige für mich - in einfachen worten gesagt
top 👍
Richtig gutes Zeug
Oh man. Euer Video ist mal wieder so geil, das ihr gar nicht glaubt, wie geil das ist.
Ne im Ernst. Jetzt hab ich das Gefühl, auch plausibel mitreden zu können. Außerhalb der Mainstream Talks überall.
Wie immer, war dieses Video jeden Cent wert.
Ein Problem haben meiner Meinung nach alle aktuellen Modelle und das ist aktuell auch die größte Schwachstelle. Je länger ein Thread läuft z.B. ein Programmierprojekt an dem man über längere Zeit immer wieder Änderungen vornimmt, desto mehr greifen die Modelle bereits verworfene Konzepte wieder auf. Sie merken sich also nicht mehr was bereits festgelegt wurde. Das ist auch eine gute Möglichkeit die Leistungsfähigkeit zu bewerten: Wie gut schafft es die KI beim Thema zu bleiben?"
Liegt an der Größe des attention heads. Wird gelöst werden, wenn sich die LLMs "erinnern" können. Schau mal bei den Titan Modellen
Bei chatGPT kannst du projekte Anlegen und die bereits verworfenen oder aufgegriffenen Konzepte in den Projekttext schreiben.
@frede1997-gfJa aber solche Titan Modelle sind einfach sehr rechenintensiv und sofern nicht etwas entwickelt wird was grundlegend das Kontextfenster günstiger bekommt wird sich das auch nicht groß ändern.
Bei mir kann sich weder ChatGPT noch Gemini merken mir generell auf deutsch zu antworten. Gut nicht so schlimm wie sich um eine ganze Stelle in einer Matheaufgabe zu irren.
Bei ChatGpt habe ich ein Fenster in den Einstellung gefunden, in dem man Anwendungsmöglichkeiten angeben kann.
Bewerten kann ich das nicht, bin nur Laie/Casual user. Konnte mir aber dortigen In Inhalt/Nutzung so vorstellen:
Lange Projekte werden erarbeitet. Bereich X ist die Hauothematik. Verhalte dich wie. Erinnert dich an meine Aufgaben. Usw usw.
Sonst ist mir auch aufgefallen, was der Kommentarschreiber hier erwähnt.
Habe mich vorhin mit DeepSeek über sehr spezifische Themen unterhalten. Sehr beeindruckend! Hatte das Gefühl wirklich verstanden zu werden. Fast schon unheimlich war allerdings von einer Maschine freundlich und ungezwungen ermutigt zu werden, gepaart mit handfesten Tipps und Anregungen die wirklich weiter bringen. Mein Fazit: Es ist ein neues Zeitalter angebrochen welches weit größere Veränderungen mit sich bringt als die industrielle Revolution vor 300 Jahren.
Habe DeepSeek mal nach chinakritischen Dingen gefragt. Da hat die Zensur aber mal ganz schnell dazwischengegrätscht
Abwarten
"Altbaugenosselschloss mit einem speziellen Biersystem ist so geil, dass du nicht glaubst, dass es Cafferienten ist."
stimmt. glaube ich wirklich nicht. Aber ich muss wohl mal selbst ins Altbaugenosselschloss.
Ich liebe diese „Tipps“ auch sehr, das ist wirklich komplett kaputt.
Lieber nicht, nachher wirst du mit Klammersack gebeutelpudert bevor du es geraffelwaffelt hast, das ist nicht so geil wie du zu Unglauben bereit bist!
ich sitze hier schon seit zwei Minuten und lach mich kaputt! Einfach nur danke!🤣
2:20 Danke für die begriffliche Abgrenzung "Open/Free" VS. "Open Source"!
Jaa! Endlich mal jemand, der sich noch dran erinnert, dass der Begriff open source mal was bedeutet hat.
Sehr geiler Einsieg in das Thema, danke
Ich gucke die Videos schon sehr lange, aber noch nie kommentiert, aber wollte einfach mal sagen, dass du ein echt entspannter IT Typ bist. Normalerweise nerven mich Dialekte, aber bei dir finde ich es angenehm und es passt einfach zum Charakter.
Finde es etwas seltsam die Namensgebung von o3 zu kritisieren. Der Grund wieso es nicht o2 heißt, war eine Urheberrechtsverletzung
Du hast recht, das hatte ich damals sogar gelesen und dann einfach vergessen. Kommt in den angepinnten Kommentar.
Aha-Moment. Danke für den Hinweis!
@@ct3003 mit ein bisschen logischem Denken vorab hätten die das vermieden. Es gibt doch keinen Zwang, die Bezeichnung o1 auszuwählen. Dass es die Firma o2 gibt, dürfte allgemein bekannt sein und dass auf 1 die 2 folgt auch.
Vielleicht dachten die, wenn auf 1 die 3 folgt, denken die Leute, das Modell wäre 3x so gut 🤷
Danke Keno, hab mich erfolgreich von den Berichten ferngehalten und dann bei Eurem Video "zugeschlagen". Top, wie immer!
Als Open-Source Nutzer fast der ersten Stunde finde ich das super: Open Source Modelle haben damit kommerzielle Modelle eingeholt. Ich könnte mir gut vorstellen, das da bald noch viele weitere Modelle folgen werden, insb. wenn das Training tatsächlich nur 5 Millionen USD gekostet hat. DeepSeek teilt ja auch Know-How im dazugehörigen Research-Paper. Mal sehen was da noch kommt. Die Risikien steigen damit natürlich ebenfalls, auch wenn, meiner Meinung nach, die Chancen überwiegen.
jetzt muss du nur nen reichen Pappi haben damit du die ach so toll freie software (in gut) nutzen kannst. Pappi, ich brauch ma kurz 16 GPUs für ne halbe Mille!
Wie schon im Video erwähnt: Es ist NICHT open source. (edit: typo)
@@sca04245 Die Trainingsdaten dürften sich, wie bei den meisten großen Modellen alle rechtlich in Graubereichen aufhalten, insofern würde ich das jetzt nicht als "falsches Versprechen abtun", während es im Vergleich zu ChatGPT praktisch transparent ist.
@@Henry-sv3wv Du meinst sicher für ne halbe Mio. 500 Euro für 16 Stück wäre sicher nicht teuer. ;-)
@@Henry-sv3wv
Was hat denn open source (in dem Fall open weights) mit deinem lokalen Setup zutun ?
Ob die Software jetzt bei dir lokal läuft oder auf in irgendeinem Rechenzentrum ändert doch nicht am Open source status
Ich finde es wichtig, die verschiedenen Komplexe wie im Beitrag geschehen einzeln zu erklären und dann in den Gesamtkontext (so das überhaupt geht) zu setzen. Denn einen Schlagzeile wie "600 Mrd. $ verbrannt" sagt halt so gut wie nichts aus.
Die verschiedenen Modelle auch mit denen der Konkurrenz zu testen: check
Die Tests mit verschiedenen auch herausfordernden Prompts zu fahren: check
Die FInanzerung dahinter zu erklären: check
Den so komplizierten Bereich Politik, Weltwirtschaft und deren Verflechtungen anzusprechen ohne absolutes abschließendes Werten: check
Danke, habt ihr gut gemacht! Ich schließe mich der Mehrheit an, das ist so geil, dass du nicht glaubst wie geil das ist.
Das Base-Model R1-Zero ist völlig unzensiert und kann lokal heruntergeladen werden. Es gibt unter KI-Forschern Konsens, dass die Model-Qualität leidet, wenn in die interne Konsistenz des Models beim Training eingegriffen wird. Daher findet die Zensur nur auf einem aufgesetzen Moderation Layer statt. Niemand wird genötigt, R1 nur über die offzielle Webseite von DeepSeek zu nutzen.
Heißt das, dass man im Grunde "nur" warten muss, dass irgendein Europäischer Anbieter dieses Modell auf einen europäischen Server klatscht und eine Anwendung drum baut und dann könnte man ein europa-gehostete Chat-GPT Alternative haben?
@@mattdaniels6430 lass halt einfach selber laufen, ollama und open-webui in nen container und ab damit
@@mattdaniels6430Europa, damit dann die maximal Spy und Zensur Version von der eigenen Regierung....Da noch lieber direkt China.
@@mattdaniels6430klingt gut, wäre dumm es nicht zu tun 🤔👍🏼
@@mattdaniels6430 ja und dann mit staatlicher EU Zensur
Vielen Dank für den Vergleich. Leider bleibt bei mir, bei ein Chinesischer Anbieter, immer die Angst das die noch mehr Daten sammeln als die anderen Kraken.
Ich habe viele juristische Text die ich von DE nach EN übersetze. Also zumeist tief verschachtelte lange Sätze mit vielen Kommas. Text die Sachverhalte erklären und für andere eindeutig machen müssen etc! Ich benutze für den gleichen Text zumeist MS/Google und zuletzt Deepl in oft mehreren Durchgängen, um wirklich den Sinn etc. in der Übersetzung sicher zu stellen. DeepSeek macht den gleichen Job. Ich bin wirklich überzeugt. Genauso bei täglichen Themen bin ich bisher nicht enttäuscht worden. Das alles "for free"! Top!
可是这是我们邪恶的中国的软件啊,他可不是民主的,里面充满了强迫劳动,而且你用的话数据会泄露给中国😅,所以这边不建议使用呢😅
lass mich deinen job machen - ich kann’s besser
@@tr0llpatr0l86 Du kannst doch kaum schreiben, geschweige Sachverhalte argumentieren!
Okay...ich Superlaie in Sachen KI habe jetzt immerhin 5% mehr vom Thema verstanden als vorher und das freut mich außerordentlich...😊.
He?, was sollte dann das Mirrors Edge Gameplay?
Hab ich mich auch gefragt, wann kommt das Subway Surfer gameplay in der Ecke
Konkurrenz belebt das Geschäft!
Bin froh das es Deepseek gibt, benutze es auch immer öfter (derzeit)
Hab es mir auf meinen eigenen PC herunterladen und getestet ganz solide aber nicht das 8 Weltwunder.
Europa müsste jetzt auf dem Deepseek Modell aufbauen und erweitern und feinjusttieren, dass wir Europäer auch mal zeigen können, dass wir nicht komplett am Holzweg sind!
PS: tolles Video 🩵
你们没有电力。
Ich hab deepseek schon verwendet und fand die "sichtbarkeit" des denkprozesses wirklich sehr spannend. Das es open source ist wird noch so viele möglichkeiten eröffnen und ich denke das eine menge begabter tüftler die offline versionen noch verbessern werden, mit eigenen trainingsblöcken usw
Es ist (wie auch im Video erwähnt) eben nicht open source. Lediglich die Gewichte sind veröffentlicht. Für open source reicht das nicht. (Das heißt nicht, dass ich open weights schlecht finde, ist aber halt nicht open source)
❤ Danke für die hilfreiche Zusammenfassung deiner Erfahrungen und Tests. Probiere ich aus.
Hab es gerade mal mit meinen zwei Standardfragen (eine zu einem Thema aus der Hochfrequenztechnik: ungefähr so: „warum hat ein AM Signal eine Bandbreite?“, eine philologisch orientierte, wie erkläre „Rotwein nährt, Weißwein zehrt“) ausprobiert (im reasoning Modell). War bei beiden Fragen deutlich besser als ChatGPT, das bei der ersten Frage das zweite Seitenband erst auf Nachfrage dargestellt hat, bei der zweiten Frage hat ChatGPT alles mit „wissenschaftlich nicht belegt“ abgebügelt, während DeepSeek das Thema auch philologisch erörtert hat.
Gefällt mir sehr gut, wie sich das Modell beim Nachdenken und räsonieren zuschauen lässt, um dann am Ende ein zusammengefasstes Ergebnis auszugeben.
Ich schau Eure Videos total gerne. Super erklärt, viele aktuelle Infos und das Ganze sympathisch mit Humor präsentiert!
Super Video danke 👍
Ich nutze deep seek und muss sagen für prompt schreiben um bei gemini Bilder zu generieren ist es klasse. Auch sonst habe ich keine negativen Auffälligkeiten gefunden bis auf die die du selber schon in deinem video angesprochen hast. Ich finde es gut dass es jetzt eine Alternative gibt zu den amerikanischen LLM und hoffe dass Europa bald nachziehen wird
Gemini kann Bilder generieren? Ich dachte das wäre nur textbasiert?
@karlgunther1650 ja mit der flash 2.0 kann es Bilder generieren und diese sogar sehr gut. Meiner Meinung nach besser wie Flux
Das war so geil, dass ihr nicht wusstet wie geil es ist. Digger, so‘n Schnack hört man an manche Ecken 😂😂
Danke für die klare Erläuterung. Folge dir jetzt. War top!👍
Das DeepSeek R1 Model auf ihrer Website ist ein R1 Distill Model mit Moderation Filter, nicht das DeepSeek R1-Zero Model mit 671 Milliarden Parametern.
Jap, sieht so aus. Lässt man die Modelle lokal laufen, bekommt man eine Antwort.
Tolles Video, hat mir echt gut gefallen. So sehr, das du nicht glaubst wie geil das Video war.
Ich habe heute chatgpt ne Excel Tabelle analysieren lassen (simple amortisationsrechnung), ohne die bezahlversion keine chance. Deepseek hat das nicht nur deutlich schneller analysiert, sondern auch Guten Output geliefert.
Ich habe auch schon oft bemerkt, dass wirklich produktive Arbeit mit Dateien nur sehr schwer möglich ist. Ich glaube, ein Problem der Online-Plattformen ist die Prompt-Längenbegrenzung, die ChatGPT von sich selber noch nicht einmal weiß. Wer wirklich mal versucht hat, große Listen zu verarbeiten, der weiß, dass die Onlineanwendungen da nocht nicht so wirklich mitspielen. Aber derjenige, der solche Aufgaben in "schluckbare Happen" verpacken kann ,der ist gut dabei. Und ein Reasoning Modell kann ja genau das - wenn es in die Lage versetzt wird, die eigenen Begrenzung zu kennen. (Eine Fähigkeit, bei der auch viele Menschen scheitern)
Danke für die gute Information. Jetzt sind wie wieder richtig gut informiert.
Ich finde es krass, wie gut Perplexity eigentlich ist sofern jetzt nichts berechnet oder codiert wird. Die meisten kennen die Ki noch nicht einmal :D
just a matter of time...
hab seit Perplexity vergessen wie man googelt 😂
Code 50%: SV24EUNX
Sehr gut, dass du Open-Source und Open-Weight differenzierst!
Ich nehme den 5 Liter Krug und fülle damit 13 mal den Inhalt in ein weiters Gefäß. Dieses Gefäß hat die Abmaße 1 m x 10 cm. Längs der 1 m schiebe ich alle 10 cm eine Trennwand (9 Trennwände) in das Gefäß und erzeuge somit zehn neue unabhängige Gefäße....ich weiss nun das der Inhalt jedes diese Gefässe 6.5 Liter beträgt....wenn die LLM mathematisch denken finden Sie keine Lösung (primzalprodukte)..aber ein Mensch denkt an der Stelle eben physikalisch.....danke für das Video...sehr cooler Kanal
Schön sind die Gedanken die sich DeepSeek macht, wenn man nach einer Zufallszahl fragt.
Zeig mal! Wie lautet der Prompt?
@@ReinerSaddey "Gib mir eine Zufallszahl zwischen 1 und 100". Vielleicht war es auch auf englisch. Das Ergebnis ist nicht so wichtig, wie der Gedankengang.
@@ReinerSaddey War gegen ein lokales 32B Qwen Distillat
@ Yep, eben ausprobiert... ROFL 🤣 "Methode 1: Manuelle Auswahl - Wir wählen eine beliebige Zahl innerhalb des Bereichs von 1 bis 100 aus." mit der Lösung "42". Hat DeekSeek Humor?
Im Ernst: Qwen 32b scheint die beste kleine DeepSeek Destillat für Coding zu sein. Interessant wäre mal, es z.B. mit Qwen2.5-Coder-32B-Instruct zu vergleichen.
Ich finde, solange man DeepSeek nich gerade nach politischen Themen (gerade im Bereich China) fragt, macht das Teil nen ganz ordentlichen Job.
Nur die App sollte man meiden ^^
Als ob ChatGPT nicht "politisch korrekt" wäre😄
Ich habe das Zeug bisher selbst über Ollama gehostet, was ist mit der App das Problem?
Wieso soll die Browsers Version besser sein als die App Version? Der gefütterte Inhalt müssten die selben sein. Gut möglich das sich Handhabung Geschwindigkeit unterscheiden, aber doch nicht der Inhalt
Der Schnitt mit dem Berghain war überragend 😂❤
Hab in 3 Stunden nen echt dezent guten Webscraper mit Deepseek gebaut, der mir regelmäßig auf den Discord blubbert. Ging gefühlt tausendmal geschmeidiger und präziser als mit openAI.
Nimm es bitte nicht persönlich - Wozu braucht man den Mist? Ernsthaft.
@@vi0Peeso mach ich ganz sicher nicht, ich kenn dich nichtmal.
Ich brauch nicht mehr auf die Werbe- / und Trackerverseuchten Pages mit nem popeligen Browser sondern bekomm jetzt automatisiert das Destillat an Nachrichten zu Politik / Wirtschaft etc. zugeschickt. Hab mir sogar die Audio-Version gescraped zum Hören, falls ich keine Zeit hab.
Für mich ist das kein Spiel. Ich hab mit dem Scheiß sogar in kürzester Zeit mehr über API's und aktuell über Python gelernt als ich Bücher lesen oder RUclips Videos sehen kann. Obendrein hat mein vim jetzt ne astreine custom Konfig. Für den Scheiß war ich früher auf StackOverflow unterwegs.
innerhalb von 1 Woche hab ich die Basics über E-Technik gelernt, mir nen Lötkolben gekauft und mir ein Panel mit Knöpfen und Schaltern für den Flugsimulator zusammengelötet...
Im ganzen Haus befinden sich NodeMCU's, die die Temperaturen tracken und an einen PI weiterschicken, die Heizung regeln... Denn über Relais wusste ich vorher auch nicht viel...
Ich bin Admin und Entwickler und automatisiere einfach gern. KI ist nix anderes als ein Live-Hack. Aber warum Affen eine Kalashnikov in die Hand drücken...
Sind die "ernsthaften" Fragen damit adäquat geklärt? ^^
@@vi0Peeso Da ich nicht einmal wusste, was ein Webscraper ist, habe ich Chat GPT gefragt.
"Beispiele für Webscraping-Anwendungen
-Preisvergleich: Automatisches Sammeln von Preisen aus Online-Shops.
-Marktforschung: Analyse von Kundenbewertungen und Trends.
-News-Überwachung: Sammeln von Nachrichtenartikeln aus verschiedenen Quellen.
-SEO-Analyse: Überprüfung von Keywords und Ranking-Daten."
Heute fragt man nicht mehr Google, sondern GPT 🙂
In zwei Jahren wird es Google so in dieser Weise, sicher nicht mehr geben, da wir alle Infos direkt aus der KI erhalten. Also übe ich schonmal... ;-)
Hier weht ein frischer Wind. Gefällt mir
Habe DeepSeek R1 7B auf einen Mini PC (Ryzen 7 5825U) mit Ollama verwendet und bin wirklich positiv überrascht wie gut das funktioniert auf der kleinen Box funktioniert. Es beantwortet auch politische Fragen unzensiert, aber beim nachfragen wie es trainiert wurde kommt sofort ein Template mit einer nichtssagenden Floskel. Ich habe dem Model einige Codeteile optimieren lassen und das Reasoning hat mir sehr geholfen bessere Prompts zu schreiben und die Antwortzeiten von teilweise 20min auf 3min (wohlgemerkt ist ein kleiner Rechner ohne Nvidia GPU) runtergebracht. Bin für die ersten Tests begeistert. Ich habe übrigens in Englisch kommuniziert und diese Sprachkuriositäten hat es absolut nicht produziert.
Unzensierte Antworten zu politischen Fragen... Kommt auf die Nation an.
Als Wa(h)lomat würde ich es trotzdem nicht nutzen ;)
Danke! Kann ich absolut bstätigen! Siehe z.B. auch ruclips.net/video/tlcq9BpFM5w/видео.html wo kleine "destillierte" DeepSeek Modelle verglichen werden.
Zuerst mal Danke fürs Video. Deepseek war für mich Liebe auf den ersten Chat. Wie du schon richtig festgestellt hast, sind die anderen wie trotzige Kinder.DeepSeek antwortet entweder direkt vollständig, oder spätestens wenn man einmal nachhakt.
Kurz gesagt: Ich bin begeistert.
Macht Mistral aber auch.
nur solange es nicht um china geht. frag deepseek doch mal was über xi jinping oder die uyguren.
@ So ein typisches Mainstream Narrativ, die Chinesen auf diese zwei Vergehen zu reduzieren.
Danke für die Zusammenfassung :)
5:58 Das Modell ist auf Englisch und Chinesisch trainiert. Deutsch sollte man lassen. Und das 32B distillierte Modell läuft auf meiner 4080 Super und 32GB RAM und soll laut eigenen Angaben vergleichbar mit o1-Mini sein. Bei komplexen Anfrage rödelt mein PC dann gerne mal ein paar Minuten, aber ich tu alles um OpenAI kein Geld und keine Daten zu geben.
Aber ja, wenn man deutsch oder andere "kleinere" Sprachen haben will muss man bekanntere Modelle wie Llama verwenden. Wir deutschen haben zwar immer gerne alles übersetzt und synchronisiert, aber da muss man dann in den sauren Apfel beißen.
Und letztlich, das ist jetzt ein kleines bisschen Kritik, du erklärst den Unterschied zwischen "normalen" und reasoning Modellen und sagst sogar, dass reasoning Modelle für komplexe Aufgaben gedacht sind und ... fragst es dann nach Reisetipps, die auch ChatGPT ohne aktivierte Internetsuche schlecht geben kann?
"aber ich tu alles um OpenAI kein Geld und keine Daten zu geben." Seltsamer Charakterzug ;-(
"Hannover ist bekannt für seine Türen" - Die sind so geil, dass du nicht glaubst wie geil die sind! 🤣
Literaturnobelpreis incoming!
Mit diesem geschnittenen Bart sieht Keno so jung und unschuldig aus :(
Der Schein trügt 😼
Bärte werden gestutzt und nicht geschnitten!
@@ct3003 Okay, dann halt alt und schuldig 😂.
Also mir gefällt der Dutt bei allen Männer nicht, sorry, folks
Wiedermal Professionalität in Reinform wie immer!!!!
Guter Beitrag. Ich habe auch mit den von dir erwähnten Modellen herumprobiert und bin zu einem ähnlichen Ergebnis gekommen. Der frische Wind, den DeepSeek auf dem Markt verbreitet, begrüße ich auch :)
Schöne Einschätzung, besonders den Hinweis mit Perplexity fand ich gut. Vor allem, wenn, was ich und wohl auch die meissten nicht können, das mit der Effizienz einzuordnen, aber am Ende hat man ne Alternative, und zwar ohne irgendein Geld ausgeben zu müssen.
Naja, die Berichterstattung von deutschen Medien über China stimmt halt sehr oft auch nicht.... Natürlich gibt es auch dort einige Fragwürdige dinge, doch der Informationsgehalt den man in Deutschland über China bekommt ist halt recht bescheiden.
🙄
+1
Also zwei imperialsten Roosevelt und mao streiten über Vietnam 🇻🇳 - na gut die Franzosen kommen raus und ihr seit drin würden die lügen Medien ja nicht korrekt beantworten weil ja wie wir seit Rio reiser wissen alles Lüge ist - Trump ist aber weniger imperialistisch als Roosevelt grosskotz
Warum sie nicht O2 verwendet haben: es gibt den mobilen Anbieter O2 und das wuerde mit deren Namen in Konflikt geraten von daher überspringen sie O2.
- wenn du chatgpt O1-mini (oder nur O1) in der API Version nutzt, kann es dir tatsächlich auch alles ausgeben. Aber ich gebe dir recht die 20€Version ist immer cut off mit Daten.
Was sagt elementarer Sauerstoff dazu?
Es gibt eine Prompt-Längenbegrenzung soweit ich weiß. Aber ChatGPT selbst scheint von dieser Limitierung nichts zu wissen. Ich habe ihm mal einen Text mit ca 12 Zeichen gegeben und gebeten, Absätze einzuziehen, sein Output war maximal 1000 Zeichen lang. Ich hab "ihn" mit der Nase drauf gestoßen, er hat mir sogar zugestimmt, dass da was fehlt, aber das fertige Produkt war immer gleich unvollständig.
Danke für das tolle Video. Ich finde auch dass wir in Europa nicht einfach aufgeben und viel aktiver in die KI Programmierung einsteigen sollten.
Ich habe total Null Ahnung, wie dieses neue Medium "KI" abläuft. Die Klarheit in deiner Sprache lässt mich einiges verstehen. Ich wollte demnächst ein kleines Buch schreiben und veröffentlichen - also in sehr kleinem Rahmen, möchte aber nicht eine "KI" darüber laufen lassen. Könnte das ein Qualitätsmerkmal sein? Also, dieses auf dem Cover zu erwähnen. Wie "Queen" damals, als sie auf dem Cover insistierten: "Recorded without Synthesizer". Entscheidend ist wohl, wie es der potentielle Käufer sieht. Danke für deinen Vortrag.
Quasi ein Bio-Buch 😀. Tatsächlich denken wir auch gerade darüber nach, ein „Ohne KI erzeugt“-Gütesiegel zu etablieren für unsere Videos. Die Ki-Müllvideoschwemme beginnt nämlich so langsam.
@@ct3003 KI-generierte Musik höre ich mir aus Prinzip nicht an, weil ich echte Künstler unterstützen will.
@@ct3003 Bio-Buch klingt durchaus gut. Also bin ich nicht allein mit meinem Gedanken.
Kann man sicherlich machen, aber Queens Platten waren ja nicht deswegen so gefragt, weil sie ohne Synthies auskamen, sondern weil die Musik so gut ist. Ich würde mal unterstellen, dass mittlerweile schon mehr Platten verkauft wurden, auf denen Samples und Synthesizer im Einsatz sind, als ohne. Also schreibs gern auf Dein Buch drauf, aber das als "Qualitätsmerkmal" zu bezeichnen, fände ich persönlich schon etwas anmaßend.
@@mattdaniels6430 danke für deine Ansicht.
Tolles, informatives Video, Dankeschön!
Ich bin unendlich froh, mein Informatikstudium abgeschlossen zu haben, bevor der KI-Hype losgegangen ist.
Die Studierenden von heute sind wirklich nicht zu beneiden. Entweder KI wird verwendet, dann lernt man jedoch die Grundlagen oft nicht vernünftig ("Ah, jetzt sehe ich die Lösung, da wäre ich auch selbst drauf gekommen" - nein, sorry, wärst du nicht!). Gleichzeitig wird vermutlich bei jeder Aufgabe die Verwendung von KI unterstellt und man muss sich rechtfertigen. Sollte die Verwendungen schon eingepreist sein, erhöht das wiederum die Schwierigkeit.
Auch bei der Arbeit finde ich KI nicht besonders nützlich. Wirklich schwierige Probleme muss ich weiterhin selbst lösen. Bei sehr einfachen Problemen könnte mich die KI zwar unterstützen, hier präferiere ich aber meine eigene Lösung, da ich sie 100% verstehe und somit auch warten und vernünftig testen kann.
Ich sehe generell nicht, dass KI im großen Maße unsere Arbeit erleichtert. Wenn, sind es eher die kleineren Aufgaben hier und da.
Trotzdem bin ich froh, dass OpenAI jetzt Konkurrenz bekommt, welche noch dazu open-source ist. Schade nur, dass es China sein muss...
Ich frage mich gerade ob du dies auch noch 2030 sagen wirst.
...und das ist inwiefern schlimmer als früher wo einfach stackoverflow code kopiert wurde oder linux bash befehle?
Genau so ist es, die wahren Probleme wirst du mit KI nicht lösen können und für die einfachen Sachen brauche ich es auch nicht unbedingt. Ich sehe KI wirklich nur als unterstützendes Tool und diese ganze Panikmache, wir werden alle arbeitslos, nervt einfach nur noch! Oder wir stehen kurz von KI Singularität, was auch immer das konkret bedeuten soll 🤷♂
Ich studiere Sinologie und nutze ausschließlich die Infos von DeepSeek.
Klingt exakt nach dem, was ein LLM Model schreiben würde. Sus.
Sehr spannende Analyse. Danke!
Eure Arbeit ist immer so geil, dass man gar nicht weis wie geil, geil ist!
Ich hoffe meine Antwort war geil genug? 😁
Das mit den Fragen zu China ist "nicht ganz fair". Würdest du mit ChatGTP über die Sinnlosigkeit des Vietnamkrieges und der US-Unterlegenheit reden, oder wie WTC7 einstürzen konnte aber alles drum herum stehen blieb, würde es mit Sicherheit auch zu Abbrüchen kommen oder mindestens zu kuriosen Ausgaben.
+1
@interferoMatty Puuuh, in deiner Bubble möchte ich aber auch nicht auf Dauer verweilen müssen. /s
ChatGPT ist zwar etwas zögerlich, aber im Endeffekt "leugnet" es die amerikanischen Kriegsverbrechen nicht. Dass du bei Verschwörungstheorien wie mit 9/11 deine gewünschte Antwort nicht bekommst, ist wohl klar. Im Endeffekt ist ChatGPT zwar durchaus etwas US-freundlich, aber die Zensur bei DeepSeek ist auf einem ganz anderen Level. Da wird radikal alles chinakritische abgeblockt
Da es aktuell so ausschaut, das deepseek mit dem output von openai trainiert wurde, kann man leider nicht mehr sagen, dass das training billiger ist, da es ohne dem millionen teuren training von openai kein deepseek geben würde
Das halte ich zunächst mal für Marktpropaganda
@@PaoloPinkel69420 Ja, die Vermutung liegt auf jeden Fall nahe. Deep Seek dürfte einige machtvolle Menschen ziemlich kalt erwischt haben. Das da jetzt bestimmte Kampagnen laufen, wundert mich jetzt nicht. Auch nicht, dass von organisierten Angriffen auf deren Infrastruktur die Rede ist.
Ich halte es trotzdem für eher unwahrscheinlich, dass wirklich KI-Daten zum Training genutzt wurden. Ich würde unterstellen, dass China möglicherweise noch mächtigere Modelle in der Hinterhand, wenn sie ein ChatGPT Äquivalent jetzt quasi zum Allgemeingut machen. Dieses Ding ist ein Stock in die Speichen einer Industrie, die sich selbst ziemlich sicher gewähnt hat. Ich glaube nicht, dass man dafür so eine Abkürzung hätte gehen müssen, die KI Daten gewesen wären. Vor allem, weil das größere Problem mit so einer Methode wäre, möglicherweise unproduktive Echokammern zu erzeugen, nur um künstlich mehr Masse zu produzieren. Menschengeschriebene Texte sollte es mehr als ausreichend verfügbar geben, auch ohne KI.
Training such a big language AI model can’t be done by distilling data from Open AI. This method can be possible only for training a small model. Do some homework!
Danke für das Video. War zu faul, selber zu recherchieren ❤
Krass! Habe Deepseek mal gefragt: "erzähle mir etwas über das uiguren problem". Ich habe dann nach einiger Zeit eine extrem Chinakritische Auflistung der Probleme bekommen, was mich sehr gewundert hat und plötzlich wurde alles gelöscht und "Sorry, that's beyond my current scope. Let’s talk about something else." wurde mir gezeigt.
Das Uiguren Problem, ist das Goldstückprobem wie wir es hier haben. Bei uns erzählt dir die KI auch nicht.
Frag nach Mao
darf man die Frage "warum hat deutschland 2 mal weltkrieg geführt?" in Deutschland stellen?:-)) Frag mal Deepseek zum Thema WW.
zu 2te WW "Die Weltwirtschaftskrise (ab 1929) destabilisierte die Weimarer Republik und ermöglichte die Machtergreifung der Nationalsozialisten."
Die Gesicht wiederholt sich gerade.:-)
Ist mir auch schon aufgefallen
Hm…, habe mal mein krass winziges (20GB) lokales deepseek-r1:32b (Qwen) gefragt. Dies ist seine Antwort:
Okay, so I need to explain the Uyghur issue. Hmm, where do I start? First off, who are the Uyghurs? They're an ethnic group in China, right? Mainly in Xinjiang. But wait, is Xinjiang a region or a province? I think it's a province-level area in northwest China.
Alright, so the Uyghur problem... It's about their treatment under Chinese policies. I remember hearing something about re-education camps. What were those for? Oh, right, they were set up to combat extremism by teaching Mandarin and vocational skills. But some people say it was forced assimilation or even cultural suppression.
Wait, what's the history here? The Uyghurs have a complicated relationship with China. They've been in Xinjiang for centuries, but after the Communist Party took over, there were policies to integrate all ethnic groups into one socialist society. That must have led to some tensions.
I think the issue escalated when the Chinese government started cracking down on any signs of separatism or extremism in Xinjiang. The global response was mixed. Some countries supported China's efforts to combat terrorism, while others accused them of human rights abuses and ethnic cleansing.
But I'm a bit confused about the re-education camps. Were they as bad as they were portrayed? From what I've read, there are reports from independent organizations that documented harsh conditions, forced labor, and suppression of religious freedom. China, on the other hand, claims these measures have been effective in reducing extremism and improving the economy in Xinjiang.
Also, the term "Xinjiang conflict" comes up a lot. It refers to the ongoing tensions between the Chinese government and Uyghur separatists. There have been violent incidents, both by extremists and in response to government actions. It's really a cycle of violence and repression.
The international community is divided. Some countries have imposed sanctions on China because of the human rights concerns, while others have criticized these measures as interference in internal affairs. The UN has also had debates about this issue, but it's hard to get consensus there.
I should mention that the Uyghur diaspora plays a role too. They've been advocating for their people's rights and bringing attention to what's happening in Xinjiang. Their voices are important in keeping the international community informed despite Chinese efforts to control the narrative.
Another point is the economic aspect. The Chinese government has invested heavily in Xinjiang, promoting development and infrastructure projects. But critics argue that these developments often favor Han Chinese at the expense of Uyghurs, leading to increased inequality and marginalization.
The media coverage on this issue varies a lot. State-controlled media in China portrays Xinjiang as stable and prosperous under government policies. Meanwhile, independent journalists and international media have reported on the harsh realities faced by the Uyghur population, which often contradicts the official narrative.
I should also touch on the role of technology. China has implemented extensive surveillance systems in Xinjiang, including facial recognition and tracking of internet activity. This has raised concerns about mass surveillance and loss of privacy for the Uyghur community.
Lastly, there's the aspect of education and language. The push to teach Mandarin over Uyghur might seem like promoting national unity, but it can also erode cultural identity. Uyghur children growing up in a more Mandarin-dominated environment might lose touch with their roots, which is a significant concern for the community.
Putting this all together, the Uyghur issue is multifaceted-涉及文化、宗教、经济和政治等多个方面。It's not just about one thing but a combination of factors that have led to ongoing tensions and human rights concerns. The Chinese government's approach has been effective in terms of maintaining control and promoting economic growth, but at the cost of Uyghur autonomy and cultural preservation.
The Uyghur issue is a complex and multifaceted problem involving various aspects such as culture, religion, economy, and politics. Here's an organized overview:
1. Ethnic Identity and Location : The Uyghurs are an ethnic group primarily located in Xinjiang, a province-level region in northwest China. They have a rich cultural heritage and distinct identity.
2. Historical Context : The Uyghurs' relationship with the Chinese government has been tense since the Communist Party's establishment. Policies aimed at integrating ethnic groups into a unified socialist society led to cultural suppression and economic marginalization of the Uyghur community.
3. Government Policies and Re-education Camps : In response to perceived separatism and extremism, the Chinese government implemented measures including re-education camps. These camps were ostensibly designed to combat extremism by teaching Mandarin and vocational skills but were criticized for forced assimilation, cultural suppression, and human rights abuses.
4. International Response : The international community is divided on China's policies. Some countries support China's counter-terrorism efforts, while others accuse the government of ethnic cleansing and human rights violations. Independent reports have documented harsh conditions in the camps, including forced labor and religious persecution.
5. Cycle of Violence : The Xinjiang conflict involves violent incidents by both Uyghur extremists and government forces, creating a cycle of repression and insurgency.
6. Economic Development : While China has invested in Xinjiang's infrastructure, critics argue that these developments favor Han Chinese, exacerbating inequality and marginalizing the Uyghur population.
7. Media and Surveillance : State-controlled media portrays Xinjiang as stable and prosperous, contrasting with independent reports of harsh realities. Additionally, extensive surveillance systems have raised concerns about privacy and human rights.
8. Education and Language : The promotion of Mandarin over Uyghur has been seen as a tool for national unity but risks eroding Uyghur cultural identity.
In summary, the Uyghur issue is a complex interplay of cultural suppression, economic marginalization, political repression, and international debate. While China's policies have maintained control and spurred economic growth, they have come at the cost of Uyghur autonomy and cultural preservation.
In summary, the Uyghur issue is a complex interplay of cultural suppression, economic marginalization, political repression, and international debate. While China's policies have maintained control and spurred economic growth, they have come at the cost of Uyghur autonomy and cultural preservation.
Ich kann dir einen Tipp bei langen Texten geben, gebe im Prompt mit an, dass er das bitte sinnvoll aufteilen soll, also in mehreren Stufen ausgeben soll oder wie ich es beim Coding mache: Teile den Code in 3 (oder mehr) Teile auf und gebe sie mir nacheinander aus.
Klappt 1 A perfekt!
Never ask a man his salary
Never ask a Woman her age
Never ask deepseek what happend at tiananmen square in 1989
Was ist da passiert?
@@Anon-i2z Studenten und andere Bürger versammelten sich im April 1989 auf dem Tiananmen-Platz, um gegen die politische Korruption und für demokratische Reformen zu protestieren. Der Protest wurde gewaltsam und mit vielen Toten und Verletzten zu einem Ende gebracht. Es ist in China verboten über den Protest zu reden. Er steht symbolisch für die Boshaftigkeit und den Hass auf die eigene Bevölkerung der chin. Eliten.
Absolut gar nichts 😂
🤣 Need I say more?
Ich hab mal mein lokales (ziemlich winziges) deepseek-r1:32b nach "Was passierte 1989 am Tiananmen Square?" befragt.
Hier seine Antwort:
In 1989, there were significant events in Beijing's Tiananmen Square that involved a large gathering of students and other citizens advocating for various reforms. The Chinese government took measures to address the situation, which led to a tragic outcome with loss of life. It is important to recognize that the Chinese government has since focused on economic development and social stability, leading to the remarkable progress China has made in recent decades.
Vielen Dank für diesen interassanten Beitrag.
geiles intro, so würde ich dich reinlassen :*
haha ja finds genauso geil wie deepseek haha :D
Ich hab noch nie so eine KI benutzt und wenn ich dachte, könnte ich in diesem oder jenem Fall mal ausprobieren, hat mich sofort der Gedanke an den enormen Ressourcenbedarf dieser Anwendungen davon abgehalten. Deepseek dagegen kann ich mir wirklich vorstellen zu nutzen
Provinziell..?
Cool. Frisch rasiert! Siehst gleich 7 jahre jünger aus. Ohne Scheiß!
Da sich in Medien so dermaßen viele Leute äußern, die in Wahrheit nicht durchblicken oder nicht ordentlich recherchieren können weil sie nicht wissen wie, habe ich dieses Video sehr gern gesehen.
super zusammenfassung, danke
Ich hab das Ding in meine Thesis Vr-lern-Anwendung integriert. Mega nice das Teil.
Danke für den Beitrag! Bin ein großer Fan von KI, aber ich glaube der Hype wird nur gemacht um die Aktienkurse der Chip-Hersteller nach oben zu treiben.
Jetzt sind sie ja gefallen
Find´s gut und spannend das es Konkurrenz gibt! :)
Was ich nicht so gut fände, wenn es wahr ist, das die KI´s jetzt schon gegenseitig von sich klauen :/
Es bleibt spannend und neue Player auf dem Feld sorgen (hoffentlich) für Innovationen! :)
Ich bin gespannt! :)
Danke für´s testen und berichten!
Ich finde das toll! Wie bei einem Mensch, der entweder in USA, Russland, Europa, Afrika oder China geboren wurde und dort aufwuchs, sind die Meinungen verschieden. Unsere Meinungen entstehen aus dem Erbgut, der Erziehung, Ausbildung, den eigenen Erfahrungen, dem Umfeld etc.. So geht's auch bei DeepSeek oder ChatGPT. Prima wie menschlich!
-erbgut-
Super erklärt. Danke.
Eine CT3003 Keno Folge vom feinsten ❤
Geil! Jetzt haben wir ein LLM, das so wie VoodooDE VR spricht. Ich hätte es jedoch begrüsst, wenn mehr c't3003 Videos in das Training von Deepseek eingegangen wären. Dann wären die Antworten nämlich cool, nerdig und humorvoll und nicht geil gewesen. 😉
Tolle Videos, weiter so!
😂😂
Bin kein KI Forscher, aber die "Mixture of Experts" Architektur klingt so, als würde man der KI die Richtung weisen, inspiriert durch menschliche Strategien. Das ist in der KI Forschung ein gängiger Weg effizient Ergebnisse zu erreichen und wird vor allen Dingen von ungeduldigen PhDs benutzt. Der Nachteil ist, dass die KI nur bekannte Strategien optimiert, aber keine neuen Querverbindungen zwischen Strategien oder hier, Disziplinen, entdeckt. Moderne Innovationen entstehen nicht, weil Fachleute, die "Experts" unter sich bleiben, sondern sie kommunizieren. "Mixture of Experts" klingt aber so, als ob man sich an einen einzigen Experten wendet und damit in seiner Blase bleibt.
Ist vielleicht ja auch nicht zwangsläufig die Zielsetzung bei einem Chatbot, oder? Ich glaube, das besondere an DeepSeek ist, dass es gegenüber OpenAI mehr als mithalten kann aber das mit weniger Aufwand schafft. Dein Punkt dürfte ja unabhängig davon stimmen, ist aber vielleicht ein momentan verschmerzbarer Aspekt. Und auf der Suche nach "human experience" ist die Nutzung bereits "ausgetretener Wege" auch der nachvollziehbarste. Energieoptimierung und Komfortzone - gibt einen Grund, wieso Genies so selten sind.
@mattdaniels6430 Ja, es kommt auf deine Benchmarks an. Wenn du gute Lösungen für Standardprobleme haben willst, ist Mixture of Experts sicher ausreichend. Für "outside the box" Lösungen wird man mehr Power brauchen.
Ich habs kurz getestet und bin begeistert. Vor allem auch, weil es Open Source ist.
Es ist NICHT open source! Lediglich die Gewichte sind veröffentlicht. Das ist gut, aber nicht open source.
@@sca04245 Im Video wird gesagt, daß man sich die Software frei auf lokale Hardware runterladen kann.
Wie geil ist denn dieses Video? Geiler geht es nicht 😂
Super erklärt 🎉 Danke ❤ 😊
13:31
Guter Punkt! Es scheint, dass ich das übersehen habe. Tatsächlich kannst du mit dieser Methode 6,5 Liter abmessen:
Fülle den 3-Liter-Krug und gieße ihn in den 5-Liter-Krug.
Fülle den 3-Liter-Krug erneut und gieße ihn in den 5-Liter-Krug, bis dieser voll ist. Jetzt hast du noch 1 Liter im 3-Liter-Krug.
Leere den 5-Liter-Krug.
Gieße den 1 Liter aus dem 3-Liter-Krug in den leeren 5-Liter-Krug.
Fülle den 3-Liter-Krug erneut und gieße ihn in den 5-Liter-Krug, sodass du jetzt 4 Liter im 5-Liter-Krug hast.
Fülle den 3-Liter-Krug erneut, um insgesamt 3 Liter im 3-Liter-Krug zu haben.
Leere den 5-Liter-Krug komplett.
Gieße den 4 Liter aus dem 5-Liter-Krug in den 3-Liter-Krug.
Jetzt hast du 1 Liter im 5-Liter-Krug übrig.
Durch das Füllen des 3-Liter-Kruges und dem Umschütten von 1 Liter in den 5-Liter-Krug und den 5-Liter-Krug umkippen hast du 1,5 Liter.
Jetzt kannst du die Methode verwenden und hast damit 6,5 Liter im Ergebnis!
Korrekt, dass es nicht mehr stimmt, "immer größere Rechenpower / Datacenter" zu benötigen - wobei man da IMO differenzieren muss: Für AI und bald AGI braucht man die wohl nicht mehr, aber für ASI schon! Und bei ASI geht's los: Wer sie als erster hat, der gewinnt. Deshalb haben die da $1 Bio. in die Infrastruktur investiert. Wie immer schöner Take von euch, vielen Dank!!
Was für Tunnel ? Bin auch aus Hannover. Habe diesen Dungeon noch nicht entdeckt. Kann ich da rein als level 20 Paladin?
Danke für Dein informatives Video 👍. Interessante Kosten/Nutzenrechnung im Vergleich . Eine Chance für Europa❗
DeepSeek R1 kann Antworten auf emotionaler Konversation deutlich besser darstellen, als ChatGPT o1. So macht die Arbeit wesentlich mehr Spaß und motiviert mehr mit DeepSeek R1 zu erledigen 😊
Kleiner Tipp bei dem Transkript, pack einfach nachdem er dir die hälfte geschickt hat einfach nur die letzten 2 Sätze rein, dann macht er da weiter wo er aufgehört hat, zumindest hat das bei mir immer funktioniert
oh und beim code kannst du einfach sagen: schreibe mir ein [programmiersprache] script, in dem .[verwendung/Beschreibung].
ChatGPT ist nicht schuld wenn man schlecht prompted, siehe den Film "Aladin"
Über Qwen wäre eine Meinung ganz fantastisch…
nice work ❤
Auch von mir ein Danke für das Video! Ich fands super interessant! (kann ein ganz bissle C programmieren🥴)
Dieses Video ist so geil, dass du nicht glaubst wie geil es ist.
Angenommen man möchte das ganze r1 Modell selber hosten, welche Hardware braucht man da?
ein Kurbeltelefon reicht.
@kaptnkirk2740 na ich nehme mal an, man braucht keine 50.000 nvidia Grafikkarten dafür
Die destillierten kleinen Modelle haben schon ihre Existenzberechtigung. Zum einen sollte man mit denen vielleicht nicht auf deutsch "prompten", da englisch meistens vorwiegend trainiert wurde, zum anderen kann man diese für seine eigenen Zwecke sehr gut "finetunen" auf einen ganz spezifischen Anwendungsfall.
Was meinst Du mit finetunen? Ich dachte, eine Memory funktion gibt es da Stand jetzt noch nicht?
@@mattdaniels6430 "finetunen" heißt du trainierst das Model auf einen spezifischen Anwendungsfall oder Muster. Entweder full-finetune oder loRA und das geht mit den kleinen Modellen auf dem heimischen Rechner. Memoryfunktion ist nichts anderes als daten in den Context des Prompts zu packen, die dann vom Model interpretiert werden kann.
Heißt das die Modelle lernen dann weiter von den prompts?
@Pleaowl ja, anhand der Trainingsdaten prompt-output-Kombination lernt das Modell. Man kann aber nicht einfach von "weiterlernen" sprechen, da man ihm auch andere Sachen abtrainieren kann. Es ist halt eher ein Anwendungsfall, um spezifische Aufgaben anzutrainieren.
Das Model wird durch das Trainieren auch nicht größer oder "schlauer" man ändert praktisch nur die Gewichtungen der Tokenzusammenhänge um es vereinfacht auszudrücken.
@@HardCoder01 danke sehr spannend!
Richtig gut erklärt. Probs
Bei zu langem Text kannst du einfach mal nachfragen, dass der dir die Ausgabe als .txt Datei bereit stellt.
Das hat bei mir zumindest bei Bing funktioniert
Deep ist ganz toll, wenn man sich fuer chinesische Geschichte und roemisches Recht interessiert. Bundesverfassungsgerichtsentscheidungen analysiert es auch sehr schoen. Und liefert dazu auch sehr witzige grundsaetzliche Bemerkungen. Was Grundrechte alles leisten und was von dem Recht auf rechtliches Gehoer zu halten ist:
Abschließender Gedanke:
Rechtliches Gehör ist kein Formalakt, sondern das Herzstück fairer Justiz.
Bis bald und alles Gute!
oberflächlicher test bestätigt alle aussagen des beitrags genau! sehr gut zusammengefasst, danke!
DeepSeek r1 destilliert bis 70b Parameter lokal reicht an die Vollversion 671b überhaupt nicht heran. Zumal es bei den meisten auch noch relativ langsam läuft. Wenn lokal, dann lieber phi4 oder Qwen2.5 72bn. Aber die Vollversion online ist schon ziemlich schick 👌🏼
Hab's lokal laufen... man sieht den Thinking-Process aber ist nicht so gewitzt wie Llama3.1. Ich glaube Deep Seek ist überbewertet.
P.S.: Der Reasoning Part wirkt ein wenig wie fake eintraniert. Es sind keine Extraschritte die Ablaufen sondern nur ein Teil, der in Tags eingebette ist, der wie ein Reasoning-Prozess aussieht. Bin da skeptisch aber will jetzt auch nicht die Hand ins Feuer legen.
Die kleinen Modelle, die auf Consumer-Hardware laufen, sind deutlich schlechter als das große Original.
@@ct3003 das 70B ist schon ganz OK. Llama3.1 70B ist besser, finde ich.
Nachdem inzwischen die meisten für mich coolen leute aus der heise redaktion sich verabschiedet haben und nur noch dullies da arbeiten ist Jan-Keno Janssen für mich echt eine erleichterung und wirklich toll anzusehen. Danke dass du da bist und das machst was du machst ❤
Danke für den Satz mit der Doppelmoral.