Rechenpower wie bei OpenAI - auf meinem Schreibtisch

Поделиться
HTML-код
  • Опубликовано: 30 янв 2025

Комментарии • 359

  • @ct3003
    @ct3003  3 месяца назад +36

    Der angegebene Preis ist ohne Mehrwertsteuer, mit 19% sind es 38080 Euro.

    • @Sorgenfrei6250
      @Sorgenfrei6250 3 месяца назад +3

      Etwa auch der Preis eines PC mit 486er im Jahre 1989. Das war High End damals.
      Dinge wiederholen sich.

    • @iseethreedee2317
      @iseethreedee2317 3 месяца назад +1

      @@Sorgenfrei6250 Für einen 486er? Niemals! Für eine SGI Workstation schon eher.

    • @Xulufone
      @Xulufone 3 месяца назад

      KI schätzt 22.500 EUR (inflationsbereinigt)

    • @Sorgenfrei6250
      @Sorgenfrei6250 3 месяца назад

      @@ct3003
      Meine vorherige Antwort wurde gelöscht. Wahrscheinlich weil ich eine Quellenangabe hinzugefügt hatte.
      Also nochmal.
      Beim lesen einer "Happy Computer" von 1989 war ich als Teenager erstaunt über die Preise für 486 PCs in den Werbeanzeigen. 40.000 DM waren dort keine Seltenheit.
      Wenn ihr ein paar Minuten eurer Zeit opfert, könnt ihr googeln, wieviel der 486er gekostet hat, als er 1989 auf den Markt kam.
      Inflationsbereinigt sind 40.000 DM im Jahre 1989 etwa 41.000€ im Jahre 2024.

    • @MatzeMaulwurf
      @MatzeMaulwurf 3 месяца назад

      Mein 486-DX2-66MHz hat 1994 mit 8 MB RAM 3.400 DM gekostet. Inkl. Steuer und 15 Zoll CRT.

  • @romanronner
    @romanronner 3 месяца назад +433

    Und läuft Doom jetzt darauf?

    • @transilvanischervampir666
      @transilvanischervampir666 3 месяца назад +9

      Neh..nur Pacman 🤫

    • @achimklinkhammer_150
      @achimklinkhammer_150 3 месяца назад +3

      Hähä. Ich empfehle in solchen Fällen, in der älteren Verwandtschaft nach alten PCs zu fragen. Kostet nich so viel... 😁

    • @DivergentMarc
      @DivergentMarc 3 месяца назад +1

      Ab Halloween gibt's Doom 3 VR mit PBR Shadern

    • @Z0yxx
      @Z0yxx 3 месяца назад +20

      Doom läuft als Sora-Version Realtime. D.h. die KI erstellt die Umgebung ☺️

    • @andrepohle7485
      @andrepohle7485 3 месяца назад +1

      Auch meine Frage 😂😂😂

  • @watchadult5743
    @watchadult5743 3 месяца назад +31

    Das ist lustig, meine erste Reaktion war ein unmittelbarer "WILL ICH HABEN" Reflex. Ich muss dazu sagen, ich bin ALT, ich habe mit 12 Jahren meinen ersten Computer gekauft, Programmiert, mit Hardware "gebastelt", Informatik studiert, beim führenden IT Konzern gearbeitet ... eigentlich war ich (und bin) mein Leben lang Informatiker und daher ist diese erste Reaktion für mich auch ganz natürlich. Von KI bin ich besonders fasziniert, immer wieder stelle ich Überlegungen an, ob ich auch ein lokales... aber ich hab halt ein Leben UND einen Fulltime Job als Programmierer und spiele PS und XBox ... irgendwie fehlt mir die Zeit.
    Und dieses Video hat es wieder einmal auf den Punkt gebracht: Selbst WENN ich mir 32k Euro "aus den Rippen schneide" - es wäre wahrscheinlich nur ein extrem teurer Staubfänger.
    Danke Keno, dass du so klar und deutlich gesagt hast, dass man sich damit nicht die "all in one" Lösung einkauft sondern nur den ersten sehr sehr teuren Schritt in eine Welt aus Gefrickel und Frustration. Wenn man das "nebenbei" zu einem Fulltime Job und einem Leben machen will, wird die HW vermutlich veraltet sein, bevor man seinen ersten Erfolg mit dem Gerät erleben kann.
    Danke! Aber wahrscheinlich ist der Hersteller von dem Monster jetzt auch "nur so semi glücklich" mit dem Review.

    • @qapplor
      @qapplor 3 месяца назад +1

      Keine Sorge, du warst und bist dein ganzes Leben lang Informatiker und daher ist diese erste Reaktion für dich auch ganz natürlich.

  • @damianit
    @damianit 3 месяца назад +131

    Endlich genug Power für Paint.

    • @der-Troet
      @der-Troet 3 месяца назад +1

      minesweeper läuft auch mit 30 FPS☝

  • @Habib187degusa
    @Habib187degusa 3 месяца назад +64

    Ach du meine Güte, mein Rechner hat maximal die Leistung von Opel AI die Arm Architektur habe ich nur auf meinem Konto.😂

  • @MeisterYurii
    @MeisterYurii 3 месяца назад +66

    „Kuckt mal hier, …“ - ich liebe dieses Intro!

  • @jensenderlein185
    @jensenderlein185 3 месяца назад +18

    Super Video. So bekomme ich auch als „interessierter Laie“ mal eine Idee davon wo die Grenzen liegen bzw. wie speziell spezielle Hardware für spezielle Spezialaufgaben eigentlich ist.

  • @sylaina6776
    @sylaina6776 3 месяца назад +48

    Ein Computer löst Probleme, die wir ohne ihn nicht hätten 😂

    • @achimklinkhammer_150
      @achimklinkhammer_150 3 месяца назад +4

      Zumal wir unsere Fehler _mit_ Computern jetzt und immer mehr noch viiel schneller machen können.

  • @michaellichter4091
    @michaellichter4091 3 месяца назад +19

    Deine Kaufberatung für teure Hardware finde ich super. ❤👍

    • @guido_aka_guy
      @guido_aka_guy 3 месяца назад +1

      In 10 Jahren ist das auf dem Raspberry Pi X dabei 😂.

    • @teLmi
      @teLmi 3 месяца назад +2

      @@guido_aka_guy never

  • @Rick-el3ox
    @Rick-el3ox 3 месяца назад +23

    Das Gehäuse erinnert mich stark an den ersten Mac Pro, sehr schön 👍

    • @achimklinkhammer_150
      @achimklinkhammer_150 3 месяца назад +1

      Stimmt, kam mir auch in den Sinn.

    • @vSoulreaver
      @vSoulreaver 3 месяца назад +3

      Käsereibe lol

    • @SmokeFFM
      @SmokeFFM 3 месяца назад +1

      Schön?? 😂

    • @Streber2000
      @Streber2000 3 месяца назад +1

      InWin Dubili, wird zerlegt verschickt. Gibt interessante Videos von Gamers Nexus aus deren Designcenter, sehr kreativ.

    • @Rick-el3ox
      @Rick-el3ox 3 месяца назад +1

      @@Streber2000 Danke, schaue ich mir mal an 👍

  • @Olli-Tech
    @Olli-Tech 3 месяца назад +48

    But Can It Run Crysis?

  • @I_love_our_planet
    @I_love_our_planet 3 месяца назад +27

    Na ja eigentlich ist es ja die H100 hier den Kohl fett macht, sprich aus dem Rechner Ram&GPU herausholen und in ein AMD EPYC oder XEON mit Linux verbauen - und schon sind alle ARM basierenden Probleme einfach mal weg.
    Und das die H100 alleine schon für 30k+ gehandelt wird kann man die NVIDIA ARM-CPU auch einfach wegwerfen ohne Verlust zu machen ;-)

    • @NormanTheDormantDoormat
      @NormanTheDormantDoormat 3 месяца назад +8

      Schön zusammengefasst.

    • @MasterBoyZs
      @MasterBoyZs 3 месяца назад

      oder man hat die entsprechende Software von den "Kollegen"...

    • @HeNryous
      @HeNryous 3 месяца назад +1

      Stimmt nicht ganz da GH200 ein komplettes Paket ist und dementsprechend deswegen nur zusammen ausgeliefert werden kann, empfehle dir zur weiteren Information die Webseite von Supermicro und deren MGX line up, dort kannst du das wunderbar sehen :)
      VG

    • @I_love_our_planet
      @I_love_our_planet 3 месяца назад +1

      @@HeNryous Wie bidde? Die H100 ist eine "normale" PCI Karte die kannst Du aus dem System raus rupfen und in jeden normalen PC einbauen. Und hast Du mehr als eine dieser Karten kannst Du die mittels NVLink koppeln. Nur die Supercomputervariante H100 SMX kannst Du so nicht verwenden, die steckt hier aber nicht drin. 99% der beeindruckenden Leistung des Rechners basiert auf die H100 - der ARM Rest - schön, aber geschenkt - die 1000 Euro für ein leistungsfähigen PC hat man dann auch noch.

    • @HeNryous
      @HeNryous 3 месяца назад

      @@I_love_our_planet die H100 selbst schon als PCIe Variante aber die GH200 nicht die kommt im Paket

  • @dxdxday1978
    @dxdxday1978 3 месяца назад +17

    Und ich freu mich gerade über einen frisch eingetroffenen raspi 5…😂

    • @achimklinkhammer_150
      @achimklinkhammer_150 3 месяца назад +2

      Back to the roots... Weniger ist mehr Spaß!

    • @guido_aka_guy
      @guido_aka_guy 3 месяца назад

      Da gibt es jetzt auch eine zusätzliche KI Hat

  • @tobiasurban8065
    @tobiasurban8065 3 месяца назад +22

    Ganz schlechte Geldanlage, will nicht wissen, wie hoch der Wertverfall nach 1 Jahr ist 😉

    • @tubekrake
      @tubekrake 3 месяца назад +10

      Du kannst das ans internet hängen und 2€/h verlangen. Sind dann fast 18k€ pro Jahr die damit einspielen könntest. Also nach 2 Jahren vermutlich abbezahlt. Naja vielleicht nicht mit dem deutschen Strompreis aber in vernünftigen Ländern mit guter Energieversorgung schon.

    • @teLmi
      @teLmi 3 месяца назад +4

      ???? Sorry aber du siehst scheinbar den Mehrwert dieses PCs nicht, anders kann ich mir deine dumme Bemerkung nicht erklären. Wer sich so einen Rechner kauft der geht über die Leistung pro Minute, heißt jemand der Aufträge abarbeitet verdient am Tag viel schneller sein Geld als mit einem normalen Rechner der ewig für die Renderings brauchen würde, also ist es scheiß egal wie viel Verlust man nach einem Jahr macht, wenn man eh ein Zetliches Arbeitsplus macht innerhalb dieses Jahres wegen der starken Hardware für renderings etc.

    • @Nordlicht05
      @Nordlicht05 3 месяца назад

      ​@@teLmi für jemanden wie in den Kommentaren der sich eine lokale KI bauen möchte für Zuhause. Das ist dann eher als "teures" (relativ) Hobby anzusehen. Dort spielen kosten oft zumindest in Form von Wert-Verlust auch keine Rolle da andere Dinge im Vordergrund stehen.

    • @Joey_Tai
      @Joey_Tai 3 месяца назад +1

      Nette Bitcoin Mining Maschine…

    • @Tobiasliese
      @Tobiasliese 3 месяца назад +3

      @@teLmi Hat hier recht. Der Wert eines Werkzeugs wird über die nützlichkeit definiert. Wenn ein 30.000€ Werkzeug einem Umsätze in 50-100.000€ höhe erstellen kann, ist das ein gutes Investment. Lohnt sich halt nur für die, die damit auch Geld verdienen ;)

  • @mitchto6433
    @mitchto6433 3 месяца назад +3

    Für 32k EUR (+MwSt) hätt ich erwartet, dass mir der KI-Rechner selbst erklären kann, warum er das Geld wert ist.

  • @ihabsglei
    @ihabsglei 3 месяца назад +3

    Wenn Rechner den lokalen Stromanbieter glücklich machen. 😂

  • @exo-fresh719
    @exo-fresh719 2 месяца назад +1

    Irgendwie konnte ich mich nur auf dieses Haar konzentrieren, das da am Micro hing... 🤣🤣

  • @testales
    @testales 3 месяца назад +4

    Sollte mich wundern, wenn der Rechner 32k kostet. Die H100 allein in der 80GB Version kostet bereits so zwischen 37k und 50k. In dem Shop stehen auch so "technische Daten" wie "Perfect for LLama 3.2" statt welche GPU da drin ist. Die Konfiguration, die er da hat dürfte eher um die 100k kosten.

    • @ct3003
      @ct3003  3 месяца назад +2

      Gerade mal nachgeschaut, das steht bei der 32K-Version ganz klar „Nvidia H100 Hopper Tensor Core GPU“.

    • @testales
      @testales 3 месяца назад +1

      @@ct3003 So steht's tatsächlich beim Checkout ganz am Ende. Allerdings ohne Steuern, was natürlich üblich ist für Geschäftskunden. Also ein Stück teuerer ist's dann doch, aber selbst mit Steuern seltsam "günstig".

  • @steffenhantschel2016
    @steffenhantschel2016 3 месяца назад +3

    Hab jetzt eine zweite gebrauchte RTX 3090 aufgerüstet und bin bei 48 GB VRAM und 80 GB RAM - alles gebraucht. Mal sehen, was ich so an Token/s zustande bekomme und welche LLMs laufen. Bin noch am Schrauben.
    Mit einem gebrauchen Supermicro H11 oder H12 gingen dann auch vier RTX 3090, wären aber nochmal ca. 2.5 k und ist sicher nicht einfach zu kühlen. Aber jedenfalls deutlich unter den 30k von Keno. Und man hat den ARM-Stress nicht.

    • @MasterBoyZs
      @MasterBoyZs 3 месяца назад

      kann man dann den Vram über pci e bündeln? Oder die aufgaben auf n GPUs + VRAM?
      Evtl. Wasserkühlung sinnvoll?

    • @steffenhantschel2016
      @steffenhantschel2016 3 месяца назад +2

      @@MasterBoyZs Man kann die RTX 3090er zwar mittels NVLink-Brücke verbinden und diese können den Speicher dann gemeinsam nutzen, der Gewinn sei laut Tests aber gering ( ich hab es noch nicht gemessen). Auch sei die vergleichsweise langsame Anbindung über 4xPCI kein Flaschenhals. Allerdings laufen mittlerweile mit Ollama auch die großen Modelle auf der CPU und skalieren gut mit der Anzahl der Kerne. Mit meinem 12 Kern Ryzen hab ich mit llama3 70 ca. 1Token pro Sekunde. Mal sehen, was mit den zwei GPUs geht. Kann aber sein, dass immer noch zu wenig VRAM vorhanden ist. Wasserkühlung ist nicht so meins... Lieber Powerlimit und guten Airflow.

  • @ProjectPhysX
    @ProjectPhysX 3 месяца назад +2

    So eine GH200 darf ich auch grade testen. Ist die zweitschnellste GPU die ich jemals in den Fingern hatte, kann 4TB/s VRAM Bandbreite. OpenCL go brrr :P
    Meine FluidX3D Strömungsdynamik Software läuft da drauf out-of-the-box; kann sogar auf der Nvidia ARM Neoverse v2 CPU rechnen mit PoCL.

    • @MasterBoyZs
      @MasterBoyZs 3 месяца назад

      Welche Branchen arbeiten damit und welchen Mehrwert hat das für euch?

  • @thommyme5891
    @thommyme5891 3 месяца назад

    Läuft den Blender da drauf? Wie flott kann man den mit der Karte nen Filmchen rendern?

  • @HerrGru
    @HerrGru 3 месяца назад +1

    Sehr interessant ^^ danke für das Fazit ^^ 😊

  • @videotuner
    @videotuner 2 месяца назад +2

    Sollte nicht eigentlich Freitag ein neues ct3003 VIdeo kommen? Ich krieg schon Entzugserscheinungen.

  • @michaelmueller9635
    @michaelmueller9635 3 месяца назад +1

    Wieviel FPS denn nu in Counterstrike?

  • @StyleTechnique
    @StyleTechnique 3 месяца назад

    Endlich ein Pc der die Blumen richtig bewässern kann.

  • @theodysseus891
    @theodysseus891 3 месяца назад

    Vielleich blöde Frage aber könnte man nicht die benötigten Programme mit dem Sourcecode selber compilen grade wenn man so viele CPU Kerne hat?

  • @sorianeff765
    @sorianeff765 3 месяца назад +11

    Die 4090 hat "nur" 24GB Speicher. Ok 👌

    • @ratside9485
      @ratside9485 3 месяца назад

      Ja nur und die 5090 hat auch nur 32gb komplett lächerlich im KI-Zeitalter.

    • @tiefensucht
      @tiefensucht 3 месяца назад

      @@ratside9485 das sind gamingkarten.

  • @asmaier78
    @asmaier78 Месяц назад

    Ein maximal ausgebauter Mac Studio kostet ca 10000 Euro und bietet 192 GB Speicher, der dank Unified Memory Architecture auch von der GPU genutzt werden kann. Das Ding ist im Vergleich also 3mal billiger, kann aber mehr als doppelt so große Modelle laufen lassen. Und der Mac ist viel eher tauglich für das Büro oder Homeoffice, denn das Ding braucht maximal 295W.

  • @michael_k_aus_S
    @michael_k_aus_S 3 месяца назад

    Ein hochspezielles Werkzeug, würde ich sagen. Und in den Händen einer entsprechend ausgebildeten bzw. erfahrenen Fachkraft vermutlich für so einiges an Problemlösungen gut. Auf jeden Fall ist es interessant, eine solche Hochleistungsmaschine unabhängig von Serverfarmen oder Hostinganbietern betreiben zu können.

  • @chriswatts3697
    @chriswatts3697 2 месяца назад

    Ich nutze derzeit lokale KI direkt in Echtzeit 3D Anwendungen mit 7b 8b 9b Parametern. Das läuft sehr gut selbst auf meiner RTX3060 mit 12GB in erträglicher Geschwindigkeit. Auch die Einbindung von lokalen RAG Daten ist nutzbar. So bin ich komplett unabhängig und kann z.B. Schulungsprojekte damit umsetzen. Die Qualität der kleinen Modelle wird immer besser und ich war total überwältigt, als ich kleine Modelle in multilingualen Situationen eingesetzt habe. Mit den neuen RTX5090 und weiteren GPUs denke ich, werden die großen Systeme mehr und mehr uninteressant für den "normalen" User. Ob in Computerspielen oder anderen Anwendungen ist es doch am besten, wenn ich zuerst einmal die Daten auf meinem System behalte und nicht mit großen Firmen teile. Dazu kommt, dass die meisten Anfragen an eine KI oftmals von den kleinen Modellen ausreichend beantwortet werden können.

  • @MagnusLPA
    @MagnusLPA 3 месяца назад +6

    Quatsch, Hopper ist doch kein Mensch, Hoppa ist der gewöhnliche Sprachgebrauch meiner zweijährigen Tochter und bedeutet so viel wie "Pferd", so genau nimmt sie es da aber nicht, das Hoppa gibt es auch mit Horn auf der Nase ;-)
    Viele Grüße,
    Magnus

  • @jantube358
    @jantube358 3 месяца назад +4

    Hättest du die H100 nicht aus dem teuren PC ausbauen können und sie in deinen privaten PC einbauen können? Dann hättest du die Leistung in deinem x86 System und das ARM Thema wäre kein Thema gewesen. 🤔

  • @Datenschutz_Datenschutz
    @Datenschutz_Datenschutz 3 месяца назад +3

    btw ich find das alte c't 3003 Logo immer noch top :)

    • @ct3003
      @ct3003  3 месяца назад +2

      Ah, gut zwischen den Zeilen hingeguckt. 😙 Das alte Logo wird bald ersetzt.

  • @FATPunisher
    @FATPunisher 3 месяца назад +6

    Ne 10-Kanal-Lüftersteuerung mit einzelnen Potis versteckt hinter der Seitenwand eines 32k€-Rechners... Junge Junge Junge... Also in meinem Heimcomputer 😉 werden die Lüfter allesamt temperaturabhängig softwaregesteuert, und zwar abhängig von GPU- und CPU-Temperatur jeweils die, die dazu etwas produktives beitragen können... - Aber schönes Video. Wusste auch nicht, dass Arm schon dermaßen auf dem Vormarsch ist. 👍

    • @Schallgetriebe
      @Schallgetriebe 3 месяца назад +1

      Habe ich auch gedacht. 😂

    • @teLmi
      @teLmi 3 месяца назад

      ... und softwaresteuerung ist so das schlechteste was man machen kann, sowas will man definitiv nicht in einem teurem rechner haben, da will man leistung der hardware und nicht irgendwelche software scheiße drauf haben die erstmal irgendwas steuern muss, so ein quatsch, gute hardware ist immer ohne software - lass dir das mal gesagt sein.

    • @tiefensucht
      @tiefensucht 3 месяца назад

      heute ist es ja eher umgekehrt und die hardware drosselt je nach kühlungssituation.

    • @FATPunisher
      @FATPunisher 3 месяца назад

      @@teLmi Hä? 😆Die Potis werden manuell eingestellt, das heißt, man hat irgendeine Lüftergeschwindigkeit manuell festgelegt, völlig ungeachtet dessen, wie hoch die Temperaturen von CPU, GPU usw. tatsächlich sind. Das ist nur eine manuelle Lüftersteuerung, statt einer automatischen Lüfterregelung, und somit haushoch unterlegen. Außer man stellt einfach alle auf Vollgas, dann wird es nicht zu warm, ist aber unnötig unfassbar laut.

    • @teLmi
      @teLmi 3 месяца назад

      @@FATPunisher und trotzdem wird industriell in großen Produktionen nicht wirklich mit Software für Lüfter gearbeitet. Man will von Haus aus ein funktionierendes System haben egal ob Software x installiert ist und eingestellt ist oder nicht. Verstehst du das ? Und gerade dort ist eine manuelle Steuerung viel besser. Das sind ja keine Gamer Betriebe die dann zocken, sondern daran wird gearbeitet und dann ist es Scheiss egal ob die Lüfter volle pulle laufen oder automatisch geregelt werden ;) Hauptsache die Leistung stimmt.

  • @terrainferna8048
    @terrainferna8048 3 месяца назад

    gibts bei dir ne liste was du an open-source tools empfiehlst für bestimmt Bereiche wie Transcription oder Übersetzung?

  • @NoName-fn6ee
    @NoName-fn6ee 3 месяца назад +3

    Dieses Gehäuse, ich brauche es!

  • @gk-yt
    @gk-yt 3 месяца назад +1

    kann es sein, dass der ton bei dem video übersteuert? es kann an meinen einstellungen liegen, möchte ich nich ausschließen...

  • @enjaderletsplayer2259
    @enjaderletsplayer2259 3 месяца назад +1

    Wenn ich so einen starken PC hätte hätte ich denn dafür genommen um alle meine Videos in 8k 60FPS umzuwandeln damit die Videos Zukunft tauglicher sind

  • @derartifex7533
    @derartifex7533 3 месяца назад

    Die Cuts werden Legendär ^^

  • @achimklinkhammer_150
    @achimklinkhammer_150 3 месяца назад +3

    Hab' mal vor Jahrzehnten auf einer Silicon Graphics (SGI) Onyx CGI-Videos für u.a. TV-Sender gemacht (animiertes ARD-Logo und solche Sachen). Die Kiste war allerdings etwas größer und ein bisschen teurer. Und die Software fast nochmal so teuer. Fand's aber cool. Bis die Firma von Winzigweich gekauft wurde. Da bin ich dann mal weg gewesen. Heute würde wohl ein Telefon schneller mit dem Rendering fertig werden. Wir sind damals nach dem Start immer in den Feierabend gegangen und haben am nächsten Morgen nachgeguckt, ob's was geworden ist.
    Mir erschleißt sich noch nicht so richtig, warum man so eine Kiste kauft. Nur für Sprachmodelle?

    • @ahsookee
      @ahsookee 3 месяца назад +2

      Eher Trainingsanwendungen, sowas wie kleineres finetuning (bspw lora)

    • @achimklinkhammer_150
      @achimklinkhammer_150 3 месяца назад +1

      @@ahsookee Ok, da habe ich echt keine Ahnung von und bin raus. Meine Zeit is' wohl vorbei (bin 61 und fand seinerzeit Novell Netware als Server-Betriebssystem besser als Windows Server. Aber dumals schon war es mir immer ein Anliegen, Software auf den Nutzer anzupassen und nicht umgekehrt.
      Ich persönlich finde ja, das hat man heute irgendwie verlernt oder will es nicht mehr. Wie viele heutige KI-Sprachmodelle den Turing-Test heute bestehen würden, weiß ich nicht.
      Aber ich weiß noch, dass alle die Modelle auf einer riesigen Datenbasis gründen, und die kommt nicht von ungefähr.
      Es bleibt für mich das Grundproblem der KI: sie wird von Menschen trainiert, die etwas bestimmtes wollen. Und wenn die KI was anderes sagt, können Menschen das filtern, wie es ihnen beliebt.

    • @qapplor
      @qapplor 3 месяца назад

      Verzähl mal nix, Achim. SGI wurde nie, auch nicht teilweise, von Microsoft gekauft.

    • @achimklinkhammer_150
      @achimklinkhammer_150 3 месяца назад

      @@qapplor Hab' mich missverständlich ausgedrückt. Ich rede nicht von SGI, sondern von der Animations- und Renderingsoftware und der Firma, wo die Software entwickelt wurde und diese Onyx stand. Sorry.

    • @mb2776
      @mb2776 5 дней назад

      @@achimklinkhammer_150 sry, du verstehst die grundlagen von KI nicht. es gibt unsupervised learning aber das hat nachteile. normales learning geht mit einer fehlerrate einher, du hast logischerweise ein ziel. das ist grundlage jedes klassischen algorithmus.

  • @theace0815
    @theace0815 3 месяца назад

    Solche Hardware kann man tatsächlich manchmal für den Heimbetrieb brauchen. Habe selbst noch eine Workstation von 2012 die mit 2 Xeon CPUs und max. 384GB Ram laufen kann.
    Die Geschwindigkeit ist für heutige Verhältnisse eher dezent, aber tatsächlich benötige ich für meine Anwendungen mindestens 128GB RAM, damit sie überhaupt laufen.
    In einigen Jahren kann man die "Supercomputer" von heute für einen wirklich überschaubaren Betrag kaufen. Meine Workstation lag im Vollausbau auch mal über 20K, heute kostet sowas

    • @denisquarte7177
      @denisquarte7177 3 месяца назад

      "In einigen Jahren kann man die "Supercomputer" von heute für einen wirklich überschaubaren Betrag kaufen"
      Wenn Nividia keine Konkurrenz bekommt, würde ich das so nicht unterschreiben. Ist nicht so dass auf eine 4090 keine 48GB vram passen würden und die 24 haben wir jetzt seit wieviel Jahren?4?

  • @Xcf_341
    @Xcf_341 3 месяца назад

    Tjo, mega Computer gab es vor 15 Jahren
    und um genau zu sein, ist das nichts neues krasses.
    Es ist eben nur "stärker" geworden.

  • @peer7273
    @peer7273 3 месяца назад

    Nächstes Video : Guck mal hier... Ich habe diese Kiste als Homeserver umgebaut

  • @HardCoder01
    @HardCoder01 3 месяца назад

    Die Kiste nimmt man eigentlich eher weniger für Inferenzberechnungen sondern eher zum finetunen/trainieren neuer Modelle. Für Inferenzberechnungen, eignen sich auch schon die Consumer-Karten hervorragend, sofern man das entsprechende Model quantisiert in den vRAM bekommt.

  • @electronicmusicartcollective
    @electronicmusicartcollective 3 месяца назад +1

    Die Kiste ist was um Modelle zu erstellen. Aber sehr lehrreich

  • @tiefensucht
    @tiefensucht 3 месяца назад

    Kann man eigentlich größere KI-Modelle auf zwei 4090 laufen lassen oder läuft dass dann auf die gleiche Situation hinaus wie die Auslagerung auf den regulären Ram?

  • @winstonhusky4486
    @winstonhusky4486 3 месяца назад

    Danke für die Kaufberatung. Habe mir nun bei GPTshop einen Rechner für private Projekte bestellt

  • @erichpoly4434
    @erichpoly4434 3 месяца назад

    Warum sollte man sich das hollen? Wenn torch nicht zum laufen bringt?

  • @kirkschilling583
    @kirkschilling583 3 месяца назад

    Junge, Du bist so cool😂 Danke für das Video👍

  • @typogene1313
    @typogene1313 3 месяца назад

    Das spannende ist ja, das man in 10 - 15 Jahren diese Leistung in jedem 08/15 Rechner hat.

  • @Alex-z8w2w
    @Alex-z8w2w 3 месяца назад +3

    Gutes Video und spannendes Thema , aber ihr macht solche spannenden Themen immer so kurze hastige Videos draus, wie eine geile Serie die nur 6 oder 8 folgen hat 😅 echt schade , nächstes Mal bitte für die Benchmark Fetischisten mehr vergleiche mehr zahlen und 1024 *1024 Bilder , bei dem Grafikspeicher kannste auch 2024*2024 Bilder direkt generieren ,also hier eine Liebe Kritik meinerseits ❤

  • @karstenk.6067
    @karstenk.6067 3 месяца назад

    Vielen Dank. Das war mal sehr interessant. Sieht man auch nicht alle Tage.

  • @glumpfi
    @glumpfi 3 месяца назад +1

    Die 0,5 Token/s beim 405B-Modell haben mich etwas entsetzt bei diesem Preis

  • @a.koenig
    @a.koenig 3 месяца назад

    Danke für den tollen Einblick

  • @AlexanderReemtsen
    @AlexanderReemtsen 3 месяца назад +1

    Perlen vor die Rutzeferkelchen...😉Also, jetzt ich sag mal so. Das kam mir jetzt so vor als ob Du mit dieser Maschine echt total überfordert warst. Niemand sonst stellt sich so ein Teil mal einfach so in sein Büro, Spielzimmer oder Firma. Wer so was kauft der weiß warum und wozu. Und diese Video war nun wirklich keine Kaufberatung...

  • @fastescocky
    @fastescocky 3 месяца назад

    Sind das die Dinger die auch bei Geforce NOW genutzt werden?

  • @chabis
    @chabis 2 месяца назад

    Schade, dass die ARM-Unterstützung für zentrale Produkte wie pytorch noch nicht sauber ist. Damit fällt diese Maschine zwischen die Stühle. Tolle Leistung, aber nicht so richtig abrufbar. Die PCIe-Variante der H100 ist zwar sicher nicht gleich schnell, aber könnte unter diesen Umständen eine bessere Lösung sein. Wobei es bei diesen Karten noch relavant ist, ob man sie in einem "normalen" PC-Gehäuse auch gekühlt bekommt. Also nicht gleich losziehen, so eine kaufen und dann gucken, ob sie läuft. Dafür ist sie dann doch leicht zu teuer.

    • @chabis
      @chabis 2 месяца назад

      P.S: Die PCIe-H100 kostet einzeln etwa gleich viel, wie der gesamte Rechner hier.

  • @Datenschutz_Datenschutz
    @Datenschutz_Datenschutz 3 месяца назад +4

    Ich seh's wie du. Interessant aber im privaten Alltag unnötig. In den Rechenzentren stehen die Teile ja außerdem nicht als Single GPU Konfig herum.

  • @olge1355
    @olge1355 3 месяца назад

    cooles video, passendes fazit. danke!

  • @Rafael-K0002
    @Rafael-K0002 3 месяца назад

    😁 Mit dem Supercomputer, kann man super Probleme lösen die man ohne, nicht hätte!
    Ich bleib wohl noch´n paar Tage bei meinem -alten- *bewährten* x86 Win-Desktop.

  • @HardwareFan
    @HardwareFan 3 месяца назад +2

    Hardware kann immer nur so schnell sein wie die Software es erlaubt.

    • @achimklinkhammer_150
      @achimklinkhammer_150 3 месяца назад +2

      Aus Sicht eines altgedienten EDV-Flachmanns - ich habe meine ersten Fortran 77-Programme während des Studiums noch im Hollerith-Format auf Lochkarten gestanzt - hat die Software heute nur noch ein Problem: den Programmierer. Früher war die Hardware zu langsam. Da hat man selbst auf einer Siemens 7.541 auf das Ergebnis warten müssen. Dann kamen die schnelleren Kisten, und es entstand ein Software-Problem: diese war zu schlecht und hat die elektronischen Wunder nicht richtig ausgenutzt. Heute gibt es Hardware und (mitunter) Software in recht ausgegorenem Status. Bloß der Mensch mit seinem Intellekt und inadäquater Denkweise (aus Sicht der Computer) kommt nicht mehr hinterher.

  • @samegoi
    @samegoi 3 месяца назад

    In der AWS sind ARM-Prozessoren deutlich preiswerter und dafür auch noch schneller als die x86 Prozessoren. Läuft auch super stabil. Die Software muss es natürlich können.

  • @sbstn451
    @sbstn451 3 месяца назад

    0:52 Ich hab absolut keinen Plan von Cuda oder ARM oder Supercomputern aber ich bin für mehr Suspense auf diesem Channel.

  • @larspregge6420
    @larspregge6420 3 месяца назад

    Was kann das Teil (KI Hardware) ausser Chatten?

  • @Christitian
    @Christitian 3 месяца назад +3

    mir hat der Doom spiel test gefehlt
    so weiß ich doch gar nicht ob das für mich wäre

    • @ct3003
      @ct3003  3 месяца назад +2

      Hatte keinen Nerv mehr 😀

  • @ludgerpaehler1458
    @ludgerpaehler1458 3 месяца назад +2

    Habe solche Dinge für HPC operiert, und arbeite auch normalerweise in Rechenzentrenumgebungen. Hatte den ersten NVIDIA + ARM Server vor ~2 Jahren zu operieren, damals musste man noch wirklich jede Software von Source auf neu bauen. Was bei PyTorch schon ein bisschen dauert.. Mittlerweile ist das bereits sehr viel besser geworden.
    Verstehe nicht ganz das Argument, dass Docker nicht laufbar wäre. Docker Container sind bei so was immer die beste Wahl (außerhalb von absoluten Linux/GPU-Profis) weil das PyTorch mit einigen Optimierungen gebaut ist, welche man beim selbst bauen so nicht normal durchführen würde, und auch nicht beim pip install von PyTorch gesetzt sein werden.
    Eventuell wäre es auch hier weitaus einfacher gewesen wenn man nicht das normale Ubuntu, sondern Nvidia's Ubuntu Flavour genommen hätte, welcher automatisch andere Package Server aktiviert und daher dann Zugriff auf mehr vorgebaute Pakete für Arm hat.
    P.S.: Die Kühllösung sieht mir sehr suspekt aus. Bei solch potenter Hardware würde ich zumindenst eine Kompressorkühlung erwarten um eine solche Workstation auch 24/7 operieren zu können außerhalb von einem gekühlten Serverraum. Lieber ein paar tausend Euro mehr für eine professionelle Kühllösung zahlen als die hier präsentierte nicht professionelle Lösung.

  • @ZechMisch
    @ZechMisch 3 месяца назад +1

    Erinnert mich an die Mac Pro 2012 diese Desktop Teile von Appel die haben doch auch in der krassesten stufe 40000€ gekostet wenn man alles was ging genommen hat.
    Heute kann man die mit 10€ Xeon aufrüsten und die für 100€ kaufen 😂

  • @peterh.9602
    @peterh.9602 2 месяца назад

    Sehr spannende Video und Danke für das ehrliche Fazit, das meinen Haben-Wollen-Faktor für solche Workstations doch sehr reduziert hat 🙂. Die wichtigste Frage wurde jedoch nicht beantwortet: Can it run Crysis? 😉

  • @drsteinschneider8052
    @drsteinschneider8052 3 месяца назад

    Einfach nur geiles Video. Danke und gerne mehr davon!

  • @benjamintatura5557
    @benjamintatura5557 3 месяца назад +1

    Cooles Video, sehr interessant, wenn man keine Ahnung von Servern hat!

  • @kingmiro
    @kingmiro 3 месяца назад +2

    Kann der auch gut Crypto schürfen?

  • @kaisching
    @kaisching 3 месяца назад

    "Papa, ich brauch den PC für die Schule."

  • @karlderkafer3269
    @karlderkafer3269 3 месяца назад

    In ein, zwei Jahrzehnten kann das dann sowieso jedes Smartphone für 200 Kronkorken.

  • @TequilaMario
    @TequilaMario 3 месяца назад

    Und beim Start hört es an als wenn ein Eurofighter abhebt.

  • @magicwise42
    @magicwise42 3 месяца назад

    Ich verstehe immer noch nicht, wer da die Zielgruppe sein soll. Wenn ich mir als Firma so eine Kiste zu diesen Zwecken kaufe, dann stelle ich die doch dahin, wo sie hingehört - ins Rack im Serverraum und nicht unter den Schreibtisch.
    Und für private Freaks ist das wirklich bisschen drüber, vor allem mit der Architektur, aus den genannten Gründen. Wüsste gern, wie viele von den Rechnern tatsächlich verkauft werden.

  • @109colorado
    @109colorado 3 месяца назад

    Was ist denn ein Sprachmodell????

  • @forsta6654
    @forsta6654 3 месяца назад +1

    Kann der auch Moorhuhn?

  • @VideoGold24
    @VideoGold24 3 месяца назад

    Ist die GH200 das günstigste Basismodell für Workstations für 46.000€ oder die teuerste Version für 62.500 Euro? Die H100 gibts schon für 47.500€ oder gibt es da auch verschiedene Modelle? Wurde das gesponsert oder musstet ihr die rund 100.000€ - 110.000€ vom CT-Mag aufbringen?

  • @KwadLife
    @KwadLife 3 месяца назад

    Ich stell den deep talk immer auf vol 1 und schlaf dazu ein ❤

  • @CornGer
    @CornGer 3 месяца назад

    wenn interesiert cuda zum trenieren schön und gut tensor ist doch das was schnell ist am ende.
    oder wo für ist tensor da.

  • @frueh-rentner
    @frueh-rentner 3 месяца назад +10

    Umgebauter Mac Pro? Die Käsereibe? 😂

  • @TheNicCraft25
    @TheNicCraft25 3 месяца назад +1

    Jaja mama ich brauche den für die schule

    • @ct3003
      @ct3003  3 месяца назад +1

      Hahahahahhaha

  • @scorezy9334
    @scorezy9334 3 месяца назад

    Neue Video Idee: Wir installieren Windows auf den VRAM

  • @Handelsbilanzdefizit
    @Handelsbilanzdefizit 3 месяца назад +1

    Bei uns in der Behörde gibt's Server mit solchen Grafikkarten.
    Der normale Mitarbeiter bei uns, muss sich damit nicht herumschlagen,
    weil diese Programme (ComfyUI, LLama, etc.) Webanwendungen sind.
    Der ruft das einfach übers Intranet in seinem Browser auf. Basta!
    Mich würde eher interessieren, wie man diese GPU-Hardware in die VMs durchreicht.
    Oder noch besser, in einem hochverfügbaren, georedundanten, Kubernetes-Cluster.
    Das wäre wirklich nützliche Info. Danke!
    (Ach ja, und natürlich auch alles über das Thema R.A.G. 😉)

    • @Sicaine
      @Sicaine 3 месяца назад +1

      Du annotierst deine k8s pods mit node affinity, hast GPU nodes und assignst die einfach. Du brauchst aber für deine k8s pods zusätzliche Rechte, wenn du standardmäßig aber deine pods gar nicht abschottest, ist das egal.

  • @Hegenbrecht
    @Hegenbrecht 3 месяца назад +2

    00:55 WUTT? 😂

    • @noxietech
      @noxietech 3 месяца назад +2

      Hgjähligetstöpfer 🎉🎉

    • @achimklinkhammer_150
      @achimklinkhammer_150 3 месяца назад +1

      @@noxietech Hab's extra übersetzen lassen, aber das _Wort_ immer noch nicht so richtig identifizieren können... Was mache ich falsch? 😁😉

  • @Hilfe
    @Hilfe 3 месяца назад +1

    Hab mir die Webseite vom Anbieter angeschaut - was für ein Freak 😀 da hat jemand wirklich Ahnung von der Materie 👍🏼👍🏼👍🏼 Mal sehen was die Sparbüchse dazu zu sagen hat 🐷

  • @watchadult5743
    @watchadult5743 3 месяца назад

    Mir drängte sich da eine Frage auf: Wenn die Performance eines LLMs praktisch vollständig von dem Speicher auf der Grafikeinheit abhängt und selbst der 32.000 Euro Rechner
    unbrauchbare Performance liefert, sobald er das RAM dazu nehmen muss, WOZU hat diese fette Kiste dann 480 GB RAM, wäre da eine zweite GraKa nicht besser und 16 GB RAM?
    (Vorausgesetzt, man kann die LLMs so betreiben, aber wenn der Hauptspeicher dazu genommen werden kann, kann sicher auch eine zweite GPU mithelfen.)
    Ich habe schon verstanden, dass der Gesamtspeicher größer sein muss als das was das Modell braucht und dass das geht, dass das RAM den GPU Speicher ergänzt und daher das Modell wenigstens LÄUFT aber es hilft ja wenig, ein Modell mit 0,5 Token/Sekunde zu betreiben. Und wenn ich nahezu zigtausend Euro ausgebe, will ich dann schon "alles" machen können.

    • @mb2776
      @mb2776 5 дней назад

      Die teile sind nicht dafür gemacht LLM von der stange laufen zu lassen sondern welche fine zu tunen bzw neu zu entwickeln. Da kannst du eigentlich nicht genug RAM haben der so schnell wie möglich ist, einfach weil Zeit Geld kostet.

  • @rainerdoedel2375
    @rainerdoedel2375 2 месяца назад

    Macht ihr schon den Winterschlaf ? - Letzte Woche wurde kein ct3003-Beitrag hochgeladen. Denke mal diese Woche wird es drei geben. Einen für letzte Woche, einen für diese Woche und einen als Entschädigung für die erlittenen Entzugserscheinungen. Bin mal gespannt !

  • @brutalmaster
    @brutalmaster 3 месяца назад

    So, Forza ist fertig runtergeladne. Wolln wir mal ne Runde auf nem Supercomputer starten? 😂

  • @Nick007423
    @Nick007423 3 месяца назад

    Bei mir bleibt es leider beim "was wäre wenn..." Bis das für mich irgendwann halbwegs erschwinglich wäre, werde ich es nicht mehr Nutzen >können

  • @michaelkopfler
    @michaelkopfler 3 месяца назад

    Wie immer ein großartiges Video, vielen Dank für alldie Arbeit!! 🙂

  • @knackfuss8244
    @knackfuss8244 3 месяца назад

    Geiles Teil. ^^
    Aber um etwas Geld mit dem Internet zu verdienen oder einfach für casual User ist das wohl nix
    Da dann doch lieber 1,5k für nen guten Hig end PC und dann hat man ja auch genug Spaß.
    Cooles Video.
    Schau dich schon ne ganze Weile und ich habe jetzt erst gesehen das ich dich noch nicht aboniert hatte. XD
    Vielleicht weil ich deine Videos lieber im Vollbild sehe um die Infos besser lesen zu können. XD

  • @LG-HH
    @LG-HH 3 месяца назад +1

    Bitte c't Apfelmännchen laufen lassen!!! 😬

  • @Comaxx
    @Comaxx 3 месяца назад

    Und nun noch die wichtigste Frage beim Testen jeder Grafikhardware: CAN IT RUN CRYSIS???

  • @achtundvierzigachtundvierz880
    @achtundvierzigachtundvierz880 3 месяца назад +1

    Kannst du mal gucken ob du das auch mit AMD gemacht bekommst wär man interessant etwas anderes als CUDA zu sehen

  • @Mr.Fox_Berlin
    @Mr.Fox_Berlin 3 месяца назад

    Ich fahre noch einen i7-3770 mit iGPU und Linux drauf.
    Bin mit der Kiste wirklich zufrieden.
    Wenn ich mich vor so ein Monster setzen würde, wäre das vermutlich nicht nur eine neue Liga, sondern ein ganz anderer Planet. 😅

  • @erdpierre1616
    @erdpierre1616 3 месяца назад

    Ah,damit läuft dann auch City Skylines 2 endlich problemlos 😂

  • @tja9212
    @tja9212 3 месяца назад

    but can it run crysis?

  • @TT-pi8ww
    @TT-pi8ww 3 месяца назад

    mal schauen was die Apple Mac Studio oder Pro können wenn sie den M4 erhalten. Mit ihren (bisherigen) 192GB Universal Speicher können theoretisch noch größere Modelle laufen.

  • @der-Troet
    @der-Troet 3 месяца назад +1

    480 gb ram....😒