Wie AMD mit KI-Prozessoren die Zukunft einläutet - Ryzen AI

Поделиться
HTML-код
  • Опубликовано: 15 янв 2025

Комментарии • 66

  • @rayam111
    @rayam111 Год назад +13

    Für mich war dieser Betrag nicht wirklich informativ. Was ich gerne gewusst hätte:
    1. Welche Voraussetzungen müssen Programme (zB chatGPT, MSpilot usw) erfüllen um diese KI-Prozessoren zu nutzen.
    Und wer erfüllt diese Voraussetzungen bereits.
    2. Wie gross (ungefähr) müsste die Anzahl KI-Prozessoren sein um zB ChatGPT lokal laufen zu lassen. Welche Mikrochips erüllen heute diese (minimal Grösse)
    3. wie ist die Abgrenzung gegenüber Nivida-Techologie (GPU + Software)
    oder mit andern Worten:
    Soll ich diese technologie HEUTE kaufen und vorallem: wozu genau.

    • @steffenhantschel2016
      @steffenhantschel2016 Год назад +5

      Da in dem Beitrag quasi alles was relevant ist unterschlagen wird:
      Bisher laufen KI-Anwendungen hauptsächlich auf NVidia-Grafikprozessoren. Hochleistungs-KI-Chips in Rechenzentren sind in der Regel nichts anderes als Grafikchips (GPUs).
      GPUs erlauben im Vergleich zu CPUs die massiv parallele Verarbeitung von Daten. Diese Verarbeitung sind einfache Additionen/Multiplikationen.
      NVidia ist hier marktbeherrschend, da es für parallele Berechnungen auf der GPU die CUDA-Bibliothek bereitstellt. Diese Bibliothek wird wiederum von vielen KI-Bibliotheken benutzt. Die alternative Bibliothek ROCm von AMD konnte sich bisher noch nicht etablieren.
      Text2Image-KI läuft mittlerweile auch auf AMD-Karten.
      Große Open-Source Sprachmodelle (LLM) sind theoretisch auch auf Prozessoren ausführbar, momentan ab viel zu langsam. LLMs wie bspw. LLama von Meta laufen auf lokalen Systemen mit mehreren NVidia-Grafikkarten, reichen aber noch nicht an die Leistung von GPT 4 heran. Entscheidend ist die Größe des Grafikspeichers (VRAM)
      Eine Ausnahme sind Mac Pro Systeme, bei denen die GPU auf bis zu 192 GB gemeinsamen Arbeitsspeicher zugreifen kann.
      Dass sich die KI-Berechnung innerhalb kurzer Zeit von der GPU auf die (AMD-)CPU verschiebt, wie im Beitrag suggeriert, kann man ausschließen.
      Es wäre AMD aber zu wünschen, dass es die Sache mit ROCm auf die Reihe bekommt, damit NVidias Dominanz gebrochen wird und KI-Leistung und VRAM zu erschwinglichen Preisen verfügbar sein wird.

    • @TheTaurus104
      @TheTaurus104 Год назад +3

      Unter Linux ist ROCm schon länger etabliert. Unter Windows wurde die Umsetzung 2023 begonnen mit dem HIP SDK samt HIP API und dem HIPIFY Tool was es bereits unter Linux gibt und mit dem man Cuda Software/Code automatisiert auf Radeons ausführen kann.
      Nach Nvidias Hopper KI Beschleunigern, kommen bereits AMDs MI Instinct Beschleuniger als stärkste Produkte am Markt.
      Weshalb AMD am 6.12 MI300 vorstellt. Für die es bereits Groß Bestellungen von Oracle und Microsoft gibt. NVIDIA ist zwar der Marktführer, das heißt aber nicht das jeder automatisch Nvidia kauft. Zumal deren Verfügbarkeit derzeit sehr schlecht ist bei Kurz und Mittelfristigen Bestellungen und viele Firmen daher bereits Alternativen in Erwägung ziehen. Die Alternative sind die Produkte von AMD.

    • @memoli801
      @memoli801 Год назад +1

      Da stellt jemand die Fragen die tatsächlich intressieren.
      Würde sagen, 1. Gen wie immer überspringen.

    • @memoli801
      @memoli801 Год назад +1

      Da stellt jemand die Fragen die tatsächlich intressieren.
      Würde sagen, 1. Gen wie immer überspringen.

  • @herbertmutzelmann877
    @herbertmutzelmann877 Год назад +6

    KI ist mega interessant. Allerdings für mich nur Lokal berechnet. Ich finde es sehr bedenklich das alles auf Server hochgeladen wird und das es den meisten Menschen schnuppe ist, alles von sich preis zu geben. Datenschutz ist im Zeitalter von KIs noch mal wichtiger, als jemals zuvor. Das Problem von lokaler Berechnung ist ja, das jemand die Modelle lokal auch verfügbar macht. Das wollen die Konzerne ja nicht. Die wollen ja weiter Daten sammeln um weiter die Modelle zu trainieren. Adobe z.b. könnte das machen, für User mit CUDA GPUs. Machen sie aber nicht. Sie monetarisieren ihre Server und generativen KIs. In Photoshop muss man sich nun Credits kaufen um die Modelle zu nutzen. Daher wird die Abhängikeit riesig werden und Lokale Berechnung leider eine Nische bzw. schlechtere Alternative.

  • @r.w178
    @r.w178 Год назад +5

    Die Apple M Prozessoren haben ja schon immer eine Neural Engine eingebaut. Das ist ja prinzipiell nix neues.

    • @S1rM0rk3
      @S1rM0rk3 Год назад

      Sogar schon seit dem A11 im iPhone X wird die Neural Engine verbaut.

    • @n3xtrem
      @n3xtrem Год назад

      trotzdem is Siri strunzdoof^^ Apple nutzt den kram mehr für Marketing als für sinnvolles zeugs.@@S1rM0rk3

    • @manut9824
      @manut9824 Год назад

      Es wird explizit x86 und Windows angesprochen

  • @svep9387
    @svep9387 Год назад +6

    Ich find das Thema spannend. Für mich dient es in Zukunft als zusätzliches Werkzeug um mir die Arbeit zu erleichtern.

  • @fly1ngsh33p7
    @fly1ngsh33p7 Год назад +3

    Ich weiß auf jeden Fall, dass ich mit nem neuen Laptop noch 2 Jahre warten sollte (statt 0,5 bis 1 Jahr wie angenommen), bis sich das durchgesetzt hat und es evtl auch was auf Linux geschafft hat (und wenn es nur effizientere Bildgenerierungen sind)...

  • @DaS-jp6wn
    @DaS-jp6wn Год назад +2

    Naja vielleicht auch bald das Ende von Grafikkarten Hersteller in Sicht. Kommt halt drauf an wer jetzt die neuen ONN-Chips produziert. Der TU Berlin ist es gelungen Optisch neurale Netzwerk Chips zu produzieren und zu testen. Er erwies sich in tests 20 mal schneller als die schnellsten Chips wo mit Elektronen Funktionieren und verbraucht 100 mal weniger Energie. Und es soll sehr einfach sein, jene Steigerung zu erreichen. Da für den Prototyp nur bereits gängige Verfahren verwendet wurden geht man davon aus das in einigen Jahren ONN Chips bereits in Masse gefertigt werden. Nehme ich mal eine 80 Terraflop Grafikkarte dann wäre eine Steigerung von 2000 schon 160 Petaflops also nicht weit entfernt vom momentan offiziell schnellstem Superrechner wo 1100 Petaflops hat. Und das bis in ein paar Jahren in der Masse - Wow. Man könnte schon anfangen ein neues Zeitalter zu benennen, davor hatten wir das Elektronenrechner Zeitalter jetzt kommt das Lichtrechner Zeitalter

  • @Dancel_Qeyt
    @Dancel_Qeyt Год назад +2

    @minute 6.52 wenn KI prozessoren einen einfacheren aufbau als jetzige prozessoren haben müssen bekommen wir dann ALTE hardware mit KI unterstützung neu und teuer verkauft??
    das wäre sehr traurig.

    • @RechtschreibrichterReiner
      @RechtschreibrichterReiner Год назад

      Nein auf keinen Fall. Z.B. die Ryzen 7040 Reihe ist die modernste Mobile CPU Reihe auf dem Markt sowohl in puncto Strukturgröße (4nm) und dadurch auch Energieffizienz.

    • @RechtschreibrichterReiner
      @RechtschreibrichterReiner Год назад

      Was damit gemeint ist, ist dass KI Prozessoren wie schon erwähnt eher Ja/Nein Aufgaben lösen müssen und daher dahingehend optimiert sind.
      Mit einem normalen CPU rechenkern würde für solche Rechenaufgaben viel zu viel Zeit und Leistungsressourcen verschwenden, da diese eher aufs Rechnen mit Zahlen ausgelegt und optimiert sind. Es geht also nicht darum alte Technik irgendwo reinzubauen und als neu zu verkaufen, sondern viel eher darum die CPU MODULARER aufzubauen und für verschiedene Aufgaben verschiedene „Expertenbereiche“ in der CPU zu haben sodass man verschiede Arbeitspakete in die jeweilige Spezialabteilung der CPU schieben kann.

    • @svep9387
      @svep9387 Год назад

      Nein, hat er doch gesagt. Es sind neue Prozessoren mit Zusatzfunktion (KI-Engine). Mit der Zusatzfunktion kannst du dann KI-Dienste, das heißt neue Funktionen innerhalb von Office benutzen. Du kannst dann zum Beispiel die Zusatzfunktion für die Textzusammenfassung benutzen. Ich hoffe das war verständlicher.

    • @RechtschreibrichterReiner
      @RechtschreibrichterReiner Год назад

      @@svep9387 Gut erklärt!
      Ich finde es nachvollziehbar, dass man bei dem ganzen "KI" Werbegepeitsche den Überblick verliert. Mir zumindest hängt das Wort KI zumindest langsam echt zum Halse raus, zumal es sich meistens bei "KI" eh nur um "Smarte" Algorithmen handelt..

    • @Speerhart
      @Speerhart Год назад

      Alte Hardware kann KI nicht unterstützen. Es benötigt eine Neue Architektur dafür.
      Ich denke, deine Frage zielt darauf ab, ob wir schwache Hardware mit KI Unterstützung für gleiches Geld wie teure Hardware verkauft bekommen.
      Sagen wir mal so, wenn eine günstiger produzierte Grafikkarte mit KI die gleichen Ergebnisse liefert, wie eine teure ohne KI, sind sie dann nicht das gleiche Wert?
      Denn KI Entwicklung ist nicht kostenlos.

  • @BerndKoeln
    @BerndKoeln Год назад +4

    Und in 10 Jahren klopft der Terminator an eure Tür 😂

    • @herbertmutzelmann877
      @herbertmutzelmann877 Год назад

      Sehr wahrscheinlich sogar. Leider. Der Ukrainekrieg befeuert die KI im millitärischen Bereich ungemein. Bekommt davon nur sehr wenig mit. Also den Smily müsstest du gegen einen weinenden eventuell tauschen.

  • @JanosKehl
    @JanosKehl Год назад

    Schön gemacht und erklärt Jens. 💪 Wegen dir würde man auch wieder "Fernsehen" schauen wenn du Galileo moderierst. 😁

  • @JoniWillsWissen
    @JoniWillsWissen Год назад +5

    Uff, was eine Negativstimmung in den Kommentaren, teilweise berechtigt, teilweise aus der Luft gegriffen weil man etwas nicht mag. :/

  • @fano72
    @fano72 9 месяцев назад

    Klasse Zusammenfassung zum Thema. Ich habe das KI thema bisher recht skeptisch betrachtet, vielleicht weil ich ziemlich gut bescheid weiß, wie es funktioniert. Auf dein Video bin ich während der Recherche nach amd mini PCs gestoßen. Dabei kam die Frage auf, ob im neuen PC ein AI Prozessor rein sollte. Ich wurde das derzeit für mich eher mit nein beantworten, da ich es eh kaum nutzen könnte. Wobei ich bisher auch noch kein Windows 11 hatte. Frage mich, wie man die AI Beschleunigung nutzt als Entwickler. Gibt es speziellen Befehlssatz oder APIs? Was mit Java Unterstützung? Spannende Fragen, oder?

  • @spoity23
    @spoity23 Год назад +1

    Ja alles braucht meist 1-2 jahre bis die Kinderkrankheiten angegangen wurden und es auch preislich besser aber wenn du eine arbeit hast die du dabei Ki benutzt ist es immer gut die Daten unter kontrolle zu haben

  • @blackseals8118
    @blackseals8118 Год назад

    Vera.... muss ich mir merken xD Spaß 😂 Das mit KI soll einen in Zukunft auch sehr entlasten. Manche Software auf den Smartphones sind mittlerweile schon gut fortgeschritten und bieten auch KI Beschleunigung an. Therotisch also nichts neues Aber sehr interessant für den Homegebrauch :) Nettes Video du Knuddelchen. Ich drück dich mal :D

  • @AlterAccountKaiDuda
    @AlterAccountKaiDuda Год назад +1

    Vielleicht kann es aktuell nur AMD, aber wer sagt denn das Intel nicht nachzieht ??? Aber wäre es nicht sinnvoller eine separate PCI E Karte für ein Standard PC mit PCI E Steckplatz ab 3.0 ???

  • @enrico307
    @enrico307 Год назад +3

    _Mir gefällt es nicht, dass jeder CPU-Entwicker, sein eigenes Feature-Süppchen kochen muss._

  • @sosiehtesaus2652
    @sosiehtesaus2652 Год назад

    Microsoft sollte erstmal ein einigermaßen modernes Menü oder mal eine stabile Bluetooth Verbindung, Spracherkennung usw hinbekommen bevor die sich Gedanken über ki-lösungen machen

  • @FTzFL
    @FTzFL Год назад +4

    KI ist schon geil, doch im Fall von Microsoft völlig daneben!
    Wenn ich mir Windows10 aber auch Windows11 anschaue dann sind da Apps drin die ich nicht nutze aber auch nicht einfach raus werfen kann.
    Z.b. Edge oder auch YourPhone und erst recht die Fotos App, sind für mich Überflüssig aber Microsoft lässt mich diese rund 1,5 Gigabyte nicht entfernen.
    Das wird leider auch mit der KI nicht besser werden!
    Also in soweit eine gute Idee von AMD die KI Kerne einzubauen, doch mit Microsoft hat AMD zwar einen großen aber auch falschen Partner!

  • @mullewap6670
    @mullewap6670 Год назад

    Es gibt aber einen kleinen Fehler. Ki sollte Kreativität in Programmen fördern. Bis jetzt blickt sie noch nicht einmal richtig, was man eigentlich richtig schreiben will,noch denkt.

  • @memoli801
    @memoli801 Год назад

    Danke für den Imput.
    Dann muss ich auf das Feature nicht mehr warten für mein Aufrüssten.
    Von der KI in den neuen Ryzen 8k ist schon eine Weile die rede, nur konnte ich mir nicht ausdenken für was ich das brauche.
    Aber jetzt weiss ich es, für garnicht!!!
    Den Scheiss lieber sparen, kühler laufen lassen und günstiger verkaufen!
    AI wird nicht nur bald in jeder Grafikkarte sein die alle 3-4 Jahre gewechselt wird, sondern wird die integrierte schon stark veraltet sein bis diese Einheit endlich zum Zug kommt. Beispiel EarlyAdapter MS Copilot

  • @Sh4ngr1L4
    @Sh4ngr1L4 Год назад

    Sry, aber die aktuelle Ki ist erstmal nur ein komplexes Sieb, und keine echte Ki. Bin ich der einzige der so denkt?

  • @Scanix90
    @Scanix90 Год назад +1

    Meine Güte… die Kommentare hier sind ja „speziell“…
    Nur weil ein Prozessor Hardwareseitig eine KI Unterstützung bietet wird man noch lange nicht damit ausgeschnüffelt. Nur profitieren gewisse Programme eben extrem davon.
    Ja Microsoft könnte da etwas einbauen, dann nutzt es halt nicht.
    Panikmache ist heutzutage echt der Standard hm?

    • @DerDolce
      @DerDolce Год назад

      Ja die Kommentare sind teils…
      Das Problem ist aber, nur weil man z.B. Copilot nicht nutzten möchte ist es trotzdem installiert und der Dienst wird von Windows im Hintergrund ausgeführt. Und welche Telemetry Daten er sammeln wird ist noch unklar..

    • @Scanix90
      @Scanix90 Год назад

      @@DerDolce in der Regel kann man das aber auch alles deaktivieren. Alternativ kann man sensible Daten auch unter Linux verwalten

    • @DerDolce
      @DerDolce Год назад

      @@Scanix90 Kommt auch wieder darauf an wie.
      Ich vermute in der Home Variante wird es hoffentlich einen Schalter geben, teils Dienste laufen allerdings dennoch weiter.
      Über die Reg. ist es vielleicht ein bisschen riskant wegen Updates.
      Und bei Linux gebe ich dir Recht, aber denkst du dass normale Consumer welche Anwender sind eine Linux distro installieren werden?

  • @Metrojakk
    @Metrojakk Год назад +2

    Interessant aber das wird erstmal ein Flop. der Sache traut erstmal niemand

    • @Scanix90
      @Scanix90 Год назад

      Was genau soll man denn misstrauen? Misstraust du auch deinem normalen CPU Core?

    • @Metrojakk
      @Metrojakk Год назад

      @@Scanix90 wahrscheinlich ist es misstrauen durch Unkenntnis, für mich hört sich das sehr suspekt an . Ich denke nicht das ich möchte das eine ku mir sagt was am besten für mein verhalten am pc ist, aber abwarten ich muss ja auf den Zug nicht aufspringen 👍✌️

  • @leonprutsch2805
    @leonprutsch2805 Год назад +2

    KI benutze ich nicht

  • @thomasgessert8518
    @thomasgessert8518 Год назад +1

    Damit das Ganze voran geht, müsste endlich DirectML oder eine ähnliche Bibliothek in Windows für verschiedene Hardware nutzbar sein. Was hilft es, wenn wieder jeder Hardwarehersteller seine eigene Variante bringt? Die Coral TPU gibt es schon lange, aber sie wird nur durch Tensorflow Lite unterstützt. Wie viele Modelle gibt es, um dies zu nutzen? Der Vorteil der CPU mit AI Engines ist, das schnell eine hohe Marktdurchdringung erreicht wird. Bis die sinnvoll und breit genutzt werden, sind sie aber wahrscheinlich zu langsam. Apple hat es da einfacher, die programmieren ihr OS selbst, da lassen sich schneller AI Anwendungen umsetzen.

  • @Spoon1983
    @Spoon1983 Год назад

    das gehirn vom t800 is von amd? hätte doch investieren sollen!🤣

  • @Soldier828
    @Soldier828 Год назад +1

    Wie hilft nun AI bei Cloud Gaming, bzw. damit man kein Cloud Gaming mehr braucht? Der Punkt wurde angesprochen und nicht beantwortet.

  • @mullewap6670
    @mullewap6670 Год назад

    Ist das Vera? Ne,Karl. 😅

  • @giangonice7613
    @giangonice7613 6 месяцев назад

    Dieser beitrag war sinnlos und zeitverschwendung.
    Keine Erklärung wie das funktioniert und warum amd und nicht die anderen.
    Das video war kurz gesagt "kauf amd"😂

  • @horstbrei1717
    @horstbrei1717 Год назад +4

    Schön, dann werden wir über ki ausgeschnüffelt usw..

    • @Knubz
      @Knubz Год назад +1

      Blödsinn

    • @horstbrei1717
      @horstbrei1717 Год назад

      @@Knubz Träume weiter. Schauen wir mal wer Recht behält.

    • @richardk.4502
      @richardk.4502 Год назад +1

      Das funktioniert heute schon wunderbar, dafür brauchst du keine KI

    • @johncena7030
      @johncena7030 Год назад

      @@horstbrei1717warum sollte man kl brauchen um deine daten zu sammeln. Das macht überhaupt gar keinen Sinn

    • @horstbrei1717
      @horstbrei1717 Год назад

      @@johncena7030 Das Stimmt. Es geht heute schon ohne Probleme. Aber mit Ki ist viel mehr möglich.

  • @mullewap6670
    @mullewap6670 Год назад

    Aber wird schon.

  • @notbie1
    @notbie1 Год назад

    ki denkt für dich, handelt für dich, für was braucht man dich noch ?????????????????????????

  • @mullewap6670
    @mullewap6670 Год назад

    Aber klingt durchaus attraktiv.

  • @manut9824
    @manut9824 Год назад

    Endlich mal kein intel oder nvidia Marketing müll2. Amd is auch mal dran mit Marketing 😂 obs nun was taugt oder ob die intel cpu nich auch effizient genug ki berechnen kann sei dahin gestellt. Ich fand das video zumindestens nicht so schlecht wie hier manche leute reagieren. Die meisten nutzen win doof weil sie es brauchen oder müssen....aber is mal interessant zu wissen...gibt eigebtlich reine windows oder microsoft fanboys so wie bei apple?

  • @MeyerWerner
    @MeyerWerner Год назад

    Können wir auf besser Video auf RUclips mit KI rechnen🤔 nein! Denn es braucht denn Menschen noch dazu, als können wir auch lächerlichsten Video ausgehen denn die werden so abstrus sein das haste nicht gesehen🤣🤣🤣🤣

    • @manut9824
      @manut9824 Год назад

      Dein Satzbau braucht AI, dringend.

  • @Powerman1979
    @Powerman1979 Год назад

    Ehrlich gesagt, bin alter Hase und bleib ein alter Hase, das heißt KI ist mir schnuppe. 😆

  • @dr.mortal2894
    @dr.mortal2894 Год назад

    Und nicht allsbald wird man dann auch merken, das Der Datenschutz komplett flöten geht. NEIN DANKE😡