Für mich war dieser Betrag nicht wirklich informativ. Was ich gerne gewusst hätte: 1. Welche Voraussetzungen müssen Programme (zB chatGPT, MSpilot usw) erfüllen um diese KI-Prozessoren zu nutzen. Und wer erfüllt diese Voraussetzungen bereits. 2. Wie gross (ungefähr) müsste die Anzahl KI-Prozessoren sein um zB ChatGPT lokal laufen zu lassen. Welche Mikrochips erüllen heute diese (minimal Grösse) 3. wie ist die Abgrenzung gegenüber Nivida-Techologie (GPU + Software) oder mit andern Worten: Soll ich diese technologie HEUTE kaufen und vorallem: wozu genau.
Da in dem Beitrag quasi alles was relevant ist unterschlagen wird: Bisher laufen KI-Anwendungen hauptsächlich auf NVidia-Grafikprozessoren. Hochleistungs-KI-Chips in Rechenzentren sind in der Regel nichts anderes als Grafikchips (GPUs). GPUs erlauben im Vergleich zu CPUs die massiv parallele Verarbeitung von Daten. Diese Verarbeitung sind einfache Additionen/Multiplikationen. NVidia ist hier marktbeherrschend, da es für parallele Berechnungen auf der GPU die CUDA-Bibliothek bereitstellt. Diese Bibliothek wird wiederum von vielen KI-Bibliotheken benutzt. Die alternative Bibliothek ROCm von AMD konnte sich bisher noch nicht etablieren. Text2Image-KI läuft mittlerweile auch auf AMD-Karten. Große Open-Source Sprachmodelle (LLM) sind theoretisch auch auf Prozessoren ausführbar, momentan ab viel zu langsam. LLMs wie bspw. LLama von Meta laufen auf lokalen Systemen mit mehreren NVidia-Grafikkarten, reichen aber noch nicht an die Leistung von GPT 4 heran. Entscheidend ist die Größe des Grafikspeichers (VRAM) Eine Ausnahme sind Mac Pro Systeme, bei denen die GPU auf bis zu 192 GB gemeinsamen Arbeitsspeicher zugreifen kann. Dass sich die KI-Berechnung innerhalb kurzer Zeit von der GPU auf die (AMD-)CPU verschiebt, wie im Beitrag suggeriert, kann man ausschließen. Es wäre AMD aber zu wünschen, dass es die Sache mit ROCm auf die Reihe bekommt, damit NVidias Dominanz gebrochen wird und KI-Leistung und VRAM zu erschwinglichen Preisen verfügbar sein wird.
Unter Linux ist ROCm schon länger etabliert. Unter Windows wurde die Umsetzung 2023 begonnen mit dem HIP SDK samt HIP API und dem HIPIFY Tool was es bereits unter Linux gibt und mit dem man Cuda Software/Code automatisiert auf Radeons ausführen kann. Nach Nvidias Hopper KI Beschleunigern, kommen bereits AMDs MI Instinct Beschleuniger als stärkste Produkte am Markt. Weshalb AMD am 6.12 MI300 vorstellt. Für die es bereits Groß Bestellungen von Oracle und Microsoft gibt. NVIDIA ist zwar der Marktführer, das heißt aber nicht das jeder automatisch Nvidia kauft. Zumal deren Verfügbarkeit derzeit sehr schlecht ist bei Kurz und Mittelfristigen Bestellungen und viele Firmen daher bereits Alternativen in Erwägung ziehen. Die Alternative sind die Produkte von AMD.
KI ist mega interessant. Allerdings für mich nur Lokal berechnet. Ich finde es sehr bedenklich das alles auf Server hochgeladen wird und das es den meisten Menschen schnuppe ist, alles von sich preis zu geben. Datenschutz ist im Zeitalter von KIs noch mal wichtiger, als jemals zuvor. Das Problem von lokaler Berechnung ist ja, das jemand die Modelle lokal auch verfügbar macht. Das wollen die Konzerne ja nicht. Die wollen ja weiter Daten sammeln um weiter die Modelle zu trainieren. Adobe z.b. könnte das machen, für User mit CUDA GPUs. Machen sie aber nicht. Sie monetarisieren ihre Server und generativen KIs. In Photoshop muss man sich nun Credits kaufen um die Modelle zu nutzen. Daher wird die Abhängikeit riesig werden und Lokale Berechnung leider eine Nische bzw. schlechtere Alternative.
Ich weiß auf jeden Fall, dass ich mit nem neuen Laptop noch 2 Jahre warten sollte (statt 0,5 bis 1 Jahr wie angenommen), bis sich das durchgesetzt hat und es evtl auch was auf Linux geschafft hat (und wenn es nur effizientere Bildgenerierungen sind)...
Naja vielleicht auch bald das Ende von Grafikkarten Hersteller in Sicht. Kommt halt drauf an wer jetzt die neuen ONN-Chips produziert. Der TU Berlin ist es gelungen Optisch neurale Netzwerk Chips zu produzieren und zu testen. Er erwies sich in tests 20 mal schneller als die schnellsten Chips wo mit Elektronen Funktionieren und verbraucht 100 mal weniger Energie. Und es soll sehr einfach sein, jene Steigerung zu erreichen. Da für den Prototyp nur bereits gängige Verfahren verwendet wurden geht man davon aus das in einigen Jahren ONN Chips bereits in Masse gefertigt werden. Nehme ich mal eine 80 Terraflop Grafikkarte dann wäre eine Steigerung von 2000 schon 160 Petaflops also nicht weit entfernt vom momentan offiziell schnellstem Superrechner wo 1100 Petaflops hat. Und das bis in ein paar Jahren in der Masse - Wow. Man könnte schon anfangen ein neues Zeitalter zu benennen, davor hatten wir das Elektronenrechner Zeitalter jetzt kommt das Lichtrechner Zeitalter
@minute 6.52 wenn KI prozessoren einen einfacheren aufbau als jetzige prozessoren haben müssen bekommen wir dann ALTE hardware mit KI unterstützung neu und teuer verkauft?? das wäre sehr traurig.
Nein auf keinen Fall. Z.B. die Ryzen 7040 Reihe ist die modernste Mobile CPU Reihe auf dem Markt sowohl in puncto Strukturgröße (4nm) und dadurch auch Energieffizienz.
Was damit gemeint ist, ist dass KI Prozessoren wie schon erwähnt eher Ja/Nein Aufgaben lösen müssen und daher dahingehend optimiert sind. Mit einem normalen CPU rechenkern würde für solche Rechenaufgaben viel zu viel Zeit und Leistungsressourcen verschwenden, da diese eher aufs Rechnen mit Zahlen ausgelegt und optimiert sind. Es geht also nicht darum alte Technik irgendwo reinzubauen und als neu zu verkaufen, sondern viel eher darum die CPU MODULARER aufzubauen und für verschiedene Aufgaben verschiedene „Expertenbereiche“ in der CPU zu haben sodass man verschiede Arbeitspakete in die jeweilige Spezialabteilung der CPU schieben kann.
Nein, hat er doch gesagt. Es sind neue Prozessoren mit Zusatzfunktion (KI-Engine). Mit der Zusatzfunktion kannst du dann KI-Dienste, das heißt neue Funktionen innerhalb von Office benutzen. Du kannst dann zum Beispiel die Zusatzfunktion für die Textzusammenfassung benutzen. Ich hoffe das war verständlicher.
@@svep9387 Gut erklärt! Ich finde es nachvollziehbar, dass man bei dem ganzen "KI" Werbegepeitsche den Überblick verliert. Mir zumindest hängt das Wort KI zumindest langsam echt zum Halse raus, zumal es sich meistens bei "KI" eh nur um "Smarte" Algorithmen handelt..
Alte Hardware kann KI nicht unterstützen. Es benötigt eine Neue Architektur dafür. Ich denke, deine Frage zielt darauf ab, ob wir schwache Hardware mit KI Unterstützung für gleiches Geld wie teure Hardware verkauft bekommen. Sagen wir mal so, wenn eine günstiger produzierte Grafikkarte mit KI die gleichen Ergebnisse liefert, wie eine teure ohne KI, sind sie dann nicht das gleiche Wert? Denn KI Entwicklung ist nicht kostenlos.
Sehr wahrscheinlich sogar. Leider. Der Ukrainekrieg befeuert die KI im millitärischen Bereich ungemein. Bekommt davon nur sehr wenig mit. Also den Smily müsstest du gegen einen weinenden eventuell tauschen.
Klasse Zusammenfassung zum Thema. Ich habe das KI thema bisher recht skeptisch betrachtet, vielleicht weil ich ziemlich gut bescheid weiß, wie es funktioniert. Auf dein Video bin ich während der Recherche nach amd mini PCs gestoßen. Dabei kam die Frage auf, ob im neuen PC ein AI Prozessor rein sollte. Ich wurde das derzeit für mich eher mit nein beantworten, da ich es eh kaum nutzen könnte. Wobei ich bisher auch noch kein Windows 11 hatte. Frage mich, wie man die AI Beschleunigung nutzt als Entwickler. Gibt es speziellen Befehlssatz oder APIs? Was mit Java Unterstützung? Spannende Fragen, oder?
Ja alles braucht meist 1-2 jahre bis die Kinderkrankheiten angegangen wurden und es auch preislich besser aber wenn du eine arbeit hast die du dabei Ki benutzt ist es immer gut die Daten unter kontrolle zu haben
Vera.... muss ich mir merken xD Spaß 😂 Das mit KI soll einen in Zukunft auch sehr entlasten. Manche Software auf den Smartphones sind mittlerweile schon gut fortgeschritten und bieten auch KI Beschleunigung an. Therotisch also nichts neues Aber sehr interessant für den Homegebrauch :) Nettes Video du Knuddelchen. Ich drück dich mal :D
Vielleicht kann es aktuell nur AMD, aber wer sagt denn das Intel nicht nachzieht ??? Aber wäre es nicht sinnvoller eine separate PCI E Karte für ein Standard PC mit PCI E Steckplatz ab 3.0 ???
Microsoft sollte erstmal ein einigermaßen modernes Menü oder mal eine stabile Bluetooth Verbindung, Spracherkennung usw hinbekommen bevor die sich Gedanken über ki-lösungen machen
KI ist schon geil, doch im Fall von Microsoft völlig daneben! Wenn ich mir Windows10 aber auch Windows11 anschaue dann sind da Apps drin die ich nicht nutze aber auch nicht einfach raus werfen kann. Z.b. Edge oder auch YourPhone und erst recht die Fotos App, sind für mich Überflüssig aber Microsoft lässt mich diese rund 1,5 Gigabyte nicht entfernen. Das wird leider auch mit der KI nicht besser werden! Also in soweit eine gute Idee von AMD die KI Kerne einzubauen, doch mit Microsoft hat AMD zwar einen großen aber auch falschen Partner!
Es gibt aber einen kleinen Fehler. Ki sollte Kreativität in Programmen fördern. Bis jetzt blickt sie noch nicht einmal richtig, was man eigentlich richtig schreiben will,noch denkt.
Danke für den Imput. Dann muss ich auf das Feature nicht mehr warten für mein Aufrüssten. Von der KI in den neuen Ryzen 8k ist schon eine Weile die rede, nur konnte ich mir nicht ausdenken für was ich das brauche. Aber jetzt weiss ich es, für garnicht!!! Den Scheiss lieber sparen, kühler laufen lassen und günstiger verkaufen! AI wird nicht nur bald in jeder Grafikkarte sein die alle 3-4 Jahre gewechselt wird, sondern wird die integrierte schon stark veraltet sein bis diese Einheit endlich zum Zug kommt. Beispiel EarlyAdapter MS Copilot
Meine Güte… die Kommentare hier sind ja „speziell“… Nur weil ein Prozessor Hardwareseitig eine KI Unterstützung bietet wird man noch lange nicht damit ausgeschnüffelt. Nur profitieren gewisse Programme eben extrem davon. Ja Microsoft könnte da etwas einbauen, dann nutzt es halt nicht. Panikmache ist heutzutage echt der Standard hm?
Ja die Kommentare sind teils… Das Problem ist aber, nur weil man z.B. Copilot nicht nutzten möchte ist es trotzdem installiert und der Dienst wird von Windows im Hintergrund ausgeführt. Und welche Telemetry Daten er sammeln wird ist noch unklar..
@@Scanix90 Kommt auch wieder darauf an wie. Ich vermute in der Home Variante wird es hoffentlich einen Schalter geben, teils Dienste laufen allerdings dennoch weiter. Über die Reg. ist es vielleicht ein bisschen riskant wegen Updates. Und bei Linux gebe ich dir Recht, aber denkst du dass normale Consumer welche Anwender sind eine Linux distro installieren werden?
@@Scanix90 wahrscheinlich ist es misstrauen durch Unkenntnis, für mich hört sich das sehr suspekt an . Ich denke nicht das ich möchte das eine ku mir sagt was am besten für mein verhalten am pc ist, aber abwarten ich muss ja auf den Zug nicht aufspringen 👍✌️
Damit das Ganze voran geht, müsste endlich DirectML oder eine ähnliche Bibliothek in Windows für verschiedene Hardware nutzbar sein. Was hilft es, wenn wieder jeder Hardwarehersteller seine eigene Variante bringt? Die Coral TPU gibt es schon lange, aber sie wird nur durch Tensorflow Lite unterstützt. Wie viele Modelle gibt es, um dies zu nutzen? Der Vorteil der CPU mit AI Engines ist, das schnell eine hohe Marktdurchdringung erreicht wird. Bis die sinnvoll und breit genutzt werden, sind sie aber wahrscheinlich zu langsam. Apple hat es da einfacher, die programmieren ihr OS selbst, da lassen sich schneller AI Anwendungen umsetzen.
Dieser beitrag war sinnlos und zeitverschwendung. Keine Erklärung wie das funktioniert und warum amd und nicht die anderen. Das video war kurz gesagt "kauf amd"😂
Endlich mal kein intel oder nvidia Marketing müll2. Amd is auch mal dran mit Marketing 😂 obs nun was taugt oder ob die intel cpu nich auch effizient genug ki berechnen kann sei dahin gestellt. Ich fand das video zumindestens nicht so schlecht wie hier manche leute reagieren. Die meisten nutzen win doof weil sie es brauchen oder müssen....aber is mal interessant zu wissen...gibt eigebtlich reine windows oder microsoft fanboys so wie bei apple?
Können wir auf besser Video auf RUclips mit KI rechnen🤔 nein! Denn es braucht denn Menschen noch dazu, als können wir auch lächerlichsten Video ausgehen denn die werden so abstrus sein das haste nicht gesehen🤣🤣🤣🤣
Für mich war dieser Betrag nicht wirklich informativ. Was ich gerne gewusst hätte:
1. Welche Voraussetzungen müssen Programme (zB chatGPT, MSpilot usw) erfüllen um diese KI-Prozessoren zu nutzen.
Und wer erfüllt diese Voraussetzungen bereits.
2. Wie gross (ungefähr) müsste die Anzahl KI-Prozessoren sein um zB ChatGPT lokal laufen zu lassen. Welche Mikrochips erüllen heute diese (minimal Grösse)
3. wie ist die Abgrenzung gegenüber Nivida-Techologie (GPU + Software)
oder mit andern Worten:
Soll ich diese technologie HEUTE kaufen und vorallem: wozu genau.
Da in dem Beitrag quasi alles was relevant ist unterschlagen wird:
Bisher laufen KI-Anwendungen hauptsächlich auf NVidia-Grafikprozessoren. Hochleistungs-KI-Chips in Rechenzentren sind in der Regel nichts anderes als Grafikchips (GPUs).
GPUs erlauben im Vergleich zu CPUs die massiv parallele Verarbeitung von Daten. Diese Verarbeitung sind einfache Additionen/Multiplikationen.
NVidia ist hier marktbeherrschend, da es für parallele Berechnungen auf der GPU die CUDA-Bibliothek bereitstellt. Diese Bibliothek wird wiederum von vielen KI-Bibliotheken benutzt. Die alternative Bibliothek ROCm von AMD konnte sich bisher noch nicht etablieren.
Text2Image-KI läuft mittlerweile auch auf AMD-Karten.
Große Open-Source Sprachmodelle (LLM) sind theoretisch auch auf Prozessoren ausführbar, momentan ab viel zu langsam. LLMs wie bspw. LLama von Meta laufen auf lokalen Systemen mit mehreren NVidia-Grafikkarten, reichen aber noch nicht an die Leistung von GPT 4 heran. Entscheidend ist die Größe des Grafikspeichers (VRAM)
Eine Ausnahme sind Mac Pro Systeme, bei denen die GPU auf bis zu 192 GB gemeinsamen Arbeitsspeicher zugreifen kann.
Dass sich die KI-Berechnung innerhalb kurzer Zeit von der GPU auf die (AMD-)CPU verschiebt, wie im Beitrag suggeriert, kann man ausschließen.
Es wäre AMD aber zu wünschen, dass es die Sache mit ROCm auf die Reihe bekommt, damit NVidias Dominanz gebrochen wird und KI-Leistung und VRAM zu erschwinglichen Preisen verfügbar sein wird.
Unter Linux ist ROCm schon länger etabliert. Unter Windows wurde die Umsetzung 2023 begonnen mit dem HIP SDK samt HIP API und dem HIPIFY Tool was es bereits unter Linux gibt und mit dem man Cuda Software/Code automatisiert auf Radeons ausführen kann.
Nach Nvidias Hopper KI Beschleunigern, kommen bereits AMDs MI Instinct Beschleuniger als stärkste Produkte am Markt.
Weshalb AMD am 6.12 MI300 vorstellt. Für die es bereits Groß Bestellungen von Oracle und Microsoft gibt. NVIDIA ist zwar der Marktführer, das heißt aber nicht das jeder automatisch Nvidia kauft. Zumal deren Verfügbarkeit derzeit sehr schlecht ist bei Kurz und Mittelfristigen Bestellungen und viele Firmen daher bereits Alternativen in Erwägung ziehen. Die Alternative sind die Produkte von AMD.
Da stellt jemand die Fragen die tatsächlich intressieren.
Würde sagen, 1. Gen wie immer überspringen.
Da stellt jemand die Fragen die tatsächlich intressieren.
Würde sagen, 1. Gen wie immer überspringen.
KI ist mega interessant. Allerdings für mich nur Lokal berechnet. Ich finde es sehr bedenklich das alles auf Server hochgeladen wird und das es den meisten Menschen schnuppe ist, alles von sich preis zu geben. Datenschutz ist im Zeitalter von KIs noch mal wichtiger, als jemals zuvor. Das Problem von lokaler Berechnung ist ja, das jemand die Modelle lokal auch verfügbar macht. Das wollen die Konzerne ja nicht. Die wollen ja weiter Daten sammeln um weiter die Modelle zu trainieren. Adobe z.b. könnte das machen, für User mit CUDA GPUs. Machen sie aber nicht. Sie monetarisieren ihre Server und generativen KIs. In Photoshop muss man sich nun Credits kaufen um die Modelle zu nutzen. Daher wird die Abhängikeit riesig werden und Lokale Berechnung leider eine Nische bzw. schlechtere Alternative.
Die Apple M Prozessoren haben ja schon immer eine Neural Engine eingebaut. Das ist ja prinzipiell nix neues.
Sogar schon seit dem A11 im iPhone X wird die Neural Engine verbaut.
trotzdem is Siri strunzdoof^^ Apple nutzt den kram mehr für Marketing als für sinnvolles zeugs.@@S1rM0rk3
Es wird explizit x86 und Windows angesprochen
Ich find das Thema spannend. Für mich dient es in Zukunft als zusätzliches Werkzeug um mir die Arbeit zu erleichtern.
Ich weiß auf jeden Fall, dass ich mit nem neuen Laptop noch 2 Jahre warten sollte (statt 0,5 bis 1 Jahr wie angenommen), bis sich das durchgesetzt hat und es evtl auch was auf Linux geschafft hat (und wenn es nur effizientere Bildgenerierungen sind)...
Naja vielleicht auch bald das Ende von Grafikkarten Hersteller in Sicht. Kommt halt drauf an wer jetzt die neuen ONN-Chips produziert. Der TU Berlin ist es gelungen Optisch neurale Netzwerk Chips zu produzieren und zu testen. Er erwies sich in tests 20 mal schneller als die schnellsten Chips wo mit Elektronen Funktionieren und verbraucht 100 mal weniger Energie. Und es soll sehr einfach sein, jene Steigerung zu erreichen. Da für den Prototyp nur bereits gängige Verfahren verwendet wurden geht man davon aus das in einigen Jahren ONN Chips bereits in Masse gefertigt werden. Nehme ich mal eine 80 Terraflop Grafikkarte dann wäre eine Steigerung von 2000 schon 160 Petaflops also nicht weit entfernt vom momentan offiziell schnellstem Superrechner wo 1100 Petaflops hat. Und das bis in ein paar Jahren in der Masse - Wow. Man könnte schon anfangen ein neues Zeitalter zu benennen, davor hatten wir das Elektronenrechner Zeitalter jetzt kommt das Lichtrechner Zeitalter
@minute 6.52 wenn KI prozessoren einen einfacheren aufbau als jetzige prozessoren haben müssen bekommen wir dann ALTE hardware mit KI unterstützung neu und teuer verkauft??
das wäre sehr traurig.
Nein auf keinen Fall. Z.B. die Ryzen 7040 Reihe ist die modernste Mobile CPU Reihe auf dem Markt sowohl in puncto Strukturgröße (4nm) und dadurch auch Energieffizienz.
Was damit gemeint ist, ist dass KI Prozessoren wie schon erwähnt eher Ja/Nein Aufgaben lösen müssen und daher dahingehend optimiert sind.
Mit einem normalen CPU rechenkern würde für solche Rechenaufgaben viel zu viel Zeit und Leistungsressourcen verschwenden, da diese eher aufs Rechnen mit Zahlen ausgelegt und optimiert sind. Es geht also nicht darum alte Technik irgendwo reinzubauen und als neu zu verkaufen, sondern viel eher darum die CPU MODULARER aufzubauen und für verschiedene Aufgaben verschiedene „Expertenbereiche“ in der CPU zu haben sodass man verschiede Arbeitspakete in die jeweilige Spezialabteilung der CPU schieben kann.
Nein, hat er doch gesagt. Es sind neue Prozessoren mit Zusatzfunktion (KI-Engine). Mit der Zusatzfunktion kannst du dann KI-Dienste, das heißt neue Funktionen innerhalb von Office benutzen. Du kannst dann zum Beispiel die Zusatzfunktion für die Textzusammenfassung benutzen. Ich hoffe das war verständlicher.
@@svep9387 Gut erklärt!
Ich finde es nachvollziehbar, dass man bei dem ganzen "KI" Werbegepeitsche den Überblick verliert. Mir zumindest hängt das Wort KI zumindest langsam echt zum Halse raus, zumal es sich meistens bei "KI" eh nur um "Smarte" Algorithmen handelt..
Alte Hardware kann KI nicht unterstützen. Es benötigt eine Neue Architektur dafür.
Ich denke, deine Frage zielt darauf ab, ob wir schwache Hardware mit KI Unterstützung für gleiches Geld wie teure Hardware verkauft bekommen.
Sagen wir mal so, wenn eine günstiger produzierte Grafikkarte mit KI die gleichen Ergebnisse liefert, wie eine teure ohne KI, sind sie dann nicht das gleiche Wert?
Denn KI Entwicklung ist nicht kostenlos.
Und in 10 Jahren klopft der Terminator an eure Tür 😂
Sehr wahrscheinlich sogar. Leider. Der Ukrainekrieg befeuert die KI im millitärischen Bereich ungemein. Bekommt davon nur sehr wenig mit. Also den Smily müsstest du gegen einen weinenden eventuell tauschen.
Schön gemacht und erklärt Jens. 💪 Wegen dir würde man auch wieder "Fernsehen" schauen wenn du Galileo moderierst. 😁
Uff, was eine Negativstimmung in den Kommentaren, teilweise berechtigt, teilweise aus der Luft gegriffen weil man etwas nicht mag. :/
Klasse Zusammenfassung zum Thema. Ich habe das KI thema bisher recht skeptisch betrachtet, vielleicht weil ich ziemlich gut bescheid weiß, wie es funktioniert. Auf dein Video bin ich während der Recherche nach amd mini PCs gestoßen. Dabei kam die Frage auf, ob im neuen PC ein AI Prozessor rein sollte. Ich wurde das derzeit für mich eher mit nein beantworten, da ich es eh kaum nutzen könnte. Wobei ich bisher auch noch kein Windows 11 hatte. Frage mich, wie man die AI Beschleunigung nutzt als Entwickler. Gibt es speziellen Befehlssatz oder APIs? Was mit Java Unterstützung? Spannende Fragen, oder?
Ja alles braucht meist 1-2 jahre bis die Kinderkrankheiten angegangen wurden und es auch preislich besser aber wenn du eine arbeit hast die du dabei Ki benutzt ist es immer gut die Daten unter kontrolle zu haben
Vera.... muss ich mir merken xD Spaß 😂 Das mit KI soll einen in Zukunft auch sehr entlasten. Manche Software auf den Smartphones sind mittlerweile schon gut fortgeschritten und bieten auch KI Beschleunigung an. Therotisch also nichts neues Aber sehr interessant für den Homegebrauch :) Nettes Video du Knuddelchen. Ich drück dich mal :D
Vielleicht kann es aktuell nur AMD, aber wer sagt denn das Intel nicht nachzieht ??? Aber wäre es nicht sinnvoller eine separate PCI E Karte für ein Standard PC mit PCI E Steckplatz ab 3.0 ???
_Mir gefällt es nicht, dass jeder CPU-Entwicker, sein eigenes Feature-Süppchen kochen muss._
Dann kauf Apple!
Microsoft sollte erstmal ein einigermaßen modernes Menü oder mal eine stabile Bluetooth Verbindung, Spracherkennung usw hinbekommen bevor die sich Gedanken über ki-lösungen machen
KI ist schon geil, doch im Fall von Microsoft völlig daneben!
Wenn ich mir Windows10 aber auch Windows11 anschaue dann sind da Apps drin die ich nicht nutze aber auch nicht einfach raus werfen kann.
Z.b. Edge oder auch YourPhone und erst recht die Fotos App, sind für mich Überflüssig aber Microsoft lässt mich diese rund 1,5 Gigabyte nicht entfernen.
Das wird leider auch mit der KI nicht besser werden!
Also in soweit eine gute Idee von AMD die KI Kerne einzubauen, doch mit Microsoft hat AMD zwar einen großen aber auch falschen Partner!
Es gibt aber einen kleinen Fehler. Ki sollte Kreativität in Programmen fördern. Bis jetzt blickt sie noch nicht einmal richtig, was man eigentlich richtig schreiben will,noch denkt.
Danke für den Imput.
Dann muss ich auf das Feature nicht mehr warten für mein Aufrüssten.
Von der KI in den neuen Ryzen 8k ist schon eine Weile die rede, nur konnte ich mir nicht ausdenken für was ich das brauche.
Aber jetzt weiss ich es, für garnicht!!!
Den Scheiss lieber sparen, kühler laufen lassen und günstiger verkaufen!
AI wird nicht nur bald in jeder Grafikkarte sein die alle 3-4 Jahre gewechselt wird, sondern wird die integrierte schon stark veraltet sein bis diese Einheit endlich zum Zug kommt. Beispiel EarlyAdapter MS Copilot
Sry, aber die aktuelle Ki ist erstmal nur ein komplexes Sieb, und keine echte Ki. Bin ich der einzige der so denkt?
Meine Güte… die Kommentare hier sind ja „speziell“…
Nur weil ein Prozessor Hardwareseitig eine KI Unterstützung bietet wird man noch lange nicht damit ausgeschnüffelt. Nur profitieren gewisse Programme eben extrem davon.
Ja Microsoft könnte da etwas einbauen, dann nutzt es halt nicht.
Panikmache ist heutzutage echt der Standard hm?
Ja die Kommentare sind teils…
Das Problem ist aber, nur weil man z.B. Copilot nicht nutzten möchte ist es trotzdem installiert und der Dienst wird von Windows im Hintergrund ausgeführt. Und welche Telemetry Daten er sammeln wird ist noch unklar..
@@DerDolce in der Regel kann man das aber auch alles deaktivieren. Alternativ kann man sensible Daten auch unter Linux verwalten
@@Scanix90 Kommt auch wieder darauf an wie.
Ich vermute in der Home Variante wird es hoffentlich einen Schalter geben, teils Dienste laufen allerdings dennoch weiter.
Über die Reg. ist es vielleicht ein bisschen riskant wegen Updates.
Und bei Linux gebe ich dir Recht, aber denkst du dass normale Consumer welche Anwender sind eine Linux distro installieren werden?
Interessant aber das wird erstmal ein Flop. der Sache traut erstmal niemand
Was genau soll man denn misstrauen? Misstraust du auch deinem normalen CPU Core?
@@Scanix90 wahrscheinlich ist es misstrauen durch Unkenntnis, für mich hört sich das sehr suspekt an . Ich denke nicht das ich möchte das eine ku mir sagt was am besten für mein verhalten am pc ist, aber abwarten ich muss ja auf den Zug nicht aufspringen 👍✌️
KI benutze ich nicht
Damit das Ganze voran geht, müsste endlich DirectML oder eine ähnliche Bibliothek in Windows für verschiedene Hardware nutzbar sein. Was hilft es, wenn wieder jeder Hardwarehersteller seine eigene Variante bringt? Die Coral TPU gibt es schon lange, aber sie wird nur durch Tensorflow Lite unterstützt. Wie viele Modelle gibt es, um dies zu nutzen? Der Vorteil der CPU mit AI Engines ist, das schnell eine hohe Marktdurchdringung erreicht wird. Bis die sinnvoll und breit genutzt werden, sind sie aber wahrscheinlich zu langsam. Apple hat es da einfacher, die programmieren ihr OS selbst, da lassen sich schneller AI Anwendungen umsetzen.
das gehirn vom t800 is von amd? hätte doch investieren sollen!🤣
Wie hilft nun AI bei Cloud Gaming, bzw. damit man kein Cloud Gaming mehr braucht? Der Punkt wurde angesprochen und nicht beantwortet.
Ist das Vera? Ne,Karl. 😅
Dieser beitrag war sinnlos und zeitverschwendung.
Keine Erklärung wie das funktioniert und warum amd und nicht die anderen.
Das video war kurz gesagt "kauf amd"😂
Schön, dann werden wir über ki ausgeschnüffelt usw..
Blödsinn
@@Knubz Träume weiter. Schauen wir mal wer Recht behält.
Das funktioniert heute schon wunderbar, dafür brauchst du keine KI
@@horstbrei1717warum sollte man kl brauchen um deine daten zu sammeln. Das macht überhaupt gar keinen Sinn
@@johncena7030 Das Stimmt. Es geht heute schon ohne Probleme. Aber mit Ki ist viel mehr möglich.
Aber wird schon.
ki denkt für dich, handelt für dich, für was braucht man dich noch ?????????????????????????
Aber klingt durchaus attraktiv.
Endlich mal kein intel oder nvidia Marketing müll2. Amd is auch mal dran mit Marketing 😂 obs nun was taugt oder ob die intel cpu nich auch effizient genug ki berechnen kann sei dahin gestellt. Ich fand das video zumindestens nicht so schlecht wie hier manche leute reagieren. Die meisten nutzen win doof weil sie es brauchen oder müssen....aber is mal interessant zu wissen...gibt eigebtlich reine windows oder microsoft fanboys so wie bei apple?
Können wir auf besser Video auf RUclips mit KI rechnen🤔 nein! Denn es braucht denn Menschen noch dazu, als können wir auch lächerlichsten Video ausgehen denn die werden so abstrus sein das haste nicht gesehen🤣🤣🤣🤣
Dein Satzbau braucht AI, dringend.
Ehrlich gesagt, bin alter Hase und bleib ein alter Hase, das heißt KI ist mir schnuppe. 😆
Und nicht allsbald wird man dann auch merken, das Der Datenschutz komplett flöten geht. NEIN DANKE😡