Problem ist hierbei halt auch die Credability des Papers, keine Zitate etc. Bzw. kann mir derzeit als Data Science Absolvent absolut nicht vorstellen, wie man ohne Matrix - Multiplikationen gute Modelle trainieren kann.
Hey, vielen Dank für deinen sehr guten Kommentar. Ich kann die credibility tatsächlich nicht einschätzen. KI muss aber effizienter werden und das quasi Monopol von Nvidia sollte dringend aufgebrochen werden. Von daher begrüße ich solche Forschungsansätze auch wenn sie sich vielleicht später als Luftnummer entpuppen.
Problem ist hierbei halt auch die Credability des Papers, keine Zitate etc. Bzw. kann mir derzeit als Data Science Absolvent absolut nicht vorstellen, wie man ohne Matrix - Multiplikationen gute Modelle trainieren kann.
Hey, vielen Dank für deinen sehr guten Kommentar. Ich kann die credibility tatsächlich nicht einschätzen. KI muss aber effizienter werden und das quasi Monopol von Nvidia sollte dringend aufgebrochen werden. Von daher begrüße ich solche Forschungsansätze auch wenn sie sich vielleicht später als Luftnummer entpuppen.
Na die Schnitt-‚AI‘ zeigt hier ja mal wieder richtig gut, wie hart der Hype gerade auf nem Plateau ist 😂
Ja, ist ja gut. Ich gelobe Besserung.
Hallo Stefan, kannst du dazu ein 'Paper' verlinken? Danke, AH
Klar: arxiv.org/abs/2406.02528
@@YesAIcan
Besten Dank!
1:52 & 2:27 // Du solltest wirklich deine automatischen Cuts prüfen bevor du hochlädst...
Oh man, ja das ist meine KI die manchmal etwas glitscht.
egaaaal, passt ^^