Das Programm kann klasse Geschichten erzählen die nichts mit der Realität zu tun haben wenn es ein Bild beschreiben soll. Ein Landschaftsfoto wird als Bürosituation geschildert.
Danke - ein sehr geniales Video mit einer Alternative, wenn andere Systeme das Halluzinieren beginnen. Denn das hat bei diesen Modellen bis jetzt noch nicht angefangen. Bei den Anderen geht das manchmal ziemlich zügig und ist dann nervig und zeitraubend.
Wieso sollte das irgendeine Auswirkung auf Software Programmierer haben? Klar können diese Modelle strikt umrissene Unterprogramme selbst codieren Punkt.
DeepSeek basiert auf dem alten Modell GPT-3.5, hat es mir selbst gesagt, nachdem ich gefragt hatte. Aber da es kostenlos und unlimitiert ist, ist es in Ordnung. Ich finde es aber schade, dass es nichts wirklich Neues ist.
Eine KI, die aus China kommt? Ist sie dann ohne woke Ideologie und deren Bias? Dafür aber mit chinesischer Ideologie und chinesischen Bias - hmm … Könnte man eine westliche und fernöstliche KI zusammenschalten, um deren ideologischen Verzerrungen heraus zu rechnen?
Das Modell Deep Seek R1 kann keine Bilder malen im Gegensatz zu chatGPT und im Reasoning Mode braucht die KI sehr lange. Ich denke,, dass chatGPT doch eine Ecke besser ist.
Ich finde es problematisch, dass die Reasoning Modelle (betrifft aber nicht nur Deepseek) bei bestimmten Aufgaben manchmal die richtige Antwort liefern und ein anderes Mal nicht, selbst bei identischen Fragen. Diese Inkonsistenz macht es schwierig, sich wirklich auf die Antworten zu verlassen. Bei einfacheren Aufgaben mag es noch möglich sein, die Qualität der Antwort selbst einzuschätzen, doch bei komplexeren Themen schwindet diese Sicherheit. Ich persönlich würde ich es vorziehen, wenn das Modell einfach eingesteht: „Das kann ich nicht lösen“, anstatt zu versuchen, eine Antwort zu konstruieren. Zum Beispiel auch in der Aufgabe mit den Buchstaben. Davon abgesehen, dass die Antwort "O" falsch war, schreibt Deepseek auch noch in der Begründung, dass "O" in "Moment" 2x auftritt.
Bei Generativen KI wird immer "konstruiert". Somit wirst du fast nie die selben Antworten auf die gleiche Frage bekommen. Siehe KI als Hilfe, nicht auf vertrauenswürdiger Mitarbeiter. Es sollte immer manuell geprüft werden, ob die Antworten korrekt sind.
@@KlamseNWo ist das Problem und die vertrauenswürdigen Mitarbeiter zu finden? Einfach ordentlich füttern, den Azubi! Wer sein Gehirn an der Garderobe abgeben will, ist noch gut 2 Jahre zu früh dran. 🤔😉
...Dann warte mal ab bis die mal etwas wirklich nicht Weiß! Zugeben würde eine KI das nie, stattessen darfst du dich zurücklehnen und es genießen von Ihr angelogen zu werden. Vertrauen? - Einer KI kann man nicht trauen!
Wie bei allen Modellen gehe ich davon aus, dass durch meinen Prompt bestimmt wird, was ich als Antwort erhalten kann. Nichts ist falsch, nur richtig ist richtig. Ich setze voraus, dass ich JEDE Aussage, ob KI oder RealLife, in meine Erfahrungen einordnen muss und anhand meiner Erwartungen bewerten muss. Was nicht passt muss weiter erfragt werden, bis ICH erkenne ob ich die Aufgabe lösen kann oder mein "Assistent". Reasoning hilft mir schon mehr, als nur Glauben und Hoffen .. glauben, dass es stimmt und hoffen, dass es logisch ist. Nur Gott wüsste die "richtige" Antwort .. davon ist jegliche "Intelligenz" weit entfernt 👻 Außerdem, definiere "richtig" 🙃
Danke für den Tipp. "Hat die Aufgabe nicht lösen können" find ich bei dem Beispiel sehr wenig aussagekräftig. Um es wenig diplomatisch zu sagen: Ich finde diesen Typ von "Rätseln", wo mit einem Wortspiel gearbeitet wird, was dann auch noch künstlich schwer gemacht wird, ("in jedem Moment"), einfach nur nervig. Ich musste schon die alten Sphinx - Rätsel die Augen verdrehen, das Gegenteil von sinnvollem Nachdenken. Ich persönlich hätte ein echtes, sinvolles Mathe- oder Logik-Rätsel sehr viel interessanter gefunden.
Wer sagt dir, dass China ein „systemischer Gegner“ ist? Wir sprechen hier nicht von Russland, das in ein europäisches Land einmarschiert ist, oder von Nordkorea, das offen mit einem Nuklearschlag droht. Dass Dinge anders laufen und nicht immer in deinem Sinne, bedeutet doch nicht automatisch, dass China ein Gegner ist. Im Grunde genommen macht China nichts anderes als die USA, nur eben auf politisch andere Weise. Die Welt ist nicht einfach schwarz oder weiß.
Manchmal verstehe ich schon die Fragen nicht. Warum sollte man Menschen als Gegner begreifen? Eine Welt, eine Menschheit. Stell Dir vor es ist Krieg und keiner geht hin.
Ich habe von dem kostenlosen ChatGPT Version die M-Frage in 2 Sekunden richtig beantwortet bekommen.
Danke für den Tipp. Ist immer gut, Alternativen zu haben. Bin gespannt, wann das Modell seine Spionagetätigkeit beginnt;-)
Wie beginnt? Spionierte schon vor dem Launch.... 🙂🤣😂
damit kann jeder Deutscher China ausspoinieren
Das Programm kann klasse Geschichten erzählen die nichts mit der Realität zu tun haben wenn es ein Bild beschreiben soll. Ein Landschaftsfoto wird als Bürosituation geschildert.
Mir gelingt in keinem Browser ein Sign Up. Es wird kein Code gesendet.
gut zu wissen, danke!
Danke - ein sehr geniales Video mit einer Alternative, wenn andere Systeme das Halluzinieren beginnen. Denn das hat bei diesen Modellen bis jetzt noch nicht angefangen. Bei den Anderen geht das manchmal ziemlich zügig und ist dann nervig und zeitraubend.
Jede KI neigt dazu. Allein die Wahrscheinlichkeit variiert. Das liegt in der Technologie begründet.
Nach dem Einloggen mit meinem Google-Account und der Lösung des Bilderrätsels wurde mir nur "detail": "Not Found" angezeigt.
dito - und beim sign up erschließt sich mir dieses "send code" nicht 🤔
Heute klappte es mit der Anmeldung.
@@juergenbusch danke für den Hinweis, ich konnte mich heute auch anmelden. 👍
was bedeutet das für Software Programmierer?
Wieso sollte das irgendeine Auswirkung auf Software Programmierer haben? Klar können diese Modelle strikt umrissene Unterprogramme selbst codieren Punkt.
DeepSeek basiert auf dem alten Modell GPT-3.5, hat es mir selbst gesagt, nachdem ich gefragt hatte. Aber da es kostenlos und unlimitiert ist, ist es in Ordnung. Ich finde es aber schade, dass es nichts wirklich Neues ist.
mir sagt er, er basiert auf Modell 4 🤷♂
@@_michaelwinzer Vielleicht ein Update?
@@Sloddy1985 ja wäre möglich
Eine KI, die aus China kommt? Ist sie dann ohne woke Ideologie und deren Bias? Dafür aber mit chinesischer Ideologie und chinesischen Bias - hmm …
Könnte man eine westliche und fernöstliche KI zusammenschalten, um deren ideologischen Verzerrungen heraus zu rechnen?
Probiers halt
Commento tattico per l'algoritmo...😊
Hat wirklich Spaß gemacht! Ich freue mich auf weitere Videos! 🍭💝
Das Modell Deep Seek R1 kann keine Bilder malen im Gegensatz zu chatGPT und im Reasoning Mode braucht die KI sehr lange. Ich denke,, dass chatGPT doch eine Ecke besser ist.
Ich finde es problematisch, dass die Reasoning Modelle (betrifft aber nicht nur Deepseek) bei bestimmten Aufgaben manchmal die richtige Antwort liefern und ein anderes Mal nicht, selbst bei identischen Fragen. Diese Inkonsistenz macht es schwierig, sich wirklich auf die Antworten zu verlassen. Bei einfacheren Aufgaben mag es noch möglich sein, die Qualität der Antwort selbst einzuschätzen, doch bei komplexeren Themen schwindet diese Sicherheit. Ich persönlich würde ich es vorziehen, wenn das Modell einfach eingesteht: „Das kann ich nicht lösen“, anstatt zu versuchen, eine Antwort zu konstruieren. Zum Beispiel auch in der Aufgabe mit den Buchstaben. Davon abgesehen, dass die Antwort "O" falsch war, schreibt Deepseek auch noch in der Begründung, dass "O" in "Moment" 2x auftritt.
Bei Generativen KI wird immer "konstruiert". Somit wirst du fast nie die selben Antworten auf die gleiche Frage bekommen. Siehe KI als Hilfe, nicht auf vertrauenswürdiger Mitarbeiter. Es sollte immer manuell geprüft werden, ob die Antworten korrekt sind.
@@KlamseNWo ist das Problem und die vertrauenswürdigen Mitarbeiter zu finden? Einfach ordentlich füttern, den Azubi! Wer sein Gehirn an der Garderobe abgeben will, ist noch gut 2 Jahre zu früh dran. 🤔😉
...Dann warte mal ab bis die mal etwas wirklich nicht Weiß! Zugeben würde eine KI das nie, stattessen darfst du dich zurücklehnen und es genießen von Ihr angelogen zu werden. Vertrauen? - Einer KI kann man nicht trauen!
Ich kann deepseek leider nicht herunterladen
Wie bei allen Modellen gehe ich davon aus, dass durch meinen Prompt bestimmt wird, was ich als Antwort erhalten kann.
Nichts ist falsch, nur richtig ist richtig.
Ich setze voraus, dass ich JEDE Aussage, ob KI oder RealLife, in meine Erfahrungen einordnen muss und anhand meiner Erwartungen bewerten muss. Was nicht passt muss weiter erfragt werden, bis ICH erkenne ob ich die Aufgabe lösen kann oder mein "Assistent".
Reasoning hilft mir schon mehr, als nur Glauben und Hoffen .. glauben, dass es stimmt und hoffen, dass es logisch ist.
Nur Gott wüsste die "richtige" Antwort .. davon ist jegliche "Intelligenz" weit entfernt 👻
Außerdem, definiere "richtig" 🙃
Danke für den Tipp.
"Hat die Aufgabe nicht lösen können" find ich bei dem Beispiel sehr wenig aussagekräftig.
Um es wenig diplomatisch zu sagen:
Ich finde diesen Typ von "Rätseln", wo mit einem Wortspiel gearbeitet wird, was dann auch noch künstlich schwer gemacht wird, ("in jedem Moment"), einfach nur nervig. Ich musste schon die alten Sphinx - Rätsel die Augen verdrehen, das Gegenteil von sinnvollem Nachdenken.
Ich persönlich hätte ein echtes, sinvolles Mathe- oder Logik-Rätsel sehr viel interessanter gefunden.
Schon ne Woche alt, o1 Pro Mode ist gerade angesagt :)
Warum sollte man die KI eines systemischen Gegners verwenden?
Wer sagt dir, dass China ein „systemischer Gegner“ ist? Wir sprechen hier nicht von Russland, das in ein europäisches Land einmarschiert ist, oder von Nordkorea, das offen mit einem Nuklearschlag droht. Dass Dinge anders laufen und nicht immer in deinem Sinne, bedeutet doch nicht automatisch, dass China ein Gegner ist. Im Grunde genommen macht China nichts anderes als die USA, nur eben auf politisch andere Weise. Die Welt ist nicht einfach schwarz oder weiß.
Manchmal verstehe ich schon die Fragen nicht. Warum sollte man Menschen als Gegner begreifen? Eine Welt, eine Menschheit. Stell Dir vor es ist Krieg und keiner geht hin.
Weil die Silicon Valley Cowboys ja so tolle Freunde sind :-))
@@planetchi3897 also stellst du China und USA auf gleicher Stufe?
Natürlich werde ich meinen Code und Daten in eine chinesische App hochladen *facepalm*