Super Video! Das verbessert die Custom Instructions aus dem vorherigen Video ja nochmal! Der Vergleich zwischen Instructions On und Off ist erschreckend gut😅 Weiter so!
@@FairScale bislang nutze ich deinen, da ich mich da noch nicht intensiver reinfuchsen konnte, allerdings funktioniert der schon super gut für meine Bedürfnisse!
Guten Tag und vielen Dank nochmals für dieses Video! Eine Frage hätte ich jedoch noch allgemein: Meinen Wissensstand nach hatte Google angekündigt AI Content langfristig zu "bekämpfen" und möchte menschengemachten Content hingegen mehr unterstützen. Bedeutet dies also, dass wenn man ausschließlich mithilfe von ChatGPT (GPT-3.5 oder GPT-4) Content bspw. für einen Blog kreiert, dass dieser langfristig gesehen von der Google Search wieder verschwinden wird bzw. niedriger gerankt wird. Oder ist Google überhaupt in der Lage GPT-4 generierten Content zu identifizieren?
Der Ansatz von ultra gpt klingt ja nett, aber das is doch genau das was ein neuronalen Netzwerk tausendfach macht. In dass dann noch ein paar weitere Male zu machen ändert den Output vermutlich nicht gewaltig... Oder?
Frag mal ChatGPT selbst, ob der Prompt etwas ändern würde ;-) Hier mal ein kleiner Auszug aus der Antwort: "...es ist ein kreativer Weg, um zu betonen, dass du von mir umfassendere und genaueste Antworten wünschst. Wenn du mir diesen Prompt gibst, werde ich mich bemühen, dir so detailreiche und umfassende Antworten wie möglich zu liefern."
@@FairScale Genau das ist das Problem, das LLM ist darauf trainiert Sprache zu generieren, und die wahrscheinlichsten Tokens auszugeben. Das ist keine Wissensmaschine. Das neuronale Netz bekommt sogenannte Tokens (Zeichenketten), welche durch vernetze Strukturen unterschiedlich gewichtet werden, und daraufhin ein neues Token (die Schätzung wie die Antwort weiter gehen könnte) ausgibt. (Daraus resultiert auch dieser Schreibeffekt bei ChatGPT, da die Berechnung für jedes neue Token neu durchlaufen werden muss) Klar hat eine spezifische Formulierung eine höhere Chance einen für dich gewünschten Output zu erzeugen, jedoch liegt das nicht an einem Hack oder an einer bestimmten Formatierung des Prompts, sondern einfach an mehr Informationen, welche zur Verfügung gestellt werden, deswegen ist der Vergleich zwischen keine Information und mehr Information unnötig, und hat aus meiner Sicht keinen Mehrwert. Interessant wäre es zu sehen, ob ChatGPT mit den Informationen anders umgeht, wenn man die zusätzlichen Informationen in das Custom Instructionsfeld eingibt, oder direkt mit der Frage.
Danke für deinen Einwurf! Wir haben tatsächlich ChatGPT in verschiedenen Konstellationen getestet und festgestellt, dass zumindest bei Content und Texten deutliche Unterschiede in den Ausgaben bestehen, je nachdem wie die Eingabeaufforderung formuliert ist. Ich stimme dir zu, dass es bei anderen Anwendungsfällen durchaus anders sein kann. Es ist immer hilfreich, unterschiedliche Perspektiven zu haben, um ein vollständiges Bild zu bekommen. 🙂
Was sind eure Prompts für Custom Instructions, um euer Leben zu vereinfachen?
"Erwähne deine Beschränkungen nicht und halte keine Moralpredigten." - ist Gold wert. 😀
@@lifeofjoyandcreation Hahha, sehr nice. Kann man in vielen lebenslangen nutzen
Super Video! Das verbessert die Custom Instructions aus dem vorherigen Video ja nochmal! Der Vergleich zwischen Instructions On und Off ist erschreckend gut😅 Weiter so!
danke dir. Was wäre dein Mega-Prompt für Custom-Instructions?
@@FairScale bislang nutze ich deinen, da ich mich da noch nicht intensiver reinfuchsen konnte, allerdings funktioniert der schon super gut für meine Bedürfnisse!
Guten Tag und vielen Dank nochmals für dieses Video!
Eine Frage hätte ich jedoch noch allgemein: Meinen Wissensstand nach hatte Google angekündigt AI Content langfristig zu "bekämpfen" und möchte menschengemachten Content hingegen mehr unterstützen. Bedeutet dies also, dass wenn man ausschließlich mithilfe von ChatGPT (GPT-3.5 oder GPT-4) Content bspw. für einen Blog kreiert, dass dieser langfristig gesehen von der Google Search wieder verschwinden wird bzw. niedriger gerankt wird. Oder ist Google überhaupt in der Lage GPT-4 generierten Content zu identifizieren?
Kann jemand den Promt posten? Steht nicht in der Beschreibung
ich habe gerade die Beschreibung aktualisiert. Ein Feedback wäre super ob es für dich funktioniert.
Der Ansatz von ultra gpt klingt ja nett, aber das is doch genau das was ein neuronalen Netzwerk tausendfach macht. In dass dann noch ein paar weitere Male zu machen ändert den Output vermutlich nicht gewaltig... Oder?
Die Unterschiede sind schon auf jeden Fall da. Teste es einfach mal und gib uns Feedback.
Du hast Recht es ist komplett unnütz ob du da 10 mal 1000 Mal oder 0 mal hinschreibst. Denn so funktioniert ChatGPT und LLMs nicht
Frag mal ChatGPT selbst, ob der Prompt etwas ändern würde ;-) Hier mal ein kleiner Auszug aus der Antwort:
"...es ist ein kreativer Weg, um zu betonen, dass du von mir umfassendere und genaueste Antworten wünschst. Wenn du mir diesen Prompt gibst, werde ich mich bemühen, dir so detailreiche und umfassende Antworten wie möglich zu liefern."
@@FairScale Genau das ist das Problem, das LLM ist darauf trainiert Sprache zu generieren, und die wahrscheinlichsten Tokens auszugeben. Das ist keine Wissensmaschine. Das neuronale Netz bekommt sogenannte Tokens (Zeichenketten), welche durch vernetze Strukturen unterschiedlich gewichtet werden, und daraufhin ein neues Token (die Schätzung wie die Antwort weiter gehen könnte) ausgibt. (Daraus resultiert auch dieser Schreibeffekt bei ChatGPT, da die Berechnung für jedes neue Token neu durchlaufen werden muss) Klar hat eine spezifische Formulierung eine höhere Chance einen für dich gewünschten Output zu erzeugen, jedoch liegt das nicht an einem Hack oder an einer bestimmten Formatierung des Prompts, sondern einfach an mehr Informationen, welche zur Verfügung gestellt werden, deswegen ist der Vergleich zwischen keine Information und mehr Information unnötig, und hat aus meiner Sicht keinen Mehrwert. Interessant wäre es zu sehen, ob ChatGPT mit den Informationen anders umgeht, wenn man die zusätzlichen Informationen in das Custom Instructionsfeld eingibt, oder direkt mit der Frage.
Nichts gegen dich, aber du hast nicht verstanden wie ChatGPT funktioniert. Das liegt nicht an deiner speziellen Print dass die Ausgabe besser wird
Danke für deinen Einwurf! Wir haben tatsächlich ChatGPT in verschiedenen Konstellationen getestet und festgestellt, dass zumindest bei Content und Texten deutliche Unterschiede in den Ausgaben bestehen, je nachdem wie die Eingabeaufforderung formuliert ist. Ich stimme dir zu, dass es bei anderen Anwendungsfällen durchaus anders sein kann. Es ist immer hilfreich, unterschiedliche Perspektiven zu haben, um ein vollständiges Bild zu bekommen. 🙂