🎯 Key Takeaways for quick navigation: 00:00 🧠 *[Langzeitgedächtnis und Wissensbasis]* - Large language Models haben kein Langzeitgedächtnis. - Aktuelle Modelle wie GPT-4 können nicht wörtlich zitieren, basieren auf Wahrscheinlichkeiten. - Faktenwissen und exakte Zitate sind reiner Zufall, da die KI keinen Zugriff auf Originaldokumente hat. 03:56 🗣️ *[Kurzzeitgedächtnis und Erinnerungsfenster]* - Large language Models haben kein Kurzzeitgedächtnis. - Die KI erinnert sich nicht an vorherige Chats; jeder Prompt startet eine neue Auswertung. - Ein Erinnerungsfenster begrenzt die Menge an vorherigen Informationen, die die KI berücksichtigt. 06:12 🧊 *[Herausforderung des Erinnerungsfensters]* - Das Erinnerungsfenster begrenzt die Länge von übertragenen Chatverläufen. - KI-Ausgaben zählen auch in das Erinnerungsfenster. - Wichtige Anweisungen können aus dem Fenster fallen und werden dann nicht mehr berücksichtigt. Made with HARPA AI
Was ich auch spannend finde, dass viele “Bitte” und “Danke” sagen - wie bei Siri oder Alexa.
🎯 Key Takeaways for quick navigation:
00:00 🧠 *[Langzeitgedächtnis und Wissensbasis]*
- Large language Models haben kein Langzeitgedächtnis.
- Aktuelle Modelle wie GPT-4 können nicht wörtlich zitieren, basieren auf Wahrscheinlichkeiten.
- Faktenwissen und exakte Zitate sind reiner Zufall, da die KI keinen Zugriff auf Originaldokumente hat.
03:56 🗣️ *[Kurzzeitgedächtnis und Erinnerungsfenster]*
- Large language Models haben kein Kurzzeitgedächtnis.
- Die KI erinnert sich nicht an vorherige Chats; jeder Prompt startet eine neue Auswertung.
- Ein Erinnerungsfenster begrenzt die Menge an vorherigen Informationen, die die KI berücksichtigt.
06:12 🧊 *[Herausforderung des Erinnerungsfensters]*
- Das Erinnerungsfenster begrenzt die Länge von übertragenen Chatverläufen.
- KI-Ausgaben zählen auch in das Erinnerungsfenster.
- Wichtige Anweisungen können aus dem Fenster fallen und werden dann nicht mehr berücksichtigt.
Made with HARPA AI