Du meinst wenn es nicht „online“ ist? Gemäß der OLTP/OLAP-Bezeichnung. Die Daten sind die selben. Aber bei batch/log Verarbeitung kennt man a) weitgehend alle Daten in b) einer festen Reihenfolge. Wenn du „online“ daran arbeitest, hast du zB nur den Eintrag, dass jemand die Seite betritt, aber noch nicht das Ereignis dass er die Seite wieder verlassen hat. Wenn deine Analyse nun herausfinden will, wie lange die Nutzer in den letzten 2 h durchschnittlich auf der Seite sind, brauchst du eine andere Handhabung als wenn du das selbe für gestern 13 - 14 Uhr aus Logfiles lädst. Daher die anderen Anforderungen zB für jede Art von Transaktion.
Für den heimischen gebraucht vielleicht, wenn du eine Firma hast dann eher nicht. Excel hat seine Grenzen von round about 1 Millionen Zeilen. Das ist für Firmen Daten nichts. Da geht’s eher in Milliarden und Billionen Bereich. Da spreche ich übrigens nur von Menge und nicht mal von Performance und generelle Möglichkeiten was die Verarbeitung angeht
Ach es gibt aber auch große Projekte die über Excel laufen und halt historisch gewachsen sind. Habe da ein Projekt als Kalkulationsbackend verwenden müssen. Wird alles per Web beschrieben und berechnet aber das Excel wird halt dafür genutzt. Das läuft seit jahren stabil. Klar, cooler wäre es alles nachzubauen aber unzählig viele Berechnungen, mega komplex und über 10.000 Variablen die Gebraucht werden.... Das wäre finanziell ein Desaster weil es sich einfach nicht lohnt
min 40% der deutschen Wirtschaftskraft hängen an Leute die seit 30 Jahren Schinkenbrote zu Mittag essen und kurz nach der Lehre mal ein Excel-File gebastelt haben.
Interessantes Video und wiedermal sehr anschaulich erklärt! 😊
Die Begriffe hatte ich so noch gar nicht auf dem Schirm.
Das freut mich, vielen Dank 😊
Hi, ist es nicht möglich aus den logfiles die entsprechenden facts und Dimensionstabellen zu erstellen oder hab ich was ganz verstanden?
Welche Logfiles?
Du meinst wenn es nicht „online“ ist? Gemäß der OLTP/OLAP-Bezeichnung.
Die Daten sind die selben. Aber bei batch/log Verarbeitung kennt man a) weitgehend alle Daten in b) einer festen Reihenfolge.
Wenn du „online“ daran arbeitest, hast du zB nur den Eintrag, dass jemand die Seite betritt, aber noch nicht das Ereignis dass er die Seite wieder verlassen hat. Wenn deine Analyse nun herausfinden will, wie lange die Nutzer in den letzten 2 h durchschnittlich auf der Seite sind, brauchst du eine andere Handhabung als wenn du das selbe für gestern 13 - 14 Uhr aus Logfiles lädst.
Daher die anderen Anforderungen zB für jede Art von Transaktion.
@@wassagtmanndazu Super, Danke für die ausführliche Antwort TOP 🙏
@@wassagtmanndazu bzgl. der Aufenthaltsdauer: de.wikipedia.org/wiki/Mousetracking
OLAP hab ich mal in Excel gesehen. Excel ist überhaupt das einzige was man wirklich braucht. Kannst alles mit machen.😊
Für den heimischen gebraucht vielleicht, wenn du eine Firma hast dann eher nicht. Excel hat seine Grenzen von round about 1 Millionen Zeilen. Das ist für Firmen Daten nichts. Da geht’s eher in Milliarden und Billionen Bereich. Da spreche ich übrigens nur von Menge und nicht mal von Performance und generelle Möglichkeiten was die Verarbeitung angeht
Ich gehe mal davon aus, dass das ironisch gemeint ist.
Ach es gibt aber auch große Projekte die über Excel laufen und halt historisch gewachsen sind. Habe da ein Projekt als Kalkulationsbackend verwenden müssen. Wird alles per Web beschrieben und berechnet aber das Excel wird halt dafür genutzt. Das läuft seit jahren stabil. Klar, cooler wäre es alles nachzubauen aber unzählig viele Berechnungen, mega komplex und über 10.000 Variablen die Gebraucht werden.... Das wäre finanziell ein Desaster weil es sich einfach nicht lohnt
min 40% der deutschen Wirtschaftskraft hängen an Leute die seit 30 Jahren Schinkenbrote zu Mittag essen und kurz nach der Lehre mal ein Excel-File gebastelt haben.
Ich hoffe und denke dass das Sarkasmus oder Ironie war.