Bravo, immer noch hochaktuell. Ich habe für mich persönlich entschieden, dass 24 MP alle meine Bedürfnisse befriedigen. Sogar mit Crop. Alles bleibt so etwas einfacher, günstiger und effizienter. Das i.d.R. bessere Rauschverhalten tut ein Übriges. Jetzt weiß ich auch, dass weniger MP gut für die Schärfe sind. Danke!
Herzlichen Dank Martin. Ich habe mich schon mehrfach gewundert und habe mehrfach meine Kameras und Objektive zur Überprüfung zu Nikon-Point gegeben. Endlich ist mal jemand da, der es verständlich erklärt. Nikon D3 und Nikon D810. Ich sehe deine Videos gerne, da es fachlich einfach nachvollziehbar ist. Nochmals herzlichen Dank.
Hallo Martin, nur zur Info: Der Faktor bei Pixel/Fäche zwischen 20 und 60 Mega-Pixel-Sensoren beträgt nicht 3 sondern nur Wurzel aus 3 gleich 1,73 (Thilo fragen warum). Um aber den Schachverhalt zu erklären, finde ich didaktisch 3 statt 1,73 Pixel zu nehmen gut! HG Bert
Excellente Erklärung in Sachen Mega Pixel und Schärfe..... ich hatte es schon zuvor verstanden, aber nie so detailliert super erklärt wie heute. Gaaaaanz fettes Like dafür !!!
Ich weiß, dass es vielleicht ein wenig viel "verlangt" ist, aber Martin hat zum Schluss um Inspiration für noch mehr Videos dieser Art gebeten. Ich würde es einfach nur unglaublich geil finden, Wenn Ihr ein Video produzieren würdet, welches sich komplett und ganzheitlich mit dem Thema der Auflösung befasst. Wegen mir auch gerne zum bezahlen!! Danke für Eure tollen Videos.
Danke für das wieder Informative Video! Zur Kameravariation kommt auch noch die Objektiv-Variation, denn es gibt ja gute und weniger gute Kopien eines Objektivs. Das ist wirklich ein Minenfeld (seufz!).
Tolles Video, danke! Habe aber noch eine Frage: Ich möchte von meiner alten Canon EOS 700D auf die 90D umsteigen und werde somit von 18 auf 32 MP springen. Woher weiß ich, ob in diesem Fall aufgrund höhere Pixel-Anzahl Fehler zu erwarten sind oder nicht? Als Objektive verwende ich aktuell die folgenden: Tamron 70-210mm f/4 Di VC USD, Canon 18-55mm f/3.5-5.6 IS STM, Canon f/4.5-5.6 IS STM.
Nun habe auch ich es verstanden, vielen Dank! Die Jagd nach den MP hat eben auch Tücken. Nett übrigens, dass in Eurer Küche eine Flasche Wolfsburn steht und ich an Eure Destination Folge erinnert werde ...
Danke, Super gut erklärt! Trotzdem brauchst du zur Erklärung der Objektivunschärfe mehr als 2 Strahlen, denn ALLE (unendlich viele) Strahlen, die von einem Motivpunkt durch das Objektiv gehen, treffen sich idealerweise in der Schärfeebene an einem Punkt, objektivabhängig ist dieser Punkt real eben mehr oder weniger ein Fleck. Wenn du nur 2 Strahlen schneidest, wird das immer nur ein Punkt sein ;). Übrigens ein großes Dankeschön für euer "stay at home"-Programm, ihr habt wohl trotz Corona hofffentlich noch was anderes zu tun, und jeden Tag ein Video rauszuhauen ist doch einiges an Aufwand! 👍👍👍
Ich bin echt begeistert, auch wenn das Video schon älter ist, es erklärt es super ! Vielen Dank für eure Arbeit, ich benutze das 70-200 GM seit ca. zwei Jahren, ist mir aber auch nie aufgefallen, nicht extrem, an der Sony a7ii (24MP), jetzt bei der a7iv erkenne ich die leider auch, aber nicht so das ich ein neues Objektiv brauche.
Schönes Video👍 Alte Wahrheit neu verpackt. Natürlich sieht man Fehler des Objektes mit steigender Auflösung besser. Es hängt wie du schon auch selbst am Anfang kurz erwähnst, aber auch maßgeblich vom Pixelpitch ab also nicht nur von der Auflösung. Davon unabhängig ist haben besser als brauchen. Ich sehe den größten Vorteil der hohen Auflösung z.B. einer Sony A7R3 o. 4 in dem Croppotential. Wenn man aus einem Querformat mal schnell ein Hochformat rausschneiden möchte, muss ich mir mit 40 oder 60 Megapixel keine Gedanken machen. Bei 16 Megapixel meiner X-T1 ist da schnell „Ende Gelände“.
Super Video Martin, Technik wie immer leicht verständlich erklärt. Wenn Du allerdings den Pixelpitch an Stelle von Megapixel benannt hättest (Olympus 20MP MFT) wäre ich noch näher bei Deinen Schlussfolgerungen. Ich freue mich auf euren nächsten Beitrag. @Team Krolop & Gerst bleibt gesund
Wie immer ein sehr schönes Video! Die neue Technik ist Marken übergreifend auf so hohem Niveau, dass Schärfenvergleiche ja schon fast überflüssig sind. Für die Praxis sind meiner Meinung nach die Unterschiede (bis auf GAANZ wenige Ausnahmen) unbedeutend. Ein Portrait im Gegenlicht eines Sonnenuntergangs bei iso 3200 lebt von der Atmosphäre und nicht von Schärfevorteilen im Randbereich. Ich finde das GM und das Tamron haben im Einsatzbereich zwar Überschneidungen, sind vom Konzept aber doch so weit auseinander, dass sie nicht direkt konkurrieren. Letztendlich eine geniale Idee, auf dem Markt, auf dem es schon alles gibt, eine neue Nische zu finden und auszufüllen. Quasi Reisezoom 2.0 für Hochzeitsfotografen :-).
Hab das mit den Pixeln nie verstanden und dass obwohl ich schon so einige Videos gesehen habe. Dies war das erste, dass mir geholfen hat. Vielen DANK!!!! Eine Frage hab ich aber noch. Wenn ich mit einem Objektiv auf ein entferntes Motiv zoome. Bei dem sich die Blende von 4 auf 5,6 verkleinert, hat das dann Auswirkungen auf die spätere Anzahl meiner Pixel auf meinem Foto. Oder bleib die Pixelanzahl immer gleich? Hat eine kleine Blendenöffnung überhaut Auswirkung auf die Bildqualität, im Sinne der Dateigröße? Könnte ich ein Foto mit einem einfachen Canon Objektiv genauso scharf hinbekommen, wie mit dem gleichen Objektiv der L Reihe? LG
ich denke, es verhält sich ähnlich wie mit hochklassigen HiFi-Komponenten. Je besser die Übertragungskette (insbesondere die Lautsprecher) ist, desto eher fallen schlechte Aufnahmen auf. Billige Anlagen ebnen alles ein und es kling halt irgendwie. Übertragen auf auf dieses Thema würde das bedeuten, dass ein 42MP Sensor Schwächen eines Objektives stärker aufdeckt, als ein 24MP-Sensor. Nur so ein Gedanke ...
So um 2012/13 wurde absehbar, dass der irre MPrun wieder losgeht. Ich habe mir sofort eine D700 (12MP) bestellt, bevor ich nur noch diese Monster bekommen konnte. Das betrifft natürlich nur meine eigene Photographie. Für Repro ist die A7R4 vllt ein Himmelsgeschenk, allerdings vermute ich, dass in diesem Bereich eh ganz andere Technik zum Einsatz kommt. Danke, K&G, dass Ihr uns auch die feinere Technik/Physik erklärt, aber mit der Erzeugung ästhetischer Bilder hat das nix mehr zu tun (hat van Gogh die Haare seiner Pinsel gezählt?)
Danke für die Erklärungen. Da ich meist mit 26MP fotografiere bleiben die Objektive trag- und bezahlbar. Wegen Covid bleibt leider momentan nur table top und Makro-Fotografie in den eigenen vier Wänden, aber da ist dann auch die Zeit da, vorhandene Objektive mal einer genaueren Betrachtung zu unterziehen. Macht auch Spass, selbst wenn es manchmal unangenehme Überraschungen bei recht teuren Objektiven gibt.
Hallo Martin, Du hast das sehr gut erklärt. Meine Frage ist jetzt ab wann wird soetwas in der Praxis relevant. Man kann ja nicht bei jedem Sprung der Auflösung sämtliche Objektive updaten und die alten verlieren enorm an Wert. Bei den hohen Auflösungen kommt ja noch ein ganz grosses Problem obendrauf, das sind die Microverwacklungen. Was nützt mir also ein 60 MP Sensor wenn die Bilder ganz schnell Verwacklungs- und Bewegungsunschärfen haben, die man an z.B. 20 MP garnicht sehen würde. Wer absolute Topergebnisse mit 60 oder 80 MP braucht muss dann auch immer ein schweres Stativ mitschleppen und bei Personenaufnahmen mit noch kürzeren Zeiten fotografieren. Der IBIS, bei statischen Motiven, reicht dann wohl nicht mehr oder die Leistung reicht gerade noch aus um nach der Formel, Brennweite auf FF bezogen, ist die kürzest mögliche Verschlusszeit. Bei einem Pixelboliden überwiegen meiner Meinung nach, für die tägliche Praxis, die Nachteile.
Dass alte Objektive bei MP Sprüngen weniger wert sind ist tatsächlich wahr. Uralt Analogfilmkameraobjektive sind heute (noch) weniger wert (bis auf ein paar Ausnahmen), weil sie einfach nicht dafür konzipiert wurden viele MP aufzulösen - es braucht aber mehr als einen Sprung von 10MP auf 15MP oder so, weswegen nicht alle 5 Jahre neue Objektive raus kommen müssen. Wenn 60MP normale Auflösung ist in wer-weiß-wann brauchen wir neue Objektive. Und dann gibt's die A7R25 mit 200MP die zeigt, dass die dann aktuellen Objektive gar nicht gut genug für 200MP auflösen :P Auch das mit Verwacklungen stimmt. Die Reziproke-Regel gerät schon mit 20MP hier und da an seine Grenzen (IBIS sei dank ist das selten ein Problem) und mit 60MP kannst du 1/Brennweite Sekunden eigentlich vergessen und musst eher die hälfte nehmen, um beim 400% Zoom keine Verwacklungen zu sehen. Wie du es sagst überwiegen bei Pixelboliden einfach die Nachteile.
@@niduroki Das Sony Objektiv ist noch ok auch wenn es 4 Jahre alt ist. Sony und Lumix S Fotografen haben das Problem im Augenblick nicht. Das Problem haben Canon und Nikon Fotografen, die teilweise 10 Jahre und ältere Linsen an ihre z.B. Z7 adaptieren. Ich sags mal ganz brutal: Diese Linsen bringen es nicht an neuen Kameras mit hoher Auflösung. Man guckt auf die Bilder und sie sind nicht endscharf. Eine neu gerechnete Linse ist dann wie eine Offenbarung. Wir dürfen uns nichts vormachen, ein Wechsel zu einem Pixelboliden aus dem Canon und dem Nikon Lager macht die alten Linsen wertlos und unbrauchbar, sollte tatsächlich die Performance eines 50, 60 oder 80 MP Sensors gebraucht werden. Sollte sie nicht gebraucht werden ist die Anschaffung eines Pixelboliden sowieso unsinnig. Mich erinnert das an den Spruch: Ein Schwanz bis zu den Knien und in der Mitte ein Stück, das nicht steif wird :)
Danke, für diese Augen öffnende Erklärung. Aber eine Sache verstehe ich mal wieder nicht. Martin sagt in diesem Video (nicht wortwörtlich) "Man vergrößert, und nichts anderes ist eine höhere Auflösung, nicht die Details sondern nur die Größe des Bildes, und somit seine Schwächen." Aber wenn ich mit einer höheren Auflösung nicht mehr Details fotografieren kann, warum konnte man dann bei dem 100 Megapixel Bild aus dem Foodfotografie Video (LIVE WEBINAR - Lichtsetzung in der "Food-Photography" 📷 Krolop&Gerst (DENGLISCH-ALARM)) so unglaublich tief zoomen? Das Bild hatte doch definitiv um Welten mehr Details als wenn ich das Bild mit meiner D5100 mit 16,1mp fotografiert hätte??! Oder liegt es daran, das das Bild mit irgendeinem besonderen Modus fotografiert wurde? (das wurde es nämlich) Das heißt, ich sehe mit einer hochauflösenden Kamera nicht mehr Details im Bild, als wenn ich mit meiner Nikon D5100 fotografiere?
Relevantes Thema vernünftig erklärt! Nur die Vereinfachung bei der Auflösung kann ich nicht ganz mitgehen, da hättet ihr wirklich die im Vorspann erwähnte Wurzel ziehen müssen. Aber was soll‘s, die Schlussfolgerung wäre ja dieselbe gewesen. Kürzlich wollte ich mal wissen, wie gut meine neue wasserdichte Kamera im Vergleich zu SmartPhone und MFT-Kamera ist. 3 verschiedene Auflösungen also. Ich habe mich für den UHD-Fernseher als Vergleichsmedium entschieden und alle Testaufnahmen in dessen Auflösung ausgegeben, direkt aus dem RAW-Konverter. Also nur 8 MP! Trotzdem war der Unterschied deutlich. Für einen Vergleich meiner besten Objektive wiederum musste ich den Highres Mode meiner Olympus PEN-F nutzen, um einen Unterschied zu sehen. Der also in der Praxis kaum relevant ist, denn die Bilder guckt man sich ja auf einem Bildschirm an...
Klasse erklärt, ich frage mich auch wie weit der Pixelwahn noch gehen soll? Diese hohen Auflösungen brauchen wohl eher eine kleine Minderheit an Fotografen.
Wenn ich etwas nicht verstehe male ich mir auch in meinem Kopf etwas aus und manchmal stimmt ein wenig davon. Hast du auch vorher die Firmware des Objektivs aktualisiert? Wie funktioniert ein Sensor? Einen Test von Objektiven kann man nur sehr ungenau an einer Kamera machen, deswegen ist die optische Leistung eines Objektivs nur direkt zu messen. Ein Objektiv besteht ja nicht nur aus einer Linse, es gibt hier schon optische Korrekturen, abgesehen von der Software. Licht: Wellen oder Teilchen?
Vielen Dank für die vielen Videos von Euch, die ich mir nun seit einigen Tagen anschaue. Allerdings muss ich doch mal Kritik los werden. Zu aller erst: Nein, es ist nichts kompliziert. Es wird nur kompliziert gemacht. Was ist z.B. so schwer daran zu verstehen, dass die Pixel eines Sensors auf die Fläche gleichmäßig verteilt werden und sich daraus eine Pixelgröße ergibt? Was soll so schwer daran zu verstehen sein, dass die Pixel in sich eine Anordnung haben? Hier wird auch kräftig über die optische Auslösung von verschiedenen Sensoren gesprochen und als Erklärung für Ergebnisse herangezogen. Etwas zu kurz kommt dann doch die Leistung der Software, die aus dem RAW-Daten ein Bild macht. Ähnlich ungenau, oder sagen wir mal abgebrochen, sind die Erklärungen mit den Strichen im Malprogram. Für mich sind das deutliche Anzeichen von Unsicherheiten in der Materie. Sicherlich erzwungen durch den Glauben es sei schwer und man müsse diese Komplexität mit einfachen Worten erklären. Versucht einfach mal die Komplexität auszuklammern und mit einfachen Worten das "ist" zu beschreiben. Könnte sein, dass es dann tatsächlich einfach ist und die Erklärungen genauso einfach rüber kommen - Die meisten kommen wohl auch so zurecht. Insofern ist meine Kritik mehr ein Hinweis und letztendlich kann ich nur über mein Empfinden sprechen. Edit: Doch noch einmal eine Frage zu der Erklärung mit der Schärfe des 60MP Sensors: Nehmen wir an, Pixel 1 und 3 sind Pixel für Grün und Pixel 2 ist rot. Welchen Einfluss hat denn diese Anordnung auf die Schärfe bei dem angesprochenen Objektiv und den Licht-Streuungen?
Sollte man also keine hochauflösende Kamera mehr kaufen als Konsequenz daraus, aber wie handeln dann die Leute von phase one die Sache? IQ4 150MP, ich weiss Mittelformat
Hallo Martin wenn ich deine Erklärung als richtig ansehe, ist der Umkehrschluss also. Ein "Traumobjektiv" hat 1 Pixel... da kann doch etwas nicht so ganz richtig sein. ich erinnere mich an die Anfänge der CD, plötzlich kamen 1Bit Spieler auf den Markt, die anscheinen alles Andere an die Wand fuhren, nur was ist aus dieser Technik geworden?
Also, wenn dann schon hat der "Traum-Sensor" einen Pixel. Aber das ist natürlich nicht gemeint. Sondern, dass vorhandene Objektivfehler mit zB 20MP garnicht aufgelöst werden mit 60MP aber eben schon. Die Objektivfehler werden eben erst durch die hohe Auflösung sichtbar. Hier ist mE viel entscheidender wie Praxisrelevant dieses ist. Bei Offenblende am Rand und 60MP ist das für mich jedenfalls völlig irrelevant. Weil ich für die Auflösung keine Verwendung habe, habe ich mir auch nur eine Z6 angeschafft.
Ein Objektiv hat gar keine Pixel, ein Objektiv kann Pixel auflösen. Eine Traumkamera, mit der es keine Unschärfeunregelmäßigkeiten gibt hat einen Pixel, ja (so 1 Pixel Kameras gibt es sogar, ziemlich interessant, was man damit machen kann - Offtopic), denn dann kann das Objektiv am Rand (oder allgemein) noch so schlecht sein, solange man es irgendwo scharf stellen kann ist es gut (wie groß dieser Pixel ist müsste dann damit noch einfließen, aber das ist jetzt auch mir ein bisschen zu theoretisch) - es sind ja Unschärfe-UNREGELMÄẞIGKEITEN, wenn es nur einen Pixel gibt ist nix unregelmäßig. Ein Objektiv dass nur einen Pixel auflöst auf eine Kamera die mehr Pixel auflöst zu stecken sorgt dann dafür, dass die genannten Probleme auftreten - die Kamera ist so gut, dass sie die Fehler im Objektiv zeigt (für die es nicht konzipiert wurde). Ich weiß nicht ob das verständlich ist - gibt nen Grund warum Optik an Hochschulen gelehrt wird, aber was du (wahrscheinlich nebenher) richtig erkannt hast ist, dass eine Traumkamera möglichst WENIG Pixel hat (aber *trotzdem* genug - wo liegt der Sweet-Spot aktuell? Gute Frage!), denn wenn man zu viele Pixel hat gerät man an die Grenzen des Objektivs - deswegen sind billig uralt-Filmkamera-Objektive an modernen Kameras Schrott. Bei den Megapixeln sieht man die Unregelmäßigkeiten im Objektiv. Damals auf Negativen, oder standard großen Abzügen hat man das nicht (ohne Lupe/Mikroskop) gesehen. Ist auch der Grund warum die A7R4 aktuell so unsinnig ist, oder Vollformatobjektive an APS-C (oder kleiner) Kameras mit Vorsicht zu genießen sind (die A7R4 ist ja - vereinfacht - nichts anderes als 2 APS-C Sensoren zusammen geklebt).
Wäre schön gewesen, wenn du vielleicht einmal "Chromatische Abberation" statt immer nur "CA" gesagt hättest. Es gibt viele Ursachen für Unschärfen, oft ist es eher Bildfeldwölbung, das heißt, dass die Schärfenebene nicht plan, sondern gewölbt ist. Wenn die Schärfe der Abbildung in der Mitte in der Sensorebene liegt, kann sie am Rand dahinter oder davor liegen. Dieser Fehler ist bei der Objektivkonstruktion viel schwieriger zu korrigieren als Chromatische Abberation. Allerdings in der Praxis von geringerer Bedeutung, weil er nur dann massiv zutage tritt, wenn man ebene Objekte fotografiert. Ein reales Foto hat ja so gut wie nie einen planen Hintergrund oder ein planes Motiv. Ursachen für "konstruktionsbedingte" Unschärfe sind Sphärische Abberation (heutzutage wegen der komplexen, viellinsigen Objektive wohl eher nicht *kugelförmige* Abweichung), die dafür verantwortlich ist, dass sich die Strahlen außerhalb der Bildmitte *nie* in genau einem Punkt treffen, sodern eher in einer Ellipse, die Bildfeldwölbung und die Chromatische Abberation. Beim Berechnen eines Objektivs müssen alle drei Effekte optimal (maximal gibt's nicht ;-) korrigiert und der beste Kompromiss gefunden werden. Je extremer die Optik im Hinblick auf Zoombereich, Lichtstärke oder Bildwinkel (Weitwinkel) ist, desto schwieriger ist es. Historisch war es ja so, dass die ersten Zoomobjektive Telezooms waren (z.B. die Legende Vivitar Serie 1 70-210, Legende nicht, weil es besonders gut, sondern weil es das erste Kleinbildzoom für den Consumermarkt war), und dass es sehr lange gedauert hat, bis es kürzere Zooms und gar Zooms gab, die aus dem Weitwinkel- in den Telebereich gingen. Mit der verfügbaren Rechenleistung (vor Computern hat man ein paar Dutzend Leute in den Keller gesperrt und mit Papier und Bleistift endlose Zahlenkolonnen rechnen lassen) wurden auch die Zoombereiche und Lichtstärken immer größer. Weitwinkel-Zooms wie z.B. ein 8-25 mm von Olympus, das aus dem Extremweitwinkel in den Normalobjektivbereich geht (wir reden hier von MFT), und das bei einer sehr guten Bildqualität, waren vor ein paar Jahrzehnten schlicht unmöglich. Man konnte die nicht rechnen, man konnte die asphärischen Flächen nicht fertigen (zumindest nicht bezahlbar), und man hatte die LD und ED Gläser (Linsenmaterialien mit geringem Brechungsindex, die man braucht, um vor allem Farbfehler zu korrigieren) noch nicht.
In einem Pixel sind ja vier messpunkte, welche die freuenz Photonen messen. Ich glaube es waren zwei für grün einen für rot einen für blau. jetzt frage ich mich was passiert wen man jetzt die Messpinkte so programmiert das sie nur noch eine Farbe auslesen. Schließt man so sorusagen 4 Pixel dann zu einem Großen zusammen, müsste die Kammera doch extrem Lichtstark werden und auch diese Pixel fehler verschwinden? Warum macht man das nicht? Können die messpunkte nur eine frequenz messen oder ist das Software? Liebe Grüße, Johannes
Die Sache ist (zumindest bei den gängigen Sensoren mit Bayer-Pattern) ein wenig anders. Jeder Sensel (also Sensorpunkt) ist nur sensibel für Rot, Grün ODER Blau. Die anderen Wellenlängen werden quasi jeweils rausgefiltert, also auch nicht gemessen. Beim Verarbeiten der Rohdaten werden dann die fehlenden Farben interpoliert, also im Prinzip clever geraten, ob das Pixel neben dem Pixel was ziemlich rot ist eben auch rot ist. Sehr vereinfacht. In dem Sinne können Kameras auch nicht lichtstärker werden. Es können ja nur die Photonen gezählt werden, die tatsächlich da sind. Also braucht man entweder mehr Licht oder längere Belichtungszeiten. Zu genau diesem Thema haben wir auch eine umfangreiche Videostrecke bei uns im Store: www.kg-link.com/sensorstrecke
Danke nochmals für die Erklärung. Bei mir sowieso egal. Ich ziehe die Brille aus und gut😂. Ich kaufe die Kamera eh nur wie sie mir gefällt. Gut genug sind heute wirklich alle für mich. Eventuell Abstriche bei mft, aber nur bei speziellen Aufnahmen. Gruß Carsten VP
Perfekt erklärt aber das mit dem Faktor drei beim Querschnitt lassen wir das mal lieber ;) Wenn im Querschnitt aus einem, drei Pixel werden, dann hätte sie 180 statt 60 MP🙈 Aber das Prinzip ist super erklärt 💪
Ich denke deshalb ist es beim Vergleich optischer Systeme wichtig, dass man das Ergebnis immer in einem bestimmten Maßstab anschaut. Dann ist das produzierte Bild eben bei A3 noch gut und bei A2 vielleicht nicht mehr. Das Ergebnis ist doch das was zählt. Oder?
Hallo Martin Hoi Team 😊 Ich verstehe das ganze "Theater" nicht?! Vereinfacht gesagt: Ihr habt einen Test gemacht da hat, nach euren Resultaten und eurer Einschätzung, das "billige" Objektiv besser abgeschnitten, uuuiiii uuuiii... "schlimm"! 😭 (😊) Wer es nicht glaubt, oder glauben kann, dem sei das natürlich zugestanden aber dann soll er es doch einfach testen bevor er es kauft. Um es mal mit den Worten von Stephan Wiesner zu sagen: Nicht glauben, ausprobieren! 😉 Ich habe nicht mehr soooo gute Augen aber ich hatte auch (subjektiv) das Gefühl, dass das Tamron eine Spur "besser... schärfer... etc." war. Konstruktive Kritik muss... soll sein dürfen von daher DANKE, dass du (noch einmal) darauf eingegangen bist! 👍 Gruess und bliebed G'sund Päde
Hallo Martin. Besten Dank auch für dieses Video. Obwohl mein IQ wohl eher im tiefen, zweistelligen Bereich angesiedelt ist, hatte ich es komischerweise schon vorher begriffen. ;) Nachdem Du das Test-Video nebst deutsch auch schon in englisch gedreht hast ,hoffe ich nun, dass nicht auch noch eine Version in trollisch nötig sein wird. 😉 Stay cool, stay @home. Liebe Grüsse aus der Schweiz.
Also vielen Dank für die Updates. Die Erklärungen überzeugen und bestätigen mich in der Entscheidung, euren Kanal abonniert zu haben. Wäre es bei diesen Erkenntnissen nicht auch wichtig, wenn die Hersteller bei den technischen Daten mit angeben, für welche Pixelanzahl bezogen auf die Sensorgröße das Objektiv gerechnet wurde?
@@krolopgerst Das stimmt schon. Das Problem dabei wäre, dass die Kamerahersteller bei jedem grösseren Sensorupdate auch alle Linsen komlett neu rechnen müssten und diese noch teuerer würden. Zudem würden sie ihr eigenes Marketing von immer mehr MP ad absurdum führen. Der Gebrauchtmarkt würde komplett kolabieren, da sich niemand der bei Sinnen ist, ein Objektiv kaufen würde welches nicht die Performance der Kamera erreicht. Ihr habt also echtes Insiderwissen vermittelt.
Ja, Du erklärst immer die Strahlengänge. Aber die Glasqualität ist auch massgebend für die Schärfe. Wie viel Linienpaare löst das Glas auf? Wie klar das Glas ist, wie genau ist die Linse geschliffen in Mikrometer Bereich. Heute stand 2024 schafft es Sigma meist schärfere Objektive/ Gläser zu bauen, als Sony.
Klar, die Bauqualität der Einzelteile ist wichtig. Aber die Strahlengänge sind sozusagen die globalen Baupläne. Das ist sozusagen wie wenn ich sage, dass der Motor gut konstruiert ist und du sagst, aber das Metall muss trotzdem echt gut sein vom Stahlwerk... ja... muss es... Meine Aussage steht aber nicht gegen deine Aussage und schließt deine Aussage auch nicht aus.
Es spricht nicht für das Objektiv, wenn ein drei Mal so teures GM-Objektiv an derselben 60MP Kamera mit demselben Sensor bei korrekter Fokussierung unschärfer ist als ein preiswertes Tamron. Punkt.
Das GM ist 4 Jahre älter, und wurde nicht für 60MP entworfen (wahrscheinlich nicht mal für 40MP auf der A7R2 von damals), dafür aber mit OSS. … Ja, auch ich würde mir - vor allem nach dem Review - bestimmt nicht das GM für den doppelten Preis kaufen, aber Sony hatte die letzten paar Jahre nun mal das Monopol 😅
Die Fokussierung war immer perfekt. Dafür haben wir die schräge Box eingebaut. Also die neben der gelben Box. Die ist schräg und daran kann man erkennen ob der Fokus vorne oder hinten sitzt.
@@ytano5782 Mein Ford soll auch nur 4.6l/100km schlucken. Sagt Ford offiziell sogar in den Unterlagen zum Auto... Auch der CEO von Ford behauptet das... trotzdem gelogen!
Es gibt kein Objektiv, nicht mal das sagenumwobene, hochauflösende Zeiss Otus 55 Millimeter, welches auch nur 36 Megapixel eines Vollformatsensor auflösen kann. Außerdem ist es natürlich praxisfremd nur die Randschärfe bei Cropsensoren als irrelevant zu betrachten. Ein Cropsensor verlangt mindestens den Cropfactor mehr Objektivauflösung gegenüber dem Vollformatsensor. Ein Cropsensor mit dem Faktor 1,5 also statt beispielsweise 100 Linien 150 Linien Objektivauflösung.
Immer gut wenn man die Resultate relativiert. Interessant wäre z.B. auch mal die früher eintretende Beugungsunschärfe zu erwähnen welche höherpixelige Sensoren hervorrufen. Ein Schönheitsfehler bei der Berechnung 7:30 aus 1 wird 1.7 statt 3 weil der Sensor eine Fläche darstellt.
Hallo! Ich frage hier nochmal , auf dem Foto der Kodakschachtel kann man bei dem Tamron mehr Rauschen sehen. Kann es irgendwie am Tamron liegen oder das die Sony irgendwie nicht richtig mit Fremdobjektiven zusammen arbeiten will? Ich habe mit meinem 120-300 auch ab und an komische Muster auf Fotos. Die sieht man aber auch erst bei starken Vergrößerungen. Danke und danke für eure Videos, gucke ich echt gern. Bleibt gesund!
@@krolopgerst Rauschen macht der Sensor ganz allein egal was ein Objektiv auflöst. Hier könnte eher die Transmissiongüte des Objektivs eine Rolle spielen. Sprich: selbe Blende heißt noch lange nicht, dass hinten auch die selbe Menge Licht rauskommt. Also ja, es kann sein dass ein Objektiv zu mehr Rauschen führt als ein anderes bei selber Blende.
Tja, braucht man's oder braucht man es nicht. Gerade ein Tele soll zum Teil auch mal weit entfernte Dinge einfangen, z. B. einen 5 km weit entfernten Turm möglichst scharf abbilden. Hier braucht man jedes Körnchen Leistung vom Objektiv und bei mft erst recht. Sonst könnte man die Bilder ja mit einer Superzoom Kamera schießen!
@@krolopgerst Atmosphärische Störungen gibt es sicher. Aber bei 5 km Entfernung und gutem Wetter summiert sich trotzdem viel, für den kleiner Sensor (mft G9) bei einer "nur" mittlere Optik lumix 45-200 wird hier mit Sicherheit der selbe Unterschied, zum hochwertigen Objektiv lumix 50-200 auftreten, wie im Objektivtest die 24 mp zu den 60 mp der Sony-Kamera zu sehen war. Was nur noch zu beweisen wäre.
@@lwzz7106 Das ist nicht praxisrelevant, weil niemand erwartet einen Turm in 5km Entfernung genau so scharf zu haben als wenn man mit einem WW davor steht. Normalerweise ist der Turm in 5km Entfernung auch kein tragendes Bildelement mehr.
Aber trotzdem erwartet man doch, dass solche Fehler bei einem GM Objektiv nicht auftreten! Es müsste doch egal an welcher Kamera immer besser sein als das Tamron. Oder ?
Preise zu vergleichen ist immer so eine Sache. 1. Ein Objektiv sei es von Sony Nikon oder Canon ist immer teurer weil die Marken sich die Marke bezahlen lassen. 2. Der Stabilisator kostet auch so 400€ und mehr. 3. Und dann die fehlenden 20mm macht es günstiger
Klar ist das ein Vergleich zwischen Birnen und Äpfeln. Andererseits muss man überlegen ob ich Marke, OSS und die 20mm extra brauche. Dass OSS durch IBIS eigentlich nicht sooo wichtig ist, und das die 20mm die fehlen schon sichtbar sind wurde ja im originalen Video angesprochen. Die Marke hat für mich nicht so sehr viel Wert (zeichnet sich in diesem Fall aber durch robustere Qualität und Knöpfe aus - bis Sigma ihr Telezoom raus bringen wahrscheinlich :-D ). Wenn ich keines von den dreien brauche wird der Vergleich aber sehr schnell sehr realistisch.
@@niduroki Ein Objektiv wird doch nicht besser wenn es mehr Knöpfe hat. Die Kameras haben ja schon soviele. Irgendwann gibts die Kamera mit 20 Knöpfen und dazu Linsen auf denen nochmal 10 verteilt sind und alle sollen einen relevanten Sinn haben?
@@apoertner2000 der Knopf der vorne an der Linse ist finde ich schon praktisch, weil man das Objektiv ja sowieso so hält dass ein Finger/hand da dran ist, während so Knöpfe wie C3 an den aktuellen a7 Modellen eher krampfhaft zu drücken sind ohne vom EVF abzusetzen. Dass das den Doppelten Preis nicht wert ist finde ich aber auch. Edit: Und je nachdem was man macht können 20, oder sogar 40 Knöpfe sogar sinnvoll sein. Dinge schnell zu ändern, ohne vom EVF absetzen zu müssen, oder ohne sich erst durch (bei Sony GROTTIGE) Menüs durcharbeiten zu müssen kann in bestimmten Situationen Gold wert sein. Hat einen guten Grund warum Profi-Video Kameras (also so fünfstellig aufwärts) eine bazillion Knöpfe haben.
eben...wer braucht denn 60MP?... deshalb tolles Glas an tollen Kameras..z.b. Fuji👌 schlägt so manche überpixelte Kamera mit überteuerten Objektiven und das mit Freude am fotografieren 😉
Bravo, immer noch hochaktuell. Ich habe für mich persönlich entschieden, dass 24 MP alle meine Bedürfnisse befriedigen. Sogar mit Crop. Alles bleibt so etwas einfacher, günstiger und effizienter. Das i.d.R. bessere Rauschverhalten tut ein Übriges. Jetzt weiß ich auch, dass weniger MP gut für die Schärfe sind. Danke!
Sehr gut erklärt und mit Praxisbeispielen demontriert, klasse!
Vielen Dank für diese tolle verständliche Erklärung.
Herzlichen Dank Martin. Ich habe mich schon mehrfach gewundert und habe mehrfach meine Kameras und Objektive zur Überprüfung zu Nikon-Point gegeben. Endlich ist mal jemand da, der es verständlich erklärt. Nikon D3 und Nikon D810. Ich sehe deine Videos gerne, da es fachlich einfach nachvollziehbar ist. Nochmals herzlichen Dank.
Hallo Martin, nur zur Info:
Der Faktor bei Pixel/Fäche zwischen 20 und 60 Mega-Pixel-Sensoren beträgt nicht 3 sondern nur Wurzel aus 3 gleich 1,73 (Thilo fragen warum). Um aber den Schachverhalt zu erklären, finde ich didaktisch 3 statt 1,73 Pixel zu nehmen gut! HG Bert
wunderbar erklärt und so wahr!
Da kommt doch normal der Spruch: "Besser haben und nicht brauchen, als brauchen und nicht haben" *Augenzwinkern*
Super und KORREKT erklärt, diese Diskussiun wird IMMER falsch in anderen Foren von LAIEN geführt. ;-)
...jetzt habe auch ich es kapiert 😬
Danke fürs Zeigen! 🙏🏻
Beste Grüße aus Hamburg ⚓️
Jens 👋🏻
Gut sortierte Bar im Hintergrund :-)
Ach ja, wie immer - sehr gut erklärtes Video. DANKE
Excellente Erklärung in Sachen Mega Pixel und Schärfe..... ich hatte es schon zuvor verstanden, aber nie so detailliert super erklärt wie heute. Gaaaaanz fettes Like dafür !!!
Kompliment! Einfach gut erklärt. Danke.
Klasse,wirklich gut erklärt, Danke!
Das hab nun selbst ich verstanden...und das will schon was heißen 😂...Danke Martin
Ich weiß, dass es vielleicht ein wenig viel "verlangt" ist, aber Martin hat zum Schluss um Inspiration für noch mehr Videos dieser Art gebeten. Ich würde es einfach nur unglaublich geil finden, Wenn Ihr ein Video produzieren würdet, welches sich komplett und ganzheitlich mit dem Thema der Auflösung befasst. Wegen mir auch gerne zum bezahlen!! Danke für Eure tollen Videos.
Danke für das wieder Informative Video! Zur Kameravariation kommt auch noch die Objektiv-Variation, denn es gibt ja gute und weniger gute Kopien eines Objektivs. Das ist wirklich ein Minenfeld (seufz!).
Kroplo? 😂 so kommt man auch auf Kommentare. 😂
Ihr macht echt einen super Job ... weiter so ;)
Gutes Video
14:11 diese aktuelle Situation hat Fotografieren als mein Hobby wiederbelebt :-)
Super Video 👍 Klasse gemacht
Tolle Erklärungen vielen Dank 👍
Super erklärt 👍👍 Danke
Tolles Video, danke!
Habe aber noch eine Frage: Ich möchte von meiner alten Canon EOS 700D auf die 90D umsteigen und werde somit von 18 auf 32 MP springen. Woher weiß ich, ob in diesem Fall aufgrund höhere Pixel-Anzahl Fehler zu erwarten sind oder nicht? Als Objektive verwende ich aktuell die folgenden: Tamron 70-210mm f/4 Di VC USD, Canon 18-55mm f/3.5-5.6 IS STM, Canon f/4.5-5.6 IS STM.
Bei 3 mal mehr Pixel auf der gleichen Fläche ist eine Dimension des Pixels nur 1.73 (√3) mal kleiner, oder?
Nun habe auch ich es verstanden, vielen Dank! Die Jagd nach den MP hat eben auch Tücken. Nett übrigens, dass in Eurer Küche eine Flasche Wolfsburn steht und ich an Eure Destination Folge erinnert werde ...
Richtig 👍
super erklärt - verstanden; und jetzt kann ich es endlich auch einem Anderen erklären. Danke!
Aber Achtung, das ist sehr sehr stark vereinfacht. Weil mit Fläche funktioniert das eben nicht so 1:1! Prinzip ist aber wie im Video!
Danke, Super gut erklärt! Trotzdem brauchst du zur Erklärung der Objektivunschärfe mehr als 2 Strahlen, denn ALLE (unendlich viele) Strahlen, die von einem Motivpunkt durch das Objektiv gehen, treffen sich idealerweise in der Schärfeebene an einem Punkt, objektivabhängig ist dieser Punkt real eben mehr oder weniger ein Fleck. Wenn du nur 2 Strahlen schneidest, wird das immer nur ein Punkt sein ;).
Übrigens ein großes Dankeschön für euer "stay at home"-Programm, ihr habt wohl trotz Corona hofffentlich noch was anderes zu tun, und jeden Tag ein Video rauszuhauen ist doch einiges an Aufwand! 👍👍👍
Ich bin echt begeistert, auch wenn das Video schon älter ist, es erklärt es super !
Vielen Dank für eure Arbeit, ich benutze das 70-200 GM seit ca. zwei Jahren, ist mir aber auch nie aufgefallen, nicht extrem, an der Sony a7ii (24MP), jetzt bei der a7iv erkenne ich die leider auch, aber nicht so das ich ein neues Objektiv brauche.
Super erklärt - Danke!
Schönes Video👍 Alte Wahrheit neu verpackt. Natürlich sieht man Fehler des Objektes mit steigender Auflösung besser. Es hängt wie du schon auch selbst am Anfang kurz erwähnst, aber auch maßgeblich vom Pixelpitch ab also nicht nur von der Auflösung. Davon unabhängig ist haben besser als brauchen. Ich sehe den größten Vorteil der hohen Auflösung z.B. einer Sony A7R3 o. 4 in dem Croppotential. Wenn man aus einem Querformat mal schnell ein Hochformat rausschneiden möchte, muss ich mir mit 40 oder 60 Megapixel keine Gedanken machen. Bei 16 Megapixel meiner X-T1 ist da schnell „Ende Gelände“.
Danke, ihr seid abonniert! Physik ist doch was feines :)
Klasse erklärt. Nun verstehe ich auch weshalb Bilder mit meiner alten 60D bei 100% schärfer aussahen, als bei meiner neuen 90D
Danke Martin👍
Super Video Martin, Technik wie immer leicht verständlich erklärt. Wenn Du allerdings den Pixelpitch an Stelle von Megapixel benannt hättest
(Olympus 20MP MFT) wäre ich noch näher bei Deinen Schlussfolgerungen.
Ich freue mich auf euren nächsten Beitrag.
@Team Krolop & Gerst bleibt gesund
Wie immer ein sehr schönes Video! Die neue Technik ist Marken übergreifend auf so hohem Niveau, dass Schärfenvergleiche ja schon fast überflüssig sind. Für die Praxis sind meiner Meinung nach die Unterschiede (bis auf GAANZ wenige Ausnahmen) unbedeutend. Ein Portrait im Gegenlicht eines Sonnenuntergangs bei iso 3200 lebt von der Atmosphäre und nicht von Schärfevorteilen im Randbereich. Ich finde das GM und das Tamron haben im Einsatzbereich zwar Überschneidungen, sind vom Konzept aber doch so weit auseinander, dass sie nicht direkt konkurrieren. Letztendlich eine geniale Idee, auf dem Markt, auf dem es schon alles gibt, eine neue Nische zu finden und auszufüllen. Quasi Reisezoom 2.0 für Hochzeitsfotografen :-).
Sehr gut erklärt!
Hab das mit den Pixeln nie verstanden und dass obwohl ich schon so einige Videos gesehen habe. Dies war das erste, dass mir geholfen hat. Vielen DANK!!!!
Eine Frage hab ich aber noch. Wenn ich mit einem Objektiv auf ein entferntes Motiv zoome. Bei dem sich die Blende von 4 auf 5,6 verkleinert, hat das dann Auswirkungen auf die spätere Anzahl meiner Pixel auf meinem Foto. Oder bleib die Pixelanzahl immer gleich? Hat eine kleine Blendenöffnung überhaut Auswirkung auf die Bildqualität, im Sinne der Dateigröße? Könnte ich ein Foto mit einem einfachen Canon Objektiv genauso scharf hinbekommen, wie mit dem gleichen Objektiv der L Reihe? LG
ich denke, es verhält sich ähnlich wie mit hochklassigen HiFi-Komponenten. Je besser die Übertragungskette (insbesondere die Lautsprecher) ist, desto eher fallen schlechte Aufnahmen auf. Billige Anlagen ebnen alles ein und es kling halt irgendwie. Übertragen auf auf dieses Thema würde das bedeuten, dass ein 42MP Sensor Schwächen eines Objektives stärker aufdeckt, als ein 24MP-Sensor. Nur so ein Gedanke ...
Klasse erklärt. 😉👍
So um 2012/13 wurde absehbar, dass der irre MPrun wieder losgeht. Ich habe mir sofort eine D700 (12MP) bestellt, bevor ich nur noch diese Monster bekommen konnte. Das betrifft natürlich nur meine eigene Photographie. Für Repro ist die A7R4 vllt ein Himmelsgeschenk, allerdings vermute ich, dass in diesem Bereich eh ganz andere Technik zum Einsatz kommt. Danke, K&G, dass Ihr uns auch die feinere Technik/Physik erklärt, aber mit der Erzeugung ästhetischer Bilder hat das nix mehr zu tun (hat van Gogh die Haare seiner Pinsel gezählt?)
Danke für die Erklärungen. Da ich meist mit 26MP fotografiere bleiben die Objektive trag- und bezahlbar. Wegen Covid bleibt leider momentan nur table top und Makro-Fotografie in den eigenen vier Wänden, aber da ist dann auch die Zeit da, vorhandene Objektive mal einer genaueren Betrachtung zu unterziehen. Macht auch Spass, selbst wenn es manchmal unangenehme Überraschungen bei recht teuren Objektiven gibt.
Auf dem Leuchtschild in der Küche steht echt "KroPLo" statt Krolop? ^^ Absicht oder Typo?
Hallo Martin, Du hast das sehr gut erklärt. Meine Frage ist jetzt ab wann wird soetwas in der Praxis relevant. Man kann ja nicht bei jedem Sprung der Auflösung sämtliche Objektive updaten und die alten verlieren enorm an Wert. Bei den hohen Auflösungen kommt ja noch ein ganz grosses Problem obendrauf, das sind die Microverwacklungen. Was nützt mir also ein 60 MP Sensor wenn die Bilder ganz schnell Verwacklungs- und Bewegungsunschärfen haben, die man an z.B. 20 MP garnicht sehen würde. Wer absolute Topergebnisse mit 60 oder 80 MP braucht muss dann auch immer ein schweres Stativ mitschleppen und bei Personenaufnahmen mit noch kürzeren Zeiten fotografieren. Der IBIS, bei statischen Motiven, reicht dann wohl nicht mehr oder die Leistung reicht gerade noch aus um nach der Formel, Brennweite auf FF bezogen, ist die kürzest mögliche Verschlusszeit. Bei einem Pixelboliden überwiegen meiner Meinung nach, für die tägliche Praxis, die Nachteile.
Dass alte Objektive bei MP Sprüngen weniger wert sind ist tatsächlich wahr.
Uralt Analogfilmkameraobjektive sind heute (noch) weniger wert (bis auf ein paar Ausnahmen), weil sie einfach nicht dafür konzipiert wurden viele MP aufzulösen - es braucht aber mehr als einen Sprung von 10MP auf 15MP oder so, weswegen nicht alle 5 Jahre neue Objektive raus kommen müssen.
Wenn 60MP normale Auflösung ist in wer-weiß-wann brauchen wir neue Objektive. Und dann gibt's die A7R25 mit 200MP die zeigt, dass die dann aktuellen Objektive gar nicht gut genug für 200MP auflösen :P
Auch das mit Verwacklungen stimmt. Die Reziproke-Regel gerät schon mit 20MP hier und da an seine Grenzen (IBIS sei dank ist das selten ein Problem) und mit 60MP kannst du 1/Brennweite Sekunden eigentlich vergessen und musst eher die hälfte nehmen, um beim 400% Zoom keine Verwacklungen zu sehen.
Wie du es sagst überwiegen bei Pixelboliden einfach die Nachteile.
@@niduroki Das Sony Objektiv ist noch ok auch wenn es 4 Jahre alt ist. Sony und Lumix S Fotografen haben das Problem im Augenblick nicht. Das Problem haben Canon und Nikon Fotografen, die teilweise 10 Jahre und ältere Linsen an ihre z.B. Z7 adaptieren. Ich sags mal ganz brutal: Diese Linsen bringen es nicht an neuen Kameras mit hoher Auflösung. Man guckt auf die Bilder und sie sind nicht endscharf. Eine neu gerechnete Linse ist dann wie eine Offenbarung. Wir dürfen uns nichts vormachen, ein Wechsel zu einem Pixelboliden aus dem Canon und dem Nikon Lager macht die alten Linsen wertlos und unbrauchbar, sollte tatsächlich die Performance eines 50, 60 oder 80 MP Sensors gebraucht werden. Sollte sie nicht gebraucht werden ist die Anschaffung eines Pixelboliden sowieso unsinnig. Mich erinnert das an den Spruch: Ein Schwanz bis zu den Knien und in der Mitte ein Stück, das nicht steif wird :)
Danke, für diese Augen öffnende Erklärung. Aber eine Sache verstehe ich mal wieder nicht. Martin sagt in diesem Video (nicht wortwörtlich) "Man vergrößert, und nichts anderes ist eine höhere Auflösung, nicht die Details sondern nur die Größe des Bildes, und somit seine Schwächen."
Aber wenn ich mit einer höheren Auflösung nicht mehr Details fotografieren kann, warum konnte man dann bei dem 100 Megapixel Bild aus dem Foodfotografie Video (LIVE WEBINAR - Lichtsetzung in der "Food-Photography" 📷 Krolop&Gerst (DENGLISCH-ALARM)) so unglaublich tief zoomen? Das Bild hatte doch definitiv um Welten mehr Details als wenn ich das Bild mit meiner D5100 mit 16,1mp fotografiert hätte??! Oder liegt es daran, das das Bild mit irgendeinem besonderen Modus fotografiert wurde? (das wurde es nämlich)
Das heißt, ich sehe mit einer hochauflösenden Kamera nicht mehr Details im Bild, als wenn ich mit meiner Nikon D5100 fotografiere?
Relevantes Thema vernünftig erklärt! Nur die Vereinfachung bei der Auflösung kann ich nicht ganz mitgehen, da hättet ihr wirklich die im Vorspann erwähnte Wurzel ziehen müssen. Aber was soll‘s, die Schlussfolgerung wäre ja dieselbe gewesen.
Kürzlich wollte ich mal wissen, wie gut meine neue wasserdichte Kamera im Vergleich zu SmartPhone und MFT-Kamera ist. 3 verschiedene Auflösungen also. Ich habe mich für den UHD-Fernseher als Vergleichsmedium entschieden und alle Testaufnahmen in dessen Auflösung ausgegeben, direkt aus dem RAW-Konverter. Also nur 8 MP! Trotzdem war der Unterschied deutlich. Für einen Vergleich meiner besten Objektive wiederum musste ich den Highres Mode meiner Olympus PEN-F nutzen, um einen Unterschied zu sehen. Der also in der Praxis kaum relevant ist, denn die Bilder guckt man sich ja auf einem Bildschirm an...
Klasse erklärt, ich frage mich auch wie weit der Pixelwahn noch gehen soll? Diese hohen Auflösungen brauchen wohl eher eine kleine Minderheit an Fotografen.
60 zu 24 MP entspricht etwa gerade dem Canon Crop-Faktor. So gesehen ist es nicht gerade viel mehr Auflösung.
Prima erklärt.
Der Kniff mit der Vereinfachung nennt sich "didaktische Reduktion"... :-)
Ist das Video ein re-upload?
Wenn ich etwas nicht verstehe male ich mir auch in meinem Kopf etwas aus und manchmal stimmt ein wenig davon. Hast du auch vorher die Firmware des Objektivs aktualisiert? Wie funktioniert ein Sensor? Einen Test von Objektiven kann man nur sehr ungenau an einer Kamera machen, deswegen ist die optische Leistung eines Objektivs nur direkt zu messen. Ein Objektiv besteht ja nicht nur aus einer Linse, es gibt hier schon optische Korrekturen, abgesehen von der Software. Licht: Wellen oder Teilchen?
endlich jemand macht richtig
Vielen Dank für die vielen Videos von Euch, die ich mir nun seit einigen Tagen anschaue. Allerdings muss ich doch mal Kritik los werden. Zu aller erst: Nein, es ist nichts kompliziert. Es wird nur kompliziert gemacht. Was ist z.B. so schwer daran zu verstehen, dass die Pixel eines Sensors auf die Fläche gleichmäßig verteilt werden und sich daraus eine Pixelgröße ergibt? Was soll so schwer daran zu verstehen sein, dass die Pixel in sich eine Anordnung haben? Hier wird auch kräftig über die optische Auslösung von verschiedenen Sensoren gesprochen und als Erklärung für Ergebnisse herangezogen. Etwas zu kurz kommt dann doch die Leistung der Software, die aus dem RAW-Daten ein Bild macht. Ähnlich ungenau, oder sagen wir mal abgebrochen, sind die Erklärungen mit den Strichen im Malprogram. Für mich sind das deutliche Anzeichen von Unsicherheiten in der Materie. Sicherlich erzwungen durch den Glauben es sei schwer und man müsse diese Komplexität mit einfachen Worten erklären. Versucht einfach mal die Komplexität auszuklammern und mit einfachen Worten das "ist" zu beschreiben. Könnte sein, dass es dann tatsächlich einfach ist und die Erklärungen genauso einfach rüber kommen - Die meisten kommen wohl auch so zurecht. Insofern ist meine Kritik mehr ein Hinweis und letztendlich kann ich nur über mein Empfinden sprechen.
Edit: Doch noch einmal eine Frage zu der Erklärung mit der Schärfe des 60MP Sensors: Nehmen wir an, Pixel 1 und 3 sind Pixel für Grün und Pixel 2 ist rot. Welchen Einfluss hat denn diese Anordnung auf die Schärfe bei dem angesprochenen Objektiv und den Licht-Streuungen?
Sollte man also keine hochauflösende Kamera mehr kaufen als Konsequenz daraus, aber wie handeln dann die Leute von phase one die Sache? IQ4 150MP, ich weiss Mittelformat
Hallo Martin
wenn ich deine Erklärung als richtig ansehe, ist der Umkehrschluss also. Ein "Traumobjektiv" hat 1 Pixel...
da kann doch etwas nicht so ganz richtig sein. ich erinnere mich an die Anfänge der CD, plötzlich kamen 1Bit Spieler auf den Markt, die anscheinen alles Andere an die Wand fuhren, nur was ist aus dieser Technik geworden?
Also, wenn dann schon hat der "Traum-Sensor" einen Pixel.
Aber das ist natürlich nicht gemeint.
Sondern, dass vorhandene Objektivfehler mit zB 20MP garnicht aufgelöst werden mit 60MP aber eben schon. Die Objektivfehler werden eben erst durch die hohe Auflösung sichtbar.
Hier ist mE viel entscheidender wie Praxisrelevant dieses ist. Bei Offenblende am Rand und 60MP ist das für mich jedenfalls völlig irrelevant. Weil ich für die Auflösung keine Verwendung habe, habe ich mir auch nur eine Z6 angeschafft.
Ein Objektiv hat gar keine Pixel, ein Objektiv kann Pixel auflösen.
Eine Traumkamera, mit der es keine Unschärfeunregelmäßigkeiten gibt hat einen Pixel, ja (so 1 Pixel Kameras gibt es sogar, ziemlich interessant, was man damit machen kann - Offtopic), denn dann kann das Objektiv am Rand (oder allgemein) noch so schlecht sein, solange man es irgendwo scharf stellen kann ist es gut (wie groß dieser Pixel ist müsste dann damit noch einfließen, aber das ist jetzt auch mir ein bisschen zu theoretisch) - es sind ja Unschärfe-UNREGELMÄẞIGKEITEN, wenn es nur einen Pixel gibt ist nix unregelmäßig.
Ein Objektiv dass nur einen Pixel auflöst auf eine Kamera die mehr Pixel auflöst zu stecken sorgt dann dafür, dass die genannten Probleme auftreten - die Kamera ist so gut, dass sie die Fehler im Objektiv zeigt (für die es nicht konzipiert wurde).
Ich weiß nicht ob das verständlich ist - gibt nen Grund warum Optik an Hochschulen gelehrt wird, aber was du (wahrscheinlich nebenher) richtig erkannt hast ist, dass eine Traumkamera möglichst WENIG Pixel hat (aber *trotzdem* genug - wo liegt der Sweet-Spot aktuell? Gute Frage!), denn wenn man zu viele Pixel hat gerät man an die Grenzen des Objektivs - deswegen sind billig uralt-Filmkamera-Objektive an modernen Kameras Schrott. Bei den Megapixeln sieht man die Unregelmäßigkeiten im Objektiv. Damals auf Negativen, oder standard großen Abzügen hat man das nicht (ohne Lupe/Mikroskop) gesehen.
Ist auch der Grund warum die A7R4 aktuell so unsinnig ist, oder Vollformatobjektive an APS-C (oder kleiner) Kameras mit Vorsicht zu genießen sind (die A7R4 ist ja - vereinfacht - nichts anderes als 2 APS-C Sensoren zusammen geklebt).
Wäre schön gewesen, wenn du vielleicht einmal "Chromatische Abberation" statt immer nur "CA" gesagt hättest.
Es gibt viele Ursachen für Unschärfen, oft ist es eher Bildfeldwölbung, das heißt, dass die Schärfenebene nicht plan, sondern gewölbt ist.
Wenn die Schärfe der Abbildung in der Mitte in der Sensorebene liegt, kann sie am Rand dahinter oder davor liegen.
Dieser Fehler ist bei der Objektivkonstruktion viel schwieriger zu korrigieren als Chromatische Abberation.
Allerdings in der Praxis von geringerer Bedeutung, weil er nur dann massiv zutage tritt, wenn man ebene Objekte fotografiert.
Ein reales Foto hat ja so gut wie nie einen planen Hintergrund oder ein planes Motiv.
Ursachen für "konstruktionsbedingte" Unschärfe sind Sphärische Abberation (heutzutage wegen der komplexen, viellinsigen Objektive wohl eher nicht *kugelförmige* Abweichung), die dafür verantwortlich ist, dass sich die Strahlen außerhalb der Bildmitte *nie* in genau einem Punkt treffen, sodern eher in einer Ellipse, die Bildfeldwölbung und die Chromatische Abberation.
Beim Berechnen eines Objektivs müssen alle drei Effekte optimal (maximal gibt's nicht ;-) korrigiert und der beste Kompromiss gefunden werden.
Je extremer die Optik im Hinblick auf Zoombereich, Lichtstärke oder Bildwinkel (Weitwinkel) ist, desto schwieriger ist es.
Historisch war es ja so, dass die ersten Zoomobjektive Telezooms waren (z.B. die Legende Vivitar Serie 1 70-210, Legende nicht, weil es besonders gut, sondern weil es das erste Kleinbildzoom für den Consumermarkt war), und dass es sehr lange gedauert hat, bis es kürzere Zooms und gar Zooms gab, die aus dem Weitwinkel- in den Telebereich gingen. Mit der verfügbaren Rechenleistung (vor Computern hat man ein paar Dutzend Leute in den Keller gesperrt und mit Papier und Bleistift endlose Zahlenkolonnen rechnen lassen) wurden auch die Zoombereiche und Lichtstärken immer größer.
Weitwinkel-Zooms wie z.B. ein 8-25 mm von Olympus, das aus dem Extremweitwinkel in den Normalobjektivbereich geht (wir reden hier von MFT), und das bei einer sehr guten Bildqualität, waren vor ein paar Jahrzehnten schlicht unmöglich. Man konnte die nicht rechnen, man konnte die asphärischen Flächen nicht fertigen (zumindest nicht bezahlbar), und man hatte die LD und ED Gläser (Linsenmaterialien mit geringem Brechungsindex, die man braucht, um vor allem Farbfehler zu korrigieren) noch nicht.
In einem Pixel sind ja vier messpunkte, welche die freuenz Photonen messen. Ich glaube es waren zwei für grün einen für rot einen für blau.
jetzt frage ich mich was passiert wen man jetzt die Messpinkte so programmiert das sie nur noch eine Farbe auslesen. Schließt man so sorusagen 4 Pixel dann zu einem Großen zusammen, müsste die Kammera doch extrem Lichtstark werden und auch diese Pixel fehler verschwinden?
Warum macht man das nicht? Können die messpunkte nur eine frequenz messen oder ist das Software?
Liebe Grüße,
Johannes
Die Sache ist (zumindest bei den gängigen Sensoren mit Bayer-Pattern) ein wenig anders. Jeder Sensel (also Sensorpunkt) ist nur sensibel für Rot, Grün ODER Blau. Die anderen Wellenlängen werden quasi jeweils rausgefiltert, also auch nicht gemessen.
Beim Verarbeiten der Rohdaten werden dann die fehlenden Farben interpoliert, also im Prinzip clever geraten, ob das Pixel neben dem Pixel was ziemlich rot ist eben auch rot ist. Sehr vereinfacht.
In dem Sinne können Kameras auch nicht lichtstärker werden. Es können ja nur die Photonen gezählt werden, die tatsächlich da sind. Also braucht man entweder mehr Licht oder längere Belichtungszeiten.
Zu genau diesem Thema haben wir auch eine umfangreiche Videostrecke bei uns im Store: www.kg-link.com/sensorstrecke
4 Pixel sind 1 Pixel? Ist das auf Entrastern bezogen? Wäre mir neu 😅 :D
Kommt noch ein upload nr5 wegen dem herrn Kroplo?😂🙈
Danke nochmals für die Erklärung. Bei mir sowieso egal. Ich ziehe die Brille aus und gut😂. Ich kaufe die Kamera eh nur wie sie mir gefällt. Gut genug sind heute wirklich alle für mich. Eventuell Abstriche bei mft, aber nur bei speziellen Aufnahmen. Gruß Carsten VP
Einfach nur ein Danke.
Perfekt erklärt aber das mit dem Faktor drei beim Querschnitt lassen wir das mal lieber ;)
Wenn im Querschnitt aus einem, drei Pixel werden, dann hätte sie 180 statt 60 MP🙈
Aber das Prinzip ist super erklärt 💪
Hatte er im Disclaimer erklärt, dass der Sensor als 1D-Linie, statt als 2-D Fläche angenommen wird, um es zu vereinfachen :-)
@@niduroki trotzdem ordentlich verwirrend
Ich denke deshalb ist es beim Vergleich optischer Systeme wichtig,
dass man das Ergebnis immer in einem bestimmten Maßstab anschaut.
Dann ist das produzierte Bild eben bei A3 noch gut und bei A2 vielleicht nicht mehr.
Das Ergebnis ist doch das was zählt.
Oder?
Hallo Martin
Hoi Team 😊
Ich verstehe das ganze "Theater" nicht?! Vereinfacht gesagt: Ihr habt einen Test gemacht da hat, nach euren Resultaten und eurer Einschätzung, das "billige" Objektiv besser abgeschnitten, uuuiiii uuuiii... "schlimm"! 😭 (😊)
Wer es nicht glaubt, oder glauben kann, dem sei das natürlich zugestanden aber dann soll er es doch einfach testen bevor er es kauft. Um es mal mit den Worten von Stephan Wiesner zu sagen: Nicht glauben, ausprobieren! 😉
Ich habe nicht mehr soooo gute Augen aber ich hatte auch (subjektiv) das Gefühl, dass das Tamron eine Spur "besser... schärfer... etc." war.
Konstruktive Kritik muss... soll sein dürfen von daher DANKE, dass du (noch einmal) darauf eingegangen bist! 👍
Gruess und bliebed G'sund
Päde
Hallo Martin. Besten Dank auch für dieses Video. Obwohl mein IQ wohl eher im tiefen, zweistelligen Bereich angesiedelt ist, hatte ich es komischerweise schon vorher begriffen. ;)
Nachdem Du das Test-Video nebst deutsch auch schon in englisch gedreht hast ,hoffe ich nun, dass nicht auch noch eine Version in trollisch nötig sein wird. 😉 Stay cool, stay @home. Liebe Grüsse aus der Schweiz.
Also vielen Dank für die Updates. Die Erklärungen überzeugen und bestätigen mich in der Entscheidung, euren Kanal abonniert zu haben. Wäre es bei diesen Erkenntnissen nicht auch wichtig, wenn die Hersteller bei den technischen Daten mit angeben, für welche Pixelanzahl bezogen auf die Sensorgröße das Objektiv gerechnet wurde?
Eigentlich ja, man müsste das irgendwie relativieren.
@@krolopgerst Das stimmt schon. Das Problem dabei wäre, dass die Kamerahersteller bei jedem grösseren Sensorupdate auch alle Linsen komlett neu rechnen müssten und diese noch teuerer würden. Zudem würden sie ihr eigenes Marketing von immer mehr MP ad absurdum führen. Der Gebrauchtmarkt würde komplett kolabieren, da sich niemand der bei Sinnen ist, ein Objektiv kaufen würde welches nicht die Performance der Kamera erreicht. Ihr habt also echtes Insiderwissen vermittelt.
Ja, Du erklärst immer die Strahlengänge.
Aber die Glasqualität ist auch massgebend für die Schärfe.
Wie viel Linienpaare löst das Glas auf?
Wie klar das Glas ist, wie genau ist die Linse geschliffen in Mikrometer Bereich.
Heute stand 2024 schafft es Sigma meist schärfere Objektive/ Gläser zu bauen, als Sony.
Klar, die Bauqualität der Einzelteile ist wichtig. Aber die Strahlengänge sind sozusagen die globalen Baupläne. Das ist sozusagen wie wenn ich sage, dass der Motor gut konstruiert ist und du sagst, aber das Metall muss trotzdem echt gut sein vom Stahlwerk... ja... muss es... Meine Aussage steht aber nicht gegen deine Aussage und schließt deine Aussage auch nicht aus.
@@krolopgerst
Danke für die Erläuterung, bin immer totaler Fan von Euch. 😉
Also bei dem langen Disclaimer hätte man es auch gleich richtig sagen können statt 1:3 anzunehmen (ohne Erklärung) 😉
Hey, gutes Video :)
Sehr verständlich erklärt, wie immer.
PS: Im "Disclaimer" steht im Hintergrund auf der Tafel "KROPLO & GERST" ;)
:-) Mitarbeiter und ihre Späße wenn der Alkohol fließt.
Nach dem Kommentar hab ich gesucht! Hab mich gefragt, ob das schon immer so war oder ein neuer Scherz :)
@@Flo9919901 Haste gute Mitarbeiter, brauchste keine Feinde mehr!!! :-)
Es spricht nicht für das Objektiv, wenn ein drei Mal so teures GM-Objektiv an derselben 60MP Kamera mit demselben Sensor bei korrekter Fokussierung unschärfer ist als ein preiswertes Tamron. Punkt.
Das GM ist 4 Jahre älter, und wurde nicht für 60MP entworfen (wahrscheinlich nicht mal für 40MP auf der A7R2 von damals), dafür aber mit OSS.
… Ja, auch ich würde mir - vor allem nach dem Review - bestimmt nicht das GM für den doppelten Preis kaufen, aber Sony hatte die letzten paar Jahre nun mal das Monopol 😅
Die Fokussierung war immer perfekt. Dafür haben wir die schräge Box eingebaut. Also die neben der gelben Box. Die ist schräg und daran kann man erkennen ob der Fokus vorne oder hinten sitzt.
Niduroki Sony wirbt offensiv damit, dass alle GM Objektive für die Kameras der Zukunft mit hohen MP entwickelt werden.
@@ytano5782 Mein Ford soll auch nur 4.6l/100km schlucken. Sagt Ford offiziell sogar in den Unterlagen zum Auto... Auch der CEO von Ford behauptet das... trotzdem gelogen!
Es gibt kein Objektiv, nicht mal das sagenumwobene, hochauflösende Zeiss Otus 55 Millimeter, welches auch nur 36 Megapixel eines Vollformatsensor auflösen kann. Außerdem ist es natürlich praxisfremd nur die Randschärfe bei Cropsensoren als irrelevant zu betrachten. Ein Cropsensor verlangt mindestens den Cropfactor mehr Objektivauflösung gegenüber dem Vollformatsensor. Ein Cropsensor mit dem Faktor 1,5 also statt beispielsweise 100 Linien 150 Linien Objektivauflösung.
Immer gut wenn man die Resultate relativiert. Interessant wäre z.B. auch mal die früher eintretende Beugungsunschärfe zu erwähnen welche höherpixelige Sensoren hervorrufen. Ein Schönheitsfehler bei der Berechnung 7:30 aus 1 wird 1.7 statt 3 weil der Sensor eine Fläche darstellt.
Hatte ich ja angesprochen mit der Fläche... :-)
KROLOP & GERST ... und das mit der zunehmenden Beugungsunschärfe. Vor etwa 2 Wochen. Habe es gerade gesehen. Entschuldige. :-)
@@brunoberger9490 die hängt von der blende ab. Wir haben dir Testfotos nicht mit F16 sondern mit f2.8 und f5.6 gemacht. Da gibt es noch keine Beugung.
KROLOP & GERST Ja ich weiß. Es war eine Vermischung unterschiedlicher Themen. Mein Fehler, sorry.
sauber.
Bei euch steht ja nur Schabau rum 🥃🥃🍻😆😁🤗
Hallo! Ich frage hier nochmal , auf dem Foto der Kodakschachtel kann man bei dem Tamron mehr Rauschen sehen. Kann es irgendwie am Tamron liegen oder das die Sony irgendwie nicht richtig mit Fremdobjektiven zusammen arbeiten will? Ich habe mit meinem 120-300 auch ab und an komische Muster auf Fotos. Die sieht man aber auch erst bei starken Vergrößerungen. Danke und danke für eure Videos, gucke ich echt gern. Bleibt gesund!
Findest du? Also Rauschen sehe ich da nicht mehr aber schärfere Objektive führen natürlich auch zu mehr Mikrodetails.
@@krolopgerst Rauschen macht der Sensor ganz allein egal was ein Objektiv auflöst. Hier könnte eher die Transmissiongüte des Objektivs eine Rolle spielen. Sprich: selbe Blende heißt noch lange nicht, dass hinten auch die selbe Menge Licht rauskommt. Also ja, es kann sein dass ein Objektiv zu mehr Rauschen führt als ein anderes bei selber Blende.
Ich bin mit meine cameras 15 und 20 MP zufrieden.
Mehr ist auch echt meistens nicht nötig!!!
Tja, braucht man's oder braucht man es nicht. Gerade ein Tele soll zum Teil auch mal weit entfernte Dinge einfangen, z. B. einen 5 km weit entfernten Turm möglichst scharf abbilden. Hier braucht man jedes Körnchen Leistung vom Objektiv und bei mft erst recht. Sonst könnte man die Bilder ja mit einer Superzoom Kamera schießen!
Bei 5km hast du keine Schärfe mehr. Ab 500m stört dir normale Atmosphäre die optische Leistung.
@@krolopgerst Atmosphärische Störungen gibt es sicher. Aber bei 5 km Entfernung und gutem Wetter summiert sich trotzdem viel, für den kleiner Sensor (mft G9) bei einer "nur" mittlere Optik lumix 45-200 wird hier mit Sicherheit der selbe Unterschied, zum hochwertigen Objektiv lumix 50-200 auftreten, wie im Objektivtest die 24 mp zu den 60 mp der Sony-Kamera zu sehen war. Was nur noch zu beweisen wäre.
@@lwzz7106 Das ist nicht praxisrelevant, weil niemand erwartet einen Turm in 5km Entfernung genau so scharf zu haben als wenn man mit einem WW davor steht. Normalerweise ist der Turm in 5km Entfernung auch kein tragendes Bildelement mehr.
Aber trotzdem erwartet man doch, dass solche Fehler bei einem GM Objektiv nicht auftreten! Es müsste doch egal an welcher Kamera immer besser sein als das Tamron. Oder ?
Irgendwie wird man dich die Kamera Industrie immer mehr dahin gelenkt immer das neuste größte und beste zu kaufen
Preise zu vergleichen ist immer so eine Sache.
1. Ein Objektiv sei es von Sony Nikon oder Canon ist immer teurer weil die Marken sich die Marke bezahlen lassen.
2. Der Stabilisator kostet auch so 400€ und mehr.
3. Und dann die fehlenden 20mm macht es günstiger
Klar ist das ein Vergleich zwischen Birnen und Äpfeln.
Andererseits muss man überlegen ob ich Marke, OSS und die 20mm extra brauche. Dass OSS durch IBIS eigentlich nicht sooo wichtig ist, und das die 20mm die fehlen schon sichtbar sind wurde ja im originalen Video angesprochen. Die Marke hat für mich nicht so sehr viel Wert (zeichnet sich in diesem Fall aber durch robustere Qualität und Knöpfe aus - bis Sigma ihr Telezoom raus bringen wahrscheinlich :-D ).
Wenn ich keines von den dreien brauche wird der Vergleich aber sehr schnell sehr realistisch.
@@niduroki Ein Objektiv wird doch nicht besser wenn es mehr Knöpfe hat. Die Kameras haben ja schon soviele. Irgendwann gibts die Kamera mit 20 Knöpfen und dazu Linsen auf denen nochmal 10 verteilt sind und alle sollen einen relevanten Sinn haben?
@@apoertner2000 der Knopf der vorne an der Linse ist finde ich schon praktisch, weil man das Objektiv ja sowieso so hält dass ein Finger/hand da dran ist, während so Knöpfe wie C3 an den aktuellen a7 Modellen eher krampfhaft zu drücken sind ohne vom EVF abzusetzen.
Dass das den Doppelten Preis nicht wert ist finde ich aber auch.
Edit: Und je nachdem was man macht können 20, oder sogar 40 Knöpfe sogar sinnvoll sein. Dinge schnell zu ändern, ohne vom EVF absetzen zu müssen, oder ohne sich erst durch (bei Sony GROTTIGE) Menüs durcharbeiten zu müssen kann in bestimmten Situationen Gold wert sein. Hat einen guten Grund warum Profi-Video Kameras (also so fünfstellig aufwärts) eine bazillion Knöpfe haben.
eben...wer braucht denn 60MP?... deshalb tolles Glas an tollen Kameras..z.b. Fuji👌 schlägt so manche überpixelte Kamera mit überteuerten Objektiven und das mit Freude am fotografieren 😉
Für sauberere Resultate müsstet Ihr an monochromen CMOS testen, wegen des Problems des Demosaiking. Danke für das Video.
Das meinte ich mit Bayer Partnern RGB Problematik
@@krolopgerst tut mir leid, das hatte ich dann überhört.