Da wird überall von Künstlicher Intelligenz berichtet, aber eine wesentliche mathematische Kernbereich für KI-Algorithmen ist immer noch die Wahrscheinlichkeitsrechnung.
Da wird von einem Test berichtet, welcher scheinbar Samsung als extrem schlecht darstellen lässt. Naja schauen wir uns einmal den Mittelwert von allen 14 Bildern zu dem ganzen an:
34,0%...Pixel
33,1%...iPhone
32,9%...Galaxy
Ich bin es eventuell vom ingenieurwissenschaftlichen Diskussionen gewöhnt, aber wäre dies eine Seminararbeit oder gar Bac-/Masterarbeit und dort wird so eine Auswertung gezeigt, naja dann würde der erste Professor den Studierenden zerlegen (im Sinne der Wissenschaft, nicht im Sinne von persönlichen Absichten).
Hier kanns sich gern jeder selbst ein "Bild" machen, ob diese Umfrage/Auswertung irgendwelchen Mehrwert hat. Wenigstens wurde pro Bild die prozentuelle Verteilung gezeigt, dass man die statistischen Verteilung auch besser nachprüfen kann.
Abseits davon müsste man aber auch klar definieren, was für "bestes" Bild genau gemeint ist. Ein Messgerät welches mir stabil "schöne" Messwerte anzeigt, weil es gewisse Schwankungen über die Zeitskaler gar nicht messen kann oder wegfiltert ist nicht zwingend das genaueste Messgerät.
Mir ist schon klar, dass es bei Smartphonebildern immer mit der gesamte digitale Signalverarbeitung zu betrachten ist, weil sonst würde so ein Sensor eh nur verrauschte Bilder verursachen. Aber ein Referenzbild ist einfach zwingend notwendig, wenn ich bei einem Bildbearbeitung-Monitor den sRGB-Modus einstelle schaut das Bild auch schlechter aus, als im Vivid-Modus. Hier müsste ein klare Definition für die Testbedingungen gemacht werden. Ein Referenzbild, welches bezüglich Weißabgleich, Kontrast, Detailgrad usw. am ehesten der Wirklichkeit entspricht wäre hier sicher eine seriösere Betrachtung.
Klassische Musik hat in Wirklichkeit auch mehr Dynamikumfang (leise und laute Töne), als moderne elektronischer Musik im 4/4-Takt. Keine Angst ich liebe elektronische Musik, aber man muss klar definieren, was man möchte.
Wenn ich den Sensor mit den Algorithmen als Gesamtsystem testen möchte gehören zwingend bewegte Bilder dazu. Mit Bildschabilisatoren und den vielen Pixeln kann man aus einem ewig belichtetes Bild viel an Detailgrad rausholen. Mich würde hier z.B. interessieren wie die Algorithmen der einzelnen Smartphones funktionern. Welches Smartphone reagiert soweit, dass perfekt den Sweetspot zwischen scharf dargestelltes bewegendes Kind und ingesamt den Detailgrad findet. Genau das ist, was heute noch immer der DSLR-Fotograf mit Belichtungszeit, ISO-Empfindlichkeit und Blende im manuellen Modus einstellt und auf solche Dinge sollte eigentlich auch ein Smartphone getestet werden, wenn ich schon den KI-basierten Automatikmodus auf Herz und Nieren auf das Verhalten in Extremsituationen testen möchte.