Das ist bei Smartphones in aller Regel eine Kombination aus der Bearbeitung im DSP/ISP ASIC der im SoC integriert ist und einer zweiten Bearbeitungsschleife in der NPU. Einen gar nicht so geringen Anteil des Ergebnisses macht im Smartphone allerdings die Bearbeitung im DSP/ISP aus. Das ist halt ein fest verdrahteter Schaltkreis und nicht General Purpose. Daher kommt die hohe Effizienz für den spezifischen Anwendungsfall. Deswegen sind z.B. die Kamera Ergebnisse von Samsung Smartphones in der Exynos Ausführung anders als in der Snapdragon Ausführung, da hier der DSP/ISP ein anderer ist. Bei den Google Tensor SoCs sind das auch Googles eigene DSP/ISPs die verwendet werden (einer der Teile die Google an dem SoC selber macht). Fixed function Einheiten können solche Aufgaben mit eingeschränkteren Umfang meist deutlich effizienter ausführen. Nur steigt halt die Schaltkreiskomplexität irgendwann rapide an und man ist unflexibler.
Es ist schon erstaunlich, was die Smartphone-Kameras bei den relativ kleinen Prozessor so leisten.
Ich erreiche zwar am PC gleiche oder bessere Nachtergebniss, z.B. mit VQCNIR von Github, aber dafür benötige ich eine CUDA-fähige Grafikkarte und einige Sekunden Zeit.
Die Technik dahinter würde mich schon interessieren ....
Drei ungleiche Schwergewichte im Kamera-Markt treten in einer Street Photography Challenge gegeneinander an und zeigen einige ihrer individuellen Stärken und Schwächen in einem aktuellen Youtube-Video. Können sich die Leica- und Zeiss-Kameras von Xiaomi 14 Ultra und Vivo X100 Pro gegen die Retro-Design-Kamera Fujifilm X100 VI behaupten oder diese sogar übertreffen? Es kommt darauf an.