Jag skrev vid ett givet bitdjup!!!!!!!!!!!!!
Det är viktigt att betona det vid jämförelser eftersom HD (1080P) innehåller ungefär 2 Mpixlar per bild och 4K dubbelt så mycket.
Vad som har betydelse är hur bilderna lagras (CODEC) . Om vi tar fallet 50 fulla bilder per sekund kommer det att åstadkommas ungefär 12 MB respektive 24 MB per "bildruta".
Jag räknar då med 16 bit färgdjup (48 bit kombinerat som RGB) okomprimerat. Skillnaden är egentligen bara att informationsmängden fördubblas.
Med en given datorkapacitet och aktuellt bitdjup kan man därför bara säga att bearbetningstiden virtuellt blir dubbelt så lång. Inte ens det är sant eftersom RAW-konvertering inte fungerar riktigt på det sättet. Tidsåtgången ökar inte riktigt i den nivån. För SD-video är kan man tänka på att bildrutan var (PAL) 0,4 K. Steget till HD var betydligt större.
Råkonvertering är tungt så varje typ av accelerering är önskvärd. Kostnaderna är också en betydande faktor för anpassning till ekonomiska realiteter.
Att konvertera 200 20 Mbit-stillbilder (Canon 5D Mk II och 14 bit färgdjup) tar en stund och det är bara 4 - 8 sekunder om det skulle vara aktuellt med "20K".
Observera att allting handlar om att jämföra relationer mellan upplösning.
Det var inte bättre förr. Den ursprungliga PC:n (1980) klarade (i bästa fall) ungefär 1 miljon enkla operationer per sekund och ungefär 700 flyttalsberökningar.
10 år senare klarade en vanlig dator 16 ggr så mycket och man slutade att göra jämförelser vid 16000 (2000 ungefär).
MAC kom inte i närheten av sådana prestanda förrän Apple började använda samma processorer som alla andra.
Jag började med datorer 1970!