Tjena!
Jag har fastnat i detta med kilobits per second och hur det blir megabyte per second och jag förstår att det finns en skillnad mellan bits och bytes.
Det som förvirrar mig är att räkna ut videostorlekar. Jag tog ett Game of Thrones avsnitt i 1080p som är 3412 sekunder långt.
Filstorleken är 3,58 gigabyte, alltså; 3,58*1024=3665,92Megabyte.
Detta ger då: 3665,92/3412~1,074 Megabyte per sekund och det kan inte stämma?!
För kollar jag i ett bitrate program står det "8649kbps in average" och då antar jag mer något i snitt med 7,7Megabyte per sekund.
Men detta funkar int