Gå till innehåll

video_sync

Medlemmar
  • Inlägg

    432
  • Blev medlem

  • Dagar Vunna

    2

Allt postat av video_sync

  1. Att kunna arbeta med HDV i RT fungerar OK i dagens läge. Även i dagens färdigsatta konsumentdatorer som köpes på "Pappa Stefan SIBA / ON OFF", finns det hårdvara nog att kunna processera samt arbeta i RT med HDV MPEG-2. Vanlig DV25 baseras på Intraframes endast. Dvs varje bildruta av 25 per sekund (PAL) är fristående och därmed inte beroende av varandra. Om en simpel framedrop som orsakats av segmentfel på bandet sker, så hamnar 1 bildruta i förlust (Om inte ett större signalfel orsakats). HDV (MPEG-2 MP@H1440) baseras på Intraframe samt Interframes. Dvs både hela bildrutor (Intraframes) samt skillnader baserade på de hela bildrutorna (Interframes) är sammanlänkande i en strukturering i signalen. i vårt PAL system hanterar HDV 12 st bildrutor i en och samma strukturering, denna strukturering av dessa 12 bildrutor som består av Intra/Interframes, kallas för GOP (Group Of Pictures). När en HDV signal skrivs, sker en mer advancerad process än vad fallet är med en DV25 signal. Strömmen komprimeras hårt i RT, och detta skötes utav en DSP som kalkylerar och bearbetar struktureringen av bildsignalen till GOP´s. Dessa GOP´s ligger latent efter varandra vid skrivning till en fil på bandet. Så om ett signalfel uppstår i en GOP, så påverkas samtliga bildrutor i denna GOP, vilket innebär att flera bildrutor blir droped frames. Om jag själv får lägga min personliga åsikt, så är HDV inget format jag väljer i första hand för en längre produktion. IntraOnly baserade format är alltid att föredra och underlättar i alla tänkbara fall, både på fältet samt i post, speciellt signalmässigt vid kännslighet. Trots även att man inte kan påstå att HDV endast är ett format för produktionen med en smärre budget, så är det ett format som i regel (native) riktar sig till ett projekt som omfattar mindre postprocesser. Om det redigerade HDV materialet skall flyttas till olika NLE´s samt genomgå digital effektkomp. så krävs det renderingar, vilket om man håller sig till HDV profil vid varje, ger förluster på förluster då GOP struktureringen skrivs om vid varje gång. Är inspelning i HD absolut nödvändigt, så är valet av formatet DVCPRO HD ett deffinitivt beslut om budgeten tillåter. DVCPRO HD fungerar som 4 st DV25 kodek som skrivs parallelt i en sammansatt dataström på totalt 100 mbit / sek och klarar därefter av att skriva fulla Intraframes i samtliga av dagens HD standarder (Dock ej fullraster 1080 signal). Förlita dig på hederliga DV25 om HD inte är en nödvändlighet, formatet är till fullo utvecklat, har ett stort kompabilitetsområde framför sig och är vagt prestandakrävande vid redigering.
  2. video_sync

    10 bits Capture?

    SD-HDI ? , Du menar HD-SDI (SMPTE 292M).. Jo korrekt, Sony´s urbotat korkade idé på XDCAM PDW serier nedsamplar 4:2:2 signalen till en 4:2:0 innan utskick, vid utskick uppsamplas signalen återigen till en 4:2:2. Dvs. maximal dataförlust som gör SDI utgången betydligt mindre attraktiv. Vet inte om JVC´s ProHD segment skickar ut en ren 4:2:2, dock görs det på mina Canon XL-H1or, som jag fortfarande anser att vara den bästa HDV kameran under 100K klassen.
  3. Kort sammanfattat en fredagkväll... Om möjligt, försök att använda dig utav en standard bandbaserad DV25 kamera. Det lönar sig i slutändan för dig..
  4. Detta pga att standard TV monitorer baseras på Non-Square-Pixels, vilket är tvärtemot en datorskärm, som baseras på Square-Pixels. Safety Action samt Safety Title Zone indikerar för olika parter. Safety Action Zone indikerar det "diffinitivt" klippta området, vid visning på TV. Enligt SMPTE standard. Safety Title Zone indikerar det maximalt tillåtna området att addera text titlar, så som fristående text, undertexter m.m. En skl. "HD-Ready" LCD / Plasma / TFT Monitor kan hantera Square Pixels då samtliga av dagens SMPTE HD standarder som; 720p, 1080i/p är Square Pixel format.
  5. En DVD kopia är det mest lämpliga, en Digi-Beta kopia borde inte anses som lämplig för visning på slumpmässiga platser, speciellt inte för ett företag som inte är insatta eller har resurser / utrustning för att kunna hantera digital video i denna klass. En Beta SP kopia ger avsevärt sämre kvalité än vad en Digi kopia gör. Analogt format, jämtemot ett Digitalt. DigiBeta går att jämföra med DVCPRO 50, Beta SP håller inte mått i närheten.
  6. video_sync

    Förklara 24p

    en 24p upptagningen hade inte givit dig någon sebar differans jämtemot en PAL 25p upptagning, gällande "biofilmskänsla". 24p inom video är ett försök till motsvarighet av filminspelning vid 24p som är exakt 24,0 bilder / sekund. 24p videostandarden ligger på 23,976 bilder / sekund. Som dock redan postats, är det inte av absolut högsta nödvändighet så bör du i första hand välja 25p för att undvika onödiga postprocesser inom konvertering, som med smärre kunskap inom digitalvideo, kan ge oönskade resultat.
  7. Någon sändsingsdistributör skulle aldra minst vilja motta en färdig Master i en DVD redo MPEG-2 ström. Att sedan ett DVD-5 eller DVD-9 medium skulle kunna fungera som ett transport alternativ av en DV25 / HDV Master, är en annan sak och underlättar Mastringen för den någolunda amatörproducenten. För TV-stationer har DV-S (MiniDV) inte varit ett vanligt medium för DV25 video, som redan postats. Dock har DV-S (DV Tape) varit flitigt använt inom videofoto för TV bruk, för att inte prata om DVCPRO25 samt DVCPRO50 som SVT duktigt användt genom åren. Att leverera din färdiga Master på ett DV-S band är deffinitivt inget förhinder. Samtliga TV stationer tar utan problem emot ett signalmässigt korrekt band. Har din inspelning skett i standard DV25 eller HDV->DV25 kodek , så är något kodek / kontainer byte meningslöst för transport. Precis som även postats, din Master överförs till sändningsserver och konverteras till sändningsformat i realtid (SD Television: MPEG-2 HP@ML).
  8. video_sync

    10 bits Capture?

    Skumt vore det om 10 bit i projekt med 8 bit HDV strömmar under keying skulle ge likvärdigt resultat som att direkt fånga 10 bit från component ( eller annan seriell överföring ) till ett icke Interframe format. Att i grund intanka som 10 bit via seriell länk ger mer data i arbetsflödet innan materialet genomgår någon form utav post process. Sysslar dock inte alls med keying personligen, så jag yttrar mig inte vidare. Låter bara logiskt redan i grund. MPEG-2 strömmen som HDV profilen ger är bra MYCKET mer komprimerad som RGB ström än vad en rå signal, digital som analog ( SDI kontra Komponent ) skulle vara. Att skillnaderna ur det männskliga ögats aspekt sedan inte är stora, är en helt annan sak. Kvantiseringen av datan som en rå signal får genomgå när en MPEG-2 komprimering i HDV profil adderas, är väldigt förstörande. Självklart är det också att Komponent signalen borde utskickas innan DSPn hanterar signalen till HW MPEG2 Encodern i kameran. Hur processen av en rå signal genererad från sensorn, genomgår komprimering innan utskick till ex. Komponentutgången, är garanterat väldigt varierande från segment till segment av videokameror. Vågar nog påstå att fallet alltid är så att signalen inte genomgår slutformatskomprimering innan den skickas till utgång.
  9. MPEG-4 är en standard som bland annat erbjuder kontainers med olika ISO baserade mediafiländelser. I regel reffererar man MPEG-4 eller MPEG i allmänhet till videokomprimering. En MPEG standard innebär mycket mer än så. Därav är det viktigt att förstå varför MPEG delar upp standarden i parter. Exempelvis, MPEG-4 Part 2 är en väldigt känd del utav MPEG-4 standarden som involverar den standard videokomprimeringsattribut som formatet grundades på. Väl använda profiler i MPEG-4 Part 2 är bland annat SP samt ASP. Detta med olika filändelser, beroende på Program eller Transport / Elementär ström, såsom: .mpg .mpv .m2ts för videoändelser kontra .mpa .mp4 för ljudändelser. För att för förenkla det hela. När din "MP4" spelare kan avkoda en muxad fil, dvs uppspelning av exempelvis en videofil med ljud, är det med all sannolikhet en MPEG-4 part 2 fil i kombination med en MPEG-4 Part 3 fil (se nedan) med viss begränsning som din MP4 spelare klarar av att hantera. Vanligtvis Square 640x480 upplösta videofiler brukar ligga som en maximum. Även CIF samt QCIF upplösta videofiler rekommenderas som portabla för din spelare. Din MP4 spelare hanterar MPEG-4 standardens ljud part, vilket är AAC. Detta går under projektnamn: MPEG-4 Part 3 (tidigare känt som MPEG-2 Part 7). Dock även här är avkodningen (oftast) i din MP4 spelare begränsad för AAC. Den vanligaste formen av AAC är AAC LC (Advanced Audio Codec Low Complexity) vilket i sig är snarlikt vid avkodning som MP3 (MPEG-1 Part 3). AAC erbjuder flera andra profiler vid kodning såsom AAC HE (High Efficiency) som utan att bli alltför ingående, har en enormt skicklig avkodningsprocess. Samtliga av dagens MP4 spelare avkodar AAC LC. H.264 däremot ingår i MPEG-4 standarden men med projektnamn: MPEG-4 part 10. H.264 skall inte förväxlas med MPEG-4 Part 2, då det är en helt annan form av kodek och kräver ett annorlunda komprimerings schema. Sammanfattningsvis, En dekoder som hanterar avkodning av MPEG-4 Video eller "MP4 Video" är oftast bara kompatibla att hantera en MPEG-4 Part 2 video i en MPEG-4 Part 14 kontainer, dvs .mp4. som i sin tur baseras på ett ISO mediafilformat (MPEG-4 Part 12). Exempel: "Klarar av att spela upp .mp4 ljud" = MPEG-4 Part 3 + MPEG-4 Part 14 + MPEG-4 Part 12 = Ett AAC spår i en .mp4 kontainer som baseras på ett ISO Mediafilformat. "Klarar av att spela upp .mp4 video" = MPEG-4 Part 2 + MPEG-4 Part 14 + MPEG-4 Part 12 = En MPEG-4 standard video i en .mp4 kontainer som baseras på ett ISO Mediafilformat. "Klarar av att spela upp H.264 (AVC) video" = MPEG-4 Part 10 + MPEG-4 Part 15 + MPEG-4 Part 12 = En H.264 video med .avc filändelse som baseras på ett ISO Mediafilformat. Nu har jag säkerligen skrivit ihop för mycket, hoppas dock det klarnar för alla, gällande MPEG-4 standarden vid kompabilitetsfrågor.
  10. HDCAM till DVCPRO HD konvertering har jag personligen aldrig gjort. Dock teoretiskt: HDCAM har en bandbredshastighet på 140 mbit / sek (circus) med 3:1:1 färgsampling. * (Ironiskt Sony vs. Panasonic) DVCPRO HD ligger på 100 mbit / sek med 4:2:2 färgsampling. Några extrema skillnader lär det inte bli, dock helt beroende på encoder och renderingsmotor. Dock som redan föreslagits, försök att i alla mån undvika denna onödiga konvertering. Inrikta istället på att försöka få dina strömmar encodade till ett BluRay kompliant format, såsom: VC-1, MPEG-2 eller H.264. Därefter kan Authoring processen göras, utan någon mellanprocess som skriver om dina strömmar.
  11. video_sync

    10 bits Capture?

    Totalt meninglöst såvidare din kamera inte har anslutningsmöjlighet för HDSDI och att du därpå har utrustning (PC / MAC / CF baserad capture lösning). Datorerna måste ha HDSDI instickskort redo från exempelvis AJA eller BlackMagic Design som hanterar SMPTE 292M signaler, samt därpå även hårddiskar som klarar av att hantera dataflödet. HDSDI utgången på JVC´s HDV segment kameror skickar ut en rå 4:2:2 ström. På capture sidan justeras manuellt, önskad färgbit. Kör du bandbaserat på din JVC HD110, är det en HDV ström som skrivs och därpå 8 bitars som DSP´n hanterar. Finns ingen mening med att försöka fånga materialet från bandet som 10 bitars eller att i Post, rendera den råa strömmen som 10 bitars. Videokameror som direkt skriver en 10 bitars HD ström, ligger i regel en del högre i prisklass än HDV segmentet och är inte bandbaserade. Exempel på HighDef format som hanterar 10 bitars färger: * MPEG-2 HD @ 422 Prof * AVC Intra
  12. Låter mycket skumt, Sony Vegas har redan vid installationen en färdig MPEG-2 plugin för kodning / avkodning, skapad av Main Concept. Lite mer detaljer. Ligger ingen ljudström sammanflätad med videospåret, eller detekterar Vegas en ljudström men som inte ger något ljud ? Vad är det för videokamera från Sony du har ?
  13. video_sync

    HDV automatiskt i 16:9?

    Precis, HDV använder 1,333 i PAR. Nya format inom MPEG standarden såsom MPEG-2 HD-422 använder sig utav 422Profile @ High Level och ger då användaren möjlighet att fånga en signal på 1920x1080 full raster (1,000 PAR). Vilket är Square, precis som med HDV 720p standarden. MPEG-2 HDV standarden är baserat på Main Profile @ High 1440 Level, vilket indikerar SMPTE satta standarden för en HDV ström med upplösning på 1440x1080.
  14. video_sync

    Extern mic till Xl1

    Är det en extern XLR kopplad mik ? Isådanna fall, kontrollera om den kräver phantommatning (+48V). Kolla även på sidopanelen för ljudjusteringarna att rätt ljudkälla länkar till rätt ingång. Exempelvis : CH 1/2 - XLR mik - > Audio 1 Sektion = Rear. Är ljudinställningarna på sidopanelen satt till att lyssna på Audio 1 / Audio 2, är det de analoga RCA kontakterna på kamerans ?högra? sida som används. Så om XLR mik är fallet, testa att ställa om Audio 1 till Rear.
  15. MiniDV är ett medium som hanterar mer än ett videoformat, såsom HDV samt DV25. MiniDV har länge varit ett pålitligt lagringsmedium för både konsumenter som prosumer. Du skall som redan nämnts, inte tänka på mediumet i sig, utan vilken videosignal som skrivs på mediumet är det som är mer intressant. Har du tänkt dig ett pålitligt, lätthanterat och universiellt format, håll dig till standard DV25. HDV kan med smärre okunskap inom digital video, åstakomma dig problem vid tillexempelvis mastringen. HDV är en profil i MPEG-2 standarden, MPEG-2 är helt annorlunda baserat än DV25 och kräver en mer försiktighet vid redigering och är väldigt kännsligt för ytterligare komprimeringar. MPEG-2 i HDV profil kompilerar förluster på förluster vid varje rendering. Låter inte budgeten dig välja ett lämpligt HD anpassat format såsom DVCPRO HD, så håll dig till SD vid DV25.
  16. Lite otydligt, MiniDV är ett medium för att i första hand lagra digitala video / ljudsignaler. MiniDV i sig är inte ett specifikt videosignalformat. "Stora producenter" har kört sina race på kameror som XL-H1 och därmed användt sig utav MiniDV som utgångsmedium. Visst finns där även dem som nytjar SMPTE lösningar som HD-SDI på kameror som denna och lagrar okomprimerade / mindre komprimerade signaler på annat medium. Dock i regel så används bandmediumet. Det är så variabelt, men att påstå att "Större producenter" inte utgår signalen eller "förtroende" på MiniDV, håller jag inte med om.
  17. Förstår inte inte riktigt varför användaren uppmanas att byta TV-kort eller på något sätt byta anslutningsmöjlighet än vad kameran redan erbjuder (Komposit signal). Kanalsökning för en kompositsignal låter väldigt felstrukturerat. Hade förstått om ett TVkort fungerat som en fångstenhet för signal via RF modul från en äldre VHS player. Eftersom att du fått en bildsignal ("myrornas krig") eller vitt brus, verkar problemet vara uteslutet ur din Dazzle hårdvara. Vad jag minns ur Pinnacle tider, var deras mjukvaror inte alltför buggfria. Se till att du kontrollerat så att Pinnacle söker efter signal från komposit ingången i ditt Dazzle kort och inte från S-Video ingången. Kolla annars över din komposit (RCA) kabel. Låg impedans eller deffekt kabel gör sin huvudvärk.
  18. NTG-2 som redan nämnts i tråden är en kanon mik för sitt låga pris! Har en NTG-2 mountad på samtliga av mina XL-H1or som standard mik. Detta pga. att Canons medföljande stereomik inte är värd mer än det som finns på botten av en rutten sjö. NTG-2 är givetvis en XLR kondensator och kan försörjas med +48V Phantom via kameran (eller annan stödjande källa). Eller med ett standard R6 (AA) batteri.
  19. Kör på vad du känner dig bekvämast med. Samt nej, kvalitén bildmässigt blir inte sämre varesig ett kort i toppklass eller budgetklass sköter överföringen då digital data överförs.
  20. Precis vad jag påpekade, stabiliteten. Överföringen mellan FW kort till / från kamera är annars densamma, datamässigt, från budgetkort till toppkort.
  21. Testa dig fram! Har personligen aldrig testat Picture Motion Browser från Sony, antar dock att konvertering från AVCHD till MPEG-2 HDV i detta program lär vara konsument-duglig. I övrigt finns det massor utav program som hanterar denna konverteringen. Dock som jag redan nämnt, det är MPEG strömmar vi har att göra med, vilket innebär att processen att konvertera en kodek till en annan, är väldigt känslig för kvalitetsförlust.
  22. 1. Absolut, Sony Vegas serien har sedan 5e versionen varit väldigt stabilt, användarvänligt och möjligheterna är mer än vad de flesta vet. 2. Du väljer "Template" utöver hur du vill behandla ditt material. Jag rekommenderar dig att sätta Template anpassat för ditt råmaterial. Dvs. är din kamera köpt i Sverige, är den med all sannolikhet en PAL kamera. Isådanna fall är Template för din DVC-30: PAL DV. Spelar du in i Widescreen (16:9) är den rätta Template: PAL DV Widescreen. Är din Template motsatt inställd för ditt råmaterial från kameran, kan detta leda till, om ingen korrigering av upplösning / fält gjorts för Template, väldigt tråkiga resultat. Är du ny i Vegas och skall materialet endast användas för hemmabruk, skall du hålla dig till en Template som matchar din kameras inspelningsformat. 3. Återigen, är syftet med kameran endast hemmabruk, så räcker gott och väl ett FW400 kort i 2-300 kr klassen. VIA's FW400 kort som ligger i 300 kr klassen, har faktiskt fått mycket bra beröm för stabilitet och stort kompabilitetsomfång. De dyrare FW korten, som bland annat erhåller Texas Instruments chipset, erbjuder lite mer till användare som förväntar sig absolut toppsäker stabilitet vid dataöverföring. De dyrare chipseten har i de flesta fall en lägre felmarginal. Även i de större NLE (redigerings) programmen, såsom Avid Media Composer tillexempelvis, är det starkt rekommenderat att använda sig utav Texas Instruments hårdvara för FW.
  23. video_sync

    Filma mot ljuset (solen)

    Som redan nämnts så är det meningslöst i att spekulera i hur lång tid processen skulle ta för att kamerans sensor (CCD som CMOS) skulle ta skada genom att filma rakt emot sol. Rent teoretiskt skulle sensorn ta skada men detta efter en väldigt intensiv och korkad filmning utan någon form utav filter, i huvudsak ND (Neutral Density) under en väldigt lång, kontinuerlig tid. Att filma emot solen skulle inte ge en rak 255 utfrätt bild, allt beroende på personen bakom kameran, även på en videokamera. Videokameror i rätt klass för användarmöjligheter ger bra kontroller över exponeringen, det går att hitta ett fint samarbete mellan bländare och slutare för en perfekt exponerad bild, även i denna situation. Har gjort ofantligt många inspelningar, bland annat en DVD-meny uppsättning där solens nedgång / uppgång spelade stor roll. Vilket innebar att videokameran (Canon XL-H1) på ett Vinten stod och fångade uppgången och nedgången under ett par timmar, UTAN skada. Slutartiden låg på ungefär 1/16000 sek och bländare runt 8.0 vid denna inspelning. Vad jag förstått det som i denna tråd, handlade nog frågan teoretiskt om huruvida personens videokamera skulle ta skada av att under några få minuter, om inte mindre, rikta optiken mot solen.
  24. Precis som Max beskriver, en omkodning blir den nödvändiga lösningen om ditt NLE inte klarar av att hantera AVCHD (En del av MPEG-4 Part 10) native. Konsumentinriktade parter av MPEG-2 och MPEG-4 (parter som HDV samt AVC) är väldigt lossy. Dessutom kompileras förluster på förluster vid varje komprimering, även om komprimering sker till samma kodek med samma parametrar som grundfilen följer. Även om AVCHD främst, om inte endast bara lämpar sig för den någolunda kvalitétsmedvetna amatörfilmaren, så är det lite smådåligt av Adobe att inte implementera native stöd för AVCHD i Premiere, som i annat grundfall vore stöd för H.264 i bindning med AC3 eller PCM, kapsulerat i en MPEG-2 Transport ström.
  25. Det finns kvalité och sen finns där kvalité. Allt handlar inte bara om utrustningen som används, övervägande ligger på personen / personerna bakom kameran. Att ha "bättre" utrustning tillåter mestadels fler möjligheter för produktionen men gör inte rent teoretiskt fotografen "duktigare". Ang. PD-150, helt klart en bra kamera, hade dock inte satsat på den i dagens läge för pro-bruk då HD i olika videoformat kraftigt växer i marknaden.
×
×
  • Skapa nytt...