Resultat 1 till 7 av 7

Ämne: Hur fungerar videosignaler & scopes?

  1. #1
    Besatt medlem
    Reg.datum
    jan 2011
    Ort
    Gävle
    Inlägg
    751
    Karma
    9

    Standard Hur fungerar videosignaler & scopes?

    Har under senaste tiden klurat lite på hur det egentligen förhåller sig med utmatningen av video, som man får från datorn via hdmi (men även internt i en laptop/imac/dyl.). Och har efter research ut till leda några frågor som jag skulle behöva ha svar på för att veta hur jag ska investera framöver.

    Idag kör jag all färgkorrigering med en "vanlig" set up, där jag har en imac som "huvudskärm" och en extern skärm som går via thunderbolt - > docka -> Displayport->/->HDMI. Dockan i sin tur har sk. "clean hdmi", men eftersom jag kör det via Displayport och endast har en adapter-kabel till HDMI så misstänker jag att den bara är vidarekopplad, och inte går via någon intern konvertering. Har kalibrerat skärmarna efter öga, men då de i naturen är ganska olika skiljer de sig givetvis. Ett sätt att kvalitetssäkra i normala fall är ju scopes. Men då till min första fråga, vad förhåller sig mjukvaru-scopes till egentligen? (I, säg, Da Vinci). Kan dessa påverkas om jag skaffar ett litet externt Thunderbolt-interface, typ Blackmagic Ultrastudio, Aja T-tap eller liknande och kör waveforms i den skärmen? Eller sker beräkningarna i såna fall på data-nivå, hellre än video-nivå? (och förhåller sig således likadant oavsett vad jag kopplar in emellan?).

    Ponera att jag köper en Thunderbolt till SDI-grej och matar den till typ en Atomos Blade som i sin tur har WFM, vektorskop etc. och inte är beroende av datorn, kommer jag få ett pålitligare resultat då? Eller är det go big or go home som gäller, alltså att man bör skaffa en dedikerad WFM för att nå en märkbar skillnad? Om det ens gör skillnad? Skulle påverkan av signalen i mån av färg, gamma, kontrast osv. vara större om jag konverterade från en digital till analog signal innan monitorn? Dvs. så till den grad att en sådan lösning blir poänglös?

    Det jag är ute efter är alltså att ha något slags verktyg där jag kan mäta signalen så att jag dels kan matcha klipp i förhållande till varandra ordentligt och dels har möjlighet att se så jag inte pushar kontrasterna för mycket. Jag har hitintills inte haft några jätteproblem med den setup jag har, men jag har gjort mycket "på känn" och gissat mig fram till resultat, provat på olika skärmar och enheter, hellre än att veta säkert. Sen förstår jag ju, att precis som i ljudsammanhang så kan man inte rätta sig 100% efter råa data och utrustning som ger perfekt reproduktion, utan det måste ju även se bra ut på de plattformar man visar materialet i, men det hör inte riktigt till saken, utan jag är mest ute efter att ha något att förankra min kvalitetssäkran i, eller hur man ska uttrycka det.

    Det smidigaste, om det nu fungerar ungefär som jag vill tro, vore ju att skaffa en ultrastudio mini monitor och sedan koppla in en Atomos Ninja Blade (HDMI) i den, och bara köra scopes där, och sedan loopa ut signalen till min externa skärm där jag ser samma signal som Atomosen läser av. Förutsättningen, som sagt - är ju att det ens finns något att vinna på det. Anledningen att jag tycker det känns smidigt är ju att jag kan nyttja en extern recorder i många olika sammanhang, i jämförelse med BM:s egna lösningar då. En följdfråga på det blir således om HDMI som standard är mer opålitlig än en SDI-signal? Dvs. gör jag bättre i att skaffa en Samurai Blade, i såna fall?

    Många, många frågor. Men om någon kunde bringa lite mer klarhet i det här för mig så skulle det vara guld värt, tack!

  2. #2
    Besatt medlem
    Reg.datum
    aug 2008
    Inlägg
    321
    Karma
    12

    Standard

    Jag har båda thunderbolt ultrastudio versionerna och dom borde ju rimligtvis funka som egna enheter. Dvs. Att monitorn slangar ut direkt från tex resolve och aldrig överhuvudtaget är inblandad i grafik kortet/ens signalväg. Alla beräkningar som avlastas från processorn via grafikkort sker ju innan det hår ut på tex en mini monitor eller ett intenity pro kort etc etc? Överhuvudtaget så verkar det som att man rekommenderar nån form av monitor kort så jag tror du tänker rätt för framtiden men jag skulle köra videon på en speciell skärm via tex mini monitorn och scopes etc på Imac skärmen.

    Skillnaden mellan hdmi och sdi verkar bara vara hur långt det kan skickas som jag förstår det. Det är möjligt att hdmi bara klarar 8 bitar så det kan jag inte svära på hur det ligger till med det. Men rgb eller yuv verkar inte spela nån roll. Håller tex precis på att försöka bena upp hur jag får en hdmi signal från datorn till min atem tvs och där läser man mycket om att det måste vara yuv ut men det stämmer inte så det verkar vara mycket prat därute också som kan förvirra en.

  3. #3
    Besatt medlem
    Reg.datum
    aug 2008
    Inlägg
    321
    Karma
    12

    Standard

    Varför inte kolla lite på deras videoassist den har väl båda typerna av ingångar?

  4. #4
    Besatt medlem
    Reg.datum
    jan 2011
    Ort
    Gävle
    Inlägg
    751
    Karma
    9

    Standard Hur fungerar videosignaler & scopes?

    Tanken är ju att köra videon på "stationär" skärm och scopes på en liten monitor, men att de utgår i exakt samma signal. Om det funkar med scopes som jag får ur mjukvaran beror ju på var den tar referensen. Men gissningsvis går ju den processen internt och påverkas inte av ett externt videokort.

    Vidare så har video assist knappt kommit, dessutom saknar den vektorskop, vågformsmonitor etc. Annars är den självklart mer intressant som fält-monitor. Det går också att köra 422 10 bit över hdmi. Jag har dock hört antydanden om att det inte är så pålitligt överlag (mer än det vedertagna), det kanske bara är bull.

    ATEM annars tar ju bara interlaced signaler vad jag vet. Det är inte det som är problemet då?
    Senast redigerad av Smörgåsmannen den 2016-02-03 klockan 18:15.

  5. #5
    Besatt medlem Pehrbaus avatar
    Reg.datum
    jun 2005
    Ort
    Skanör
    Inlägg
    1 221
    Karma
    16

    Standard

    Som gammal och ovetande så undrar jag hur 10 bitar kommer in när redigering och färgkorrigering är gjord. Är det inte så att de extra två bitarna i 10 bitarna är till för att utöka beräkningsnoggrannheten och minimera fel av typ matematisk avrundning. Att skicka ut en 10-bits signal kan ju vara av intresse om man vill fortsätta att justera de olika parametrarna i aktuella algoritmer? Med tanke på ögats och hjärnans förmåga att tolka färger så måste det väl vara av väldigt litet intresse? Har jag gjort bort mig nu?

    Pehr i Skanör
    "Kill your Darlings!" = Undvik dina bästa klipp för du är ändå ensam om att gilla dem.

  6. #6
    Besatt medlem
    Reg.datum
    jan 2011
    Ort
    Gävle
    Inlägg
    751
    Karma
    9

    Standard

    Citat Ursprungligen postat av Pehrbau Visa inlägg
    Som gammal och ovetande så undrar jag hur 10 bitar kommer in när redigering och färgkorrigering är gjord. Är det inte så att de extra två bitarna i 10 bitarna är till för att utöka beräkningsnoggrannheten och minimera fel av typ matematisk avrundning. Att skicka ut en 10-bits signal kan ju vara av intresse om man vill fortsätta att justera de olika parametrarna i aktuella algoritmer? Med tanke på ögats och hjärnans förmåga att tolka färger så måste det väl vara av väldigt litet intresse? Har jag gjort bort mig nu?

    Pehr i Skanör
    Jag vet inte riktigt vad du menar med det sista - "väldigt litet intresse", menar du för uppspelning? Men jo, det har med precisionen i färgreproduktion att göra. Och det är ju av intresse innan man levererar, inte när produkten är färdig så att säga. Att ha råmaterial i 10 bit är ju fördelaktigt för att få så mycket kontroll över resultatet som möjligt, att sedan kunna se materialet i 10 bit när man arbetar med det är ju för att få en korrekt representerad bild av vad som händer med materialet när man jobbar med det. Att någon kan avgöra med öga om du levererar i 8 eller 10 bit känns inte supersannolikt.

  7. #7
    Besatt medlem Max_Hs avatar
    Reg.datum
    jun 2006
    Ort
    Stockholm
    Inlägg
    5 678
    Karma
    19

    Standard

    Kan inte svara för DaVinchi, men Premiere Pro visar materialet som 8- eller 10-bit i monitorfönsterna. Detta kräver givetvis en monitor som kan visa detta (ex EIZO, HP Dreamcolor) och signalen måste gå via Displayport på PC (kräver nVidia Quadro med Displayport) eller Mac OSX 10.11 El Capitan och Premiere Pro 9.1 (fungerar inte på Yosemite och äldre). Inga operativ stöder 10-bit output via HDMI på grafikkorten ännu (gäller både Mac och PC).

    Kör man SDI ut via BMD/AJA eller motsvarande fungerar det givetvis också.

    Och btw, Premiere saknar ännu så länge Color Management, så det är REC 709 som gäller så länge man inte har AJA HD/UHD med HDR skärm som stöder Dolby Vision då man får ut REC2020 färgrymd.
    Senast redigerad av Max_H den 2016-02-04 klockan 15:52.