Gå till innehåll

Recommended Posts

Postad

Detta grundar sig i en diskussion som började i tråden om "sin city-effekten" http://forum.voodoofilm.org/showthread.php?t=10890 och jag tar mig nu friheten att lite halvt bryta ur den diskussionen eftersom det inte direkt handlar om Sin City längre... Allt för att få trådarna mer lättnavigerade eller hur? ;)

 

Men för att inte måsta starta om helt i diskussionen så kommer här en liten rekapitulation av sakerna som sagts.

 

hmm. en liten sidogrej... Jag såg förut Jim Henzons The Cube (1969) i klassisk svartvitt och den hade riktigt fina bilder, nu hittade jag en färgutgåva (den gjordes i färg men nästan alla spelade in den i svartvitt) och nu ser jag på massvis av ställen den fula blue-spillen som inte syntes i svartvitt. Detta betyder ju att rodriguez hade en skitstor fördel som jag inte tänkt på förut och som jag tänker försöka utnyttja. Blå-(eller grön-)spill försvinner i svartvitt. Jag kan koncentrera mig på att få kanten snygg utan att oroa mig för att det blir grönt på förgrunden när jag stryper toleransen för keyningen!

 

Det kombinerat med att DV komprimerar 4:2:0 om jag kom ihåg korrekt, så är luminence-kanalen (svartvita) minst komprimerad, så om jag spelar in DV så är bilden mest komprimeringsartefaktfri om jag tar bara svartvitt... jag har alltid gillat svartvitt... nu har jag ännu en anledning :P

 

Eller är jag bara ute och cyklar här? med ena eller båda antagandena?

Jag har också uppfattat det så att den svartvita bilden är helt okomprimerad.

 

En annan kul sak (som jag inte vet om det går att göra i praktiken) är att byta ut de röda, gröna och blåa filtrerna som sitter framför CCD:erna (i en 3-chipskamera) mot gråfilter med olika styrka. Då kan man i efterhand kombinera de tre bilderna till en HDR-bild och på så sätt få mycket större dynamiskt omfång än vad video annars kan erbjuda.

Hur tar man bara den svartvita bilden (luminance-kanalen) från DV och får en mindre komprimerad bild? Är det så enkelt som att använda någon svartvit effekt i kameran eller att dra ner saturation i efterarbetet?

I teorin (i alla fall) så är den svart vita kanalen i en DV kamera samma soim för en Digibeta. Sen kommer det ju andra saker in i bilden (haha...) som signalbehandling, storlek på ccd, brusreduktion etc.

 

http://www.adamwilt.com/DV-FAQ-tech.html#colorSampling

 

/Max

Jo, luminance är ju 4 på alla de där formaten. Men hur använder man endast den kanalen? Spelar in i färg och gör bilden svartvit i efterarbetet? Eller måste man ha något program där man plockar ut enskilda kanaler (som RGB och Luminance i Photoshop)? Isåfall vilket? Och hur gör man? Jag gillar svartvit och det skulle vara kul att kunna få så bra kvalitet som möjligt om det finns något bra trick.

Hmmm... vet inte om jag kollar rätt, men jag ställde upp en grön kartong, drog på en 500W lampa, ställde kameran på F8 ingen Gain, och filmade en liten snutt direkt in i datorn via FireWire till Adobe Premiere Pro 2's capturefönster och analyserade lite lekmannamässigt.

 

För att göra en lång historia kort, jag testade att slå på "YCbCr parade" i preview fönstret och fick 3 grafer, en jättestor och två små, och länken som Max H gav får mig att tro att detta är en representation av 4:2:0, eller Y:Cb:Cr, eftersom första är så mycket större än de andra 2.

 

Jag testade då att helt enkelt slänga på ett svartvitt filter (Video Effects > Image Control > Black & White), och hux flux försvann de andra två graferna utan den minsta synliga förrändring i den stora grafen. Och effekten kan man bara slå på eller av, så jag antar att när man slår på den så bortser man helt enkelt ifrån de andra 2 kanalerna och visar endast Y-kanalen, Den svartvita.

 

Däremot så ser jag att Tint på full effekt försämrar upplösningen i gråskalekanalen, så den kommer jag vara mer försiktig med i framtiden ;)

 

Så om jag tänker korrekt så borde det inte vara svårare än så att få fram endast den eftersökta svartvita nästan okomprimerade kanalen :D

 

Men så är det ju som vanligt att video-svartvitt i standard blir ofta lite väl grådassig, men man kan ju dels öka kontraster och liknande både vid inspelning (med rätt ljus) och efterarbete (ren kontrasthöjning). Dessutom finns ju möjligheterna att filtrera ljuset genom färgfilter bara för att testa precis som med vanlig svartvit-fotografi.

 

Vilcans: Låter som egentligen ett logiskt tillvägagångsätt, om man kan få ut dessa 3 färgkanaler okomprimerade på nått sätt innan de kommer in i Y:Cb:Cr komprimeringen... Någon som vet mer?

 

Kanske ska bygga ut till en egen tråd om detta?

jmalmsten: Underbart. Det kanske därför jag alltid har kännt för att dra ner saturation på dv. Det ser alltid mycket renare ut då på något sätt. Nu vet jag varför. :)

Om man provar att ta in en frame från dv i t ex Photoshop och leker med Channel Mixer så kan man experimentera som om man skulle fota svartvitt med olika färgfilter framför linsen. När man då sätter Blue på 100% får man ofta ett slags brus i bilden. Är blå känsligast i dv? Jag trodde det var röd som var känsligt (Cr).

 

vilcans: Om man tar tre stillbilder med olika färgfilter och lägger dem på respektive kanal i Photoshop så får man en färgbild. Det är därför färgfiltren sitter på CCDerna antar jag. Men det skulle vara skoj att testa med gråfilter av olika styrka och sedan lägga upp dem på varsin kanal för att få en färgbild. Eller det kanske sköts automatiskt i kameran? Man borde ju få en färgbild, bara att färgerna kan bli lite puckade om man inte vet vilken styrka man ska ha på gråfiltren för just det man filmar. För om du tar tre svartvita bilder fotade med olika färgfilter och lägger dem rätt (RGB) så får du en korrekt bild, men om du är busig och lägger bilderna på fel kanaler så får du inte naturtrogna färger. Så om du t ex sätter det svagaste gråfiltret på den gröna bildsensorn så får du mest grön färg, eftersom ju ljusare det är på den kanalen desto grönare blir det. Och om du har det starkaste gråfiltret på röd CCD så får du minst röd färg. Tänker jag rätt?

Vad är föresten meningen? Man kommer väl ändå inte förbi färgutrymmet för dv (4:2:0)? Och gråfilter gör väl föresten bara bilden mörkare? Man får väl egentligen inte något högre kontrastomfång?

Postad

Jag ska vara snäll och fortsätta i den här tråden. Jag har upptäckt att det antagligen är den gröna kanalen som lider minst av komprimering i dv-formatet. Ta in nästan vilken stillbild som helst från ett videoklipp filmat med en dv-kamera i ett bildediteringsprogram där du har kontroll över kanalerna och plocka bort alla utom en kanal så att du ser R, G och B var för sig och kan jämföra dem.

 

Om du inte har en bildeditor så slår jag vad om att man kommer fram till samma resultat av att filma tre bilder (av samma motiv) i svartvitt med olika färgfilter framför linsen (rött, grönt och blått). Jämför man bilderna bör man nog komma fram till att blått lider mest, rött lider näst mest och grönt lider minst. Detta syns mest om du har bilder på plana väggar med lite skuggor eller en bar himmel till exempel. Man kan nog till och med filma ett vitt pappersark bara. På rött ser man små block och på blått ser man stora block. På grönt ser det förhållandevis rent ut.

 

Så, vill man slippa så mycket taskig färgkomprimering som möjligt när man gör svartvitt, ta då bort R och B. Naturligtvis beror det ju på bilden också. Om man har väldigt mycket grönt i bilden så blir ju bilden då istället väldigt ljus och kanske matt. Starka färgmättade röda färger kommer att bli näst intill kolsvarta.

 

Varför är inte grönt med i specifikationen för färgutrymmet föresten? Y:Cr:Cb betyder ju luma : croma red : chroma blue. Var är chroma green?

Postad

Jag är också snäll och fortsätter här.

 

Ah, nu är jag med på hur du tänker. En HDR-bild i gråskala av tre olika exponeringar. Så långt hänger jag med, men hur sätter man ihop bilderna på rätt sätt sedan? Låter man kameran göra det som vanligt? Hur skulle resultatet bli?

 

Jag har bara provat HDR med video två gånger när jag filmade landskapsbilder men det var inga problem så länge träden inte rörde sig alltför mycket. Jag blev ju tvungen att lösa det med en lite tonad image matte.

 

Hur man sätter ihop bilderna: På rak arm kan jag komma på tre sätt.

 

1. Man kan använda ett Channel mixer-filter och mixa på känsla eller enligt vilka filter man hade. T.ex. om man hade så som jag skrev tidigare: "inte har något filter framför den röda CCD:n, ett filter som minskar exponeringen med 3 steg framför den gröna CCD:n och ett filter som minskar exponeringen med 6 steg framför den blå CCD:n", då mixar man nivåerna såhär:

 

RÖD var tagen utan filter, så mixa den till 100% * x

GRÖN var tagen med ett -3-filter, så mixa den till 800% * x

BLÅ var tagen med ett -6-filter, så mixa den till 6400% * x

 

Värdet på x ska vara runt (1 / (1+8+64)) och avgör hur ljust resultatet ska bli. Man kan få detalj i skuggor (hög x = ljus bild) eller högdagrar (låg x = mörk bild), men antagligen inte både och, men bara det är mer än vad man kan få med video i vanliga fall (och även film!). Man kan experimentera med ett Curves-filter för att få ner kontrasten också.

 

2. Exportera de tre kanalerna som varsin filmstrip och manipulera dem i något HDR-verktyg.

 

3. Programmera plugins eller filter som använder bildinformationen och producerar bilden precis som man vill ha det. Detta är den mest flexibla lösningen och antagligen den som blir enklast att jobba med. Både AviSynth och scriptingen i FCP borde klara detta.

 

Allt detta är helt otestat av mig. Jag bara spånar...

 

Det jag menar är, hur talar man om att den CCD med det starkaste gråfiltret bara ska visa himlen i ett sånt fall, och att CCD:n med det svagaste ska visa marken? Om CCD:n med det starkaste gråfiltret också visar marken så borde ju marken bli underexponerad som om man bara använde ett vanligt gråfilter framför linsen. Eller tänker jag snett? Kompenserar istället de olika starkt belysta chippen varandra så att man får en jämn exponering på bilden som spelas in?

 

Du behöver inte "tala om" att CCD:n med det starkaste gråfiltret bara ska visa himlen. Tvärtom, du vill ha med informationen från alla chip. Tänk på att du ADDERAR datat från de tre chippen. På chippet med det starkaste gråfiltret så är marken antagligen helt svart, så marken blir inte ljusare av att den bilden läggs på.

 

Det finns ju kameror med 1 chip som tar alla färger. Hur vore det isåfall att bygga en kamera med 3 sådana chip? Då skulle man kunna göra HDR-video i färg dessutom. Inte 3CCD-färg, men ändå.

 

Det finns faktiskt CCDer för stillbildskameror som fungerar ungefär så, men istället för att ha tre chip så har de två olika storlekar på pixlarna på ett och samma chip. Det finns alltså sex olika pixeltyper på CCDn: Stor röd, liten röd, stor grön, liten grön, stor blå, liten blå. De stora pixlarna är mer ljuskänsliga än de små. Kombinerar man resultatet så får man en bild med större dynamiskt omfång. Det är lite samma princip som vissa bläckstråleskrivare använder för att få bättre kvalitet i de ljusa partierna av bilden; istället för fyra färger (cyan, magenta, gul och svart) så har de sex färger (cyan, ljus cyan, magenta, ljus magenta, gul och svart tror jag det var).

Postad
Så, vill man slippa så mycket taskig färgkomprimering som möjligt när man gör svartvitt, ta då bort R och B. Naturligtvis beror det ju på bilden också. Om man har väldigt mycket grönt i bilden så blir ju bilden då istället väldigt ljus och kanske matt.

 

Mm, filmar man ett rött hus och använder bara grön-kanalen så kommer det att se svart ut när man konverterar till svartvitt.

 

En annan sak som är synd med att bara använda grön-kanalen för att konvertera till svartvitt är att om använder en channel mixer så kan man välja olika mängder från rött, grönt och blått. T.ex. om man mixar in mycket rött och mindre av de andra kanalerna så syns fräknar och finnar i ett ansikte mindre, och vill man framhäva dem kan man använda grön-kanalen istället.

Postad

[citat=vilcans]Du behöver inte "tala om" att CCD:n med det starkaste gråfiltret bara ska visa himlen. Tvärtom, du vill ha med informationen från alla chip. Tänk på att du ADDERAR datat från de tre chippen. På chippet med det starkaste gråfiltret så är marken antagligen helt svart, så marken blir inte ljusare av att den bilden läggs på.[/citat]Borde det inte bli så att om man ADDERAR ljust och mörkt så blir det någonstans mitt i mellan, som att addera ett negativt tal och ett positivt tal? Jag har liksom för mig att de olika exponeringarna ska jämna ut varandra av sig själv.

 

Om nu detta fungerar lika bra i praktiken som i teorin, varför ser man då inga hemmabyggda HDR-videokameror? Man ser ju folk som bygger HD-kameror hemma av dator + bildsensor (alt. industrikamera). Detta vore ju bara en extra finess för att öka kontrastomfånget drastiskt och de vore säkert inte svårt att implementera för de som redan kan bygga en HD-kamera.

 

EDIT: Eftersom jag är inte har någon videokamera med två ND-filter längre så gjorde jag ett test med en gammal digitalkamera och två par solglasögon. :) Jag satte upp kameran på stativ och riktade den mot taklamporna och exponerade efter taket bredvid lamporna så att lamporna brändes ut på den första bilden. Sedan höll jag ett par solglasögon framför linsen och tog en ny bild där taket blev mörkare och lamporna blev mindre utbrända. Sedan tog jag en tredje bild med två par solglasögon framför linsen så att lamporna blev välexponerade och bakgrunden helt kolsvart. Jag tog sedan in dem i datorn och tog den gröna kanalen (eftersom den är minst komprimerad) från alla tre bilderna och lade dem på en varsin kanal i en ny bild och drog sedan ner färgmättnaden på den sammansatta bilden till 0. Tammej tusan, det resulterade i en svartvit bild med högt kontrastomfång. Det kan ju se bättre ut men mitt test var inte direkt noggrannt som sagt. Jag tror att det bevisar att man inte behöver ställa styrkan på de olika kanalerna i alla fall. Jag tror att man kan få en jämnt exponerad bild av att bara lägga upp de olika exponerade bilderna på varsin kanal.

 

Här är bilderna, först de tre olika exponeringarna och sedan HDR-bilden:

http://www26.brinkster.com/edsbyn/0xND.jpg

http://www26.brinkster.com/edsbyn/1xND.jpg

http://www26.brinkster.com/edsbyn/2xND.jpg

http://www26.brinkster.com/edsbyn/b&w-hdr.jpg

 

Om de inte fungerar första gången så tryck på Uppdatera i webbläsaren eller tryck Enter en gång till bara.

 

Jag gjorde på samma sätt med min dv-kamera också men den här gången använde jag olika exponeringar istället för glasögon:

http://www26.brinkster.com/edsbyn/hdr-dv/0xnd.jpg

http://www26.brinkster.com/edsbyn/hdr-dv/1xnd.jpg

http://www26.brinkster.com/edsbyn/hdr-dv/2xnd.jpg

http://www26.brinkster.com/edsbyn/hdr-dv/b&w-hdr-dv.jpg

 

Slutsats: Det kan nog göras mycket bättre om man sätter olika gråfilter på de tre bildsensorerna i en videokamera. Nu var ju detta väldigt extrema kontrastförhållanden också, bara för att testa. Jag kan ju tro att det ser bättre ut om kontrastförhållandena inte är så hårda som i mina tester. De är ju sällan det om man gör något artistiskt.

Men jag tror i alla fall inte att man behöver ställa in styrkan på kanalerna? Om man bara sätter in dem som de är så borde man ju få maximalt med information och sedan kan man ju färggradera bilden hur man vill om man vill ha mer kontrast eller så.

 

Och jag passar även på att visa att den blå kanalen är väldigt kass på dv i jämförelse med grön och röd:

http://www26.brinkster.com/edsbyn/rgb/red.jpg

http://www26.brinkster.com/edsbyn/rgb/green.jpg

http://www26.brinkster.com/edsbyn/rgb/blue.jpg

 

P.S. Nu tycker jag att vi startar en firma och börjar tillverka dessa HDR-videokameror i både svartvit och färgversion och sen säljer vi dem som smör och blir avskyvärt rika. :D Det fina är ju att det här inte borde gå att göra med en filmkamera ens, såvida ingen hittar på ett sätt att exponera tre filmrullar samtidigt.

Postad
[citat=vilcans]Du behöver inte "tala om" att CCD:n med det starkaste gråfiltret bara ska visa himlen. Tvärtom, du vill ha med informationen från alla chip. Tänk på att du ADDERAR datat från de tre chippen. På chippet med det starkaste gråfiltret så är marken antagligen helt svart, så marken blir inte ljusare av att den bilden läggs på.[/citat]Borde det inte bli så att om man ADDERAR ljust och mörkt så blir det någonstans mitt i mellan, som att addera ett negativt tal och ett positivt tal? Jag har liksom för mig att de olika exponeringarna ska jämna ut varandra av sig själv.

 

Nej, även där det är mörkt så är det aldrig negativa tal. Det mörkaste det kan bli är 0, och adderar man 0 till något så ändras det ju inte alls.

 

Men jag insåg nu när jag började experimentera med detta att om det ska räcka med att mixa ihop kanalerna så måste man se till att ingen av bilderna är överexponerad någonstans, d.v.s. man måste exponera efter de ljusaste partierna. Då blir de mörka delarna av bilden alldeles för mörka. Nej, man måste göra något mer avancerat. Jag vet inte hur riktiga HDR-verktyg gör, men jag antar att de maskar bort under- och överexponerade delar av bilden för varje exponering.

 

Om nu detta fungerar lika bra i praktiken som i teorin, varför ser man då inga hemmabyggda HDR-videokameror?

Jag kan tänka mig flera anledningar: Ingen har tänkt på det tidigare, det är svårt att göra, eller ingen är intresserad (resultatet blir ju trots allt svartvitt, och vem vill se svartvita filmer idag?).

 

Intressant experiment du gjorde. Jag ska testa lite själv med HDR-verktyg och se vad jag får för resultat, men deftersom jag bara har en stillbildskamera så blir det precis som vanlig HDR, så det är väl inte direkt något nytt vi visar. Men idén borde definitivt funka. Det svåra är som sagt att genomföra den.

 

P.S. Nu tycker jag att vi startar en firma och börjar tillverka dessa HDR-videokameror i både svartvit och färgversion och sen säljer vi dem som smör och blir avskyvärt rika. :D Det fina är ju att det här inte borde gå att göra med en filmkamera ens, såvida ingen hittar på ett sätt att exponera tre filmrullar samtidigt.

Faktum är att Technicolor använde tre filrullar. De delade upp ljuset med ett prisma eller speglar och använde film som bara var känslig för rött och blått. Sen finns det ju CCDer som har högt kontrastomfång. Jag antar att de är svindyra.

Postad
Nej, även där det är mörkt så är det aldrig negativa tal. Det mörkaste det kan bli är 0, och adderar man 0 till något så ändras det ju inte alls.
Så sant, jag flyttar upp min analogi ovanför 0. Säg att svart är 0 och vit är 100. Adderar man en underexponerad bild (säg 20) med en välexponerad bild (säg 70) så kompenserar de väl varandra? Den resulterade bilden blir väl ljusare än den underexponerade bilden men samtidigt mörkare än den välexponerade bilden (säg 45)?

 

Men jag insåg nu när jag började experimentera med detta att om det ska räcka med att mixa ihop kanalerna så måste man se till att ingen av bilderna är överexponerad någonstans, d.v.s. man måste exponera efter de ljusaste partierna. Då blir de mörka delarna av bilden alldeles för mörka. Nej, man måste göra något mer avancerat. Jag vet inte hur riktiga HDR-verktyg gör, men jag antar att de maskar bort under- och överexponerade delar av bilden för varje exponering.
Japp, det är jag med på. När jag gjorde mina tester så gjorde jag som du menar. Den starkaste exponeringen exponerade jag för att få fram så mycket information som möjligt i de mörkaste områdena (alltså så mycket jag kunde i dessa fall) och den svagaste exponeringen exponerade jag efter de ljusaste partierna (lamporna). Det innebär alltså att gråfiltren på bildsensorerna skulle behöva vara ställbara på något sätt.

 

Jag kan tänka mig flera anledningar: Ingen har tänkt på det tidigare, det är svårt att göra, eller ingen är intresserad (resultatet blir ju trots allt svartvitt, och vem vill se svartvita filmer idag?).
Är ingen intresserad av ett högre kontrastomfång på video? Verkligen? :D Utvecklar man det hela och sätter ihop 3 stycken färgchip så kan man ju i teorin ta färgbilder. Å andra sidan verkar ju svartvita filmer aldrig gå ur tiden. Titta på Sin City och Skenbart. :)

 

Intressant experiment du gjorde. Jag ska testa lite själv med HDR-verktyg och se vad jag får för resultat, men deftersom jag bara har en stillbildskamera så blir det precis som vanlig HDR, så det är väl inte direkt något nytt vi visar. Men idén borde definitivt funka. Det svåra är som sagt att genomföra den.
Det ska bli intressant att se dina tester. Jag har inga HDR-verktyg själv så jag kan inte testa. Stillbildskamera borde ju duga. Fungerar det med den så borde det ju fungera med 3CCD.

 

Faktum är att Technicolor använde tre filrullar. De delade upp ljuset med ett prisma eller speglar och använde film som bara var känslig för rött och blått. Sen finns det ju CCDer som har högt kontrastomfång. Jag antar att de är svindyra.
Åfasen, det visste jag inte. De bildsensorer som finns, har de lika högt kontrastomfång som man skulle kunna åstadkomma med tre exponeringar på "vanliga" bildsensorer?
Postad
Så sant, jag flyttar upp min analogi ovanför 0. Säg att svart är 0 och vit är 100. Adderar man en underexponerad bild (säg 20) med en välexponerad bild (säg 70) så kompenserar de väl varandra? Den resulterade bilden blir väl ljusare än den underexponerade bilden men samtidigt mörkare än den välexponerade bilden (säg 45)?

 

Ja, det har du rätt i. Men vi pratar om olika saker. Det jag pratar om är hur man använder flera bilder för att skapa en HDR-bild (exposure blending), medan du pratar om hur man konverterar en HDR-bild till något som går att visa på en vanlig skärm (tonal mapping).

 

Är ingen intresserad av ett högre kontrastomfång på video? Verkligen? :D Utvecklar man det hela och sätter ihop 3 stycken färgchip så kan man ju i teorin ta färgbilder. Å andra sidan verkar ju svartvita filmer aldrig gå ur tiden. Titta på Sin City och Skenbart. :)

För svartvitt är det inte sådär jätteintressant, för har man en färgbild så kan man göra en massa saker när man konverterar den till svartvitt, t.ex. kan man minska hur ljus himlen är genom att plocka mer från den röda kanalen än från den blå. Och kan man göra sånt så minskar ju behovet av HDR. Men det är klart, som specialeffekt är det ju användbart, men det är inget man skulle vilja använda på alla filmer. Om man kan få det i färg däremot...

 

Det ska bli intressant att se dina tester. Jag har inga HDR-verktyg själv så jag kan inte testa. Stillbildskamera borde ju duga. Fungerar det med den så borde det ju fungera med 3CCD.

Testerna kommer i nästa inlägg.

 

Åfasen, det visste jag inte. De bildsensorer som finns, har de lika högt kontrastomfång som man skulle kunna åstadkomma med tre exponeringar på "vanliga" bildsensorer?

En Panoscan har tydligen 12 stegs omfång. En vanlig digitalkamera har väl runt 5-6 steg om jag minns rätt.

Postad

Okej, här är de bilder som jag tog idag för att experimentera med HDR. Jag tog egentligen ett tiotal bilder med 1 stegs mellanrum. Sen använde jag bara fem av dem (men tre hade säkert räckt). Jag använde programmet EasyHDR som finns i en demoversion att ladda ner.

 

Fortsättning i nästa inlägg.

sagrada2706_small.jpg

sagrada2708_small.jpg

sagrada2709_small.jpg

sagrada2710_small.jpg

sagrada2711_small.jpg

Postad

...och här är resultatet. Det har den typiska lite kontrastlösa "tonal mapped"-looken, men det blir rätt snyggt.

 

EDIT: laddade upp en version som inte var så hårdkomprimerad.

sagrada_small.jpg

Postad

Det där är ganska imponerande resultat. Vi pratar alltså inte om svartvitt längre så nu har vi förbrukat ännu en tråd med den här diskussionen. :)

 

Vad man behöver för HDR-video i färg är alltså ett program som EasyHDR med tillägget att det tar filmstrip-filer eller som på något vis kan batcha. Jag antar att man måste göra några inställningar manuellt för att få ett bra resultat i programmet så batch är nog att utesluta?

 

Om en HDR-videokamera är orealistiskt så kan man ju istället uppfinna en stillbildskamera med tre bildsensorer och ett prisma som delar upp bilden. Man knäpper tre exponeringar i ett. Det vore kanske lämpligt, då kan man ju till och med knäppa HDR-bilder på något som är i rörelse. Då gör det inget om det blåser mycket. :) Men men, steget blir väl inte långt till en videokamera då antar jag. Det vore ju bra häftigt att kunna filma med HDR. Då har man ju helt plötsligt besegrat en av videos stora svagheter i jämförelse med både film och det mänskliga ögat.

 

Så, i ett desperat försök att hålla mig till topicen i den här tråden. Det går inte att använda enbart luma-kanalen i dv och fortfarande kunna välja vilken look man vill ha? Det går väl inte att ta bort alla färgkanaler? Då blir ju bilden svart? Och om man måste använda någon färgkanal så syns ju fortfarande det fula bruset gråskala. EDIT: Jag tror jag har hittat vad jag söker. Om man kan arbeta med Lab colors så verkar man kunna ta bort allt utom luma. Man får en skapligt ren bild och man får inte samma resultat på något annat sätt, varken med saturation, channel mixer, gradient map eller grayscale. Man verkar bara behålla själva ljusstyrkan på varje pixel.

Postad

Ja, jag testade med färgbilder, men principen är ju densamma för svartvitt. Och att den funkar det vet vi ju redan.

 

Jag misstänker att dina resultat där du experimenterade med att göra gråskala av de olika färgkanalerna är missvisande. Den blå kanalen är nog inte brusig p.g.a. DV-komprimeringen utan för att kameran var tvungen att förstärka den mycket när den vitbalanserade. Eftersom glödlampsljus är rödaktigt så är det inte så mycket blått ljus i det, så för att balansera ljuset så att det blir vitt måste kameran förstärka den blåa kanalen mycket. Och då introduceras brus. Det blir säkert bättre resultat om du provfilmar i bättre ljus, t.ex. utomhus (på dagen!).

 

3-chips stillbildskamera, ja det vore nåt! Jag antar att anledningen till att det inte finns några såna är att en sån skulle bli rätt stor och klumpig. (Förutom det att det verkar gå utmärkt att få bra bildkvalitet med bara en CCD.)

Postad

Jamen naturligtvis, det tänkte jag faktiskt inte på. Så om jag skulle filma i svagt blått ljus så skulle istället den röda kanalen få sig en törn? Eller om jag filmar i svagt lila ljus skulle den gröna kanalen få mer att bita i?

Man kanske borde göra fler tester fast med manuell vitbalans så att förhållandena blir mer kontrollerade. Eftersom dv alltid ger bäst resultat utomhus i lite halvsoligt väder så antar jag att skillnanden på kanalerna inte blir så stor i de förhållandena. Dock har väl solen ett blått ljus? Så det borde betyda att den röda kanalen pressas mer utomhus?

 

Det finns (eller fanns i alla fall) panoramakameror. Om man skulle stoppa 3CCD i en stillbildskamera så skulle den kunna marknadsföras som en HDR-kamera och då skulle man säkert acceptera att den är lite större än vad man är van vid. :)

Delta i konversationen

Du kan posta nu och bli medlem senare. Om du har ett konto, logga in nu för att posta med ditt konto.

Gäst
Skriv ett svar...

×   Klistras in som rik text.   Återställ formatering

  Endast 75 max uttryckssymboler är tillåtna.

×   Din länk har automatiskt bäddats in.   Visa som länk istället

×   Ditt tidigare innehåll har återställts.   Rensa redigerare

×   Du kan inte klistra in bilder direkt. Ladda upp eller sätt in bilder från URL.

×
×
  • Skapa nytt...