Gå till innehåll

Christian van Caine

Medlemmar
  • Inlägg

    2 684
  • Blev medlem

  • Dagar Vunna

    5

Inlägg postad av Christian van Caine

  1. Vet inte hur jag ska förklara riktigt men det verkar vara slöseri på nåt sätt att göra allt tre gånger när man kan klippa ner det.

    Men säg så här:

    Ta Sagan om ringen t ex. En dialogscen mellan Frodo och Gollum görs. Gollum (specialeffekten som är svår att göra) filmas sammanlagt 20 sekunder. Dom 20 sekunderna har tagit lång tid att animera och ska klippas så det blir två scener som blir 10 sekunder var. Är det inte bättre då att animera ALLT på EN gång istället för TVÅ ?

     

    Um, jag har ingen aning om vad du menar...jag har inte sagt nåt om tre gånger?

    Man renderar ut det man behöver, no more, no less. Vad man renderar ut som final version är vad som fastnar, sen gör man iof ofta även en enkel tempversion till ljudläggning & kompositörens que's, så att allt inte ska ta så förbannat lång tid.

    Låter som Beta har mycket bättre koll på hur själva CGI-arbetet är upplagt, jag talar för oss inom ljud & musik-grenarna. Även om folk latar sig med att ge oss material, så kostar vi fortfarande pengar.

    Menar du verkligen att rendera ut flera scener samtidigt till en och samma fil däremot, så spar det ingen tid alls. Hur CGI-nissarna i samarbete med klipparna arbetar lägger jag mig inte i om jag inte verkligen måste, men det är till fördel att lämna över reels/beta-filer allteftersom dom blir klara istället för att lämna över allt i en klump i sista sekund.

  2. Jo, filtert, om det har några som helst likheter med ett postprod-filter för audio, skär bla bort väldigt låga frequenser, vilket ger kraftigt reducerad signalstyrka utan att tappa luminance.

    Vet inte med säkerhet att det faktiskt funkar så även på bild, men antar att det har lika mycket som uppgift att sänka bandbredden som att sänka signalstyrkan.

    Tror att magnetfälten i fosforen funkar lite som ruttet gummi; grymt hållbart tills en liten plätt börjar murkna, sen utvidgar sig rötan om den inte åtgärdas.

     

    Det är inte underligt att bilden inte får samma problem vid lägre ljusstyrka. Lägre ljusstyrka betyder lägre magnetfält, vilket ger bildcellerna mer tid att ladda ur sig. En dator behöver inte begränsa bandbredden alls, medan en boxer-box tar emot signalen via etern. Lägre bandbredd ger sämre kontraster & blaskigare färger, så varesig datorer eller många DVD-spelare är strypta på det sättet, eftersom dom inte behöver det.

  3. Felet beror inte på signalen, utan (om jag har rätt) förmodligen på slitna fosforlager i bildröret.

    Bildstrålen i en tv/monitor är starkt magnetisk, tillräckligt stark för att två oskärmade skärmar (no pun intended) stående direkt bredvid varandra faktiskt kvaddar varandra. Det är tyvärr något jag har plågsamt personlig erfarenhet av...

    Med tiden får skärmen mer & mer permanent magnetisering av bildytan, vilket tydligen resulterar i sånt här.

    Undrade länge över vad en monitor rimligtvis hade för nytta av degaussingen eftersom jag aldrig hade sett effekterna av att inte använda den (vilket jag iof gjorde ofta endå utifall att...). Skulle säga att vi ser effekterna av bristen på degauss just nu...

    Rövhål till tillverkare som aldrig byggde in sånt i tjockis-tv-apparater :-(

  4. Det gör man inte. Man gör tre fem sekunder långa klipp & lägger in. Helst så snabbt som möjligt eftersom många animationer inte går att ljudlägga utan en version med åtminstone rörelser & viktiga detaljer klara.

    Dock behöver inte exempelvis bumps, ljussättning, partiklar & liknande vara klart, inte skins heller, men man måste veta vad det ska föreställa för material skinnen ska täcka.

    Att inte tänka efter först är dyrt, varje misstag får man betala för.

    Varför skulle man göra om allt tre gånger förresten?

  5. En vanlig TV-signal är ju dynamiskt begränsad på ett sätt som inte DVD måsate vara, & (vad jag vet) datorer alls är. För mig kan dom jävla fälten även uppstå vid vanlig tv-titt, men dom är snabbare vid DVD-tittning, vilket känns logiskt om det är magnetisk kondens det är frågan om.

    En monitor tenderar ha avmagnetisering inbyggd, men en tv, speciellt så gamla som du skrev, måste man göra sånt manuellt på tyvärr.

  6. Har samma jävla problem själv på två apparater!

    Jag tror att fosforen blir polariserad av magnetism, eftersom blå-skärm (dvs en tom kanal som min tv funkar) löser upp de rödaktiga fälten.

    Jag tänker köpa en defluxer (avmagnetiserare) att testa med. Kostar iof runt en tusenlapp, men har god nytta av den till jobbet åsså, så det är det värt.

  7. Hoppla! Nu såg jag att han menade att han kopplat in sig på datorn INBYGGDA vga-port...

    Hää, då förstår jag hur du menade :-)

    Raw, om din burk har minsta likhet med min hemma-burk, så hittar du vad du söker i BIOS. Vet inte exakt vad variabeln heter i just din dator, men på min Asus-planka (gillar egentligen inte Asus, kör Gigabyte i studion, men fick hela burken gratis så jag klagar inte :)) heter det IGP (Integrated Graphic Processor).

    Aldrig använt funktionen, men av BIOS att döma ska det inte vara några problem alls. HP BORDE inte vara sämre dom tycker man.

    Dock så är det ingen bra lösning. Datorns interna grafikkort har piss-usla egenskaper. Om du kopplar in en adapter på DVI-utgången istället så kan du koppla upp monitorn där istället. Då kan du använda grafikkortets integrerade funktioner även på den skärmen, vilket gör en värld av skillnad. Är så jag själv kopplat hemma genom mitt ATI 4870.

    I studion är det lite roligare dock, där kör jag quadra-head via ett Matrox Parhelia-kort :-)

  8. Nja, man brukar klippa till tempmusik, sen gör oftast ljudläggaren & kompositören sitt parallellt. Helst i samarbete.

    Det vanligaste är att filmen först klipps färdigt. Om CGI arbetar parallellt med klippningen verkar vara olika mellan olika project, men de flesta jag arbetat med lägger inte CGI förren allt är färdigklippt.

    När det är klippt (haha) följer ett spottingmöte (i bästa fall), där regissör, sounddesigner/audio supervisor & kompositör, ibland även producenten, träffas, kollar igenom noga & lägger upp en strategi. Sen arbetar ljudläggning, musik & resterande special effects parallellt. Ofta avslutas allt med först mix & färgkorr, för att till sist gå in i multiplexing, & till sist mastering av det slutgiltiga formatet, be it glasmaster för DVD/BluRay, filer för online on-demand eller 35mm bio-master med DTS-skivor.

    Faktum är att jobbet sällan är klart där heller. Är en film huvudsakligen ämnad för bio så mixas den först för uppspelning i biograf (har annorlunda array av högtalarna än hemma & annan inställning av surround) i antingen formatet DTS, Dolby eller SDDS.

    I Sverige verkar nästa mix mest vara en fråga om compression, men i Hollywood mixas många filmer om radikalt inför DVD-släppet. Om bilden behöver justeras mer än bara cropping & reformating vet jag faktiskt inte, men skillnaden mellan vad som funkar i ljud på DVD i ett vardagsrum med små hemmabio-förstärkare & speakers, kontra vad som funkar i stora dämpade lokaler med gigantiska PA-system kopplade till arrays av fullrange-högtalare (20Hz till över 20KHz, helst snudd på spikrakt) med subwoofers som kan leverera sonisk pungspark från 15m avstånd är enormt.

    Bara det faktum att en vanlig biohögtalare kan leverera subbas som den är, men inte en i ett hemmabiosystem, ställer till en hel del problem som måste lösas.

    Sen blir det en ny master till det nya formatet :-)

  9. Nej, det är det inte. DVI-I (vilket, enligt nVidia alla 8600-kort ska ha) är en dubbel standard med både analogt & digitalt gränssnitt. Man behöver ingen som helst konvertering däremellan. Om det är -I vill säga.

    Raw, adaptern du har från DVI till VGA, följde den med datorn, eller köpte du den löst? *nyf*

  10. Nej, D3D bygger på att visa först en bild för vänster öga, cirkulärt polariserat med ett polbytarfilter som sitter precis framför linsen, sen visas bilden för högerögat med polariseringsfiltret vänt till medsols istället. Det här upprepas tre gånger per frame & per öga (dvs 3D har runt 140 i framerate).

    Den gamla tekniken bygger på två bilder på varandra, men den är helt värdelös iom att man inte kan ha korrekt färgåtergivning. Det har man iof inte fullt ut i D3D heller, men där är det bara kontrasten som påverkas iom att glasögonen måste vara mörkare, men färgförhållandet är fortfarande detsamma :-)

    Skumt nog så låter vad du beskrev mer som...um...hjärnskakning, faktiskt...

    Tänker inte låtsas veta exakt vad problemet beror på, men en vild gissning är att din hjärna har problem med de snabba fasflimmren som uppkommer vid visningen. I så fall är det förmodligen en vanesak, skulle jag tro. Första gången vi spelade på en Amiga med riktig monitor fick vi allihop ont i ögonen i början, samma sak när jag fick mina första glasögon. Vet som sagt inte om det är samma sak här, men är det det så kommer varje visning ge bättre tolerans. Är det å andra sidan frågan om epilepsi, så skulle varje besök innebära svåra problem.

    Hade jag varit du så skulle jag gå & testa mig för latent epilepsi omgående för säkerhets skull, en sån sak ( om det nu skulle vara så) vill du INTE att ska bryta ut på allvar exempelvis när du sitter bakom ratten.

  11. Jag ser ingen som helst orsak att vänta för länge, jag skulle se det här som ett utmärkt tillfälle att leka runt lite & skaffa erfarenhet. Att göra misstag ger erfarenhet av vad som inte funkar, att veta vad som inte funkar ger större sannolikhet till chanstagande & experimentlusta än att istället veta vad som funkar & inte våga gå ifrån den säkra (men fan så tråkiga) vägen.

    ...däremot skulle det ställa till det för dig om du inte spelar in med ljud. Även om det är till fördel att lägga till ljud i efterhand, så krävs det en hel del för att lägga ALLT. För proffs är det svårt att ge samma eller bättre performance i efterhand, för amatörer är det snudd på omöjligt.

    ...för att inte tala om hur lång tid det tar att lägga dialog, foley (fotsteg, tygprassel & andra liknande saker man spelar in i realtid, till skillnad från ljudeffekter man bara klipper in), atmosfärer, och konkreta ljudeffekter.

  12. Låter bara som ett efterblivet uttalande. Själv har jag en Atari MEGA 4STe som är nånstans runt 20 år gammal, vill jag minnas, som fortfarande i allra högsta grad används flitigt till sequensing. En bra dator ska inte ha nån direkt tidsbestämd livstid alls, däremot så slits exempelvis hårddiskar & övriga lagringsmedia med tiden. Min Commodore 64 är från första generationen som släpptes i Sverige våren ´83, &, efter en moddning till synth, används dagligen :-)

×
×
  • Skapa nytt...