anoniem Geplaatst: 12 juli 2010 Delen Geplaatst: 12 juli 2010 Ik vraag mij af hoe groot het verschil in kwaliteit is tussen een HD opname op 9M (1440x1080) en een op 16M (1920x1080). Op mijn full HD 81cm scherm zie ik geen verschil. Een nadeel van 16M is de ruim 2x grotere file en, als ik de film via Adobe Premiere Pro rendeer naar een H.264 1440x1080i 25 HQ resp. HDTV 1080p 25 HQ (laatste is 1920x1080) en ik zet hem op mijn "Popcorn hour", dan loopt de 1440x1080 mp4 film soepel over het scherm terwijl de 1920x1080 zeer schokkerig overkomt. Uiteraard kost het renderen ook meer tijd met de 1920x1080 film en moet de processor harder werken. Kortom: ik zie voornamelijk nadelen. Heeft iemand een duidelijke voorkeur voor toch die hogere resolutie? Quote Link naar reactie
anoniem Geplaatst: 12 juli 2010 Auteur Delen Geplaatst: 12 juli 2010 Als ik het goed begrijp zijn 9M en 16M nog steeds alle twee interlaced formats dus "i" en geen "P" Als jij van de 16M vervolgens een 1920x1080P maakt moet er worden de-interlaced en als die niet goed verloopt kan dat schokken opleveren, alleen al een verkeerde field volgorde of flipped/shifted fields kan/zal dat veroorzaken en alhoewel het veel beter dan vroeger is komen dergelijk fouten nog steeds voor bij videosoftware en die zullen ook blijven voorkoemn, het is van de problemen van het interlaced format dat de software moet bepalen bij welke field hij moet beginnen met deinterlacen en dat gaat wel eens mis en kan bij herhaalde pogingen mis blijven gaan. Deinterlacen blijft problematisch en het liefst doe je het niet en laat je dat tegenwoordig over aan de uitstekende renderchip die in mediaspelers en/of tv's zitten. Het is met dit soort zaken erg lastig vergelijken tenzij je alle aspecten gaat meewegen en daadwerkelijk een 1 op 1 vergelijking maakt, je zult dan om te beginnen exact moeten opschrijven hoe je camcorder aan de verschillende formaten komt; is de camcorder wellicht niet native 1440x1080? (dus het beeldchip formaat) en word de 1920x1080 niet in de camcorder omgerekend uit 1440x1080? En dan je kijkformaat: op een 32 inch scherm zul je idd moeten zoeken naar de verschillen, op een 42-47" kan dat al anders worden. En dan zul je uiteraard een onderwerp moet filmen waarbij die hogere resolutie tot uiting komt,als er weinig kleine details in je opnames zitten zul je uiteraard geen verschil zien. Als 16M idd 2x zo grote files oplevert en de audio is hetzelfde formaat en bitrate(??) dan zou de logische gevolgtrekking zijn dat er voor 1/3 meer beeldpixels 2x zoveel data gebruikt word wat betekend dat er minder compressie toegepast word en dus meer data verbruikt zal worden voor opslag van kleurinformatie. Bij compressie is de kleurinformatie altijd als eerste de grote post waarop word bezuinigd en pas daarna word er op helderheids informatie bezuinigd om de simpele reden dat het menselijk oog gevoeliger is voor helderheid dan voor kleur, maw je ziet eerder fouten in helderheid dan in kleur. Die extra bits die aangewend worden om de kleuren met minder compressie op te slaan hoef je niet persee in eerste instantie te zien maar dat kan wel duidelijk zichtbaar worden na uitvoerige beeldmanipulatie in een bewerkingsprogramma en zeker als je daarna de video gaat voorzien van een zeer hoge compressie(bv voor web gebruik) zul je de voordelen van die lagere compressie bij je opname gaan zien doordat de hoog gecomprimeerde video minder beeld fouten zal hebben. Het bekendste voorbeeld daarvan is het verschil tussen een divx rip van een dvd en een divx film gemaakt van een camcorder opname; een dvd-divx rip kan er op 1500Kbs zeer fraai uitzien terwijl je dat bij een homemovie uit een camcorder wel kunt vergeten, je zult dan eerder 2500 a 3000 kbs moeten gebruiken om tot hetzelfde resultaat te komen. De reden is simpel: de dvd video is zeer zuiver van kleuropbouw en fouten en derhalve makkelijker te comprimeren dan je camcorder homemovie waarvan de beeldkwaliteit simpel gezegd minder is. Ergo: des te hoger de kwaliteit van je bron is des te beter zal het eindresultaat zijn, beginnen met een 2x lagere kwaliteit zal resulteren in een kwalitatief 4x lager eindresultaat. Je moet die getallen niet absoluut zien, het is meer om aan te geven hoe het werkt en om je een idee te geven wat de point er van is. Voor een heel klein beetje meer kwaliteit zul je steeds meer en meer data er tegen moeten smijten. Voor de volgende stap in kwaliteit die wellicht maar een paar procent verbetering zal geven zul je wellicht er 10x zo veel data tegen aan moeten gooien. Ook dat effect zou je kunnen kennen als je wel eens met foto's stoeit in jpeg formaat in Photoshop; photoshop heeft een heel handige preview die je realtime het effect van de compressie laat zien en tevens de verwachte bestandsgrootte. Als je daar met een foto wat mee gaat proberen ontdek je hetzelfde; de eerste paar stappen in compressie verlaging leveren absoluut een beter beeld en het bestand word iedere keer maar een klein beetje groter, totdat je het 50% compressie punt nadert waarna je zult ontdekken dat de kwaliteit nagenoeg zichtbaar niet meer verbeterd maar het bestand al heel snel zeer groot word. De winst die er dan is zie je ook niet meer direct maar ga je merken als je de foto daarna nog een keer gaat bewerken en evt nog een keer en nog een keer. De hoog gecomprimeerde foto gaat dan al zeer snel lelijke beeldfouten produceren terwijl de laag gecomprimeerde er nog goed uit blijft zien. [edit] zucht, wat worden dit toch altijd weer ellenlange verhalen :roll: , ik doe altijd mijn best om kort en bondig te zijn maar om een of andere reden mislukt dat altijd :lol: Quote Link naar reactie
Aanbevolen berichten
Om een reactie te plaatsen, moet je eerst inloggen