For å finne ut om en lossless fil som f.eks FLAC, WAV eller ALAC, tidligere har vært enkodet lossy med f.eks mp3, ogg eller aac kan man analysere frekvensspekterert. Bølgeformen gir oss svært lite, siden disse enkoderne fungerer slik at de fjerner informasjon som "kamufleres" og informasjonen i lydfiler befinner seg hovedsaklig i frekvensspekteret, mens bølgeformen kun visualiserer signalamplituden. "Redusert dynamikk" i form av endringer i volumnivå på bølgeformen er derfor ikke korrekt sted å se etter spor av lossy enkoding.
Bare se på bølgeformen av henholdsvis børretzen1 og børretzen2 wav. Klarer du å se hvilken av dem som har vært lossy?
Ikke jeg heller.. De ser så godt som identiske ut, og vanligvis er man ikke så bortskjemt at man har både originalen og den lossy varianten for sammenligning heller.
Men hva om vi endrer visning til å se på frekvensinformasjonen i stedet.
Her skjer det ting. Selv et utrent øye ser at det foregår noe svært muffins i de øvre frekvensene på den ene fila. Omtrent som om noen har malt over de øverste frekvensene på slurvete vis. Her er det informasjon som er fjernet! Man kan se at det er en VBR-codec (Variable Bit Rate) i det høyeste kvalitetsspekteret fordi det er "topper" som stikker høyere enn resten, faktisk helt opp mot 21-22 kHz. En CBR-codec (Constant Bit Rate) skjærer flatt av over hele fjøla. Her er det med andre ord tydelig at den ene har vært gjennom en lossy prosess, selv uten å ha hatt den andre filen for sammenligning. Ordentlige losslessfiler vil ha en gradvis overgang ut i de høye frekvensene. Dersom det har blitt benyttet båndbreddebegrensende tiltak i utgivelsen, f.eks at deler av innholdet i filen har vært brickwalled til en lavere samplingsfrekvens enn filens egen, så vil dette gi seg litt annerledes utslag i form av en utpreget snorrett støylinje som man typisk ser i dårligere high rez utgivelser. Det er vanligvis enkelt å se forskjell på dette og avkortninger som følge av lossy codec, på grunn av "malekost" preget på lossy-filene.
Det er enda enklere å se hvorfor man ikke må fokusere på "dynamikken" og bølgeformen om man inverterer de to variantene i forhold til hverandre og mikser dem sammen slik at man kun sitter igjen med en fil som inneholder utelukkende forskjellene.
Øverst ser du bølgeformen. Dette er rett og slett den faktiske signalmessige forskjellen mellom børretzen1 og børretzen2. Du kan faktisk også høre på filen i etterkant. Du vil da gjerne høre en støyende og susende "skyggevariant" av den opprinnelige lydfilen om du drar opp lyden litt. Men amplituden er lav og det er ikke spesielt rart at man sliter med å høre forskjell. Men hvor blir da alle dataene av ved lossy encoding? Filene blir jo drastisk mye mindre?
Det avsløres med en gang om man ser på frekvensspekteret. Selv om det nivåmessig er fjernet svært lite av signalet, er frekvensinnholdet dramatisk forskjellig. Jo rødere farge, jo høyere amplitude har frekvensområdet du ser på venstre akse.
Her sammenlignes tre WAV-filer, hvorav en har vært gjennom 320 kbit/s CBR encoding med lame, en annen V2 VBR encoding med LAME og en er originalen. 320kbit/s er på toppen, V2 VBR i midten og originalen nederst. Allerede ved V2 VBR, som regnes som svært god allround kvalitet, er et så godt som ingenting som skjer over 16 kHz.
Bare se på bølgeformen av henholdsvis børretzen1 og børretzen2 wav. Klarer du å se hvilken av dem som har vært lossy?
Ikke jeg heller.. De ser så godt som identiske ut, og vanligvis er man ikke så bortskjemt at man har både originalen og den lossy varianten for sammenligning heller.
Men hva om vi endrer visning til å se på frekvensinformasjonen i stedet.
Her skjer det ting. Selv et utrent øye ser at det foregår noe svært muffins i de øvre frekvensene på den ene fila. Omtrent som om noen har malt over de øverste frekvensene på slurvete vis. Her er det informasjon som er fjernet! Man kan se at det er en VBR-codec (Variable Bit Rate) i det høyeste kvalitetsspekteret fordi det er "topper" som stikker høyere enn resten, faktisk helt opp mot 21-22 kHz. En CBR-codec (Constant Bit Rate) skjærer flatt av over hele fjøla. Her er det med andre ord tydelig at den ene har vært gjennom en lossy prosess, selv uten å ha hatt den andre filen for sammenligning. Ordentlige losslessfiler vil ha en gradvis overgang ut i de høye frekvensene. Dersom det har blitt benyttet båndbreddebegrensende tiltak i utgivelsen, f.eks at deler av innholdet i filen har vært brickwalled til en lavere samplingsfrekvens enn filens egen, så vil dette gi seg litt annerledes utslag i form av en utpreget snorrett støylinje som man typisk ser i dårligere high rez utgivelser. Det er vanligvis enkelt å se forskjell på dette og avkortninger som følge av lossy codec, på grunn av "malekost" preget på lossy-filene.
Det er enda enklere å se hvorfor man ikke må fokusere på "dynamikken" og bølgeformen om man inverterer de to variantene i forhold til hverandre og mikser dem sammen slik at man kun sitter igjen med en fil som inneholder utelukkende forskjellene.
Øverst ser du bølgeformen. Dette er rett og slett den faktiske signalmessige forskjellen mellom børretzen1 og børretzen2. Du kan faktisk også høre på filen i etterkant. Du vil da gjerne høre en støyende og susende "skyggevariant" av den opprinnelige lydfilen om du drar opp lyden litt. Men amplituden er lav og det er ikke spesielt rart at man sliter med å høre forskjell. Men hvor blir da alle dataene av ved lossy encoding? Filene blir jo drastisk mye mindre?
Det avsløres med en gang om man ser på frekvensspekteret. Selv om det nivåmessig er fjernet svært lite av signalet, er frekvensinnholdet dramatisk forskjellig. Jo rødere farge, jo høyere amplitude har frekvensområdet du ser på venstre akse.
Her sammenlignes tre WAV-filer, hvorav en har vært gjennom 320 kbit/s CBR encoding med lame, en annen V2 VBR encoding med LAME og en er originalen. 320kbit/s er på toppen, V2 VBR i midten og originalen nederst. Allerede ved V2 VBR, som regnes som svært god allround kvalitet, er et så godt som ingenting som skjer over 16 kHz.
Sist redigert: