Når en DAC skal konvertere setter den et punkt i tid og rom (amplitude) som blir et punkt på den analoge kurven. Om vi tenker oss at den perfekte analoge kurven har en haug med punkter, og mellom der har vi en interpolering som skjer i selve utgangsfilteret, så kan vi også lett tenke oss at om det punktet settes enten feil i tid, eller feil i nivå, vil det også bli en feil på det resulterende signalet ut.
De gamle multibit-DAC-ene var sårbare for nettopp feil i nivå. Feil i tid var på sett og vis en uavhengig parameter. I en Sigma-Delta-DAC er på mange måter feil i tid og feil i nivå ett og samme fordi man benytter en klokke til begge deler.
En viktig forskjell på forvrengningen de gamle DAC-ene genererte og de feilene de nyere DAC-ene genererer er at de gamle hadde i veldig stor grad repetitive feil (foruten random klokkeavvik). En nivåfeil ville alltid havne på samme sted på en kurve. Tidsfeilene har gjerne en litt mer tilfeldig karakter, men ulineariteter i andre komponenter kan gi liknende repetitive feil.
Forvrengning i DAC-er er på sett og vis en ganske betydelig faktor. Vi vet at den er å betrakte som harmonisk forvrengning, men samtidig er den av en slik natur at den gjerne oppleves disharmonisk. Implementeringen av DAC-chippen kan ha en del å si. Det er mange ferdige DAC-er som ikke er i nærheten av å matche ytelsen til selve chippen rett og slett fordi strømforsyningen er for dårlig for eksempel.
Det er også fort gjort å glemme utgangsfilteret. En del avanserte DAC-er bruker i dag FIR-filtre for å kompensere for feil i impulsresponsen som følge av disse filtrene. Allikevel eksisterer det ikke en absolutt enighet i verden om hva som er den ideelle karakteristikken for utgangsfilter og oppsampling.
Når dette er sagt så skal det for ganske mange år siden ha vært gjennomført blindtester av rene AD-DA-kjeder uten at man klarte å plukke noen forskjeller når man sammenliknet med en kabel.
@Uttern, du er inne på bufferet, og det er superviktig, men jeg deler ikke ditt syn på resten av DAC-en.