Põhjus on puhtalt tehnoloogiline ja ilmnes juba siis, kui digitehnikast veel aimugi polnud. Laias laastus on suure infohulgaga majandamine alati aeglasem, isegi laia spektriga signaalid levivad ülekandekanalites aekiiremini kui kitsa ribaga signaalid. Näiteks kineskoobiga värvitelekates tuli hilistada heledussignaali värvsussignaalide suhtes, sest muidu tekkis teleka ekraanile horisontaalsihis kaks pilti - must-valge ja värviline - ca sentimeetrise vahega.
Hulluks läks asi videoga, kui võeti kasutusele sigaali digitaaltöötlus, näiteks sellised seadmed nagu ajabaasi korrektorid (Time Base Corrector). Need võtavad sünkroonist väljas oleva välise videosignaali ja hilistavad seda parajasti niipalju, et ülejäänud süsteemiga sünkroonis oleks. Kusjuures oma süsteemis võib olla kah sünkroonist väljas seadmeid, mitte ei pea signaal tulema teiselt poolt maakera. Heli aga keegi sealt TBC-st läbi ei lase. Tihtipeale tootja ei pööra tähelepanu sellele, kuidas erinevad ahelad signaali viivitavad - heli käib oma jalga ja video, kus tõsine väänamine toimub, jääb ajas maha. Ja paarikaadrine asünkroonsus on väga ilusti tajutav ning sugugi mitte haruldane asi.
Või kuulake kasvõi Juurt ja Kivirähku või Muulit ja Samostit või ükskõik keda/mida otse-eetris ja arvutiga üle Interneti. Asünkroonsus on sekundeid.
Mul oma kodune arvuti teeb analoogvideosignaali salvestamisel samu trikke. Hilisemal vaatamisel on video hilistumine heli suhtes poole tunni möödudes ca 5 sekundit. Ja arvuti pole sugugi keskmiste killast - Asus Crosshair III + 4-tuumane Phenom ja 8GB RAM-i