Digital Visual Interface eller Digital Video Interface, bättre känd som DVI, är en standard för videogränssnitt. Den etablerades av Digital Display Working Group (DDWG) för att maximera upplösningen på digitala platta bildskärmar. Visual Graphics Array (VGA), standarden före DVI, är en analog teknik som designades för katodstrålerör (CRT) monitorer.
Varför byta till DVI? Grafikkort genererar digitala signaler som sedan passerar genom en Random Access Memory Digital to Analog Converter (RAMDAC), där de omvandlas till analoga signaler för att rymma CRT-monitorer. Omvandlingen från digitalt till analogt ”slurrar” signalen på små sätt som resulterar i en bild som inte är så skarp som den borde vara eller skulle vara rent digital. Detta förklarar varför, när analoga CRT-skärmar blev större och upplösningen större, texten inte var så skarp som den borde ha varit och mycket små teckensnitt blev suddiga. En naturlig utveckling var att göra en industribyte till digitala displayer med digitala gränssnitt.
DVI eliminerar onödiga analoga tolkar från att översätta digitala signaler mellan digitala komponenter. Digitala platta skärmar använder en metod där varje pixel mappas till ett numeriskt värde som fastställer dess ljusstyrka varje gång bilden målas, vilket inträffar många gånger per sekund. Detta är i sig mer krävande än CRT-teknik. När den analoga omvandlingen elimineras blir resultatet optimalt. Om siffran ”1” vidarebefordras kommer mottagaren att få ”1” och inget annat. Om den skickas via analog kan ”1” se ut mer som .0952 eller 1.002.
Intel, IBM, NEC, Compaq, Fujitsu, Hewlett Packard och Silicon Image bildade DDWG-konsortiet som utvecklade DVI. Marknaden övergick från den gamla VGA-standarden till DVI-standarden med många platta skärmar och grafikkort med både VGA- och DVI-gränssnitt för att rymma blandade komponenter. Det finns flera typer av DVI-kabelformat för olika hårdvarustandarder. DVI har sedan dess ersatts av två nyare digitala standarder: Unified Display Interface (UDI) och DisplayPort.