Vad är kapacitetsoptimering?

Kapacitetsoptimering består av olika och ändå ofta kompletterande metoder för att både lagra data och minska lagringsbehovet vid säkerhetskopiering. Ofta gör företag och enskilda företag flera säkerhetskopior av arbetet, och behovet av att lagra, indexera och hämta data kräver optimering för att minska mängden hårdvara och resulterande overhead som behövs för att hantera all denna data. När säkerhetskopior görs blir det ofta redundanser och endast små förändringar mellan backuperna. I ljuset av redundanser, utvecklar kapacitetsoptimeringsstrategier lösningar som minskar lagringskostnaderna och storleken i säkerhetskopior reducerade från originalen med så mycket som 95 procent. Kapacitetsoptimering är ibland känd som bandbreddsoptimering när den används i WAN-applikationer för att möjliggöra större genomströmning vid sändning och mottagning av data i ett nätverk.

Datakomprimering använder sig i allmänhet av kodningstekniker för att minska storleken på data som lagras eller överförs. Beroende på om en del data kasseras i processen kan den karakteriseras som förlust – förlorar data – eller förlustfri. Genom att skanna data för redundanser eller upprepningar och ersätta dessa med korsreferenserade och indexerade tokens kan stora minskningar av mängden lagringsutrymme som behövs. Dataundertryckningskodböcker vägleder acceleratorer i kommunikationen att synkronisera och använda antingen minne eller en hårddisk för att skriva komprimeringshistorik till ett lagringsförråd som gör det möjligt att använda en TCP-proxy (Transmission Control Protocol) som en buffert av paket eller sessioner så att överföringshastigheter inte nedsatt. En annan metod för datakomprimering minskar storleken på data i realtid när den går till sin första säkerhetskopiering, och därmed genom ytterligare optimering, vilket resulterar i större besparingar i både utrymme och tid.

Genom att använda traditionella komprimeringssätt kan storleken på lagrad data minskas i förhållandet 2:1; genom att använda kapacitetsoptimering kan denna minskning öka till så mycket som 20:1. Att leta efter redundanser i bytesekvenser över jämförelsefönster och använda kryptografiska hashfunktioner för unika sekvenser i algoritmer för deduplicering möjliggör segmentering av dataströmmar. Dessa strömsegment tilldelas sedan unika identifierare och indexeras för hämtning. På detta sätt lagras endast nya datamängder innan de komprimeras ytterligare med hjälp av algoritmer för komprimeringsstandarder. Vissa dedupliceringsmetoder är hårdvarubaserade, och genom att kombinera dem med traditionella programvarukomprimeringsalgoritmer kan bådas funktioner ge betydande utrymmes- och tidsbesparingar.

Många tillvägagångssätt fokuserar på minskningar av kostnader och utrymme för lagringskapacitet för att minska kostnaderna förknippade med lagringsinfrastruktur, och liknande överväganden uppstår i WAN-scenarier. Ett lager känt som ett transportlager måste finnas mellan applikationer och underliggande nätverksstrukturer under överföringar, vilket gör det möjligt att skicka och ta emot data effektivt och snabbt, men transportlagret är fortfarande det som skapades 1981 när TCP först skapades och kördes med 300 baud Betygsätta. Därför använder acceleratorer TCP-proxies, vilket minskar förlusterna under överföringen och gör bekräftelser för att öka storleken på paket med hjälp av avancerade datakomprimeringsmetoder för att leverera mer data per tidssegment. För att övervinna hinder under överföring, samarbetar dessa tekniker för att förbättra applikationernas prestanda och minska mängden förbrukning av bandbredd.