Maskinvare

Forståelse data duplikatfjerning

Data duplikatfjerning er en teknikk som brukes til å redusere lagringskrav kapasitet ved å bli kvitt like data. Tross alt, hvis du har flere kopier av en enkelt fil, du trenger bare å lagre en versjon av denne filen, rett? Dessverre, datamaskiner ofte generere overflødige data uten din kunnskap. La oss for eksempel si at du har opprettet en 100 megabyte PowerPoint-presentasjon og har sendt den til ti av kollegene dine. E-postprogrammet kan arkivere alle ti av de utgående meldingene inkludert alle ti tilfeller av presentasjonen, 100 megabyte. Dette oversettes til nesten en hel gigabyte av overflødige data som du ikke trenger. Frigjøre at bortkastet plass ikke kan virke som en big deal for deg, men forestill deg hvor mye bortkastet plass hele organisasjonen genererer.

Med duplikatfjerning, kan denne overflødige data elimineres siden det er ikke lenger nødvendig. Bare én forekomst fortsatt på lagringsenheten, noe som muliggjør mer effektiv bruk av lagring over hele nettverket. Enten du er bekymret over kostnadene eller SQL server virtualiseringsytelse, kan redusere overflødighet spille en viktig rolle.

For å sikre at andre systemer som opprinnelig refererte duplikatdata er i stand til å ringe opp de opprinnelige dataene, oppretter data duplikatfjerning en referanse til den gjenværende lagrede kopien. For eksempel, hvis du vise arkiverte kopier av ti e-postene du har sendt tidligere, vil hver av dem peke til lagrede 100 megabyte presentasjonen og ikke en unødvendig, overflødig kopi.

Ikke bare er duplikatfjerning flott for å gjenopprette lagringskapasitet, det sparer penger din organisasjon. Tross alt, hvis din hard disk arrays fylle opp med unødvendige data uten at du vet, vil du finne deg selv å kjøpe mer diskrekker. Ved hjelp av duplikatfjerning, kan du presse mer kapasitet ut av din eksisterende lagringssystemer og utsette ekstra utgifter. I tillegg minimerer duplikatfjerning data som må sikkerhetskopieres, noe som åpner for raskere, mer effektiv sikkerhetskopier. Hvis du betaler for din backup-tjeneste på en per megabyte eller gigabyte basis, data duplikatfjerning kan kutte backup kostnadene også.

Mens filen duplikatfjerning spiller en rolle, foregår data duplikatfjerning også på blokk-nivå. Enkeltpersoner filene er undersøkt og behandlet med unike gjentakelser av hver blokk av filen merket og lagret i en indeks. Når en fil er endret, lagres bare endrede datablokker. For eksempel, hvis du redigerer et enkeltlysbilde i 100 megabyte PowerPoint-fil, lagres bare berørte blokker - ikke filen hele 100 megabyte. Blokk data duplikatfjerning krever mer prosessorkraft enn filnivå data duplikatfjerning, men det er mye mer effektiv. Mange data duplikatfjerning løsningsutviklere bruk en blanding av algoritmer og undersøke en fils metadata for å unngå muligheten for "false positiv", som kan føre til dersom en blokk mottar samme ID-nummeret som en eksisterende blokk.

Data duplikatfjerning er en effektiv måte å redusere lagringsbehov og tilhørende kostnader. Det er vanligvis en av flere data reduksjon teknikker som brukes sammen til å optimere lagring og redusere kostnadene i en lagring for bedrifter eller SQL server virtualization omgivelsene.