Google heeft een nieuw data-compressie algoritme uitgebracht en hoopt hiermee het internet sneller te maken voor iedereen. Het open-source algortime Zopfli moet de overdracht van data versnellen en de pageload van webpagina’s verminderen door de content te comprimeren, doormiddel van het algoritme is de content tot 8 procent kleiner is dan wat nu toe mogelijk is met de zlib compressie.
De nieuwe technologie werd door Google in een blog post verder uitgelegd. Het nieuwe algoritme is een implementatie van het Deflate alogortime, dat onder andere wordt gebruikt voor het ZIP en voor gzip formaat. De hogere data densiteit wordt behaald door zwaardere compressie technologieën, hierdoor duurt het comprimeren van de data langer, maar het Zopfli algoritme zorgt ervoor dat dit geen invloed heeft op te de snelheid van het decomprimeren van de data.
Het was Lode Vandevenne, een in Zurich gebaseerde Google ingenieur, die het nieuwe algoritme ontwikkelde in de tijd die hij van Google heeft aangewezen gekregen om aan andere projecten te werken. Het Zopfli algoritme is overigens alleen benodigd voor het comprimeren van de data, want bestaande software applicaties kunnen de data eenvoudig decomprimeren. Het is daarnaast ook nog eens bit-stream compatible met gzip, ZIP, PNG en HTTP verzoeken.
Een kleiner gecomprimeerd bestand zorgt voor meer ruimte, snellere dataoverdracht, minder vertraging en sneller ladende websites. Mobiele gebruikers zullen ook profiteren van het nieuwe algoritme, want deze zullen simpelweg minder data verbruiken, wat weer een positieve invloed zal hebben op je telefoonrekening en/of databundel.
Maar doordat de CPU twee tot drie keer zoveel tijd nog heeft voor het comprimeren van data in vergelijking met zlib, is de Zopfli technologie volgens Google voornamelijk geschikt voor applicaties en websites die dezelfde content meerdere moeten tonen, zoals statische websites die door de jaren heen amper veranderen.