Om de efficiëntie van containers te vergroten, is het nuttig om gebruik te maken van een 'cloud-infrastructuur'. Dat wisten onderzoekers van Virginia Tech samen met IBM te ontrafelen door 75 dagen lang 38 miljoen data-requests uit te voeren en 181,3 terabyte aan traces te produceren.
Belangrijkste bevinding is dat het vooraf laten ophalen van data, ook wel prefetching, de latency danig wist te verminderen. Daarnaast wijst het onderzoek erop dat hoe containers in een netwerk functioneren cruciaal is voor het ontwikkelen en verspreiden van computersystemen in de toekomst en het maximaliseren van efficiëntie, aldus hoofdonderzoeker Ali Anwar.
De studie om te bekijken hoe containers functioneren binnen een netwerkinfrastructuur of de ‘cloud’ is belangrijk naar de toekomst toe omdat containers steeds meer toegepast worden in plaats van relatief zware virtual machines. De onderzoekers gebruikten Docker als container-management-framework.
Als dataset gebruikten de onderzoekers een palet van verschillende individuen, mkb’s, grotere bedrijven en overheidsinstituten. Al die gegevens stonden opgeslagen in vijf grote datacenters, verspreid over de Verenigde Staten.
De grootschalige analyse werd gedaan met een zelf ontwikkelde tool om de registry-data te kunnen onderzoeken. Docker heeft namelijk de mogelijkheid in zich om microservices uit te rollen door een registry-service te draaien die als centrale repository voor software-onderdelen functioneert of images. Als gebruikers hun images beschikbaar maken via dit systeem, dan kan de hele community daar gebruik van maken.
Efficiëntere container-technologie heeft de potentie om de prestaties van cloud-computing als geheel te verbeteren. Meer inzicht in de exacte werking van ‘containers-in-de-cloud’ zorgt volgens de onderzoekers hopelijk voor betere veiligheid, compliance en prestaties, samen met nieuwe diensten.