reklama
reklama
reklama
reklama
reklama
© Actina Przemysł elektroniczny | 16 maja 2011

Serwery na świecie przetwarzają 9,57 zettabajtów danych rocznie

Wszystkie serwery na świecie przetwarzają rocznie 9,57 zettabajtów czyli 9.570 000 000 000 000 000 000 bajtów danych. Oznacza to 20 wież z książkami złożonymi z danych, sięgającymi od Ziemi do Neptuna i z powrotem - twierdzą naukowcy z USA - poinformował magazyn Computerworld. 
Zespół naukowców z School of International Relations and Pacific Studies oraz z San Diego Supercomputer Center na University of California w USA pod kierownictwem prof. technologii, Rogera Bohna, postanowił obliczyć, ile informacji elektronicznej jest przetwarzanej w światowych sieciach komputerowych.

Według opracowanego przez nich raportu "How Much Information 2010 Report on Enterprise Server Information", "symulację wykonano korzystając z danych dotyczących końca roku 2008. Był to bowiem ostatni rok dla którego udało się zebrać dane zbiorcze i szczegółowe dotyczące mocy i liczby zainstalowanych na świecie serwerów.

Okazało się, że w końcu 2008 roku na świecie działało 27 mln serwerów, które przetworzyły tyle danych iż książki nich ułożone stworzyłyby 20 wież o wysokości 9 mld km. Łączna ilość przetworzonych danych wyniosła 9,57 zettabajtów. Zettabajt to jednostka w informatyce oznaczająca tryliard bajtów.

Badanie wykonano, obliczając ze znanych danych o ilości serwerów, wskaźniki (benchmarki) wydajności i kosztów użycia dla przetwarzania transakcji online, usług internetowych i intranetowych oraz zadań wirtualizacji. Według obliczeń na każdego 3,18 mld ludzi, pracujących na świecie, przypadło w 2008 roku 3 terabajty przetworzonych danych. Przeciętny dysk twardy obecnego komputera stacjonarnego ma pojemność 250 gigabajtów, a więc dwunastokrotnie mniej.
Według estymacji wykonanej przez naukowców, w 2024 roku wszystkie światowe serwery przetworzą rocznie tyle danych iż książki z nich ułożone stworzyłyby stos o wysokości 4,37 roku świetlnego tj. przewyższający odległość od Ziemi na najbliższej gwiazdy - Alpha Centauri.

Jak twierdzi kierujący zespołem współautor raportu, prof. Roger Bohn nie jest przy tym pewne, czy badania objęły wszystkie dane - pewna ilość serwerów należąca do instytucji rządowych oraz służb mundurowych może, ze względu na tajny charakter wykonywanych prac, nie być nigdy ujawniana. Jak dodał w każdym razie udało się "odkryć podwodną część góry lodowej danych powstającej każdego roku"

Bohn zauważył, ze większość przetwarzanych informacji jest ulotna: powstaje, jest używana i kasowana w ciągu kilku sekund bez jakiegokolwiek udziału człowieka. Także informacja dotycząca jednego procesu może być multiplikowana - jeśli e-mail przepływa przez wiele serwerów zawarte w nim dane są powtarzane wiele razy. Według raportu największą bazą serwerów na świecie dysponuje Google - jest ich więcej niż milion. Microsoft ma nieco mniejszą bazę - liczba serwerów należących do tej firmy wynosi "nie mniej niż 500 tys. i nie więcej niż 750 tys." we wszystkich jej oddziałach na świecie i w centrali w USA.

Wydajność serwerów w okresie pięciu lat przed granicznym dla badania rokiem 2008 wzrosła 5-8 krotnie. Według raportu, główny ciężar przetwarzania danych spoczywał w 2008 roku na tanich serwerach tzw. entry-level kosztujących poniżej 25 tys. USD. Przetworzyły one aż 65 proc. wszystkich danych. Serwery średniej klasy - midrange - przetworzyły 30 proc. danych zaś największe i najdroższe serwery high-end kosztujące 500 tys. USD lub więcej za jednostkę przetworzyły jedynie 5 proc. danych.

Źródło: PAP - Nauka w Polsce

Komentarze

Zauważ proszę, że komentarze krytyczne są jak najbardziej pożądane, zachęcamy do ich zamieszczania i dalszej dyskusji. Jednak komentarze obraźliwe, rasistowskie czy homofobiczne nie są przez nas akceptowane. Tego typu komentarze będą przez nas usuwane.
reklama
reklama
Załaduj więcej newsów
June 15 2018 00:12 V9.6.1-1