reklama
reklama
reklama
reklama
reklama
reklama
reklama
© Actina
Przemysł elektroniczny |

Serwery na świecie przetwarzają 9,57 zettabajtów danych rocznie

Wszystkie serwery na świecie przetwarzają rocznie 9,57 zettabajtów czyli 9.570 000 000 000 000 000 000 bajtów danych. Oznacza to 20 wież z książkami złożonymi z danych, sięgającymi od Ziemi do Neptuna i z powrotem - twierdzą naukowcy z USA - poinformował magazyn Computerworld. 

Zespół naukowców z School of International Relations and Pacific Studies oraz z San Diego Supercomputer Center na University of California w USA pod kierownictwem prof. technologii, Rogera Bohna, postanowił obliczyć, ile informacji elektronicznej jest przetwarzanej w światowych sieciach komputerowych. Według opracowanego przez nich raportu "How Much Information 2010 Report on Enterprise Server Information", "symulację wykonano korzystając z danych dotyczących końca roku 2008. Był to bowiem ostatni rok dla którego udało się zebrać dane zbiorcze i szczegółowe dotyczące mocy i liczby zainstalowanych na świecie serwerów. Okazało się, że w końcu 2008 roku na świecie działało 27 mln serwerów, które przetworzyły tyle danych iż książki nich ułożone stworzyłyby 20 wież o wysokości 9 mld km. Łączna ilość przetworzonych danych wyniosła 9,57 zettabajtów. Zettabajt to jednostka w informatyce oznaczająca tryliard bajtów. Badanie wykonano, obliczając ze znanych danych o ilości serwerów, wskaźniki (benchmarki) wydajności i kosztów użycia dla przetwarzania transakcji online, usług internetowych i intranetowych oraz zadań wirtualizacji. Według obliczeń na każdego 3,18 mld ludzi, pracujących na świecie, przypadło w 2008 roku 3 terabajty przetworzonych danych. Przeciętny dysk twardy obecnego komputera stacjonarnego ma pojemność 250 gigabajtów, a więc dwunastokrotnie mniej. Według estymacji wykonanej przez naukowców, w 2024 roku wszystkie światowe serwery przetworzą rocznie tyle danych iż książki z nich ułożone stworzyłyby stos o wysokości 4,37 roku świetlnego tj. przewyższający odległość od Ziemi na najbliższej gwiazdy - Alpha Centauri. Jak twierdzi kierujący zespołem współautor raportu, prof. Roger Bohn nie jest przy tym pewne, czy badania objęły wszystkie dane - pewna ilość serwerów należąca do instytucji rządowych oraz służb mundurowych może, ze względu na tajny charakter wykonywanych prac, nie być nigdy ujawniana. Jak dodał w każdym razie udało się "odkryć podwodną część góry lodowej danych powstającej każdego roku" Bohn zauważył, ze większość przetwarzanych informacji jest ulotna: powstaje, jest używana i kasowana w ciągu kilku sekund bez jakiegokolwiek udziału człowieka. Także informacja dotycząca jednego procesu może być multiplikowana - jeśli e-mail przepływa przez wiele serwerów zawarte w nim dane są powtarzane wiele razy. Według raportu największą bazą serwerów na świecie dysponuje Google - jest ich więcej niż milion. Microsoft ma nieco mniejszą bazę - liczba serwerów należących do tej firmy wynosi "nie mniej niż 500 tys. i nie więcej niż 750 tys." we wszystkich jej oddziałach na świecie i w centrali w USA. Wydajność serwerów w okresie pięciu lat przed granicznym dla badania rokiem 2008 wzrosła 5-8 krotnie. Według raportu, główny ciężar przetwarzania danych spoczywał w 2008 roku na tanich serwerach tzw. entry-level kosztujących poniżej 25 tys. USD. Przetworzyły one aż 65 proc. wszystkich danych. Serwery średniej klasy - midrange - przetworzyły 30 proc. danych zaś największe i najdroższe serwery high-end kosztujące 500 tys. USD lub więcej za jednostkę przetworzyły jedynie 5 proc. danych. Źródło: PAP - Nauka w Polsce

reklama
reklama
Załaduj więcej newsów
April 15 2024 11:45 V22.4.27-1
reklama
reklama