reklama
reklama
reklama
reklama
reklama
reklama
reklama
reklama
© Actina Przemys艂 elektroniczny | 16 maja 2011

Serwery na 艣wiecie przetwarzaj膮 9,57 zettabajtów danych rocznie

Wszystkie serwery na 艣wiecie przetwarzaj膮 rocznie 9,57 zettabajt贸w czyli 9.570 000 000 000 000 000 000 bajt贸w danych. Oznacza to 20 wie偶 z ksi膮偶kami z艂o偶onymi z danych, si臋gaj膮cymi od Ziemi do Neptuna i z powrotem - twierdz膮 naukowcy z USA - poinformowa艂 magazyn Computerworld.聽
Zesp贸艂 naukowc贸w z School of International Relations and Pacific Studies oraz z San Diego Supercomputer Center na University of California w USA pod kierownictwem prof. technologii, Rogera Bohna, postanowi艂 obliczy膰, ile informacji elektronicznej jest przetwarzanej w 艣wiatowych sieciach komputerowych. Wed艂ug opracowanego przez nich raportu "How Much Information 2010 Report on Enterprise Server Information", "symulacj臋 wykonano korzystaj膮c z danych dotycz膮cych ko艅ca roku 2008. By艂 to bowiem ostatni rok dla kt贸rego uda艂o si臋 zebra膰 dane zbiorcze i szczeg贸艂owe dotycz膮ce mocy i liczby zainstalowanych na 艣wiecie serwer贸w. Okaza艂o si臋, 偶e w ko艅cu 2008 roku na 艣wiecie dzia艂a艂o 27 mln serwer贸w, kt贸re przetworzy艂y tyle danych i偶 ksi膮偶ki nich u艂o偶one stworzy艂yby 20 wie偶 o wysoko艣ci 9 mld km. 艁膮czna ilo艣膰 przetworzonych danych wynios艂a 9,57 zettabajt贸w. Zettabajt to jednostka w informatyce oznaczaj膮ca tryliard bajt贸w. Badanie wykonano, obliczaj膮c ze znanych danych o ilo艣ci serwer贸w, wska藕niki (benchmarki) wydajno艣ci i koszt贸w u偶ycia dla przetwarzania transakcji online, us艂ug internetowych i intranetowych oraz zada艅 wirtualizacji. Wed艂ug oblicze艅 na ka偶dego 3,18 mld ludzi, pracuj膮cych na 艣wiecie, przypad艂o w 2008 roku 3 terabajty przetworzonych danych. Przeci臋tny dysk twardy obecnego komputera stacjonarnego ma pojemno艣膰 250 gigabajt贸w, a wi臋c dwunastokrotnie mniej. Wed艂ug estymacji wykonanej przez naukowc贸w, w 2024 roku wszystkie 艣wiatowe serwery przetworz膮 rocznie tyle danych i偶 ksi膮偶ki z nich u艂o偶one stworzy艂yby stos o wysoko艣ci 4,37 roku 艣wietlnego tj. przewy偶szaj膮cy odleg艂o艣膰 od Ziemi na najbli偶szej gwiazdy - Alpha Centauri. Jak twierdzi kieruj膮cy zespo艂em wsp贸艂autor raportu, prof. Roger Bohn nie jest przy tym pewne, czy badania obj臋艂y wszystkie dane - pewna ilo艣膰 serwer贸w nale偶膮ca do instytucji rz膮dowych oraz s艂u偶b mundurowych mo偶e, ze wzgl臋du na tajny charakter wykonywanych prac, nie by膰 nigdy ujawniana. Jak doda艂 w ka偶dym razie uda艂o si臋 "odkry膰 podwodn膮 cz臋艣膰 g贸ry lodowej danych powstaj膮cej ka偶dego roku" Bohn zauwa偶y艂, ze wi臋kszo艣膰 przetwarzanych informacji jest ulotna: powstaje, jest u偶ywana i kasowana w ci膮gu kilku sekund bez jakiegokolwiek udzia艂u cz艂owieka. Tak偶e informacja dotycz膮ca jednego procesu mo偶e by膰 multiplikowana - je艣li e-mail przep艂ywa przez wiele serwer贸w zawarte w nim dane s膮 powtarzane wiele razy. Wed艂ug raportu najwi臋ksz膮 baz膮 serwer贸w na 艣wiecie dysponuje Google - jest ich wi臋cej ni偶 milion. Microsoft ma nieco mniejsz膮 baz臋 - liczba serwer贸w nale偶膮cych do tej firmy wynosi "nie mniej ni偶 500 tys. i nie wi臋cej ni偶 750 tys." we wszystkich jej oddzia艂ach na 艣wiecie i w centrali w USA. Wydajno艣膰 serwer贸w w okresie pi臋ciu lat przed granicznym dla badania rokiem 2008 wzros艂a 5-8 krotnie. Wed艂ug raportu, g艂贸wny ci臋偶ar przetwarzania danych spoczywa艂 w 2008 roku na tanich serwerach tzw. entry-level kosztuj膮cych poni偶ej 25 tys. USD. Przetworzy艂y one a偶 65 proc. wszystkich danych. Serwery 艣redniej klasy - midrange - przetworzy艂y 30 proc. danych za艣 najwi臋ksze i najdro偶sze serwery high-end kosztuj膮ce 500 tys. USD lub wi臋cej za jednostk臋 przetworzy艂y jedynie 5 proc. danych. 殴r贸d艂o: PAP - Nauka w Polsce
reklama
reklama
reklama
reklama
Za艂aduj wi臋cej news贸w
February 22 2019 14:26 V12.2.6-1