Там, де живуть Android, YouTube, Gmail: екскурсія по гігантським дата-центрам Google (фото)
"Не має значення, як виглядає техніка, лише б працювала"? Це не про Google.
news-image

Ці фотографії настільки ж заворожуюче красиві, наскільки цікаві технології, на них відображені. "Єдність.інфо" пропонує здійснити екскурсію по дата-центрам, з допомогою яких хоча б раз на день користується кожен користувач Android, Gmail, YouTube, пошук Google та інших сервісів компанії.

Усередині головного кампусу Google є мережева кімната, рутер і комутатори в якій відповідають за те, щоб всі дата-центри компанії залишалися на зв'язку. Дата-центри пов'язані оптоволоконною мережею, яка забезпечує швидкість в 200 тис. Разів більшу, ніж у типового домашнього користувача інтернету. 

Площа дата-центру Google в Каунсил-Блафс (Айова, США) становить 10,5 тис. кв. метрів (п'ята частина Ризького центрального ринку). Місця не так, щоб дуже вже багато, тому компанія використовує його ефективно, як тільки може.

Наприклад, гігантські сталеві балки не лише підтримують конструкцію, але і використовуються як "носії" для різних кабелів.

Мережева кімната в Каунсил-Блафс обгороджена прозорою плівкою. Охолодження комутаторів повітряне - холодне повітря подається через підлогу, а зверху витягується гаряче. За фіранками підтримується оптимальна температура.

У декількох дата-центрах Google, як, наприклад, в Орегоні, влаштовано більш прогресивне і ефективне, але більш складне водяне охолодження. Колір труб каже про температуру води або призначеня труби. За синім, наприклад, подається холодна вода, а по червоних відводиться гаряча. Її охолодять і знову подадуть в систему охолодження дата-центру.

Коли жорсткий диск виходить з ладу, його знищують. Google не довіряє цей процес підрядникам - жорсткий диск, потрапивши на територію дата-центру, може залишити його тільки у вигляді уламків.

Ізольовані труби в дата-центрах Google мають вигин не для краси - як відомо всім інженерам, це потрібно для того, щоб при зміні температури води всередині вони могли стискатися і розширюватися.

Улюблений транспортний засіб інженерів дата-центрів Google, які вони використовують для швидкого переміщення всередині - фірмові велосипеди G-Bike "з захисним" забарвлення.

В спеціально протипожежій системі вода постійно перебуває під високим тиском. І ця вода, на відміну від тієї, що охолоджує техніку, особливо очищена - для того, щоб якщо її довелося використовувати, та щоб приміщення не виявилося б залитим потоками "технічної" води.

Яскраві сині LED-лампочки на серверних стійках потрібні не для краси - вони дозволяють з першого погляду побачити, що конкретні пристрої справні і все ок. LED-лампочки використовуються через їх яскравості, довговічності та енергоефективності.

Зараз вже три дата-центру Google використовують воду в якості системи охолодження. І вода в них застосовується аж ніяк не питна - її, звичайно, очищають при заборі, але рівно настільки, щоб її можна було використовувати для охолодження. Вона, як ми вже сказали вище, за стандартами Google недостатньо чиста навіть для того, щоб застосовуватися в системі пожежогасіння.

Всі системи охолодження та управління дата-центрами управляються і спостерігаються дистанційно. Їх обслуговує своя незалежна мережа зі своїм власним мережним устаткуванням.

Якщо з даними трапиться біда - це не біда, вся інформація користувача зберігається на стрічкові носії. Коли архів записується на плівку, його поміщають в спеціальну бібліотеку, в якій господарюють роботи.

На кожному стрічковому носієві є спеціальний штрихкод - система кодів дозволяє роботам знаходити потрібні записи.

Кожну серверну стійку обслуговують чотири комутатора, з'єднаних різнокольоровими кабелями. Колір всіх кабелів у всіх дата-центрах Google один і той же - так їх набагато простіше змінювати в разі виходу з ладу і набагато простіше орієнтуватися в їх призначенні.