Где находится сервер "Яндекса"? Официальная информация и исследования пользователей. План великой миграции серверов

Этой весной мы получили разрешение на эксплуатацию нашего нового дата-центра. Первого, для которого всё, даже здание, команда Яндекса спроектировала и построила с нуля. За те 18 лет, которые люди ищут в интернете Яндексом, мы прошли большой путь от сервера под столом одного из наших разработчиков до постройки дата-центра, где используем оборудование собственной разработки. По дороге у нас появилось несколько дата-центров в России, в которые мы перестроили прекратившие когда-то свою работу заводы и цеха.

Когда мы выбирали место, где можно строить дата-центр с нуля, холодный климат был одним из важнейших факторов. Но именно в процессе этой стройки мы нашли технологическое решение, которое позволяет нам эксплуатировать ДЦ в более теплом климате. Сейчас мы планируем построить наш следующий дата-центр во Владимирской области. И теперь у нас есть все возможности создать в России дата-центр, который станет одним из самых передовых в мире.

В этом посте мы хотим рассказать, как мы проектировали ДЦ, с какими сложностями столкнулась наша команда в процессе строительства, как проходила пуско-наладка, в чем особенности дата-центров Яндекса и как устроена рекуперация тепла, о которой вы уже могли слышать.

Необходимость

Как мы , архитектура сервисов компании позволяет организовывать резервирование на уровне дата-центров, а не подсистем, что дает бóльшую гибкость при выборе решений и позволяет снизить избыточность систем и соответствующие затраты.

Дата-центр и серверная архитектура проектируются как единая система, поэтому параметры функционирования инженерных систем могут отличаться от общепринятых - можно, в частности, использовать альтернативные источники бесперебойного питания и отказаться от громоздких технических решений по охлаждению за счет расширения допустимого температурного диапазона. Все это ведет к повышению эффективности и понижению совокупной стоимости владения инфраструктурой.

Одна из метрик эффективности работы дата-центра - PUE . Впрочем, говоря о наших ДЦ, мы не собираемся ставить ее во главу угла. Во-первых, нам незачем меряться PUE с коллегами, а во-вторых, существующие разногласия в методике измерения этого параметра не позволяют проводить сравнение даже между нашими собственными ДЦ.

Однако сама сущность параметра PUE исключительно важна для Яндекса. Коммерческие дата-центры могут позволить себе не скупиться на строительство и оснащение, понимая, что в конечном итоге за все заплатит клиент. В нашем случае мы являемся сами себе клиентом, поэтому низкая совокупная стоимость владения ДЦ (ТСО), пожалуй, самый важный критерий при выборе решений в компании.

И конечно же, нашей команде хочется не только увеличивать площади под установку новых стоек, но и чувствовать профессиональную гордость за то, что мы делаем.

Идея

До начала проектирования финского дата-центра мы успели построить (и частично закрыть) 10 дата-центров. При строительстве очередного ДЦ мы каждый раз старались использовать наиболее интересные решения, которые появлялись на рынке в тот момент. Это привело к большому разнообразию реализаций, зато теперь позволяет нам выбирать наилучшие решения не на основании рекламных каталогов, а используя накопленный в компании опыт и результаты собственных экспериментов.

Основная идея, лежащая в проекте финского ДЦ, проста: это применение прямого фрикулинга 100% времени. Прямой фрикулинг (охлаждение серверов наружным воздухом) дает возможность отказаться от использования не только теплообменников с охлажденной водой или другим подходящим теплоносителем, но и от более простых устройств, наподобие колеса Киото , которое стоит в одном из наших ДЦ. В новом дата-центре мы берем воздух с улицы, прогоняем его через серверы и выпускаем на улицу, попутно отбирая часть для смешивания в холодное время года. Наше серверное оборудование сегодня спокойно работает не только в диапазоне 20–24 градуса, который совсем недавно был тем самым разрешенным «окном ASHRAE», но и при более высоких и низких температурах. Поэтому незачем устанавливать капризные и дорогие системы охлаждения, можно просто выбрать регион, в котором среднегодовая температура пониже, а в самые жаркие дни распылять воду, чтобы добавлением влаги снизить на несколько градусов температуру входного воздуха - это называется адиабатическим охлаждением.


Камера адиабатики и каплеуловители за ней

Те из вас, кто изучал конструкцию ДЦ Facebook, которая неоднократно публиковалась в интернете, найдут много аналогий. Но надо сразу оговорить, что это только совпадение. Когда концепт нашего ДЦ был уже готов, нам довелось съездить в гости в один из ДЦ социальной сети, и мы с удивлением узнали, что коллеги только что реализовали проект, практически идентичный нашему.

Конечно же, специфика Орегона и Финляндии повлияла на различия, но принцип обдува воздухом с улицы настолько прост и очевиден, что в сходстве концепций нет ничего удивительного. С другой стороны, мы с удовольствием отметили, что кое в чем наш проект будет даже интереснее.


Дизель-генераторы и динамические ИБП

Например, менее сложная система адиабатического охлаждения и использование динамических роторных ИБП (ДРИБП) вместо сочетания дизелей и классических батарейных ИБП.

Как видно из иллюстрации, холодный воздух попадает с улицы (с правой стороны картинки) в камеры смешения, откуда после фильтрации нагнетается вентиляторными стенами через модуль увлажнения вниз, в холодные коридоры.


Первый ряд фильтров


Второй ряд фильтров и приточные вентиляторы

Из горячих коридоров воздух попадает в пространство второго этажа, играющего роль своеобразного буфера, откуда часть направляется в камеры смешения.


Камера смешения внешнего и отработанного воздуха для достижения оптимальной температуры

Не используемый в смешении горячий воздух вытяжными вентиляторами выводится с другой стороны здания.


Внутри «горячего коридора»

Решение действительно очень простое, однако оно подразумевает использование оборудования, которое умеет работать при соответствующей температуре и влажности, что трудно достижимо для коммерческих дата-центров.


Серверы в работе

Как показал первый опыт эксплуатации, у нас есть еще значительный потенциал для улучшений. Мы поняли, что можно упростить конструктив здания, полностью отказаться от использования воды в ДЦ и, наконец, расширить географию строительства вплоть до центральных регионов России. Благодаря этому мы сможем построить наш следующий дата-центр во Владимирской области, климат которой значительно теплее финского.

Почему Финляндия?

Этот вопрос является вторым по популярности, на который нам приходится отвечать. Ответ же настолько прост, что рассказывать о нем даже немного неловко.

Дело в том, что неофициальным талисманом Яндекса является лось («Наш лось!»). Во всем мире есть две страны, в которых ценят и лелеют этих животных, - Швеция и Финляндия. Но так как в Швеции уже построился Facebook, нам оставались наши северные соседи. Из всей страны мы выбрали город, на гербе которого был лось. Так жребий был брошен, и мы решили строиться в Мянтсяля.

Однако одного лося все же недостаточно. Важнейшими критериями, по которым производился отбор на тот момент, были доступная электрическая мощность (высокостабильная энергосеть Финляндии построена много лет назад для ЦБК, которые чувствительны к качеству питающего напряжения), хорошая доступность оптических линий, жаждущие работы инженеры и, конечно же, холодный северный климат, в условиях которого можно было отказаться от чиллеров и честно использовать любимый фрикулинг.

Нельзя не отметить, что работа с местными партнерами оказалась истинным удовольствием. Так, разрешение на строительство получается в течение одного месяца (sic!), а дорога, линии водо- и теплоснабжения и электропередач возникают на границах участка в невероятно короткие сроки.

Кроме того, мы реализовали с местными властями, так сказать для души, проект по рекуперации тепла. Установив теплообменники в месте выброса отработанного горячего воздуха, мы нагреваем теплоноситель и передаем его в городскую систему теплоснабжения. Для муниципалитета доводить подогретую таким образом воду тепловыми насосами до необходимой температуры оказалось дешевле, чем строить дополнительную котельную для новых районов города.


Собственно теплообменники

Это решение мы представили в марте на выставке CeBit (в этом году объединенной с Datacenter Dynamics), и оно привлекло к себе огромное внимание - тематика энергоэффективных технологий сегодня очень актуальна. 27 мая Мянтсяля получила приз Best Heat Pump City in Europe.

Проектирование

Если не касаться содержания документации, то уже в процессе проектирования мы столкнулись с некоторыми интересными особенностями работы в Финляндии.

Там нет такой жесткой формализации оформления и состава документов, к которой мы привыкли. Говоря совсем просто, детализация документации должна быть ровно такой, чтобы исполнитель смог получить всю необходимую информацию. В какой-то мере облегчило общение с разрешительными органами, которые выражали свое одобрение, основываясь на том, как они поняли документ, не уделяя внимания полноте и оформлению.


Под крышей, где происходит забор воздуха

Некоторые из представителей властей вообще не стремились выразить свое личное мнение о проекте. Пожарный инспектор, например, был удовлетворен, если на представленном пакете документации стояла виза сертифицированной компании-консультанта. Такая подпись для него значила, что проект уже проверен и соответствует всем местным нормативам.

С другой стороны, большинство мелких подрядчиков отказывались даже оценивать стоимость работ, если в чертежах не было прописано все до последнего винтика. Такой подход озадачил не только нас, но и наших партнеров из других стран. В результате очень многие чертежи содержат куда больше информации, чем мы ожидали бы увидеть.

При реализации проекта мы пользовались трехмерной моделью здания, в которой было расставлено все оборудование, проведены кабельные трассы и т. д. На привыкание к этому инструменту потребовалось какое-то время, зато потом работать с моделью оказалось очень удобно - удавалось быстрее решать некоторые проблемы при сведении систем, которые были не сразу очевидны в двухмерном представлении.

Также наши коллеги научили нас пользоваться онлайн-системой сбора комментариев по проекту, так что можно было быть уверенным, что замечания не потеряются и будут регулярно просматриваться на проектных встречах.

Строительство

О необычайных приключениях русских заказчиков в Финляндии можно было бы написать отдельную большую статью. Но главный вывод прост: успех подобных проектов определяется умением преодолевать различия в менталитете и культуре участников. И самая большая ответственность лежит на нас в момент выбора партнера, который сможет эти различия примирить. Примеров можно привести очень много. Самые забавные, пожалуй, следующие.


Начало строительства

Финская стройка работает с семи утра до трех-четырех дня. Представьте наше недоумение, когда российская команда, возвращаясь с обеда, видит дружную толпу строителей, уже закончивших на сегодня трудовую вахту. Оставшиеся полдня мы наблюдаем почти пустынную стройплощадку, и на этом фоне несколько странно выглядят заявления финских партнеров, сетующих на то, что они никак не успевают уложиться в сроки, хотя и очень стараются.


Возведение стальных конструкций

На уровне рядового рабочего финское качество строительства не слишком сильно отличается от привычного нам. Существенное приращение качества происходит при добавлении нескольких уровней профессиональных бригадиров, контролеров и руководителей. И хотя цена «менеджерской составляющей» приводит в шок, результат получается очень хороший.

И конечно, нельзя не упомянуть легендарный финский июль, когда вся страна бросает работу и начинает отдыхать. В некоторые компании бессмысленно даже звонить - в офисе нет ни единой души. Так как мы привыкли считать эти редкие погожие дни идеальным временем для завершения многих строительных работ, такое отношение со стороны подрядчиков для нас выглядело как откровенный саботаж.


Каркас готов

Но самым главным уроком этого строительства стало осознание того, что проекты такого масштаба требуют совершенно особого подхода. То, как ты организуешь стройку, оказывает несоизмеримо больший эффект на результат проекта, чем то, что ты строишь. Мы увидели, что в другой стране люди работают иначе. Это не значит, что они что-то делают плохо, - просто по-другому. Кажется, нам удалось понять друг друга, и главное, что мы вместе получили отличный результат.

Пусконаладка

Пожалуй, основное, что отличает этот проект от всех предыдущих, - понимание с самого начала важности полноценной пусконаладки (ПНР). Для качественной сдачи объекта, а следовательно, для минимизации проблем во время эксплуатации мы еще в период проектирования держали в голове целую фазу проекта под названием Commissioning. Скрепя сердце мы отдали Commissioning два месяца, зная, что на эти два месяца будет отложен ввод в эксплуатацию уже готового ДЦ, и одновременно понимая, что в дальнейшем это окупится сторицей. И в самом деле, в процессе пусконаладки было найдено некоторое количество недостатков. Ничего серьезного, но дополнительные хлопоты службе эксплуатации они бы принесли.

Не только российский, но и мировой опыт показывает, что пусконаладка ДЦ - все еще непривычное явление. В лучшем случае разрозненные поставщики приносят программы индивидуальных испытаний, а затем группа эксплуатации совместно с генеральным подрядчиком прогоняет пять-шесть самых критичных ситуаций, как правило связанных с запуском дизелей и переключением вводов.

Полноценное описание процесса заслуживает отдельного рассказа, поэтому здесь только упомянем, что мы запланировали и провели все пять ступеней ПНР с тщательным документированием результатов.

Пусконаладку выполняла специально обученная команда. Формально они были сотрудниками генерального подрядчика, однако фактически действовали независимо, оценивая качество работ, в том числе и своих коллег. Огромное участие в пусконаладке принимала и уже сформированная к тому времени служба эксплуатации. Естественно, и представители московского офиса пристально следили за результатами испытаний.

Такой подход был сравнительно новым для нас. Мы по достоинству оценили его возможности и теперь даже не представляем, как без него запускаться.

Эксплуатация

Интересно, что набор и подготовку службы эксплуатации мы начали задолго до монтажа инженерных систем. Это позволило нам потратить больше времени на поиск действительно хороших специалистов, частично привлечь их даже на период проектирования: к сожалению, это привело к изменению проекта в самый последний момент, но зато уменьшило оторванность проекта от потребностей живых людей, которые проведут в этом ДЦ не один год. На некоторых этапах пусконаладки служба эксплуатации выполняла тестирование своими силами под наблюдением ответственной стороны.


Вход в офисную часть

В Финляндии большое внимание уделяется вопросам сертификации специалистов - некоторые виды работ выполнять без подтвержденной квалификации просто незаконно. Второй серьезный момент - это соблюдение норм охраны труда и экологии. Поэтому в нашей команде соответствующий специалист появился вторым по счету, и мы могли быть уверены, что не нарушим жесткие нормы законодательства даже случайно. Также значительный временной лаг позволил нам провести все требуемое обучение и сертификацию еще до начала эксплуатации, то есть вообще «без отрыва от производства».


Обратная сторона здания дата-центра

В целом хочется отметить большую заинтересованность будущих дежурных в своей работе. Мы уверены в команде, которую набрали, несмотря на то что дата-центр, тем более такого уровня, большинство ребят увидели в первый раз.

Нельзя не отметить, что теперь департамент эксплуатации Яндекса становится по-настоящему международным коллективом. Это не только позволит компании продолжать развивать новые навыки совместной работы, но и обяжет поднимать планку для уже существующей службы.

Что дальше?

Дальше у нас в планах расширение уже построенных площадок, а также строительство нового дата-центра, который обещает быть еще более прогрессивным. Наша цель - сделать его одним из лучших в мире.

Основной офис в Москве занимает 7-этажное здание, которое в настоящее время еще достраивается. Здание представляет собой практически замкнутый периметр с внутренним двориком. Поэтому вопрос навигации для сотен людей работающих в нем совершенно не лишний. Ориентироваться помогают расписанные балки, где указаны какие помещения в какой стороне находятся. В ход идут даже подвесные потолки, в торце которых также нанесены навигационные надписи. К слову, сказать, отличная идея - такие надписи всегда хорошо видны и ведут к часто используемым и востребованным локациям офиса - лифтам, кафе и так далее.

На каждом этаже есть туалет, кофейная комната, где можно совершенно бесплатно налить себе чая или кофе, съесть фрукты или овощи и печенье. Также есть два типа помещений: переговорные комнаты (их в офисе несколько десятков разных размеров от крохотных помещений с одним столом на 3-4 человек до конференц-залов) и комнаты open space для команд разработчиков (как правило, команда, работающая над одним проектом сидит рядом друг с другом).

Все помещения имеют свои названия, которые привязаны к номеру этажа. На 7 этаже есть "7 нянек" (дитя без глаза там не замечено, кстати), 7.40, 7 небо и большой конференц-зал с названием "7 одного не ждут". На 5 этаже есть "5 точка", "5 колонна", "5 колесо" и просто "5. отлично". На 4 этаже есть комната с милым названием The Beatles и там действительно не поместится больше 4 человек.

Балконы Яндекса

В офисе шесть балконов, которые активно используются в летнее время. Там можно как отдыхать, так и работать. Есть шатры, скамейки и столики с пепельницами для курящих. На одном из балконов есть огромные шахматы. И виды, разумеется, оттуда дивные, поскольку офис находится в таком месте, откуда видны Храм Христа Спасителя, новый памятник Петру (действительно уродливое творение Церетели) и даже кусочек Кремля. А еще из окон лестничных пролетов и балконов видны внутренние стены самого здания (вы еще помните, что оно построено в виде периметра?) Часть здания еще достраивается и ждет расширения команды Яндекса.

Таблички в офисе Яндекса

По всему офису Яндекса можно встретить самые различные таблички. Например, вот эта - серьезная, напоминает об информационной безопасности и необходимости закрывать за собой двери. Кстати, магнитная карта-пропуск нужна не только для входа в здание, но и для перемещения по нему. Даже для того, чтобы открыть дверь на балконе и попасть внутрь здания, может понадобится ключ-карта.

А эта табличка с рецептом простейшей монетизации стоит у комнаты, где сидят разработчики стартовой страницы Яндекса. Они довольно эксцентричные и приветствуют таких посетителей как мы жестами и яркими фонариками. Правда, предпочитают это делать находясь за стеклом своего помещения.

Внутри офиса есть фирменный магазин и кафе студии Лебедева. На его входной двери можно тоже увидеть необычную табличку.

А это еще одна фирменная черта Яндекса - в силу сложившейся традиции, в компании есть официальная должность, именуемая хозяюшкой. В обязанности хозяюшек входит подкармливание творческих людей (дизайнеров, программистов), которые вполне могут засиживаться в офисе допоздна (офис работает круглосуточно) и могут забывать поесть. На деле, конечно же, хозяшки отвечают за то, чтобы в комнатах-кофейнях всегда пополнялись запасы продуктов.

Табличка-рисунок на пожарном щите. Зачем кролика упрятали в клетку непонятно.

Стены комнат в офисе стеклянные. Хотя сейчас они имеют рисунок, закрывающий помещение на уровне человеческого роста. Говорят, раньше, когда рисунка не было, посетители слишком уж частно сталкивались со стеклянными стенами. Эта табличка, видимо, осталось еще с тех времен.

Библиотека Яндекса

Библиотека Яндекса находится в помещении с названием "7 гномов", которое, как легко догадаться, расположено на 7 этаже. Каждый сотрудник может взять любую книгу оттуда, для этого нужно зарегистрировать операцию в специальном приложении на сенсорном мониторе. В шкафу с дверцей из зеленого стекла находятся личные книги яндексоидов (так себя сами называют сотрудники компании), которыми они обмениваются для чтения друг с другом.

А это раритет - приложение с поиском по библии, созданное основателями Яндекса еще на заре интернета и самого Яндекса. Распространялось оно на дискетах.

Шляпы

В кабинете финдиректора Яндекс.Денег можно встретить целую коллекцию шляп со всего мира. Точнее вся коллекция тут даже не поместилась. Каждую шляпу можно примерить - это не музейные экспонаты, которые запрещено трогать.

Даже люстра в этой комнате изготовлена в виде шляпы.

Хотя мне больше всего понравилась неказистого вида строительная каска. Полагаю, понятно почему - из-за ее защитных способностей.

Помимо рецепшена на входе, отдельный рецепшен есть на 7 этаже. Видимо, потому что на этом этаже чаще всего бывают посетители. Неудивительно - ведь здесь находится маркетинг, пиар (гостями которого мы были) и руководство компании.

Рядом с рецепшеном находятся фирменные зонтики Яндекса. Тот сегмент, что с текстом непропорционально вытянут по отношению к другим сегментам зонта.

На каждом этаже есть сенсорный экран, где можно посмотреть занятость комнат для переговоров и забронировать одну из них. Конечно, все это можно сделать с рабочего компьютера, но можно и здесь, если решение провести встречу застало сотрудника в коридоре.

А это, как нам объяснили, символ бага разработки - этому тотему просто должны поклоняться все программисты.

Еще одна забавная мягкая игрушка. Просто для красоты, видимо.

На одном из этажей размещен... гамак. Для любителей нетрадиционной релаксации.

Еще одна конструкция, которую в обязательном порядке показывают гостям Яндекса. Особенно тем, кто интересуется поисковым алгоритмом Яндекса и методами его управления. Так родилась байка, что поиском Яндекса можно управлять, подкрутив тот или иной вентиль. Так что если вы попадете на gg по поиску из Яндекса - знайте: это я подкрутил поисковый механизм.

Всякие подарки и дипломы, подаренные Яндексу.

Еще один подарок: телескоп. В него можно увидеть, например, Собор Василия Блаженного, стоящий у Кремля.

А это парковка под входом в офис. Здесь огромное количество мотоциклов (в том числе дорогих) и велосипедов. Все они, разумеется, принадлежат сотрудникам Яндекса.

Есть в офисе Яндекса и свой спортзал. Где можно поиграть в настольный тенис, бильярд и потягать железо.

Неотъемлемая часть каждой кофейной комнаты Яндекса - Яндекс.Кофеварка.

P.S. Совсем скоро вас ждет еще один материал о Яндексе. Оставайтесь на связи.

5 сентября в микрорайоне Энергетик города Владимира открылся новый дата-центр компании «Яндекс». В работу введена первая очередь центра обработки данных мощностью 10 Мегаватт. Всего будет введено четыре очереди дата-центра, их общая мощность составит 40 Мегаватт.

Фото пресс-службы компании «Яндекс»




На торжественном открытии присутствовали губернатор Владимирской области Светлана Орлова, вице-губернаторы Алексей Конышев и Сергей Невзоров, ректор ВлГУ Анзор Саралидзе, председатель регионального ЗакСобрания Владимир Киселёв и его заместитель Ольга Хохлова, глава города Владимира Ольга Деева и директор филиала «Владимирэнерго» Роман Сорокин.


Гендиректор владимирского дата-центра «Яндекса» Николай Иванов объяснил, что ключевая причина размещения центра обработки данных именно во Владимирской области - активная позиция властей, а уже потом - наличие подстанции, которая может обеспечить бесперебойную подачу энергии:

«Почему мы построили этот дата-центр именно во Владимирской области. Я, конечно, могу сказать много теплых слов о Светлане Юрьевне и администрации города и области, которые нам действительно очень сильно помогли построиться за очень короткий период времени. Для тех, кто не знает, в мае 2016 года здесь было чистое поле и болото. Сейчас здесь стоит этот объект, и это заслуга наша общая.

Когда мы выбирали эту площадку, основным критерием была, конечно, электроэнергия и та подстанция, которая здесь есть и которая позволяет присоединить наши мощности и получить необходимый объём энергоснабжения. А дальше были вопросы логистики, климата и готовности администрации работать с нами.

2,5 года назад на этом самом поле стояли Инна Хроменкова (директор департамента инвестиций и внешнеэкономической деятельности) и Николай Иванов. И Инна спрашивала: «Это поле подойдет вам?», и я уклончиво отвечал: «Надо подумать». Но при этом знал, что это поле нам как раз очень подойдёт».


Николай Иванов

По словам Николая Иванова, владимирский дата-центр - один из самых передовых объектов данного класса по уровню эффективности и автоматизации не только в России, но и в мире. Во владимирском дата-центре для охлаждения серверов используется технология Full Free Cooling - серверная зона охлаждается не промышленными кондиционерами, а обычным уличным воздухом с улицы благодаря особой системе вентиляции. Тепло, выделяемое серверами при охлаждении, частично пойдёт на отопление самого центра обработки данных, остальное тепло планируется пустить либо на отопление домов в микрорайоне Энергетик, либо на отопление ближащих предприятий.

Впрочем, пока компания «Яндекс» не определилась, куда пойдет высвобождаемое тепло. Вице-президент по корпоративным отношениям компании «Яндекс» Марина Янина пояснила, что проект по энергосбережению и передаче тепла находится на стадии переговоров. Тепловую энергию могут направить, к примеру, на отопление тепличных комплексов для выращивания овощей. Впрочем, для строительства теплиц ещё необходимо найти инвестора.


Губернатор Орлова заявила, что власти Владимирской области готовы выделить «Яндексу» ещё не одно поле и даже построить дорогу к новым площадкам. Светлана Орлова отметила, что для жителей 33 региона открытие инновационного предприятия - это не только престиж, но и новые рабочие места.




Глава региона поблагодарила команду «Яндекса», которая в кризис не отказалась от проекта, и команду администрации Владимирской области за успешную реализацию проекта.

«Это большое событие для нашего города. Центр обработки данных построен на новейших технологиях, необходимых для построения цифровой экономики, которая станет важной составляющей развития страны. «Яндекс» должен быть везде. Только ты проснулся - «Яндекс». Ты поехал - «Яндекс». Ты что-то хотел придумать - «Яндекс». Ты хочешь что-то выиграть - «Яндекс». Тем очень много, которые нужно поднимать. Благодаря вашей информационной ценности мы бы могли много интересных проектов продвинуть».

Спикер ЗакСобрания Владимирской области Владимир Киселёв охарактеризовал компанию «Яндекс» как «законодателя мод в сфере IT-технологий» и признался, что сам он пользуется только поисковой системой «Яндекс»:

«Я лично «Яндексом» пользуюсь с самого начала, по умолчанию на всех моих компьютерах стоит именно «Яндекс». Думаю, что подавляющее большинство жителей области и россиян так работают. Это уже не только поисковая машина: это Яндекс.Карты, Яндекс.Пробки, Яндекс.Такси, Яндекс.Погода и даже Яндекс.Самолетики и Яндекс.Паровозики появились».


Владимир Киселев

После торжественного нажатия на символическую пусковую кнопку дата-центра произошел обмен такими же символическими подарками. Губернатор Орлова получила от IT-компании сертификат на место на «Яндекс.Диске» для хранения данных и «совместной работы администрации области над документами и контроля над работой в любой точке мира». Орлова отметила, что она и так может «контролировать все, что делается в области и в отдельных городах региона» благодаря специальной программе на ее личном айпаде.

В подарок от владимирского Белого дома дата-центр «Яндекс» получил стилизованное изображение логотипа «Яндекса» - стеклянную букву «Я» производства гусевских стекольных мастеров и картину с изображением Успенского собора, чтобы партнеры компании знали, что «Яндекс» находится «в самом святом месте России».




Высокопоставленных гостей церемонии пригласили на экскурсию в новый корпус дата-центра. (Сопровождать губернатора журналистов не пустили). Экскурсию по дата-центру для Светланы Орловой провел лично Николай Иванов.

Судя по видеофрагментам, распространенным пресс-службой администрации Владимирской области, губернатору продемонстрировали устройство автоматизированной вентиляционной системы, генераторов, призванных обеспечить бесперебойную работу при возможном отключении электроэнергии, и другие инновационные технологии, отличающие владимирский дата-центр.




Фото пресс-службы администрации Владимирской области

Напомним, первая информация о том, что компания «Яндекс» рассматривает во Владимирской области появилась в ноябре 2014 года. Об этом сообщил вице-губернатор Владимирской области Алексей Марченко, который покинул команду губернатора Орловой в феврале 2016 года.

Позже стало известно, что в микрорайоне Энергетик города Владимира на площади около 6 гектар. Договор о строительстве дата-центра компании подписали в феврале 2015 года. Представитель компании «Яндекс» сообщил тогда Зебра ТВ, что предприятие планируют открыть в конце 2017 года. И отклонения от сроков не произошло. Чего нельзя сказать про других инвесторов, которые либо во Владимирской области, либо существенно сдвинулись в реализации («Волгобас», Mercedes-Benz, логистически центр «Сухой порт»).

Владимирский дата-центр «Яндекс» в цифрах



Объём инвестиций на этапе строительства первой очереди составил более 2,5 млрд рублей

Количество рабочих мест - более 18. На 16 местах уже работают выпускники технических факультетов местных вузов

Количество налоговых отчислений в бюджет Владимирской области - около 40 миллионов рублей

Мощность дата-центра - 40 МВт. Согласно проекту, мощность каждой из планируемых четырёх очередей составит 10 МВт

Стоимость электроэнергии - около 2 рублей (без НДС) за киловатт-час

PUE (Power Usage Effectiveness) для уже заполненного модуля равен 1.07

Яндекс располагает несколькими собственными дата-центрами. Большинство из них находятся в России, самый крупный – в городе Сасово (Рязанская обл). Компания пользуется и услугами ряда ЦОД за рубежом, однако они не находятся в ее собственности. Исключение - дата-центр в Финляндии, который Яндекс спроектировал и построил с нуля. Финляндия была выбрана из-за холодного климата, доступности оптических линий и наличия надежных энергетических мощностей. Дата-центр расположился в Мянтсяля - городе с населением 20 тысяч человек, находящемся неподалёку от Хельсинки.

ЦОД начал работу в прошлом году, но возведен еще не полностью. Алексей Жумыкин, руководитель отдела эксплуатации дата-центров Яндекса, рассказал Телекомблогу, что в целом проект п редполагает четыре очереди (каждая - 10 МВт полезной мощности). Пока построена и введена в эксплуатацию первая очередь. Количество стоек в дата-центре компания не раскрывает.

План дата-центра Яндекса в Мянтсяля

"Но обычно в ЦОД такого масштаба работают десятки тысяч серверов", - говорит Алексей Жумыкин.

Как правило в дата-центрах для охлаждения используются чиллеры - машины промышленного кондиционирования, в которых в качестве охлаждающего агента действуют жидкости или газы. Однако в финском ЦОД Яндекса сервера круглый год охлаждаются естественным способом - воздухом с улицы. В жаркие дни, которых не так много, в воздух добавляется распылённая влага, которая снижает температуру. Воздух, проходя через серверную зону, нагревается и с помощью вентиляторов нагнетается в огромные камеры - теплообменники, куда подаётся вода из городской сети Мянтсяля.

"Одним из важнейших компонентов дата-центра является система охлаждения, - рассказывают в Яндексе. - В ходе работы серверы выделяют много тепла, которое необходимо отводить во избежание перегрева. Система охлаждения, которая применяется в нашем дата-центре в Мянтсяля, позволяет использовать тепло от серверов в полезных целях - для отопления жилых домов. Поставляя городу тепло, Яндекс получает возможность возместить часть трат на электроэнергию - одну из самых крупных для дата-центра статей расходов".

Температура воды на выходе из теплообменника составляет, в зависимости от сезона, 30-45 градусов. Этого недостаточно, чтобы подавать воду напрямую в краны и батареи - поэтому по договорённости с администрацией Мянтсяля на территории дата-центра построили станцию донагрева. В ней вода с помощью тепловых насосов доводится до стандартной температуры и оттуда уже поступает в городскую сеть.

Население Мянтсяля составляет чуть более 20 тысяч человек; около половины горожан живут в домах с центральным теплоснабжением. Изначально для отопления новых районов город собирался построить котельную, но подсчёты показали, что использовать тёплую воду из дата-центра и доводить её до стандартной температуры на станции донагрева дешевле.

Коммунальные службы Мянтсяля рассчитали, что благодаря «серверному» теплоснабжению в 2016 году стоимость отопления для жителей Мянтсяля сократится на 5%, потребление газа для обслуживания городской сети - вдвое, а выбросы CO2 (параметр, которому в европейских странах уделяют особое внимание) - до 40%.

Яндекс, поставляя городу тепло, рассчитывает снизить свои расходы на электроэнергию до 30%.

Аналогичный проект может заработать и в России.

"Мы продолжаем совершенствовать систему охлаждения серверов уличным воздухом. Она может использоваться не только в странах с холодным климатом, но и в более тёплых регионах. Яндекс рассчитывает задействовать систему в дата-центре, который мы начали строить во Владимирской области. Тепло, выделяемое серверами, можно применять для обогрева не только жилых и общественных зданий, но и промышленных предприятий или, например, теплиц и парников", - говорится в блоге компании.

Алексей Жумыкин рассказывает, что дата-центр в Мянтсяля используется д ля задач, связанных с обработкой поисковых запросов, в том числе от пользователей сервисов Яндекса не из России (Турция, Украина, Европа). Кроме того, мощности дата-центра будет использовать подразделение Яндекса, занимающееся обработкой больших данных и машинным обучением - Yandex Data Factory .

По словам Алексея Жумыкина, Яндекс п ланирует перенести основную нагрузку по обработке данных с арендуемых зарубежных ЦОД на дата-центр в Финляндии.

Инвестиции в строительство дата-центра в Мянтсяля компания не раскрывает.

Напомним, что ранее своей дата-центр, в котором охлаждение серверов также происходит с помощью холодного уличного воздуха, запустила соцсеть Facebook. Ее дата-центр находится не так далеко от финского ЦОД Яндекса - в городе Лулео в Швеции. Лулео расположен всего в 60 км. от северного полярного круга.

И Нидерландах, однако после введения в эксплуатацию собственного большого дата-центра в Финляндии в 2015 году необходимость в аренде этих площадок пропала, рассказали TAdviser в компании.

Развитие ИТ-инфраструктуры «Яндекса»

2017: За пять лет стоимость ИКТ-инфраструктуры «Яндекса» выросла в 3,5 раза

Общая стоимость серверов и сетевой инфраструктуры, которыми владеет «Яндекс» , с 2013 по 2017 гг. выросла более чем в 3,5 раза: с 9,739 млрд рублей до 34,165 млрд рублей. Это следует из годовых отчетов «Яндекса» по форме 20-F . Данные о стоимости приведены за вычетом аккумулированных амортизационных отчислений, указано в отчетах.

Выросла и стоимость «инженерных систем» «Яндекса»: с 3,409 млрд рублей в 2013 году до 7,621 млрд рублей в 2017 году. В отчетах не уточняется, какие именно инфраструктурные системы имеются в виду. В «Яндексе» говорят, что здесь имеются в виду дата-центры компании.

В 2017 году «Яндекс» потратил на приобретение серверов и расширение дата-центров порядка 10 млрд рублей, что составило 81% от всех капитальных затрат компании. При этом и в 2017, и в 2016 гг. они в большой степени связаны с созданием нового дата-центра во Владимире, о запуске которого было объявлено в сентябре.

От года к году объем затрат на серверы и оборудование колеблется: так, например, в 2013 году их объем был 3,850 млрд рублей, а в 2015 году – около 11 млрд рублей.


В отчете также говорится рисках в области инфраструктуры, с которыми сталкивается «Яндекс». Компания отмечает, что ее будущий успех зависит от непрерывной доступности, развития и поддержки интернет-инфраструктуры глобально и на рынках, где работает «Яндекс». Это включает поддержку надежной магистральной сети с нужной скоростью, пропускной способностью и безопасностью для предоставления надежных интернет-сервисов. Любое прерывание доступа к сети, обеспечиваемого третьими сторонами, или их неспособность поддержать текущие или увеличенные будущие объемы использования могут существенно навредит бизнесу «Яндекса». При этом компания уже испытывала и продолжает испытывать прерывания и задержки в этих сервисах время от времени.

Интернет-инфраструктура также может оказаться неспособна выдержать нагрузку со стороны растущего числа пользователей или времени, проводимого онлайн, или увеличенные требования пропускной способности. Государственное регулирование также может ограничить доступ компании к адекватной и надежной интернет-инфраструктуре, говорится в отчете «Яндекса» без уточнения подробностей.

2016: «Яндекс» сокращает ЦОДы в Москве

«Яндекс» планирует перенести часть вычислительных мощностей из своих дата-центров в Москве в новый ЦОД во Владимире, рассказал руководитель группы исследований и разработки департамента эксплуатации «Яндекса» Павел Мельников , выступая на мероприятии компании Mellanox в марте 2016 года.

В качестве причины этого он упомянул дороговизну содержания дата-центров в Москве, главным образом, из-за высокой стоимости электроэнергии.


В пресс-службе «Яндекса» предпочли не углубляться в детали миграции, отметив лишь, что «строительство новых площадок ЦОД в Москве сейчас невыгодно, и стоимость электричества здесь - лишь один из факторов». Поэтому «Яндекс» «оптимизирует» инфраструктуру ЦОД.

По данным годового отчета «Яндекса» по форме 20-F , в 2015 году капитальные затраты компании составили 13,045 млн руб., из которых примерно 84% составили расходы на расширение инфраструктуры дата-центров и серверы, чтобы поддержать текущий рост деятельности компании.

2015

Строительство ЦОДа во Владимире

В 2015 году «Яндекс» начал реализацию проекта по строительству дата-центра в поселке Энергетик Владимирской области. Представители администрации региона сообщали о том, что объем инвестиций в проект составит порядка 4,5 млрд руб.

В одном из блогов «Яндекса» говорится, что до начала проектирования финского дата-центра компания успела построить и частично закрыть 10 дата-центров .

2013: План великой миграции серверов

«Яндекс» планирует строить новые высокоэффективные ЦОДы , в которые постепенно будут мигрировать мощности со старых площадок, рассказал TAdviser 19 марта 2013 г. Сергей Крупин, заместитель директора департамента строительства и инженерных систем интернет-компании. В них планируется внедрять передовые технологии, выбор которых будет опирается на опыт строительства и эксплуатации предыдущих ЦОДов, говорит он.

По словам Крупина, при строительстве новых площадок «Яндекс» будет ориентироваться на те регионы, в которых по климатическим параметрам сможет построить наиболее эффективную систему охлаждения ЦОДа.

В «Яндексе» рассказывают, что все последние ЦОДы компании построены с использованием тех или иных систем охлаждения с технологиями free cooling, включая и так называемые схемы Full free cooling, подразумевающие охлаждение серверных помещений за счет воздуха с улицы. Общая мощность таких ЦОДов компании превышает 15 МВт. Аналогичные технологии планируется применять и в будущих ЦОДах, куда мигрируют вычислительные ресурсы.

Технология Full free cooling, в частности, сейчас используется в ЦОДе «Яндекса» в подмосковном городе Ивантеевка , построенном в 2011 г., и в новом ЦОДе в Рязанской области , строительство которого завершилось в 2012 году.

В нем в качестве дополнительного охлаждающего оборудования применяется абсорбционно-холодильная машина, которая работает на природном газе. По словам представителей интернет-поисковика, она позволяет повысить эффективность использования энергоресурсов и снизить потребление электричества.

Сергей Крупнин отмечает, что внедрение любых энергосберегающих, инновационных или «зеленых» технологий предполагает высокие капитальные затраты, но позволяет существенно снизить эксплуатационные расходы. Поэтому определяющим фактором становится срок эксплуатации ЦОД. Если это долгосрочный проект (более 10 лет), то энергосберегающие технологии становятся окупаемыми.

Где именно будут располагаться новые площадки и каковы будут их параметры, в компании предпочли не раскрывать, отметив лишь, что по состоянию на март 2013 г. у «Яндекса» насчитывается шесть дата-центров , располагающихся как в России , так и за ее пределами. Часть серверов в своих ЦОДах компания на безвозмездной основе предоставляет Европейскому центру ядерных исследований (ЦЕРН).

2011: Строительство ЦОДа в Ивантеевке

По состоянию на 2011 год у «Яндекса» в России есть пять дата-центров , крупнейший из которых расположен подмосковном городе Ивантеевка. В сентябре 2011 года «Яндекс» сообщил о запуске второй очереди своего дата-центра в подмосковном городе Ивантеевка. Общая площадь двух его очередей составляет 4,5 тыс. кв. м, из которых 2,2 тыс. кв.м. приходится на вторую очередь.

Во второй очереди нового дата-центра используется система охлаждения российской разработки – Full Free Cooling (FFC). Она основана на технологии свободного охлаждения (free cooling), при которой помещение дата-центра охлаждается за счет более прохладного воздуха с улицы.

Разработчиком этой системы является московская компания Ayaks Engineering. Ее представитель Андрей Нестеров заявил CNews, что «Яндекс» стал их первым клиентом, использующим систему FFC в своем дата-центре.

Всего в ЦОДе будет размещено более 10 тыс. серверов, а общая потребляемая мощность составляет 8 МВт. В «Яндексе» уточнили, что показатель энергопотребления приведен с учетом новой системы охлаждения. «То электричество, которое мы экономим на охлаждении, мы можем пустить на более полезные вещи - на ИТ-мощности в том же дата-центре, например», - рассуждают в поисковике.

Согласно стандарту TIA-942 температура, которую необходимо выдерживать в серверных помещениях, составляет +22 градуса по Цельсию ± 2 градуса. В том или ином виде технологию free cooling используют во многих российских дата-центрах, однако главной особенностью своей системы в Ayaks Engineering называют температурный порог, при котором задействуется оборудование для охлаждения внешнего воздуха – он составляет +22 градуса. Т.е. система охлаждения включится только после того, как температура воздуха превысит это значение.

В стандартных холодильных установках с free cooling охлаждение включается при +5 - +12 градусах по Цельсию.

В «Яндексе» заявляют, что с использованием системы Ayaks Engineering новому дата-центру требуется в два раза меньше электроэнергии в год для поддержки того же количества серверов. Впрочем, некоторые эксперты считают, что в данном случае это сомнительное преимущество.

Евгений Громов, технический директор «Центра Хранения Данных», владеющего дата-центром SafeData, рассказал CNews , что их компания также рассматривала данную систему: «Ее плюс – в уменьшении затрат на электроснабжение, из минусов – в четыре раза большая цена по сравнению с классическими системами и более дорогое техническое обслуживание. При нынешних ценах на электроэнергию в России в коммерческом ЦОДе такая система не оправданна».

Система FFC представляет собой два разомкнутых отдельных контура, наружный и внутренний. Во внутреннем контуре циркулирует воздух ЦОДа, в наружный контур подается уличный воздух. Основным элементом системы является роторный регенератор, в котором происходит теплообмен между наружным воздухом окружающей среды и воздухом в помещении ЦОДа. Задача роторного регенератора заключается в том, чтобы охладить воздух в дата-центре с +37 до +24 градусов наружным воздухом температурой до +22 градусов.

Экспериментировать с различными технологиями охлаждения мы начали в конце 2009 г. Основная задача заключалась в том, чтобы максимально увеличить температурный порог. В результате его удалось поднять с +13 до +22 градусов по Цельсию, - говорит Геннадий Вахутинский, директор по строительству инженерных систем «Яндекса». - От использования в новом дата-центре экономичной системы охлаждения выиграет не только компания, но и окружающая среда - меньше электроэнергии, значит меньше природных ресурсов для её выработки.

Из известных в России систем охлаждения схожий с FFC принцип работы на основе роторного теплообменника используется также, к примеру, в системе Kyoto Cooling, разработанной в Голландии.

Начало 2000-х: Первые дата-центры «Яндекса»

Когда в 1997 году был открыт сайт www.yandex.ru, для его работы достаточно было одного сервера под столом одного из первых разработчиков . Вскоре после объявления об открытии появился второй сервер, а когда понадобилось установить ещё один, выяснилось, что места под столом не хватает.

До мысли о создании собственных дата-центров Яндексу в тот момент было ещё далеко - индекс русскоязычного интернета целиком умещался на одном SCSI-диске размером 4Гб, а вся команда портала составляла около десяти человек, работавших в компании CompTek. Поэтому серверное оборудование Яндекса в первые три года его работы было размещено в дата-центре компании «МТУ-Интел». К моменту создания ООО «Яндекс» в 2000 году Яндекс арендовал четыре стойки в «МТУ-Интеле», где размещалось около 40 собственных серверов Яндекса.

Эти несколько десятков серверов и стали основой первого самостоятельного дата-центра Яндекса, который расположился в первом офисе компании - в Москве, на улице Вавилова, в вычислительном центре Российской академии наук.