Снижение углеродного следа
Мы стремимся внести свой вклад в достижение ЦУР 13 «Борьба с изменением климата» и работаем над сокращением углеродного следа нашей Компании, используя энергоэффективное оборудование и технологии, а также минимизируя углродный след от авиаперелетов и поездок автотранспортом.
Как мы управляем выбросами от транспорта
Мы понимаем, что использование авиа‑ и автотранспорта приводит к росту экологической и климатической нагрузки, поэтому стремимся снизить объем выбросов от сжигания топлива транспортом. Мы сократили наш автопарк до трех автомобилей и используем их только для срочных поездок.
Мы делаем все, чтобы минимизировать наш углеродный след от авиаперелетов. Однако в 2022 и 2023 годах мы расширяли наш бизнес в Латинской Америке, Африке, на Ближнем Востоке и в Турции, в связи с чем число авиаперелетов сотрудников выросло в сравнении с 2021 годом. Тем не менее в 2023 году нам удалось сохранить объем выбросов на уровне вдвое ниже, чем в базовом 2019 году (3,1 тысячи тонн СО2‑экв.).
Как мы управляем энергопотреблением в офисе
Штаб‑квартира «Лаборатории Касперского» расположена в московском бизнес‑центре «Олимпия Парк», которому присвоен класс энергоэффективности А. Здание сертифицировано по международному экологическому стандарту BREEAM, при его строительстве использовались энергоэффективные технологии и материалы.
В нашем главном офисе мы применяем современные решения, такие как светодиодные осветительные приборы, датчики движения, позволяющие отключать свет при ненадобности, и автоматические регуляторы освещения при изменении количества дневного света. С 2020 года светодиодными приборами полностью освещается и парковка бизнес‑центра. Это позволило сократить расходы на освещение на 30–45% в сравнении с 2019 годом.
Потребление электроэнергии в Компании в 2022 и 2023 годах несколько выросло в сравнении с 2021 годом. Причиной послужило то, что ряд сотрудников перешли с удаленного и гибридного форматов работы, преобладавших в 2021 году, на работу в офисе, а в конце 2023 года часть сотрудников Компании переехали в московскую штаб‑квартиру из другого офиса, соответственно, потребление энергии компьютерным оборудованием и осветительными приборами увеличилось. Кроме того, после простоя, связанного с коронавирусными ограничениями, вновь открылись спортзал, столовая и ресторан на территории офиса, что также способствовало росту потребления электроэнергии в этих пространствах.
Как мы управляем энергопотреблением в ЦОД
Один из главных факторов, формирующих углеродный след IT‑компаний, — работа дата‑центров, или центров обработки данных (ЦОД). Они объединяют тысячи серверов и работают круглосуточно, потребляя большое количество энергии. Кроме того, энергию потребляют промышленные кондиционеры, обеспечивающие необходимое охлаждение ЦОД. Компания использует собственный ЦОД, включающий 33 стойки с серверами, которые поддерживают работу пользовательской инфраструктуры и бэк‑офиса, а также арендованные дата‑центры для нужд разработки.
ЦОД «Лаборатории Касперского» получает электроэнергию от двух независимых подстанций, на случай аварийной ситуации в готовности находится дизельный генератор, а UPS‑батареи позволяют серверам продолжать работу около 30 минут после отключения всех прочих источников питания. В серверной установлена система газового пожаротушения, не наносящая вреда окружающей среде.
Все электрооборудование регулярно проходит техосмотр. Раз в две недели проводятся тестовые запуски генератора на холостом ходу, раз в квартал — запуски под нагрузкой, а топливо в генераторе заменяется ежегодно. Обслуживание системы UPS‑снабжения проводится ежеквартально.
При строительстве ЦОД мы использовали энергоэффективные технологии и материалы, в том числе интеллектуальные регуляторы температуры и датчики присутствия для освещения.
Новейшее вычислительное оборудование помогает нам экономить мощность и сокращать энергопотребление. Мы заменяем устаревшее оборудование новым, которое в пересчете на единицу мощности выдает больше производительности, уменьшаем количество используемых кабелей и стоек, серверов, используя среды виртуализации и SSD‑диски. Мы перерабатываем старое компьютерное оборудование и передаем на благотворительность клавиатуры, ноутбуки, мониторы и телефоны. В 2023 году мы передали 237 единиц оборудования семи различным некоммерческим организациям.
Мы предъявляем высокие требования к инфраструктуре ЦОД и стремимся эффективно использовать все имеющиеся возможности. Например, зимой мы переходим на систему фрикулинга — обеспечиваем охлаждение дата‑центра за счет температуры внешнего воздуха. Мы используем такие энергоэффективные методы охлаждения в дата‑центре, как расширение температурного диапазона эксплуатации серверов до 22–24 °C, а также организацию холодных и горячих воздушных коридоров.
Чтобы предотвратить утечку газов, использующихся для охлаждения серверов, наши сотрудники два раза в день проверяют работу охлаждающего оборудования. В случае выявления утечки оборудование отключается, перекрывается подача хладагента и газ эвакуируется в специальный баллон.
Для оценки энергоэффективности дата‑центров во всем мире используется показатель PUE (Power Usage Effectiveness), который рассчитывается как отношение общего энергопотребления дата‑центра к энергопотреблению IT‑оборудования. В 2023 году значение PUE наших дата‑центров составило 2 (для сравнения: среднее значение по миру в 2022 году составляло 1,55, по оценке Uptime Institute).