ChatGPT в год потребляет количество электроэнергии, которого Нью-Йорку хватило бы на 4 месяца
Выход новой модели GPT-5.2 от OpenAI ознаменовал очередной скачок в возможностях искусственного интеллекта, однако обратной стороной прогресса стали колоссальные затраты ресурсов.
Развитие нейросетей происходит на фоне растущей нагрузки на энергетические системы. Аналитики опубликовали отчет, в котором детально разобрали «энергетический аппетит» самого популярного чат-бота в мире. Исследование показывает, что каждое взаимодействие с ИИ обходится экологии значительно дороже, чем обычный поиск в интернете. Согласно последним расчетам BestBrokers, на обработку запросов пользователей ChatGPT ежегодно тратит 17,23 ТВт/ч электроэнергии — этого достаточно, чтобы обеспечивать Нью-Йорк электричеством в течение почти четырех месяцев.
По данным лаборатории ИИ Университета Род-Айленда, один запрос к ChatGPT потребляет в среднем 18,9 Вт/ч. Для сравнения: стандартный поиск в Google требует всего 0,3 Вт/ч. Таким образом, ИИ-модель тратит в 63 раза больше энергии на один ответ. При текущей аудитории в 810 миллионов активных пользователей в неделю, каждый из которых задает в среднем 22 вопроса, суммарное годовое потребление достигает 17,228 млрд кВт/ч (17,23 ТВт/ч). С учетом средних коммерческих тарифов в США на сентябрь 2025 года ($0,141 за кВт/ч), только оплата счетов за электричество обходится OpenAI примерно в 2,42 млрд долларов ежегодно.
Чтобы продемонстрировать масштаб цифры в 17,23 ТВт/ч, эксперты привели сравнения с энергопотреблением различных стран и объектов инфраструктуры. Этого объема энергии хватило бы, чтобы обеспечивать электричеством:
— Российскую Федерацию — 5 дней и 6 часов
— США — 34 часа (или все домохозяйства страны в течение 4,5 дней)
— Великобританию — почти 20 дней
— Нью-Йорк — 113 дней (почти 4 месяца)
— Китай — 5 часов
— Индию — 3 дня и 2 часа
— Южную Корею — 10 дней и 1 час
— Германию — 12 дней и 9 часов
— Франция — 13 дней и 11 часов
— Бразилию — 8 дней и 6 часов.
Энергии, которую ChatGPT расходует за год, достаточно для полной зарядки 238 миллионов электромобилей. Это в 36 раз больше, чем весь парк электрокаров, зарегистрированных в США на середину 2025 года. Общее потребление модели уже превысило годовые нужды таких стран, как Словения, Грузия, Литва, Кения и Люксембург.
Несмотря на рост эффективности алгоритмов, их общая потребляемая мощность продолжает расти из-за увеличения размеров моделей и взрывного роста числа пользователей. Алан Голдберг, аналитик BestBrokers, отмечает критическую нехватку прозрачности в индустрии: «Новейшие версии ChatGPT и других передовых моделей демонстрируют значительные улучшения в точности рассуждений и генерации, но их энергопотребление становится невозможно игнорировать. Для обучения современных систем теперь требуется десятки гигаватт-часов, вывод результатов тоже недешев. Каждый запрос от самых продвинутых моделей может потреблять на порядок больше энергии, чем старые архитектуры. Улучшения эффективности реальны, но их опережают растущий глобальный спрос и увеличение размера моделей. Особенно поразительно то, насколько мало прозрачности в отношении истинного энергопотребления этих систем. Главным технологическим прорывом будущего должна стать не просто мощность, а энергоэффективность».
По мнению экспертов, без введения жестких стандартов отчетности и оптимизации, стремительный прогресс ИИ рискует создать инфраструктурное и экологическое давление, к которому мировая энергетическая сеть пока не готова.
Напомним — 27 августа 2026 г. в Астане пройдет конференция PROFIT Industry & Energy Day, посвященная информационным технологиям в промышленности и энергетике.