Одноразовый контент, вечные выбросы
Представьте сцену: писатель за чашкой кофе строчит текст на ноутбуке. Где-то за океаном массив серверов, размером со склад, генерирует статью за две секунды. Кто оставил больший углеродный след? Если верить популярному нарративу — человек, потому что он ел, грелся, ездил на метро. ИИ якобы чище. Это красиво. И полностью ложно.
Цифра, которая меняет всё: обучение одной крупной языковой модели (вроде GPT-4) может потребовать столько же энергии, сколько 5000 средних американских домовладений за год. И это только старт, только тренировка.
Арифметика облаков: что скрывает API
Промпт в ChatGPT кажется бесплатным. Для пользователя. Для планеты цена другая. Каждый запрос к GPT-4 — это не просто «ответ». Это активация миллиардов параметров, прогон через слои нейросети, работа тысяч GPU. Исследование из Массачусетса подсчитало: один запрос к большой модели генерирует в 10-100 раз больше CO2, чем поисковый запрос в Google.
Теперь умножьте на миллиарды запросов в день. Только у ChatGPT.
| Действие | Примерный углеродный след (CO2-экв.) | Что это значит |
|---|---|---|
| Написание статьи человеком (8 часов) | ~1-2 кг | Энергия ноутбука + отопление/кондиционер |
| Генерация статьи GPT-4 (5000 токенов) | ~50-150 г | Только инференс (вывод) |
| Обучение GPT-4 (одна итерация) | ~500-1000 тонн | Выбросы от 1000 перелетов через Атлантику |
Вот где ловушка. Когда говорят «ИИ экологичнее», сравнивают только инференс (момент генерации) с полным циклом жизни человека. Это как сравнивать выхлоп одной поездки на Tesla с выбросами от производства всей автопромышленности Германии. Нечестно.
Тренировка — это ядерный гриб, который никто не видит
Основной углеродный след ИИ — не в использовании, а в создании. Тренировка модели — это месяцы работы суперкомпьютеров. NVIDIA DGX A100, стандартный инструмент, потребляет до 6.5 кВтч. Представьте стену из тысяч таких систем, работающих 24/7.
По данным OpenAI, тренировка GPT-3 (меньше, чем GPT-4) потребовала энергии, эквивалентной 1200 мегаватт-часам. Этого хватило бы на питание среднего города в течение нескольких часов.
А потом модель устаревает. Выходит новая архитектура. И всё начинается снова. Циклы перетренировки становятся постоянным фоном цифровой эпохи. Пока мы спорим о том, станут ли программисты садовниками, реальные сады вырубают под дата-центры.
Человек: не только выбросы, но и поглощение
Сравнивать ИИ и человека по углеродному следу — изначально порочная методология. Человек не только источник CO2. Он часть биосферного цикла. Дерево, посаженное писателем, поглощает углерод. Сад, который он поливает. Даже кофе, который он пьёт, — часть сельскохозяйственного цикла, который можно сделать углеродно-нейтральным.
ИИ — чистая энтропия. Он только потребляет. Серверы не сажают деревья (если только их не запрограммируют на это, и для этого не потратят ещё энергии). Этот разрыв между биологическим и цифровым — фундаментальный. И его удобно игнорировать в угоду технологическому оптимизму.
Зелёный камуфляж и хайп
Крупные tech-компании активно инвестируют в «зелёный» имидж. Google, Microsoft, Amazon клянутся перейти на возобновляемую энергию для дата-центров. Это хорошо. Но это не отменяет роста общего потребления.
Энергия может быть «зелёной», но инфраструктура — нет. Производство GPU, охлаждение серверов, утилизация оборудования — всё это имеет тяжёлый экологический след. И пока дефицит оперативной памяти убивает хайп вокруг AI-PC, производство чипов остаётся одним из самых грязных процессов в промышленности.
А ещё есть проблема избыточности. Зачем тренировать 10 моделей для одной задачи? Часто — ради маркетинга. Экология проигрывает гонке вооружений ИИ. Споры между AI-домерами и AI-оптимистами сосредоточены на рисках для человечества, но игнорируют риски для планеты здесь и сейчас.
Что делать? (Нет, не выключить всё)
Полный отказ от ИИ — утопия. Но можно сделать его менее расточительным.
- Локальный ИИ. Запуск небольших моделей на своём компьютере (если хватит памяти) вместо облачных запросов. Это снижает нагрузку на сети передачи и гигантские дата-центры.
- Эффективная архитектура. Модели, которые делают то же самое с меньшим числом параметров. Не гнаться за триллионами, если достаточно миллиардов.
- Прозрачность. Компании должны публиковать данные об энергопотреблении и углеродном следе своих моделей. Как пищевая ценность на упаковке.
- Переиспользование моделей. Не тренировать с нуля для каждой новой задачи. Использовать тонкую настройку существующих — как это делают с LLM для редактуры.
И главное — изменить нарратив. ИИ не «экологичнее» человека по умолчанию. Это сложная система с огромными скрытыми затратами. Его экологичность — вопрос дизайна, приоритетов и регулирования.
Ирония в том, что если мы продолжим бездумно масштабировать ИИ, игнорируя его углеродный след, то искусственный интеллект может стать инструментом, который ускорит климатические изменения, которые он якобы должен помочь решить.
Следующая битва за экологию развернётся не в лесах и океанах, а в облачных кластерах и алгоритмах. И первый шаг — перестать верить в удобные мифы. Писатель с ноутбуком — не враг планеты. Врагом может стать бездумная эффективность, которая считает каждую калорию человека, но игнорирует мегаватты машин.
Вы всё ещё думаете, что ваши промпты безвредны? Почитайте, как манипуляция LLM создаёт информационный шум, требующий ещё больше энергии для факт-чекинга. Цикл замыкается.