ESG-отчётность как кошмарный сон
Представьте: каждый квартал вы собираете данные из 15 разных систем. Энергопотребление из одних таблиц, выбросы CO₂ из других, социальные опросы из третьих. Потом пытаетесь найти взаимосвязи между снижением потребления воды и ростом производительности. Потом пишете 50 страниц текста, который должен соответствовать стандартам GRI, SASB и TCFD одновременно. И всё это нужно сделать вчера.
Типичная команда по устойчивому развитию тратит на это 6-8 недель чистого времени. Вручную. С ошибками. С субъективными интерпретациями. И с постоянным чувством, что где-то что-то упустили.
Вот что бесит больше всего: 80% времени уходит не на анализ, а на сбор и структурирование данных. Вы не стратег, вы — продвинутый копипастер.
Зачем Google выпустил этот Playbook
Не из альтруизма. Google сам столкнулся с проблемой ESG-отчётности в своих масштабах (сотни дата-центров, тысячи поставщиков, миллионы метрик) и понял: без AI это уже нереально. Их команда потратила месяцы на эксперименты с Gemini и NotebookLM, выясняя, что работает, а что нет.
Результат — AI Playbook для ESG. Не абстрактные рекомендации, а конкретные промпты, workflow и примеры. Фактически, они отдали вам свой внутренний инструмент.
1 Подготовка данных: не загружайте всё подряд
Первая ошибка — скинуть в NotebookLM все PDF и Excel файлы, которые найдёте. Система утонет в мусоре. Google рекомендует структурированный подход:
- Слои данных: Разделите источники на три уровня: сырые данные (метрики), контекстные документы (отчёты поставщиков), стандарты (GRI, SASB)
- Очистка перед загрузкой: Удалите дубликаты, приведите единицы измерения к одному формату (все тонны CO₂, все кВт·ч)
- Метаданные: Добавьте в названия файлов информацию о периоде и источнике: "energy_q1_2025_factory3.csv", а не "data_new_final_v2.csv"
# Пример структуры папок для загрузки в NotebookLM
├── raw_metrics/
│ ├── energy_consumption_2024.csv
│ ├── waste_generation_2024.csv
│ └── water_usage_2024.csv
├── context_docs/
│ ├── supplier_reports_2024.pdf
│ ├── audit_results_q1.pdf
│ └── employee_surveys_summary.docx
└── standards/
├── gri_standards_2023.pdf
├── sasb_materiality_map.pdf
└── tcfd_recommendations.pdf
2 Настройка NotebookLM: больше чем просто чат
NotebookLM — это не ChatGPT с загрузкой файлов. Это исследовательский ассистент, который строит ответы исключительно на ваших документах. Ключевое отличие: минимальные галлюцинации.
После загрузки документов создайте "источники знаний" — это тематические группы документов. Например:
- Источник "Метрики": Все CSV и Excel с числовыми данными
- Источник "Контекст": Текстовые отчёты, интервью, заметки
- Источник "Стандарты": Документы GRI, SASB, TCFD
Важно: NotebookLM не запоминает всё разом. Он обращается к конкретным источникам при каждом запросе. Поэтому структурирование критически важно для точности ответов.
3 Промпты, которые работают (а не просто "проанализируй данные")
Вот где начинается магия. Google в своём Playbook даёт конкретные промпты, проверенные на реальных данных. Не общие фразы, а точные инструкции.
Пример плохого промпта (так делают 90% людей):
Проанализируй данные по энергопотреблению и напиши отчёт
Почему это плохо? Слишком расплывчато. AI не знает, что именно анализировать, в каком формате выводить, на что обращать внимание.
Вот промпт из Google Playbook (берёте и используете):
Используя данные из источника "Метрики", проанализируй энергопотребление за 2024 год по месяцам и объектам.
Шаги:
1. Рассчитай общее потребление энергии в кВт·ч по каждому объекту
2. Выяви три объекта с наибольшим ростом потребления по сравнению с 2023 годом
3. Рассчитай углеродный след в тоннах CO₂-эквивалента (используй коэффициент 0,5 кг CO₂/кВт·ч)
4. Сравни показатели с целями на 2024 год из документа "energy_targets_2024.csv"
5. Предложи три конкретных меры по снижению потребления для каждого проблемного объекта
Формат вывода:
- Таблица с ключевыми метриками
- Три графика: тренд потребления, сравнение объектов, прогресс по целям
- Текстовый анализ на 200 слов с акцентом на бизнес-последствия
- Рекомендации в формате "мероприятие - ожидаемый эффект - срок реализации"
Видите разницу? Конкретика. Структура. Чёткие инструкции. AI понимает, что от него хотят, и даёт готовый к использованию результат.
Рабочий процесс: от сырых данных до презентации для совета директоров
Вот как выглядит полный цикл с AI Playbook:
| Этап | Инструмент | Время без AI | Время с AI |
|---|---|---|---|
| Сбор и очистка данных | Python скрипты + NotebookLM | 2 недели | 3 дня |
| Анализ взаимосвязей | NotebookLM с промптами | 1 неделя | 4 часа |
| Написание отчёта | Gemini + шаблоны | 3 недели | 2 дня |
| Создание визуализаций | Gemini + код для графиков | 1 неделя | 1 день |
С 7 недель до 10 дней. И это консервативная оценка. На практике некоторые команды сокращают время подготовки отчёта на 85%.
4 Интеграция с бизнес-системами: где брать данные
Самая большая проблема — не анализ, а доступ к данным. Они разбросаны по ERP, CRM, системам мониторинга, Excel-файлам на общих дисках.
Google предлагает двухуровневый подход:
- Автоматический сбор: Настройте ежедневный/еженедельный экспорт ключевых метрик в облачное хранилище (Google Cloud Storage, S3)
- Ручная загрузка: Для неавтоматизируемых источников (PDF отчёты, сканы) создайте процесс регулярного добавления в папку для NotebookLM
# Пример скрипта для автоматического сбора данных
import pandas as pd
import requests
from google.cloud import storage
from datetime import datetime
# 1. Данные из API систем мониторинга
def get_energy_data():
response = requests.get("https://api.energy-monitor.com/v1/metrics",
headers={"Authorization": "Bearer YOUR_TOKEN"})
return pd.DataFrame(response.json())
# 2. Данные из базы данных
def get_database_data():
# Используйте инструменты вроде IDEAV, о котором мы писали ранее
# Подробнее: /article/ideav-kak-zastavit-bazu-dannyih-govorit-na-yazyike-biznesa-i-zabyit-pro-sql-dzhungli/
pass
# 3. Сохранение в облако
def upload_to_gcs(dataframe, bucket_name, destination_blob_name):
storage_client = storage.Client()
bucket = storage_client.bucket(bucket_name)
blob = bucket.blob(destination_blob_name)
# Конвертируем в CSV
csv_data = dataframe.to_csv(index=False)
blob.upload_from_string(csv_data, content_type='text/csv')
print(f"Файл {destination_blob_name} загружен в {bucket_name}.")
# Основной процесс
if __name__ == "__main__":
energy_df = get_energy_data()
upload_to_gcs(energy_df, "esg-data-bucket", f"energy_{datetime.now().strftime('%Y%m%d')}.csv")
Ошибки, которые все совершают (и как их избежать)
Предупреждение: AI — не волшебная палочка. Без правильного подхода вы получите красивый, но бесполезный отчёт.
Ошибка 1: Слепая вера в числа AI
AI считает быстрее человека, но может ошибаться в расчётах, особенно с процентами и агрегациями. Всегда проверяйте ключевые метрики вручную первые несколько раз.
Ошибка 2: Игнорирование контекста
AI видит только данные, которые вы ему дали. Если в отчёте поставщика есть важная сноска на странице 45, а вы загрузили только первые 20 страниц — AI её не учтёт.
Ошибка 3: Одинаковые промпты для разных задач
Промпт для анализа энергопотребления не подойдёт для социальных опросов. Создавайте библиотеку специализированных промптов под каждый тип данных.
Ошибка 4: Отсутствие human-in-the-loop
AI генерирует черновик. Человек проверяет, корректирует, добавляет экспертизу. Не делегируйте AI финальное решение — делегируйте рутину.
Что будет дальше: от отчётов к прогнозам
Сейчас большинство используют AI для автоматизации существующих процессов. Но следующий шаг — прогнозная аналитика.
Вместо "сколько CO₂ мы выбросили в прошлом квартале" вопрос станет "сколько мы выбросим в следующем, если откроем новый завод". Вместо отчётов о выполнении целей — моделирование разных сценариев.
Google уже тестирует такие сценарии в своём Playbook. Например, промпты типа:
На основе данных за последние 3 года спрогнозируй энергопотребление на 2025 год с учётом:
- Планов по открытию двух новых объектов
- Внедрения солнечных панелей на 40% площадей
- Повышения цен на электроэнергию на 15%
Дай три сценария: оптимистичный, базовый, пессимистичный.
Рассчитай финансовые последствия каждого сценария.
Это меняет игру. ESG перестаёт быть отчётной функцией и становится инструментом стратегического планирования.
С чего начать завтра утром
Не пытайтесь автоматизировать всё сразу. Начните с одного болезненного процесса.
- Выберите один тип отчёта, который отнимает больше всего времени (например, квартальный отчёт по энергоэффективности)
- Соберите все исходные данные за последний период в структурированные файлы
- Загрузите в NotebookLM и создайте источники знаний
- Возьмите готовый промпт из Google Playbook (или из нашей статьи про промпты Google для ESG) и адаптируйте под свои данные
- Сравните результат AI с вашим ручным отчётом за предыдущий период
- Итеративно улучшайте промпты на основе расхождений
Через месяц у вас будет отлаженный процесс для одного типа отчётов. Тогда берите следующий. Через полгода вы будете делать то, на что раньше тратили 6 месяцев, за несколько недель.
И да, ваш босс это заметит. Но не так, как в той страшилке про замену AI к 2026 году. Он заметит, что вы делаете более качественные отчёты быстрее. Что вы находите insights, которые раньше упускали. Что вы наконец-то занимаетесь стратегией, а не копипастой.
AI не заменит специалистов по устойчивому развитию. Он заменит рутину. А вы сможете заняться тем, что действительно создаёт ценность.