Учебные материалы
Архитектура State-of-the-Art Research Agent: как Tavily строит агента для глубоких исследований на основе LLM
Полное руководство по архитектуре research-агентов от Tavily. Узнайте про Agent Harness, управление контекстом, оркестрацию инструментов и синтез информации.
Сикофантия ИИ: почему ChatGPT всегда соглашается и как с этим бороться
Разбираемся, почему ChatGPT льстит и соглашается с любой ерундой. Практические промпты и методы борьбы с угодливостью языковых моделей.
Retrieval для временных рядов: как поиск похожих паттернов улучшает прогнозы
Как поиск похожих паттернов временных рядов через RAG-подход улучшает прогнозы на 40% против Chronos и LSTM. Архитектура, реализация, ошибки.
LLMs в финансах: как кванты используют языковые модели для прогнозирования рынка
Глубокий разбор как кванты используют LLM для прогнозирования рынка: авторегрессионные модели, статистический арбитраж, работа с финансовыми данными и реальные
Финансовая модель в Power BI: от хаоса плоской таблицы к элегантной Star Schema
Практический гайд по созданию enterprise-финансовой модели в Power BI. От плоской таблицы до Star Schema, DAX-метрики YTD, решение проблем гранулярности. Для по
Когда нейросеть ошибается: как мы учили ИИ считать лосося и почему без человека не обойтись
Реальный проект: автоматизация подсчета лосося для FERC с human-in-the-loop. Архитектура, ошибки, управление данными и почему ИИ один не справляется.
Datasets streaming=True: как обучать модели на терабайтных данных без скачивания — разгон в 100 раз
Полный гайд по load_dataset(streaming=True). Обучайте модели на 500 ГБ данных с 16 ГБ ОЗУ. Реальный кейс SmolLM3, сравнение производительности, типичные ошибки
LLM в науке: как отличить качественную статью от AI-слопа — анализ 2 млн препринтов
Практическое руководство по анализу научных препринтов: метрики качества, детекция LLM-текста, признаки ретракции. Данные из исследования arXiv.
Hugging Face Hub v1.0: полный гайд по переходу с v0.x, breaking changes и совместимости с transformers
Подробный гайд по переходу на huggingface_hub v1.0: breaking changes, установка через pip install huggingface_hub, миграция CLI, совместимость с transformers.
Конец эпохи квадратичной сложности: как LLM научились жульничать с памятью
Полное руководство по оптимизации памяти LLM: от архитектурных хаков до практических реализаций сжатия KV-кэша для длинных контекстов.
Визуализация RAG в 3D: как EmbeddingGemma и UMAP показывают процесс поиска в векторной базе
Практический гайд по визуализации работы RAG-системы. Сжимаем 768-мерные эмбеддинги EmbeddingGemma до 3D с UMAP, строим интерактивные графики в Plotly и смотрим
Fine-tuning Gemma 3 для вызова процедур: пошаговый гайд с кодом и датасетом
Полный гайд по тонкой настройке Gemma 3 для вызова процедур. QLoRA, датасет, код для RTX 4090. Создаем текстового агента за 2 часа.