Анализ литературных предпочтений с помощью ИИ: пошаговый гайд с промптами | AiManual
AiManual Logo Ai / Manual.
02 Янв 2026 Гайд

Литературные предпочтения под микроскопом ИИ: как превратить список книг в карту личности

Полное руководство по анализу книг с помощью ИИ: от сбора данных до семантического анализа и кластеризации. Готовые промпты и скрипты.

Твоя библиотека — это не коллекция, а набор симптомов

Ты читаешь. Годами. Десятилетиями. На полках накапливаются тома, в памяти — обрывки сюжетов, персонажей, фраз.

А потом кто-то спрашивает: "Какие у тебя литературные вкусы?" И ты выдаёшь набор штампов. "Люблю глубоких персонажей", "Не терплю затянутые описания", "Ценю оригинальный стиль". Клише. Пустые слова.

Секрет в том, что твои реальные предпочтения скрыты от тебя самого. Ты думаешь, что любишь "сложную прозу", а на деле тебя цепляет не сложность, а ощущение интеллектуального превосходства. Или наоборот — ненавидишь "попсу", потому что боишься выглядеть банальным.

ИИ не страдает этими иллюзиями. Он видит паттерны там, где ты видишь хаос. Он находит связи между "1984" Оруэлла и "Рассказом служанки" Этвуд, которые ты никогда бы не заметил. Он раскладывает твою библиотеку по полочкам — не по жанрам, а по скрытым смысловым осям.

Это не про рекомендации. ChatGPT и так накидает тебе список "похожих книг". Это про обратный инжиниринг твоего мозга. Декомпиляция литературного кода.

1 Собираем сырые данные: что ты на самом деле читал

Первая и самая частая ошибка — полагаться на память. Ты помнишь "Преступление и наказание", но забыл три детектива, которые проглотил в аэропорту. Ты гордишься прочтением "Улисса", но не учитываешь, что бросил его на 50-й странице.

Нужны не просто названия книг. Нужны метаданные. Много метаданных.

💡
Если у тебя нет полного списка — не проблема. Зайди в Goodreads, LiveLib, или просто покопайся в истории покупок Kindle. Даже примерный список из 30-50 книг даст ИИ достаточно материала для анализа.

Создаём CSV-файл. Структура важнее содержания:

import pandas as pd
import json

# Пример структуры данных
books_data = [
    {
        "title": "1984",
        "author": "Джордж Оруэлл",
        "year_read": 2023,
        "rating": 9,
        "genre": "антиутопия, политическая сатира",
        "keywords": "тоталитаризм, наблюдение, свобода воли",
        "emotional_state": "тревога, осознание",
        "what_stuck": "концепция двоемыслия",
        "what_annoyed": "медленный темп в середине",
        "reread_probability": 0.3,
        "recommend_to_friend": "да, если интересуется политикой"
    },
    # ... остальные книги
]

# Сохраняем
with open('books_data.json', 'w', encoding='utf-8') as f:
    json.dump(books_data, f, ensure_ascii=False, indent=2)

Почему так много полей? Потому что ИИ ищет корреляции. Может оказаться, что ты ставишь высокие оценки книгам, прочитанным зимой. Или что раздражают тебя не "скучные описания", а конкретно описания природы в современных романах.

2 Промпт №1: превращаем книги в векторы

Теперь начинается магия. Мы берём каждую книгу и превращаем её в набор чисел — семантический вектор. Это как отпечаток пальца для текста.

Открываем ChatGPT (GPT-4, Claude 3, неважно) и вставляем первый промпт:

Ты — литературный аналитик. Я дам тебе информацию о книге.

Для каждой книги создай JSON-объект со следующими полями:

1. semantic_vector: массив из 10 чисел от -1 до 1, где:
   - Элемент 1: Уровень оптимизма/пессимизма (1 = очень оптимистично, -1 = очень пессимистично)
   - Элемент 2: Интеллектуальная сложность (1 = требует концентрации, -1 = лёгкое чтение)
   - Элемент 3: Эмоциональная интенсивность (1 = вызывает сильные эмоции, -1 = нейтрально)
   - Элемент 4: Темп повествования (1 = динамично, -1 = медленно)
   - Элемент 5: Уровень реализма (1 = документально, -1 = фантастично)
   - Элемент 6: Моральная определённость (1 = чёткое добро/зло, -1 = моральные оттенки серого)
   - Элемент 7: Фокус на персонажах (1 = глубокие персонажи, -1 = сюжет важнее)
   - Элемент 8: Социальная критика (1 = острая критика, -1 = аполитично)
   - Элемент 9: Языковая игра (1 = эксперименты с языком, -1 = простой язык)
   - Элемент 10: Психологическая глубина (1 = исследует психику, -1 = поверхностно)

2. themes: массив из 5-7 ключевых тем книги
3. archetype: главный архетип книги (герой, тень, мудрец, бунтарь и т.д.)
4. emotional_arc: эмоциональная дуга (восходящая, нисходящая, циклическая, плоская)

Книга: "1984" Джорджа Оруэлла
Жанр: антиутопия, политическая сатира
Мои заметки: концепция двоемыслия, тоталитаризм, наблюдение
Оценка: 9/10
Что запомнилось: невозможность приватности
Что раздражало: медленные части в середине

ИИ вернёт что-то вроде:

{
  "semantic_vector": [-0.9, 0.8, -0.7, 0.3, 0.9, 0.6, 0.7, 0.95, 0.4, 0.8],
  "themes": ["тоталитаризм", "свобода воли", "манипуляция сознанием", "любовь под давлением", "истина против пропаганды"],
  "archetype": "тень",
  "emotional_arc": "нисходящая"
}

Повторяем для всех книг. Да, это займёт время. Но альтернатива — продолжать жить в неведении о своих же предпочтениях.

Не пытайся сделать всё за один раз. Разбей на сессии по 10 книг. ИИ устаёт, ты устаёшь. Качество анализа падает после 20-й книги подряд.

3 Кластеризация: находим скрытые паттерны

У тебя теперь есть 50 книг, каждая описана 10-мерным вектором. Что дальше? Смотрим, какие книги группируются вместе.

Берём Python (или R, если ты мазохист) и запускаем простой скрипт:

import json
import numpy as np
from sklearn.cluster import KMeans
from sklearn.decomposition import PCA
import matplotlib.pyplot as plt

# Загружаем данные
with open('books_vectors.json', 'r', encoding='utf-8') as f:
    books = json.load(f)

vectors = [book['semantic_vector'] for book in books]
titles = [book['title'] for book in books]

# Преобразуем в numpy array
X = np.array(vectors)

# Снижаем размерность для визуализации
pca = PCA(n_components=2)
X_reduced = pca.fit_transform(X)

# Кластеризуем
kmeans = KMeans(n_clusters=5, random_state=42, n_init=10)
clusters = kmeans.fit_predict(X)

# Визуализируем
plt.figure(figsize=(12, 8))
colors = ['red', 'blue', 'green', 'purple', 'orange']

for i, (x, y) in enumerate(X_reduced):
    plt.scatter(x, y, color=colors[clusters[i]], alpha=0.6, s=100)
    plt.annotate(titles[i], (x, y), fontsize=9, alpha=0.7)

plt.title('Кластеризация литературных предпочтений')
plt.xlabel('PCA Component 1 (что это значит?)')
plt.ylabel('PCA Component 2 (что это значит?)')
plt.grid(True, alpha=0.3)
plt.show()

Ты увидишь облако точек. Книги, которые ты считал разными, окажутся в одном кластере. Любимые и нелюбимые — в противоположных углах графика.

💡
Количество кластеров (n_clusters) подбирай экспериментально. Начни с 3-5. Если книги явно делятся на больше групп — увеличь. Главное, чтобы кластеры были осмысленными, а не случайными.

4 Промпт №2: интерпретируем кластеры

Ты видишь на графике, что "1984", "Прекрасный новый мир" и "Рассказ служанки" образуют кластер. Очевидно? Может быть. Но что насчёт кластера из "Мастера и Маргариты", "Сто лет одиночества" и "Дом листьев"?

Вот промпт для интерпретации:

Ты — литературный критик со специализацией в computational humanities.

У меня есть кластер книг, которые ИИ сгруппировал вместе на основе их семантических векторов.

Книги в кластере:
1. "Мастер и Маргарита" — Булгаков
2. "Сто лет одиночества" — Маркес
3. "Дом листьев" — Данielewski
4. "Улисс" — Джойс (частично прочитан)
5. "Бесконечная шутка" — Уоллес

Общие параметры векторов:
- Высокий уровень языковой игры (0.7-0.9)
- Средняя эмоциональная интенсивность (0.3-0.5)
- Низкая моральная определённость (-0.8 - -0.6)
- Высокая психологическая глубина (0.6-0.9)

Проанализируй:
1. Что объединяет эти книги на глубинном уровне, помимо очевидного "они сложные"?
2. Какой тип читателя привлекает такая литература? Какие психологические черты?
3. Что этот кластер говорит о моих скрытых потребностях как читателя?
4. Какие ещё книги могли бы попасть в этот кластер?

Будь максимально конкретным. Избегай общих фраз вроде "это книги для думающих читателей".

Ответ ИИ может шокировать. Он скажет что-то вроде: "Это кластер метапрозаических текстов, которые исследуют природу реальности через нарушение нарративных условностей. Читатель такого кластера ищет не просто историю, а опыт децентрации собственного восприятия. У вас выраженная потребность в интеллектуальном вызове, граничащем с дискомфортом."

И вот ты уже не "любитель сложной прозы", а "читатель, ищущий нарративную деконструкцию". Разница колоссальная.

От анализа к предсказаниям: что читать дальше?

Теперь у тебя есть карта. Ты знаешь свои кластеры, понимаешь свои векторы. Самое время для промпта №3:

На основе моего литературного профиля предложи 5 книг, которые:

1. Попадут в мой "основной" кластер (высокая языковая игра, низкая моральная определённость)
2. Но привнесут новый элемент (например, другой культурный контекст или временной период)
3. Имеют оценку выше 4.0 на Goodreads (прагматичный фильтр)
4. Не являются очевидными рекомендациями (не предлагай "Поминки по Финнегану", если я уже читал "Улисса")

Мой профиль:
- Средний вектор по всем книгам: [0.2, 0.7, 0.4, 0.3, 0.1, -0.6, 0.8, 0.5, 0.7, 0.6]
- Любимые темы: деконструкция реальности, ненадёжный рассказчик, политическая аллегория
- Самый частый архетип: тень
- Эмоциональные дуги: в основном нисходящие или циклические

Для каждой предложенной книги объясни:
- Почему она подходит под мой профиль (конкретные совпадения по вектору)
- Какой новый элемент она привносит
- Потенциальные "риски" (что может не понравиться)

Это не список "похожих книг". Это целевая терапия. ИИ понимает твои паттерны и предлагает то, что расширит твои горизонты, не выбиваясь из зоны комфорта.

Ошибки, которые все совершают (и ты тоже)

Ошибка Почему это плохо Как исправить
Анализировать только "важные" книги Искривляет картину. Ты анализируешь не свои предпочтения, а свой литературный снобизм. Включи всё: и триллеры в аэропорту, и комиксы, и брошенные на полпути книги.
Давать оценки "по памяти" Ты ставишь "1984" 10/10, потому что так положено, а не потому что действительно получил 10/10 удовольствия. Вспомни реальную эмоциональную реакцию. Если книга была мучительной, но "важной", поставь 5/10.
Использовать только один ИИ GPT-4, Claude и Gemini по-разному понимают "психологическую глубину". Проведи анализ в двух моделях, сравни результаты. Расхождения покажут слабые места.
Игнорировать временной аспект Твои вкусы менялись. Книги 2010 года и 2023 года — это разные ты. Добавь временные метки. Проанализируй, как менялись твои векторы с годами.

Что дальше? Литературный геном

Ты провёл анализ. Получил векторы, кластеры, интерпретации. И что?

Вот что можно сделать с этими данными:

  • Создай дашборд в Tableau или даже в Google Sheets. Отслеживай, как меняются твои предпочтения со временем.
  • Настрой автоматические рекомендации. Напиши скрипт, который раз в месяц парсит новые рецензии и ищет книги, подходящие под твой векторный профиль.
  • Сравнись с друзьями. Попроси их провести такой же анализ. Найди литературных двойников (и антиподов).
  • Проанализируй не только что ты читаешь, но как ты читаешь. Добавь данные о времени суток, месте, устройстве. Может оказаться, что сложную литературу ты усваиваешь только в бумажном формате утром.

Самый интересный вариант — применить те же методы к другим медиа. Посмотреть, как твои литературные векторы коррелируют с музыкальными предпочтениями (вот где пригодится анализ плейлиста через ИИ). Или с кинематографическими вкусами.

Этот анализ — не конец, а начало. Ты больше не будешь выбирать книги наугад. Ты будешь выбирать их осознанно, понимая, какие именно нейронные цепи они задействуют. Или наоборот — намеренно выбирать то, что выбивается из паттерна, чтобы растянуть свои литературные мышцы.

Литературные предпочтения — это не просто "что тебе нравится". Это карта твоей психики. Способ мышления. Мировоззрение, выраженное через выбор нарративов.

ИИ даёт тебе микроскоп, чтобы рассмотреть эту карту в деталях. Не упускай возможность.

P.S. Если тебе интересно, как применять похожие методы к работе с кодом, посмотри статью про ИИ как младшего коллегу. Принципы те же — декомпозиция сложных паттернов, поиск скрытых зависимостей, осознанный выбор вместо слепого следования привычке.