TextRM-28M: крошечная модель для бизнес-писем | Обзор 2026 | AiManual
AiManual Logo Ai / Manual.
20 Мар 2026 Инструмент

TextRM-28M: тестируем крошечную модель для бизнес-писем с кодом на GitHub

Обзор TextRM-28M - модели на 28 миллионов параметров для генерации бизнес-писем. Тестируем возможности, сравниваем с альтернативами, примеры кода на Python.

TextRM-28M: когда 28 миллионов параметров хватает для делового тона

В 2026 году все помешаны на гигантских мультимодальных моделях, которые требуют сервер размером с холодильник. А что если вам нужно просто автоматизировать рассылку писем партнерам? TextRM-28M — это ответ для тех, кто не хочет разориться на инфраструктуре.

Модель занимает всего 110 МБ на диске и работает на CPU с приемлемой скоростью. Разработчики утверждают, что она специально обучалась на синтетических бизнес-письмах, созданных более крупными LLM.

Что умеет эта малютка?

  • Генерация ответов на деловые письма с учтивым тоном
  • Создание шаблонов для холодных рассылок (но без спама, обещают)
  • Классификация входящей корреспонденции по срочности
  • Извлечение ключевых деталей: дат, имен, сумм контрактов

TextRM против альтернатив: зачем платить больше?

Сравнивать TextRM-28M с GPT-4o или Claude 3.7 — как сравнивать велосипед с истребителем. Но для конкретной задачи велосипед может быть идеальным.

МодельПараметрыРазмерСпециализация
TextRM-28M28 млн110 МББизнес-письма
htmLLM-50M50 млн200 МБHTML/CSS генерация
GPT-4o MiniНеизвестноТребует APIУниверсальная

Если вам нужно генерировать HTML, посмотрите на htmLLM-50M. Но для писем TextRM выигрывает по размеру и фокусу.

Пример: как заставить TextRM написать письмо

Код на Python с использованием Hugging Face Transformers (актуально на март 2026). Убедитесь, что у вас установлены последние версии библиотек.

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

model_name = "company/TextRM-28M"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

prompt = "Напиши вежливый ответ на письмо от клиента, который жалуется на задержку поставки. Предложи скидку 10% на следующий заказ."
inputs = tokenizer(prompt, return_tensors="pt")

with torch.no_grad():
    outputs = model.generate(**inputs, max_length=200)
    
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

Результат может выглядеть так:

"Уважаемый Иван Иванович, благодарим за обращение. Приносим извинения за задержку поставки, вызванную логистическими сложностями. В качестве компенсации предлагаем скидку 10% на ваш следующий заказ. С уважением, команда компании."

Не шедевр, но для автоматической обработки сотен писем — вполне сойдет. Главное, что тон выдержан.

Где модель даёт сбой?

TextRM обучена на синтетических данных, и это чувствуется. Если письмо содержит нестандартную ситуацию, модель может выдать шаблонный и нерелевантный ответ. Например, при запросе о юридическом споре она может просто предложить скидку, что неуместно.

Для сложных случаев лучше использовать более продвинутые модели, такие как YandexGPT для анализа договоров или даже IQuest-Coder для сложных задач.

Кому стоит попробовать TextRM-28M?

  • Стартапы с ограниченным бюджетом на облачные AI-сервисы
  • Разработчики, которые хотят встроить генерацию текста в мобильное приложение без зависимости от интернета
  • Бизнес-аналитики, автоматизирующие рутинную переписку
  • Студенты, изучающие fine-tuning маленьких моделей (идеальный полигон)
💡
TextRM-28M — это доказательство, что для узкой задачи не нужны гигаватты вычислительной мощности. Модель можно дообучить на своих данных за несколько часов на Google Colab.

Прогноз на 2027 год: таких узкоспециализированных микро-моделей станет больше. Они будут встраиваться в умные часы, роутеры и даже кофеварки. TextRM — только начало.

Если вы хотите протестировать качество текста, используйте Seed 1.6 Flash как строгого AI-судью. А для тестирования кодом — сравнение 8 моделей для кодинга.

Подписаться на канал