TextRM-28M: когда 28 миллионов параметров хватает для делового тона
В 2026 году все помешаны на гигантских мультимодальных моделях, которые требуют сервер размером с холодильник. А что если вам нужно просто автоматизировать рассылку писем партнерам? TextRM-28M — это ответ для тех, кто не хочет разориться на инфраструктуре.
Модель занимает всего 110 МБ на диске и работает на CPU с приемлемой скоростью. Разработчики утверждают, что она специально обучалась на синтетических бизнес-письмах, созданных более крупными LLM.
Что умеет эта малютка?
- Генерация ответов на деловые письма с учтивым тоном
- Создание шаблонов для холодных рассылок (но без спама, обещают)
- Классификация входящей корреспонденции по срочности
- Извлечение ключевых деталей: дат, имен, сумм контрактов
TextRM против альтернатив: зачем платить больше?
Сравнивать TextRM-28M с GPT-4o или Claude 3.7 — как сравнивать велосипед с истребителем. Но для конкретной задачи велосипед может быть идеальным.
| Модель | Параметры | Размер | Специализация |
|---|---|---|---|
| TextRM-28M | 28 млн | 110 МБ | Бизнес-письма |
| htmLLM-50M | 50 млн | 200 МБ | HTML/CSS генерация |
| GPT-4o Mini | Неизвестно | Требует API | Универсальная |
Если вам нужно генерировать HTML, посмотрите на htmLLM-50M. Но для писем TextRM выигрывает по размеру и фокусу.
Пример: как заставить TextRM написать письмо
Код на Python с использованием Hugging Face Transformers (актуально на март 2026). Убедитесь, что у вас установлены последние версии библиотек.
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_name = "company/TextRM-28M"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
prompt = "Напиши вежливый ответ на письмо от клиента, который жалуется на задержку поставки. Предложи скидку 10% на следующий заказ."
inputs = tokenizer(prompt, return_tensors="pt")
with torch.no_grad():
outputs = model.generate(**inputs, max_length=200)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
Результат может выглядеть так:
"Уважаемый Иван Иванович, благодарим за обращение. Приносим извинения за задержку поставки, вызванную логистическими сложностями. В качестве компенсации предлагаем скидку 10% на ваш следующий заказ. С уважением, команда компании."
Не шедевр, но для автоматической обработки сотен писем — вполне сойдет. Главное, что тон выдержан.
Где модель даёт сбой?
TextRM обучена на синтетических данных, и это чувствуется. Если письмо содержит нестандартную ситуацию, модель может выдать шаблонный и нерелевантный ответ. Например, при запросе о юридическом споре она может просто предложить скидку, что неуместно.
Для сложных случаев лучше использовать более продвинутые модели, такие как YandexGPT для анализа договоров или даже IQuest-Coder для сложных задач.
Кому стоит попробовать TextRM-28M?
- Стартапы с ограниченным бюджетом на облачные AI-сервисы
- Разработчики, которые хотят встроить генерацию текста в мобильное приложение без зависимости от интернета
- Бизнес-аналитики, автоматизирующие рутинную переписку
- Студенты, изучающие fine-tuning маленьких моделей (идеальный полигон)
Прогноз на 2027 год: таких узкоспециализированных микро-моделей станет больше. Они будут встраиваться в умные часы, роутеры и даже кофеварки. TextRM — только начало.
Если вы хотите протестировать качество текста, используйте Seed 1.6 Flash как строгого AI-судью. А для тестирования кодом — сравнение 8 моделей для кодинга.