Зачем это нужно? Проблема, которую никто не замечал
Вы скачали Mistral, потом Llama, затем Qwen. Каждая модель в трех разных квантованиях. Через неделю вы уже не помните, какая версия лучше справляется с кодом, а какая - с креативным письмом. Папка models/ превращается в цифровое кладбище гигабайтов.
AI Model Tracker решает именно эту проблему. Не ту, о которой кричат в хайповых статьях, а ту, с которой сталкивается каждый, кто работает с локальными LLM больше двух недель.
Инструмент разработан OpenCode и использует GLM 4.7 для анализа моделей. Да, он сам использует LLM, чтобы помочь вам управлять другими LLM. Метауровень достигнут.
Что умеет этот трекер (и чего не умеют другие)
Вот что отличает AI Model Tracker от простого списка файлов в проводнике:
- Автоматическое извлечение метаданных - размер, архитектура, дата создания, квантование
- Тестирование производительности - встроенные бенчмарки для сравнения моделей
- Визуализация зависимостей - какие модели основаны на других
- Поиск по всем параметрам - нашли модель с 7B параметрами и q4_k_m? Забыли название? Не проблема
- Интеграция с Hugging Face - автоматическое обновление информации о новых версиях
Установка: не так страшно, как кажется
Проект живет на GitHub и требует Python 3.8+. Если вы уже работаете с локальными LLM, у вас точно есть все необходимое.
1 Клонируем репозиторий
Начнем с банального - скачиваем код. Никаких магических установщиков, только старый добрый git:
git clone https://github.com/opencode-ai/ai-model-tracker.git
cd ai-model-tracker
2 Ставим зависимости
Здесь может быть неприятный сюрприз - зависимости. Но разработчики постарались минимизировать их количество:
pip install -r requirements.txt
Внимание: если у вас уже установлены torch или transformers, возможны конфликты версий. Рекомендую использовать виртуальное окружение. Да, это лишний шаг. Да, он сэкономит вам кучу нервов позже.
3 Конфигурация (самая интересная часть)
Создайте файл config.yaml в корне проекта. Вот минимальный рабочий пример:
model_directories:
- /path/to/your/llama/models
- /home/user/gguf-models
- /mnt/external/models
huggingface_token: your_token_here # опционально, для автоматических обновлений
database_path: ./model_tracker.db
benchmark_settings:
test_prompts: 5
max_tokens: 256
temperature: 0.7
Можно указать несколько папок - инструмент просканирует их все. Это особенно полезно, если вы, как и я, храните модели в десяти разных местах «чтобы не потерялись».
4 Первый запуск и сканирование
Запускаем сканирование. Первый раз может занять время - инструмент будет анализировать каждую модель:
python main.py --scan
Процесс выглядит примерно так: он проходит по всем файлам .gguf, .safetensors, .bin, извлекает метаданные, проверяет целостность и записывает все в локальную базу данных SQLite.
С чем сравнивать? Альтернативы, которых почти нет
Честно говоря, прямых аналогов нет. Есть инструменты, которые делают часть работы:
| Инструмент | Что делает | Чем отличается |
|---|---|---|
| LM Studio | Запускает модели, имеет встроенный каталог | Не отслеживает уже скачанные модели, нет продвинутого поиска |
| llama.cpp | Запускает модели, конвертирует форматы | Совсем другая задача - исполнение, а не управление |
| Ручное ведение Excel | Вы сами записываете информацию о моделях | Тратит время, быстро устаревает, никто этим не занимается |
Если вы используете LM Studio или llama.cpp, AI Model Tracker станет отличным дополнением. Он не заменяет их, а дополняет - помогает выбрать, какую модель вообще загружать.
Примеры использования: от хаоса к порядку
Вот несколько реальных сценариев, где этот инструмент спасает:
Сценарий 1: «Какая у меня самая быстрая 7B модель для кодирования?»
Вместо того чтобы запускать каждую модель и замерять время, вы делаете:
python main.py --search "size:7B" --benchmark --sort speed
Инструмент найдет все 7B модели, запустит стандартные тесты на скорость и отсортирует результаты. Вы получаете таблицу с временем генерации, потреблением памяти и точностью на тестовых промптах.
Сценарий 2: «Я хочу освободить 20ГБ на диске. Что удалить?»
Проблема знакомая. Вместо гадания на кофейной гуще:
python main.py --stats --show-unused
Вы увидите, какие модели не использовались больше месяца, какие имеют дубликаты в разных квантованиях, и какие показывают худшие результаты в бенчмарках. Осознанное удаление вместо случайного.
Сценарий 3: «Нужна модель для творческого письма. Что выбрать?»
Если вы занимаетесь продвинутой работой с локальными LLM, у вас наверняка есть специализированные модели. AI Model Tracker позволяет добавлять теги и заметки к каждой модели:
python main.py --tag "creative-writing" --model "my-favorite-storyteller.gguf"
python main.py --search "tag:creative-writing" --sort creativity_score
Кому подойдет этот инструмент (а кому - нет)
Давайте без прикрас. AI Model Tracker - не для всех.
Подойдет если:
- У вас больше 5 локальных моделей
- Вы регулярно экспериментируете с разными квантованиями
- Занимаетесь тонкой настройкой LLM и храните множество версий
- Работаете в команде и нужно делиться информацией о моделях
- Используете модели для разных задач (кодирование, письмо, анализ)
Не подойдет если:
- У вас одна-две модели и вы их прекрасно помните
- Вы против CLI-интерфейсов (веб-интерфейс пока в разработке)
- У вас мало места на диске и каждая гигабайта на счету (инструмент требует места для БД)
- Вы только начинаете и еще не скачали свою первую модель
Проблемы и ограничения (чтобы не было сюрпризов)
Инструмент молодой. Вот с чем можно столкнуться:
- Скорость первого сканирования - если у вас терабайт моделей, приготовьтесь ждать. Очень долго ждать.
- Поддержка форматов - лучше всего работает с .gguf. С другими форматами могут быть проблемы.
- Нет веб-интерфейса - только командная строка. Для некоторых это плюс, для других - минус.
- Зависимость от GLM 4.7 - для анализа метаданных используется собственная модель OpenCode. Если у вас нет доступа к API или локальной копии, некоторые функции не будут работать.
Если вы сталкивались с проблемами при работе с AMD GPU, возможно, вам пригодится ZLUDA для llama.cpp - похожий подход к решению неочевидных проблем.
Что дальше? Будущее управления моделями
AI Model Tracker - первый шаг к систематизации хаоса локальных LLM. Что можно ожидать в будущем?
Автоматические рекомендации на основе вашего использования. «Вы часто используете модель X для задачи Y. Модель Z показывает на 15% лучшие результаты на подобных задачах».
Интеграция с облачными хранилищами. Синхронизация метаданных между устройствами. Вы скачали модель на рабочем компьютере, а дома уже видите всю информацию о ней.
Возможно, даже автоматическое удаление дубликатов и оптимизация хранилища. «Обнаружены три версии одной модели. Оставить только q4_k_m?»
Пока же это просто полезный инструмент, который решает конкретную проблему. Не пытается изменить мир, а просто помогает не забыть, какая из двадцати скачанных моделей действительно хороша для написания поэзии.
Совет напоследок: начните использовать AI Model Tracker сегодня, даже если у вас всего три модели. Через полгода, когда их будет тридцать, вы скажете себе спасибо. Или хотя бы не будете проклинать себя за беспорядок.
Инструмент не сделает ваши модели умнее. Не ускорит их работу. Не добавит новые возможности. Он просто поможет понять, что у вас уже есть. Иногда этого достаточно.