Зеленый свет или красная кнопка?
На прошлой неделе инвесторы, присматривавшиеся к новому DeFi-проекту ETH Strategy, получили два отчета. Оба от AI-аудиторов. И оба диаметрально противоположные.
Parallel AI, используя свою последнюю версию анализатора смарт-контрактов v3.7 (выпущенную в феврале 2026), выдал оценку безопасности 8.7/10. «Проект демонстрирует хорошие практики, архитектура устойчива к основным векторам атак», – примерно так звучал вывод.
AskSurf, который недавно обновил свой движок до версии с интеграцией DeepSeek Coder-33B, напротив, забил тревогу. Его вердикт: 4.2/10 с пометкой «Обнаружены критические риски управления средствами». Один инструмент предлагал спокойно инвестировать. Другой – бежать без оглядки.
Ошибка была на поверхности. AskSurf неверно интерпретировал функцию emergencyWithdraw, приняв ее за бэкдор, хотя она была стандартным механизмом защиты для ликвидных стейкинговых пулов. Parallel AI этот нюанс уловил.
За кулисами разбора полетов
Что же случилось? Мы разобрали оба отчета.
| Критерий | Parallel AI v3.7 | AskSurf (с DeepSeek Coder-33B) |
|---|---|---|
| Оценка архитектуры | Высокая модульность, низкая связанность | Отмечает избыточную сложность |
| Риск реентрации | Защита реализована (Checks-Effects-Interactions) | Не обнаружил уязвимостей |
| Контроль владельца (Owner) | Ограниченный, многоуровневый | КРИТИЧЕСКИЙ: возможен rug pull |
| Оракулы и цена | Использует Chainlink, риск минимален | Отметил зависимость от внешнего оракула |
Ключевое расхождение – в трактовке роли владельца контракта. AskSurf сгенерировал пугающий сценарий, где владелец может одномоментно вывести все средства. Parallel AI, проанализировав временные замки и мультисиг, признал риски управляемыми.
Почему нейросети ссорятся?
Тут несколько причин, и все упираются в данные.
- Разные тренировочные данные. Parallel AI кормили отчетами ведущих аудиторских фирм вроде CertiK. AskSurf учился на открытых базах уязвимостей (например, DeFi Hack REPO). Первый видит «лучшие практики». Второй – только взломы и патчи.
- Разные цели модели. Parallel AI v3.7 построен для комплексной оценки. AskSurf с его новой интеграцией DeepSeek – для поиска «красных флагов» любой ценой. Он создан быть параноиком.
- Проклятие компетенции. Как и в случае с техническими собеседованиями, AI может демонстрировать «ложную глубину». Он уверенно говорит о вещах, в которых не разбирается.
В итоге мы получаем ситуацию, где не нейросень служит эксперту, а эксперт вынужден разбираться в конфликте нейросетей. Ирония в том, что для этого нужны те же самые экспертные знания, которые AI должен был заменить.
Так кому верить? Никому. (И всем сразу)
Случай с ETH Strategy – идеальный аргумент против слепой веры в один инструмент. Правильный пайплайн выглядит так:
- Запустить аудит через 2-3 разных AI-сервиса последних версий (Parallel AI, AskSurf, может быть, что-то вроде LinqAlpha).
- Сравнить расхождения. Если они есть (а они почти всегда есть), это не ошибка – это карта для ручной проверки.
- Отдать эту карту живому аудитору. Его работа – не читать 10 000 строк кода, а проверить 15 спорных мест, которые выделил AI.
Это та самая модель, о которой говорят в DiligenceSquared: AI делает грубую, объемную работу, человек – точечную экспертизу.
На 12.03.2026 ни один AI-аудитор не прошел формальную сертификацию как самостоятельное средство оценки безопасности. Все они позиционируются как «инструменты поддержки принятия решений».
Прогноз? Драма с ETH Strategy ускорит тренд. Уже через год мы увидим не отдельные AI-аудиторы, а целые платформы агрегации – что-то вроде GPT Researcher, но для смарт-контрактов. Они будут запускать несколько моделей параллельно, а потом сводить их вердикты в единый отчет с коэффициентом уверенности.
А пока что запомните простое правило. Если ваш AI-аудитор не сомневается – он, скорее всего, ошибается. Настоящая нейросень в 2026 году задает вопросы, а не раздает ответы.