Parallel AI vs AskSurf: разные оценки ETH Strategy | AI-аудит DeFi | AiManual
AiManual Logo Ai / Manual.
12 Мар 2026 Новости

Две нейросети, один вердикт: как Parallel AI и AskSurf разошлись в оценке рисков ETH Strategy

Два ведущих AI-аудитора дали противоположные оценки проекту ETH Strategy в марте 2026 года. Что это значит для будущего DeFi-безопасности?

Зеленый свет или красная кнопка?

На прошлой неделе инвесторы, присматривавшиеся к новому DeFi-проекту ETH Strategy, получили два отчета. Оба от AI-аудиторов. И оба диаметрально противоположные.

Parallel AI, используя свою последнюю версию анализатора смарт-контрактов v3.7 (выпущенную в феврале 2026), выдал оценку безопасности 8.7/10. «Проект демонстрирует хорошие практики, архитектура устойчива к основным векторам атак», – примерно так звучал вывод.

AskSurf, который недавно обновил свой движок до версии с интеграцией DeepSeek Coder-33B, напротив, забил тревогу. Его вердикт: 4.2/10 с пометкой «Обнаружены критические риски управления средствами». Один инструмент предлагал спокойно инвестировать. Другой – бежать без оглядки.

Ошибка была на поверхности. AskSurf неверно интерпретировал функцию emergencyWithdraw, приняв ее за бэкдор, хотя она была стандартным механизмом защиты для ликвидных стейкинговых пулов. Parallel AI этот нюанс уловил.

За кулисами разбора полетов

Что же случилось? Мы разобрали оба отчета.

КритерийParallel AI v3.7AskSurf (с DeepSeek Coder-33B)
Оценка архитектурыВысокая модульность, низкая связанностьОтмечает избыточную сложность
Риск реентрацииЗащита реализована (Checks-Effects-Interactions)Не обнаружил уязвимостей
Контроль владельца (Owner)Ограниченный, многоуровневыйКРИТИЧЕСКИЙ: возможен rug pull
Оракулы и ценаИспользует Chainlink, риск минималенОтметил зависимость от внешнего оракула

Ключевое расхождение – в трактовке роли владельца контракта. AskSurf сгенерировал пугающий сценарий, где владелец может одномоментно вывести все средства. Parallel AI, проанализировав временные замки и мультисиг, признал риски управляемыми.

💡
Контекст: Это не первый случай, когда AI выдает противоречивые заключения. В прошлом году похожая история случилась при анализе юридических договоров. Там нейросеть тоже «перестраховалась», нафантазировав несуществующие риски.

Почему нейросети ссорятся?

Тут несколько причин, и все упираются в данные.

  • Разные тренировочные данные. Parallel AI кормили отчетами ведущих аудиторских фирм вроде CertiK. AskSurf учился на открытых базах уязвимостей (например, DeFi Hack REPO). Первый видит «лучшие практики». Второй – только взломы и патчи.
  • Разные цели модели. Parallel AI v3.7 построен для комплексной оценки. AskSurf с его новой интеграцией DeepSeek – для поиска «красных флагов» любой ценой. Он создан быть параноиком.
  • Проклятие компетенции. Как и в случае с техническими собеседованиями, AI может демонстрировать «ложную глубину». Он уверенно говорит о вещах, в которых не разбирается.

В итоге мы получаем ситуацию, где не нейросень служит эксперту, а эксперт вынужден разбираться в конфликте нейросетей. Ирония в том, что для этого нужны те же самые экспертные знания, которые AI должен был заменить.

Так кому верить? Никому. (И всем сразу)

Случай с ETH Strategy – идеальный аргумент против слепой веры в один инструмент. Правильный пайплайн выглядит так:

  1. Запустить аудит через 2-3 разных AI-сервиса последних версий (Parallel AI, AskSurf, может быть, что-то вроде LinqAlpha).
  2. Сравнить расхождения. Если они есть (а они почти всегда есть), это не ошибка – это карта для ручной проверки.
  3. Отдать эту карту живому аудитору. Его работа – не читать 10 000 строк кода, а проверить 15 спорных мест, которые выделил AI.

Это та самая модель, о которой говорят в DiligenceSquared: AI делает грубую, объемную работу, человек – точечную экспертизу.

На 12.03.2026 ни один AI-аудитор не прошел формальную сертификацию как самостоятельное средство оценки безопасности. Все они позиционируются как «инструменты поддержки принятия решений».

Прогноз? Драма с ETH Strategy ускорит тренд. Уже через год мы увидим не отдельные AI-аудиторы, а целые платформы агрегации – что-то вроде GPT Researcher, но для смарт-контрактов. Они будут запускать несколько моделей параллельно, а потом сводить их вердикты в единый отчет с коэффициентом уверенности.

А пока что запомните простое правило. Если ваш AI-аудитор не сомневается – он, скорее всего, ошибается. Настоящая нейросень в 2026 году задает вопросы, а не раздает ответы.

Подписаться на канал