CES 2026: где роботы вышли из тени, а Ford показал мозги
Пока на CES 2026 все обсуждали роботов-гуманоидов и проекторы вместо экранов, Ford тихо сделал самое важное заявление года. Не про дизайн. Не про мощность. Про мозги.
К 2028 году у них будут полностью беспилотные автомобили. Не тестовые. Не в ограниченной зоне. На дорогах общего пользования. А в 2026-м начнут внедрять AI-ассистента, который понимает не команды, а контекст.
План простой: 2026 – AI-ассистент в серийных машинах. 2027 – расширенная автономия на магистралях. 2028 – уровень 4 автономности в городе. Сроки жёсткие, конкуренты в Tesla и Waymo уже дышат в спину.
Не ChatGPT на колёсах. Специализированный LLM для машины
Здесь главный нюанс, который все пропускают. Ford не берёт готовую модель типа Gemini или GPT-4 и не запихивает её в бортовой компьютер. Они строят специализированный автомобильный LLM с нуля. На базе инфраструктуры Google Cloud.
Почему? Потому что общая модель спросит вас про погоду в Париже, когда вы пытаетесь понять, почему горит «чек двигателя». Автомобильный LLM знает:
- Все 15 000 деталей вашей конкретной модели Ford F-150 2026 года
- Историю обслуживания именно этого автомобиля (да, он подключён к дилерской сети)
- Текущие показания всех датчиков в реальном времени
- Локальные правила дорожного движения в вашем штате или стране
Это тот самый тренд, о котором мы писали в переходе ИИ от инструмента к утилите. Модель не просто отвечает – она становится частью системы.
Google Cloud как нервная система
Партнёрство с Google – не маркетинг. Это архитектурное решение. Всё обучение и тонкая настройка LLM идут на инфраструктуре Google Cloud. Особенно на тех самых AI-агентах и платформе Ironwood, которые Google анонсировал в 2025-м.
Вот как это работает на практике:
| Компонент | Роль в системе Ford | Аналог в организме |
|---|---|---|
| Google Cloud TPU v5 | Обучение моделей, симуляции вождения | Мозжечок (координация движений) |
| Vertex AI Agents | Оркестрация AI-ассистента, планирование | Префронтальная кора (принятие решений) |
| BigQuery + Looker | Анализ телеметрии миллионов машин | Память и анализ опыта |
Каждая поездка каждой машины Ford (с разрешения владельца, конечно) становится тренировочным датасетом. Модель учится не на симуляциях, а на реальных дорожных ситуациях. В глобальном масштабе.
BlueCruise 2.0: не просто круиз-контроль, а копил
Нынешний BlueCruise – это продвинутый адаптивный круиз-контроль с удержанием полосы. BlueCruise 2.0, который появится в 2027-м, – это система, которая ведёт переговоры.
Представьте: вы едете по трёхполосной магистрали. Впереди авария, две правые полосы перекрыты. Система:
- Видит ситуацию через камеры и лидары
- Анализирует поток машин в каждой полосе
- Выбирает оптимальный манёвр (не обязательно по правилам «держаться левее»)
- Плавно перестраивается, когда появляется окно
- Объясняет вам, что сделала и почему
И да, объясняет. Голосом. Потому что AI-ассистент уже встроен. «Перестраиваюсь в средний ряд – в правом авария, а левый движется быстрее нашего потока».
Чего боятся в Ford? Того же, что и все
Риски здесь очевидны. Скандалы с ИИ-чатботами показали: когда система ошибается, виноват разработчик. А в автомобиле ошибка – это не оскорблённые чувства. Это жизни.
Поэтому подход Ford:
- Никаких галлюцинаций. Модель обучена только на проверенных автомобильных данных
- Жёсткое ограничение контекста. Ассистент не будет обсуждать политику или давать медицинские советы (в отличие от некоторых экспериментов вроде ChatGPT Health)
- Постоянный мониторинг через Google Cloud. Любое отклонение от нормы – и модель отправляется на дообучение
Самый большой вызов – не технологический. Юридический. Кто виноват, если AI-ассистент дал неправильный совет по обслуживанию, и машина сломалась? Ford, Google или владелец, который «должен был проверить»? Юристы компаний уже работают над этим.
Промпты для автомобиля: о чём вы будете разговаривать с Ford?
Вот примеры реальных промптов, которые инженеры Ford тестируют с AI-ассистентом:
- «Следующее ТО через 500 км. Запиши меня в дилерский центр на следующей неделе, выбери утро вторника или четверга»
- «В багажнике осталось мало места. Какие из этих трёх чемоданов лучше сложить на заднее сиденье?» (система анализирует размеры через камеру)
- «Мы едем в горы, температура падает. Нужно ли переходить на зимний режим работы полного привода?»
- «Почему расход топлива вырос на 15% за последний месяц? Проверь давление в шинах, стиль вождения и предложи способы экономии»
Это не голосовой поиск. Это диалог с экспертом по вашей конкретной машине. Тот самый тренд AI-агентов 2026, но в металле и пластике.
2028: город без руля
Финал плана – уровень 4 автономности в городских условиях к 2028 году. Не везде. Сначала в «зелёных зонах» – районах с идеальной дорожной разметкой, полным покрытием 5G и предсказуемым трафиком.
Но даже это – революция. Потому что Ford делает ставку не на замену водителя, а на его расширение. Система не говорит «я всё сделаю сама». Она говорит «я помогу тебе быть лучшим водителем».
Или, в случае полной автономности, «я отвечаю за эту часть пути, ты можешь отдохнуть».
Пока Олтман строит планы на триллион долларов, а OpenAI собирает данные подрядчиками, Ford и Google делают то, что будет в гаражах через два года. Без хайпа. С конкретными датами.
Осталось только дождаться 2026-го и посмотреть, как этот AI-ассистент будет объяснять, почему в пробке он выбрал именно эту полосу. И поверить ему на слово.