Автопилот удерживает самолет в устойчивом полете на скоростях, при которых малейшая ошибка может оказаться смертельной, и при этом большинство пассажиров даже не задумывается об этом. В авиации алгоритмы подаются как дополнительный уровень безопасности поверх работы пилота: с жесткими требованиями к резервированию систем, сертифицированными программными комплексами и вероятностными моделями риска, которые детально изучают регуляторы и страховые компании.
На дороге те же принципы технически уже реализуемы, но социально еще не оформлены. Система автоматического вождения уже умеет следить за «мертвыми зонами», держать полосу и реагировать за миллисекунды, используя идеи теории управления и информационной энтропии для снижения неопределенности. Проблема не в вычислительной мощности, а в отсутствующем общественном договоре: кто несет ответственность, если алгоритм дает сбой, какой уровень остаточного риска считается приемлемым по сравнению с человеческой ошибкой и как границы безопасности объясняются людям, а не прячутся за витринным языком маркетинга.
Доверие не появляется из‑за красивой анимации на приборной панели. Оно формируется на основе открытых данных о происшествиях, единых для всех производителей показателей безопасности и регулирования, которое смотрит на автономное вождение не как на игрушку, а как на элемент критически важной инфраструктуры. Тогда вопрос меняется: не «готовы ли вы доверить жизнь машине на скорости 100 км/ч», а «почему вы до сих пор считаете нормой уставшего и отвлеченного человека за рулем».