Опасность использования ИИ для управления автомобилем
Автомобильный искусственный интеллект в Соединенных Штатах связан, по крайней мере, с 25 подтвержденными случаями смертей, сотнями травм и материальным ущербом.
Многие люди не осознают, что ИИ, управляющий транспортными средствами - будь то автомобили, работающие в режиме автопилота, или автомобили с передовыми системами помощи водителю - основан на тех же принципах, что и ChatGPT. Эти системы контролируют поперечное и продольное положение автомобиля, меняют полосу движения, тормозят и ускоряются, даже не ожидая указаний от человека за рулем.
ИИ в обоих случаях использует статистические данные, чтобы предсказать следующее слово, фразу или действие, значительно опираясь на недавно использованные слова или действия. Если вы введете в поисковую строку Google фразу "сейчас самое время", получите результат "сейчас время для всех хороших людей". А когда ваш автомобиль обнаруживает объект на дороге перед собой, даже если это просто тень, модуль автопилота внезапно тормозит.
Ни языковая модель, ни автономные автомобили не могут "понять" ситуацию, контекст или другие наблюдаемые факторы, которые человек учел бы в подобной ситуации. Однако разница заключается в том, что языковая модель может выдать неправильный ответ, а автономный автомобиль может причинить вред.
Проблема заключается в том, что человеческие ошибки водителей заменяются ошибками в кодировании программного обеспечения. Приверженцы автономного транспорта обычно утверждают, что без водителей на дорогах станет безопаснее. Они ссылаются на статистику, согласно которой 94% аварий происходят из-за ошибок водителей. Однако эта статистика не учитывает другие возможные причины, такие как плохое освещение или качество дорог.
Более того, утверждение, что автономные автомобили будут безопаснее, чем автомобили, управляемые людьми, игнорирует реальность, которую хорошо знают разработчики программного обеспечения: любой код подвержен ошибкам, особенно в сложных системах.
Множество случаев показывает, что ИИ не прекратил человеческие ошибки в дорожно-транспортных происшествиях. Просто роль этих ошибок переместилась от конца последовательности событий к началу - к кодированию самого ИИ. Поскольку такие ошибки скрыты, их гораздо сложнее исправить. Тестирование как в моделировании, так и в реальном мире является ключом к снижению вероятности ошибок, особенно в системах, критически важных для безопасности. Однако без должного государственного регулирования и четких отраслевых стандартов компании, занимающиеся производством автономных автомобилей, будут идти на компромисс, чтобы быстрее вывести свою продукцию на рынок.
Разнообразные возможные отказы и неспособность искусственного интеллекта (ИИ) предсказать такие ситуации - это вопросы, с которыми автомобильные компании и регулирующие органы сталкиваются при разработке и внедрении беспилотных транспортных средств. Большая языковая модель ИИ может угадывать следующие слова и фразы, но не может учесть все возможные отказы. Модуль беспилотного вождения может решать, как обойти препятствия на основе базы данных, но не всегда может предсказать все возможные ситуации. В результате, одна и та же модель беспилотного автомобиля может действовать по-разному в разное время суток, что может привести к опасности на дороге.
Фантомное торможение - один из видов отказов, с которыми сталкиваются беспилотные автомобили. Возникающие ошибки в таких системах могут привести к неожиданному и резкому торможению, что может привести к авариям и травмам. Проблемы отказов возникают не только у одной компании, но и у всех автомобильных компаний, использующих ИИ и компьютерное зрение.
По мере распространения ИИ, стандартизационным и регулирующим органам становится все важнее понять и признать, что отказы ИИ могут быть непредсказуемыми. Они также должны быть осторожными с обвинениями пользователей в неправильном использовании технологий и злоупотреблениях. Инициативы по регулированию ИИ должны учитывать не только ограничения моделей, но и неопределенность среды, с которой они сталкиваются в реальном мире.
Поддержка и обслуживание ИИ являются ключевыми аспектами его успешного функционирования. Нейронные сети требуют постоянного обновления и обучения на актуальных данных, чтобы адаптироваться к меняющимся условиям и новым явлениям. Проблемы с программным кодом и качеством данных должны быть устранены для обеспечения безопасности и надежности системы.
Обсуждения о регулировании ИИ должны учитывать потенциальные риски и негативные последствия его неправильного использования. Необходимость установления рабочих границ для систем, использующих ИИ, и эффективного контроля со стороны регулирующих органов становится все более актуальной. Нельзя полагаться только на решения промышленности, а должны быть установлены строгие правила и ограничения в тех случаях, когда безопасность находится под угрозой.
Использование ИИ в автомобильной отрасли может принести значительные преимущества, но требует аккуратного контроля и регуляции. Обеспечение безопасности на дороге и защиты интересов общества должно быть приоритетом при разработке и использовании технологий на основе искусственного интеллекта.
Комментарии (0)