Автономным автомобилям с искусственным интеллектом нужны ответственные за безопасность

Доктор Лэнс Б. Элиот, AI Insider

Многие фирмы думают о директоре по технике безопасности (CSO) в несколько узком смысле как о человеке, который занимается внутренними аспектами охраны труда и техники безопасности, возникающими исключительно на рабочем месте. Хотя соблюдение надлежащих правил безопасности в компании, безусловно, имеет первостепенное значение, ОГО играют еще более важную роль, которая была вызвана появлением систем искусственного интеллекта (ИИ). Новые системы искусственного интеллекта, которые внедряются в продукты и услуги компании, подтолкнули к осознанию того, что необходим новый тип директора по безопасности, с более широкими обязанностями и требующий двойного внутреннего/внешнего образа и фокуса.

В некоторых случаях, особенно когда речь идет о продуктах на основе ИИ, таких как беспилотные автомобили с искусственным интеллектом, крайне важно, чтобы на самом высоком уровне компании был директор по безопасности. ОГО необходимо предоставить широту и глубину возможностей, необходимых для выполнения их теперь более полной задачи. Находясь в высшем исполнительном руководстве или в его составе, они могут помочь в формировании дизайна, разработки и развертывания этих жизненно важных систем искусственного интеллекта.

Постепенно автопроизводители и технологические фирмы, работающие в области беспилотных автомобилей с искусственным интеллектом, нанимают на борт директора по безопасности или его эквивалент. Я утверждаю, что это происходит недостаточно быстро, но, по крайней мере, это многообещающая тенденция, которую нужно ускорить. Маловероятно, что без видной должности директора по безопасности автопроизводители и технологические фирмы будут уделять должное внимание и должным образом заботиться о безопасности беспилотных автомобилей с искусственным интеллектом.

Я также беспокоюсь о том, что те фирмы, которые не назначат соответствующего директора по безопасности, рискуют не только жизнями тех, кто будет использовать их беспилотные автомобили с искусственным интеллектом, но и ставят под угрозу появление беспилотных автомобилей с искусственным интеллектом.

По сути, те фирмы, которые на словах заявляют о безопасности беспилотных автомобильных систем с искусственным интеллектом или непреднамеренно не уделяют первостепенное внимание безопасности, скорее всего, приведут к неблагоприятным событиям, связанным с безопасностью на наших дорогах, за что общественность и регулирующие органы будут наказаны. реагировать не только на эту фирму-нарушителя, такие инциденты станут протестом и всеохватывающим препятствием для любого продвижения беспилотных автомобилей с искусственным интеллектом.

Проще говоря, для беспилотных автомобилей с искусственным интеллектом вероятность того, что бочка испортится, довольно высока, и все мы в этой отрасли живем на грани каждого дня.

В разговоре с Марком Роузкиндом, директором по инновациям в области безопасности в Zoox, на недавнем мероприятии, посвященном автономным транспортным средствам, в Силиконовой долине, он подчеркнул, насколько важны соображения безопасности в области беспилотных автомобилей с искусственным интеллектом. Его годы в качестве администратора Национальной администрации безопасности дорожного движения (NHTSA) и его работа в совете Национального совета по безопасности на транспорте (NTSB) обеспечивают весьма точный набор навыков и базу опыта для его роли. Те из вас, кто интересуется общим подходом к безопасности, которого придерживается Zoox, могут ознакомиться с их опубликованным отчетом: https://zoox.com/safety/

Те из вас, кто внимательно следит за моими сообщениями, помнят, что я ранее упоминал усилия Криса Харта в аспектах безопасности беспилотных автомобилей с искусственным интеллектом. Как бывший председатель NTSB, он предлагает ключевую информацию о том, что автопроизводителям и техническим фирмам необходимо делать в отношении безопасности, а также предлагает важные взгляды, которые могут помочь в разработке правил и регулирующих действий (см. его веб-сайт: https:/ /hartsolutionsllc.com/). Вам может быть интересна его недавняя запись в блоге о различиях между авиационной автоматизацией и беспилотными автомобилями с искусственным интеллектом, которая также совпадает с моими замечаниями по той же теме.

Недавнюю запись в блоге Криса Харта см.: http://www.thedrive.com/tech/26896/self-driving-safety-steps-into-the-unknown.

Мою предыдущую публикацию о безопасности беспилотных автомобилей с искусственным интеллектом и замечания Криса Харта по этому поводу см. по адресу: https://www.aitrends.com/selfdrivingcars/safety-and-ai-self-driving-cars-world-safety- саммит по автономным технологиям/

Мой пост о том, что автоматизация самолетов — это не то же самое, что нужно для беспилотных автомобилей с искусственным интеллектом, см.: https://www.aitrends.com/selfdrivingcars/airplane-autopilot-systems-self-driving-car-ai. /

Waymo, подразделение Google/Alphabet, известное своей известностью в индустрии беспилотных автомобилей с искусственным интеллектом, также привлекло к работе директора по безопасности, а именно Дебби Херсман. Помимо того, что она работала в NTSB и была его председателем, она также была генеральным директором и президентом Национального совета безопасности. Для нее было долгожданным облегчением то, что она присоединилась к Waymo, поскольку это также посылает сигнал или знак остальным производителям беспилотных автомобилей с искусственным интеллектом о том, что это важная роль, и они тоже должны убедиться, что они охватывают если они еще не делают этого.

Uber недавно пригласил Ната Бьюса возглавить их усилия по обеспечению безопасности. Он работал в Министерстве транспорта США и много лет руководил работой по обеспечению безопасности транспортных средств. Те из вас, кто интересуется отчетом о безопасности, подготовленным Uber в прошлом году после внутренней проверки инцидента с беспилотным автомобилем Uber, могут найти его здесь: https://www.uber.com/info/ атг/безопасность/

Я также хотел бы отметить усилия Алекса Эпштейна, директора по транспорту Национального совета безопасности (NSC). Мы встретились на первой конференции по безопасности беспилотных автомобилей с искусственным интеллектом, и его идеи и замечания были точны в отношении того, где находится отрасль и куда ей нужно двигаться. В NSC он возглавляет инициативу Advanced Automotive Safety Technology. Примечательны его усилия по информированию общественности, и публичная кампания MyCarDoesWhat является примером того, как нам нужно помочь общественности понять аспекты автоматизации автомобилей: https://mycardoeswhat.org/

Определение роли директора по безопасности

Я счел полезным пояснить, что я имею в виду под ролью директора по безопасности в контексте фирмы, которая имеет продукт или услугу на основе ИИ, особенно таких, как индустрия беспилотных автомобилей с ИИ.

Взгляните на мой рисунок 1.

Как показано, у начальника службы безопасности есть ряд важных ролевых элементов. Все эти элементы переплетаются друг с другом и не должны рассматриваться как независимые друг от друга. Они представляют собой интегрированную сетку пространства элементов безопасности, которые необходимо поддерживать и возглавлять главный сотрудник по безопасности. Допущение того, что один из элементов увядает или недооценивается, может подорвать целостность любых связанных с безопасностью программ или подходов, применяемых фирмой.

Девять основных элементов для начальника службы безопасности состоят из:

  • Стратегия безопасности
  • Культура безопасности компании
  • Политика безопасности
  • Обучение технике безопасности
  • Осведомленность о безопасности
  • Безопасность внешняя
  • Безопасность SDLC
  • Отчетность по безопасности
  • Кризисное управление безопасностью

Далее я опишу каждый из элементов.

Я собираюсь сосредоточиться на индустрии беспилотных автомобилей с искусственным интеллектом, но, надеюсь, вы увидите, как их можно применить к другим областям искусственного интеллекта, которые включают продукты или услуги на основе искусственного интеллекта, связанные с безопасностью. Возможно, вы создадите роботов на основе ИИ, которые будут работать на складах или фабриках и т. д., к которым эти элементы будут относиться в равной степени.

Я также собираюсь опустить другие виды вопросов безопасности, не связанных с ИИ, которые, вероятно, должен охватывать директор по безопасности, которые уже хорошо задокументированы в многочисленных онлайн-описаниях и спецификациях директора по безопасности.

Вот краткая информация о каждом элементе.

  • Стратегия безопасности

Директор по безопасности устанавливает общую стратегию того, как безопасность будет интегрирована в системы искусственного интеллекта, и работает при этом рука об руку с другими руководителями высшего звена. Это должно быть сделано совместно, так как остальная часть исполнительной команды должна «купиться» на стратегию безопасности и быть готовой и способной реализовать ее. Безопасность не является островом сама по себе. Каждая из функций фирмы должна быть заинтересована и обязана обеспечивать реализацию стратегии безопасности.

  • Культура безопасности компании

Директор по безопасности должен помочь сформировать культуру компании, в которой безопасность должна быть на первом месте. Часто разработчики ИИ и другие технические специалисты не разбираются в безопасности и могли прийти из университета, где системы ИИ были созданы в качестве прототипов, а безопасность не была особенно актуальной темой. Некоторые даже потенциально поверят, что «безопасность — враг инноваций», что иногда является безудержным ложным убеждением. Корпоративная культура может потребовать некоторой тяжелой работы и должна осуществляться совместно с командой высшего руководства и осмысленно, а не беззаботно или поверхностно.

  • Политика безопасности

Главный специалист по безопасности должен составить набор политик безопасности, указывающих, как системы ИИ должны быть задуманы, спроектированы, построены, испытаны и введены в эксплуатацию, чтобы реализовать ключевые принципы безопасности. Эти политики должны быть легко понятными, и должны быть четкие средства их соблюдения. Если политика чрезмерно абстрактна или бестолкова, или если она непрактична, это, вероятно, будет способствовать возникновению чувства «это просто CYA», и остальная часть фирмы будет склонна игнорировать политику.

  • Обучение технике безопасности

Директор по технике безопасности должен определить виды образовательных средств, которые могут быть доступны по всей фирме, чтобы улучшить понимание того, что означает безопасность в контексте разработки и внедрения систем искусственного интеллекта. Это может быть комбинация классов безопасности ИИ, подготовленных внутри компании, и классов безопасности, предоставленных извне. Высшее руководство также должно участвовать в образовательных программах, чтобы продемонстрировать свою веру и поддержку образовательных аспектов, и они должны работать с главным офицером по технике безопасности при планировании и обеспечении того, чтобы группы и персонал проводили занятия, а также последующие меры. удостовериться, что образование активно используется.

  • Осведомленность о безопасности

Руководитель службы безопасности должен сделать так, чтобы осведомленность о безопасности стала постоянной деятельностью, часто поощряемой размещением аспектов безопасности ИИ в корпоративной сети, а также предоставлением других возможностей для обсуждения и поощрения безопасности ИИ, таких как обеды с коричневыми пакетами, обмен Советы и предложения по безопасности ИИ внутри фирмы и так далее. Это должно быть постоянным усилием и не допускать одноразового толчка безопасности, который затем распадается или забывается.

  • Безопасность внешняя

Директор по безопасности должен активно представлять компанию и ее усилия по обеспечению безопасности ИИ перед внешними заинтересованными сторонами. Это включает в себя работу с регулирующими органами, возможное участие в регулирующих усилиях или проверках, когда это уместно, наряду с выступлениями на отраслевых мероприятиях о проводимой работе, связанной с безопасностью, и обсуждением со средствами массовой информации. Как внешнее лицо компании, ОГО также, скорее всего, получит отзывы от внешних заинтересованных сторон, которые затем должны быть переданы в компанию и специально обсуждены с высшим руководством.

  • Безопасность SDLC

Главный специалист по технике безопасности должен способствовать обеспечению того, чтобы жизненный цикл разработки систем (SDLC) включал безопасность на всех этапах. Это включает в себя то, является ли SDLC гибким или водопадным, или каким-либо другим методом или способом. Контрольно-пропускные пункты и обзоры должны включать аспекты безопасности и иметь зубцы, а это означает, что если безопасность либо не учитывается, либо недооценивается, это становится критерием прекращения усилий, который нельзя заметать под ковер. Во время стресса разработки легко отодвинуть части безопасности и кодирование под предлогом «приступить к реальному кодированию», но это не поможет в системах ИИ, связанных с системами жизни или смерти.

  • Отчетность по безопасности

Начальник отдела безопасности должен внедрить средства для отслеживания аспектов безопасности, которые учитываются и включаются в системы ИИ. Обычно это онлайн-система отслеживания и отчетности. Вне системы отслеживания отчетность должна предоставляться на постоянной основе. Это включает в себя информационные панели и срочные отчеты, что жизненно важно, поскольку, если отчет слишком задерживается или его трудно получить или интерпретировать, он будет считаться «слишком поздним, чтобы иметь дело с ним», а затраты или усилия по внесению исправлений или дополнений, связанных с безопасностью, будут второстепенными. .

  • Кризисное управление безопасностью

Главный специалист по безопасности должен установить подход к управлению кризисными ситуациями для устранения любых возникающих неисправностей или проблем, связанных с безопасностью ИИ. Кажется, что фирмы часто борются, когда их беспилотный автомобиль с искусственным интеллектом кого-то ранит, но это то, что можно было предвидеть как возможность, и к этому можно было подготовиться заранее. Реакция на неблагоприятное действие ИИ, связанное с безопасностью, должна быть тщательно скоординирована, и, скорее всего, будет воспринято, что компания либо искренне прилагает усилия по устранению инцидента, либо, если она плохо подготовлена, может испортить ситуацию и подорвать усилия компании и других ИИ-самоуправляемых автомобилей. производители автомобилей.

На рис. 1 я также включил свою структуру беспилотных автомобилей с искусственным интеллектом.

Каждый из девяти элементов, которые я только что описал, может быть применен к каждому из аспектов фреймворка. Например, как вопросы безопасности учитываются при проектировании, разработке, тестировании и вводе в эксплуатацию датчиков? Каким образом безопасность учитывается при проектировании, разработке, тестировании и вводе в эксплуатацию сенсорного синтеза? Как безопасность включается в проектирование, разработку, тестирование и внедрение модели виртуального мира.

Маловероятно, что у вас будет много соображений, связанных с безопасностью, скажем, датчиков, если в фирме нет всеобъемлющего убеждения в том, что безопасность важна, что демонстрируется наличием главного сотрудника по безопасности и наличием корпоративной культуры, которая охватывает безопасность, и обучая команды, занимающиеся разработкой, безопасности ИИ и т. д. Это подчеркивает мою более раннюю мысль о том, что каждый из элементов должен работать как единое целое.

Предположим, фирма на самом деле выполняет восемь элементов, но ничего не делает для включения безопасности ИИ в SDLC. Что тогда?

Это означает, что разработчики ИИ предоставлены сами себе, чтобы попытаться придумать, как включить безопасность в свои усилия по разработке. Они могут возиться с этим или делать добросовестные удары по нему, хотя он фрагментирован и не связан с остальной методологией разработки.

Кроме того, что еще хуже, вероятность того, что в SDLC нет места для безопасности, что означает отсутствие показателей безопасности, и, следовательно, давление, чтобы не делать ничего, связанного с безопасностью, усиливается из-за показателей, измеряющих разработчиков ИИ другими способами. это не обязательно имеет много общего с безопасностью. Дело в том, что каждый из девяти элементов должен работать сообща.

Ресурсы по внедрению безопасности ИИ в усилия по созданию беспилотных автомобилей

В Институте беспилотных автомобилей Cybernetic AI мы разрабатываем программное обеспечение AI для беспилотных автомобилей. Мы считаем аспекты безопасности ИИ важными для наших усилий и призываем автопроизводителей и технологические фирмы поступать так же.

Я хотел бы сначала уточнить и представить понятие о том, что существуют разные уровни беспилотных автомобилей с искусственным интеллектом. Самый верхний уровень считается уровнем 5. Самоуправляемый автомобиль уровня 5 — это автомобиль, которым управляет ИИ, и в нем не участвует человек-водитель. При проектировании самоуправляемых автомобилей 5-го уровня автопроизводители даже убирают педаль газа, педаль тормоза и рулевое колесо, поскольку это приспособления, используемые водителями-людьми. Самоуправляемый автомобиль уровня 5 не управляется человеком, и не ожидается, что человек-водитель будет находиться в беспилотном автомобиле. Все это лежит на плечах ИИ, чтобы управлять автомобилем.

Для беспилотных автомобилей с уровнем ниже 5 в автомобиле должен находиться водитель-человек. Водитель-человек в настоящее время считается ответственной стороной за действия автомобиля. ИИ и водитель-человек совместно выполняют задачу вождения. Несмотря на это совместное использование, человек должен оставаться полностью погруженным в задачу вождения и быть готовым в любое время выполнить задачу вождения. Я неоднократно предупреждал об опасностях этой договоренности о совместном использовании и предсказывал, что она приведет ко многим неблагоприятным результатам.

Хотя я часто склонен больше сосредотачиваться на настоящих беспилотных автомобилях уровня 5, аспекты безопасности автомобилей ниже уровня 5 особенно важны сейчас. Я неоднократно предупреждал, что по мере того, как расширенная автоматизация уровня 3 становится все более распространенной, что мы только сейчас наблюдаем на рынке, мы увеличиваем опасности, связанные с взаимодействием между системами ИИ и людьми. Это включает в себя проблемы, связанные с когнитивными разногласиями людей с искусственным интеллектом и диссонансом человеческого мышления, которые могут иметь катастрофические последствия с точки зрения безопасности. Совместное использование и передача задач вождения, выполняемых в режиме реального времени на скоростных автомагистралях, почти указывает на безопасность. Автопроизводители и технологические фирмы должны опережать кривую безопасности ИИ, а не ждать, пока лошадь уже выйдет из сарая и станет поздно действовать.

Вот обычные шаги, связанные с задачей управления ИИ:

  • Сбор и интерпретация данных датчиков
  • Слияние датчиков
  • Обновление модели виртуального мира
  • планирование действий ИИ
  • Выдача команд управления автомобилем

Еще одним ключевым аспектом беспилотных автомобилей с искусственным интеллектом является то, что они будут ездить по нашим дорогам среди машин, управляемых людьми. Некоторые знатоки беспилотных автомобилей с искусственным интеллектом постоянно ссылаются на утопический мир, в котором на дорогах общего пользования есть только беспилотные автомобили с искусственным интеллектом. В настоящее время только в Соединенных Штатах насчитывается более 250 миллионов обычных автомобилей, и эти автомобили не исчезнут волшебным образом или не станут настоящими самоуправляемыми автомобилями 5-го уровня с искусственным интеллектом за одну ночь.

Действительно, использование автомобилей, управляемых людьми, будет продолжаться в течение многих лет, вероятно, многих десятилетий, и появление беспилотных автомобилей с искусственным интеллектом произойдет, пока на дорогах все еще есть автомобили, управляемые людьми. Это важный момент, поскольку это означает, что ИИ беспилотных автомобилей должен быть в состоянии конкурировать не только с другими беспилотными автомобилями ИИ, но и с автомобилями, управляемыми людьми. Легко представить упрощенный и довольно нереалистичный мир, в котором все беспилотные автомобили с искусственным интеллектом вежливо взаимодействуют друг с другом и вежливо относятся к дорожным взаимодействиям. Это не то, что произойдет в обозримом будущем. Самоуправляемые автомобили с искусственным интеллектом и автомобили, управляемые людьми, должны будут справляться друг с другом. Период.

Возвращаясь к теме безопасности, давайте рассмотрим некоторые дополнительные аспекты.

Взгляните на рисунок 2.

Я перечислил некоторые из общедоступных документов, которые являются полезным краеугольным камнем для получения информации о безопасности беспилотных автомобилей с искусственным интеллектом.

Министерство транспорта США (DOT) NHTSA предоставило два отчета, которые я считаю особенно полезными, об основах безопасности, связанных с беспилотными автомобилями с искусственным интеллектом. Помимо предоставления справочного контекста, эти документы также указывают на нормативные соображения, которые любой производитель автомобилей или технологическая фирма должны учитывать в своих усилиях. Оба этих отчета были обнародованы под эгидой секретаря DOT Элейн Чао.

Отчет версии 2.0 находится здесь: https://www.nhtsa.gov/sites/nhtsa.dot.gov/files/documents/13069a-ads2.0_090617_v9a_tag.pdf

Отчет версии 3.0 находится здесь: https://www.transportation.gov/sites/dot.gov/files/docs/policy-initiatives/automated-vehicles/320711/preparing-future-transportation-automated-vehicle-30. pdf

Ранее я упоминал отчет о безопасности Uber, который находится здесь: https://www.uber.com/info/atg/safety/

Я также упомянул отчет о безопасности Zoox, который находится здесь: https://zoox.com/safety/

Вы также, вероятно, найдете у нас отчет о безопасности Waymo, который находится здесь: https://waymo.com/safety/

Я также хотел бы поблагодарить доктора Филипа Купмана, профессора CMU, который провел обширное исследование, связанное с безопасностью ИИ, которое вы можете найти на его веб-сайте CMU или на веб-сайте этой компании: https:// edge-case-research.com/

Как бывший университетский профессор, я тоже проводил исследования в своем университете, а также делал это через стороннюю компанию. Это отличный способ попробовать объединить основные фундаментальные исследования, которые вы обычно проводите в университетской среде, с более прикладными усилиями, которыми вы занимаетесь в промышленности. Я нашел это удобным сочетанием. Филип и я, кажется, также оказываемся на многих одних и тех же конференциях по беспилотным автомобилям с искусственным интеллектом и делаем это в качестве спикеров, участников дискуссии или заинтересованных участников.

Заключение

Для тех директоров по безопасности компаний, занимающихся беспилотными автомобилями с искусственным интеллектом, которых я здесь не упомянул, вы можете сообщить мне, что вы хотели бы быть включены в будущие обновления, которые я буду делать по этой теме. Кроме того, если у вас есть отчеты о безопасности, подобные тем, которые я перечислил, я буду рад ознакомиться с этими отчетами и буду рад упомянуть их тоже.

Одно из опасений, высказанных в отношении индустрии беспилотных автомобилей с искусственным интеллектом, заключается в том, что вопрос безопасности решается в секретной манере, которая имеет тенденцию держать друг друга из автопроизводителей или технологических фирм в неведении о том, что делают другие фирмы. Когда вы смотрите на автомобильную промышленность, очевидно, что автопроизводители традиционно конкурировали за свои показатели безопасности и использовали это в своих интересах, пытаясь рекламировать и продавать свою продукцию.

Критики заявляют, что если индустрия беспилотных автомобилей с искусственным интеллектом будет считать себя конкурирующей друг с другом в области безопасности, то, естественно, будет основание намеренно избегать обмена информацией об аспектах безопасности друг с другом. По-видимому, у вас не может быть и того, и другого: если вы соревнуетесь в области безопасности, то предполагается, что это игра с нулевой суммой, те, кто лучше справляется с безопасностью, продадут больше, чем те, кто этого не делает, и зачем помогать конкуренту. чтобы опередить.

Это мышление необходимо преодолеть. Как упоминалось ранее, не потребуется многого с точки зрения нескольких плохих результатов, связанных с безопасностью, чтобы потенциально задушить все царство беспилотных автомобилей с искусственным интеллектом. Если возникнет общественный резонанс, вы можете ожидать, что это оттолкнет автопроизводителей и технологические фирмы. Скорее всего, регулирующие органы предпочтут войти в отрасль с гораздо более сильной рукой. Финансирование усилий по созданию беспилотных автомобилей с искусственным интеллектом может иссякнуть. Двигатель, приводящий в движение беспилотный автомобиль с искусственным интеллектом, может остановиться.

Появляются попытки выяснить, может ли безопасность ИИ стать более широко распространенной темой в индустрии беспилотных автомобилей с искусственным интеллектом. Однако трудно преодолеть все эти NDA (соглашения о неразглашении) и опасения, что имущественные вопросы могут быть раскрыты. К сожалению, может потребоваться бедствие, чтобы получить достаточно тепла, чтобы вещи просачивались сильнее, но я надеюсь, что до этого не дойдет.

Принятие руководителей по безопасности среди множества автопроизводителей и технологических фирм, занимающихся созданием беспилотных автомобилей с искусственным интеллектом, является верным признаком того, что безопасность приобретает все большее значение. Эти позиции должны быть приняты серьезно и с пониманием в фирмах, что они не могут просто ввести роль, чтобы каким-то образом отметить, что они это сделали.

Чтобы директора по безопасности выполняли свою работу, они должны занимать руководящие должности и считаться неотъемлемой частью руководящей команды. Я также надеюсь, что эти руководители по технике безопасности объединятся и станут отраслевым «клубом», который сможет принять мантру разделения безопасности и использовать свое положение и вес, чтобы продвинуть нас вперед в пронизывании безопасности во всех аспектах ИИ. -вождение автомобилей. Давайте воплотим это в реальность.

Для бесплатного подкаста этой истории посетите: http://ai-selfdriving-cars.libsyn.com/website

Подкасты также доступны на Spotify, iTunes, iHeartRadio и т. д.

Дополнительную информацию о беспилотных автомобилях с искусственным интеллектом см. на сайте www.ai-selfdriving-cars.guru.