Александр Розов (alex_rozoff) wrote,
Александр Розов
alex_rozoff

Categories:

Очередной красочный фейл автопилота Tesla. Поймите уже: цифровая дорога не ведет к ИИ!

27 August 2020, daily mail. 66-летний доктор (Девайндер Голи ), который смотрел ФИЛЬМ на своем смартфоне, управляя своей Tesla на автопилоте, врезался в припаркованный полицейский автомобиль в Северной Каролине. Голи ехал на своем Tesla на автопилоте и смотрел фильм по мобильному телефону по пути в Raleigh, North Carolina. Транспортные агентства и другие организации критически отнесились к функциям автопилота Tesla после сообщкений о ряде аварий.
https://www.dailymail.co.uk/news/article-8670977/Man-using-smartphone-driving-Tesla-autopilot-crashes-police-cruiser.html
Случай полностью аналогичен тому, то произошел полгода назад в другом штате.

8 дек. 2019 г. Eyewitness News ABC7NY. Tesla on autopilot slams into police car in Connecticut
30.08.2020 дайджест hi-news собрал некоторые детали аварии 27 авгута, и мнения.
https://hi-news.ru/auto/avtomobil-tesla-s-avtopilotom-protaranil-policejskij-avtomobil-kak-eto-proizoshlo.html
Я цитирую первое из мнений: "Доплатив 6 000 долларов при покупке автомобиля, люди получают возможность использовать автопилот. Это значит, что во время езды человек может убрать руки с рулевого колеса и предоставить управление встроенному компьютеру, который оценивает окружающую обстановку при помощи установленных в автомобиль сенсоров и самостоятельно принимает все решения. На данный момент автопилот Tesla отлично справляется со сменой полос движения и другими несложными задачами, но полностью доверять процесс езды ему нельзя. Однако, некоторые водители этот факт полностью игнорируют и вместо того, чтобы следить за дорогой, занимаются всякой ерундой"...
...НЕМАЯ СЦЕНА и моя реплика...
- Так, а за что, черт возьми, потребитель доплатил 6000 долларов, если не за то, чтобы иметь возможность заниматься ерундой, когда автомобилем управляет автопилот??? (У меня выдалась возможность пообщаться на эту тему с одним из IT-экспертов - разработчиков коммерческих систем искусственного интеллекта).
- Пойми (ответил мне IT-эксперт) все не так просто. Автопилот Tesla может в некоторых случаях демонстрировать чудеса реакции и маневренности (например, идеально пройти трассу автослалома, или уклониться от летящего постороннего предмета).
- А что будет (спросил я) если в автослаломе перекрасить столбики?

- Гм! (IT-эксперт задумался) Перед тем, как выпустить машину с автопилотом на трассу с другой расцветкой столбиков, следукт провести тесты, на всякий случай.
- Так! (сказал я) Значит ли это, что заранее никогда неизвестно, отреагирует ли автопилот на препятствие, даже неподвижное, если оно имеет форму или окраску, иную, чем те, на которых автопилот проверялся?

IT-экспертне ответил прямо на этот вопрос - что ж, он, типа. патриот своей отрасли.
На самом деле, ответ очевиден и практичекски (по инцидентам), и методически (по методике современного выполнения IT-проектов), и теоретически (о чем речь пойдет ниже).

"Реальные интеллектуальные возможности роботов: «кофейный тест»
Если же вы всерьез опасаетесь, что искусственный интеллект возьмет человечество под строгий контроль, вспомните «кофейный» тест. Сооснователь Apple Стив Возняк предложил небанальный способ оценивать развитие AI и его автономные возможности решать задачи без посторонней помощи. Чтобы пройти тест, «робот» без контроля со стороны разработчиков должен войти в квартиру, где раньше не был и план которой не загружен в его систему, найти кофеварку и приготовить напиток.
Любой человек способен справиться с тестом. В этой проверке есть доля шутки, но факт, что ни одна система еще его не прошла, показывает, что ИИ не способен всерьез контролировать людей и ограничивать их действия"
https://aipeople.ru/blog/iskusstvennyj-intellekt:-pomosh-ili-kontrol-vashej-zhizni
Добавим:
"Человек сейчас применяет математические модели для того, чтобы облегчить для себя задачу выбора — например, определить надежного заемщика денежных средств или найти сотрудника с необходимым опытом для какой-то работы. В целом, математические модели и процессы, которые их используют, относительно просты и понятны. Но военные, коммерческие компании, ученые сейчас используют гораздо более сложные системы, чьи «решения» основываются не на результатах работы одной-двух моделей. Глубокое обучение отличается от обычных принципов работы компьютеров. По мнению Томми Джаакола, профессора из MIT, эта проблема становится все более актуальной. «Что бы вы ни делали — принимали решение об инвестициях, пытались поставить диагноз, выбрали точку атаки на поле боя, все это не должно зависеть от метода „черного ящика“», — говорит он.
Это понимают уже не только ученые, но и чиновники. Начиная с лета следующего года Европейский Союз вводит новые правила для разработчиков и поставщиков решений автоматизированных компьютерных систем. Представители таких компаний будут обязаны объяснять пользователям, как работает система, и по какому принципу принимаются решения. Проблема в том, что это может оказаться невозможным. Да, объяснять базовые принципы работы нейросетей можно без проблем, но вот то, что там происходит во время обработки сложной информации, мало кто может точно рассказать. Даже создатели таких систем не могут объяснить все «от и до», поскольку процессы, протекающие в нейросети во время обработки информации, очень сложные.
Никогда прежде человек не строил машины, принцип работы которых не до конца понятен сами создателям и резко отличается от способа обработки информации, используемого самим человеком. Так можно ли ожидать нормального взаимодействия с машинами, работа которых непредсказуема?"
https://habr.com/ru/company/madrobots/blog/404521/
Далее в статье приводятся примеры, но речь не о том, а о принципие.
Мы можем более-менее доверять другим людям, и даже служебным домашним животным (собакам, лошадям). Мы можем доверять даже пчелам (хотя их схема ганглиев очень сильно отличается от мозга млекопитающих животных, и в частности - от человеческого мозга).
Мы не понимаем стильмышления других животных, мы не понимаем даже стиль мышления других людей - но работаем с ними, и вполне удачно (сбои случаются, но с допустимо-низкой вероятностью).
Почему с т.н. искусственнным интеллектом ситуация иная?
Дело в том, что в отличие даже от сравнительно несложной схемы ганглиев насекомых, схема цифрового ИИ базируется на дискретной алгоритмической машине, которая заведомо не годится для оценки множества ситуаций в мире непрерывности (т.е. в реальном физическом мире).
Недавно этим, кажется, всерьез занялись математики:
07 January 2019 "Learnability can be undecidable"
Shai Ben-David, Pavel Hrubeš, Shay Moran, Amir Shpilka & Amir Yehudayoff
https://www.nature.com/articles/s42256-018-0002-3

Никакой ИИ, адекватный в реальном мире, не может быть чисто цифровым.
Это может быть только аналоговая, или гибридная (цифро-аналоговая) схема.
Та схема, к которой пришли все живые существа в ходе разных ветвей эволюции.
И вот, кстати, об этом:
14 декабря 2017. Современный вариант развития старых аналоговых компьютеров
Автор оригинала: Yannis Tsividis
Учёные и инженеры могут с выгодой использовать давно заброшенный подход к вычислениям
https://habr.com/ru/post/408849/

Такие дела.
Subscribe

  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 194 comments
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →