Редактор Geektimes
736,4
рейтинг
9 июня 2014 в 20:17

Великобритания переписывает правила дорожного движения под «роботомобили»



Автомобили, способные ездить по дорогам без участия водителей, уже вовсю катаются по Калифорнии и некоторым другим штатам США (пока только тестовые образцы). Однако в прочих регионах и странах правила дорожного движения (ПДД) не адаптированы под новые реалии, и выезд автомобиля без управления человека на дороги практически невозможен (т.е., не разрешен).

В Великобритании — именно такая ситуация, но законодатели этой страны планируют переписать ПДД под роботизированные автомобили. По крайней мере, на первых порах разрешат тестирование таких авто на дорогах этой страны.

Кроме всего прочего, законодатели Великобритании собираются поощрять своих автопроизводителей, которые разрабатывают собственные автомобили с автономной системой управления.

Министр Науки и Университетов Британии Дэвид Виллет сообщил, что в Калифорнии уже работают над созданием законов, разрешающих появление на дорогах автомобилей, у которых просто нет водительского места (первые лицензии/права для владельцев таких авто будут выданы уже в сентябре этого года). И Великобритания планирует использовать подобные законы и у себя. Во всяком случае, работа над новыми законами уже ведется, а исследователи в Оксфорде весьма активно работают над собственными проектами автономного управления для легковых машин.

Via: The Independent
marks @marks
карма
170,7
рейтинг 736,4
Редактор Geektimes
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (55)

  • 0
    Интересно, кто будет привлекаться к ответственности за правонарушения, совершенные по ошибке автоматическим автомобилем?
    • +1
      Автомобиль будет наказан лишением свободы.
    • +2
      А какая цель у привлечения к ответственности?
      • +19
        Инстинктивно-бюрократическая реакция. Когда случается какой-то факап, у всех начальников первая мысль не «как сделать, чтоб такое случалось как можно реже, в идеале — никогда», а «кого бы за это вздрючить». И плевать, что после наказания вероятность новых аварий может вообще не измениться.
        • +2
          Дрючка (больше даже ее страх) и является механизмом уменьшения повторов.
          • 0
            Как правило, факапы являются следствиями системных ошибок. Даже человеческая ошибка обычно является следствием плохого процесса, который можно оптимизировать. Причем дрючка — это почти всегда плохой способ оптимизации процесса.

            На эту тему много интересных книг написано. «Пятая дисциплина» Питера Сенге, например. Или «Менеджмент качества, как он есть» Круглова и Шишкова.
      • +3
        За человеческие жертвы и порчу имущества кто-то должен отвечать (за исключением «катастрофических действий непредвиденного характера» — Цунами там, дикая природа и всё такое, хотя в таких случаях тоже может найтись человек, который отвечал, скажем, за оповещение), т.к. ответственность — неплохая такая мотивация не факапить. Иначе бы до сих пор при падении самолетов разводили бы руками «ну что вы хотели, это же самолет», а безопасность полетов бы не росла. Сейчас же при каждом неправильном винтике, спровоцировавшим нештатную ситуацию, проводится расследование, наказываются виновные и делаются выводы на будущее.
        • +4
          Ну и будет отвечать — компания, материально. Много аварий — значит надо больше денег вносить в страховые компании, которые выплачивают последствия аварии. К чему стремление обязательно кого-то посадить?
          • 0
            Уровень наказания зависит от уровня урона — покорябать тачку на парковке или сбить насмерть группу детишек на экскурсии. Сомневаюсь, что общество будет удовлетворено денежными штрафами во втором случае.
            • +17
              Если уровень аварийности (общий) будет ниже чем у людей — то все хорошо. Представьте ситуацию что поезд сошел с рельс потому что под него попала машина вылетев из-за удара встречной на мосту, потому что на встречку внезапно выбежала собака, потому что у хозяина порвался поводок, потому что в нем сломалась заклепка, потому что дядя вася залил мало плохое масло в заклепкоделающий станок потому что в программе, рассчитывающей концентрацию масла был баг, который тестер пропустил. Ну и кого сажать? Тестера? Программиста? Или всю цепочку «виноватых»?
              • +1
                Ну в данном случае по законам РФ *однозначно* виноват автомобилист, при адекватной скорости и отсутствии маневрирования (оно запрещено при опасности по ПДД, нужно тормозить) он не вылетел бы с дороги.
                • +2
                  Под колеса бросилась очень большая собака, попала под колесо и машина повернула. Да можно придумать кучу вариантов. Под машиной провалился асфальт, провалился потому, бешеные кроты прорыли, которые мигрировали из за постройки в 500 метрах нового небоскреба, ну дальше можно самому додумать.
                  • +5
                    Хватит пересказывать сюжеты очередной серии фильма «пункт назначения» )
                    Есть такая штука, как «трагическая случайность», «обстоятельства непреодолимой силы», «форсмажор» и т.д. Понятно, что всегда есть вероятность трагедии от стечения обстоятельств, но эту вероятность всячески стараются уменьшить.
                    .
                    • 0
                      Я об этом и говорю, что надо уменьшать эту вероятность, а не искать виноватых только ради того чтобы кого-то посадить.
              • 0
                Наверняка можно поискать и найти примерно такие расследования авиакатастроф, когда каждому виновному выдавали пропорционально его «заслугам» пирогов. Раз в авиации адекватные решения, кого «сажать» или нет (и какие иные меры вразумления предпринимать): инженеров авиакомпании, пилота, диспетчера, наземную службу — вполне себе принимаются — так и тут нужно наладить.
              • 0
                Самуил Маршак:
                Не было гвоздя — Подкова
                Пропала.

                Не было подковы — Лошадь
                Захромала.

                Лошадь захромала — Командир
                Убит.

                Конница разбита — Армия
                Бежит.

                Враг вступает в город,
                Пленных не щадя,
                Оттого, что в кузнице
                Не было гвоздя.


                А ещё напомнило Дом, который построил Джек :)
      • +7
        Цель привлечения к ответственность — возмещение ущерба нанесенного правонарушением. Традиционно, за автомобиль, как за источник повышенной опасности, ответственность несет владелец. Он освобождается от ответственности в двух случаях: авто выбыло на момент нарушения из его владения в результате противоправных действий других лиц (угон например); умысел потерпевшего (пешеход решил покончить с жизнью) в любом случае бремя доказывания этих причин для освобождения от ответственности лежит на владельце авто. При этом владельцем считается лицо, которое владеет авто на любых законно оформленных основаниях: аренда, купля-продажа, доверенность, т.е. если я передам авто живому водителю с доверенностью, я не буду за него отвечать.
        С ИИ возникает проблема, оно не может быть владельцем авто, т.к. нет субъекта права ИИ, которое наделено правами и ответственностью. Т.е. при передаче управления ИИ владелец все равно продолжает отвечать перед законом.
        Если оставить законы как есть, никто не рискнет доверить руль ИИ и соответственно исследования зайдут в тупик, что не хорошо для прогресса, если убрать ответственность, то компании разработчики не будут следить за качеством (а и так сойдет, никто же ответственности не несет и дави людей сколько хочешь). Поэтому важно выработать новое законодательство.
        • 0
          А если я выехал из автосалона, а у автомобиля отказали тормоза? И стукнул старушку или ребенка? Тоже считаете что «за рулем сидел — виновен»?
          • –3
            Считать судья будет. По закону.
            • +7
              Я к тому, что есть множество ситуаций, когда человек погибает не в результате катаклизмов, но при этом виноватых нету. Просто так сложились обстоятельства. Чихнул — а у бабушки рядом инфаркт от этого. И смысл имеет не требовать «найти козла отпущения», а смысл имеет уменьшить количество смертей. Что робомобили и принесут. Что лучше — миллион смертей и пол миллиона заключенных, или 10 000 смертей и ни одного заключенного?
              • 0
                В технике как раз обычно виноват человек. Скажем в данной катастрофе кто виноват? Или в данной? Я думаю что виноватыми в данных ситуациях не «стечение обстоятельств», а ошибки проектирования.
          • –1
            «Если бы да кабы, во рту выросли грибы.» Для случаев «А если я выехал из автосалона, а у автомобиля отказали тормоза?», «Чихнул — а у бабушки рядом инфаркт от этого» в законодательстве предусмотрено освобождение от ответственности, если вред причинен обстоятельствами непреодолимой силы — т.е. обстоятельства, которые заранее нельзя спланировать и они не зависят от воли причинителя вреда. При этом ответственность за отказ тормозов у новой машины и отказ тормозов у не новой машины будет разный — в первом случае обстоятельство непреодолимой силы, во втором случае нарушение ПДД, обязывающий следить за машиной и проходить плановый тех.осмотр, и нарушение обязанностей того кто делал тех.осмотр. С чихом и смертью бабушки рядом, то еще надо доказать причинно-следственную связь между чихом и наступившей смертью, во первых, а во вторых чих не является правонарушением — это физиологическая потребность, не зависящая от воли чихающего.
            • 0
              Точно так же и с робомобилями, обстоятельства, которое заранее нельзя спланировать, и они не зависят от воли причинителя вреда.
            • 0
              В первом случае — не обстоятельства непреодолимой силы, а изготовитель/поставщик.
        • 0
          Если оставить законы как есть, никто не рискнет доверить руль ИИ и соответственно исследования зайдут в тупик, что не хорошо для прогресса
          Тут как бы что-то одно из двух: либо ИИ водит машину лучше, чем человек и тогда последнему выгодно доверить руль «бездушной машине», либо же нет — и тогда что мы тут вообще обсуждаем? Можно подумать ошибки в программах и без всякого ИИ не могут приводить к трагедиям.
          • 0
            И как же вы предлагаете определять конкретному водителю со своим конкретным опытом лучше ли него справится конкретное авто прошивки «v100.500 rev B» по сегодняшней погоде?

            А лично я ИИ рассмартиваю как замену личному водителю, и ответственность брать при любом раскладе не входит в мои планы.
        • 0
          Не совсем так. Возмещение ущерба — цель гражданско-правовой ответственности. А цель административной или уголовной ответственности за нарушение ПДД — «воспитание» виноватого.
          • 0
            Когда-нибудь водить машины будут компьютеры с нейронными сетями в голове. Вот их уже можно «воспитывать» )))
        • +2
          >С ИИ возникает проблема, оно не может быть владельцем авто, т.к. нет субъекта права ИИ, которое наделено правами и ответственностью. Т.е. при передаче управления ИИ владелец все равно продолжает отвечать перед законом.

          Да уж, ситуация получается абсурдная: покупатель доверился рекламе «наш робомобиль намного безопаснее на дороге, чем автомобиль под управлением среднестатистического водителя», купил, поехал, робомобиль попал в аварию по вине софта, неверно просчитавшего ситуацию, а виноват оказался… владелец?
          • +1
            По текущим правилам — да.
    • 0
      А кто отвечает сейчас за аварию, произошедшую по вине заводского брака автомобиля о котором не знал водитель?
  • 0
    Еще один вариант использования всех этих «башенок» с датчиками и сенсорами — установка на обычные не роботизированные машины для отслеживания нарушений ПДД. Продавить на законодательном уровне такое вполне могут, тут и удешевление производства «башенок» для корпораций, и дополнительные доходы в бюджет для государства.
    • +5
      … но будут и синие «башенки», которые никак наказываться не будут
  • –3
    А вот как поведет себя автомобиль с такой системой в случае не предвиденных ситуация? К примеру довольно спорных с точки зрения выбора. Пример
    1) Сбить 2 стариков или одного ребенка
    2) Сбить человека или ударить другую машину
    3) Ударить другую машину или сильно нарушить правила
    4) Пропустить машину с мигалками. Которая едет хз откуда.
    5) Подвинутся в плотную к другой машине чтобы пропустить к примеру скорую помощь, которая подъела сзади.
    6) Попасть под падающее дерево (либо лобовое столкновение) или слегка ударить машину в соседнем ряду

    И так можно долго перечислять
    • +5
      Точно также как и любой обычный человек, то есть х*й знает как. Но у автоматического автомобиля вероятность попадания в подобные ситуации гораздо меньше.
      • 0
        Как раз нет. В ПДД достаточно чётко прописано чего можно делать, а чего нельзя. Робомобиль предпримет всё, что может — но оставаясь в рамках ПДД. То есть если его кто-то подрежет поворачивая направо из пятого ряда, то он не будет «выскакивать на обочину», а «ударит по тормозам» и всё. Если этого не хватит — ну что же, он протаранит-таки нарушителя, сработают подушки безопасности и дальше — будут разборки с полицией и страховщиками. Никакие угрызения совести его мучить не будут ни разу. А с учётом количества камер, которыми обвешаны все эти машины предъявить что-либо их владельцам будет весьма и весьма сложно.

        Вот как раз ошибки в программах — тут да, тут куда страшнее всё. А аварийные ситуации — нет, там всегда всё достаточно ясно прописано (даже пресловутые одновременно подъехавшие четыре машины на нерегулируемом перекрёстке приводят не к аварии, а к deadlock'у).
        • +2
          Как мне кажется, ситуация подрезал для робо-автомобиля как таковая отсутствует, так как он может заранее снизить скорость чтобы пропустить лихача.
          По моим личным наблюдениям(более 7 лет и 80000 км) подавляющее большинство аварий и аварийных ситуаций случаются по невнимательности(либо неправильных расчетов) водителя или пешехода. Остальное это сугубо форс мажор предугадать который заранее практически невозможно, например, как говорили выше, провал асфальта, взрыв чего нибудь, дерево упавшее на дорогу, но даже часть таких ситуаций все равно можно избежать.
          Помимо форс мажора мне сложно представить ситуацию когда робот не сможет просчитать заранее и предотвратить аварию, либо минимизировать ущерб.
          Для нашей страны конечно это сложнее, так как иногда некоторые обладатели авто натурально летают со скоростями превышающими лимиты в 2-2,5 раза.
          • –2
            Мне интересно как робо-автомобили собираются распознавать упавшее дерево или провал в асфальте на скорости 120 km/h, когда вовремя опознать эти объекты можно только визуально. Остальные датчики заметят препятствие слишком поздно.
            • +3
              Мне кажется какое-то визуально распознавание сделать можно, быть может и не в текущем поколении, но хочу заметить что и то и другое это форс мажор, кроме того скорость 120 в моей стране не допускается. Максимально разрешенная 110 и то на магистралях где нет деревьев и дорога не должна проваливатся.
          • 0
            Никакая ситуация отсутствовать не может. У нас, например, запросто может оказаться какой-нибудь «учитель». И в принципе не мешало бы оснастить такое авто средствами воспитания подобных таковым для обеспечения безопасности пассажиров от подобного быдла.
            • 0
              Я имею ввиду с точки зрения робота это не проблемная ситуация так как в его алгоритмах, теоретически конечно, вариант с «учителем» учтен, а скорость реакции позволяет избежать аварии.
              К слову сказать достаточно просто заранее увеличить расстояние до такого участника движения, что не сложно. Если же данный участник движения ударит автомобиль специально это уже другой вопрос.
            • 0
              Жуткая идея. Маневры, совершенно безопасные для робота, для управляющего машиной вручную человека могут быть совершенно ужасными, до седых волос буквально.

              Едешь ты 120 по трассе и тут тебя подрезает робот и оттормаживается. Тебе кажется, что ты вот-вот ему в зад влепишься, а он держит дистанцию в 10 сантиметров и нисколько не нервничает.
              • 0
                Дистанция в 10 см. нифига не безопасна даже для робота. Дело в том, что скорость торможения у каждого автомобиля индивидуальна, роботу неизвестна и робот должен будет это учитывать. Скорее всего безопасной дистанцией для робота будет примерно та дистанция, которую сейчас водители и держат реально (и которая ни разу не является безопасной — иначе бы не возникали цепные аварии на десятки машин).
        • 0
          Не, ну очевидно, что если ситуация вписывается в рамки ПДД, то автомобиль будет действовать по ПДД плюс некоторые варианты «типовых нестандартных» сценариев, которые сумели продумать прогеры — этого достаточно чтобы покрыть 99,9% всех вообще возможных случаев. Если будет какой-то совсем лютый форс-мажор, то автомобиль может повести себя непредсказуемо. Но в этот форс мажор еще суметь попасть надо.
    • +13
      Вы не поверите — но он поступит ровно так, как требуют правила ПДД. То есть он не будет пытаться объехать ребёнка выскочившего из кустов на автостраду (но постарается затормозить). И точно также он не будет уворачиваться от того, кто его «подрезал», сбивая человека на тротуаре (хотя, опять-таки снизит, насколько возможно, скорость). И т.д. и т.п.

      Что означает, что да, в некоторых случаях он не сможет избежать аварии там, где её профессиональный гонщик смог бы избежать, но зато он и не устроит проблем «на ровном месте» в попытках избежать её. И, в конечном итоге, в суде ему предъявить что-либо будет гораздо сложнее.

      У водителя нет и не может быть обязанности кого-то спасать выбирая между нарушением ПДД и жизнью человека. Жестоко, но, в конечном итоге, куда как безопаснее: достаточно будет весьма небольшого количества выигранных дел, когда «робомобиль» разобьёт в хлам хама, который его «грубо подрежет», чтобы люди научились этого не делать. Люди — они тоже вполне обучаемы. Только, конечно, важно, чтобы это происходило в стране где осуждён окажется нарушитель ПДД, а не знакомый генерала полиции.
      • +1
        Тут дело такое. Как только в эту вашу Россию начнут официально завозить робомобили, на стороне их владельцев окажется здоровенная корпорация. Которая в таких случаях будет всеми силами препятствовать оправданию упоротых генеральских сынков, пьяных депутатских любовниц и прочей вонючей швали. От предоставления адвокатов до поднятия дикой бучи в СМИ с публикацией видео из архивов пострадавшего робота.
        • 0
          На начальном этапе, безусловно. А далее?
          • +1
            А далее окажется что владелец этой компании весь лес украл.
    • +4
      > А вот как поведет себя автомобиль с такой системой в случае не предвиденных ситуация?

      Судя по комментариям, требуется помощь капитана. Вот его ответ: как его запрограммируют, так он и поведёт себя.
  • +1
    Жаль, что нет конкретики. Интересно, что они там такого в ПДД написали :)
    • +4
      На правостороннее движение переходят в связи с гугловским firmware.
  • +1
    Есть в Англии чудесный перекрёсток, фото можно найти по запросу «волшебная карусель Великобритания» (круговое движение из пяти круговых движений со встречными направлениями). Живой человек не с первого раза проедет.
    • 0
      У меня есть сильное подозрение, что робомобиль его проедет без проблем: он, в отличие от человека, смотрит во все стороны одновременно, а значит и ситуацию оценивает куда лучше. Кстати, это был бы офигенный пиар-ход со стороны Гугла: отправить их робота проехать по этому кольцу :)
    • 0
      Magic Roundabout, Swindon )
      Все просто же: каждое мини-круговое движение проезжается как отдельная зона с круговым движением. Tот, кто подъехал последним дает дорогу тому, кто подъехал первым (то есть тому, кто от тебя справа). Роботу как раз легче, это человек пытается постичь логику всей системы, когда все, что требуется — механический повтор.
  • +2
    Удивился, не найдя этой картинки в комментах:

    image

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.