Всё уже придумано до автопилота. "Принцип автобуса". Если дистанция недостаточна для спокойного полного торможения с текущей скорости, то запрещается даже просто резкое торможение, чтобы ещё не усугубить нештатную ситуацию: не успев оттормозиться и сбив прохожих, покалечить ещё и своих пассажиров. Маневрировать ещё опаснее. Можно перевернуться и задавить пешеходов вообще обоих полос, а своих пассажиров покалечить только сильнее. Так что, пешеходам на полосе автобуса, создавшим такую ситуацию, или оказавшимся под угрозой не по своей вине (отказ тормозов, например), на всякий случай, мои соболезнования.
Речь не об этом, а о том, что никто не будет увеличивать риск. А увеличение риска, это изменение действий на что либо другое, кроме простого и эффективного прямого торможения.
Цитата: "Робот не может принимать нерациональных решений, при этом однажды ему придётся выбирать, кого оставить в живых, а кого убить."
Робот — прежде всего механизм, выполняющий заложенную в него программу. Он не может, и не будет ничего выбирать, если это не заложено в его программе. Т.е. если разработчик не учел возможность возникновения такой ситуации, то и робот НИЧЕГО выбирать не будет. Соответственно он (робот) будет следовать лишь тем инструкциям, которые в него заложены; и согласно приоритетам, которые заложил разработчик.
В реале, думаю, данная ситуация будет выглядеть так: разработчики постараются любыми способами избежать возникновения ситуаций со смертельным исходом вплоть до ограничения скорости движения таких автопилотов до скоростей, безопасных для всех участников движения.
Значит я не нормальный :)))
Я программист АСУТП и моим коллегам придется как раз и писать программу для этих роботов.
И лично мне не хочется считать себя виноватым за "плохо" написанный алгоритм.
Введу того что лично я не вижу решения этой задачи то и не возьмусь за ее написание по этические соображениям. Не хочу взваливать ее решение только на себя.
Да и не вправе наверное.
Недавно еду перекресток 7 полосный, перебегает пара с коляской! надеялся, что они наркоманы и наркотики в коляске везли, в здравом уме кто будет перекресток с колякой перебегать?
никого сознательно давить не надо. программы для автопилота надо составлять так чтобы максимально уменьшить вероятность наезда — как основной приоритет. всё равно, сколько бы датчиков на машину не навешивали, полной гарантии безопасности не добиться
Новости от 14.07.2026 г.
Вечером 14 июля на набережную Ниццы, где собралось множество людей, отмечающих национальный праздник День взятия Бастилии, на полной скорости въехал грузовик. Его водитель давил всех попадавшихся ему на пути на протяжении почти двух километров, прежде чем его застрелили. Но так как "застреленный" водитель оказался роботом, то он выжил, перезагрузился и, нажав на газ, продолжил давить неверных.
Незадолго до этого хакеры выложили измененную прошивку для автопилотов-террористов на сайт АутоЛикс. Тем временем ученые и юристы всех стран продолжают обсуждать этические проблемы автопилотов...
Продолжение следует.
Теперь фраученые
«Я видел, как полицейские действовали чрезвычайно мужественно, пойдя на перехват», — сказал политик. По его словам, «на грузовик прыгнул человек, чтобы его остановить». «Именно в этот момент полиция смогла нейтрализовать террориста. Я не забуду взгляд этой женщины-полицейского, которая остановила убийцу», — рассказал Чиотти, который также возглавляет совет департамента Приморские Альпы, в котором расположена Ницца.
Как я понимаю, проблема надумана. Во первых — адекватный водитель снижает скорость при подъезде к пешеходному переходу. Особенно, если видимость ограничена стоящими у обочины машинами. Во вторых — программе легче оценить скорость и безопасную дистанцию торможения в случае внезапного появления пешехода на зебре.
P.S. Такая проблема может возникнуть ТОЛЬКО в том случае, если программу автопилота будет писать обезбашенный гонщик.
А каким образом автопилот посчитает кого сбивать, а кого обруливать? Чиповать всех и присваивать коэфф. полезности?
ИМХО, алгоритм должен быть как у обычного водителя: увидел препятствие — тормозное усилие в зависимости от дистанции. Перестроения — по ситуации. Ну и скорость в зависимости от вероятности возникновения — у переходов меньше, на широких улицах больше.
да, нужна логика правильная — оценка репродуктивности потенциальной жертвы. Как известно в черезвычайных ситуациях сначала нужно спасать репродуктивных женщин, дети на втором месте пожилые — в конце.
Логика такая, что женщина может еще детей нарожать, а дети — кто их знает, что с ними случится до того, как они репродуктивного возраста достигнут.
Для робота задача слегка усложница — он должен провести скоросной анализ репродуктивности, включая возраст, здоровье, фригидность, наследственность и прочее...
Комментарии
Робот — прежде всего механизм, выполняющий заложенную в него программу. Он не может, и не будет ничего выбирать, если это не заложено в его программе. Т.е. если разработчик не учел возможность возникновения такой ситуации, то и робот НИЧЕГО выбирать не будет. Соответственно он (робот) будет следовать лишь тем инструкциям, которые в него заложены; и согласно приоритетам, которые заложил разработчик.
В реале, думаю, данная ситуация будет выглядеть так: разработчики постараются любыми способами избежать возникновения ситуаций со смертельным исходом вплоть до ограничения скорости движения таких автопилотов до скоростей, безопасных для всех участников движения.
Я программист АСУТП и моим коллегам придется как раз и писать программу для этих роботов.
И лично мне не хочется считать себя виноватым за "плохо" написанный алгоритм.
Введу того что лично я не вижу решения этой задачи то и не возьмусь за ее написание по этические соображениям. Не хочу взваливать ее решение только на себя.
Да и не вправе наверное.
Вечером 14 июля на набережную Ниццы, где собралось множество людей, отмечающих национальный праздник День взятия Бастилии, на полной скорости въехал грузовик. Его водитель давил всех попадавшихся ему на пути на протяжении почти двух километров, прежде чем его застрелили. Но так как "застреленный" водитель оказался роботом, то он выжил, перезагрузился и, нажав на газ, продолжил давить неверных.
Незадолго до этого хакеры выложили измененную прошивку для автопилотов-террористов на сайт АутоЛикс. Тем временем ученые и юристы всех стран продолжают обсуждать этические проблемы автопилотов...
Продолжение следует.
Теперь фраученые
«Я видел, как полицейские действовали чрезвычайно мужественно, пойдя на перехват», — сказал политик. По его словам, «на грузовик прыгнул человек, чтобы его остановить». «Именно в этот момент полиция смогла нейтрализовать террориста. Я не забуду взгляд этой женщины-полицейского, которая остановила убийцу», — рассказал Чиотти, который также возглавляет совет департамента Приморские Альпы, в котором расположена Ницца.
P.S. Такая проблема может возникнуть ТОЛЬКО в том случае, если программу автопилота будет писать обезбашенный гонщик.
ИМХО, алгоритм должен быть как у обычного водителя: увидел препятствие — тормозное усилие в зависимости от дистанции. Перестроения — по ситуации. Ну и скорость в зависимости от вероятности возникновения — у переходов меньше, на широких улицах больше.
Логика такая, что женщина может еще детей нарожать, а дети — кто их знает, что с ними случится до того, как они репродуктивного возраста достигнут.
Для робота задача слегка усложница — он должен провести скоросной анализ репродуктивности, включая возраст, здоровье, фригидность, наследственность и прочее...
у человека на автопилоте (пьяным) проблем нет