Задать вопрос

Зачем давать право выбора машине?

Всем доброго времени! Недавно MIT опубликовал результаты тестов Moral Machine (Машины Морали): нужно выбирать, кого должен спасти, а кого сбить беспилотный автомобиль в аварийной ситуации. Пост по теме.

Вопрос: зачем давать выбор машине (естественно, на основании каких-либо данных), а не дать волю случаю?
  • Вопрос задан
  • 793 просмотра
Подписаться 5 Простой 18 комментариев
Решения вопроса 1
@MechanID
Админ хостинг провайдера
Тогда давайте еще круче: зачем соблюдать ПДД если можно ездить без них и дать волю случаю.
ПДД нужны для того чтобы поведение машин на дороге было более упорядоченным и предсказуемым, точно также тут машина должна соблюдать ПДД (сохраняем порядок и предсказуемость), а потом уже пытаться минимизировать ущерб (все также не нарушая ПДД).
Напомню что нарушение ПДД приводит к непредсказуемости что часто ведет к увеличению ущерба.
Ответ написан
Комментировать
Пригласить эксперта
Ответы на вопрос 7
riky
@riky
Laravel
Сергей Соколов, едете вы такой на своей новенькой автопилот-тачке, вдруг дорогу начала перебегать мышка, и авто запускает у себя русскую рулетку, задавить мышку или отправить машину вместе с вами под откос.
Ответ написан
sergiks
@sergiks Куратор тега Алгоритмы
♬♬
Эксперимент Машины Морали – пока чисто теоретический, и имеет больше отношения к исследованию общества, чем к воплощению в железе.

Поэтому прямой ответ: машине выбор никто и не даёт.
Ответ написан
Комментировать
neuotq
@neuotq
Прокрастинация
Система реагирует на события, в данном случае на ситуацию на дороге.
Вот ситуация:
Автомобиль едет, внезапно на дороге оказывается человек, перебегает, автомобиль совершает маневр для того чтобы объехать человека. А теперь представим, что в случае маневра пострадают допустим 10 человек. Вот здесь и начинается выбор. Давить того кто внезапно появился или рисковать другими 10.
Вот если этих других нет, то вопросов нет. объехали и все, но в реальной жизни бывают варианты.
При этом помимо чистой логики в человеческом обществе есть моральный и этический момент.
Ответ написан
tsklab
@tsklab
Здесь отвечаю на вопросы.
Автомобиль едет, внезапно на дороге оказывается человек, перебегает, автомобиль совершает маневр для того чтобы объехать человека.

На ru-chp.livejournal.com постоянно поднимается эта тема. И постоянно всё сводится к одному: вы обязаны тормозить до полной остановки (согласно ПДД). И никаких других вариантов.
Ответ написан
xmoonlight
@xmoonlight
https://sitecoder.blogspot.com
Вопрос: зачем давать выбор машине (естественно, на основании каких-либо данных), а не дать волю случаю?
Воля случая - это умышленно не давить на тормоз и не использовать информацию о дорожной ситуации и информацию от других участников дорожного движения?!
Немного, странно... Не правда ли?!

Под "машиной" - возможно, имеется ввиду совсем не транспортное средство, и уж точно - не какой-либо автоматический алгоритм принятия решений, а значительно более "глубокий" смысл...
Но какой?... Вот, в чём весь вопрос!
Ответ написан
Комментировать
saboteur_kiev
@saboteur_kiev
software engineer
Потому что хотят сделать автопилот, а для этого автопилот должен будет управлять автомобилем в том числе и не в стандартных ситуациях.
Если производитель просто напишет софт, который решит что надо давить бабушек, производителя засудят родственники бабушек.
А если алгоритм будет утвержден со стороны правительства, то производитель скажет, что "мой автомобиль в данных условиях сделал все согласно закону".
Ответ написан
@AlexSku
не буду отвечать из-за модератора
Решение в ПДД: просто затормозить (не меняя полосы движения), по возможности объехать препятствие или плавно съехать на обочину (не в кювет). Т.е., если возможности объезда нет (другие люди или встречные машины), то не рулить.
Микропроцессор чем хорош: люди неправильно формулируют вопрос. Не может микропроцессор увидеть два препятствия ОДНОВРЕМЕННО. Хоть на миллисекунду, но события придут последовательно. Поэтому - правило очереди: первый пришёл - первого обслуживаем. Т.е. цель - спасти первого пешехода. Но перед тем, как рулить, машина должна выбрать безопасное направление. На безопасном поначалу направлении впоследствии (пусть через долю секунды) возникает второй человек. Вот тут машина понимает, что человеческие правила были умнее её алгоритма и кого сбивать уже не важно. (наверное, второй раз она не будет рулить и собъёт второго)
Приоритеты по возрасту, полу, красоте и т.д. в расчёт не должны браться, только по количеству.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы