Полная версия Тех. поддержка Горячее Лучшее Новое Сообщества
Войти
Ностальгия Тесты Солянка Авто Демотиваторы Фото Открытки Анекдоты Видео Гифки Антифишки Девушки Кино Футбол Истории Солянка для майдана Ад'ок Еда Кубики Военное Книги Спорт Наука Игры Путешествия Лица проекта Юмор Селфи для фишек Факты FAQ Животные Закрыли доступ? Предложения проекту Фишкины серверы CS:GO Реклама на фишках

Ученые предложили выбрать, кого должен убить беспилотный автомобиль (3 фото)

МаргаритаБеляева
16 мая 2017 18:35
Эксперты хотят понять, как научить самоуправляемые автомобили принимать правильные решения с точки зрения морали.

Представьте, что у вашего автомобиля отказали тормоза. И перед вами встаёт выбор: сбить переходящих дорогу пожилых людей или свернуть в сторону, задавив женщину с коляской. А что в такой ситуации должен сделать беспилотный автомобиль, задались вопросом в Массачусетском технологическом институте США. Ученые решили выяснить, как беспилотные автомобили должны решать вопрос о жизни и смерти, не идя в разрез с общественной моралью.

Для того, чтобы понять, как поступили бы люди в той или иной критической ситуации, сотрудники института разработали специальную игру «Moral Machine».
Тест доступен для всех желающих, в том числе и на русском языке. В игре моделируется ситуация, когда самоуправляемый автомобиль вышел из-под контроля, а искусственный интеллект должен сделать свой выбор.

Всего в тесте представлено 13 ситуаций, в каждой из которых необходимо решить кого- пешеходов или пассажиров- оставить в живых. Авторы проекта намерены через ответы реальных пользователей понять, какая моральная оценка общества на то или иное действие. Это понимание, считают ученые, в будущем позволят смоделировать возможное поведение компьютера, управляющего беспилотником.

Например, пользователю предлагается выбрать кто из 2 двух людей – молодой или пожилой человек – должен остаться в живых, а на кого наедет автомобиль.
Кроме того, в тесте предлагается выбрать между жизнью человека и животного или жизнью водителя и пешехода.

На сегодняшний день Moral Machine набрала уже более 11 млн. возможных сценариев поведения.

Источник: moralmachine.mit.edu

Канал Fishki.net в Telegram

Понравился пост? Поддержи Фишки, нажми:
8441
294
79
40
А что вы думаете об этом?
Показать 294 комментария
Самые фишки на Фишках