EngNews
Логин: 
Пароль: 
 
ГЛАВНАЯ
СОБЫТИЯ
ОТПРАВИТЬ НОВОСТЬ
КОНТАКТЫ
регистрация / забыл пароль
Главная / Этическая диллема беспилотного автомобиля
27.11.2015
Этическая диллема беспилотного автомобиляКаждый день мы принимаем решения, основанные на риске - возможно, перебегая через дорогу, чтобы сесть на автобус, если дорога спокойная. Иногда эти решения должны быть сделаны в одно мгновение, в лице страшных обстоятельств: ребенок бежит впереди вашего автомобиля, но есть и другие опасности по обе стороны, скажем - кошка и скалы. Какое решение вы примете? Будете ли вы рисковать своей собственной безопасностью, чтобы защитить других?
Теперь, с появлением автономных автомобилей, без быстрого или верного способа переопределения элементов управления (или даже отсутствия такового) производители автомобилей сталкиваются с этической алгоритмической дилеммой. Бортовые компьютеры в автомобилях уже паркуются вместо нас, ездят на круиз-контроле, и могут взять контроль в критических ситуациях безопасности. Но это означает, что они будут сталкиваться с трудным выбором, с которым иногда сталкиваются люди.

Как запрограммировать этическое исчисление компьютера?
• Рассчитать наименьшее количество травм для каждого возможного исхода, и следовать этому. Каждый живой экземпляр будет рассматриваться как то же самое.
• Рассчитать наименьшее количество травм для детей для каждого возможного исхода, и выбрать этот путь.
• Выделить определенные значения - 20 для каждого человека, 4 для кошки, 2 для собаки, и 1 для лошади. Затем вычислить общий балл для каждого из них, и взять маршрут с самой низкой оценкой. Таким образом, большая группа собак могла бы занять более высокий приоритет, чем две кошки, и автомобиль будет реагировать, чтобы спасти собак.

Что делать, если автомобиль также включает водителя и пассажиров в этой оценке, с подтекстом, что те, кто находится снаружи автомобиля, будут иметь более высокие приоритеты, чем люди в нем? Кто бы охотно сел в запрограммированный автомобиль, который может принести их в жертву при необходимости?
Недавнее исследование Жана-Франсуа Боннефона из школы экономики Тулузы во Франции предположило, что нет правильного или неправильного ответа на эти вопросы. Исследование использует несколько сотен работников, чтобы анализировать точки зрения о том, может ли один или несколько пешеходов быть сохранены, когда автомобиль сворачивает и сталкивается с препятствием, подвергая водителя травмам. Затем они варьировали количество пешеходов, которые могли бы быть спасены.
Боннефон обнаружил, что большинство людей согласились с принципом программирования автомобилей, чтобы минимизировать число жертв, но когда дело дошло до точных деталей сценариев они были менее уверены. Они были заинтересованы в использовании другими автономных автомобилей, но менее заинтересованными в случае самих себя. Таким образом, люди часто чувствуют утилитарный инстинкт, чтобы спасти жизнь других и жертвовать пассажирами автомобиля, за исключением, когда они сами являются его пассажирами.

Машинный интеллект уже появляется в наших устройствах, от телефонов до автомобилей. Intel предсказывает, что к 2020 году будет 152 миллиона связанных автомобилей, создавая более 11 петабайт данных каждый год - достаточно, чтобы заполнить более 40000 жестких дисков объемом в 250 Гб. Автомобили будут делиться данными и анализировать их в целях принятия решений на ходу.
Автор знаменитых трех законов робототехники Айзек Азимов предложил, как будущие устройства справятся с необходимостью принимать решения в опасных условиях.
• Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
• Робот должен повиноваться приказам, данными его людьми, за исключением, когда такие приказы будут противоречить Первому Закону.
• Робот должен защищать свое собственное существование, пока такая защита не противоречит Первому и Второму Законам
Он даже добавил более фундаментальный «нулевой» закон перед другими:
• Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был нанесен вред.

Азимов не стал решать этические дилеммы автокатастрофы, но с большими датчиками для сбора данных, большим количеством источников данных, и большей вычислительной мощности, решение действовать сводится к холодному акту анализа данных.
Конечно программное обеспечение, как известно, усеяно багами. Какой ущерб могут нанести злоумышленники, которые ставят под угрозу эти системы? И что происходит в точке, когда машинный интеллект берет на себя управление от человека? Будет ли он иметь право на это?
Есть еще и юридические вопросы. Что делать, если автомобиль мог вмешаться, чтобы спасти жизни, но не сделал этого? И что, если он сознательно сбил людей на основе своего этического исчисления? Мы несем подобную ответственность, когда мы водим машину, но машины следуют указаниям, так что кто (или что) несет ответственность за решение? Как мы видим, с улучшением распознавания лиц в смартфонах, мониторов в аэропортах и даже на Facebook, для компьютера не слишком сложно определить объекты и быстро рассчитать последствия в зависимости от скорости автомобиля и дорожных условий для того, чтобы рассчитать набор результатов, выбрать наилучший и действовать согласно нему. И когда он делает это, вряд ли вы будете иметь выбор в этом случае.



Новости инженерии
Новости политики
Социальные новости
Мировые происшествия
Ваши новости
Поставщики
Диллеры
Дистрибьютеры
 
Все права защищены ©
2014 - 2015 ИнжНьюз