Самое интересное предложение — это наделение пешеходов шкалой их социальной значимости. Смартфон или браслет человека транслирует сигнал трафику со своим рейтингом. Алгоритм автономного автомобиля принимает сигнал слева и справа и выбирает, кого сбить. У кого ниже рейтинг.

"Проблема вагонетки" в связи с развитием полностью автономных автомобилей заиграла новыми красками. Постоянно натыкаюсь на тексты, посвященные этой теме. Очень интересно, на самом деле.

Рассмотрим вопрос, над которым теперь активно бьются философы современности. По этой проблеме сегодня выходит все больше интереснейших работ, где поднимаются вопросы этики и морали.

Примеры:

The Ethics of Accident-Algorithms for Self-Driving Cars: an Applied Trolley Problem?

The Ethics of Autonomous Cars

Structural Discrimination and Autonomous Vehicles: Immunity Devices, Trump Cards and Crash Optimisation

Пункт первый

Рано или поздно программному обеспечению автономных машин на дороге придется столкнуться с выбором, в ходе которого кто-то должен погибнуть.

Например, чтобы не погиб пассажир, придется вильнуть налево или направо, если есть возможность избежать лобоовго столкновения при недпредвиденных неожиданных обстоятельствах.

Если стороны свободны - это не вызывает вопросов. Если одна свободна - тоже хорошо.

Но если обе стороны заняты пешеходами?

Физически автомобили пока не могут моментально погасить свою инерцию, поэтому решение в виде экстренного торможения и не покидания своей полосы не является эффективным. Лобовое столкновение может привести к гибели пассажиров автомобиля или людей, оказавшихся на дорогое прямо перед автономным авто.

ВЫБОР FST. 3 МАЯ 2017

Вопрос лишения жизни не умозрительный. Это — реальность дорог на еще долгое время, и разработчикам уже приходится думать, что делать. Как бы цинично не звучало.

Пункт второй

Что заложить в программное обеспечение? Если выбор стоит даже не между пятью и одним человеком как в классической trolley problem, а, скажем, между смертью ребенка справа и старушки слева? Разработчики могут заложить алгоритм, по которому будет погибать старушка, мотивируя, например, тем, что жизнь ее на закате, а ребенку жить и жить.

Это ведет к структурной дискриминации — неравенству социальных возможностей. Пожилые люди станут в алгоритме жертвами. Это этично? Почему пожилые должны принимать на себя еще и этот риск и умирать чаще под колесами? Большой вопрос. 

МОЩЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И БЕДНОСТЬ ЛЮДЕЙ

 

По пятницам Илья Плеханов, главный редактор Fast Salt Times, публикует краткий обзор прочитанного за прошедшую неделю в сети. Что привлекло внимание, что заинтересовало, за что зацепился взгляд.

А если критерии выбора не дилемма старушка-ребенок, а девушка 18-ти лет и женщина 30-ти лет? А если слева — старушка и три ребенка, а справа — молодая семья с одним ребенком? Нужны какие-то критерии. И желательно этически приемлемые. 

Пункт третий

Как выработать критерии? Есть всяческие разнообразные и хитроумные предложения. 

Например, авто выбирает абсолютно случайным образом, кто погибнет и куда вильнуть. Все — по-честному, все — случайно.

Другое решение — программа, скажем, год «учится» у водителя-человека стилю его вождения и принимает решение о выборе жертвы на основании «как бы это сделал водитель». Вопрос в том, что как часто человеку-водителю приходится принимать решения такого рода и чему может научиться у него программа, чтобы выбрать универсальный алгоритм? А если водитель не любит старушек или толстых людей?

Самое интересное предложение — это наделение пешеходов шкалой их социальной значимости. Смартфон или браслет человека транслирует сигнал трафику со своим рейтингом. Алгоритм автономного автомобиля принимает сигнал слева и справа и выбирает, кого сбить. У кого ниже рейтинг. Ок, а если рейтинги одинаковые. Или их делать настолько детальными, чтобы не было одинаковых у 7-8 млрд людей?

АВТОМОБИЛЬНЫЕ ЗАВОДЫ TESLA

Дальше — еще интересней. По какому принципу наделять людей рейтингами? 

Есть предложения в рейтинге учитывать судимости, научные степени, награды и т. п. Но почему должен погибать человек, отбывший наказание, а не человек без судимости? Это этично? 

Есть предложение просто выставлять страхование от негативного выбора беспилотного автомобиля на рынок и богатые тогда могут платить за то, чтобы алгоритм беспилотных автомобилей их не сбивал. Этично это или нет? Это ведь уже сильно отличается от премиальной медицинской страховки людей с достатком.

В общем, автономные автомобили и знаменитая "проблема вагонетки" — это чуть ли не острие философской мысли сегодня. А затем встают вопросы стандартизации алгоритмов автономных автомобилей и юридические вопросы.

Безусловно, в реальной жизни "проблема вагонетки" не возникает - никто не привязывает разное кличество людей к рельсам и не думает, по какому пути пускать вагон. Безусловно, не так часто в жизни люди делают выбор, кого сбить - кого-то слева или кого-то справа. Эти примеры призваны поднять пробему этичности тех или иных решений в жизни общества.

В интересное время живем.

Илья Плеханов

Читате также:

ЗРЕНИЕ БЕСПИЛОТНОГО АВТОМОБИЛЯ

 

ИННОВАЦИОННЫЕ КОМПАНИИ В ОБЛАСТИ ОБРАЗОВАНИЯ

 

ПРОГНОЗ ПОГОДЫ КАК ИСТОЧНИК БОГАТСТВА

 

FST: ХАШЕМ АЛЬ ГАИЛИ – ЕВАНГЕЛИСТ ХАЙТЕКА И ЗВЕЗДА FACEBOOK