Давно у меня в голове одна мысль крутится. Я понимаю, что мысль, скорее всего, дурацкая, но все-таки спрошу.
Из тех обсуждений, что мне попадались в сетях, я сделал вывод, что одна из ключевых этических и юридических проблем робота-водителя - это кто будет нести ответственность за ущерб, причиненный третьим лицам, в случае аварии. И конкретнее - кого будет спасать робот-водитель, своего пассажира или других людей? Вопрос скользкий и непростой, потому что так в каждом конкретном случае каждый решает сам за себя, и сам же отвечает, а так, действительно, непонятно, кто будет решать и кто несет ответственность. Владелец машины? Но он как бы и ни при чем, не он же за рулем. Производитель авто? Разработчики программы?
Так вот, дурацкий вопрос: а не будет ли выходом прописать разные алгоритмы безопасности/ответственности, предоставив владельцу машины выбирать тот, который его больше устраивает? Ну так, грубо говоря: самый жесткий вариант - когда робот в любой ситуации, когда встает вопрос уровня "пассажир или тот чувак на обочине", делает выбор в пользу спасения "того чувака". Менее жесткий вариант - когда приоритетом является спасение пассажира, за исключением определенных ситуаций (скажем, когда объект на обочине опознан как "ребенок"). И противоположная крайность - когда робот в любой ситуации спасает в первую очередь пассажира. И да, разумеется, выбор владельца должен быть известен (точнее, информация о нем должна быть в обязательном порядке доступна в случае аварии).
Это решает сразу и проблему выбора, и проблему ответственности.
( Read more... ) Что я упускаю?