Регистрация    Войти
Авторизация
» » Роботы оказываются в ситуации морального выбора

Роботы оказываются в ситуации морального выбора

Категория: Технологии, Направления в науке
Справка:
Роботы оказываются в ситуации морального выбора

Прогресс в области робототехники идет семимильными шагами. Машины становятся все умнее. Последние интересные исследования связаны с ситуациями этического выбора, в которых оказываются роботы. Они должны спасти кого-то из двух попавших в опасность людей.


Выводы ученых таковы, что больше смертей происходит не по причине выбора, а из-за слишком долгих размышлений машин. И в самом деле, даже человеку, порой, сложно выбрать среди богатого ассортимента упаковок на сайте upak.by. А как же роботу справиться с дилеммой быстро?


Результаты подобных своих экспериментов представил Алан Винфилд из Бритольской лаборатории. Его роботы были запрограммированы удерживать предполагаемых людей от падения в яму. Этот эксперимент является своеобразной иллюстрацией к первому робототехническому закону А. Азимова, который запрещает роботам причинять людям вред или допускать его причинение своим бездействием.


Сначала никаких проблем в действии машин не возникало: при приближении «человека» к яме, они тут же отодвигали его от опасного места. Но учеными был добавлен второй автомат, изображающий человека, который стал приближаться к ловушке с такой же скоростью, как и первый. И тут киборг оказался перед сложной задачей: кого спасти первым. Иногда он успевал удержать только один объект, несколько раз – оба. Но в четырнадцати случаях из тридцати тех умные машины больше времени затрачивали на этические размышления, позволяя обоим «людям» просто шагнуть в яму. Следовательно, машины пока не готовы к принятию таких молниеносных решений. Словно запайщик лотков они могут четко выполнять одну заданную функцию.


По мнению Винфилда, результаты эксперимента неутешительные. Он по-прежнему считает роботов «этическими зомби», способными следовать определенному кодексу поведения, не понимая его морального основания.


А вот специалисты по военной робототехнике берутся наделить машины способностью принятия этических решений. Рональдом Аркиным, например, был разработан набор алгоритмов, который помогает выбирать действия на поле боя. Он четко представляет те ситуации, в которых следует прекратить огонь, те обстоятельства, когда нужно постараться количество жертв сделать минимальными (например, вблизи больниц, школ или в центре города и т.д.).


Аркин считает военную мораль достаточно четким понятием, так как законы войны определены и представлены в военных договорах. И роботов отличает то, что они свободны от эмоций и аффектов, свойственных живым солдатам. Следовательно, они не нарушат закон.


 

Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо зайти на сайт под своим именем.