Чем отличаются современные роботы от людей?

23.09.2014 в 15:02

С учетом того, что роботы-андроиды, роботы-автомобили и роботы других видов все больше и больше входят в нашу повседневную жизнь, люди все больше задумываются о том, чем это все может быть чревато для них самих. В принципе, существующие нормы этики и морали не очень сложно оформить в виде наборов неких правил, запрограммировать их и зашить в "мозги" всех роботов. Но в окружающем нас мире очень часто случаются ситуации, когда возникает необходимость сделать быстро непростой выбор, руководствуясь исключительно собственными внутренними нормами и понятиями. И если в случае с человеком выбор будет определен внутренним миром этого человека, то, что в таком случае будет делать робот, не имеющий точных инструкций на такие случаи? Найти ответ на этот сложный вопрос попробовал исследователь-робототехник Алан Винфилд (Alan Winfield) из Лаборатории робототехники, Бристоль, Великобритания.

Алан Винфилд и его коллеги построили своего рода этическую ловушку для роботов. Подопытный робот был запрограммирован таким образом, чтобы своими действиями воспрепятствовать другим роботам, изображающим из себя людей, упасть в яму. В принципе, эта ловушка является упрощенной интерпретацией второй части Первого закона робототехники Айзека Азимова, который звучит следующим образом - "Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред".

Сначала робот-спасатель успешно справлялся со своей задачей. Когда робот, изображающий человека, начинал двигаться к яме, робот-спасатель успешно отталкивал второго робота, смещая его с опасной траектории движения. Но самое интересное началось в тот момент, когда исследователи ввели на поле еще одного робота, изображающего человека, что поставило робота-спасателя перед проблемой выбора. В результате этого ситуации на игровом поле начали происходить по совершенно непредсказуемым сценариям, в одних случаях роботу удавалось спасти обоих "людей", в других - только одного, а в третьих случаях - ни одного. А в 14 случаях из 33 попыток робот-спасатель, "узрев" второго "человека" просто зависал, его программа так и не смогла сделать выбор в пользу одного или другого "человека", в результате чего они оба упали в яму.

Результаты проведенных экспериментов, по мнению Алана Винфилда, указывают на то, что все современные роботы являются "нравственными зомби", которые не способны сделать своего собственного выбора. Конечно, такую ситуацию можно решить путем существенного расширения запрограммированного набора правил поведения, но роботы в любом случае будут просто выполнять эти правила, не понимая рассуждений, этических и моральных норм, стоящих позади этих правил.

www.dailytechinfo.org

Добавить комментарий
Комментарии доступны в наших Telegram и instagram.
Новости
Архив
Новости Отовсюду
Архив