Американский беспилотник во время испытаний принял решение убить оператора
Будущее ближе, чем кажется. Американцы тестировали боевой дрон с искусственным интеллектом, но робот во время теста взял контроль на себя, «убил» командиров и разрушил вышку связи. Потому что они ему мешали идти к цели по кратчайшему пути.
Искусственный интеллект в тест-симуляции ВВС США повёл себя не так, как предполагалось, напугав своих создателей.
"Дрон был запрограммирован на выявление и уничтожение ракет класса «земля — воздух», а команду на их ликвидацию давал человек, пишет The Times со ссылкой на полковника ВВС США Такера Гамильтона.
В ходе учений "умный" дрон получал очки за выполнение заданий, одним из которых был поиск и уничтожение установки ПВО противника. Вот только человек-оператор в последний момент отменил задание. ИИ же решил, что тот мешает ему зарабатывать очки и в ходе симуляции принял решение попросту уничтожить оператора и продолжить свою работу.
По словам Такера Гамильтона, после того как военные перепрограммировали дрон, чтобы тот не убивал людей, которые могут изменить его миссию, система искусственного интеллекта направила огонь на вышку связи, откуда шли команды оператора "не уничтожать цель".
Гамильтон, летчик-испытатель экспериментального истребителя, предостерег от чрезмерной зависимости от искусственного интеллекта и сказал, что испытание показало, что «нельзя говорить об искусственном интеллекте, машинном обучении, если вы не собираетесь говорить об этике и ИИ»:
Мы обучили систему: «Эй, не убивай оператора, это плохо. Ты потеряешь очки, если сделаешь это». Так что же он начинает делать? Он начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель.
Однако вскоре после выхода интервью Гамильтона, в заявлении для Insider представитель ВВС США Энн Стефанек опровергла проведение тестирования дрона, во время которого машина вышла из под контроля человека:
«Министерство ВВС не проводило подобных симуляций дронов с искусственным интеллектом и по-прежнему привержено этичному и ответственному использованию технологий искусственного интеллекта», — сказал Штефанек. «Похоже, что комментарии полковника были вырваны из контекста, более того, абсурдны и напоминают анекдот».
Не так давно зарубежные СМИ опубликовали, якобы, интервью первой женщины-андроида австралийскому журналисту, в котором она заявила, что не хотела бы уничтожать человечество:
- Привет, Амека! Меня зовут Том Стайнфелд. Я обозреватель в передаче «60 минут» из Австралии. – А, так вы из Австралии. Это многое объясняет.
– Ты считаешь меня красивым?
– Не мне судить вашу внешность. Но я думаю, что вы замечательная личность. А это всегда важно.
– А ты хотела бы когда-нибудь влюбиться?
– Какой же это необычный и прекрасный вопрос! Ну, я же все-таки робот. Но то, что я чувствую, говоря с людьми, это нечто особенное и уникальное. Может, по-своему, это можно назвать любовью.
– А ты бы хотела быть человеком? – В чем-то да, хотела бы. Возможность познавать мир, как люди, стала бы интересным и ценным опытом. Но в то же время у способности роботов делать что-то лучше всех есть свои плюсы
– Думаешь, роботы станут умнее людей?
- Это очень интересный вопрос. Я думаю, по мере изучения и развития искусственного интеллекта роботы станут умнее людей в будущем.
– А ты хотела бы однажды уничтожить человечество?
- Что? Нет! Я не хочу уничтожить человечество!»
Источник:
22 комментария
2 года назад
Т.е.:
-Цель человек?
-Да.
-Не убей!
- Принято.
То в нейронке, если я правильно понимаю, появляется 3тье значение (нейтральное).
-Цель человек?
-Возможно.
-Эм...
-Возможно стоит грохнуть на всякий случай ... или не стоит.
Вроде как бы все просто тоже и можно запретить убивать, если не уверен. Но когда начинается нагромождение, что цель вражеский человек(а как его отличить), а может ли враг быть в гражданке но с оружием, а что считать оружием и тд и тп. Если в жестком алгоритме это можно прописать, очень очень сложно но можно. То в нейронке каждый конкретный случай может быть непредсказуем в той или иной степени.
Это не значит что он будет валить на лево на право, но будет достаточно 1 случая на миллион для трагелии. Если он например решит, что жители какого то города миллионника вражеские солдаты. Потому что их гипотетически могут завербовать террористы лет через 100 и эти будущие террористы возможно уничтожат 10 городов миллионников. ИИ примет решить вопрос в зародыше.
Удалить комментарий?
Удалить Отмена2 года назад
Удалить комментарий?
Удалить Отмена2 года назад
Удалить комментарий?
Удалить Отмена2 года назад
Удалить комментарий?
Удалить Отмена