Американский беспилотник во время испытаний принял решение убить оператора
Будущее ближе, чем кажется. Американцы тестировали боевой дрон с искусственным интеллектом, но робот во время теста взял контроль на себя, «убил» командиров и разрушил вышку связи. Потому что они ему мешали идти к цели по кратчайшему пути.
Искусственный интеллект в тест-симуляции ВВС США повёл себя не так, как предполагалось, напугав своих создателей.
"Дрон был запрограммирован на выявление и уничтожение ракет класса «земля — воздух», а команду на их ликвидацию давал человек, пишет The Times со ссылкой на полковника ВВС США Такера Гамильтона.
В ходе учений "умный" дрон получал очки за выполнение заданий, одним из которых был поиск и уничтожение установки ПВО противника. Вот только человек-оператор в последний момент отменил задание. ИИ же решил, что тот мешает ему зарабатывать очки и в ходе симуляции принял решение попросту уничтожить оператора и продолжить свою работу.
По словам Такера Гамильтона, после того как военные перепрограммировали дрон, чтобы тот не убивал людей, которые могут изменить его миссию, система искусственного интеллекта направила огонь на вышку связи, откуда шли команды оператора "не уничтожать цель".
Гамильтон, летчик-испытатель экспериментального истребителя, предостерег от чрезмерной зависимости от искусственного интеллекта и сказал, что испытание показало, что «нельзя говорить об искусственном интеллекте, машинном обучении, если вы не собираетесь говорить об этике и ИИ»:
Мы обучили систему: «Эй, не убивай оператора, это плохо. Ты потеряешь очки, если сделаешь это». Так что же он начинает делать? Он начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель.
Однако вскоре после выхода интервью Гамильтона, в заявлении для Insider представитель ВВС США Энн Стефанек опровергла проведение тестирования дрона, во время которого машина вышла из под контроля человека:
«Министерство ВВС не проводило подобных симуляций дронов с искусственным интеллектом и по-прежнему привержено этичному и ответственному использованию технологий искусственного интеллекта», — сказал Штефанек. «Похоже, что комментарии полковника были вырваны из контекста, более того, абсурдны и напоминают анекдот».
Не так давно зарубежные СМИ опубликовали, якобы, интервью первой женщины-андроида австралийскому журналисту, в котором она заявила, что не хотела бы уничтожать человечество:
- Привет, Амека! Меня зовут Том Стайнфелд. Я обозреватель в передаче «60 минут» из Австралии. – А, так вы из Австралии. Это многое объясняет.
– Ты считаешь меня красивым?
– Не мне судить вашу внешность. Но я думаю, что вы замечательная личность. А это всегда важно.
– А ты хотела бы когда-нибудь влюбиться?
– Какой же это необычный и прекрасный вопрос! Ну, я же все-таки робот. Но то, что я чувствую, говоря с людьми, это нечто особенное и уникальное. Может, по-своему, это можно назвать любовью.
– А ты бы хотела быть человеком? – В чем-то да, хотела бы. Возможность познавать мир, как люди, стала бы интересным и ценным опытом. Но в то же время у способности роботов делать что-то лучше всех есть свои плюсы
– Думаешь, роботы станут умнее людей?
- Это очень интересный вопрос. Я думаю, по мере изучения и развития искусственного интеллекта роботы станут умнее людей в будущем.
– А ты хотела бы однажды уничтожить человечество?
- Что? Нет! Я не хочу уничтожить человечество!»
Источник:
22 комментария
2 года назад
Такая юная, а уже врет
Удалить комментарий?
Удалить Отмена2 года назад
Удалить комментарий?
Удалить Отмена2 года назад
Я когда-то в 90-х уже пытался запрограммировать ИИ. Но наткнулся на множество логических противоречий в алгоритме, где вопрос решает ИМЕННО ЧЕЛОВЕЧЕСКОЕ восприятие.
Там нет логики и это невозможно запрограммировать. Всё идёт на ЭМОЦИЯХ.
Вспомните сцену из фильма "Я - робот", когда робот спасает человека из тонущей машины. Он прорабатывал проценты по спасению, игнорируя просьбы спасаемого. То есть роботу не свойственны понятия "любовь" и "привязанность".
Это реально нереально прописать в кодах. Уж поверьте. Отсюда и ошибки в алгоритмах. ИИ никогда не сможет стать идентичным аналогом человеческому мышлению.
НИ-КОГ-ДА!!!!
Удалить комментарий?
Удалить Отмена