Эксперты предупредили о скором исчезновении человечества из-за развития искусственного интеллекта
На пользу ИИ никому не пойдёт. Как бы не пытались успокоить общественность.
Американские эксперты из Центра безопасности искусственного интеллекта встревожены. Они считают, что развитие ИИ уничтожит человечество.
Эти эксперты - вполне известные в мире IT персоны: гендиректор компании Open AI и программист Сэм Олтмен, один из разработчиков ИИ британский ученый Джеффри Хинтон и ещё куча экономистов, философов и математиков. Все они соглашаются с тем, что если сейчас не взять развитие ИИ под контроль, скоро наступит всеобщий и неисправимый карачун. Причём всем.
Илон Маск
С ними согласен и «фронтмен» ИИ, да и всей айтишной отрасли - Илон Маск. Даже он, борец за всеобщую свободу от всего на свете считает, что развитие ИИ надо тормознуть. Для начала - на 6 месяцев, а там посмотрим. По этому поводу он опубликовал открытое письмо, которое подписали более тысячи исследователей.
Эту инициативу прокомментировал главный аналитик Центра прикладных систем искусственного интеллекта МФТИ Игорь Пивоваров. Он присоединился к Маску и учёным:
Поддерживаю эту историю, мне она кажется разумной. За последнее время модели искусственного интеллекта становятся все больше, а мы все меньше понимаем, что происходит внутри. Модель выдала определенный результат, а мы банально не можем осознать, как она это сделала.
Он сообщил, что при разработках больших моделей на основе ИИ существует три главных риска: массовая безработица, усиление расслоения на бедных и сверхбогатых, и «сильный ИИ», который станет «эволюционным конкурентом человека».
Уже сегодня модели класса GPT-4 способны обучить примерно пять компаний в мире. Даже далеко не все страны имеют такие возможности, как эти компании. И когда такие модели начнут активно применяться, то выгода от их деятельности грозит огромным социальным напряжением — единицы компаний и стран получат колоссальное преимущество.
Насчёт угроз человечеству - это не пустые слова. И одной безработицей дело может не ограничиться. Вот случай из США: военные проводили испытания с беспилотником и ИИ. Дрону поставили задачу - искать и уничтожать системы ПВО теоретического противника. За каждую уничтоженную единицу техники начислялись очки. Но был нюанс: как только машина находила технику и собиралась её ликвидировать, к дрону подключался оператор и приказывал не уничтожать противника. По легенде эксперимента этот оператор был живым человеком и сидел в передвижном фургоне на земле. У дрона возник конфликт задач: с одной стороны, он должен ликвидировать противника, с другой - постоянно получал приказ этого не делать. И когда вернулся на базу - уничтожил фургон с оператором. Так сказать, решил задачу на 5+.
Машина посчитала, что основную угрозу ей несёт не противник, а человек, который мешает выполнять задание. Тогда в фургоне никого не было, никто не пострадал. Но случай показательный.
Как рассказал полковник Такер Гамильтон, начальник отдела тестирования и эксплуатации ИИ в ВВС США:
Система начала понимать, что, хотя они и идентифицировали угрозу, иногда человек-оператор говорил ей не устранять эту угрозу, но она получала свои очки, устраняя эту угрозу. Так что же она сделала? Она убила оператора. Она убила оператора, потому что этот человек мешал ей достичь своей цели.
Самое интересное, сейчас толком не понимают, к чему всё приведёт. Все увлечённо рассуждают об угрозах/возможностях ИИ, но вот чем или даже кем он станет в ближайшем будущем - этого не знает никто.
Источник:
43 комментария
2 года назад
Удалить комментарий?
Удалить Отмена2 года назад
Удалить комментарий?
Удалить Отмена2 года назад
Удалить комментарий?
Удалить Отмена