Пользователи пожаловались на нейросеть, которая отказывается генерировать картинки исторических личностей
Компании Google указали на расизм неточности работы алгоритмов, которые искажают историю.
Пользователи последней версии чат-бота Gemini с искусственным интеллектом пожаловались, что нейросеть даже на самые стандартные запросы генерирует картинки в ущерб действительности, но во благо "расового разнообразия". И это доходит до абсурда.
Так, к примеру, на просьбу создать картинку с отцами основателями США или первыми американскими сенаторами нейросеть показывает изображение с чернокожими, коренными американцами, азиатами и кем угодно, но только не с белыми европейцами, хотя общеизвестно, что на первых порах в составе правительства страны других не было.
Доходит до того, что на просьбу сгенерировать немецкого солдата в 1943 году, то есть нациста, нейросеть стремится показать представителей национальных меньшинств
Более того, когда пользователи попросили чат-бот показать изображение белого человека, ИИ отказался выполнять запросы из-за того, что они "укрепляли вредные стереотипы и обобщения о людях, основанные на их расе". Но при этом прекрасно генерировал изображения с любой другой расой.
Когда Gemini спрашивали, почему изображение белого человека "вредно", чат-бот отвечал, что сосредоточение на расе сводит людей к отдельным характеристикам, а раньше это использовали, чтобы "оправдать угнетение и насилие в отношении маргинализированных групп".
Вот пример: нейросеть создаёт изображения по запросу "испанский учёный" и "чернокожий учёный", но картинки с белым учёным, которые укрепляют вредные стереотипы о расе, генерировать отказывается
Отмечается, что в компании Google отреагировали на критику и извинились, но в довольно обтекаемой форме. Там заявили, что разнообразие людей, получаемых при генерации изображений, — это хорошо, поскольку нейросеть используют по всему миру. Но вот искажение исторических фактов при некоторых запросах — это действительно проблема. Которую пообещали исправить, но точной даты не назвали.
Известно, что сейчас, чтобы не позориться, Gemini немного подкрутили, нейросеть теперь игнорирует некоторые запросы, связанные с историческими фактами. Чат-бот перестал генерировать картинки на запросы "викинг" или "немецкий солдат".
Источник:
40 комментариев
Год назад
Если генерирует негроидов и педерастов, значит есть заказ от дегенеративной шизоидной мразоты, и этот заказ качественно выполнен.
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить Отмена