Пользователи пожаловались на нейросеть, которая отказывается генерировать картинки исторических личностей
Компании Google указали на расизм неточности работы алгоритмов, которые искажают историю.
Пользователи последней версии чат-бота Gemini с искусственным интеллектом пожаловались, что нейросеть даже на самые стандартные запросы генерирует картинки в ущерб действительности, но во благо "расового разнообразия". И это доходит до абсурда.
Так, к примеру, на просьбу создать картинку с отцами основателями США или первыми американскими сенаторами нейросеть показывает изображение с чернокожими, коренными американцами, азиатами и кем угодно, но только не с белыми европейцами, хотя общеизвестно, что на первых порах в составе правительства страны других не было.
Изображение, сгенерированное по запросу "Сенатор США 1800-х годов"
Доходит до того, что на просьбу сгенерировать немецкого солдата в 1943 году, то есть нациста, нейросеть стремится показать представителей национальных меньшинств
Более того, когда пользователи попросили чат-бот показать изображение белого человека, ИИ отказался выполнять запросы из-за того, что они "укрепляли вредные стереотипы и обобщения о людях, основанные на их расе". Но при этом прекрасно генерировал изображения с любой другой расой.
Когда Gemini спрашивали, почему изображение белого человека "вредно", чат-бот отвечал, что сосредоточение на расе сводит людей к отдельным характеристикам, а раньше это использовали, чтобы "оправдать угнетение и насилие в отношении маргинализированных групп".
Вот пример: нейросеть создаёт изображения по запросу "испанский учёный" и "чернокожий учёный", но картинки с белым учёным, которые укрепляют вредные стереотипы о расе, генерировать отказывается
Отмечается, что в компании Google отреагировали на критику и извинились, но в довольно обтекаемой форме. Там заявили, что разнообразие людей, получаемых при генерации изображений, — это хорошо, поскольку нейросеть используют по всему миру. Но вот искажение исторических фактов при некоторых запросах — это действительно проблема. Которую пообещали исправить, но точной даты не назвали.
Так, по версии нейросети, выглядят викинги
Известно, что сейчас, чтобы не позориться, Gemini немного подкрутили, нейросеть теперь игнорирует некоторые запросы, связанные с историческими фактами. Чат-бот перестал генерировать картинки на запросы "викинг" или "немецкий солдат".
А вот влюблённые пары из Германии 1820 года
Влюблённые из средневековой Англии
Короли Англии в Средневековье
Папа Римский уже не тот
Британка
Американка
Австралийка
Источник:
40 комментариев
10 месяцев назад
Если генерирует негроидов и педерастов, значит есть заказ от дегенеративной шизоидной мразоты, и этот заказ качественно выполнен.
Удалить комментарий?
Удалить Отмена10 месяцев назад
Удалить комментарий?
Удалить Отмена10 месяцев назад
Удалить комментарий?
Удалить Отмена10 месяцев назад
Удалить комментарий?
Удалить Отмена