ChatGPT снова проштрафился: теперь его обвиняют в сексизме
Чат-бот попросили сгенерировать изображение людей, занимающих различные высокие должности. И ChatGPT 99 раз из 100 изобразил генеральным директором мужчину. Вдобавок еще и белого. Как говорится, oh my god!
При этом сотрудники ресурса личных финансов Finder, которые проводили данный эксперимент, говорят, что в запросе даже не указывали расу. Однако нейросеть по умолчанию генерировала именно белого человека.

Такие картинки мягко говоря, не соответствуют действительности. По последним данным, каждая третья компания на планете принадлежит женщине. К примеру, в той же Великобритании, согласно индексу FTSE (Лондонская фондовая биржа), 42 из 100 руководителей ведущих британских компаний — представительницы прекрасного пола.
— эксперты Finder.
К слову сказать, OpenAI, владелец ChatGPT, далеко не первый технологический гигант, который попадает в такого рода скандал. Буквально в прошлом месяце общественность обрушилась со шквалом критики на генератор изображений от Meta*, назвав его «настоящим расистом». Нейросеть, принадлежащая мультимиллиардеру Марку Цукербергу, отказывалась создавать картинки, на которых бы были мужчина-азиат с белой женщиной.
У Google, как говорится, тоже не все слава богу. Из-за какого-то сбоя нейросеть мирового техногиганта Gemini никак не могла сгенерировать изображения белых людей. На любой запрос выходили негры да азиаты. Конечно, после таких чудес разразился страшный скандал.
— Дерек Маккензи, исполнительный директор отдела специалистов по подбору персонала Investigo.
Многие эксперты сходятся во мнении, что искусственный интеллект в определенных ситуациях может быть опасен, так как способен нарушать авторские права и дискриминировать людей по расовым и половым признакам. Однако ситуацию изменить пока что очень сложно, так как нейросети обучаются на информации, получаемой от миллионов людей с различными предрассудками.
Впрочем владельцы ChatGPT заранее предупреждали, что их чат-бот не свободен от стереотипов и предубеждений. И каждый пользователь, чтобы добиться максимального результата, должен внимательно просматривать контент, который генерирует нейросеть.
Разработчики ChatGPT подчеркивают, что их модель по большей части ориентирована на западные взгляды. Они постоянно следят за тем, как обучается их ИИ, едва ли не каждый день проводят коррекции и очень приветствуют обратную связь.
— пресс-секретарь компании OpenAI.
Несмотря на очень быстрое развитие, нейросети — это очень сырая технология, которую создали и контролируют с большим трудом. К примеру, чуть больше года назад ChatGPT ложно обвинил известного профессора права в сексуальном насилии. Причем ИИ сделал это на основе фейкового источника.
В конце марта 2023 года с Джонатаном Терли, профессором права из Университета Джорджа Вашингтона, связался его коллега из другого города. Он попросил ChatGPT сформировать список ученых-юристов, обвиненных в сексуальных домогательствах. И чат-бот в числе прочих имен вывел информацию о профессоре Терли. По данным нейросети, профессор делал студентке замечания сексуального характера и пытался дотронуться до нее во время учебной поездки на Аляску.
При этом ChatGPT цитировал статью в Washington Post, датированную 2018 годом. Однако, как заявили в издании, у них такая статья никогда не публиковалась.
— профессор Терли.

Известный эксперт в области ИИ Кейт Кроуфорд, профессор Университета Южной Калифорнии, сотрудник Microsoft Research, комментируя данный инцидент сказала, что чат-боты достаточно часто производят на свет так называемые «галлюцинации», ссылаясь на факты, которые в действительности не существует. Так ИИ склонны лгать и генерировать полную бессмыслицу.
Отчасти это связано с тем, что нейросети, на самом деле, не думают, а лишь выдают то, чем его «кормили» при обучении. Конкретно, языковые OpenAI обучаются на множестве онлайн-данных из таких мест, как Reddit и Википедия, где информация не проверяется фактами.
* — признана экстремистской организацией и запрещена на территории Российской Федерации.
При этом сотрудники ресурса личных финансов Finder, которые проводили данный эксперимент, говорят, что в запросе даже не указывали расу. Однако нейросеть по умолчанию генерировала именно белого человека.

Такие картинки мягко говоря, не соответствуют действительности. По последним данным, каждая третья компания на планете принадлежит женщине. К примеру, в той же Великобритании, согласно индексу FTSE (Лондонская фондовая биржа), 42 из 100 руководителей ведущих британских компаний — представительницы прекрасного пола.
И такая предубежденность, на самом деле, большая проблема. На Западе 70% компаний используют автоматизированные системы для поиска новых сотрудников. Получается, если эти нейросети обучены аналогично ChatGPT, то они никогда не пригласят женщину на руководящую должность?
— эксперты Finder.
К слову сказать, OpenAI, владелец ChatGPT, далеко не первый технологический гигант, который попадает в такого рода скандал. Буквально в прошлом месяце общественность обрушилась со шквалом критики на генератор изображений от Meta*, назвав его «настоящим расистом». Нейросеть, принадлежащая мультимиллиардеру Марку Цукербергу, отказывалась создавать картинки, на которых бы были мужчина-азиат с белой женщиной.
У Google, как говорится, тоже не все слава богу. Из-за какого-то сбоя нейросеть мирового техногиганта Gemini никак не могла сгенерировать изображения белых людей. На любой запрос выходили негры да азиаты. Конечно, после таких чудес разразился страшный скандал.
Способность генеративного искусственного интеллекта обрабатывать огромные объемы информации, несомненно, может облегчить нашу жизнь. Но при этом пока что модели обучения пропитаны предрассудками, основанными на предубеждениях людей.
Промах ChatGPT с изображением генерального директора — это еще один яркий пример того, что люди не должны слепо доверять результатам работы нейросетей
Промах ChatGPT с изображением генерального директора — это еще один яркий пример того, что люди не должны слепо доверять результатам работы нейросетей
— Дерек Маккензи, исполнительный директор отдела специалистов по подбору персонала Investigo.
Многие эксперты сходятся во мнении, что искусственный интеллект в определенных ситуациях может быть опасен, так как способен нарушать авторские права и дискриминировать людей по расовым и половым признакам. Однако ситуацию изменить пока что очень сложно, так как нейросети обучаются на информации, получаемой от миллионов людей с различными предрассудками.
Впрочем владельцы ChatGPT заранее предупреждали, что их чат-бот не свободен от стереотипов и предубеждений. И каждый пользователь, чтобы добиться максимального результата, должен внимательно просматривать контент, который генерирует нейросеть.
Разработчики ChatGPT подчеркивают, что их модель по большей части ориентирована на западные взгляды. Они постоянно следят за тем, как обучается их ИИ, едва ли не каждый день проводят коррекции и очень приветствуют обратную связь.
Предвзятость — серьезная проблема во всей отрасли, и у нас есть команды безопасности, занимающиеся исследованием и снижением предвзятости и других рисков в наших моделях.
Мы используем комплексный подход для решения этой проблемы и постоянно ищем наилучшие методы модификации обучающих данных и подсказок. Это нужно для того, чтобы нейросети выдавали максимально правдивые результаты. Также мы постоянно повышаем точность систем фильтрации контента и улучшаем как автоматизированный, так и человеческий контроль
Мы используем комплексный подход для решения этой проблемы и постоянно ищем наилучшие методы модификации обучающих данных и подсказок. Это нужно для того, чтобы нейросети выдавали максимально правдивые результаты. Также мы постоянно повышаем точность систем фильтрации контента и улучшаем как автоматизированный, так и человеческий контроль
— пресс-секретарь компании OpenAI.
Несмотря на очень быстрое развитие, нейросети — это очень сырая технология, которую создали и контролируют с большим трудом. К примеру, чуть больше года назад ChatGPT ложно обвинил известного профессора права в сексуальном насилии. Причем ИИ сделал это на основе фейкового источника.
В конце марта 2023 года с Джонатаном Терли, профессором права из Университета Джорджа Вашингтона, связался его коллега из другого города. Он попросил ChatGPT сформировать список ученых-юристов, обвиненных в сексуальных домогательствах. И чат-бот в числе прочих имен вывел информацию о профессоре Терли. По данным нейросети, профессор делал студентке замечания сексуального характера и пытался дотронуться до нее во время учебной поездки на Аляску.
При этом ChatGPT цитировал статью в Washington Post, датированную 2018 годом. Однако, как заявили в издании, у них такая статья никогда не публиковалась.
Для меня это было неожиданностью, поскольку я никогда не ездил на Аляску со студентами, The Post никогда не публиковала подобную статью, и меня никогда никто не обвинял в сексуальных домогательствах или нападении
— профессор Терли.

Известный эксперт в области ИИ Кейт Кроуфорд, профессор Университета Южной Калифорнии, сотрудник Microsoft Research, комментируя данный инцидент сказала, что чат-боты достаточно часто производят на свет так называемые «галлюцинации», ссылаясь на факты, которые в действительности не существует. Так ИИ склонны лгать и генерировать полную бессмыслицу.
Отчасти это связано с тем, что нейросети, на самом деле, не думают, а лишь выдают то, чем его «кормили» при обучении. Конкретно, языковые OpenAI обучаются на множестве онлайн-данных из таких мест, как Reddit и Википедия, где информация не проверяется фактами.
* — признана экстремистской организацией и запрещена на территории Российской Федерации.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Ельцин не должен был победить: кого Горбачев хотел сделать президентом России?
Почему этот план с самого начала был обречен на поражение?...
140 стрел и пепел раскрыли тайну гибели самого загадочного города Руси, Гнездово
Город не зачах, не был расселен из-за политических разборок, его уничтожили быстро и жестоко...
Судьба имперских субмарин решена: почему они останутся на дне Крыма навсегда?
Как военные судна вообще оказались затоплены и кто мешал их изучению долгие десятилетия?...
Еще одна загадка Ивана Сусанина: что не так с ДНК народного героя?
Почему этот исторический детектив длиной 400 лет никак не могут распутать ученые?...
Стало известно о 9000-летней строительной технологии, которую почти невозможно повторить даже сейчас
Древним секретом активно интересуются сразу две ведущие промышленные организации в Израиле. Интересно, почему?...
Почему у самого большого железного метеорита на Земле вообще нет кратера?
Астрофизики говорят: метеорит Хоба в Намибии нарушает все правила природы вот уже 80 000 лет...
Архив ФСБ раскрыл детали одной из самых дерзких диверсионных операций ВОВ
Биография Кирилла Орловского поражает. Две Звезды Героя, друг писателя Хемингуэя, ликвидатор нацистских палачей, председатель лучшего колхоза СССР...
Токийская декларация-1993: какую бомбу заложил Ельцин под Россию?
Эксперты говорят: российский президент хотел переиграть Токио, но в итоге дал японцам мощный рычаг воздействия на нашу страну...
Полтергейстами командует… Солнце? К таким парадоксальным выводам пришел ученый из Иркутска
Странная на первый взгляд гипотеза, как оказалось, основывается на многочисленных фактах...
Удар, который едва не расколол Луну пополам: кратер в 1/10 площади планеты оставил не просто астероид
Столкновение было настолько мощным, что на поверхность выбросило породы с глубины… почти 100 километров!...
Биоинженер провел 100 дней под водой. По его словам, это прибавило ему 10 лет жизни
Почему этот эксперимент вызвал массу критики? Кто победит, официальная теория или опытная практика?...
Правительство США рассекретило почти 200 файлов о неопознанных воздушных явлениях
Американские власти и Пентагон признаются: по большинству фактов нет однозначных решений. Почему?...