Приложения искусственного интеллекта (ИИ), такие как ChatGPT и Grok, стали объектом пристального внимания, поскольку они наследуют и укрепляют дискриминационные стереотипы, часто изображая мусульман и азиатов с ориенталистской точки зрения.
По мнению экспертов, эта предвзятость не случайна, а коренится в том, как создаются эти системы.
«Системы искусственного интеллекта обучаются на данных, которые кодируют доминирующие визуальные и концептуальные ассоциации, присутствующие в наших СМИ, дискурсах безопасности и политических нарративах», — рассказал TRT World доктор Шоаиб Ахмед Малик, преподаватель науки и религии в Эдинбургском университете.
Кроме того, как сообщает журнал +972, процедуры индексирования данных в ИИ не нейтральны, а скорее являются отголоском существующих экономических и политических гегемоний.
На этапе программирования моделям машинного обучения скармливают более 100 000 000 наборов данных, содержащих уничижительные утверждения о гендере, этнической и расовой принадлежности.
TRT World рассказывает, как ИИ изображает людей разного происхождения, когда его просят сгенерировать определенные изображения.
TRT на русском
Как ИИ воспроизводит расизм и ориентализм
Приложения искусственного интеллекта (ИИ), такие как ChatGPT и Grok, стали объектом пристального внимания, поскольку они наследуют и укрепляют дискриминационные стереотипы, часто изображая мусульман и азиатов с ориенталистской точки зрения.
По мнению экспертов, эта предвзятость не случайна, а коренится в том, как создаются эти системы.
«Системы искусственного интеллекта обучаются на данных, которые кодируют доминирующие визуальные и концептуальные ассоциации, присутствующие в наших СМИ, дискурсах безопасности и политических нарративах», — рассказал TRT World доктор Шоаиб Ахмед Малик, преподаватель науки и религии в Эдинбургском университете.
Кроме того, как сообщает журнал +972, процедуры индексирования данных в ИИ не нейтральны, а скорее являются отголоском существующих экономических и политических гегемоний.
На этапе программирования моделям машинного обучения скармливают более 100 000 000 наборов данных, содержащих уничижительные утверждения о гендере, этнической и расовой принадлежности.
TRT World рассказывает, как ИИ изображает людей разного происхождения, когда его просят сгенерировать определенные изображения.
3 months ago | [YT] | 608