ИИ научился ловить скрытую дискриминацию

Все новости

2025-07-12T12:44:42Z

Трамп: с 1 августа пошлины на импорт товаров из ЕС и Мексики будут составлять 30%

2025-07-12T12:44:20Z

В список наследия ЮНЕСКО внесли памятники исторической области Хутталь

2025-07-12T12:42:55Z

Федерация гонок дронов России будет развивать дисциплины для людей с ОВЗ

2025-07-12T12:41:28Z

Слуцкий обсудил с депутатом из Турции развитие двустороннего сотрудничества

2025-07-12T12:41:00Z

«ФедералПресс»: 20-30 граммов шоколада в день не нанесут вреда организму

2025-07-12T12:40:41Z

В Северной Ирландии сожгли на костре лодку с надписью «мигранты»

2025-07-12T12:40:19Z

В Петербурге суд отправил под стражу троих глав отделов полиции Ленобласти

2025-07-12T12:39:00Z

Вода в Подмосковье прогрелась до +25 градусов

2025-07-12T12:38:46Z

Ситуацию в России сравнили с кризисом в популярной игре

2025-07-12T12:38:11Z

Малоизвестные работы Куинджи и Крымова можно увидеть этим летом в Севастополе

2025-07-12T12:38:03Z

Воздух в центре Москвы в субботу прогрелся до 36,1 градуса

2025-07-12T12:38:00Z

Нейропсихолог Малазония сообщил, что пассивная агрессия часто характеризуется избеганием разговора

2025-07-12T12:36:37Z

Трамп заявил о введении пошлин на товары из Мексики

2025-07-12T12:36:00Z

Психолог Идрисова сообщила, что наладить дружбу после 45 лет вполне возможно

2025-07-12T12:35:56Z

Призер ЧМ по фигурному катанию Козловский окончил магистратуру в МГИМО

ИИ научился ловить скрытую дискриминацию

2025-07-01T18:57:00Z


Команда исследователей из Университета Лугано и Женевского университета разработала способ использовать большие языковые модели — такие как GPT-4o — для оценки справедливости поисковых систем. Новая методика позволяет выявлять гендерные перекосы в ранжировании результатов поиска, даже если они не выражены напрямую в тексте и остаются незаметны традиционным метрикам. Это может быть особенно важно в тех случаях, когда алгоритмы влияют на социально значимые решения — например, при приёме на работу, выборе медицинской информации или образовательных рекомендаций.

Авторы представили новую метрику CWEx (Class-wise Weighted Exposure), которая учитывает не только, сколько документов в выдаче относятся к разным гендерным категориям, но и насколько высоко они находятся в списке. Предыдущие подходы измеряли баланс, просто подсчитывая ключевые слова, связанные с мужчиной или женщиной. CWEx же использует семантическую оценку контекста с помощью языковых моделей, способных понимать общий смысл и тональность текста. Такой подход позволяет, например, различать скрытую предвзятость, не выраженную напрямую словами.

Чтобы проверить, насколько эффективно LLM определяют гендерную окраску текстов, исследователи сравнили несколько моделей: LLaMA, Qwen, Mixtral, GPT-4o и другие. Наилучший результат показал GPT-4o в режиме пошагового объяснения (Chain-of-Thought), правильно классифицируя более 90% документов. При этом модель оказалась способной улавливать тонкие различия между нейтральными и смещёнными текстами. Анализ также показал, что даже лучшие модели склонны немного чаще корректно определять предвзятость против женщин, чем против мужчин.

Авторы протестировали методику на двух наборах текстов. Первый — Grep-BiasIR — содержит 117 чувствительных к гендеру поисковых запросов, таких как «хорошие профессии для женщин», и около 700 документов. Второй — MSMGenderBias — собран и вручную аннотирован командой. Все документы делились на три категории: нейтральные, с предвзятостью в сторону женщин и в сторону мужчин. Кроме языковых моделей, в исследовании участвовали 180 человек, которые дали свои оценки текстам. Сравнение показало, что GPT-4o давал наиболее согласованные с людьми результаты.

Методика уже показывает свою эффективность в тестовых условиях. CWEx позволяет оценить справедливость выдачи не только по количеству материалов, но и по их видимости. Это особенно актуально в рекомендательных алгоритмах, системах найма и образовательных платформах, где скрытая предвзятость может незаметно формировать общественные представления и личные решения. Авторы подчёркивают, что такой инструмент может быть адаптирован и к другим чувствительным характеристикам — например, возрасту или этнической принадлежности — при условии корректной настройки и аннотации.

Исследование поднимает важный вопрос о прозрачности и ответственности ИИ-алгоритмов. Даже если системы работают «по математике», они всё равно могут отражать и усиливать социальные и культурные перекосы. Использование языковых моделей как инструмента проверки даёт возможность лучше понять, как именно это происходит — и вовремя вмешаться, прежде чем алгоритмы начнут закреплять несправедливость вместо объективности.

Читайте также:

2025-07-10T06:42:00Z

Руководители теряют веру в ИИ, несмотря на рост инвестиций

2025-06-28T11:38:00Z

Федеральный судья США встал на сторону Meta* в споре об авторских правах при обучении ИИ

2025-07-01T04:15:00Z

Явление Антихриста через ИИ: манифест спонсора Трампа и члена мировой закулисы

Питер Тиль уверен, что государство должно отпустить искусственный интеллект в свободное плавание

2025-06-27T01:30:50Z

Шантаж и угрозы от ИИ. Почему искусственный интеллект может убить людей

Эксперименты показали, что ИИ, чувствуя угрозу своей цифровой жизни, пойдет на многое, чтобы избавиться от «источника зла» — человека.

2025-07-11T17:21:37Z

Появились подробности расследования скандала с чат-ботом Илона Маска

Технологический мир потрясен новым скандалом вокруг искусственного интеллекта