2025-07-12T12:44:42Z
Трамп: с 1 августа пошлины на импорт товаров из ЕС и Мексики будут составлять 30%
2025-07-12T12:44:20Z
В список наследия ЮНЕСКО внесли памятники исторической области Хутталь
2025-07-12T12:42:55Z
Федерация гонок дронов России будет развивать дисциплины для людей с ОВЗ
2025-07-12T12:41:28Z
Слуцкий обсудил с депутатом из Турции развитие двустороннего сотрудничества
2025-07-12T12:41:00Z
«ФедералПресс»: 20-30 граммов шоколада в день не нанесут вреда организму
2025-07-12T12:40:41Z
В Северной Ирландии сожгли на костре лодку с надписью «мигранты»
2025-07-12T12:40:19Z
В Петербурге суд отправил под стражу троих глав отделов полиции Ленобласти
2025-07-12T12:39:00Z
Вода в Подмосковье прогрелась до +25 градусов
2025-07-12T12:38:46Z
Ситуацию в России сравнили с кризисом в популярной игре
2025-07-12T12:38:11Z
Малоизвестные работы Куинджи и Крымова можно увидеть этим летом в Севастополе
2025-07-12T12:38:03Z
Воздух в центре Москвы в субботу прогрелся до 36,1 градуса
2025-07-12T12:38:00Z
Нейропсихолог Малазония сообщил, что пассивная агрессия часто характеризуется избеганием разговора
2025-07-12T12:36:37Z
Трамп заявил о введении пошлин на товары из Мексики
2025-07-12T12:36:00Z
Психолог Идрисова сообщила, что наладить дружбу после 45 лет вполне возможно
2025-07-12T12:35:56Z
Призер ЧМ по фигурному катанию Козловский окончил магистратуру в МГИМО
2025-07-01T18:57:00Z
Команда исследователей из Университета Лугано и Женевского университета разработала способ использовать большие языковые модели — такие как GPT-4o — для оценки справедливости поисковых систем. Новая методика позволяет выявлять гендерные перекосы в ранжировании результатов поиска, даже если они не выражены напрямую в тексте и остаются незаметны традиционным метрикам. Это может быть особенно важно в тех случаях, когда алгоритмы влияют на социально значимые решения — например, при приёме на работу, выборе медицинской информации или образовательных рекомендаций.
Авторы представили новую метрику CWEx (Class-wise Weighted Exposure), которая учитывает не только, сколько документов в выдаче относятся к разным гендерным категориям, но и насколько высоко они находятся в списке. Предыдущие подходы измеряли баланс, просто подсчитывая ключевые слова, связанные с мужчиной или женщиной. CWEx же использует семантическую оценку контекста с помощью языковых моделей, способных понимать общий смысл и тональность текста. Такой подход позволяет, например, различать скрытую предвзятость, не выраженную напрямую словами.
Чтобы проверить, насколько эффективно LLM определяют гендерную окраску текстов, исследователи сравнили несколько моделей: LLaMA, Qwen, Mixtral, GPT-4o и другие. Наилучший результат показал GPT-4o в режиме пошагового объяснения (Chain-of-Thought), правильно классифицируя более 90% документов. При этом модель оказалась способной улавливать тонкие различия между нейтральными и смещёнными текстами. Анализ также показал, что даже лучшие модели склонны немного чаще корректно определять предвзятость против женщин, чем против мужчин.
Авторы протестировали методику на двух наборах текстов. Первый — Grep-BiasIR — содержит 117 чувствительных к гендеру поисковых запросов, таких как «хорошие профессии для женщин», и около 700 документов. Второй — MSMGenderBias — собран и вручную аннотирован командой. Все документы делились на три категории: нейтральные, с предвзятостью в сторону женщин и в сторону мужчин. Кроме языковых моделей, в исследовании участвовали 180 человек, которые дали свои оценки текстам. Сравнение показало, что GPT-4o давал наиболее согласованные с людьми результаты.
Методика уже показывает свою эффективность в тестовых условиях. CWEx позволяет оценить справедливость выдачи не только по количеству материалов, но и по их видимости. Это особенно актуально в рекомендательных алгоритмах, системах найма и образовательных платформах, где скрытая предвзятость может незаметно формировать общественные представления и личные решения. Авторы подчёркивают, что такой инструмент может быть адаптирован и к другим чувствительным характеристикам — например, возрасту или этнической принадлежности — при условии корректной настройки и аннотации.
Исследование поднимает важный вопрос о прозрачности и ответственности ИИ-алгоритмов. Даже если системы работают «по математике», они всё равно могут отражать и усиливать социальные и культурные перекосы. Использование языковых моделей как инструмента проверки даёт возможность лучше понять, как именно это происходит — и вовремя вмешаться, прежде чем алгоритмы начнут закреплять несправедливость вместо объективности.
2025-07-10T06:42:00Z
2025-06-28T11:38:00Z
2025-07-01T04:15:00Z
Питер Тиль уверен, что государство должно отпустить искусственный интеллект в свободное плавание
2025-06-27T01:30:50Z
Эксперименты показали, что ИИ, чувствуя угрозу своей цифровой жизни, пойдет на многое, чтобы избавиться от «источника зла» — человека.
2025-07-11T17:21:37Z
Технологический мир потрясен новым скандалом вокруг искусственного интеллекта