2025-09-24T09:51:42Z
Женщина выиграла в лотерею благодаря искусственному интеллекту
2025-09-24T09:45:44Z
RuStore и Московский кластер видеоигр запускают акселератор для разработчиков игр
2025-09-24T09:41:00Z
Омоложение на биодобавках: кто такой биохакер Брайан Джонсон и как он молодеет
2025-09-24T09:30:00Z
Новый этап развития российской микроэлектроники: первый отечественный фотолитограф на 350 нм готов к запуску в серию
2025-09-24T09:29:00Z
«Король съемки с контровым светом». Глава Xiaomi показал, как снимают Xiaomi 17 Pro Max и Xiaomi 17 Pro
2025-09-24T09:21:08Z
Alibaba интегрирует ПО Nvidia Robotics в свою платформу ИИ
2025-09-24T09:08:56Z
Кабмин учредил национальную премию в области IT "Цифровые решения"
2025-09-24T09:05:57Z
Правительство РФ учредило национальную премию "Цифровые решения" в сфере ИТ
2025-09-24T09:05:00Z
Дмитрий Григоренко: Правительство учредило национальную премию в области информационных технологий
2025-09-24T09:01:00Z
Выпить кофе на крыше с красивым видом: в 2ГИС запустили ИИ-поиск заведений по настроению и атмосфере
2025-09-24T08:57:00Z
Xiaomi 17, Xiaomi 17 Pro и Xiaomi 17 Pro Max получат совершенно новую оптическую систему и совершенно новый сенсор Light Hunter 950L с HDR в 16,5 ступеней экспозиции
2025-09-24T08:53:00Z
Исследователь генетики старения из Казани стал одним из самых цитируемых ученых мира
2025-09-24T08:49:19Z
ИРИ: 80% российских игровых студий используют ИИ при разработке игр
2025-09-24T08:47:54Z
С помощью БАС. Оператор обеспечил связью финал конкурса по поиску людей
2025-09-24T08:32:00Z
ИИ-сервис для протоколирования совещаний разработали в Дубне
2025-09-23T14:20:00Z
Новые исследования выявили серьёзную проблему в работе искусственного интеллекта: многие модели, включая популярные чат-боты, при ответах на вопросы опираются на данные из научных статей, которые были официально отозваны или признаны недостоверными. Это касается медицины, биологии и других областей науки, где отозванные публикации продолжают использоваться ИИ для формулировки рекомендаций и объяснений.
Команда исследователей из Университета Теннесси (США) провела тесты с использованием 21 отозванной статьи по медицинской визуализации и обнаружила, что современные версии ChatGPT (например, GPT-4o) при цитировании упоминали эти недействительные источники в ряде случаев, причём чаще, чем предупреждали об их статусе. Другое исследование показало, что при проверке более чем 200 отклонённых и недостоверных работ многие ИИ-модели не сообщали об их статусе, а порой признавали спорные утверждения верными. Значимо, что большинство таких исследований проводилось на версиях моделей с ограниченным знанием и без доступа к информации в интернете.
Иллюстрация: GeminiИсследователи подчёркивают важность внедрения механизмов распознавания отозванных работ и интеграции таких данных из научных баз в обучающие и поисковые алгоритмы искусственного интеллекта. Некоторые компании уже начали обновлять базы данных своих моделей, чтобы минимизировать использование недостоверных источников, но проблема остаётся актуальной.
Профессор Юань Фу из Иллинойского университета отмечает: «Значимость отличия отозванных публикаций очевидна, особенно когда ИИ влияет на решения в медицине и технологиях. Мы должны повышать осведомлённость как среди специалистов, так и широкой аудитории, чтобы не допустить слепого доверия к генеративным моделям». OpenAI и другие крупные разработчики пока не дали развёрнутых комментариев по этому вопросу, но в научном сообществе призывают к сотрудничеству и интеграции более прозрачных и проверяемых систем работы с научной информацией.
Эта ситуация вызывает серьёзные опасения, ведь ИИ всё чаще используется для научных обзоров, помощи исследователям и формулировки научных гипотез. Возможность получения устаревшей или неверной информации может подорвать доверие к таким системам и привести к распространению ошибок в научном и прикладном контексте.
2025-09-23T14:54:00Z
2025-09-22T21:01:00Z
С чем это связано и какая часть айтишников уже использует российские ИИ-инструменты на практике
2025-09-23T17:45:34Z
За год число повторов фейков в ответах нейросетей почти удвоилось. Десять ведущих ИИ-моделей в августе показывали ложные факты в 35% запросов против 18% годом ранее. Интеграция онлайн-поиска сделала ответы чат-ботов более быстрыми, но повысила их уязвимость. Эксперты указывают, что можно самостоятельно научить нейросеть избегать непроверенных фактов.
2025-09-23T06:15:43Z
2025-09-23T05:00:00Z
Приблизить эффективность искусственного интеллекта к принципам работы человеческого мозга может помочь новое открытие ученых СГУ. Результаты исследования опубликованы в журнале The European Physical Journal Special Topics.