2025-09-29T09:18:00Z
Услуга по подтверждению гражданства детей появилась в МФЦ Подмосковья
2025-09-29T09:14:14Z
Т-Банк рассказал о предотвращении переводов мошенникам от студентов
2025-09-29T09:13:00Z
Учитель физики из Реутова вышел в финал всероссийского конкурса «Учитель года-2025»
2025-09-29T09:10:55Z
Зайти в IT. Эксперт дала советы по построению карьеры в сфере технологий
2025-09-29T09:10:12Z
Школьники и студенты обсудили цифровой суверенитет на уроке «Разговоры о важном»
2025-09-29T08:54:58Z
Девочка из Тюмени сломала позвоночник на уроке физкультуры в школе
2025-09-29T08:35:00Z
Из Казанского политеха ушли 13 сотрудников: педагоги обратились в прокуратуру
2025-09-29T08:33:00Z
Доцент РОСБИОТЕХа Лебедева посоветовала не исключать сладости полностью из рациона школьника
2025-09-29T08:32:48Z
Психолог объяснила, стоит ли детям платить «зарплату» за хорошие оценки в школе
2025-09-29T08:31:00Z
HR-эксперт Абгарян отметила, что профиль в соцсетях может повлиять на карьеру
2025-09-29T08:25:00Z
В Альметьевске состоялась очередная встреча детей с участником специальной военной операции
2025-09-29T08:25:00Z
Учащиеся Подмосковья примут участие в международной олимпиаде по финбезопасности
2025-09-29T08:20:45Z
Новые квартиры для кировских сирот: 15 ребят обрели свой дом
2025-09-29T08:19:49Z
В Южно-Сахалинске открылся Всероссийский молодежный форум «ОстроVа»
2025-09-29T08:15:33Z
На РИФ-2025 обсудили цифровую безопасность подростков
2025-09-29T07:02:53Z — Большие языковые модели могут выдавать ложные ответы
МОСКВА, 29 сентября. /ТАСС/. Большие языковые модели (LLM) нельзя использовать в социальной сфере из-за галлюцинаций - ложных ответов, которые выдают нейросети. Об этом рассказала в интервью ТАСС президент InfoWatch, председатель правления АРПП "Отечественный софт" Наталья Касперская.
"Нужны ли бредогенераторы - большой вопрос. Считаю, что их нельзя использовать в социальной сфере - например, для общения с людьми, создания нормативно-правовых актов или написания стратегии работы", - заявила она.
По словам Касперской, LLM принципиально допускают вероятностные ответы, в том числе те, которые являются ложью, потому что они только имитируют разумность.
"Такая генерация произвольного контента очень опасна, так как люди привыкают получать ответ и даже не задумываются, насколько ответ релевантен, верят ему безоговорочно. Получается, что человек становится заложником системы", - отметила она.
2025-09-27T05:01:36Z
Президент InfoWatch заявила, что есть риск утечки данных
2025-09-26T09:42:09Z
Сотрудники онлайн-магазина не просят назвать код во время телефонного разговора
2025-09-27T08:35:52Z
Людям с неустойчивой психикой и тревожными расстройствами нужно право самозапрета на чтение новостей. Об этом в эфире подкаста «ДаДа — НетНет» заявил российский блогер и дизайнер Артемий Лебедев.
2025-09-26T12:01:46Z
Компания поэтапно и с осторожностью внедряет технологии искусственного интеллекта для внутренних задач, отметил член правления Национальной системы платежных карт Максим Крукелис
2025-09-27T10:13:40Z
Несмотря на то, что во время болезни нужно обращаться к врачу, люди даже в таких состояниях привыкли задавать вопросы только ChatGPT. Доктор Николай Николаев рассказал, что россияне начинают обращаться к искусственному интеллекту, вместо помощи дипломированного специалиста, передает «NGS55.RU». По словам врача, подобная консультация у ChatGPT крайне опасна. Во-первых нейросеть не имеет возможности физически осмотреть человека, […] Сообщение Доктор медицинских наук из Омска предупредил об опасности консультаций с ChatGPT появились сначала на Главный Региональный.