Модели ИИ могут генерировать ложные сведения и пропаганду, показал доклад
Модели искусственного интеллекта могут создавать и усиливать пропаганду и ложные сведения, как отмечается в отчете "Влияние искусственного интеллекта на медийное пространство" от "РИА-Аналитика".
Согласно аналитикам, большие языковые модели могут случайно поддерживать стереотипы из-за статистического подбора слов без полного понимания контекста. Эти модели, обученные на предвзятых данных, способны создавать и усиливать ложные сведения и пропаганду. Отчет подчеркивает, что когда алгоритм активно распространяет определенную идею, часть общества начинает действовать в соответствии с ней, что делает эту идею "реальной" в социальном плане. Авторы отчета предупреждают, что неверифицированный генеративный искусственный интеллект, в сочетании с данными из социальных сетей, может стать мощным инструментом массовой дезинформации, способным адаптироваться и обучаться на реакциях людей в реальном времени. Они отмечают, что масштаб и скорость такого воздействия являются уникальными, и традиционные методы борьбы с фейками часто не успевают реагировать.
Источник и фото - ria.ru