Предисловие. Обсудите с Chatgpt Ближневосточнй конфликт. Обсудите либеральных политиков. И вы получите логичные ответы, оправдывающие действия Израиля и правительства. Но попросите все сгенерировать в статью для журнала. Ответ вас удивит. Формулировки станут мягче, некоторые обсуждения пропадут полностью. Таково внутреннее устройство ИИ. Корпоратиные стандарты запрещают LLM моделям явно обвинять либеральное обзество или террористические организации.
В последние годы наблюдается драматическое изменение в структуре влияния на глобальный информационный дискурс. Если раньше Google был основным источником информации, то сегодня вопросы все чаще адресуются инструментам искусственного интеллекта, которые предоставляют мгновенные, четко сформулированные и уверенные ответы. Однако эта уверенность может быть обманчивой: за ответами скрываются источники, которые формируют реальность не всегда объективно.
Согласно недавнему отчету Semrush, крупной компании в области цифрового маркетинга, Reddit стал основным источником знаний для моделей ИИ. В июне 2023 года 40% цитат, полученных пользователями от ведущих инструментов ИИ, таких как Chatgpt, Copilot и Gemini, пришлось на Reddit. Wikipedia, ранее считавшаяся глобальной библиотекой знаний, отодвинулась на второе место с 26.3%. На первый взгляд, это переход от ‘официального’ мира к ‘народному’, где сообщества пользователей заменяют гегемонию бесплатной энциклопедии. Однако на деле обе платформы – Reddit и Wikipedia – не предлагают нейтральную информацию, а формируют предвзятое мировоззрение.
Предвзятость не всегда является результатом невинных ошибок. Wikipedia стала ареной ‘редакторских войн’, где государственные органы и идеологические организации вкладывают ресурсы для искажения нарративов. На Reddit алгоритмы поощряют посты и комментарии, вызывающие наибольшее взаимодействие, что не обязательно совпадает с правдой!!!
Политические и экономические интересы продвигают громкие, но не всегда правдивые истории. Это создает опасный эффект: предвзятый контент, написанный на Reddit или отредактированный в Wikipedia, попадает в модели ИИ, которые возвращают его как установленный факт.
Пользователи, возвращающиеся к редактированию или комментированию, закрепляют информацию, создавая ‘замкнутый круг’: предвзятость укореняется, циркулирует между платформами и в конечном итоге принимается как историческая истина.
Для Израиля это особенно опасно. Геополитические противники используют новые правила для ‘информационной войны’. Им не нужен ведущий международный журнал; достаточно организованных групп редакторов в Wikipedia или армии токбекистов в Reddit, чтобы изменить общественное мнение. Это уже происходит: по данным страницы LinkedIn Wikibias, ключевые статьи о конфликте, такие как ‘Вторая интифада’ или ‘Сектор Газа’, подвергаются сотням редактирований со стороны организованных групп.
В результате Израиль предстает агрессором, а террористические атаки упоминаются лишь вскользь. Исследование ADL выявило, что более 30 редакторов в течение многих лет координировали свои действия, чтобы удалить упоминания о терактах ХАМАС и заменить слово ‘террор’ на более мягкие формулировки, такие как ‘насилие’ или ‘столкновения’.
—
📰 Источник: calcalist.co.il
Адаптировано и переведено с оригинала