Фейсбук не способен эффективно удалять проблемный контент

По сообщениям сетевых источников

система искусственного интеллекта Facebook, используемая для поиска и блокировки проблемного контента в социальной сети компании, не способна эффективно выполнять поставленные задачи. Об этом пишет издание The Wall Street Journal со ссылкой на внутренние документы гиганта социальных сетей.

Изображение: foxbusiness.comИзображение: foxbusiness.com

Согласно имеющимся данным, ИИ-система Facebook не способна эффективно идентифицировать видео от первого лица, а также контент, содержащий расистские высказывания, язык ненависти и чрезмерное насилие. Источник отмечает, что в некоторых случаях алгоритм не может отличить петушиные бои от автокатастрофы. Документы Facebook говорят о том, что в отношении контента с ненавистническими высказываниями ИИ-система определяет и блокирует лишь малую часть таких публикаций (менее 10 %). В случаях, когда алгоритм не может дать чёткое заключение о необходимости блокировки того или иного поста пользователя, спорный контент демонстрируется реже, но опубликовавший его аккаунт остаётся безнаказанным.

Около двух лет назад Facebook сократила время

Которое есть у модераторов-людей на рассмотрение жалоб, а также внесла ряд других изменений в рабочие процессы, чтобы сократить общее количество жалоб. При этом сотрудники, ответственные за защиту платформы Facebook от нежелательного контента, сообщали руководству, что используемый ИИ-алгоритм недостаточно эффективен. По оценкам старшего инженера, автоматизированные системы компании удаляли сообщения, которые генерировали лишь 2 % просмотров разжигающих ненависть высказываний на платформе. Он также отметил, что в случае, если в ближайшее время не будут внесены существенные изменения в стратегию компании в плане модерации контента, то в краткосрочной перспективе ИИ-алгоритм будет выявлять не более 10-20 % проблемного контента.

Представитель Facebook Энди Стон (Andy Stone) заявил, что озвученные в отчёте проценты относятся к сообщениям, которые были удалены непосредственно ИИ-системой и не включают контент, обработанный иными способами, в том числе путём понижения рейтинга постов. Опубликованные данные резко контрастируют с ожиданиями руководства гиганта социальных сетей в лице генерального директора Марка Цукерберга (Mark Zuckerberg), который ранее заявлял, что ИИ-система компании будет способна обнаруживать «подавляющее большинство проблемного контента» к концу 2019 года. Представитель компании также отметил, что важнее учитывать другие цифры, показывающие сокращение общего количества ненавистнического контента на платформе.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Переводчик »