Как соцсети при помощи манипуляций сформировывают нашу информационную повестку — bumgames

©Federico Gambarini/ DPA/ Vostock Photo

В 1861 году по обнародовании правительского Манифеста «О Всемилостивейшем даровании крепостным людям прав состояния вольных сельских обывателей» Николай Некрасов написал стихотворение «Свобода» (размещено в 1869-м):

Понимаю, на пространство сетей крепостных
Люди выдумали много других
Так!.. но распутать их легче народу.
Муза! с надеждой приветствуй свободу!

Поэт, щедро расставляя восклицательные знаки, не мог тогда помыслить, что через полторы сотки лет по миру вольготно раскинутся социальные сети, которые будут сформировывать нашу информационную повестку и манипулировать нашим к ней отношением.

Кто пускает пузыри?

Формирование информационного места не непременно соединено с манипуляцией. Но оно в любом случае ограничено хотя бы нашими физическими способностями.

В 2011-м вышла книжка известного интернет-активиста Илайи Парайзера «Пузырь фильтров: что Веб прячет от вас?» (Стараниями российских переводчиков создатель получил женское имя Эли, а слово «пузырь» перевоплотился в «стенку»). Представляя свою теорию на культовой технологической конференции TED, Парайзер процитировал Марка Цукерберга: «Белочка, которая прямо на данный момент погибает перед вашим домом, еще релевантнее вам, чем то, что кто-то там погибает в Африке». Вот рекомендательные системы и стараются услужить. Используя большой массив познаний о нас, наших действиях, наших предпочтениях, наших друзьях и их интересах, они делают информационные «пузыри», снутри которых мы вынужденно употребляем поставляемый контент. Через пару лет опосля выхода книжки ведущие платформы признали, что неувязка вправду существует, и объявили, что работают над увеличением объективности. На техническом уровне это просто – необходимо минимизировать персонализацию информационной выдачи. Неувязка, но, в том, что анонимизация очень подрывает бизнес-модель, где главным коммерческим активом выступают познания о клиенте.

Ничего принципно новейшего в «пузырях» нет. СМИ издавна известен «эффект эхо-камеры», когда информация, циркулирующая снутри закрытой системы, сама себя увеличивает. Психологи обрисовали огромное количество устройств группового подкрепления и конформности, когда люди меняют свое мировоззрение из-за настоящего либо даже воображаемого воздействия со стороны авторитета либо группы. Широкую известность получила «спираль молчания» Элизабет Ноэль-Нойман. Ее теория утверждает, что люди, боясь социальной изоляции либо преследования, избегают высказывать свою точку зрения, если она противоречит доминирующим установкам в их окружении. Ноэль-Нойман критиковали в том числе за политическую ангажированность, а больше – из-за прошедшего: в юности Элизабет успела побыть активисткой национал-социалистического профсоюза студенток и даже встречалась с фюрером, а ее научные и публицистические статьи 1940-х содержат антисемитские выражения. Но «спираль молчания» остается очень пользующейся популярностью, а книжка с метафоричным подзаголовком «Публичное мировоззрение – наша соц кожа» стала практически культовой.

Модерация либо цензура?

Даже когда платформы преднамеренно действуют на распространяемый контент, речь не постоянно идет о манипуляции. Стоит также различать цензуру и модерацию. Некие считают, что различия нет. А раз так, нет смысла жонглировать словами. Но по сути различие есть, и оно принципное. Цензурирование – это выполнение закона, который воспрещает тот либо другой контент. Не только лишь тут и на данный момент либо непосредственно в Сети веб, но совершенно постоянно и всюду. Можно дискуссировать, как закон плох либо неплох, но его надлежит исполнять. За нарушение положено наказание.

В западной практике молвят о первичном регулировании – требованиях, которые устанавливают к содержанию, сохранности данных, защите прав умственной принадлежности. С иной стороны, платформы дают юзерам возможность публиковать собственный контент, и тут действует вторичное регулирование, касающееся их как посредника и оператора данных. При всем этом не всё, что допускает закон, является желательным либо применимым. Модерирование – это выполнение правил. В том числе устанавливаемых самой платформой. В конце концов, это коммерческие компании по предоставлению услуг. А воспользоваться ими либо нет – дело чисто добровольческое. Хотя таковой подход ведет к разным этическим и юридическим коллизиям.

Модерация больше касается не содержимого, а того, как оно подается. В публикуемый контент быть может внесена правка. Обычно, техно. К примеру, непреличная лексика будет заменена на звездочки. Редактированием платформы обычно не занимаются. Зато охотно добавляют от себя. К примеру, превращают авторский контент в гипертекстовой, направляя юзеров на информационные и маркетинговые ресурсы по собственному усмотрению.

Не считая того, контент быть может обеспечен комментами и маркировкой. К частичной маркировке относятся вставки, указывающие статус той либо другой организации (к примеру, террористическая) либо источника (к примеру, иноагент). К полной – вызывающие огромное количество приреканий пробы обозначать контент как недостоверный. Неувязка не в системе и даже не в качестве оценки, сколько в дискриминационной практике, которой придерживаются Twitter, Facebook и остальные. Разновидность маркировки – разные рейтинги, присваиваемые юзерам, участвующим в разработке и обсуждении контента.

Сам контент можно продвигать либо, напротив, ограничивать, используя разные механизмы приоритизации. Не непременно перекрыть на физическом уровне, довольно наложить ограничения на способности монетизации. Либо усложнить доступ – конкретно так Twitter поступал с постами Дональда Трампа, заставляя юзеров перебегать по доп ссылкам. А физическое ограничение – это фактически фильтрация, которая допускает либо отклоняет тот либо другой контент. При всем этом решение может зависеть не только лишь от содержания, да и от аудитории. Так работают возрастные ограничения. Так же, по идее, должны работать и географические – платформы больше сталкиваются с тем, что в разных юрисдикциях действуют свои правила. И или они будут их соблюдать, или им придется свернуть там собственный бизнес.

Что? Где? Когда?

Вся эта машинка может работать централизованно. Но по мере роста размеров контента, числа юзеров и трудности задач модерация становится всё наиболее распределенной. Это также комфортно исходя из убеждений ведения бизнеса.

А вот исходя из убеждений юзеров еще важнее, когда осуществляется модерация: до либо опосля публикации. Юзеры желают, чтоб все происходило в настоящем времени. На самом деле модерация длится всё время жизни контента. Уже размещенный материал быть может добавочно промаркирован. Быть может отчасти либо стопроцентно изъят. Быть может ограничен доступ к его комментированию. А содержимое повсевременно оценивается на предмет релевантности. Это происходит проактивно, когда платформы сами выслеживают ситуацию, и реактивно, когда они реагируют на жалобы, воззвания и предписания.

Юзерам принципиально, чтоб процесс был прозрачным, понятным. Далековато не постоянно платформы уведомляют о том, что контент подвергся модерации и по каким причинам. Это касается не только лишь потребителей, да и собственников контента. Тем наиболее им не постоянно дают возможность оспорить то либо другое решение. И даже когда таковая возможность имеется, пользоваться ею быть может очень трудно, длительно и накладно. Тут платформы имеют явное нечестное преимущество, которое, но, не считается неэтичным.

Да и заморочек у платформ хватает. О масштабах молвят числа. В первом квартале этого года Facebook раз в день посещали около 1,8 миллиардов человек в день. За этот период заблокировано либо укрыто практически 2 миллиардов спамовых сообщений и практически столько же фейковых аккаунтов – эта цифра в крайнее время приметно подросла. На таком фоне 107 млн единиц недопустимого либо ненужного контента не смотрятся весьма жутко. Но это наиболее миллиона сообщений любой денек. Тут с огромным отрывом лидируют взрослая порнуха и сексапильный контент, дающие практически 40% нарушений. Около четверти приходится на изображение насилия. По 7–8% дают терроризм, выражение ненависти, орудие и наркотики, детская порнуха. Замыкают перечень кибербуллинг и суициды. Все прочее – в границах погрешности. Схожая картина и у остальных платформ.

Нереально проверить всё и сходу. А повсевременно меняющиеся требования к тому же вынуждают производить перепроверки задним числом. Бизнес должен повсевременно соотносить стоимость решений и опасности вероятных последствий. Денежные опасности просчитать относительно просто. И часто компании дешевле «откупиться» штрафами, чем внедрять решение. Еще труднее предвидеть общественную реакцию и политические последствия, которые могут оказаться очень суровыми. Здесь весьма показательно то, что происходит вокруг Facebook. Беспримерные штрафы, которые получила компания, – это для нее неприятно, но не очень обременительно. А вот возможность того, что дорвавшиеся до власти в США демократы конкретно Facebook изберут на роль мальчугана для битья, достаточно высока.

Что произнесет доктор?

Когда-то модерация осуществлялась вручную. Сейчас всё больше работают программки, которые делают рутинные операции, дают подготовительную оценку, помогают людям принимать решения. В главном это разные методы машинного обучения, обрабатывающие текст, изображения, звук, видео и метаданные контента с учетом очень широкого контекста.

Исходя из убеждений эффективности принципиально, сколько стоит итог и как стремительно мы можем его получить. Ручная работа – это постоянно длительно и достаточно недешево. Некие методы тоже очень накладны исходя из убеждений вычислительных ресурсов. Не все методы способны довольно стремительно работать на огромных размерах данных. Не все довольно отлично управляются с информацией определенного вида.

Исходя из убеждений результативности мы имеем дело с чувствительностью и спецификой. Буквально так же, как, к примеру, при клинических испытаниях. Чувствительность – это процент верно поставленных диагнозов. Нездоровой определен как нездоровой; нелегальный контент заблокирован. Специфика – процент правильных отрицательных решений. Хворого не записали в здоровые; обычный контент не помечен, как вредный. Соответственно, мы можем посчитать, сколько будет ложноположительных и ложноотрицательных нездоровых. Исходя из этих характеристик, можно оценить, как работает тест. Точность – только одна из полутора 10-ов черт.

К огорчению, чувствительность и специфика весьма нередко находятся в противоречии. Чем чувствительнее тест, тем наименее он специфичен. Это интуитивно понятно: если при любом чихе мы будем записывать человека в нездоровые, мы, естественно, не пропустим тяжкий вариант, но у нас будет много неверных. И напротив. В жизни приходится принимать решение, исходя из того, что опаснее. Если, скажем, идет речь о вправду тяжеленной и заразительной заболевания, пропускать никого недозволено. На практике можно употреблять несколько тестов. Поначалу «гребем» всех подозрительных, а позже «отпускаем» тех, кто ни при чем.

Так же, как рыболовная сеть, соц отцеживает и объячеивает контент. При отцеживании косяк рыбы обметывается неводом либо тралом, опосля что улов вытаскивают, а вода стекает. При объячеивании рыба запутывается в сетях жаберными крылышками. И чем посильнее пробует освободиться, тем крепче попадает в сети.

bumgames.ru
Добавить комментарий