Социальные боты – учётные записи, управляемые автоматизированным ПО, которое подражает реальным пользователям или стремится передавать потоки определённой информации – могут использоваться для автоматизации страниц групп и распространения политической рекламы.

Систематизация политических ботов, растущей силы в выборах по всему миру, которую невозможно игнорировать

Примечание редактора: Настоящее эссе составлено из обсуждений и текстов на тему встречи в июне 2017 года, организованной и руководимой Сэмюэлом Вулли, директором по научно-исследовательской работе новой лаборатории DigIntel Lab в Институте будущего, вместе с коллегами, экспертами по ботам* Рене Дирестой, Джоном Литтлом, Джонатоном Морганом, Лайзой Марией Ньюдерт и Беном Ниммо. Симпозиум проводился в Jigsaw, аналитическом центре и техническом инкубаторе Google / Alphabet. Пояснение: Jigsaw предоставила помещение, профинансировала работу Вулли как (бывшего) научного сотрудника и покрыла расходы на дорогу. 

Боты и их родичи – ботнеты, армии ботов, виртуалы, фейковые учётные записи, сибиллы, автоматические тролли, сети влияния – являются важнейшей новой силой в публичном дискурсе.

Вы, возможно, слышали, что ботов можно использовать для угроз активистамвлияния на выборы и даже для того, чтобы завязать разговор с президентом. Боты – это модные новые СМИ; в Кремниевой долине чатботов прорекламировали как следующий шаг техники после приложений. Сам Дональд Трамп сказал, что не выиграл бы в ноябре прошлого года без Twitter, где, как обнаружили исследователи, его поддержка на платформе была существенно усилена ботами.

Учёные предположили, что на самом деле программами-ботами управляется почти 50 миллионов учётных записей в Twitter. В Facebook социальные боты – учётные записи, управляемые автоматизированным ПО, которое подражает реальным пользователям или стремится передавать потоки определённой информации – могут использоваться для автоматизации страниц групп и распространения политической рекламы. Недавние публичные откровения с Facebook показывают, что российская «фабрика троллей», тесно связанная с Кремлём, в преддверии выборов 2016 года в США потратила около 100 000 долларов и создала тысячи связанных между собой постов, которые распространились по Facebook и Instagram. Та же фирма, «Агентство Интернет-исследований», как известно, широко использовала боты в попытках манипулировать общественным мнением в социальных сетях.

СОЗНАНИЕ ПОД КОНТРОЛЕМ

Несмотря на страсти вокруг использования ботов в политических целях во время нескольких недавних выборов по всему миру, к примеру, прошлогодних выборов в США, термин «бот», как и термин «фейковые новости», остаётся неоднозначным. Теперь он иногда используется для обозначения любого известного в социальных сетях лица, генерирующего контент, с которым не согласны другие.

Что такое бот и с чем его едят?

Ботам можно дать такое определение: это программы, которые имитируют человеческое поведение. Это может принимать множество форм; например, чат-боты способствуют поддержке клиентов или выступают в качестве личных ассистентов. Политический бот можно запрограммировать на оставление одобрительных комментариев на странице некоего политика в Facebook, нападки на журналистов с потоком гневных твитов или проявление интереса к посту с целью искусственного повышения его популярности.

Разница между людьми и ботами в том, что, если активный пользователь социальных сетей, являющийся человеком, может найти время на один-два поста в день для сотен подписчиков, то ботам не нужно работать, ухаживать за детьми или спать. Ботов можно запрограммировать на одну-единственную задачу: постить как можно больше, не попадаясь. Это делает боты мощным инструментов для тех, кто желает формировать общественное мнение, управляя или руководя диалогом.

Каждому из них при программировании можно обеспечить уникальную личность; некоторые даже крадут личности реальных пользователей и развиваются на их основе. Некоторые боты предназначены для борьбы за социальное благо и однозначно идентифицируют себя как боты, а не притворяются людьми. А вот тайные политические боты предназначены для противоположной деятельности: для одурачивания и обмана, для того, чтобы убедительно притворяться настоящими людьми с реальными политическими идеями. Тщательно созданные и управляемые личности, нередко заточенные под подражание идентичности своей целевой аудитории, – характерный признак подобных тайных ботовых кампаний.

Вспомните получивший скандальную известность случай, когда Трамп в августе 2017 года взаимодействовал с пользовательницей Twitter по имени Николь Минси. Трамп перед своими 35 миллионами читателей (на тот момент) поблагодарил Минси за твит о том, что он «тяжко трудится ради американского народа». (На момент появления твита Николь, Трамп находился на поле для гольфа.)  

Минси, у которой было почти 150 000 читателей в Twitter, казалась консервативной афроамериканкой и сторонницей Трампа. Однако при более пристальном рассмотрении становилось ясно, что что-то не так; большинство людей приходили к выводу, что это – политический бот. Как оказалось, фото Минси было получено у компании по продаже стоковых фотографий. Дальнейшее расследование показало, что эта учётная запись являлась «беллетризованным персонажем, который использовался маркетинговым подразделением предприятия-однодневки, занимавшегося торговлей в Интернете» и продававшего атрибутику Трампа. С тех пор учётную запись заморозили.

Был ли это политический бот? Журналисты обнаружили, что сама по себе немалая база читателей учётной записи Минси состояла из огромного социального ботнета – по сути, группы ботов, созданной для подписки друг на друга во избежание алгоритма Twitter, который обнаруживает подозрительную активность ботов, и одновременного создания иллюзии реальности. Эта учётная запись также выкладывала твиты со скоростью, недоступной обычному пользователю-человеку. 

Тем не менее, Николь Минси оказалась реальным человеком, который действительно работал с вышеупомянутым предприятием Интернет-торговли.

Граница между ботом и человеком порой бывает размытой. Некоторые учётные записи полностью автоматизированы и активно спамят одними и теми же сообщениями в Twitter, Facebook и других социальных сетях. Другие более коварны – они выкладывают уникальные, тщательно продуманные сообщения и даже взаимодействуют с другими пользователями в выбранной социальной сети. Эти более сложные учётные записи называются клонами, киборгами или виртуалами. Они не всегда бывают полностью автоматизированы, но это, тем не менее, «ненастоящие» люди, управляемые одним человеком или группой людей, желающими скрыть свою истинную личность.

Некоторые правительства работают с учётными записями-«виртуалами» достаточно широко. Взять к примеру санкт-петербургское «Агентство Интернет-исследований», в котором были заняты десятки людей, при известном объёме расходов в 2,3 миллиона долларов распространявших его мемы в Facebook, YouTube и на других сайтах. Или китайскую «Пятидесятицентовую армию», которая использует огромное количество учётных записей-клонов для наводнения Интернета комментариями, которые должны отвлекать людей от кризисов или хвалить правительство. Первая из этих стран активно использует боты для нападок на противников Кремля, в то время как вторая, по имеющимся данным, пользуется человеческим трудом для управления учётными записями-оболочками. Однако ботами часто называют оба этих типа учётных записей.

ВИРТУАЛЬНАЯ РЕАЛЬНОСТЬ УЖЕ ГОТОВА МАНИПУЛИРОВАТЬ ВАШИМИ ЭМОЦИЯМИ

Самые эффективные сети ботов, манипулирующие публичным обсуждением в социальных сетях, пользуются как автоматизированными учётными записями, так и киборгами. Боты в сети, или ботнете, для достижения своей цели используют различные взаимодополняющие тактики: 

  • Виртуалы (человекоботы или попросту киборги) завязывают разговор, распространяя новые идеи и способствуя дискуссии в онлайн-сообществах.
  • Этим идеям затем вторят до нескольких десятков тысяч автоматизированных учётных записей, которые мы называем «ботами-усилителями», прибегая к перефразированию, ретвитам и повторной публикации тех же формулировок.
  • «Боты одобрения» занимаются отдельными твитами или комментариями, прибегая к «лайкам», ретвитам или «ответам» для повышения убедительности и придания обоснованности некоей идее.
  • Если речь идёт о крайне спорной тематике, боты часто используются для травли и нападок на лиц и организации в попытке выдавить их из диалога.

С полной автоматизацией или нет, близкие и понятные человеческие личности в сочетании со сверхчеловеческими способностями к постингу – ключ к успеху политических ботов. На первый взгляд они похожи на обычных пользователей социальных сетей, и большинство пользователей покупаются на обман, потому что у большинства людей нет времени на пристальное изучение личностей ботов. Также большинство пользователей и даже исследователей не понимает, каким образом огромное количество ботов может влиять на тенденции или новостной контент – в том числе связанные с политикой США – в Twitter, Facebook или Google.

Трамп перед десятками миллионов своих читателей в Twitter поблагодарил Минси за твит о том, что он «тяжко трудится ради американского народа». (На момент появления твита Минси, Трамп играл в гольф.) 

И до сих пор неясно, насколько сильно общественное мнение о кандидатах или спорных политических вопросах может менять общественное мнение. Когда тысячами или десятками тысяч клонов и автоматизированных учётных записей управляет один пользователь или группа, они могут создавать такое впечатление, как будто многие тысячи людей верят в одно и то же. Подобно тому, как такие СМИ, как телевидение и радио некогда использовались для создания согласия, ботов можно использовать для создания социального консенсуса.

Во время самых успешных кампаний при участии ботов на реальных пользователей соцсетей влияют настолько, что они добровольно участвуют в распространении в своих сетях неправдивого или провокационного контента. Это нередко приводит к освещению в мейнстримных СМИ, что способствует развитию кампании даже в тех случаях, когда это освещение призвано опровергнуть неправдивую или дезориентирующую информацию.

Исследователи из Data for Democracy Крис Шеффер, Бен Старлинг и К.Э. Кэри заметили это явление после взлома предвыборной электронной почты французского президента Эмманюэля Макрона всего за несколько дней до выборов во Франции. Некая группа пользователей организовалась в разделе «/pol» анонимного Интернет-сообщества 4chan. Шеффер, Старлинг и Кэри проследили за тем, как эти пользователи-катализаторы создали кампанию по распространению добытых с помощью взлома данных предвыборной кампании Макрона среди более широкой аудитории в Twitter. 

Как только этот контент выложили в Twitter, его быстро подхватили учётные записи с большим количеством читателей, к примеру, @DisobedientMedia и @JackPosobiec, которые, имея свыше 230 000 читателей, работают, по выражению исследователей, «усилителями сигнала». Бен Ниммо, специалист по информационной обороне Атлантического совета (а также один из соавторов этой статьи) в общих чертах охарактеризовал эти же роли как пастухов и послушных овчарок.

Эти роли, как их ни обозначай, неизменны от кампании к кампании: кто-то создаёт посыл и стратегию, а автоматизированные учётные записи и фейки используются для их популяризации. После обретения популярности мем легко привлекает внимание новых пользователей социальных сетей и в итоге естественным образом проникает в мейнстрим и СМИ. Недавние исследования показывают, что боты могут также создаваться для взаимодействия с определёнными пользователями-людьми, которые с большей вероятностью могут заинтересоваться неким пропагандистским материалом и распространить его. Авторы утверждают, что автоматизированные агенты могут использоваться для взаимодействия с пользователями с определёнными личными взглядами или положением в сети с целью распространения или устранения фейковых новостей.  

Будущее ботов

Несмотря на то, что такие компании, как Twitter and Facebook, признают проблему ботов и стремительно удаляют ботов со своих площадок, боты становятся всё сложнее и их всё труднее выявить.

Целый ряд стартапов из Кремниевой долины наряду с маститыми техническими гигантами вроде Amazon и Google громко призывает к созданию «диалоговых агентов» (они же – чат-боты), способных вести правдоподобный разговор с человеком. В большинстве случаев эти компании не имеют никакого отношения к пропаганде и просто хотят, чтобы вам стало легче болтать с приложениями, помогающими забронировать билеты на самолёт или заказать продукты.

Реальность, по крайней мере в цифровом пространстве, будет всё более легкодоступной.

Но та самая технология, которая позволяет машинам понимать человеческий язык и общаться на нём, может и будет использоваться для того, чтобы сделать ботов в соцсетях ещё правдоподобнее. Вместо кратких, простых сообщений, вываливаемых на любого, кто готов слушать, эти боты будут вести связные разговоры с другими пользователями, споря и убеждая с бесконечным терпением. Также их можно программировать на сбор, хранение и использование полученной в этих разговорах информации в последующем общении.

Текстовое общение – это лишь начало. Исследователи Вашингтонского университета недавно создали до жути правдоподобное фейковое видео Барака Обамы, в котором он произносит речь; тем самым они доказали, что создавать аудио- и видеозаписи «под человека» возможно. Аналогичным образом становится всё реальнее создание аудио- и видеозаписей совершенно не реальных событий. Технология, которая позволяет ботам вступать в правдоподобный диалог, в итоге будет дополнена способностью к созданию аудио- и видеозаписей. Людям уже трудно распознавать относительно наивных текстовых ботов под личинами реальных пользователей; этот прогресс в машинном обучении даст пропагандистам ещё больше возможностей для манипулирования публикой. Реальность, по крайней мере в цифровом пространстве, будет всё более легкодоступной. Эта неопределённость уже сама по себе является победой для пропагандиста. Однако гражданское общество может и должно работать над разумными решениями этой проблемы.

До настоящего времени компьютерная пропаганда в значительной степени ограничивалась политикой. Управлять тысячами виртуалов и десятками или сотнями тысяч ботов, необходимых для проведения масштабной информационной операции, дорого. Однако, как это бывает с каждой новой технологией, стоимость управления ботнетами снижается. Программы, используемые для работы с подобной автоматикой, сейчас как никогда доступны. 

Боты всё больше используются для обращения к группам, сплотившимся вокруг общей проблемы, брендам и корпорациям. Голливудские фильмывроде прошлогоднего перезапуска «Охотников за привидениями» и такие знаменитости, как Шайа Лабаф, становились мишенями армий троллей, организованных на Reddit и 4chan. Возможно, совсем скоро агрессоры, управляющие группой виртуалов в США, вбросят фейковую новость о некоей корпорации – скажем, устроят масштабную утечку данных – и усилят это сообщение с помощью 10 000 ботов так, чтобы этот материал вошёл в число популярных в Twitter, а затем подождут, пока материал подхватят мейнстримные СМИ, после чего приобретут крупный пакет акций или просто заявят о своей победе.

Собственно, подобные атаки произошли в Польше, где боты использовались для распространения пропаганды от имени фармацевтических компаний и компаний, работающих с природными ресурсами.

Как реагировать на (ро)ботов

Существует растущая и сильная потребность в стратегиях, призванных помешать операциям влияния с участием ботов формировать нашу политику и культуру. 

Если политических ботов можно применять для отравления публичного дискурса, то их можно применять и для его защиты. Организации, подвергающиеся злонамеренной атаке, могли бы запускать «контрботов» для отвлечения агрессоров и распространять одобрительные сообщения в ответах в Twitter и комментариях в Facebook. Подобная тактика «когнитивного отказа в обслуживании» в исполнении хороших ботов может помочь отвоевать пространство, которым пользуются цифровые агрессоры для создания консенсуса. Боты также можно использовать в качестве социального протеза для распространения сведений о социальных проблемах или установления связи между активистскими группами, которые в противном случае могут и не связаться друг с другом.

Этот подход сопряжён с определёнными рисками. К примеру, использование ботов для маркировки фейковых новостей могло бы ударить рикошетом или укрепить убеждения людей. Многие справедливо предполагают, что создание хороших ботов для конкуренции с плохими ботами сводит публичный дискурс к гонке вооружений. Вместо того, чтобы вновь создавать пространство для демократического обсуждения в социальных сетях, стратегии с применением контрботов несут в себе риск дальнейшего ухудшения дискуссии. Но реальность, к несчастью, такова, что гонка вооружений уже началась, и по-настоящему вооружена лишь одна сторона.

Как бы то ни было, этот подход «боты против ботов» является краткосрочным решением. В конечном итоге ботам обеспечивают поле для деятельности социальные сети. В связи с этим компании-владельцы социальных сетей имеют больше всего возможностей для решения проблемы в корне. Однако эти же компании пока что практически не проявляли инициативы в борьбе с социальными ботами из-за финансовой заинтересованности: деятельность ботов улучшает показатели, которые используют маркетологи для оправдания затрат на рекламу в социальных сетях.

Хотя Facebook и делится своими сведениями о купленной россиянами рекламе с Конгрессом, этот социальный гигант практически ничего не сообщал о возможном использовании ботов или киборгов для управления групповыми страницами на сайте, где пользующиеся этой платформой люди действительно активно взаимодействуют с пользователями, не принадлежащими к их ближайшим кругам общения. 

PR-отдел и стратегический отдел Twitter регулярно называют внешнее исследование «влияния ботов на Twitter» как «нередко неточное и методологически небезупречное». Однако компании не удаётся эффективно привлечь собственных исследователей к сотрудничеству со сторонними учёными в попытках решить остро стоящую для неё проблему ботов.

Google же в основном удавалось не ввязываться в публичные обсуждения того, как использование ботов на её различных платформах может влиять на политику или знания общественности. И это – несмотря на то, что профессор Колумбийского университета Джонатан Олбрайт обнаружил, что Youtube, принадлежащий Google, «осваивается в качестве мощного рупора для определённых политических сил».

В защиту этих платформ следует сказать, что они, работая с киборгами и виртуалами, сталкиваются с обескураживающей проблемой: ими управляют реальные люди, и эта анонимная деятельность не всегда нарушает Условия использования соответствующей платформы. Однако есть определённые меры, основанные на здравом смысле, которые социальные сети могут принимать для решения этой проблемы:  

  • Помечать ботов как автоматизированные учётные записи. Это технически достижимо и увеличило бы прозрачность политического диалога в Интернете.
  • Делиться данными для сетевого анализа с исследователями. Это пролило бы свет не только на то, кто управляет ботами и как эти лица связаны между собой, но и на динамику распространения сообщений ботов по всей социальной сети.
  • Вводить алгоритмические «теневые баны», при которых учётные записи не удаляются с платформы, но их деятельность скрывается от других пользователей. Такие баны могут незаметно свести к минимуму аудиторию подозреваемых учётных записей, хотя и не решат основную проблему подлинности.

Несмотря на вопросы с определением конкретных методов для решения проблемы, ясно одно: если платформы не возьмутся за решение этого вопроса, снижение доверия к диалогам в Интернете и деградация публичного дискурса будут продолжаться, а онлайн-пространства будут становиться всё менее пригодными для использования.

Об авторах:

Рене Диреста (@noupside) Основательница Haven, лауреатка Президентской стипендии для лидеров 2017 года.

Джон Литтл (@blogsofwar) Основатель Blogs of War, сотрудник Института будущего

Джонатон Морган (@jonathanmorgan) Основатель и генеральный директор NewKnowledge.io

Лайза Мария Ньюдерт (@lmneudert) Научная сотрудница проекта «Компьютерная пропаганда», Оксфордский университет

Бен Ниммо (@benimmo) Специалист по информационной обороне, Лаборатория цифровых криминалистических исследований, инициатива «Европа будущего», Атлантический совет

Сэмюэл Вулли (@samuelwoolley) Директор по научно-исследовательской работе лаборатории DigIntel Lab, Институт будущего, научный сотрудник проекта «Компьютерная пропаганда», Оксфордский университет

Источник

Читайте также:

ОТРЫВОК ИЗ КНИГИ МАРТИНА ФОРДА «РОБОТЫ НАСТУПАЮТ»

 

ОТПЕЧАТОК ТЕХНОЛОГИЙ: ЧТО СТАНЕТ С ПРЕСТИЖНЫМИ ПРОФЕССИЯМИ

 

ТАЙЛЕР КОУЭН. СРЕДНЕГО БОЛЕЕ НЕ ДАНО. ОТРЫВОК ИЗ КНИГИ