«Мы строим антиутопию под управлением искусственного интеллекта, с каждым кликом мыши», — говорит техносоциолог Зейнеп Тюфекчи. Настоящая угроза исходит даже не от машин. Нам нужно понять то, как сильные мира сего могут использовать ИИ, чтобы контролировать нас — и что мы можем сделать в ответ.

Когда люди выказывают опасения касательно искусственного интеллекта, очень часто они строят образы гуманоидных роботов, ставших неуправляемыми. Знаете ведь? Терминатор? Знаете, с этим можно согласиться, но эта угроза от нас далека. Или мы переживаем по поводу цифровой слежки с метафорами из прошлого. «1984», произведение Джорджа Оруэлла, снова попадает в списки бестселлеров. Это отличная книга, но эта антиутопия не подходит для XXI века. Мы должны бояться не того, что сделает с нами искусственный интеллект самостоятельно, а того, как люди у власти будут его использовать для контроля и управления нами новыми, иногда скрытыми, коварными и неожиданными способами. Основная часть технологии, что грозит нашим свободе и достоинству уже в обозримом будущем, разрабатывается компаниями, работающими в бизнес-сфере сбора и продажи наших сведений и интересов рекламщикам и таким компаниям, как Facebook, Google, Amazon, Alibaba, Tencent.

 

Теперь искусственный интеллект также начал способствовать укреплению их бизнеса. Может казаться, что искусственный интеллект — лишь новая штука после онлайн-рекламы. Это не так. Это совершенно иная категория. Это совсем другой мир, и у него большой потенциал. Он может ускорить наше понимание многих сфер изучения и исследования. Но хочу парафразировать знаменитого голливудского философа: «С огромным потенциалом приходит огромный риск».

Теперь давайте обсудим основной факт из наших цифровых жизней, онлайн-рекламу. Мы вроде бы не принимаем её всерьёз. Она навязчива, неэффективна. Все мы имели опыт преследования нас в сети рекламой, основанной на чём-то, что мы искали или прочли. Например, вы присмотрели пару ботинок, а потом всю неделю они следуют за вами повсюду. Даже когда вы сдаётесь и покупаете их, они всё ещё преследуют вас. Нас задевает такая форма простой, дешёвой манипуляции. Мы закатываем глаза и думаем: «Знаете что? Эти штуки не работают». Однако в интернете цифровые технологии не просто реклама. Для понимания этого представим пример из реального мира. Замечали ведь, что на кассах в супермаркетах, около кассира, конфетки и жевательные резинки лежат на зрительном уровне детей? Так задумано, чтобы они хныкали, упрашивая своих родителей, пока те рассчитываются на кассе. Это называется архитектура убеждения. Это неприятно, но это работает. Потому вы видите это в каждом супермаркете. В реальном же мире такие архитектуры убеждения вроде как ограничены, потому что набор товаров, который можно разместить возле кассира, конечен. Верно? А конфеты и жевательная резинка — их одинаково покупают все, хотя, конечно, чаще всего те люди, что берут с собой маленьких хныкающих человечков. В реальном мире мы живём с такими ограничениями.

Однако в виртуальном мире архитектуры убеждения могут быть выстроены в масштабе миллиардов, и они могут обозначать, оценивать, понимать и быть применены к индивидуумам, по одиночке, выявляя ваши слабости, и они могут быть разосланы каждому на телефон в частном порядке, поэтому мы этого не замечаем. И это отличается от всего. И это лишь один из азов того, на что способен искусственный интеллект.

ВЫБОР FST. 2 — 8 ДЕКАБРЯ 2017

Давайте рассмотрим пример. Вот вы хотите продать билеты на самолёт до Вегаса. Так? В прежние времена вы могли бы подумать о сборе демографических данных, основываясь на опыте и ваших предположениях. Вы можете попробовать рекламировать для мужчин в возрасте от 25 до 35, или людей, имеющих высокий лимит по кредитной карте, или для супругов-пенсионеров. Так? Раньше вы бы действовали так.

С массивами данных и машинным обучением сейчас это уже работает по-другому. Чтобы это представить, подумайте о тех данных, что хранит о вас Фейсбук: каждый статус, что вы когда-то выставляли, каждый ваш диалог, каждое место, с которого вы заходили, все ваши фотографии, что были вами туда загружены. Если вы начали печать что-то, передумали и удалили, Фейсбук сохраняет для анализа и это. Всё больше он старается сопоставить вас с вашими данными офлайн. Он также скупает множество информации от брокеров данных. Это может быть что угодно — от ваших финансовых ведомостей до массива вашей истории браузера. Верно? В США такая информация собирается в рутинном порядке, сопоставляется и продаётся. В Европе правила более строгие.

И вот что происходит в результате: путём смешивания всех этих данных, эти машинно-обучаемые алгоритмы — вот почему они называются алгоритмами обучения — учатся понимать характеристики людей, ранее приобретавших билеты до Вегаса. Обучившись этому по имеющимся данным, они также учатся тому, как применить это к новым клиентам. И если они сталкиваются с новым для них человеком, они могут определить, захочет ли он приобретать билет до Вегаса или нет. Хорошо. Вы думаете, это лишь предложение купить билет до Вегаса. Я могу отклонить его. Но проблема заключается не в этом. Проблема в том, что мы уже не понимаем, как работают эти комплексные алгоритмы. Мы не понимаем, как они занимаются этой категоризацией. Это огромные матрицы, тысячи строк и столбцов, может, миллионы строк и столбцов, и ни программисты, ни даже любой, кто взглянет на это, даже имея все данные, уже не поймёт, как конкретно всё это работает. Это как если бы вы знали, о чём я думаю в данный момент, словно вам показали профиль моего мозга. Мы словно уже не занимаемся программированием, мы растим интеллект, который мы не понимаем полностью.

И всё это работает лишь при наличии доступа к громадному объёму информации, что подстёгивает к тотальной слежке за каждым из нас, дабы эти машинно-обучаемые алгоритмы действовали. Вот почему Facebook хочет собрать любую возможную информацию о вас. Так эти алгоритмы лучше работают.

И давайте вернёмся ненадолго к тому примеру с Вегасом. Что, если бы система, работу которой мы полностью не понимаем, подобрала такой вариант, что продать билет до Вегаса легче людям с биполярным расстройством, готовым вот-вот перейти в маниакальную фазу. Такие люди, как правило, становятся транжирами, заядлыми игроками. Они могли сделать это, вы бы и не поняли, что это то, ради чего вёлся сбор данных. Я однажды привела этот пример группе специалистов в области информатики, а после этого один из них подошёл ко мне. С озадаченным видом он сказал: «Вот почему я не смог опубликовать это». Я в ответ: «Что не смогли опубликовать?» Он попытался понять, действительно ли можно выявить формирование мании исходя из сообщений в соцсетях, до проявления клинических симптомов, и это сработало, и это сработало очень хорошо, и он понятия не имел, как это работало или на чём основывалось.

AI INDEX REPORT 2017 СТЭНФОРДСКОГО УНИВЕРСИТЕТА

Если он не опубликует это, проблема не будет решена, потому что уже существуют компании, занимающиеся разработкой такой технологии, и многое из этого уже работает. Это уже не так сложно.

Вы когда-нибудь заходили на YouTube, собираясь посмотреть одно видео, а спустя час вы уже посмотрели 27? Знаете, на Youtube есть эта колонка справа, на которой указано: «Следующее», и оно автоматически запускает что-то? Это алгоритм, подбирающий то, чем вы можете заинтересоваться и, возможно, сами не найдёте. Это работа не человека. Это то, что делают алгоритмы. Они улавливают, что посмотрели вы и что посмотрели люди, подобные вам, и заключают, что это, должно быть, то, что вас интересует, то, что вы хотите видеть, и просто показывает больше. Это звучит как хорошая и полезная функция, но бывают и исключения.

В 2016-м я присутствовала на собраниях тогда ещё кандидата Дональда Трампа для изучения поддерживающих его масс. Я изучаю социальные движения, поэтому изучала также и это. И затем я хотела написать что-нибудь об одном из его собраний, и я пару раз просмотрела его на Youtube. YouTube начал рекомендовать мне и включил автопроигрывание роликов на тему превосходства белых людей в растущем порядке экстремизма. Если я смотрела один, он предлагал мне к просмотру ещё более экстремальный и автопроигрывал его тоже. Если вы смотрите контент, связанный с Хилари Клинтон или Берни Сандерсом, YouTube рекомендует и автопроигрывает видео на тему заговора левых, и дальше — хуже.

Что же, вы можете подумать, что это политика, но это не так. Это совсем не о политике. Это лишь алгоритм, предугадывающий человеческое поведение. Я однажды посмотрела на Youtube ролик о вегетарианстве, и YouTube рекомендовал и автопроиграл видео о том, каково быть веганом. Вы словно никогда не бываете достаточно радикальны для YouTube.

Так что же происходит? Алгоритм YouTube запатентован, но вот что я думаю о том, как всё происходит. Алгоритм вычислил, что если ты сможешь заставить людей думать, что ты способен показать им нечто более жёсткое, они с большей вероятностью останутся на сайте, просматривая ролик за роликом, спускаясь в эту кроличью нору, пока Google снабжает их рекламой. Поскольку никто не возражает против «коммерческой» этики, такие сайты могут определять людей, ненавидящих евреев, тех, кто считает евреев паразитами, тех, у кого имеется столь явный антисемитский контент, и позволяет вам направить рекламу на них. Они также могут мобилизовать алгоритмы для поиска аудитории, разделяющей ваши взгляды, людей, у которых нет столь явного антисемитского контента в профиле, но кто, согласно алгоритму, может быть восприимчив к такого рода сообщениям, позволяя вам направить рекламу и на них. Сейчас это может звучать как неправдоподобный пример, но это реально. ProPublica расследовала это и обнаружила, что вы в самом деле можете делать это в Facebook, и Facebook любезно предложил способы расширения этой аудитории. BuzzFeed попробовал это с Google, и очень быстро они выяснили, да, вы можете делать это и с Google. И это даже не было дорого. Журналист ProPublica потратил около 30 долларов на обозначение этой категории.

В прошлом году менеджер социальных сетей из штаба Дональда Трампа раскрыл, что они использовали тёмные посты в Facebook для демобилизации людей, не чтобы их переубедить, а для того, чтобы убедить их не голосовать вовсе. И чтобы сделать это, они особенно нацелились, к примеру, на мужчин-афроамериканцев в ключевых городах типа Филадельфии, и я собираюсь прочесть именно то, что он сказал. Я цитирую.

Они использовали «приватные посты, чей просмотр в ходе кампании контролируется, и потому их видят лишь те люди, которые нам требуются. Мы смоделировали это. Это кардинально повлияет на её возможность вернуть этих людей на свою сторону».

«БУДУЩЕЕ» ДЖЕННИФЕР ГИДЛИ

Что же собой являют эти тёмные посты? Мы не знаем. Facebook отказывается это раскрывать.

Facebook также алгоритмично располагает посты, которые выкладывают ваши друзья, или странички, на которые вы подписаны. Он не показывает вам всё хронологически. Он задаёт порядок так, как, по расчётам алгоритма, можно увлечь вас, чтобы вы пробыли на сайте подольше.

У этого есть множество последствий. Вы можете подумать, что кто-то игнорирует вас в Facebook. Возможно, алгоритм даже и не показывал им ваш пост. Алгоритм даёт приоритет некоторым из них и прячет другие.

Эксперименты показывают, что то, что алгоритм подбирает для показа вам, может влиять на ваши эмоции. Но это не всё. Это также влияет на политическое поведение. В 2010-м, в ходе промежуточных выборов, Facebook провёл эксперимент над 61 млн человек в США, который был раскрыт после проведения. Так, некоторым людям показали объявление «Сегодня день выборов», более простой вариант, а некоторым показали его же с крошечным изменением, с этакими небольшими иконками ваших друзей, уже кликнувших на кнопку «Я проголосовал». Вот такое простое изменение. Понятно? Эти картинки были единственной разницей, и этот пост, показанный лишь раз, обернулся дополнительными 340 000 избирателей на этих выборах, согласно этому исследованию, как было подтверждено списками избирателей. Счастливая случайность? Нет. Поскольку в 2012-м они повторили тот же эксперимент. И в этот раз этот гражданский призыв, показанный лишь раз, обернулся 270 000 проголосовавших. Для сравнения, результат выборов президента США в 2016-м решился голосами 100 000 избирателей. Сейчас Facebook может также легко вычислить ваши политические взгляды, даже если вы никогда не раскрывали их на сайте. Верно? Эти алгоритмы могут делать это очень легко. Что, если платформа с такими возможностями решит сделать так, что на выборы придут больше сторонников одного кандидата? Откуда нам знать об этом?

Мы начали с чего-то, казалось бы, безобидного — онлайн реклама, преследующая нас всюду, — и мы добрались до чего-то иного. Как народ и как отдельные граждане, мы больше не знаем, видим ли мы одну и ту же информацию, или что видит кто-либо другой, и без единой информационной базы, постепенно, публичные дебаты становятся невозможны, и мы как раз на начальных стадиях этого. Эти алгоритмы крайне легко могут вычислить такие вещи, как этническая принадлежность, религиозные и политические взгляды, личность, уровень интеллекта, довольства жизнью, наркозависимость, развод родителей, возраст и пол, лишь по лайкам в Facebook. Эти алгоритмы могут вычислить протестующих, даже если их лица частично скрыты. Эти алгоритмы, возможно, способны определить сексуальную ориентацию людей лишь по их фотографиям в профиле знакомств.

НОВАЯ КНИГА И НОВЫЙ ОПТИМИЗМ ДЖАРОНА ЛАНЬЕ

Сейчас это лишь вероятные догадки, так что они необязательно будут на 100% верны, но я не вижу мощного сопротивления искушению использовать эти технологии только потому, что есть какие-то ложноположительные результаты, которые, конечно же, создадут целый ряд проблем. Представьте, что государство может сделать с огромным объёмом данных, имеющихся у него на собственных жителей. В Китае уже используется технология опознавания лиц для вычисления и ареста людей. И вот в чём трагедия: мы строим эту инфраструктуру авторитарного наблюдения, лишь чтобы побудить людей кликать на рекламу. И это не будет авторитаризм Оруэлла. Это не «1984». Если авторитаризм явно использует страх, чтобы терроризировать нас, мы все будем напуганы, но мы будем знать об этом, мы будем ненавидеть это и будем сопротивляться. Но если люди у власти используют эти алгоритмы, чтобы незаметно следить за нами, оценивать нас и подначивать нас, чтобы предугадывать и опознавать нарушителей порядка и бунтарей, чтобы масштабно внедрять архитектуру убеждения и манипулировать отдельными людьми по одиночке, используя их личные, уникальные слабости и уязвимости, и если они масштабно занимаются этим через наши личные экраны так, что мы даже не знаем, что видят наши сограждане и соседи, этот авторитаризм окутает нас, словно паучья сеть, и мы даже не будем знать, что мы уже в ней.

Итак, рыночная капитализация Facebook приближается к отметке в полтриллиона долларов. Это потому, что он хорошо работает как архитектура убеждения. Но строение этой архитектуры одинаково, продаёте ли вы туфли, или продаёте политику. Эти алгоритмы не осознают разницы. Те же алгоритмы, что расслабили нас, сделав нас более податливыми для рекламы, также организуют наши политические, личные и социально-информационные потоки, и это то, что должно измениться.

Не поймите меня неправильно, мы используем цифровые платформы, потому что они очень ценны для нас. Я пользуюсь Facebook, чтобы быть на связи с друзьями и семьёй повсюду. Я уже писала о том, как важны соцсети для социальных движений. Я изучала, как эти технологии могут быть использованы, чтобы обойти цензуру по всему миру. Но это не значит, что люди, управляющие, скажем, Facebook или Google, злостно и сознательно пытаются сделать страну или мир более поляризованными и поощрять экстремизм. Я читала много благоразумных утверждений, которые выдвинули эти люди. Но важны не намерения или утверждения людей в области технологий, а структуры и бизнес-модели, которые они создают. И в этом суть проблемы. Или Facebook — гигантская афёра стоимостью в полтриллиона долларов, а реклама на этом сайте не работает, он не работает как архитектура убеждения, или его сила влияния является поводом для большого беспокойства. Это либо одно, либо другое. Та же ситуация и с Google.

Так что мы можем сделать? Это нужно менять. Сейчас я не могу предложить простой способ, потому что нам нужно реструктурировать весь путь, по которому работают наши цифровые технологии. Всё — от того, как технология развивается, до того, как стимулы, экономические и иные, встроены в систему. Мы должны смело встретить и попытаться справиться с отсутствием прозрачности, образованным собственными алгоритмами, структурной проблемой непрозрачности процесса машинного обучения, всеми этими данными, которые бессистемно собираются о нас. Перед нами стоит большая задача. Мы должны мобилизовать нашу технологию, нашу креативность и да, нашу политику так, чтобы мы могли создать искусственный интеллект, который поддерживает нас в наших человеческих целях, но который также ограничен нашими человеческими ценностями. И я осознаю, что это будет непросто. Мы могли бы даже не согласиться с тем, что значат эти термины. Но если мы серьёзно относимся к тому, как эти системы, от которых мы так сильно зависим, функционируют, я уже не вижу, как мы можем откладывать этот разговор. Эти структуры организуют то, как мы работаем, и они контролируют, что мы можем делать, а что нет. И многие из этих платформ, финансируемых рекламой, кичатся, что они бесплатны. В этом контексте это означает, что продаваемый продукт — это мы. Нам нужна цифровая экономика, где наши данные и наше внимание не продаются деспоту или демагогу, предложившему наибольшую цену.

Итак, возвращаясь к тому голливудскому парафразу, мы хотим огромного потенциала от искусственного интеллекта и расцвета цифровых технологий, но для этого мы должны встретить эту огромную угрозу с широко открытыми глазами уже сейчас.

Читайте также:

КАК ИНТЕРНЕТ КАРДИНАЛЬНО ИЗМЕНИЛСЯ В 2014 ГОДУ

 

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ УСИЛИВАЕТ ВАЖНОСТЬ ЧЕЛОВЕЧЕСКОЙ ЭТИКИ

 

АНДРЕЙ КУРПАТОВ: ЧЕТВЕРТАЯ МИРОВАЯ