Вы находитесь где-то на аутическом спектре? Вы притворяетесь экстравертом, а на самом деле вы — интроверт? О таких чертах могут рассказать вашей компании, правительству или даже вашим знакомым — вы даже не узнаете, что окружающие были проинформированы о них, и что они вообще существуют.

Редактор strategy+business Арт Кляйнер — о том, чем опасны и одновременно полезны алгоритмы, анализирующие наш характер и черты личности.

Одно из самых противоречивых за последнее время психологических исследований появилось в прошлом месяце в виде анонса статьи, которая будет опубликована в Journal of Personality and Social Psychology. Илун Ван и Михал Косински, представляющие Высшую школу бизнеса Стэнфордского университета, использовали глубокую нейронную сеть (компьютерную программу, имитирующую сложные нейронные взаимодействия в мозге человека) для анализа фотографий, взятых с сайта знакомств, и выявления сексуальной ориентации людей на изображениях. Алгоритм сумел правильно различить гетеро- и гомосексуальных мужчин в 81% случаев. А если ему для анализа предоставляли пять фотографий одного и того же человека, показатель точности вырастал до 91%. Для женщин оценка была ниже: 71% и 83% соответственно. Но алгоритм показал гораздо лучшие результаты, чем люди, которые, основываясь лишь на одной фотографии, смогли правильно угадать ориентацию только 61% мужчин и 54% женщин.

Конечно, подобные методы могут быть использованы для раскрытия людей, которые скрывают свою гомосексуальность, либо ошибочно идентифицировать их как геев или лесбиянок. Группы защитников ЛГБТ GLAAD и Human Rights Campaign совместно осудили исследование как неточное, указав, что в нем не участвовали не-белые лица, а алгоритм не идентифицировал бисексуальность. Но, как отмечает Washington Post, на карту поставлены еще более фундаментальные проблемы. Репрессивные правительства, нетолерантные бизнесы или шантажисты могут использовать эти данные против людей.

- Главные налоговые изменения, судебные уроки и тенденции практики.

- Налоговые проверки: как подготовиться, как пройти, как обжаловать.

- Актуальные и опасные способы налоговой оптимизации — полезные идеи по конкретным сделкам.

Среди спикеров — лучшие специалисты (партнеры, адвокаты, юристы, советники) в России из таких компаний, как: Ernst & Young, Dentons, Goltsbplat BLP, Sameta, Forward Legal, Городисский и партнеры, Taxology и др. 

Исследование также вызывает другие вопросы, помимо сексуальной ориентации, — вопросы, касающиеся потенциальных возможностей для вторжения в частную жизнь и злоупотребления этим. Такие алгоритмы основаны на машинном обучении. Благодаря повторению и калибровке компьютерные программы учатся сопоставлять свои модели с реальностью и постоянно совершенствовать эти модели, пока они не достигнут огромной прогностической точности. Программа такого рода может выбирать атрибуты, которые совершенно не интересовали человечество, — и собирать огромные массивы сведений о них. Мир, в котором это распространено, становится похожим на мир из фильма «Особое мнение», где люди постоянно приспосабливаются к более «нормальному» поведению, потому что окружающие их системы отслеживают не только то, что они сделали, но и то, что могут сделать.

Стэнфордские исследователи Ван и Косински указали на это в своей статье: алгоритмы могли бы овладеть, а затем и превзойти человеческую способность «точно оценивать характер, психологические состояния и демографические черты людей по их лицам», — пишут они. «Люди тоже оценивают с некоторой минимальной точностью политические взгляды окружающих, честность, сексуальную ориентацию или даже вероятность победы на выборах». Хотя суждения не всегда точны — вы не всегда можете сделать вывод о сайте по его домашней странице, — эта низкая точность объясняется не недостатком признаков, а нашей общей неопытностью при их интерпретации. Люди, которые действительно пытаются научиться анализировать других людей, оттачивают мастерство, а машина, которая не умеет делать ничего другого — и обладает бесконечным количеством изображений для работы, — вероятно, может стать необычайно профессиональной.

А что, если дело не ограничится статическими портретами? Представьте себе, какую статистическую корреляцию можно было бы получить о человеке по видео — оценивая интонацию голоса, осанку, движения, способы реагирования друг на друга, морщины на носу и поднятие бровей и т.д.? Предположим, машина могла бы получать эти сигналы от камеры на ноутбуке или от микрофона на смартфоне. Алгоритм такого рода, анализирующий выражения лица и голосовую интонацию, мог бы отслеживать, кто доволен своей работой, а кто тайно рассылает резюме.

Многие из этих сигналов, вероятно, были бы полностью незаметны для человеческого сознания — как скрытое послание. Но датчики и алгоритмы наверняка заметят их. Добавьте к этому такие поведенческие сигналы, как схемы снятия наличных в банкоматах или посещение веб-сайтов, и вы сможете разработать чрезвычайно точный профиль любого человека, созданный без его ведома. 

Известно, что правительство Китая хочет ввести систему контроля за тем, как ведут себя граждане страны. Пилотный проект уже запущен в городе Ханчжоу провинции Чжэцзян в Восточном Китае. «Человек может получить черные отметки за такие нарушения, как безбилетный проезд, переход улицы в неположенном месте и нарушение правил планирования семьи», — писал Wall Street Journal в ноябре 2016 года. «Алгоритмы будут использовать ряд данных для расчета рейтинга гражданина, который затем может быть использован при принятии решений во всех видах деятельности, таких как получение кредитов, ускоренный доступ к лечению в государственных учреждениях или возможность отдыхать в роскошных отелях». Реализация этой системы в стране с 1,4 млрд населения, как отмечал журнал, станет огромной и, возможно, невыполнимой задачей. Но даже если её применят сначала только локально, как и все системы машинного обучения, мастерство алгоритма будет только увеличиваться со временем.

У машинного обучения есть потенциал, чтобы куда проще раскрывать секреты путем сопоставления деталей наблюдений с другими исследованиями поведения человека. Вы находитесь где-то на аутическом спектре? Вы склонны быть жертвой издевательств или издеваться над другими самостоятельно? Есть ли у вас потенциальная зависимость от азартных игр, даже если вы никогда не играли? Ваши родители отказались от вас? У ваших детей легко возникают проблемы? Сильное или слабое у вас либидо? Вы притворяетесь экстравертом, а на самом деле вы — интроверт? (или наоборот)? Есть ли у вас какие-то личные особенности, которые в вашей компании считают признаком высокого потенциала — или наоборот? О таких чертах могут рассказать вашей компании, правительству или даже вашим знакомым — вы даже не узнаете, что окружающие были проинформированы о них, и что они вообще существуют.

КАК ИНТЕРНЕТ КАРДИНАЛЬНО ИЗМЕНИЛСЯ В 2014 ГОДУ

Мне вспомнилось высказывание покойного мыслителя Эллиотта Жака, сделанное в 2001 году. Его исследования по иерархиям и возможностям сотрудников, которые, на мой взгляд, не имеют себе равных, привели его к осознанию того, что позиции людей в организации зависят от их когнитивных способностей: чем сложнее задачи могут они решить, тем выше они должны подняться. Жак нашел способ обнаружить когнитивную сложность, просматривая видео, в котором человек говорит. Он анализировал, как он или она складывают слова, и присваивал этому человеку «стратум», который должен соответствовать его уровню в иерархии.

«Вы можете проанализировать кого-то, посмотрев 15 минут видеозаписей, — говорил он мне. — И вы можете за несколько часов научить кого-то проводить такой анализ». Но он отказался сделать тест и обучение общедоступными. «Будет слишком много консультантов, которые пойдут в фирмы и скажут: «Мы можем оценить всех ваших людей». Затем подчиненным придется услышать от боссов: «Психолог говорит мне, что вы — «Стратум II», а у меня его нет».

Минули дни, когда кто-то вроде доктора Жака мог сказать «нет». Недалек тот час, когда все мы будем подвергаться компьютерному анализу. Это не просто заставит нас иначе относиться к конфиденциальности. У каждого возникнет вопрос, что же вообще значит быть человеком. Человек — это лишь сумма черт? Если так, то способны ли мы изменяться? И если эти черты изменятся, поймут ли это те, кто получил данные о нас раньше?

Наконец, будем ли мы, люди, иметь доступ к отзывам о нас, — чтобы, например, посмотреть на себя со стороны? Или эти анализы будут использоваться в качестве средства контроля? А кто тогда будет контролерами? На эти вопросы еще нет ответов, потому что люди только начали задавать их в контексте реальных технологических изменений. В некоторых местах разрабатывают ответы в сфере регулирования (например, новый Общий регламент по защите данных Европейского союза или GDPR, который вступит в силу в мае 2018 года). Должны быть правила, определяющие, какими данными могут обладать компании, и устанавливающие правовые границы для нецелевого использования информации. Но формальные правила будут действовать до поры до времени и неизбежно будут меняться от одной страны к другой. Нам также необходимо прояснить культурные ценности, начиная с прощения. Если о людях можно знать всё, тогда придется быть толерантными к гораздо более разнообразным типам поведения.

В политике это уже происходит. У избранных правительственных чиновников в ближайшие годы будет все меньше и меньше возможностей хранить секреты. Для остальных испытательным полигоном станет, вероятно, работа, где люди обычно стараются продемонстрировать свою лучшую сторону ради средств к существованию и репутации.

У новых знаний будут громадные преимущества: мы намного больше узнаем о поведении человека, организационной динамике и, возможно, о влиянии привычек на здоровье. Но если вы встревожены, это тоже правильно. У каждого из нас есть секрет или два, которые мы хотели бы сохранить от окружающих. Часто это не то, что мы сделали, а то, что мы только обдумывали, или то, что могли сделать, если бы не сдержались. Когда наша вторая кожа, оболочка нашего поведения, видна окружающим машинам, эти предрасположенности больше не секретны — по крайней мере, не для машин. Таким образом они становятся частью нашего внешнего амплуа, нашей репутации и даже нашей трудовой жизни, нравится нам это или нет.

Источник

Читайте также:

МАРТИН РИС О НОВЫХ ТЕХНОЛОГИЯХ

 

«ОТЕЦ ИНТЕРНЕТА» ВИНТ СЕРФ: ИИ – ЭТО ИСКУССТВЕННЫЙ ИДИОТ

 

7 КНИГ ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ И РОБОТАХ