Обозреватель BBC Future размышляет о том, как можно незаметно изменить мнение пользователей популярнейшей соцсети и крупнейшего поисковика, показав тщательно отобранные новости.

Сегодня трудно представить себе жизнь без информационных технологий. Но тот факт, что написанные кем-то компьютерные программы влияют на наши решения, вызывает все больше беспокойства.

А тут еще недавно, вдобавок ко всему, – нечто из, казалось бы, давно ушедшего прошлого: некие люди, которых мы не знаем, отбирают для нас сообщения о событиях, решая за нас, что достойно нашего внимания, а что — нет.

Как оказалось, для отбора новостей, которые увидят или не увидят пользователи, «Фейсбук» использует команду редакторов.

И как это ни парадоксально с точки зрения людей, привыкших жаловаться на то, что машины управляют людьми, проблема в этой ситуации с живыми редакторами заключается именно в отсутствии прозрачного алгоритма.

Самое противоречивое обвинение заключается в том, что подборки наиболее актуальных тем на сайте имеют антиконсервативную направленность, в то время как консервативным новостям и мнениям не уделяется достаточно внимания.

Тем не менее сама компания подобные обвинения решительно отвергает.

Издание Gizmodo, посвященное новостям из мира технологий, впервые подняло эту тему в марте, указав две причины, по которым это может стать компрометирующим для компании Facebook, даже если мы и не найдем никакой политической подоплеки.

Во-первых, наличие наемных редакторов вредит «иллюзии непредвзятого ранжирования новостных материалов».

Во-вторых, отношение к «кураторам раздела новостей» не намного лучше, чем к программному обеспечению.

Они не получают четких инструкций и должны руководствоваться расплывчатым понятием «популярные новости», выполняя при этом жесткие количественные нормы.

Впрочем, в данном случае важны не столько ручная селекция новостей и идеологическая предвзятость, сколько тот факт, что, что самая влиятельная платформа для обмена информацией может по своему усмотрению выбирать то, что увидят пользователи.

«Фейсбук» и подобные ему ресурсы способны фильтровать новости и информацию, используя обобщающие заголовки наподобие «популярных новостей» или критерии вроде «актуальности», причем чаще всего пользователи понятия не имеют о том, как происходит процесс отбора.

Популярные статьи сейчас

Украинцам придется платить за въезд в Евросоюз с 1 января

Украинцам не приходит тысяча от Зеленского: какие причины и что делать

Абоненты "Киевстар" и Vodafone массово бегут к lifecell: в чем причина

Маск назвал Шольца "некомпетентным дураком" после теракта в Германии

Показать еще

А ведь это очень важно, так как даже незначительное изменение способа отображения сведений может влиять на наше поведение.


Выяснилось, что редакторы компании Facebook могут контролировать процесс отображения новостей в лентах пользователей

Чтобы понять, как это возможно, рассмотрим такое изобретение бихевиористов (психологов, изучающих поведение человека), как технология «подталкивания», которым широко пользуются правительства и организации по всему миру.

Она заключается в том, чтобы незаметно подсказывать человеку, как ему следует себя вести.

Показательным примером может послужить презумпция согласия на донорство органов. Она означает, что для изъятия органов требуется не наличие согласия человека, а отсутствие письменного отказа.

Одной этой презумпции достаточно для того, чтобы существенно увеличить количество доноров.

Что же в этом плохого? Ну например, критики этой технологии отмечают, что она лишает людей возможности информированного выбора.

В своей статье для ресурса Institute of Art and Ideas журналист Ник Хэркэуэй выразил мнение, что цель «подталкивания» заключается не в том, чтобы объяснить тот или иной вопрос и подстроить политику под волю народа, а в том, чтобы привести волю народа в соответствие с нужной политикой.

«Выбор — это навык, привычка, даже небольшое изменение архитектуры мозга. И чтобы его оттачивать, нужна практика», — считает он.

Как же эта технология применяется в цифровом мире?

Исследуя онлайн-пространство, мы постоянно сталкиваемся с выбором — от того, что купить, до того, во что верить.

И специалисты в области информационных технологий вполне могут повлиять на принимаемые нами решения.

Стоит признать, что фильтрацией сведений грешит не только «Фейсбук». Повальное увлечение искусственным интеллектом, всевозможными гаджетами и интернетом вещей возникло во многом благодаря умным системам рекомендаций.

Ни Google, ни Apple, ни Amazon не пренебрегают технологиями персонализированной подачи информации.

Но все вышеописанное — это вопрос противостояния не столько человека и машины, сколько информированного выбора и подталкивания к «правильному» выбору.

Располагая наиболее актуальной информацией, мы принимаем наилучшие решения — это один из основополагающих принципов информационных технологий и одновременно одно из их важнейших преимуществ.

Итальянский философ техники Лучано Флориди, автор книги «Четвертая революция», описывает этот процесс при помощи термина «этичная конструкция» (pro-ethical design).

Под этим Флориди понимает предоставление сбалансированной и ясной информации, которая побуждает человека сознательно принять важное решение и взять на себя ответственность за него.

Флориди уверен, что информационные системы должны не противодействовать, а способствовать тому, чтобы человек задумывался над этической стороной того или иного вопроса. Для этого необходимо избегать излишнего «подталкивания».

Не следует вводить презумпцию донорства органов: пусть люди осознанно делают свой выбор. Не стоит никому навязывать готовые ответы о том, что является актуальным: пусть пользователи сами вдумываются, задают вопросы и тем самым совершенствуют систему.


Мы и не подозреваем, как эффективно на нас оказывают влияние при помощи технологий

Здесь существуют фундаментальные противоречия: между удобством и учетом интересов; между тем, что хотят сами пользователи и тем, что для них лучше; между прозрачностью и коммерческим преимуществом.

Чем более асимметрична информация по обе стороны экрана (что система знает о вас, и что вы знаете о ней), тем больше риск того, что ваши решения станут просто набором реакций на скрытые стимулы.

При этом соотношение того, что происходит в мире, и того, что мы можем узнать, ежедневно смещается в сторону нашей неосведомленности.

У этой проблемы нет простого решения. Но в то же время за ней не стоит великий заговор.

На самом деле умелое сочетание возможностей программного обеспечения и редакторского контроля становится единственным способом фильтровать невероятные объемы информации, накапливающейся по всему миру.

Тем не менее стоит помнить, что цели разработчиков технологий, которыми мы пользуемся, отличаются от наших собственных.

Неважно, кто именно выступает в роли посредника — человек или алгоритм: для того чтобы успешно ориентироваться в потоке информации, следует смириться с тем, что человеческую предвзятость невозможно преодолеть.

Источник: ВВС