Широкое распространение новых средств коммуникации и новых технологий, обеспечивающих их функционирование, погружает всех нас в неизвестные прежде явления и определения, суть которых и понимание раскрывается не сразу. Создается ощущение, что последствия и побочные эффекты многих феноменов во всей полноте неизвестны никому. Нам остается только с некоторым чувством растерянности погружаться в глубины Интернета, чтобы попытаться понять, с чем мы имеем дело. Но чем глубже мы погружаемся туда, тем все более сложной оборачивается эта виртуальная реальность.
Если вы замечали, как быстро предлагают вам новостные сайты интересующую вас информацию, значит вы, сами того не подозревая, попали в «пузырь фильтра» или «информационный пузырь». Более того, внутри своего «информационного пузыря» находится каждый из нас. Эли Паризер, человек, впервые обнаруживший этот феномен и описавший его в своей книге «Пузырь фильтра: что от вас скрывает Интернет» (Паризер, 2011) утверждает, что Интернет контролирует нас и, предоставляя информацию, одновременно ограничивает нас в информации. Кембриджский словарь предлагает такое определение пузыря фильтра: «Ситуация, в которой кто-либо слышит или видит только новости и информацию, подтверждающую то, во что они уже верят и что им нравится, особенно ситуация, созданная в Интернете в результате алгоритмов (= наборов правил), выбирающих результаты чьих-либо поисков» [ Кембриджский словарь, б.д.].
Алгоритмы и фильтры, которые используют крупнейшие Интернет-компании, показывают то, что является наиболее релевантным для данного пользователя, создавая своеобразную «зону комфорта». Будь то поиск, просмотр новостей, заказ товаров, Google, Facebook и др. предлагают именно ту информацию, которая кажется посетителю сайта наиболее приемлемой и актуальной. Паризер приводит очень простой пример, доказывающий обоснованность его теории: когда два разных человека набирают в поисковой программе Google название одной и той же страны, то первый из них получает информацию о ее политическом устройстве, а второй – о туристических маршрутах в ней. Будучи изолированы в ограниченном информационном пространстве, очень часто вы также не подозреваете, что есть другие варианты информации, другой выбор и другие точки зрения. Как только вы заходите в Интернет, алгоритмы платформ, которыми вы пользуетесь, отслеживают то, что привлекло ваше внимание.
Эти алгоритмы предоставляют пользователю контент на основе того, что, по их мнению, ему понравится, и будут делать это до тех пор, пока не найдут что-то, что он, вероятно, потребит. Этот процесс приводит к созданию пузыря фильтра.
Многие эксперты обозначили данное явление как «онлайн-манипулирование», то есть, попытку повлиять на индивидуальное принятие решений и поведение, контролировать и управлять людьми с помощью информационных технологий [Сассер и др., 2019]. Такое манипулирование подразумевает преднамеренное и скрытое влияние на принятие людьми решений таким способом, который они не осознают. В своей книге Паризер открывает читателям глаза на механизмы работы современного интернета и предостерегает об опасности оказаться изолированными в своем пузыре фильтров. Алгоритмы поиска используют большие объемы данных о пользователе, чтобы найти и предоставить соответствующую информацию всякий раз, как тот входит в Интернет. История поиска и просмотров – это ключевая часть данных, используемая для адаптации результатов, которые вы получаете при выполнении поиска в Интернете. Кроме того, социальные сети, личные предпочтения, география, электронная почта, мобильные оповещения и ряд других факторов влияют на информацию, которую пользователь находит.
С одной стороны, эти алгоритмы выполняют роль навигатора в океане информации и помогают находить быстро ту сферу и ту информацию, на поиски которой в другом случае ушло бы гораздо больше времени, а мы все ценим наше время очень дорого. Однако, повышая осведомленность в одних направлениях, системы алгоритмов отсекают от вас другие направления, лишая вас не только информации, но, возможно, получения объективной картины ситуации, различия мнений, альтернативных позиций, важных возможностей
Пребывание внутри информационного пузыря может иметь совершенно разные последствия для разных групп людей. Скажем, повторяющаяся навязчивая реклама продуктов и услуг может либо склонить к покупке или вызвать досаду и раздражение, что отразится только на личном настроении или бюджете отдельного человека или семьи. Сайты электронной коммерции уже давно используют системы рекомендаций для фильтрации, сортировки и предложения своих продуктов, как и медиа, которыми мы пользуемся в Интернете. Все становится сложнее, когда влияние алгоритмов распространяется на общественные сферы, особенно, когда речь идет, например, о политических дискуссиях и явлении политической поляризации, расовых или религиозных различиях при оценке социального статуса, гендерном предпочтении в размещении объявлений о вакансиях или степени допустимости ИИ контроля в частную жизнь людей, или очень актуальной сегодня темы вакцинации. Последствия искаженной информированности, такие как, например, предоставления исключительно консервативных новостей консервативным пользователям и либеральных новостей – либеральным пользователям, могут привести к ошибкам и конфликтам на уровне общества, к противостоянию социальных групп и провальным решениям в управлении со стороны властных структур. Опасения по этому поводу и понимание необходимости контроля привели к тому, что в апреле 2019 года группа сенаторов США предложила «Закон об алгоритмической ответственности» (“Algorithmic Accountability Act”), в котором они выразили озабоченность по поводу того, что «автоматизированные системы принятия решений» могут проявлять предвзятость и дискриминацию, особенно в том, что касается таких проблем как конфиденциальность и безопасность [Букер, 2019].
Однако эксперты считают, что обвинять в возникновении этих проблем алгоритмы и механизмы их формирования означает игнорировать второй важный компонент системы – самих людей, которые обеспечивают огромным количеством своих данных всю цепочку действий внутри системы, ее динамику и направленность [Хосанагар и Миллер, 2020].
Более того, эмпирические исследования, проведенные Сетом Флаксманом (Оксфордский университет), Шарадом Гоэлом (Стэнфордский университет) и Джастином Рао (Microsoft Research), показывают, что мы живем в эхо-камерах, которые создаем сами; алгоритмы лишь незначительно способствуют усилению этих пузырей [Шваб, 2017]. Нажимая кнопки «поделиться», «нравится», «подписаться», единомышленники собираются в однородные группы, которые разделяют одни и те же точки зрения и собирают информацию из одних и тех же источников. В зависимости от набора идей и данных, такие эхо-камеры могут нести и реализовывать как значительный позитивный заряд, так и накапливать негативные импульсы, о чем свидетельствуют различные исследования, проводимые специалистами по воздействию ИТ технологий на общество [fondationdescartes, 2020]
Очевидно, что феномен информационных пузырей и эхо-камер требует эмпирического изучения, учитывая, насколько широко вошло Интернет пространство и коммуникационные технологии в нашу личную и общественную жизнь. И в этой ситуации только объективные знания могут избавить нас как от преувеличенных страхов, так и от легкомысленного игнорирования проблемы. Praemonitus, praemunitus. Предупреждён — значит вооружён.
Источники
Букер, Кори (2019). Букер, Уайден, Кларк представляют законопроект, требующий от компаний устранять предвзятость в корпоративных алгоритмах [пресс-релиз]. Senate.gov. Доступно по адресу: https://www.booker.senate.gov/?p=press_release&id=903. Дата обращения: 26.01.2021.
Кембриджский словарь. Фильтр-пузырь. Доступно по адресу: https://dictionary.cambridge.org/ru/%D1%81%D0%BB%D0%BE%D0%B2%D0%B0%D1%80%D1%8C/%D0%B0%D0% BD% D0% B3% D0% BB% D0% B8% D0% B9% D1% 81% D0% BA% D0% B8% D0% B9 / фильтр-пузырь 26/01/2021 /. Дата обращения: 22.01.2021.
Фонд Декарта (2020). Пузыри фильтра и эхо-камеры. Доступно по адресу: https://www.fondationdescartes.org/en/2020/07/filter-bubbles-and-echo-chambers/. Дата обращения: 26.01.2021.
Хосанагар, Картик, Миллер, Алекс (2020). Кого мы виним в пузыре фильтра? О роли математики, данных и людей в алгоритмических социальных системах. В книге К. Вербаха (ред.), После цифрового торнадо: сети, алгоритмы, человечество (стр. 103-121). Кембридж: Издательство Кембриджского университета. Доступно по адресу: https://www.cambridge.org/core/search?filters%5BauthorTerms%5D=Alex%20P.%20Miller&eventCode=SE-AU. Дата обращения: 26.01.2021.
Паризер, Эли (2011). Пузырь фильтра: что скрывает от вас Интернет. Пингвин Великобритания, 304 стр.
Шваб, Пьер-Николя (2017). Академические исследования развенчивают миф о пузырях фильтров. Доступно по адресу: https://www.intotheminds.com/blog/en/academic-research-debunks-the-myth-of-filter-bubbles/. Дата обращения: 21.01.2021.
Сассер, Даниэль, Ресслер, Беате, Ниссенбаум, Хелен (2019). Технологии, автономия и манипуляции. Обзор интернет-политики, 8 (2). Доступно по адресу: https://policyreview.info/articles/analysis/technology-autonomy-and-manipulation. Дата обращения: 21.01.2021.
Примечание. Мнения, выраженные в этом блоге, принадлежат автору и необязательно отражают редакционную политику Института.
Надирова Гульнар Ермуратовна закончила восточный факультет Ленинградского Государственного университета, в 1990 году защитила кандидатскую диссертацию по алжирской литературе в Московском Институте востоковедения, в 2006 докторскую – по современной арабоязычной литературе Туниса в Ташкентском Институте востоковедения, профессор