118
СОЦИОЛОГИЯ НАУКИ И ТЕХНОЛОГИЙ.
2021. Том 12. № 2
Е. Эспозито предлагает рассматривать алгоритмы как новых социальных аген-
тов, которые и являются инструментами для решения определенных задач (как, на-
пример, машины или цифровые устройства), и выступают партнерами по коммуни-
кации (боты, голосовые помощники и т. п.) [
Esposito, 2017]. Вопрос в том, насколько
они самостоятельны в принятии решений, ведь алгоритмы программируются людь-
ми. Социальную значимость алгоритмов определяет их способность создавать и пе-
реносить информацию, однако речь идет об
искусственной коммуникации, заклю-
чает Эспозито, поскольку алгоритм не понимает содержания, смысла и не способен
к интерпретации сообщений.
Алгоритмы не просто описывают данные на основании заложенного в них про-
граммного кода; они также делают прогнозы и влияют на новые конфигурации
данных. В результате возникают новые способы восприятия мира, воспроизводятся
стереотипы, воссоздаются практики и мировоззренческие установки, ограничива-
ется выбор или открываются новые возможности [
Willson, 2017]. Например, поис-
ковые системы влияют на то, какие источники в поисковых запросах будут наибо-
лее релевантными и полезными для конкретного пользователя,
тем самым влияя на
ранжирование наиболее востребованных поисковых запросов. Поэтому результаты
поисковых запросов рассматриваются не только как «информация», но являются
«социальными данными» [
Lupton, 2015].
Часто алгоритмы «выходят из-под контроля», поскольку результаты их работы
довольно сложно прогнозировать [
Kitchin, 2017]. К примеру, результаты работы по-
исковых алгоритмов для
пользователей, вводящих один и тот же запрос на поиск
информации, могут отличаться в зависимости от их местоположения и истории по-
иска. Поэтому алгоритмы, по мнению Р. Китчина, нельзя рассматривать как источ-
ник объективной информации или же как нейтрального и автономного субъекта
принятия решения. Алгоритмы разрабатываются и внедряются в целях создания до-
полнительной ценности и увеличения капитала; для регулирования поведения ин-
дивидов и формирования их предпочтений; для определения,
ранжирования и клас-
сификации индивидов по заданным критериям [
Ibid.]. Речь идет о распространении
алгоритмического управления, которое К. Катценбах и Л. Ульбрихт определяют
как форму социального порядка, при которой механизмы координации взаимо-
действий между акторами основаны на специальных правилах и сложных компью-
терных процедурах [
Katzenbach,
Ulbricht, 2019, p. 2]. Механизмы алгоритмического
управления определяют новую картину мира, поскольку с их помощью реализуется
власть, создаются новые механизмы принуждения и социального контроля [
Kitchin,
Dodge
, 2011]. К. Катценбах и Л. Ульбрихт предлагают рассматривать алгоритмиче-
ское управление в контексте проблематизации вопроса о прозрачности алгорит-
мических систем и степени их автономии. Алгоритмическое управление обладает
б
ольшим потенциалом социальной открытости по сравнению с другими способами
управления. Однако на практике ввиду интеллектуальных ограничений (сложность
систем машинного обучения) и системных барьеров (недоступность
алгоритмов
из-за коммерческой тайны, соображений безопасности и защиты частной жизни)
наблюдается обратная ситуация. Поэтому процедуры алгоритмического управле-
ния ограничивают социальную прозрачность и доступ к информации [
Katzenbach,
Ulbricht
, 2019]. Степень автономности имеет большое значение, поскольку легитим-
ность режимов управления зависит от ответственности и подотчетности человека,
принимающего решения, его роли как профессионала (судьи, врача, журналиста)
SOCIOLOGY OF SCIENCE AND TECHNOLOGY.
2021. Volume 12. No. 2
119
и как субъекта этических норм. Алгоритмические системы могут оставлять доста-
точно высокую степень автономии лицам, принимающим решения на уровне чело-
века. Речь идет о том, что можно именовать «шкалой вовлеченности»: от полностью
автоматизированных систем, в которых решения не проверяются человеческим
оператором, к рекомендующим системам, в которых люди исполняют или одобря-
ют решения, предложенные алгоритмическими системами.
Можно констатировать, что алгоритмические
системы повышают непрозрач-
ность социальных процессов. Они изменяют способы (автоматической) иденти-
фикации, отслеживания, профилирования или оценки индивидов, часто в режиме
реального времени, зачастую делая их невидимыми. Автоматизированные алгорит-
мические системы считывают и редактируют поведение, осуществляют скрининг
эмоций человека, а также вычисляют и измеряют состояние здоровья организма
человека, с тем чтобы составить профиль пользователей и выбрать наиболее под-
ходящую информацию для отображения или диапазон решений, которые можно
предложить конкретному индивиду. Эти процессы бросают вызов понятию «непо-
хожести» и индивидуальности, поскольку они функционируют по
принципу подо-
бия, создавая профили того, что является общим между индивидом и подобными
«другими» [
Broadbent,
Lobet-Maris, 2015, p. 114].
Интерес представляет анализ функционирования алгоритмов в перспективе
концепции «пузырей фильтров», предложенной Э. Паризером. Пузырь фильтров
определяется автором как процедура персонализированного поиска, когда алго-
ритмы сайтов определяют, какая информация была бы интересна для конкретного
пользователя на основании его цифровых следов [
Паризер, 2012]. Тревожным явля-
ется то, что алгоритмическая персонализация в большинстве своем невидима и не-
подконтрольна. Пользователь находится в персонализированной среде, состоящей
только из «близкого неизвестного». Паризер полагает,
что образ Интернета стано-
вится все более противоречивым, когда, «возможно, он знает, кто мы, однако мы
сами не знаем, кем он нас считает и как использует эту информацию. Технология,
призванная дать нам больше контроля над нашей жизнью, на самом деле отнимает
у нас этот контроль» [
Там же, с. 236].
Алгоритмы используются для оптимизации сбора данных о пользователях, по-
могают ранжировать эти данные и осуществлять их интерпретацию, что дает воз-
можности алгоритмического прогнозирования о вероятном или желательном по-
ведении пользователей, а также определяет и новые проявления социального не-
равенства [
Мартыненко, Добринская, 2021]. Алгоритмы способны кодировать нашу
реальность определенным образом. Вопрос в том, в чьих руках находится эта власть
и кто принимает решение относительно ее реализации.
Достарыңызбен бөлісу: