Научная статья на тему '«Понимание того, что значит “быть человеком”, меняется, потому что оно сопоставляется с разными техническими системами»: Ник Сивер об этнографии алгоритмов '

«Понимание того, что значит “быть человеком”, меняется, потому что оно сопоставляется с разными техническими системами»: Ник Сивер об этнографии алгоритмов Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
1
0
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Ник Сивер, Муравьев Д. В.

Ник Сивер — ассистент-профессор кафедры антропологии Университета Тафтса, где он преподает в рамках программы «Наука, технологии и общество». Его исследования посвящены тому, как технические специалисты теоретически осмысляют культурные вопросы, особенно в областях, связанных с машинным обучением. Сивер публиковал работы по таким темам, как коммерческие теории контекста, антропология ловушек и этнографические методологии изучения алгоритмических систем. Его готовящаяся к выходу книга «Программируя вкус» освещает то, как разработчики алгоритмов музыкальных рекомендаций понимают и обосновывают свою работу. Он является соредактором специального выпуска Towards an Anthropology of Data (2021) и бывшим сопредседателем Комитета по антропологии науки, технологий и вычислительной техники. Его текущее исследование посвящено использованию внимания как ценности и добродетели в мире машинного обучения.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The understanding of what it means to be human changes because it is juxtaposed with different technical systems”: Nick Seaver about the ethnography of algorithms

Nick Seaver is an assistant professor of Anthropology at Tufts University, where he teaches in the program on Science, Technology, and Society. His research examines the cultural theorizing of technical experts, particularly in fields related to machine learning. He has published on topics including commercial theories of context, the anthropology of trapping, and ethnographic methodologies for studying algorithmic systems. His forthcoming book, Computing Taste, explores how the developers of algorithmic music recommender systems understand and justify their work. He is the co-editor of Towards an Anthropology of Data (2021) and former co-chair of the Committee for the Anthropology of Science, Technology, and Computing. His current research explores the use of attention as a value and virtue in machine learning worlds.

Текст научной работы на тему ««Понимание того, что значит “быть человеком”, меняется, потому что оно сопоставляется с разными техническими системами»: Ник Сивер об этнографии алгоритмов »

Фольклор и антропология города, Т. V. N. 1. 2023

«Понимание того, что значит "быть человеком", меняется, потому что оно сопоставляется с разными техническими системами»: Ник Сивер об этнографии алгоритмов

Беседа и перевод Дмитрия Муравьева

Для цитирования:

Сивер, Н. (Автор), Муравьев, Д. В. (Инт., пер.). (2023). «Понимание того, что значит "быть человеком", меняется, потому что оно сопоставляется с разными техническими системами»: об этнографии алгоритмов. Фольклор и антропология города, У(1), 93-105. DOI:10.22394/2658-3895-2023-6-1-93-105

Ник Сивер — ассистент-профессор кафедры антропологии Университета Тафтса, где он преподает в рамках программы «Наука, технологии и общество». Его исследования посвящены тому, как технические специалисты теоретически осмысляют культурные вопросы, особенно в областях, связанных с машинным обучением. Сивер публиковал работы по таким темам, как коммерческие теории контекста, антропология ловушек и этнографические методологии изучения алгоритмических систем. Его готовящаяся к выходу книга «Программируя вкус» освещает то, как разработчики алгоритмов музыкальных рекомендаций понимают и обосновывают свою работу. Он является соредактором специального выпуска Towards an Anthropology of Data (2021) и бывшим сопредседателем Комитета по антропологии науки, технологий и вычислительной техники. Его текущее исследование посвящено использованию внимания как ценности и добродетели в мире машинного обучения.

Интервью записано в рамках реализации проекта «Политические и этические проблемы в исследованиях онлайн-медиа», поддержанного факультетом коммуникаций, медиа и дизайна НИУ ВШЭ (приказ №2.2-05/1910-01 от 19.10.2020 г.).

© Д. МУРАВЬЕВ, Н. СИВЕР

Urban Folklore & Anthropology T. 5. N1. 2023

The understanding of what it means to be human changes because it is juxtaposed with different technical systems": Nick Seaver about the ethnography of algorithms

Interview and comments by Dmitry Muravyov

To cite:

Seaver, N. (Auth.), Muravyov, D. (Int., tr.). (2023). "The understanding of what it means to be human changes because it is juxtaposed with different technical systems": about the ethnography of algorithms. Urban Folklore & Anthropology, 7(1), 93-105. DOI:10.22394/2658-3895-2023-6-1-93-105

Nick Seaver is an assistant professor of Anthropology at Tufts University, where he teaches in the program on Science, Technology, and Society. His research examines the cultural theorizing of technical experts, particularly in fields related to machine learning. He has published on topics including commercial theories of context, the anthropology of trapping, and ethnographic methodologies for studying algorithmic systems. His forthcoming book, Computing Taste, explores how the developers of algorithmic music recommender systems understand and justify their work. He is the co-editor of Towards an Anthropology of Data (2021) and former co-chair of the Committee for the Anthropology of Science, Technology, and Computing. His current research explores the use of attention as a value and virtue in machine learning worlds.

Расскажите, пожалуйста, о вашем бэкграунде, исследовательских интересах и вопросах, которые вас больше всего интересуют.

^^ Я пришел в антропологию достаточно поздно. У меня не было никаких специальных курсов по ней до написания диссертации1. До этого я получил степени в медиаисследованиях2 и в литературе3. Можно сказать, что всю свою академическую карьеру я был заинтересован в вопросах смыслов и медиа, материальности и эффектов медиа. Есть, например, такие феномены, как «внимание» или «вкус», и меня всегда интересовало, что люди думают о таких социально значимых концептах из-за и с помощью медиа и технологий.

Как правило, в исследованиях науки и технологии4 и антропологии технологий мы берем какой-то род деятельности — физику

1111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111 ^

1 Ник Сивер получил PhD в University of California Irvine. — Прим. ред.

2 Степень MSc в Comparative Media Studies в MIT. — Прим. ред.

3 На уровне бакалавриата в Йельском университете. — Прим. ред.

4 Science and technology studies, далее STS. — Прим. ред.

элементарных частиц или строительство мостов, — и показываем, как он связан с культурой и обществом. Это ситуации, в которых для научно-технических специалистов связь их деятельности с социальными отношениями и феноменами не всегда столь очевидна. Мне же в моей антропологической работе крайне интересны обратные кейсы: когда люди понимают, что их проблемы уже связаны с культурой. Это обычно не та предпосылка, с которой мы как исследователи работаем в рамках STS. Чаще всего предполагается, что технические специалисты не думают о своей деятельности как связанной с культурой. В моей полевой работе мне стало понятно, что разработчики музыкальных рекомендательных систем хорошо понимают, что «вкус» является культурным по множеству причин. Такая постановка вопроса задала и, вероятно, будет еще долго задавать импульс моей работе.

В статье «Что должна делать антропология алгоритмов?» вы утверждаете, что антропологи должны «работать против места аналога» (analog slot) [Seaver 2018]. Можете ли вы немного прояснить эту идею?

^^ Я думаю, что у антропологии алгоритмов много сложностей, более и менее серьезных. Одна из проблем связана с тем, чтобы она получила признание внутри антропологии как значимое поле исследований. К счастью, благодаря таким авторам, как Габри-элла Коулман (Gabriella Coleman), Люси Сачмен (Lucy Suchman) и

многим другим, занимающимся схожими исследованиями, со временем это стало намного проще.

Для антрополога здесь встает вопрос именно о человеке и его отношениях с техническими системами. Мы не можем изучать технологию саму по себе из-за представления, что технология и природа человека фундаментально дополняют друг друга, но в то же время существуют порознь. Если вы хотите изучать алгоритмы антропологически, то вы скорее всего будете изучать людей, на которых они повлияли. И это важное направление исследований.

Вместе с тем это все же не единственное, что можно исследовать в алгоритмических системах. Здесь появляются концептуальные и практические сложности. Как исследователю вам хотелось бы найти такое поле, где алгоритмы смогут стать объектом вашего исследования. С этим есть проблема, потому что алгоритмы одновременно везде и нигде.

Для компьютерной науки общепринятые обсуждения алгоритмов не подразумевают реальных компьютеров, напротив — это всегда скорее более абстрактный разговор. Так что один из вызовов для социальных исследователей состоит в том, чтобы суметь локализовать свое исследование. Если делать это в компании, то вы столкнетесь со сложностями доступа. Для антропологов это достаточно старая проблема: не все, что стоит изучать, просто и доступно пребывает в мире и ждет своего исследователя. Лично я обнаружил много полезного для себя в антропологической литературе, которая, на первый взгляд, не имеет ничего общего с высокими технологиями и алгоритмами, например, исследования тайных обществ — классическая тема для антропологии.

А как устроена граница между человеческим и технологическим в вашем методе? Они существуют отдельно или создают какие-то гибридные формы?

^^ Это еще один методологический вопрос, который меня беспокоит. В антропологии цифровых технологий существует идея о необходимости защищать человека от технического. Я не очень согласен с предпосылкой о том, что такое четкое разделение вообще должно быть. Более того, я не думаю, что действительно много людей в это по-настоящему верит, если их расспрашивать об этом последовательно, но антропология и этнография методологически так устроены, что между человеком и алгоритмами выстраивается оппозиция, которую я называю «аналоговым местом» (analog slot).

Вводя это понятие, я основываюсь на идее Мишеля-Ролфа Труйо (Michel-Rolph Trouillot) о «месте Дикаря» (Savage slot) — это достаточно известный концепт, предполагающий, что антропология как дисциплина существует для изучения людей, расположенных

Н.Сивер. «Понимание того, что значит"бытьчеловеком",меняется,потомучто оно сопоставляется с разными техническими системами»

в определенной позиции — месте Дикаря — которая определяется по большому счету как «перевернутое изображение» цивилизации [Trouillot 1991]. Идея Труйо заключается в том, что категория «дикаря» на самом деле не имеет внутренней целостности. Место Дикаря — изобретение антропологии как академической дисциплины. Нельзя сказать, что существуют какие-то «дикари», изучать которых призвана антропология. На самом деле появление антропологии и «дикаря» одномоментно, их существование взаимообусловлено.

Касаемо понятия «аналоговое место», есть много интересных работ, пытающихся определить, что значит «аналоговое» сейчас. Обычно этим обозначают что угодно вне компьютеров. Такие исследователи, как Вэнди Чан (Wendy Chun) и Джонатан Стерн (Jonathan Stern), показали, что это достаточно странный способ говорить о мире. Вот есть компьютеры, а есть термин, обозначающее все, что к компьютерам не относится.

Подход «аналогового места» заключается в том, что у нас как антропологов есть некоторая идея, что мы должны просто изучать все то, что не имеет к компьютерам непосредственно никакого отношения. И хотя может показаться, что мы встали в оппозицию по отношению к «компьютерному», на самом деле мы встали в позицию, предопределенную самим компьютером, несмотря на то, что мы, казалось бы, ему противостоим и защищаем «человеческое». Так что мне гораздо больше интересно работать с подходами, стирающими эти границы или не принимающими такие границы как данность. Как антрополог я не хочу говорить: «Компьютеры плохие, поэтому давайте обсуждать только то, что к ним не относится».

Я заметил, что в своих работах вы проводите различение между алгоритмом как культурным артефактом и алгоритмической системой как связкой людей и технологий, погруженных в социальный контекст. Например, вы обращаетесь к этому различению в работе с проблемой алгоритмической прозрачности (algorithmic transparency) в статье «Познавая алгоритмы» [Seaver 2019]. Если я все понял правильно, то проблема с прозрачностью состоит в том, что не существует знания о том, как работают алгоритмы, внутри, например, Google или любой другой компании. Более того, даже если такое знание есть, то оно распределено внутри всей организации, и это знание об алгоритме, но не об алгоритмической системе. Тема алгоритмической прозрачности волнует сегодня многих пользователей, исследователей, политиков, активистов. Как вам кажется, может ли антропология алгоритмов что-то добавить в публичные дискуссии об алгоритмической прозрачности?

^^ У меня есть несколько мыслей на этот счет. Во-первых, алгоритм как концепт сейчас вызывает общественный интерес. Ничего такого не было, когда я только начинал свой

исследовательский проект. За последние 10 лет алгоритмы стали широко обсуждаться, началась политическая дискуссия вокруг них, образовалось много организаций, и много денег стало крутиться вокруг вопросов алгоритмической подотчетности (accountability), прозрачности, честности (fairness), предвзятости (bias) и так далее. Все это в целом — хорошие изменения.

При этом об алгоритмической предвзятости писали и раньше. Например, можно вспомнить работы Хелен Ниссенбаум (Helen Nissenbaum) и Оскара Ганди (Oscar Gandy), написанные еще в 1990-е. Сегодня, когда к этой теме привлекается больше публичного внимания, тематика таких исследований тоже расширяется.

Сейчас много людей говорят примерно следующее: «Да, мне небезразличны проблемы с предвзятостью, нечестностью, непрозрачностью. Я бы хотел проектировать системы, в которых эти проблемы решены». И возникает серьезный вопрос: что же это значит? Как этого добиться? Ведь, оказывается, есть множество способов концептуализации «честности». Так, некоторые из них подразумевают технические решения, другие —регулирование, выходящее за рамки компьютерных систем, а для кого-то еще такие решения невозможны по определению.

Антропологический подход мог бы помочь осмыслить то, что «честность» означает разные вещи в разных местах. Другое соображение, которое антропологи взяли у исследователей из STS и истории собственной дисциплины, — это идея того, что «технические системы» лучше понимать как «социотехнические». Это ни для кого не секрет, но об этом часто забывают, не так ли?

Эти системы не существуют изолированно, скорее это ассамбля-жи людей, институций и кода, взаимодействующих друг с другом. В своей работе я старался выдвигать на первое место людей, потому что об их роли часто забывают. Разработка программного обеспечения сегодня подразумевает разработку в гибком режиме (agile style software development). Это означает, что вы сделали программу, выпустили ее в мир и начинаете собирать обратную связь в различных формах о пользовательском опыте. Затем эти данные используются для обучения алгоритмов.

В таком процессе важно смотреть на команды разработчиков ПО, которые вносят изменения на еженедельной основе, потому что именно они формируют итоговый продукт. Деятельность таких команд очень косвенно связана с учебниковым определением алгоритма. Если вы как исследователь собираетесь что-то утверждать об

алгоритме Facebook*5, то пока вы несколько месяцев будете писать

1111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111

5 Здесь и далее звездочкой* отмечено упоминание социальных сетей, принадлежащих компании Meta, признанной в РФ экстремистской организацией. — Прим. ред.

статью, программа уже успеет поменяться, причем документируемые вами изменения будут результатом действий таких команд разработчиков.

Тогда выходит, что при такой концептуализации возможностей сознательно вмешаться в работу алгоритмических систем остается не столь много. Если мы считаем алгоритм ассамбляжем институций, людей, кода и так далее, то может быть достаточно сложно разобраться, что именно нам надо сделать, чтобы исправить проблемы. Что вы думаете на этот счет?

^^ Я думаю, что вы правы. Для меня такой подход указывает на одну из важных интуиций STS — ограниченности исключительно технических исправлений. Не все проблемы можно решить, просто придумав алгоритм получше. Обсуждаемые проблемы касаются множества людей из разных сфер деятельности, на что мы часто обращаем недостаточно внимания.

Так, например, в последнее время я работаю над проблемой интерпретируемости (interpretability) в машинном обучении. Это еще одно политическое требование к алгоритмам наравне с подотчетностью и прозрачностью. Свойство интерпретируемости предполагает, что машинное обучение должно производить классификации, которые понятны людям. Даже если такие алгоритмы работают «очень хорошо» — здесь я ставлю кавычки, потому что сам смысл того, что значит «работать хорошо» контекстуально изменчив — необходимо продолжать требовать того, чтобы они были понятными.

Такую постановку вопроса можно заметить и в литературе об интепретируемости в машинном обучении. Когда я с ней работал, то заметил, что там часто предпринимается попытка локализовать свойство интерпретируемости в самом программном обеспечении. В такой литературе выдвигается примерно следующий тезис: «Система должна быть либо достаточно понятна сама по себе, либо необходимо добавить интерактивных элементов, чтобы улучшить степень интерпретируемости».

В этой литературе есть один большой пробел — полное отсутствие теории интерпретации. Долгое время интерпретируемость понималась как качество объекта, а не процесс интерпретации как производство значения между людьми. Сейчас это понимание в компьютерной науке понемногу меняется.

Для меня как антрополога интерпретация — это поиск значения, ситуативный и изменчивый процесс. Ведь люди интерпретируют по-разному, но эта идея отсутствует в дискуссиях и ранней литературе об интерпретируемости в машинном обучении. Скорее там работали с предпосылкой, согласно которой смысл может быть вписан в саму программу, а обеспечение интерпретируемости заключается в том,

чтобы у всех пользователей получилось его распознать. Здесь появляется интересный вопрос: может ли существовать такая система, чья интерпретируемость распознается именно антропологически, как изменчивый и ситуативный процесс, завязанный на человеческом взаимодействии? Можно ли спроектировать такую систему, которая учитывала бы контекстуально зависимые и постоянно оспариваемые способы человеческой интерпретации? Вот для таких постановок вопроса антропология могла бы быть полезна.

Проблема интерпретируемости в машинном обучении несколько похожа на разницу между культурами контекста (context cultures), которые вы обсуждаете в другой своей работе [Seaver 2015]. Не могли бы вы рассказать немного о различии, которое вы проводите между двумя пониманиями контекста? Могут ли различные культуры контекста находиться не в оппозиции, а в продуктивном взаимодействии?

С точки зрения критики, осуществляемой социально-гуманитарными исследователями, в рекомендательных системах контекст часто не учитывается. Я могу дружить с кем-то на Facebook* по многим причинам, которые можно назвать контекстуальными. Если дата-аналитик анализирует мой профиль, то он увидит набор связей, где связанные с контекстом смыслы пропадают. Критика с таких позиций важна.

Но в ходе своей полевой работы я заметил, что существует целое профессиональное сообщество разработчиков алгоритмических систем (как в академии, так и в индустрии), заинтересованных в вопросе контекста, в разработке «контекстуально-осознанных рекомендаций» (context-aware recommendations).

Например, музыка. Вам нравится слушать разную музыку, и в зависимости от того, где вы находитесь — в спортивном зале, дома, на пробежке — ваши предпочтения могут меняться. Здесь контекст понимается как сочетание локации (по GPS) и времени, через анализ взаимосвязи которых выводятся закономерности. Это профессиональное сообщество, занятое созданием контекстуально-осознанных рекомендаций, заинтересовано в подборе музыки под окружающий вас контекст.

Мы натыкаемся на парадокс. С одной стороны, критики [музыкальных] рекомендательных систем говорят, что контекст не берется в расчет. С другой стороны, есть сильный интерес к контексту со стороны профессионального сообщества разработчиков. Думая об этом противоречии, я понял, что люди закладывают различные смыслы в то, что называют контекстом.

Невозможно полностью удовлетворить антрополога ответом о контексте, потому в него может включаться потенциально

Н.Сивер. «Пониманиетого,чтозначит"бытьчеловеком",меняется,потомучтооносопоставляетсясразнымитехническимисистемами»

бесконечное множество отношений, ситуаций и обстоятельств. Необходимо сдаться в какой-то момент. Вот поэтому некоторые антропологи, например, Роб Диллей (Roy Dilley) или Мэрилин Стратерн (Marilyn Strathern), говорили о том, что помещение чего-то в контекст надо понимать как практику контекстуализации, которую осуществляют люди, а не как усилие исследователя. В процессе контексту-ализации люди обращаются к разным аспектам их жизни, которые считают релевантными именно для конкретной ситуации. Недостаточно утверждать, что контекст имеет значение, давайте помещать все в контекст, потому что, по сути, это является призывом учитывать неучитываемое. Я предлагаю смотреть на культуры контекста, то есть нормы контекстуализации в разных условиях, чтобы понять, как люди определяют контекст. Это может помочь подсветить специфику критики в отношении контекста.

Когда читаешь публичный отчет значимого института в США, исследующего эти темы, например, Data & Society Institute или AI Now Institute, то там часто пишут о важности контекста. Мне представляется, что определение контекста является политическим проектом в том смысле, что это всегда потенциально оспариваемый разными акторами процесс, зависящий в том числе от отношений власти. Есть ли какой-то способ примирить или дополнить определение контекста, предлагаемое разработчиками ПО, тем, что предлагают подобные институты?

^^ Я думаю, что определение контекста — действительно политический проект. В антропологии мы часто отмахиваемся от политических проектов, но я думаю, что такие институты выполняют очень важную работу. Они настаивают на жизнеспособности других форм контекстуализации, призывают обратить внимание на прежде неучтенные контексты.

Иногда такие заявления делаются на языке позитивизма: эта система неправильная, потому что вы как разработчики не учитываете вот этот контекст. Политически это может быть полезно, особенно в ситуации с разработчиками ПО, среди которых такое позитивистское отношение к контексту распространено, поэтому обращаться к ним по-другому затруднительно.

В этом случае критика может выглядеть следующим образом: ваша система должна учитывать расу, потому что частью контекста технологии является общество, в котором существует расовая стратификация. Ведь если вы не будете ее учитывать, то у вашей системы будут эффекты, которые вы не предсказали или предсказали, но не исправили заранее.

В то же время нужно быть осторожными с тем, как мы выдвигаем утверждения о контексте. Ведь может случиться следующее. Вы попросите разработчиков учитывать контекст, а они вам ответят,

например: «Хорошо, тогда нам нужны GPS координаты вашего телефона все время, пока вы слушаете музыку». Это, конечно, не то, что критики имели в виду, но для самих инженеров это ведь именно то, что у них попросили! Таким образом, критика может непреднамеренно стать приглашением к усилению надзора.

Тут хочется продолжить с обсуждением вашего антропологического метода. Мне интересно, как вы решаете классическую проблему в STS, связанную со знанием профессионального языка. Как вам кажется, сколько технической терминологии необходимо знать для исследовательской работы?

^^ В таком вопросе я прежде всего думаю о том, нужно ли всем и всегда быть технологически подкованными для таких исследований. Я думаю, здесь нет универсального ответа.

В зависимости от того, техническим знанием какого уровня вы обладаете, у вас могут получиться разные проекты. Меня поражает, что несмотря на множество вкладываемых в термин «алгоритм» смыслов, социально-гуманитарную критику пытаются удержать на расстоянии, считая, что ее авторы не знают о технологиях достаточно.

Люди критикуют системы на основании того, что они оказывают большое влияние на социальную жизнь и непрозрачны для пользователей. Нужно иметь в виду, что за этим незнанием часто стоят отношения власти, мешающие людям узнать важные технические подробности.

В STS и антропологии, как правило, в ходе выполнения проектов вы начинаете постепенно узнавать необходимую вам информацию. Со мной так и произошло. Когда я только начинал, у меня был небольшой опыт программирования. При этом я не программист, но я могу гуглить и копипастить куски кода достаточно умело. Многие программисты делают точно так же. Они постоянно сталкиваются с ошибками в коде и пытаются их исправить, в этом смысле я такой же кодер. В отличие от тех, кого я исследую, я не смог бы сделать такую же систему с нуля, но ведь это не то, чем я на самом деле занимаюсь. Мне же интересна организация их работы, не требующая от меня знания всех деталей.

Если говорить о подготовке студентов, то в контексте антропологии подходящая аналогия — это язык. Вам необходимо уметь говорить на языке тех, кого вы хотите изучать. Но ведь призывать знать язык программирования для изучения разработчиков ПО — не то же самое, что призывать студента, желающего изучать испаноязычные страны, учить испанский. Все же язык программирования не заменяет человеческий язык. Отчасти программисты общаются через код, но антропологическая работа сопряжена и с исследованием повседневного общения.

Расскажите, пожалуйста, о книге, над которой вы сейчас работаете.

^^ Сейчас я работаю над книгой с предварительным названием « Программируя вкус: производство алгоритмических музыкальных систем» (Computing Taste: The Making of Algorithmic Music Recommendation), которая основана на полевой работе по изучению деятельности работающих над созданием таких систем специалистов. В книге я пытаюсь показать, что изучать такие системы антропологически может быть полезно, и почему их стоит понимать как социотехнические. Мы уже частично обсудили значимые методологические вопросы.

Моя полевая работа проходила в компаниях, и я также говорил с академическими исследователями, занимающимися темой рекомендательных систем, затронул исторические аспекты вопроса. Мне было интересно, как технические специалисты осмысляют свою работу с культурными идеями — вкусом, музыкой и так далее. Что из себя представляет музыка? Как она организована по жанрам? Что значит для музыки «быть новой», «быть схожей с другой музыкой»?

Рекомендательные системы обычно не учитывают содержание трека, а скорее учитывают общие закономерности. Если человек слушает конкретный трек, значит, вероятнее всего, ему понравится то, что слушают остальные, прослушавшие этот трек. Здесь интересно, какую роль играют практики прослушивания музыки в развитии алгоритмических систем на протяжении длительного периода времени.

В случае с музыкальными рекомендательными системами любопытно, что в отличие от многих других приложений машинного обучения в них требуется особое культурное знание, помогающее понять качество системы. Если бы я сделал основанную на машинном обучении систему, позволяющую предсказывать кредитный рейтинг, то вряд ли в какой-то момент я бы мог взять и сказать: «О, да, вот такой кредитный рейтинг для такого человека должен быть».

Но люди, разрабатывающие музыкальные рекомендательные системы, часто экспериментируют с музыкой, чтобы оценить качество получившегося результата. Включая микшер песен этой системы через функцию радио, разработчик будет слушать и думать, насколько это соответствует его собственным представлениям о «хорошей» подборке музыки. Это пример петли обратной связи, когда люди становятся условием изменений системы во времени. Другой пример — это названия исполнителей. Здесь оценка рекомендаций как «хороших» или «плохих» связана с нашим внутренним культурным опытом, позволяющим выносить соответствующие суждения. Таким образом, человеческая субъективность имеет большое значение для развития таких систем.

Музыкальные рекомендательные системы поменяли то, как мы слушаем музыку. В то же время, мне кажется, что влияние цифровых технологий пробуждает такой ностальгический дискурс. Как вы лично рефлексируете по поводу таких изменений?

В американском дискурсе часто проводится разграничение между кураторством, когда люди самостоятельно подбирают музыку, и алгоритмами, которые мы обсуждали. Например, на Spotify есть те плейлисты, которые собраны непосредственно людьми, а есть автоматические, сделанные алгоритмической системой. Однако, как мы уже обсуждали, люди имеют большое влияние на алгоритмические системы. Как антропологу мне очень интересно, каким образом выстраиваются подобные оппозиции «человек/алгоритм», потому что часто их становится достаточно сложно поддерживать, имея дело с гибридными формами. Помимо того, что алгоритмы уже скрыто гибридны, есть «алготориальные»6 системы. Это такие плейлисты, которые составил человек при участии алгоритма. В этом направлении нас ждет множество изменений, и ностальгия всегда будет им сопутствовать.

Для меня нет ничего плохого в том, чтобы пытаться выработать более человечную альтернативу этим системам. Ведь тогда мы начинаем размышлять: что для нас значит быть человеком в оппозиции к этим системам? Мне кажется, это гораздо интереснее, чем думать о том, что раньше было лучше, «было человечнее». Воображение этих альтернатив позволяет задаться вопросом о том, что делает те или иные системы более близкими к человеку по сравнению с остальными.

Ведь сказать «я делаю продукт с человеческим лицом, а не очередной алгоритм» значит сейчас совсем другое, чем в 1990-е годы. Если бы вы тогда были сотрудниками радиостанции, желающей подчеркнуть свою ориентированность на людей, вы бы сказали: «Другое радио корпоративное, мейнстримное, определено коммерческими интересами, а мы — нет». Понимание того, что значит быть человеком, меняется, потому что сопоставляется с разными техническими системами.

Моя позиция как исследователя культуры и антрополога заключается в том, чтобы не принимать «человеческое» за данность. Мне всегда интересен контекст, в котором определяется человек, ведь именно через него понимаются и алгоритмические системы.

ii iii мм iii мм iii мм iii мм iii мм мм iii мм iii мм iii мм iii мм iii мм iii мм iii мм iii мм iii мм iii мм мм ними

6 Algotorial — смесь слов «курируемые», curatorial, и «алгоритмические», algorithmic. — Прим. ред.

^MTepaTypa/References

Seaver, N. (2015). The nice thing about context is that everyone has it. Media, Culture &

Society, 37(7), 1101-1109. Seaver, N. (2018). What should an anthropology of algorithms do? Cultural Anthropology, 33(3), 375-385.

Seaver, N. (2019). Knowing algorithms. In J. Vertesi, D. Ribes (Eds.). DigitalSTS, 412-422.

Princeton: Princeton University Press. Trouillot, M. R. (1991). Anthropology and the savage slot: The poetics and politics of otherness. In R. G. Fox (Ed.). Recapturing anthropology: Working in the present, 17-44. Santa Fe, N. M.: School of American Research Press.

i Надоели баннеры? Вы всегда можете отключить рекламу.