БИЗНЕС-ИНФОРМАТИКА Т. 15 № 2 - 2021 DOI: 10.17323/2587-814X.2021.2.34.46
Улучшение клиентского опыта взаимодействия с искусственным интеллектом путем соблюдения этических принципов
О.И. Долганова
E-mail: oidolganova@fa.ru
Финансовый университет при Правительстве Российской Федерации Адрес: 105187, г. Москва, ул. Щербаковская, д. 38
Аннотация
Интенсивное развитие и применение технологий искусственного интеллекта при организации взаимодействия с клиентами сопровождается такими сложностями, как нежелание клиента общаться с роботом, недоверие, боязнь, негативный клиентский опыт. Такие проблемы могут быть решены за счет соблюдения этических принципов использования искусственного интеллекта. В научных и практических работах по данной теме много рекомендаций общего характера, которые сложно применить на практике, или же наоборот, описываются методы для решения узкоспециализированной технической или управленческой задачи. Целью данной статьи является определение этических принципов и методов, соблюдение и реализация которых позволит повысить доверие клиента конкретной организации к системам искусственного интеллекта. В результате анализа и синтеза результатов научных и практических исследований, а также эмпирического опыта российских и зарубежных компаний выявлены основные области применения технологий искусственного интеллекта, влияющие на клиентский опыт. Сформулированы и систематизированы этические принципы, рекомендуемые к соблюдению бизнесом. Также определены основные методы, позволяющие реализовывать данные принципы на практике, снижая негативные эффекты от взаимодействия клиентов с искусственным интеллектом и повышая их доверие к компании.
Ключевые слова: этика; искусственный интеллект; этика искусственного интеллекта; клиентский опыт; этические принципы; машинное обучение; доверие; робот.
Цитирование: Долганова О.И. Улучшение клиентского опыта взаимодействия с искусственным интеллектом путем соблюдения этических принципов // Бизнес-информатика. 2021. Т 15. № 2. С. 34—46. DOI: 10.17323/2587-814Х.2021.2.34.46
Введение
Экономический потенциал применения технологий искусственного интеллекта (ИИ) при взаимодействии с клиентами является значительным, однако есть и проблемы безопасности данных, прозрачности алгоритмов поведения машин и доверия к подобным инструментам со стороны клиентов. Именно поэтому вопросы цифровой этики все чаще поднимаются как в научной литературе, так и на практике. Проведенный анализ публикаций по исследуемой теме в Web of Science и Scopus показал, что в общем числе статей по запросу «AI Ethics» за период с 2001 по 2020 год более 57 % (483 работы) в Web of Science и 61% (587 работ) в Scopus приходится на публикации 2019 и 2020 годов. До 2019 года в среднем публиковалось около 30 работ в год, при этом более 40% публикаций принадлежит авторам из США и Великобритании. Также в число лидеров входят авторы из Австралии, Италии, Нидерландов и Канады. В сумме по двум базам по данной теме авторами из США опубликовано 528 работ, а российскими учеными — всего 14. Также важно отметить, что только чуть больше половины всех опубликованных работ относится к области компьютерных и социальных наук, бизнеса и экономики.
Такая тенденция наблюдается и в практико-ориен-тированных изданиях, а также материалах государственных и международных комитетов и экспертных советов [1—5]. Здесь предлагаются высокоуровневые подходы, принципы и методы решения данных проблем, которые сложно применить на практике на уровне компании. При этом больше половины руководителей компаний, использующих технологии ИИ, подчеркивают важность проблемы обеспечения их этичности и прозрачности [6]. Gartner также отмечает, что в ближайшие годы вопросы цифровой этики, как элемента корпоративной архитектуры, будут находиться на пике популярности [7].
В процессах маркетинга, продаж и послепродажного обслуживания искусственный интеллект может быть использован для решения совершенно разных задач. Примерами могут служить улучшение распознавания речи и анализ эмоционального состояния клиента, маршрутизация звонков, обработка обращений, обеспечение индивидуального подхода к каждому покупателю, поиск новых клиентов.
Термин «искусственный интеллект» не имеет единого устоявшегося определения. Многие исследователи считают, что понятие ИИ относится к программам, алгоритмам и системам, демонстрирующим
интеллект [8]. Однако такая формулировка вызывает много дискуссий на предмет того, как определить, что машина демонстрирует именно интеллект и какие ее действия доказывают ее разумность. Поэтому в данной работе будем придерживаться несколько иной точки зрения, подразумевающей, что информационные системы с ИИ построены на базе технологий машинного обучения и в них могут применяться инструменты роботизированной автоматизации процессов, обработки естественного языка, нейронные сети и методы глубокого обучения [9—11]. Такие программные решения позволяют интерпретировать имеющиеся данные, извлекать уроки, обучаться на них и адаптироваться под текущие потребности пользователя [12].
Применение подобных передовых цифровых технологий сопряжено с проблемами этического характера [11, 13, 14]. Клиенты не склонны доверять искусственному интеллекту. С точки зрения соблюдения этических норм они ожидают от подобных информационных систем больше, чем регламентировано текущими правовыми нормами [15]. Также для многих людей важно, чтобы взаимодействие с ними осуществлялось честно и прозрачно, только тогда они начинают доверять продавцу [16]. Именно доверие выступает в роли самого сильного фактора, влияющего на лояльность клиента [17—19]. Оно возникает в результате последовательного поведения компании, демонстрирующего ее честность и надежность. Важность этих аспектов в выстраивании взаимоотношений между продавцом и потребителем возрастает с каждым годом. Эту тенденцию, в частности, подтверждают результаты исследований КПМГ 2019-2020 годов [17, 20].
Вопросы улучшения клиентского опыта активно рассматриваются исследователями с точки зрения маркетинга, автоматизации продаж и послепродажного обслуживания, в том числе за счет использования технологий искусственного интеллекта [21, 22]. Однако их применение провоцирует возникновение этических проблем. Поэтому появилась острая потребность в исследовании данных вопросов и определении возможных путей снижения негативных последствий.
Целью данной работы является определение этических принципов и подходов к улучшению клиентского опыта взаимодействия с ИИ на этапе продаж и послепродажного обслуживания. В результате исследования планируется ответить на следующие вопросы:
♦ Какие принципы этики необходимо соблюдать для улучшения клиентского опыта взаимодействия с искусственным интеллектом?
♦ Какие шаги позволят снизить негативное отношение покупателей и потребителей к применению компанией технологий ИИ в процессах управления и реализации взаимоотношений с клиентами?
В рамках исследования был проведен анализ научных и практических публикаций, фреймворков, «белых книг» и аналитических отчетов, касающихся поставленных вопросов с точки зрения маркетинга, бизнеса, психологии, этики и информационных технологий.
Опираясь на классификацию систем искусственного интеллекта, используемых в клиентском обслуживании [23], можно выделить два сценария их применения: 1) робот как помощник человека, который обслуживает клиента и 2) робот как замена человека, обслуживающего клиента. В данной работе в основном рассматривается второй вариант. Это позволит сузить область исследования и сконцентрироваться на проблемах, возникающих именно при таком типе взаимодействия с клиентом.
1. Область применения технологий искусственного интеллекта в реализации взаимодействия с клиентами
В сфере управления и реализации взаимодействий с клиентами технологии искусственного интеллекта могут быть использованы для решения таких задач, как автоматизация процессов продаж, обработка обращений и жалоб, поиск и привлечение новых клиентов, повышение лояльности и удержание уже имеющихся клиентов. Среди задач, наиболее часто реализуемых с помощью ИИ, можно выделить управление поступающим контентом, осуществление простых процессов продаж, анализ информации о клиенте и формирование для него персональных предложений.
Инструменты искусственного интеллекта вместе с технологиями роботизированной автоматизации процессов (robotic process automation, RPA) захватывают сообщения и письма клиентов, идентифицируют их, распознают, извлекают необходимую и полезную информацию о клиенте и его запросе, верифицируют полученные данные с теми, которые уже есть у компании, и затем передают на обработку и принятие решения по конкретному вопросу.
Искусственный интеллект активно используется в простых процессах продаж на таких торговых площадках, как eBay и Amazon, в социальной сети Facebook и мессенджере WeChat. Yamato Transport, одна из крупнейших курьерских компаний Японии, использует чат-бот для планирования доставки и ответа на вопросы о том, где находятся посылки [24]. Domino's Pizza использует чат-бот, который принимает заказы на онлайн- доставку.
Для реализации поведенческого таргетинга в режиме реального времени на основе анализа транзакций клиентов для них формируются персональные предложения, опираясь на поведение покупателя и опыта продаж в компании. Например, подобные решения используются в Netflix, Amazon, Outbrain, Taboola [22].
Определение индивидуальной траектории взаимодействия с клиентом также может быть реализовано с помощью систем ИИ, в основе которых лежат технологии обработки естественного языка и машинного обучения. Например, компания Stitch Fix создала онлайн-магазин одежды, где покупателям предлагается определить их уникальный стиль (вместо выбора из предложенных шаблонных вариантов) и под него, с учетом индивидуальных особенностей человека, подобрать подходящие вещи [25].
Искусственный интеллект помогает усовершенствовать общение и повысить лояльность клиента, продать ему товар, за счет анализа его эмоционального состояния по голосу или тексту обращения. Подобные решения позволяют спрогнозировать поведение клиента, предугадать его желания и выстроить с ним взаимодействие наилучшим образом.
Роботизация и применение технологий искусственного интеллекта, как и многие другие инновации, позволяют удовлетворить клиентские потребности в качестве и скорости обработки их запросов [26—28]. Иногда даже удается превзойти ожидания покупателей и потребителей, сокращая их усилия на взаимодействие с компанией.
Исследование КПМГ [22], проведенное в 2020 году, показало, что за последнее время втрое увеличилось число потребителей, готовых использовать цифровые технологии (социальные сети, веб-чаты, мессенджеры) для взаимодействия с продавцами. По оценкам McKinsey [29], применение ИИ для более глубокой (по сравнению с традиционными решениями) аналитики данных позволяет компании увеличить ее ценность на 30—128%, а у розничных продавцов только в результате при-
менения технологий адаптации предложений под конкретного клиента продажи увеличиваются на 1-2%. Поэтому для укрепления своей конкурентоспособности, увеличения прибыли и улучшения клиентского опыта компании активно внедряют ИТ-решения, базирующиеся на методах машинного обучения.
Для непосредственного взаимодействия с клиентами компании начинают активно использовать искусственный интеллект. Исследование [21] показало, что применение скрытых чат-ботов (когда клиенты думают, что общаются с человеком) в четыре раза эффективнее неопытного продавца. Кроме того, подобные решения в некоторых ситуациях помогают превратить негативный опыт клиента в положительный, путем оперативного и прозрачного решения возникающих проблем.
2. Проблемы применения технологий искусственного интеллекта для взаимодействия с клиентами
Поведенческая экономика указывает на такую особенность человека, как формирование доверительного отношения к тем, кто нам нравится. Многие компании уже давно знают об этом и предпринимают соответствующие шаги, чтобы покупателю были симпатичны сотрудники, с которыми он общается. Однако пока остается нерешенным вопрос, как сделать так, чтобы покупателю было комфортно общаться с ИИ, который заменяет контактное лицо со стороны компании. По оценкам Capgemini, примерно две из пяти компаний, столкнувшихся с этическими проблемами использования ИИ, решили полностью отказаться от его применения [6].
Другими важными аспектами положительного клиентского опыта и повышения лояльности клиента являются сочувствие и персонализация, которые сложно реализуемы в случае применения технологий искусственного интеллекта. Теоретически, при проектировании алгоритма функционирования робота можно попытаться построить логику его взаимодействия с клиентом таким образом, чтобы он учитывал обстоятельства клиента и выказывал глубокое понимание его проблем, сомнений, опасений. Однако человек, общающийся, например, с ботом, скорее всего, не будет ощущать интерес к себе со стороны ИИ, не будет чувствовать себя ценным и уникальным, поскольку он будет понимать, что общается не с человеком, а с машиной. Клиен-
ты особенно не склонны взаимодействовать с роботом, если нужна субъективная оценка, помощь в подборе товара, соучастие и сочувствие [29-31].
Существует многочисленная категория клиентов, считающих, что компания, которая использует для взаимодействия с ними систему искусственного интеллекта, в некотором роде обманывает покупателя или потребителя услуг [24]. Это серьезно снижает доверие клиента к бренду. Так, после раскрытия информации о том, что в процессе продажи со стороны компании работает бот, а не человек, увеличивается частота прерывания текущего контакта, а количество покупок снижается почти на 80% [21].
Исследования, описанные в работе [28], показывают, что внедрение инновационных решений на базе ИИ у потенциальных клиентов и потребителей чаще вызывают отрицательную реакцию, чем положительную, особенно это сказывается на восприятии этической стороны репутации компании.
Клиентов сильно волнует конфиденциальность и безопасность взаимодействия с роботом [32]. При взаимодействии с живым человеком, в отличие от систем искусственного интеллекта, сохраняется ощущение, что разговор может остаться не зафиксированным, не вся информация, которая сообщается продавцу или менеджеру попадет в учетную систему и будет использована при дальнейших контактах или в каких-либо других целях. Кроме того, из-за непрозрачности алгоритмов функционирования ИИ, клиент чувствует себя неуверенно, передавая персональные данные о себе роботу.
В ходе применения искусственного интеллекта, например, при анализе клиентского опыта и взаимодействия с потребителем, возникает вопрос этичного использования информации о клиенте. Принципы определения этичности поведения компании в данном случае также могут быть важным критерием прозрачности взаимодействия и честности организации. В желании предоставить клиентам персонализированное обслуживание многие фирмы злоупотребляют информацией о нем, что может негативным образом сказаться на потребительском опыте. Человеку может показаться, что продавец нарушает допустимые границы и лезет в его личную жизнь.
Обмен персональными данными между компаниями одной экосистемы в соответствии с законодательством Российской Федерации недопустим.
Однако передавать друг другу агрегированные, обезличенные данные в виде услуги возможно. Это позволяет использовать клиентский опыт участников экосистемы, не нарушая базовые этические нормы. Так, например, поступают компании «Мегафон» и «Mail.ru» [33]. Несмотря на то, что это не нарушает права клиентов, многие из них хотели бы знать о том, какие их персональные данные используются, кем и в каких целях.
Таким образом, решения на базе искусственного интеллекта воспринимаются многими людьми как инновационные, но с непонятным алгоритмом функционирования. Это влечет за собой ряд этических последствий, которые могут оказать негативное влияние и на клиентский опыт.
3. Этические принципы применения технологий искусственного интеллекта для взаимодействия с клиентами
Понятие «этичный» весьма многостороннее, оно может относиться как к процессу, так и к результату или ценности [18]. При рассмотрении этичности процесса речь будет идти о внутренних процедурах и действиях, которые реализует компания. Аспект этичности ценностей относится к набору параметров взаимодействия организации с покупателями и потребителями. В данном случае речь идет о прозрачности информационного взаимодействия, справедливости ценообразования, конфиденциальности персональных данных и т.п. Этичность результатов связана со свойствами выходных данных системы ИИ, отсутствием дискриминации, справедливостью и объективностью. Важно рассматривать этику ИИ со всех вышеперечисленных ракурсов, поскольку она затрагивает этические вопросы проектирования, разработки, внедрения и использования соответствующих технологий на практике.
Люди стали больше обращать внимание на то, насколько достойно ведут себя бренды в отношении своих этических и социальных обязательств. Многие исследователи [11, 13, 14] отмечают, что это способствует долгосрочному успеху компании в части сохранения лояльности клиентов.
Опасения, страх, непонимание механизмов функционирования систем, в которые встроены технологии ИИ, могут существенно снизить потенциальные положительные эффекты от их применения. Некоторые компании, активно тестирующие различные технологии ИИ (например, Walmart Inc.), обеспокоены отношением клиентов к робо-
там, с которыми они сталкиваются во время покупки [34]. Это в основном связано с этическим аспектом. В частности, имеют место следующие риски: 4- возникновение у клиента ощущения, что за него принимают решение, то есть снижается возможность самореализации и обесцениваются способности человека к исследованию и выбору того продукта, который удовлетворит его потребности; 4- непрозрачность зон ответственности за решения или выводы, принятые искусственным интеллектом. Например, если оператор колл-центра что-то советует звонящему покупателю, то ответственность за рекомендации лежит на конкретном сотруднике, человеке. Если же рекомендации дает робот, то кто будет нести за них ответственность? ♦ контроль за действиями искусственного интеллекта. Если система самообучаемая, то может возникать ситуация, когда выводы из анализируемой информации, поведение и предпринимаемые ИИ решения могут оказаться непрогнозируемыми и непредсказуемыми не только для пользователя, но и для разработчика. Ведущие организации, работающие в области формирования этических норм и правил применения ИИ, сформулировали большое число разных подходов и инструментов для соблюдения вышеперечисленных принципов [1, 2, 4, 5]. Практически все они придерживаются схожих взглядов и совсем не противоречат друг другу, а только дополняют коллег.
В «белой книге» по этике ИИ Европейского института науки, СМИ и демократии (Atomium-European Institute for Science, Media and Democracy) приводятся пять принципов этики искусственного интеллекта: 1) содействие благополучию людей; 2) непричинение вреда (конфиденциальность, безопасность и «внимание к возможностям»); 3) автономия (право людей самостоятельно принимать решения); 4) справедливость (уважение интересов всех сторон, на которые могут повлиять действия системы с ИИ, отсутствие дискриминации, возможность устранения ошибок); 5) объяснимость (прозрачность логики искусственного интеллекта, подотчетность) [3]. Эти принципы представляют собой квинтэссенцию тех, которые изложены в кодексах, регламентах и прочих рекомендательных и нормативных документах, изданных экспертными и регулирующими органами стран Европейского Союза.
Японское общество искусственного интеллекта (Japanese Society for Artificial Intelligence, JSAI) выделяет следующие этические принципы, кото-
рым должны следовать разработчики систем искусственного интеллекта [35]: 1) соблюдение прав человека и уважение культурного разнообразия; 2) соблюдение законов и правил, а также непричинение вреда другим; 3) уважение частной жизни; 4) справедливость; 5) безопасность; 6) добросовестность; 7) подотчетность и социальная ответственность; 8) саморазвитие и содействие пониманию ИИ обществом. Важно также отметить, что в отличие от европейских принципов ИИ, здесь особое внимание уделяется развитию ИИ таким образом, чтобы он соблюдал вышеперечисленные принципы в ходе своего функционирования.
Корпорация Google также сформулировала семь принципов искусственного интеллекта, которыми компания руководствуется при создании и использовании подобных технологий. К ним относятся [36]: 1) ИИ должен быть социально-полезным; 2) необходимо стремиться избегать несправедливого воздействия на людей; 3) применение передовой практики обеспечения безопасности; 4) ответственность за действия ИИ перед людьми; 5) обеспечение гарантий конфиденциальности, надлежащей прозрачности и контроля за использованием данных;
6) поддерживание стандартов высокого мастерства;
7) ограничение использования потенциально вредоносных и оскорбительных программных продуктов. Особенностью данного свода является указание важности квалификации людей, создающих и
управляющих системами с ИИ.
В российском кодексе этики использования данных, который разработан по инициативе Ассоциации больших данных и Института развития интернета, в качестве основных принципов применения ИИ указано, что необходимо «базироваться на основополагающих принципах защиты прав и свобод человека, не допускать дискриминацию и причинение вреда», а также соблюдать российское и международное законодательство в области информационной безопасности и защиты данных от неправомерного использования [37].
Научно-исследовательский институт Capgemini также сформулировал основные характеристики этичного ИИ. К ним относятся [6]: 1) этичность действий от проектирования до применения; 2) прозрачность; 3) объяснимость функционирования ИИ; 4) интерпретируемость результатов; 5) справедливость, отсутствие предвзятости; 6) возможность аудита.
В таблице 1 приведены результаты сопоставления и сравнения сводов принципов, которые рекомендуются научными и экспертными сообществами [3, 6, 35], применяются ведущей ИТ-компанией Google [36], а также те, которые сформулированы в российском кодексе этики использования данных [37].
Таблица 1.
Сравнительная характеристика разных сводов принципов этики искусственного интеллекта
Принципы Источник свода принципов
JSAI [35] Atomium - EISMD [3] Capgemini [6] Google [36] АБД*) [37]
Равенство и справедливость + + + + +
Польза, непричинение вреда + + + +
Уважение культурного разнообразия и плюрализма + +
Недискриминация и отсутствие стигматизации + + + + +
Индивидуальная ответственность, подотчетность + + + +
Автономия и согласие +
Конфиденциальность, уважение частной жизни + + + +
Защита данных и контроль их использования + + + +
Содействие пониманию ИИ обществом +
Добросовестность +
Социальная ответственность + +
Высокое мастерство, саморазвитие + +
*) Ассоциация больших данных и Институт развития интернета
Как отмечалось ранее, главная задача компании в этой области — это создать доверительные отношения с клиентом. На уровне компании важно соблюдать этические принципы, связанные с различными аспектами доверия. IBM среди них выделяет справедливость, надежность, прозрачность, подотчетность, объяснимость и выравнивание значений (соответствие правилам, бизнес-процессам, нормам, законам, этике и морали) [38].
Анализ рекомендаций по формированию этических принципов позволяет сделать вывод, что в качестве ключевых принципов этики искусственного интеллекта, которым необходимо соответствовать коммерческим компаниям, можно выделить две категории:
4- категория «доверие»: справедливость, надежность,
прозрачность, подотчетность, объяснимость; 4 категория «соблюдение законодательства»: защита данных, контроль использования данных, обеспечение конфиденциальности.
Существенную роль в улучшении клиентского опыта также играют принятые бизнесом организационные меры по обеспечению соблюдения данных принципов. Примерами являются развитие совместного отраслевого регулирования и саморегулирования в области ИИ, разработка и утверждение моральных ценностей для компании, а также определение степени прозрачности функционирования искусственного интеллекта в системах управления рекламой, маркетингом, продажами и послепродажным обслуживанием.
4. Методы снижения негативного клиентского опыта взаимодействия с искусственным интеллектом
Этичное использование ИИ повышает лояльность клиента к компании, повышает доверие к ней и способствует росту объема продаж. Неэтичное поведение может привести к проявлению репу-тационных рисков, судебным разбирательствам и потере до 30% клиентов [6].
Для улучшения клиентского опыта взаимодействия с технологиями ИИ важно обеспечить соблюдение принципов вышеперечисленных категорий, а также дать возможность людям помогать компании совершенствовать алгоритмы и методы применения искусственного интеллекта. Таким образом компания будет демонстрировать приверженность базовым принципам этики ИИ.
Одним из главных способов повышения степени доверия при взаимодействии с искусственным интеллектом является информирование клиента о факте, что он общается с роботом. Важно отметить, что это информирование целесообразно осуществлять в конце процесса общения, когда человек сделал заказ или передал заявку / жалобу, которая поступила в обработку или даже решение по которой уже принято. Таким образом компания соблюдает этические нормы по обеспечению прозрачности применения ИИ в общении, а также позволяет клиенту получить положительный опыт общения с машиной. Если информировать об этом клиента в начале коммуникации, то возникает высокая вероятность прерывания данного контакта по инициативе клиента [21]. Из-за этого компания теряет лояльность клиента, а он, в свою очередь, не сможет сформировать свое мнение (возможно, положительное) о функционировании робота.
Другим инструментом является информирование клиента об алгоритме формирования предложений для него. Как правило, это делается по запросу, а не навязывается регулярно каждому человеку. Например, Facebook с помощью специальной опции «Почему я это вижу?» показывает критерии, которые сработали при подборе персонифицированной рекламы [22]. Также по запросу пользователя может создаваться информационный бюллетень, в котором представлены сведения о цифровой политике, используемых данных, цели сбора и обработки и данных, рисках, результатах проверки на соответствие этическим принципам компании. Так соблюдаются принципы объяснимости и подотчетности, сохраняется доверие пользователя к Facebook.
Если компания не раскрывает алгоритм формирования индивидуальной цены продукта или услуги, персональной скидки и рекламных предложений, то возникает ощущение обмана или дискриминации. На сегодняшний день уже есть много примеров подобного неэтичного применения ИИ. В качестве примера можно упомянуть страховую компанию Allstate в Мэриленде, формировавшую стоимость страховки в зависимости от платежеспособности клиента, которую она вычисляла по внешним источникам информации [18]. Такое скрытное поведение сегодня уже настораживает покупателя. Поэтому, аналогично раскрытию финансовой отчетности, публичные компании должны выкладывать в свободный доступ информацию о собираемых данных и политике их использования системами ИИ. Так будет реализовано соблюдение принципов прозрач-
ности и подотчетности, и в то же время обеспечена защита коммерческой тайны, поскольку детали не разглашаются, а вместо этого предоставляется информация общего характера.
Также целесообразным видится применение инструментов с открытым кодом, которые выявляют предвзятость и дискриминацию в алгоритмах искусственного интеллекта. В качестве примера можно привести AI Fairness 360 (AIF360), который представляет собой набор инструментов, позволяющий выявить и устранить предвзятость и смещение в моделях машинного обучения [39]. Подобные механизмы позволяют компании следовать этическим принципам, тактическим и стратегическим целям. Примером является практика выявления и снижения возрастной дискриминации при выдаче кредита в German Credit с помощью решения от IBM [40].
В регламенте Европейского Союза по защите данных (General Data Protection Regulation, GDPR) предусмотрена отчетность о применяемых алгоритмах ИИ для обеспечения соблюдения индивидуальных прав и системного совместного управления [41]. Это подразумевает проведение оценки воздействия на защиту данных (Data Protection Impact Assessment, DPIA). При ее выполнении в соответствии с концепцией «многоуровневого объяснения» [42] алгоритмических систем можно обеспечить реализацию клиентских прав на объяснение принципа функционирования ИИ, с которым они взаимодействуют.
Кроме того, важно доносить информацию об ИИ до клиентов таким образом, чтобы люди понимали ее, могли оценить важность и безопасность сбора сведений о них. Также рекомендуется сообщать клиентам и о рисках, которые сопутствуют функционированию систем на основе искусственного интеллекта, о возможном неправильном использовании или некорректной трактовке получаемых данных.
Отсюда следует и другой метод повышения доверия клиента — передача ему части функций по контролю и управлению областью функционирования системы искусственного интеллекта. Участник взаимодействия должен иметь возможность обратиться за помощью к реальному сотруднику компании или сообщить о некорректных действиях робота. При этом данная опция должна быть ему известна и легкодоступна. Клиенту можно делегировать полномочия по определению категорий персональных данных, доступных ИИ для обработки, а также перечня онлайн-сервисов, которые он хотел бы получать в ходе контакта с компанией. Например, в компании
«Билайн» [43] в качестве критерия этичного поведения выделяется возможность клиента обозначить уровень персонализации взаимодействия. Это позволяет человеку ощущать себя управляющим условиями взаимодействия и чувствовать себя информационно защищенным.
Человек станет больше доверять искусственному интеллекту, если соответствующая система будет предоставлять актуальную статистику успешно выполненных работ, а также демонстрировать связь своих рекомендаций с целями человека, с которым она взаимодействует [44]. Здесь могут быть определены разные показатели производительности и результативности, например, количество клиентов, довольных обслуживанием конкретным роботом, доля успешно решенных проблем или средняя скорость обработки заявки.
Вышеописанные методы направлены на формирование доверительных, почти партнерских отношений между компанией и ее клиентами. Их реализация может не достигнуть желаемых эффектов, если эти действия будут лишь формальными, а не станут элементом корпоративной культуры фирмы. В обеспечении гибкости и открытости при выстраивании взаимоотношений с клиентами, особенно когда речь идет о применении искусственного интеллекта, важную роль играет цифровая культура, которая должна формироваться и развиваться в компании [45]. В организации должны быть созданы условия для развития этического мышления у ее сотрудников, чтобы они хотели поступать правильно и корректно на всех этапах создания и управления системой с искусственным интеллектом. Подобные мероприятия направлены главным образом на создание атмосферы эффективного и этичного применения передовых информационных технологий. Но именно для укрепления доверия клиента нужно убедительно демонстрировать их во внешней среде. Целесообразным видится информирование общественности о своих принципах и методах развития корпоративной культуры, о целях, которые компания в этом направлении желает достигнуть и какие шаги она для этого предпринимает. Также важно показывать клиенту, что это не только декларация о намерениях, но и реальные действия. Например, что компания активно использует бенчмаркинг и ведет исследования в данной области, обучает сотрудников и создает внутренние центры компетенций по этике, а также принимает участие в различных сообществах и ассоциациях, занимающихся вопросами этики ИИ.
Несмотря на то, что целью внедрения подобных технологий является сокращение затрат на персонал, именно для формирования доверительных отношений на первом этапе внедрения ИИ, в рамках процесса послепродажного обслуживания сотрудник компании должен связаться с клиентом и поинтересоваться его опытом. Одной из задач такого контакта будет демонстрация клиенту намерений обеспечить ему комфорт и безопасность взаимодействия с ИИ, учитывая его сомнения и пожелания.
Применение предлагаемого перечня методов и подходов к улучшению взаимодействия с ИИ позволяет практически любой организации соответствовать ключевым этическим принципам и тем самым сохранить доверие клиента к компании.
Заключение
При активном использовании технологий ИИ в организации и реализации процессов продвижения, продажи и послепродажного обслуживания возникает проблема обеспечения положительного клиентского опыта. Это связано с тем, что многие люди боятся и не доверяют роботам и искусственному интеллекту. Для того, чтобы снизить негативное отношение к подобным системам, важно донести до клиента этичность применения этих решений, обеспечить прозрачность и подотчетность их функционирования.
В данной статье сформулированы основные направления применения технологий искусственного интеллекта в процессах взаимодействия с клиентом. Выявлена необходимость определения и формулирования этических принципов разработки, внедрения и применения ИИ на практике. В результате анализа рекомендаций международных и локальных экспертных комиссий, научных исследований и ведущих ИТ-компаний сформулированы две категории базовых принципов этики искусственного интеллекта, которым рекомендуется следовать коммерческим организациям.
Опираясь на данные принципы, научно-практические эксперименты и опыт компаний, активно использующих технологии ИИ, описаны ключевые методы улучшения клиентского опыта взаимодействия с подобными ИТ-решениями.
Представленные в данной статье рекомендации могут быть полезны организациям, которые планируют или уже применяют системы, функционирующие на базе ИИ. Полученные результаты также могут служить отправной точкой для дальнейших исследований. Например, интересным видится выявление изменения значимости тех или иных этических принципов в зависимости от отраслевой принадлежности компании, а также изучение влияния каждого из описанных методов на изменение доверия к ИИ клиентов российских компаний. ■
Литература
1. The Montreal declaration for a responsible development of artificial intelligence // Universite de Montreal, 2017. [Электронный ресурс]: https://www.montrealdeclaration-responsibleai.com/ (дата обращения 20.08.2020).
2. Tenets of the partnership on AI // Partnership on AI, San Francisco. [Электронный ресурс]: https://www.partnershiponai.org/tenets/ (дата обращения 21.08.2020).
3. AI 4People's ethical framework for a good AI society: Opportunities, risks, principles, and recommendations / L. Floridi [et al.] / AI4People, 2019. [Электронный ресурс]: https://www.eismd.eu/wp-content/uploads/2019/03/AI4People%E2%80%99s-Ethical-Frame-work-for-a-Good-AI-Society.pdf (дата обращения 21.08.2020).
4. What are the OECD Principles on AI? / OECD, 2019. [Электронный ресурс]: https://www.oecd.org/going-digital/ai/principles (дата обращения 27.08.2020).
5. Ethics guidelines for trustworthy AI / European Commission, 2019. [Электронный ресурс]: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (дата обращения 29.08.2020).
6. Why addressing ethical questions in AI will benefit organizations / Capgemini Research Institute, 2019. [Электронный ресурс]: https://www.capgemini.com/wp-content/uploads/2019/08/AI-in-Ethics_Web.pdf (дата обращения 11.11.2020).
7. Allega P. Hype cycle for enterprise architecture, 2020 // Gartner, 2020. [Электронный ресурс]: https://www.gartner.com/en/documents/3989875 (дата обращения 25.10.2020).
8. Shankar V. How artificial intelligence (AI) is reshaping retailing // Journal of Retailing. 2018. Vol. 94. No 4. P. vi-xi. DOI: 10.1016/S0022-4359(18)30076-9.
9. Huang M.-H., Rust R.T. Artificial intelligence in service // Journal of Service Research. 2018. Vol. 21. No 2. P. 155-172. DOI: 10.1177/1094670517752459.
10. Syam N., Sharma A. Waiting for a sales renaissance in the fourth industrial revolution: Machine learning and artificial intelligence in sales research and practice // Industrial Marketing Management. 2018. Vol. 69. P. 135-146. DOI: 10.1016/j.indmarman.2017.12.019.
11. Davenport T., Guha A., Grewal D., Bressgott T. How artificial intelligence will change the future of marketing // Journal of the Academy of Marketing Science. 2020. No 48. P. 24-42. DOI: 10.1007/s11747-019-00696-0.
12. Kaplan A., Haenlein M. Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence // Business Horizons. 2019. Vol. 62. No 1. P. 15-25. DOI: 10.1016/j.bushor.2018.08.004.
13. Fukukawa K., Balmer J.M., Gray E.R. Mapping the interface between corporate identity, ethics and corporate social responsibility // Journal of Business Ethics. 2007. No 76. P. 1-5. DOI: 10.1007/s10551-006-9277-0.
14. Stanaland A.J.S., Lwin M.O., Murphy P.E. Consumer perceptions of the antecedents and consequences of corporate social responsibility // Journal of Business Ethics. 2011. No 102. P. 47-55. DOI: 10.1007/s10551-011-0904-z.
15. Gray K. AI can be a troublesome teammate // Harvard Business Review. 2017. [Электронный ресурс]: https://hbr.org/2017/07/ai-can-be-a-troublesome-teammate (дата обращения 12.10.2020).
16. Lee J.D., See K.A. Trust in automation: Designing for appropriate reliance // The Journal of the Human Factors and Ergonomics Society. 2004. Vol. 46. No 1. P. 50-80. DOI: 10.1518/hfes.46.1.50_30392.
17. Customer experience in the new reality. Global Customer Experience Excellence research 2020: The COVID-19 special edition / KPMG, 2020. [Электронный ресурс]: https://assets.kpmg/content/dam/kpmg/xx/pdf/2020/07/customer-experience-in-the-new-reality.pdf (дата обращения 15.10.2020).
18. The state of AI ethics report / MAIEI, 2020. [Электронный ресурс]: https://montrealethics.ai/the-state-of-ai-ethics-report-june-2020/ (дата обращения 29.08.2020).
19. Winfield A.F.T., Jirotka M. Ethical governance is essential to building trust in robotics and artificial intelligence systems // Philosophical Transactions of the Royal Society A. Mathematical, physical and engineering sciences. 2018. Vol. 376. No 2133. Article ID: 20180085. DOI: 10.1098/rsta.2018.0085.
20. С потребителем «на ты». 100 брендов с лучшим клиентским сервисом. Исследование КПМГ в России // KPMG, 2019. [Электронный ресурс]: https://drive.google.com/ffle/d/1kdLf8yMxPi5N6ddkjUJrgrycIpppuq8o/view (дата обращения 15.10.2020).
21. Luo X., Tong S., Fang Z., Qu Z. Frontiers: Machines vs. humans: The impact of artificial intelligence chatbot disclosure on customer purchases // Marketing Science. 2019. Vol. 38. No 6. P. 937-947. DOI: 10.1287/mksc.2019.1192.
22. Consumer choice and autonomy in the age of artificial intelligence and big data / Q. Andre [et al.] // Customer Need and Solution. 2018. No 5. P. 28-37. DOI: 10.1007/s40547-017-0085-8.
23. Service Encounter 2.0: An investigation into the roles of technology, employees and customers / B. Lariviere [et al.] // Journal of Business Research. 2017. No 79. P. 238-246. DOI: 10.1016/j.jbusres.2017.03.008.
24. Thompson C. May A.I. help you? Intelligent chatbots could automate away nearly all of our commercial interactions - for better or for worse // New York Times, 2018. [Электронный ресурс]: https://www.nytimes.com/interactive/2018/11/14/magazine/tech-design-ai-chatbot.html (дата обращения 28.09.2020).
25. Уилсон Дж., Доэрти П., Шукла П. Смелые одежды: как продавать вещи с помощью людей и искусственного интеллекта // Harvard Business Review Россия, 2017. [Электронный ресурс]: https://hbr-mssia.ra/innovatsn/tekhnologii/p18595/#ixzz4WWRr3huw (дата обращения 04.11.2020).
26. Service research priorities in a rapidly changing context / A.L. Ostrom [et al.] // Journal of Service Research. 2015. Vol. 18. No 2. P. 127-159. DOI: 10.1177/1094670515576315.
27. Kim J., Kim K.H., Garrett T.C., Jung H. The contributions of firm innovativeness to customer value in purchasing behavior // Journal of Product Innovation Management. 2015. Vol. 32. No 2. P. 201-213. DOI: 10.1111/jpim.12173.
28. McLeay F., Osburg V.S., Yoganathan V., Patterson A. Replaced by a robot: Service implications in the age of the machine // Journal of Service Research. 2021. Vol. 24. No 1. P. 104-121. DOI: 10.1177/1094670520933354.
29. Notes from the AI frontier: Applications and value of deep learning / M. Chui [et al.] // McKinsey Global Institute discussion paper. 2018. [Электронный ресурс]: https://www.mckinsey.com/featured-in^ights/artificial-intelligence/notes-from-the-ai-frontier-applications-and-value-of-deep-learning (дата обращения 20.10.2020).
30. Froehlich A. Pros and cons of chatbots in the ГГ helpdesk // InformationWeek, 2018. [Электронный ресурс]: https://www.informationweek.com/strategic-cio/it-strategy/pros-and-cons-of-chatbots-in-the-it-helpdesk/a/d-id/1332942 (дата обращения 20.10.2020).
31. Kestenbaum R. Conversational commerce is where online shopping was 15 years ago - Can it also become ubiquitous? // Forbes, 2018. [Электронный ресурс]: https://www.forbes.com/sites/richardkestenbaum/2018/06/27/shopping-by-voice-is-small-now-but-it-has-huge-potential/?sh=3a41ebe337ac (дата обращения: 27.09.2020).
32. Brave new world: Service robots in the frontline / J. Wirtz [et al.] // Journal of Service Management. 2018. Vol. 29. No 5. P. 907-931. DOI: 10.1108/JOSM-04-2018-0119.
33. Соболев А. Выручка от цифровых сервисов у «МегаФона» растет двузначными темпами // KPMG, 2020. [Электронный ресурс]: https://mustread.kpmg.ru/interviews/vyr^chka-ot-tsifrovykh-servisov-u-megafona-rastet-dvuznachnymi-tempami/ (дата обращения: 28.10.2020).
34. Nassauer S. Walmart scraps plan to have robots scan shelves // The Wall Street Journal, 2020. [Электронный ресурс]: https://www.wsj.com/articles/walmart-shelves-plan-to-have-robots-scan-shelves-11604345341 (дата обращения 04.11.2020).
35. The Japanese Society for Artificial Intelligence Ethical Guidelines / JSAI, 2017. [Электронный ресурс] http://ai-elsi.org/wp-content/up-loads/2017/05/JSAI-Ethical-Guidelines-1.pdf (дата обращения 14.05.2021).
36. Pichai S. AI at Google: our principles // Google, 2018. [Электронный ресурс]: https://blog.google/topics/ai/ai-principles/ (дата обращения 05.11.2020).
37. Кодекс этики использования данных / Ассоциация больших данных. Институт развития интернета. [Электронный ресурс]: https://ac.gov.ra/files/content/25949/kodeks-etiki-pdf.pdf (дата обращения 08.11.2020).
38. Experiences with improving the transparency of AI models and services / M. Hind [et al.] // Extended Abstracts of the 2020 CHI Conference on Human Factors in Computing Systems (CHI EA '20). Honolulu, USA, 25-30 April 2020. P. 1-8. DOI: 10.1145/3334480.3383051.
39. AI Fairness 360 / IBM Developer Staff, 2018. [Электронный ресурс]: https://developer.ibm.com/technologies/artfficial-inteMgence/proj-ects/ai-fairness-360/ (дата обращения 08.11.2020).
40. Detecting and mitigating age bias on credit decisions // Jupyter nbviewer. [Электронный ресурс]: https://nbviewer.jupyter.org/github/IBM/ A[F360/blob/master/examples/tutorial_credit_scoring.ipynb (дата обращения 05.11.2020).
41. О GDPR на русском. Информация об Общем регламенте по защите данных. [Электронный ресурс]: https://ogdpr.eu/ (дата обращения 08.11.2020).
42. Kaminski M.E., Malgieri G. Algorithmic impact assessments under the GDPR: producing multi-layered explanations // International Data Privacy Law. 2020. ipaa020. DOI: 10.1093/idpl/ipaa020.
43. Елаева М. Мы будем перестраивать все наши бизнес-процессы «от клиента» / КПМГ, 2020. [Электронный ресурс]: https://mustread.kpmg.ru/interviews/my-budem-perestra^vat-vse-na^hi-biznes-protsessy-ot-klienta/ (дата обращения 01.10.2020).
44. Lara F., Deckers J. Artificial intelligence as a Socratic assistant for moral enhancement // Neuroethics. 2020. No 13. P. 275-287. DOI: 10.1007/s12152-019-09401-y.
45. Долганова О.И., Деева ЕА. Готовность компании к цифровым преобразованиям: проблемы и диагностика // Бизнес-информатика. 2019. Т. 13. № 2. С. 59-72. DOI: 10.17323/1998-0663.2019.2.59.72.
Об авторе
Долганова Ольга Игоревна
кандидат экономических наук;
доцент Департамента бизнес-информатики, Финансовый университет при Правительстве Российской Федерации, 105187, г. Москва, ул. Щербаковская, д. 38;
E-mail: oidolganova@fa.ru
ORCID: 0000-0001-6060-5421
Improving customer experience with artificial intelligence by adhering to ethical principles
Olga I. Dolganova
E-mail: oidolganova@fa.ru
Financial University under the Government of the Russian Federation Address: 38, Scherbakovskaya Street, Moscow 105187, Russia
Abstract
The intensive development and application of artificial intelligence technologies in organizing interaction with clients is accompanied by such difficulties as: the client's unwillingness to communicate with the robot, distrust, fear, negative experience of the clients. Such problems can be solved by adhering to ethical principles of using artificial intelligence. In scientific and practical research on this topic, there are many general recommendations that are difficult to apply in practice, or, on the contrary, that describe the methods for solving a highly specialized technical or management problem. The purpose of this article is to determine the ethical principles and methods, the observance and implementation of which would increase confidence in artificial intelligence systems among client of a particular organization. As a result of the analysis and synthesis of the scientific and practical investigations, as well as the empirical experience of Russian and foreign companies, the main areas of application of artificial intelligence technologies affecting the customer experience were identified. The ethical principles recommended to be followed by business have been formulated and systematized. The main methods have been also identified to enable implementation of these principles in practice, and so to reduce the negative effects of customer interaction with artificial intelligence and increase their confidence in the company.
Key words: ethics; artificial intelligence (AI); ethical AI; customer experience; ethical principles; machine learning; trust; robot.
Citation: Dolganova O.I. (2021) Improving customer experience with artificial intelligence by adhering to ethical principles. Business Informatics, vol. 15, no 2, pp. 34-46. DOI: 10.17323/2587-814X.2021.2.34.46
References
1. Universite de Montreal (2017) The Montreal declarationfor a responsible development ofartificial intelligence. Available at: https://www.montreal-declaration-responsibleai.com/ (accessed 20 August 2020).
2. Partnership on AI (2020) Tenets of the partnership on AI. Available at: https://www.partnershiponai.org/tenets/ (accessed 21 August 2020).
3. Floridi L., Beltrametti M., Burri T., Chatila R., Chazerand P., Dignum V., Madelin R., Luetge C., Pagallo U., Rossi F., Schafer B., Valcke P., Vayena E. (2020) AI 4People's ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Available at: https://www.eismd.eu/wp-content/uploads/2019/03/AI4People%E2%80%99s-Ethical-Framework-for-a-Good-AI-Society.pdf (accessed 21 August 2020).
4. OECD (2019) What are the OECD Principles on AI?Available at: https://www.oecd.org/going-dgtal/ai/principles (accessed 27 August 2020).
5. European Commission (2019) Ethics guidelinesfor trustworthy AI. Available at: https://ec.europa.eu/dgital-single-market/en/news/ethics-guide-lines-trustworthy-ai (accessed 29 August 2020).
6. Capgemini Research Institute (2019) Why addressing ethical questions in AI will benefit organizations. Available at: https://www.capgemim.com/wp-content/uploads/2019/08/AI-in-Ethics_Web.pdf (accessed 11 November 2020).
7. Allega P. (2020) Hype cycle for enterprise architecture, 2020. Gartner. Available at: https://www.gartner.com/en/documents/3989875 (accessed 25 October 2020).
8. Shankar V. (2018) How artificial intelligence (AI) is reshaping retailing. Journal of Retailing, vol. 94, no 4, pp. vi—xi. DOI: 10.1016/S0022-4359(18)30076-9.
9. Huang M.-H., Rust R.T. (2018) Artificial intelligence in service. Journal of Service Research, vol. 21, no 2, pp. 155—172. DOI: 10.1177/1094670517752459.
10. Syam N., Sharma A. (2018) Waiting for a sales renaissance in the fourth industrial revolution: Machine learning and artificial intelligence in sales research and practice. Industrial Marketing Management, vol. 69, pp. 135—146. DOI: 10.1016/j.indmarman.2017.12.019.
11. Davenport T., Guha A., Grewal D., Bressgott T. (2020) How artificial intelligence will change the future of marketing. Journal of the Academy of Marketing Science, no 48, pp. 24-42. DOI: 10.1007/s11747-019-00696-0.
12. Kaplan A., Haenlein M. (2019) Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons, vol. 62, no 1, pp. 15-25. DOI: 10.1016/j.bushor.2018.08.004.
13. Fukukawa K., Balmer J.M., Gray E.R. (2007) Mapping the interface between corporate identity, ethics and corporate social responsibility. Journal of Business Ethics, no 76, pp. 1-5. DOI: 10.1007/s10551-006-9277-0.
14. Stanaland A.J.S., Lwin M.O., Murphy P.E. (2011) Consumer perceptions of the antecedents and consequences of corporate social responsibility. Journal of Business Ethics, no 102, pp. 47-55. DOI: 10.1007/s10551-011-0904-z.
15. Gray K. (2017) AI can be a troublesome teammate. Harvard Business Review. Available at: https://hbr.org/2017/07/ai-can-be-a-troublesome-team-mate (accessed 12 October 2020).
16. Lee J.D., See KA. (2004) Trust in automation: Designing for appropriate reliance. The Journal of the Human Factors and Ergonomics Society, vol. 46, no 1, pp. 50-80. DOI: 10.1518/hfes.46.1.50_30392.
17. KPMG (2020) Customer experience in the new reality. Global Customer Experience Excellence research 2020: The COVID-19 special edition. Available at: https://a^ts.kpmg/content/dam/kpmg/xx/pdf/2020/07/customer-experience-in-the-new-rea^ty.pdf (accessed 15 October 2020).
18. MAIEI (2020) The state of AIethics report. Available at: https://montrealethics.ai/the-state-of-ai-ethics-report-june-2020/ (accessed 29 August 2020).
19. Winfield A.F.T., Jirotka M. (2018) Ethical governance is essential to building trust in robotics and artificial intelligence systems. Philosophical Transactions of the Royal Society A. Mathematical, physical and engineering sciences, vol. 376, no 2133, article ID: 20180085.
DOI: 10.1098/rsta.2018.0085.
20. KPMG (2019) With the consumer "on thou". 100 brands with the best customer service. KPMG research in Russia. Available at: https://drive.google.com/file/d/1kdLf8yMxPi5N6ddkjUJrgrycIpppuq8o/view (accessed 15 October 2020) (in Russian).
21. Luo X., Tong S., Fang Z., Qu Z. (2019) Frontiers: Machines vs. humans: The impact of artificial intelligence chatbot disclosure on customer purchases. Marketing Science, vol. 38, no 6, pp. 937-947. DOI: 10.1287/mksc.2019.1192.
22. Andre Q., Carmon Z., Wertenbroch K., Crum A., Frank D., Goldstein W., Huber J., van Boven L., Weber B., Yang H. (2018) Consumer choice and autonomy in the age of artificial intelligence and big data. Customer Need and Solution, no 5, pp. 28-37. DOI: 10.1007/s40547-017-0085-8.
23. Lariviere B., Bowen D., Andreassen T.W., Kunz W., Sirianni N.J., Voss C., Wunderlich N.V., De Keyser A. (2017) Service Encounter 2.0: An investigation into the roles of technology, employees and customers. Journal ofBusiness Research, no 79, pp. 238-246. DOI: 10.1016/j. jbusres.2017.03.008.
24. Thompson C. (2018) May A.I. help you? Intelligent chatbots could automate away nearly all ofour
commercial interactions - for better or for worse. New York Times. Available at: https://www.nytimes.com/interactive/2018/11/14/magazine/tech-design-ai-chatbot.html (accessed 28 September 2020).
25. Wilson J., Daugherty P., Shukla P. (2017) Bold clothes: How to sell things with the help of people and artificial intelligence. Harvard Business Review Russia. Available at: https://hbr-russia.rU/innovatsii/tekhnologii/p18595/#ixzz4WWRr3huw (accessed 04 November 2020) (in Russian).
26. Ostrom A.L., Parasuraman A., Bowen D.E., Patricio L., Voss CA. (2015) Service research priorities in a rapidly changing context. Journal of Service Research, vol. 18, no 2, pp. 127-159. DOI: 10.1177/1094670515576315.
27. Kim J., Kim K.H., Garrett T.C., Jung H. (2015) The contributions of firm innovativeness to customer value in purchasing behavior. Journal of Product Innovation Management, vol. 32, no 2, pp. 201-213. DOI: 10.1111/jpim.12173.
28. McLeay F., Osburg V.S., Yoganathan V., Patterson A. (2021) Replaced by a robot: Service implications in the age of the machine. Journal of Service Research, vol. 24, no 1, pp. 104-121. DOI: 10.1177/1094670520933354.
29. Chui M., Manyika J., Miremadi M., Henke N., Chung R., Nel P., Malhotra S. (2018) Notes from the AI frontier: Applications and value of deep learning. McKinsey Global Institute discussion paper. Available at: https://www.mckinsey.com/featured-insights/artificial-intelligence/notes-from-the-ai-frontier-
applications-and-value-of-deep-learning (accessed 20 October 2020).
30. Froehlich A. (2018) Pros and cons of chatbots in the ГГ helpdesk. InformationWeek. Available at:https://www.informationweek.com/strategic-cio/ it-strategy/pros-and-cons-of-chatbots-in-the-it-helpdesk/a/d-id/1332942 (accessed 20 October 2020).
31. Kestenbaum R. (2018) Conversational commerce is where online shopping was 15 years ago — Can it also become ubiquitous? Forbes. Available at: https://www.forbes.com/sites/richardkestenbaum/2018/06/27/shopping-by-voice-is-small-now-but-it-has-huge-potential/?sh=3a41ebe337ac (дата обращения: 27.09.2020).
32. Wirtz J., Patterson P.G., Kunz W.H., Gruber T., Lu V.N., Paluch S., Martins A. (2018) Brave new world: Service robots in the frontline. Journal of Service Management, vol. 29, no 5, pp. 907-931. DOI: 10.1108/JOSM-04-2018-0119.
33. Sobolev A. (2020) Revenue from digital services at MegaFon is growing at a double-digit rate. KPMG. Available at: https://mustread.kpmg.ru/ interviews/vyruchka-ot-tsifrovykh-servisov-u-megafona-rastet-dvuznachnymi-tempami/ (accessed 28 October 2020) (in Russian).
34. Nassauer S. (2020) Walmart scraps plan to have robots scan shelves. The Wall Street Journal. Available at: https://www.wsj.com/articles/walmart-shelves-plan-to-have-robots-scan-shelves-11604345341
(accessed 04 November 2020).
35. JSAI (2017) The Japanese Society for Artificial Intelligence Ethical Guidelines. Available at: http://ai-elsi.org/wp-content/uploads/2017/05/JSAI-Ethical-Guidelines-1.pdf (accessed 14 May 2021).
36. Pichai S. (2018) AI at Google: our principles. Google. Available at: https://blog.gmge/topics/ai/ai-principles/ (accessed 05 November 2020).
37. Big Data Association. Institute of internet development (2019) Data usage code of ethics. Available at: https://ac.gov.ru/files/content/25949/kodeks-etiki-pdf.pdf (accessed 08 November 2020) (in Russian).
38. Hind M., Houde S., Martino J., Mojsilovic A., Piorkowski D., Richards J., Varshney K.R. (2020) Experiences with improving the transparency ofAI models and services. Extended Abstracts of the 2020 CHI Conference on Human Factors in Computing Systems (CHI EA '20). Honolulu, USA, 25-30April 2020. P. 1-8. DOI: 10.1145/3334480.3383051.
39. IBM Developer Staff (2018) AI Fairness 360. Available at: https://developer.ibm.com/technologies/artificial-intelligence/projects/ai-fairness-360/ (accessed 08 November 2020).
40. Jupyter nbviewer (2020) Detecting and mitigating age bias on credit decisions. Available at: https://nbviewer.jupyter.org/github/IBM/AIF360/blob/ master/examples/tutorial_credit_scoring.ipynb (accessed 05 November 2020).
41. About GDPR in Russian. Information about the General Data Protection Regulation. Available at: https://ogdpr.eu/ (accessed 08 November 2020) (in Russian).
42. Kaminski M.E., Malgieri G. (2020) Algorithmic impact assessments under the GDPR: producing multi-layered explanations. International Data Privacy Law, ipaa020. DOI: 10.1093/idpl/ipaa020.
43. Elaeva M. (2020) We will rebuild all our business processes "from the client". KPMG.Available at: https://mustread.kpmg.ru/interviews/my-bu-dem-perestraivat-vse-nashi-biznes-protsessy-ot-klienta/ (accessed 01 October 2020) (in Russian).
44. Lara F., Deckers J. (2020) Artificial intelligence as a Socratic assistant for moral enhancement. Neuroethics, no 13, pp. 275-287. DOI: 10.1007/s12152-019-09401-y.
45. Dolganova O.I., Deeva EA. (2019) Company readiness for digital transformations: problems and diagnosis. Business Informatics, vol. 13, no 2, pp. 59-72. DOI: 10.17323/1998-0663.2019.2.59.72.
About the author
Olga I. Dolganova
Cand. Sci. (Econ.);
Associate Professor, Department of Business Informatics, Financial University under the Government of the Russian Federation, 38, Scherbakovskaya Street, Moscow 105187, Russia; E-mail: oidolganova@fa.ru ORCID: 0000-0001-6060-5421