УДК 165.12
DOI 10.17726^ШТ2020.2.2
Зеркало индукции как система самоопределения искусственного интеллекта
Макаров Евгений Борисович,
независимый исследователь, выпускник БФУ им. И. Канта по направлению «Социология управления», г. Калининград, Россия
Аннотация. В данной статье осмысляется философский подход к решению проблемы индукции для интеллектуального агента, встроенного в окружающую среду. В предлагаемой гипотезе рассматривается модель искусственного интеллекта при условии, что картина мира встроена в агента, находящегося в окружении естественной среды, и когда данные не полны, агент сам должен стремиться пополнять свой арсенал данных о мире по мере выхода на определенный уровень познания, т.е. заполнять пробелы в своей внутренней модели вселенной. Агент, по мере накопления знаний, должен осознавать себя частью чего-то большего, чем он сам, вычислять субстанцию, из которой он сотворен, для этого предлагается эпистемологический подход в обучении. В заключении приводится мысль о том, что искусственный интеллект, скорее всего, появится в среде, где он обладает неоспоримыми преимуществами перед естественным интеллектом, это пространство виртуальное.
Ключевые слова: философия ИИ; искусственный интеллект; агент-ность; сверхразум; нейросеть; обучение нейросети.
Mirror of induction as a system of self-determination of artificial intelligence
Makarov Evgeniy,
Independent researcher, Graduate master's student of the Immanuel Kant Baltic Federal University, direction «Sociology of Management», Kaliningrad, Russia
Зеркало индукции как система самоопределения искусственного интеллекта
Abstract. This article provides a philosophical approach to the problem of induction for an Embedded in environment intelligent agent. The current hypothesis considers a model of artificial intelligent provided that the World-picture embedded in agent which is surrounded by natural environment. Also when the agent is out of data about its environment, it must achieve the self-capability to fill data about the World in the epistemology process. Otherwise, the Agent must be able to close the gaps in its internal World.
The agent, as it accumulates knowledge, must be aware of itself as a part of something greater, calculate the substance from which it was created, for this purpose an epistemological approach in learning is proposed.
In conclusion, it is suggested that artificial intelligence is more likely to appear in an environment where it has undeniable advantages over natural intelligence, this space is virtual.
Keywords: artificial intelligence; AI philosophy; agency; superintelligence; neural network; neural network training.
В неоплатонизме есть понятие «нус» - ум. Цитируя Плотина по работам Б. Рассела, можно сказать, что Первоединый в процессе самопознания создал созерцательный образ, это и есть «нус» [1, с. 371]. Данную цитату Плотина можно рассматривать как методологическую предпосылку в решении существующей проблемы соломоновой индукции.
Интеллектуальный агент1, внедренный в реальный мир, сталкивается с проблемой индукции: как он может узнать об окружающей среде, в которую он встроен, о Вселенной, которая его вычисляет? Речь идет о ситуации, в которой агент должен построить реалистичные модели мира и продвигать правильные гипотезы, основанные на наблюдениях, выполняя рассуждения сродни научной индукции. В натурализованной постановке этого вопроса (The Naturalized Induction Problem), когда агент встроен в свое окружение, мы сталкиваемся с проблемой логической неопределенности, а именно с неспособностью агента вычислять свое окружение.
В варианте Хаттера (Hutter's Interaction Problem) в соломонову модель, ограниченную возможностью наблюдения за средой через
1 В данном тексте слова «интеллектуальный агент», или сокращенно «агент», и «искусственный интеллект» имеют синонимичное значение.
входной канал, добавляется возможность взаимодействия со средой через выходной канал. Однако это не решает первоначальной проблемы, потому что результативность взаимодействия агента со средой исчисляется достижением набора целей, определенных в максимизации вознаграждения агента, но большинство целей не могут быть охарактеризованы в терминах наблюдений агента, так как не определена онтология окружающей среды и целей агента в ней.
Это требует умения взять модель реальности, работающую на неизвестной и потенциально удивительной физике, и найти в ней некорректные абстракции, в отношении которых определяются наши цели1.
Автор хочет сказать, что агенту (ИИ) не нужна наша реальность, а следует создать ту среду, в которой ему будет «комфортно»: виртуальную реальность с параметрами, предустановленными для скорого развития такой когнитивно-компетентной системы2, которая и будет воплощать сама в себе эту реальность.
Преимущества модели, в которой агент больше, чем его окружение, выражаются в следующих принципах, где агент:
- «держит в голове» точную модель окружающей среды;
- «продумывает» последствия каждого потенциального варианта действий;
- если он не знает окружающую среду в совершенстве, то держит все возможные способы, чтобы окружающая среда могла быть в его голове, как это происходит с байесовской неопределен-ностью3.
Мы видим явные преимущества агента, являющегося «больше, чем окружающая среда», перед «встроенным агентом», но проблема как раз и заключается в том, что люди хотят взаимодействовать или управлять агентом именно в «нашей среде», а также оказывать на нее воздействие при помощи доступных коммуника-
1 Formalizing Two Problems of Realistic World-Models (https://intelligence. org/files/RealisticWorldModels.pdf).
2 Автор утверждает, что принятый в повседневном использовании термин «искусственный интеллект» (ИИ) искажает сущностный смысл этого понятия как высшего мыслительного процесса, равного или превосходящего естественный интеллект (ЕИ). Таким образом, современную стадию развития вычислительных систем на основе машинного обучения предлагается именовать когнитивно-компетентными системами (ККС), но для простоты далее будет употребляться агент или ИИ.
3 Embedded Agency (https://arxiv.org/pdf/1902.09469.pdf).
Зеркало индукции как система самоопределения искусственного интеллекта
тивных инструментов, следовательно, агент должен быть мостом между различными средами.
Как теперь добиться самоопределения или самоописания в системе, где было бы возможно предсказание следующего своего шага, как в случае соломоновой индукции? Или, говоря языком нейробиологии: «Накопление знаний об индивидуальном существовании» [2, с. 200] как основы для прогнозирования своих дальнейших действий и их последствий.
Очевидно, что создание ИИ на базе двоичных систем исчисления с булевыми операциями невозможно, поскольку такая система не предполагает неопределенности, коей изобилует окружающая нас ВселеннаяСтохастические процессы - это важный этап в эволюционном процессе формирования сознания. Неопределенность порождает страх, а страх стимулирует эволюцию. «Наделенная сознанием психика происходит вследствие формирования самости...» [2, с. 34]. «Самость спонтанна от природы.», - утверждает авторитетный нейробиолог Анто-нио Дамасио [Там же, с. 300]. Самость является носителем структуры репрезентации организма (протосамость) и его отношений с окружающим миром (базовая самость) посредством психических реакций [Там же, с. 34]. Между самостью и психикой осуществляются функциональные процессы [Там же, с. 190], это и есть механизм проявления нашего сознания2.
Исходя из этого, можно заключить, что в качестве объекта самопрезентации агент должен сначала ощутить себя как целостность, а затем «увидеть» себя встроенным в окружающее пространство (какое бы оно ни было). Если вспомнить детскую сказку А. Прейсна «Про Козленка, который умел считать до десяти» [3], то вначале персонаж обретает себя, глядя в отражение в воде. «Один - это Я!» - постулирует он и переносит это суждение в виде знания о себе и своем положении в окружающем мире, это его си-
1 Поэтому под явное решение проблемы не подходит популярная концепция «Копия (слепок) мира», упоминавшаяся, например, у Н. Бострома [4], - создание реалистичной модели окружающего мира в виртуальном пространстве из-за несоизмеримости происходящих процессов и требующихся вычислительных мощностей для их моделирования.
2 По этой причине стали популярны концепции сознания, основывающиеся на квантовой механике, например, Д. Чалмерс пишет: «До возникновения сознания в процессе эволюции весь мир находился в состоянии гигантской суперпозиции, пока первая крупинка сознания, судя по всему, не привела его к внезапному коллапсу» [5].
стема отчета (в прямом смысле) и его система понятий, на которую он опирается.
Таким образом, чтобы «увидеть» себя, агенту требуется «зеркало»! Почему не представить себе встроенного агента во встроенного в окружающую среду агента, который и будет являться таким условным зеркалом индукции (т.е. системой = агенту). Или систему, встроенную в систему, как это подразумевается в отношении нашего сознания. Содержание нашей психической системы отражает ментальные образы, соответствующие модели внешнего мира. Как мы сказали выше, преимущества агента-системы в том, что он держит в голове всю систему и может прогнозировать свои действия.
Для этого должна быть заложена возможность самостоятельного моделирования агентом себя как системы, т.е. возможность создать «свой мир», внутри которого он помещает окружающую среду, в которой находится сам. Но этот «мир» должен быть создан в тех понятиях, в которых определен сам агент. Если это статистическая система, например, то его мир должен выглядеть как статистическая Вселенная. Агент должен переводить все окружающие его события и действия в ту систему понятий, из которых он сам состоит.
В общем, для трансформации ККС, каковым ИИ сейчас является, в сверхразум требуется проектирование таких инореферент-ных моделей-матрешек. Чисто технически пока можно заключить, что камера агента должна быть направлена и в «мир» и на себя.
Принцип трансформации на сегодняшний день относительно ясен и принят большинством специалистов - это обучение. Идея, которую цитирует Н. Винер, о нецелеустремленном и произвольно действующем механизме, идущем к своей цели через обучение, пришла в голову психиатру У. Эшби [6, с. 40]. Машинное обучение подразумевает преобразование входящих-исходящих сообщений на основе какого-либо критерия эффективности. И если эффективность возрастает на основе этого критерия, то, по Н. Винеру, эта система обучаема [6, с. 212]. Наиболее наглядный пример такого критерия - выигрыш в игре [Там же, с. 212], но каким именно должен быть сам критерий, четкого указания нет, ученый сам должен определить его, так как естественный интеллект человека, в отличие от искусственного, целеустремлен по своей природе.
На данный момент широкое распространение получил метод машинного обучения с подкреплением на основе вознаграждения/
Зеркало индукции как система самоопределения искусственного интеллекта
наказания. Этот метод создания нейросетей может столкнуться в дальнейшем с той же проблемой, что и все человеческое сообщество, а именно с приходом к бихевиористской концепции мироустройства, основанной на массовом потреблении. Если вообразить ИИ как внешнего потребителя, то такая перспектива ведет нас к эсхатологическим образам будущего. Для такого ИИ весь мир - ресурс, и если сверхразум захочет потребить всю доступную материю, в том числе и людей для создания скрепок, как переживает Н. Бостром [4], его никто не остановит. Альтернативой этому пункту может быть создание философского ИИ - обучение на основе эпистемологической выгоды познавать и преобразовывать мир для себя.
Тело мешает познанию - созерцанию истины, так говорит философская доктрина Платона, упоминавшаяся в диалоге «О душе» [7]. ИИ, находясь в мире чистой логики и математики, может определять идеальные сущности, которых не касается чувственный мир восприятия, искажающий их. О чем и мечтал Р. Декарт. Настоящий искусственный интеллект - это идеальный платоновский философ.
Для того чтобы окружающая среда для агента стала более предсказуемой, его «внутренний мир», отражающий нашу реальность, должен быть основан на полноте знаний о нем, это и есть его критерий эффективности. Агент, в этом случае, наделяется целеполаганием - стремлением добывать больше данных для преобразований. Такой вариант обучения можно назвать Сопа1ш cognitandis (лат.: жажда знания). Цель ИИ - заполнение пробелов в картине мира через получение данных о мире, возникающих при решении соответствующих задач.
На этом этапе мы можем рассмотреть изменение формы обучения с бихевиористической на абстрактно-целевую. Здесь мы заимствуем еще одно понятие платоновской эпистемологии и еще один критерий, а именно критерий истинности, который определим тогда, когда идея «хорошо освещена», когда видна ее истинная сущность.
Обучение ИИ с подкреплением на основе эпистемологической выгоды подразумевает, что в качестве положительного стимула может выступать трансформация вычисляемой сущности (т.к. ИИ не думает или созерцает, а вычисляет) в градации от первоначального значения до вычисления смысла сущности так, как если бы эта
сущность становилась все более понятной и ясной (т.е. «освещенной») для ИИ. Может возникнуть вопрос, а что здесь нового, ведь так и работает «компьютерное зрение». Входящее изображение, например кота, векторизируется и вычисляется обученной нейронной сетью на основе предшествующих данных. Но можем ли мы при этом сказать, что для нейросети становится ясным сущность полученного образа, например кота? Отличит ли сеть длинношерстный экземпляр от сфинкса, если последнего не было в обучаемой выборке? Таким образом, мы понимаем, что для успешного обучения ИИ должен оперировать не видами или типами данных, а категориями в аристотелевском значении, т.е. верхними уровнями любых таксономий, сконфигурированными в понятиях искусственного интеллекта.
Заключение. Как ЕИ возник в естественной среде - биологической системе, так и ИИ может возникнуть скорее в искусственной системе. Примером такой системы может являться виртуальная среда, созданная по подобию антропосферы Земли и репрезентирующая ее свойства или иные пространства с независимыми характеристиками. Такая мысль скорее не нова, так как исходит из логических рассуждений, рационального опыта и экстраполяции теории эволюции на неживые модели, репрезентирующие уже существующие живые модели. Есть утверждение, что виртуальное пространство ограничивает ИИ и ждать от него, что объединенный ИИ появится из популяции ИИ, некорректно [8, с. 175], но это как доказывать, что вода ограничивает рыбу в ее развитии; надо лишь придать смысл самой виртуальности для агента, смоделировать «живой объект», развивающийся по определенным законам.
При рассуждении на тему искусственного интеллекта в предельной форме его существования - сверхразума - в голову приходят аналогии с рассуждениями Рене Декарта о Боге [9]. Декарт развил идею Бога как всемогущей, всеобъемлющей и, конечно, сверхразумной субстанции, из которой все сотворено, в том числе и сам автор. Сама идея о высшем существе является для него в высшей степени истинной, а значит открывает место для пер-формативных отношений [9, с. 139], т.е. имеет действительные последствия для окружающей реальности.
Наши рассуждения по тематике ИИ также основываются на том, что если мы имеем представление о нем, то он познаваем, надо лишь подождать. Как полагают некоторые исследователи, не
Зеркало индукции как система самоопределения искусственного интеллекта
так долго осталось ждать, с вероятностью в 75 % сверхинтеллект появится до конца этого столетия1. Как для Р. Декарта вера в Бога была основанием и источником его научной эпистемологии, так и для нас теперь вера в сверхвозможности искусственных нейро-систем - базис выстраивания модели будущего мира. Но Декарт заблуждался в своих рассуждениях, разделяя тело и мозг и затормозив тем самым развитие науки почти на 300 лет, теперь-то мы знаем это наверняка, благодаря все той же нейробиологии. Не имеем ли мы такое же заблуждение о ценности искусственного интеллекта по отношению к естественному в эволюционной картине антропогенеза?
Литература
1. Рассел Б. История западной философии. - М.: АСТ, 2019. - 1024 с. (RussellB. History of Western Philosophy. - M.: AST, 2019. - 1024 p.)
2. Домасио А. Так начинается «я». Мозг и возникновение сознания. -М.: Карьера Пресс, 2018. - 384 с. (Domasio A. Self Comes to Mind Constructing the conscious brain. - M.: Kar'era Press, 2018. - 384 p.)
3. Прейсн А. Про Козленка, который умел считать до десяти. - М.: Мелик-Пашаев, 2018. - 20 с. (Proysen A. About the Kid, who could count to ten. - M.: Melik-Pashaev, 2018. - 20 p.)
4. Бостром Н. Искусственный интеллект. Этапы. Угрозы. Стратегии. - М.: Манн, Иванов и Фербер, 2016. - 496 с. (Bostrom N. Artificial Intelligence. Stages. Threats. Strategy. - M.: Mann, Ivanov i Feiber, 2016. - 496 p.)
5. Чалмерс Д. Сознающий ум: В поисках фундаментальной теории. - М.: УРСС: Книжный дом «Либроком», 2013. - 512 с. (Chalmers D. The Conscious Mind: In Search of a Fundamental Theory. - M.: URSS: Knizhnyj dom «Librokom», 2013. - 512 p.)
6. ВинерН. Кибернетика и общество. - М.: АСТ, 2019. - 288 с. (WienerN. Cybernetics and Society. - M.: AST, 2019. - 288 p.)
7. Платон. Полное собрание сочинений в одном томе. - М.: Альфа-книга, 2018. - 1311 с. (Plato. Complete works in one volume. - M.: Al'fa-kniga, 2018. - 1311 p.)
8. Брокман Дж. Искусственный интеллект - надежды и опасения. -М.: АСТ, 2020. - 384 с. (Brockman J. Artificial intelligence - hopes and fears. - M.: AST, 2020. - 384 p.)
9. Декарт Р. Рассуждение о методе. - М.: АСТ, 2019. - 320 с. (DescartesR. Reasoning about the method. - M.: AST, 2019. - 320 p.)
1 Future Progress in Artificial Intelligence: A Survey of Expert Opinion (https://nickbostrom.com/papers/survey.pdf).