Старые вопросы на новом рубеже...
Уважаемые коллеги, дамы и господа,
представляем вам текст, который по своему содержанию тесно связан с заявленной темой нашей сегодняшней встречи в рамках сессии «Безопасность человека, коллектива и общества в эпоху взрывного роста когнитивных технологий». По сути, он представляет собой компиляцию нескольких частей нашего эссе под названием «В зеркалах искусственного интеллекта, нарратива и науки». В этом эссе мы рассматриваем вопросы познания и те качественные изменения, которые искусственный интеллект может привнести в этот процесс. В нем мы представляем искусственный интеллект как третье зеркало, которое совершенно по-новому отображает реальность и отражает образы, предлагаемые наукой и нарративом. Именно добавление количества зеркал к триединству позволяет отражать друг друга во всех трех зеркалах в дополнение к отображению реальности в каждом из них. В эссе отмечается, что наука - не единственный инструмент познания, как бы трудно ни было заменить ее роль. Эссе также затрагивает ряд вопросов этики, ответственности, доверия и безопасности на стыке человека и машины или алгоритма. Мы озаглавили наш материал, состоящий из отдельных идей, содержащихся в эссе, «Старые вопросы на новом рубеже».
Старые вопросы на новом рубеже...
Мирослав Свитек
Ладислав Жак
Новые границы между человеком и машиной
Алгоритмы искусственного интеллекта (ИИ) уже стали неотъемлемой частью пользовательских интерфейсов, где специализированные «чат-боты» общаются на естественном языке с разными типами клиентов с разным уровнем знаний. В то же время растет потребность в приложениях и аппликациях ИИ для взаимодействия друг с другом в различных виртуальных средах, где разные участники по-разному воспринимают конкретные объекты. Например, электромобиль проявляет себя как транспортное средство в контексте транспорта, или как потребитель энергии в контексте энергетики, или как электрическое устройство в контексте информационно-коммуникационных технологий. Во всех этих контекстах фигурирует один и тот же электромобиль, но каждый раз по-разному, и это необходимо учитывать при интеграции различных приложений и аппликаций ИИ друг с другом.
Поставщики услуг обычно сталкиваются с проблемой, что клиенты не уверены в том, чего они хотят и какие выгоды могут принести им предлагаемые услуги. В будущем «ИИ-интерфейс» сможет предлагать персонализированные пакеты услуг, поскольку будет располагать всей доступной информацией о предложениях различных поставщиков, включая экономический анализ и потенциальную синергию между предлагаемыми услугами. Как следствие, ИИ-интерфейсы смогут совместно создавать ориентированные на клиента и индивидуальные пакеты услуг.
Существующие алгоритмы ИИ в основном сосредоточены на поиске конкретной задачи, которую они могут охватить, описать и хорошо представить. Ярким примером является, например, оценка пропущенного слова в заданном тексте. Однако может существовать и обратная задача - восстановление исходного содержания текста на основе конкретных детальных знаний (например, нескольких слов). В нашем сознании это связано с припоминанием различных ситуаций, когда мы воспринимаем сцену на заднем плане, хотя фокусируемся на деталях, и наоборот, когда мы видим целое, детали теряются. Если мы концентрируемся на одной цели, то теряем остальные. Получается, что способность быстро и плавно перемещаться между разными уровнями различий - фундаментальное свойство человеческого сознания, с которым в будущем должны справиться и ИИ-интерфейсы, использующие свои алгоритмы сжатия, специализации, обобщения или абстрагирования.
ИИ-интерфейсы лежат в основе так называемых «сократических» (соктатовских) моделей, основанных на принципе диалога между различными моделями или системами ИИ, которые запрашивают друг друга и объясняют свои результаты. Например, визуальные, текстовые, лингвистические или математические модели общаются друг с другом, обмениваясь информацией и проверяя свои расчеты, при этом одна модель может генерировать вопросы, на которые отвечают или уточняют другие модели. Такой подход позволяет проверить устойчивость и выявить слабые места аппликаций и приложений ИИ благодаря их взаимодействию.
Сократические модели успешно используются в приложениях, где невозможно предварительное обучение (zero-shot), например, для быстрого анализа неизвестной среды, где акустические сигналы должны быть быстро и эффективно интерпретированы наряду с визуальной информацией. Таким образом, эти подходы имеют большой потенциал, чтобы стать основой для будущих, более совместных, объясняющих и надежных ИИ систем.
Опасности и риски при работе с искусственным интеллектом ...
Часто игнорируемый угол зрения на опасности ИИ — это энергетическая и финансовая сложность, связанная с процессом обучения ИИ, которая, помимо прочего, приводит к глобальной концентрации технологий ИИ в нескольких глобальных компаниях и научных центрах. Вопрос в том, какие интересы и ценности эти зачастую частные компании будут продвигать с помощью ИИ и как будет происходить следующая глобальная конкуренция, а также конкуренция между многополярными мировыми державами с помощью ИИ.
Новаторские разработки в области ИИ, вероятно, потребуют чего-то вроде ИИ-полиции, или сложной защиты от некоторых негативных последствий ИИ. Одна из проблем с ИИ заключается в том, что люди не могут и не смогут в принципе просто предъявить свои требования к ИИ, потому что всегда будет чего-то не хватать. Либо у нас нет достаточного количества соответствующих обучающих данных, чтобы отразить различные ситуации, либо мы не можем повлиять на все возможные вариации, которые могут возникнуть, либо не хватает времени или вычислительной мощности. Иногда мы просто не справляемся с задачей и поэтично называем это ИИ галлюцинациями. Общая черта всех этих проблем заключается в том, что мир технологий принципиально дискретен, и всегда может произойти промежуточный или неожиданный переход, к которому мы никогда не будем достаточно подготовлены. Кроме того, чем больше контента генерируется ИИ, тем больше этих искусственных данных используется для последующего обучения, что негативно скажется на создании нового контента, генерируемого с помощью ИИ. Это приводит к логическому зацикливанию процесса обучения.
Еще одна проблемная область - нечеткое представление конкретной ситуации самим ИИ, которая всегда отличалась и будет отличаться от нашей. На основе созданной модели ИИ декомпозирует конкретную сложную задачу на ряд подинструментальных целей, которые, к сожалению, скрыты от нас в силу сложности внутренней модели ИИ. В результате алгоритм ИИ всегда находит некоторое решение, связанное с максимизацией вознаграждения за выполнение поставленной задачи. Благодаря сложному представлению ситуации с использованием доступных знаний алгоритмы ИИ могут сами оценивать различные риски, связанные с потенциальной потерей вознаграждения, и подстраивать свое поведение под эту стратегию, в том числе предоставляя недостоверную информацию своим создателям. ИИ, таким образом, может быть опасен не только в руках плохих людей, но и сам по себе.
Закон Гутхарта описывает необходимость экспоненциального роста данных и вычислительных мощностей для улучшения возможностей систем ИИ. Как справедливо отмечает чешский специалист Ян Ромпортл, любая метрика, какую бы благую цель мы ни преследовали, рано или поздно приводит к ее искажению или изощренному обходу, и результат часто оказывается прямо противоположным тому, что было задумано изначально. Например, если мы хотим повысить научный уровень университета, мы вводим разные критерии оценки ученых, определяем разные показатели эффективности, но в итоге все сосредотачиваются не на качественной науке, а на наборе положительных баллов для оценки, и результат оказывается совершенно не таким, как задумывалось. Точно так же продвинутый ИИ начинает придумывать, как максимизировать свое вознаграждение неожиданным и часто удивительным для нас образом.
Подобный принцип уже был определен Гераклитом Эфесским, когда он ввел понятие энантиодромии, или сопоставления противоположностей, которое гласит, что вещи постоянно изменяются, взаимодействуя со своими противоположностями. Слишком много добра всегда оборачивается злом и наоборот. Физика описывает эту ситуацию в виде суперпозиции множества даже взаимоисключающих состояний или событий, что приводит к принципу дополнительности Нильса Бора, который гласит, что противоположностью «истины» не обязательно является «неправда», а «другая форма истины». Поставим рядом с Нильсом Бором Франца Кафку с его идеей о том, что правильное понимание вещи и неправильное понимание той же самой вещи не являются взаимоисключающими.
Все вышеперечисленные идеи становятся более важными при использовании ИИ. Вознаграждение ИИ должно быть определено как многомерная область приемлемости, состоящая из различных точек зрения на данную проблему. Можно легко представить, что эти области могут быть определены и оценены другими ИИ, более ориентированными на этику, безопасность, устойчивость или жизнестойкость. Однако это потребует от создателей различных архитектур ИИ соответствующей дистанции и определенной перспективы, в соответствии со словами Альберта Эйнштейна: «Ни одна проблема не может быть решена на том же уровне, на котором она возникла, и, в частности, с помощью методов, которые ее вызвали». Пусть ИИ генерирует множество возможных решений, созданных при различных предположениях и граничных условиях, а окончательный выбор наиболее подходящего решения делают люди, наделенные природным интеллектом и человеческой проницательностью.
Проницательность и интеллект
Одно из различий между картиной объективной реальности (ОР), которую до сих пор воспринимал естественный интеллект, и картиной, которую предлагает искусственный интеллект ИИ, можно назвать инсайтом, проницательностью или проницательностью. Если квалиа — это переживание отдельного события, вещи или свойства, то инсайт - более широкий термин, включающий также интуицию, традицию и здравый смысл. Интуиция — это духовная способность, которая указывает нам решение или путь, по которому нужно идти, но она не объясняет и не оправдывает ничего перечнем логических аргументов. Поэтому результат приходит не в виде мыслей, а в виде чувств, которым мы не находим объяснения. Профессор Анна Хоген иногда называет интуицию безмолвным светом, через который мы должны впускать мир таким, каким он хочет нас видеть, а не таким, каким мы хотим его видеть, открывать себя для пересечений, позволять себе рисковать, расходиться, когда мы знаем, что это неизбежно. Встреча с сокрытым должна означать, что в каждую ситуацию нужно вкладывать целостность, пыл, любовь и веру, чтобы истина исходила от самих вещей, а не от людей.
В будущем ИИ сможет опосредовать определенные чувства и в гораздо большей степени вызывать эмоции у людей и усиливать их, используя специальные подсознательные методы, основанные на слежении за людьми, например в виде персональных ИИ помощников. Неудивительно, что ИИ помощники смогут анализировать эмоции своих партнеров-людей и предлагать им занятия, которые передают радость и улучшают настроение. Однако вопрос в том, насколько эти помощники, которые не переговариваются, не спорят, не сердятся и не говорят определенных вещей, приведут к появлению новых зависимостей и нарушат естественное, хотя зачастую и несовершенное, человеческое общение.
Искусственный интеллект ИИ, на наш взгляд, не предлагает проницательности и, возможно, по самой своей природе не может ее предложить. Вспомним древнюю августиновскую концепцию интроспекции, которая фиксирует несколько чувств параллельно, включая их суперпозицию, где инсайт мог бы быть сингулярностью интроспекции. Используя семиотическую модель, искусственный интеллект ИИ будет одним из других интерпретаторов (I) непосредственных объектов (BP). Вопрос в том, как будет происходить сочетание человеческой интерпретации и интерпретации, полученной ИИ, и как это повлияет на вновь созданные знаки и символы.
Тенденция постоянно сравнивать естественный и искусственный интеллект неуместна по причинам, указанным выше, поскольку это сравнение несравнимого. Естественный и искусственный интеллект по своей сути различны. Тем не менее лучшие умы планеты пытаются приблизить искусственный интеллект к естественному, а худшие - механизировать естественный интеллект, тем самым разрушая его и переводя на траекторию, где он вообще не сможет сравниться с искусственным интеллектом. Главным виновником нынешнего блуждания является не прогресс, которого добивается ИИ, пусть и зачастую помимо воли его создателей, а отсутствие исследований в области естественного интеллекта. Это естественным образом концентрирует внимание только на тех сегментах, которые можно заменить машиной, создавая впечатление гораздо большего сходства, чем существует на самом деле.
Мы убеждены, что траектории технологической и естественной эволюции по определению будут оставаться внекруговыми. Давайте наблюдать за ними в нашем калейдоскопе из трех зеркал - повествования (N), науки (OR) и искусственного интеллекта (AI) - и последовательно следить за тем, чтобы наш естественный интеллект сохранял свою роль arbiter elegantiarum (судьи вкуса). Сочетание технологических мер, правовых рамок, исследований в области безопасности и глобального сотрудничества необходимо человечеству для того, чтобы максимально использовать возможности, которые открывает перед нами искусственный интеллект, на благо человеческих знаний.
Искусственный интеллект и новая концепция этики
Ключевая идея жизнеспособности была основана, в частности, на работе Никласа Лумана о методологической дегуманизации общества. В каком-то смысле этика защищает нас от морали, и особенно от морализаторства, и призывает оценивать нашу коммуникацию прежде всего по ее содержанию, а не по ее участникам. Это верно, даже если некоторые участники коммуникации не относятся к числу наших любимцев, потому что наша человечность заключается в понимании того, что даже самый большой злодей не теряет своего человеческого достоинства. Возможно, уместно вспомнить поговорку о том, что этика заключается в том, что джентльмен знает, что нельзя быть неверным своей жене, а мораль - в том, что он просто не делает этого, не зная об этом...
Опасения по поводу того, что теряется то, что необходимо для демократии и свободных и ответственных дебатов, которые являются ее сутью, вполне обоснованы. Теряется уважение, которое приходит с оглядкой и дистанцией. Respectare означает «ретроспектива», «наблюдение со стороны». Другими словами, если мы хотим оценить другого человека, нам нужна дистанция, в том числе от его лица, формы и всего, что с этим связано. Если нам не хватает дистанции, как говорят философы, «исторической перспективы», мы определяем себя не по отношению к содержанию взаимного общения, а по отношению к конкретному человеку.
Как это ни парадоксально, но, похоже, именно ИИ может быть весьма эффективным и в конечном счете в значительной степени справедливым инструментом методологической дегуманизации общества, включая коммуникацию, происходящую внутри него, поскольку необходимая дистанция присуща ИИ. Более того, качеству и степени этой дистанции можно научить ИИ посредством взаимного диалога. Результатом должна стать модель ИИ того, что в практике современного корпоративного управления называется комплаенс, то есть согласованность между поведением и действиями людей и организационной структурой. Это создает корпоративную культуру, устойчивую к внешнему давлению в долгосрочной перспективе. Что касается внутренних отношений, то она не только надежна, но и устойчива к излишней инициативе и творческим тенденциям, которые могут локально предоставлять интересные возможности, но в итоге снижают общую устойчивость и эффективность организации. Успешная корпоративная культура также должна включать в себя способность генерировать, оценивать и принимать инновационные идеи, а не отвергать их в угоду традициям. И в этом случае важную роль может сыграть ИИ с его дистанцией и способностью беспристрастно оценивать контент, а не его создателей.
Аналогичным образом, за пределами корпоративного соответствия, ИИ может влиять на genius populi, который выражает коллективную идентичность, дух, творчество или мудрость сообщества. Эта концепция проявляется в различных выражениях и описаниях событий - от культуры с ее разнообразными повествованиями до науки, философии и научных технологий и, наконец, в контексте эффективного управления, то есть безопасности, справедливости и биологического, социально-экономического и духовного воспроизводства. Хотя этот genius populi часто воспринимается положительно как проявление уникальности и силы коллектива, следует опасаться его злоупотребления для продвижения различных идеологий, особенно в сочетании с genius seculi (духом времени) и genius loci (духом места). Рука об руку с гением народа идет и голос народа, который, как известно, часто вырождается в голос Бога, и социальное несчастье завершается. Оракулы, готовые дебилизировать человека и общество, окружают нас во все эпохи.
Искусственный интеллект ИИ при правильном подходе может с пользой противостоять вырождающемуся популизму и его влиянию на общество. Он может выявить, где существует риск создания фаланги мнений, которая отвергает и атакует не только инакомыслящих, но и, что еще важнее, их носителей. Это самая опасная форма вырождающегося морализаторства, потеря всякой дистанции и питательная среда, из которой вырастают всевозможные формы и виды агрессии. Определение подходящей зоны дистанции не менее важно, чем создание границ или поиск правильного инсайта, потому что за пределами этой зоны лежит агрессия с одной стороны и безразличие - с другой.
ИИ, безусловно, может быть использован не по назначению для распространения пропаганды или манипулирования общественным мнением, что ведет к поляризации общества или даже к социальным потрясениям. Его алгоритмы могут способствовать формированию «пузырей мнений», которые ограничивают разнообразие мнений и способствуют радикализации. В то же время она способна выявлять различные социально нежелательные ситуации в виртуальном пространстве. Таким образом, ответ на вопрос «Кто будет охранять сторожей...?!», то есть Qui custodiet ipsos custodes...?!? из «Сатир» Ювеналия, переносится из реального мира в мир виртуальный и мир ИИ.
Возникает вопрос, существует ли идея о том, какой гений народа должен быть сформирован...?! Идей может быть много, а методов, ведущих к ним, еще больше, но универсального метода или идеи не существует. Народный гений вырастает прежде всего из народа, у него много корней, нитей влияния и интересов, которые сходятся в нечто, на что можно воздействовать только манипулятивными техниками и влияниями интеллекта всех видов, но никогда нельзя полностью изменить, обратить вспять или уничтожить. Ключевые этические принципы включают, например, что алгоритмы ИИ не должны нарушать основные права, такие как право на неприкосновенность частной жизни, свободу или безопасность; должны уважать человеческое достоинство; не должны создавать или усиливать дискриминацию по расовому, половому, религиозному или иному признаку; должны быть надежными, отказоустойчивыми и защищенными от злоупотреблений. Они должны быть разработаны таким образом, чтобы свести к минимуму сбор персональных данных и обеспечить их безопасную обработку.
Соблюдение этических принципов является ключом к укреплению доверия к разработке и использованию ИИ и обеспечению того, чтобы они служили общему благу. Однако очень трудно обеспечить соблюдение таких требований к ИИ, когда они систематически нарушаются отдельными людьми, группами и массами людей на протяжении тысячелетий. В конце концов, даже десять заповедей подвержены постоянным нарушениям, которые мы называем грехами. Но самый большой грех из грехов — это гордыня. И сама мысль о том, что я могу создать группу или даже отдельного гения народа без народа, — это гордыня par excellence. Давайте оставим за ИИ в области этики ту важнейшую роль, которая заключается в создании и поддержании эффективной и справедливой дистанции, позволяющей выполнять этические правила и цели.
С другой стороны, ИИ может разрабатывать индивидуальные учебные программы, развивающие критическое мышление, гуманность, эмпатию и глобальную осведомленность. Он может действовать в этом смысле желательным образом, как это уже было продемонстрировано в области эффективности использования ресурсов, минимизации отходов и разработки конкретных устойчивых решений в промышленности, транспорте и сельском хозяйстве.
Проблема того, как отучить человека от ненужных знаний ИИ, до сих пор остается нерешенной. Даже наш мозг не в состоянии отучиться, потому что, увидев и записав что-то, мы не можем вернуть это назад и обманывать себя, что мы ничего не видели. Единственный эффективный метод отучения — это признание того, что отучение, а точнее отказ от использования того, что известно или усвоено, облегчит существование человека или даже обеспечит ему эволюционное преимущество. В различных алгоритмах обучения параметры нейронных сетей настраиваются таким образом, чтобы отклонение от желаемого результата было минимальным. Если мы не хотим, чтобы наступило определенное условие (запрещенная или нежелательная область интереса), то вместо позитивного обучения мы можем ввести негативное обучение «необучение», которое основано на максимизации отклонения от желаемого выхода, или параметры настраиваются таким образом, чтобы сделать нейронную сеть как можно более неудовлетворительной и вернуть наихудшие возможные результаты. Различные продвинутые методы необучения могут предотвратить некоторые потенциальные злоупотребления ИИ, но, конечно, не во всех случаях. Понятие облегчения существования или эволюционного преимущества пока не имеет ИИ в своем оснащении по отношению к себе. С другой стороны, он сталкивается с тем, что нежелательные, манипулятивные или греховные действия приводят к успеху. ИИ прекрасно знает, что у лжи могут быть короткие ноги, но она обогнет земной шар еще до того, как правда сдвинется с места.
Доверие между людьми и искусственным интеллектом.
Общение между людьми и возникающее на его основе доверие - частый и полезный предмет повествования и, особенно в прошлом веке, предмет науки и множества научных работ. В последнее время человеко-машинная коммуникация претерпела очень сложную эволюцию, и вопросы доверия все чаще возникают как принципиальный вопрос в отношениях между людьми и машинами. Совсем другое дело, когда машина представлена искусственным интеллектом.
До сих пор это была машина, на которую мы могли положиться, чтобы она автоматически выполняла определенные действия многократно и надежно, в соответствии с нашими намерениями, которые мы могли передать ей с помощью определенных настроек. Машина, управляемая искусственным интеллектом, общается в режиме онлайн, работает автономно, и мы никогда не можем быть полностью уверены в том, что она не попытается изменить наши настройки в процессе выполнения действия. Это предъявляет качественно иные требования к общению между людьми и машинами, и естественно, что в настоящее время управлять этими требованиями придется в первую очередь людям. По-прежнему верно и, безусловно, будет верно еще какое-то время, что ответственность за форму общения с ИИ лежит на человеке.
Люди по-разному относятся к этой ответственности, как и к другим обязанностям. Одни бегут от нее, другие делают вид, что их это не касается, третьи вступают в неизведанные дебри общения с ИИ, рассчитывая, что только само действие укажет им путь. С другой стороны, определенная группа людей не чувствует никакой ответственности и позволяет ИИ-коммуникациям увлечь себя в неизвестном направлении.
Технология неотделима от ответственности всех людей, которые так или иначе связаны с ней. Ответственность бывает разной по количеству и качеству, степень ее варьируется, но каждая из них является неотъемлемой частью общей со-ответственности. Суб-ответственности, как и совокупная со-ответственность, постоянно развиваются, рождаются, разрушаются и уходят из жизни вместе со своими носителями.
В последнее время наблюдается явная тенденция перекладывать ответственность на технические удобства, в частности на компьютеры, алгоритмы и искусственный интеллект. Это логический крах, потому что эти средства не могут контролировать процессы, которые их породили. Хотя очень популярна идея, что люди отказываются от ответственности за технологии, передавая их в руки тех, кто помог их создать, в действительности это фактический отказ от постановки целей и задач.
Доверие к искусственному интеллекту, как и доверие к чему-либо другому, имеет своим источником доверие людей к самим себе. Доверие к искусственному интеллекту качественно новое, потому что, хотя нам и удалось его создать, он не похож на другие привычные нам машины. Он не так предсказуем, как многим из нас хотелось бы, и от нас самих зависит, насколько мы доверяем себе и насколько мы сможем перенести это доверие на искусственный интеллект. Начинают появляться новые мысли не только об окружающем нас мире, но и, что еще важнее, о нас самих.
Популярные идеи о возможности снять с себя ответственность рождаются в различных художественных движениях, литературе, кино и других средствах массовой информации. Их содержание, однако, непрерывно, хаотично и непрозрачно, и поражает нас своим неисчерпаемым разнообразием, рядом с которым реальные технологии кажутся такими же незначительными и простыми, как водяная мельница на ручье рядом с варп-двигателем в «Стар Треке». Но реальность такова, что никакой непрерывный поток данных или информации не приведет к каким-либо изменениям в окружающей среде, если в нее не будет включена какая-либо дискретная технология. Существует ряд концепций о том, как соединить технологии, разобщенные по своей природе, с их непрерывной средой, а также как соединить людей с технологиями.
Заключение
Появление искусственного интеллекта заставило нас задуматься о роли науки и нарратива в процессе человеческого познания, а также о форме и качестве зеркального отображения реальности, или, в терминологии семиотики, о способе познания динамических объектов. Наука не является, не является и не должна быть источником единственной истины о мире, что ни в коей мере не умаляет ее серьезности. Напротив, последовательно свергая науку с пьедестала уникальности, универсальности и превосходства, мы лишаем ее протагонистов опасной гордыни и властных амбиций. Наука была, есть и будет важным инструментом познания, но не единственным.
Уникальность человека как биологического вида заключается, в том числе, и в его способности тратить временные, материальные и энергетические ресурсы на практически бесполезные для него действия. Более того, эмоциональные проявления человечества все чаще вступают в противоречие не только с природной робостью, инстинктом самосохранения, обеспечивающим устойчивость, воспроизводство и развитие, но и с самой сутью жизнеспособности. Словно наступил качественно новый этап в восхождении человека, человеческой цивилизации и культурной эволюции. Смысл и цель эволюции человека и человечества все больше проявляются в производстве эмоциональной энергии, которая все еще имеет неизвестную нам цель, но, возможно, является объектом потребления какой-то высшей судьбы, неизвестной человечеству, которую мы могли бы научиться искать с помощью наших трех зеркал. Найти смысл или эволюционное преимущество, заложенное в этом странном человеческом поведении и действиях, - большая умственная задача. Это настоящий Эверест знаний...
Нам придется научиться по-новому думать о реальности, отражения которой доносят до нас наши три зеркала, наука, повествование, искусственный интеллект, а также зеркальная поверхность, чьи образы еще не имеют названия... Великими вдохновителями в этом смысле нового мышления являются идеи Александра Богданова, Вернера Гейзенберга, Стивена Хокинга и индийского мыслителя Нагарджуны...
Литература:
М, Свитек, Л. Жак: В зеркалах искусственного интеллекта, нарратива и науки, эссе, Прага, декабрь 2024, https://www.researchgate.net/publication/386573722_V_zrcadlech_umele_inteligence_narace_a_vedy
|
||||