Универсальный алгоритмический интеллект и сильная когнитивная архитектура: или Как пройти к сильному искусственному интеллекту?



Скачать 303.91 Kb.
страница1/6
Дата07.03.2020
Размер303.91 Kb.
ТипСеминар
  1   2   3   4   5   6

Универсальный алгоритмический интеллект и сильная когнитивная архитектура:

или Как пройти к сильному искусственному интеллекту?

ВВОДНАЯ
Наш 24-й семинар с участием г. Станкевича был посвящен когнитивным агентам и искусственным когнитивным системам, так

что я освобожден от необходимости развернутого вступления.

http://ailab.ru/downloads/seminar/audio/24-i-seminar.-k.t.n.-stankevich-l.a.-audiozapis-doklada/download.html (открыть) (см. сс.4-12).

Скажу только, что хотя агент по сути это объект, но строго говоря, агент - это новый уровень абстракции, т.к. имеет дело с теми

свойствами объектов-агентов, которые не рассматривались в традиционном ООП. У нас речь пойдет не о просто интеллектуальных

агентах (ИА), а об агентах смоделированных по представлениям когнитивной психологии, вообще когнитивной науки, т.е. о

когнитивных архитектурах интеллектуальных агентов (КА ИА). При этом мы не будем затрагивать вопросы когнитивного дизайна

многоагентных систем.


Ныне реактивные архитектуры (нерепрезентирующие, в т.ч. и нейроморфные) также относят к когнитивным, хотя в собственном

смысле таковыми являются классические логические и вообще репрезентирующие (не на чисто логических принципах: планирующие,

т.н. рассуждающие на основе формализмов сетей, фреймов и проч.), - из-за возможности гибридных схем.
Предмет нашего интереса - КА в контексте СИИ. О некоторых вопросах СИИ у нас недавно докладывался на 29-м семинаре г. Потапов,

http://ailab.ru/downloads/seminar/tezisi-i-prezentacii/29-i-seminar.-d.b.n.-a.s.-potapov-prezentaciya-doklada/download.html (открыть)

описавший некоторое семейство подходов в СИИ (с.7), базовые же архитектуры в самом СИИ также кратко обрисованы в презентации

г. Белобородова, http://modis.ispras.ru/seminar/wp-content/uploads/2012/09/beamer.pdf (начиная со с.26).
Мотивацией данного выступления явилась некоторая озабоченность по поводу путаницы с понятиями 'идеальный минимальный интел-

лект', 'самый простой интеллект', общий интеллект (АGI), yниверсальный интеллект, сильный интеллект, 'подлинно умный' (truly intelli-

gent), разрешить которую не представляется благодарной попыткой, но которую как минимум обозначим.

И кроме того, сама проблематика КАрх и КАг cтановится более важной. В этой связи заметим, что у Люгера, как базовом ИИ-учебнике,

вопрос о АОП специально не ставится, хотя без охватывающей рамки теряется общий смысл, который должен конвергировать к системам

СИИ (или 'cильным' 'усилителям'), высокоинтегрированным роботам, которые гарантировано демонстрируют качественную 'равномерную'

устойчивость интеллекта человеческого уровня (возможно и типа). Без такой рамки дивергентные тенденции в развитии т.ск. 'несамостоя-

тельных' интеллектуальных систем (в виде справочных, обучающих, управляющих, анализирующих данные, СППР и ЭС) будет только усиливаться. И практически единственной областью востребованности интегрированных самостоятельных агентов будут самообучаемые

игровые боты, которых 'сама жизнь' заставляет иметь начинку вплоть до изощренной 'эмоциональной' подсистемы.

У Рассела-Норвига мы обнаружим 5 базовых типов агентов ('высший тип' - обучаемый), но ничего не узнаем про то, как сбалансировано интегрировать tI-агента, какой должна быть обобщенная предобученная архитектура.

Представляется, что эти вопросы в достаточной мере не затрагиваются и в известных методологиях АОП. Хотя, признаем, анализ этого

вопроса требует отдельного исследования (естественно в перспективе 'продвинутости' агентов, а не в сугубо прикладных аспектах).


В контексте СИИ/AGI Потапов (ака Инекс) сформулировал программу "CИИ via УАИ", которую сжато изложил в следующем виде -
> ..как РМДО расширить на алгоритмическую вероятность, неоднородную сегментацию, long-life learning, и, главное, на

> последовательное принятие решений; будет разрабатываться теория неопределенности как метаэвристика к вычислительной

> аппроксимации алгоритмической вероятности, строиться модель индуктивного поведения (активного обучения) в рамках

> алгоритмической теории информации; теория чанков как предельной декомпозиции проблемы алгоритмически-полной индукции; есть

> желание продолжить думать об алгоритмических представлениях с максимально гладкой метрикой (в частности, в контексте теории

> динамических систем и самоорганизации), в том числе в качестве расширения генеративных моделей типа сетей глубокого обучения;

> но это "частности" чтобы дойти до полных архитектур, не хватает теории самооптимизации в части последовательного принятия

> решений; пока идеи здесь весьма расплывчатые


> берем для начала что-то типа AIXI, расширяем ее путем введения нечетких моделей (которые заменяют множества моделей в

> предсказанию по Соломонову), встраиваем туда РМДО для декомпозиции задачи предсказания, расширяем формальное понятие

> представления на последовательности действий и вводим для них прагматический критерий качества, факторизуя цепочки действий и

> переходя к поиску в пространстве обобщенных действий, добавляем гетерархию представлений с адаптивным резонансом, опять же

> расширенным на алгоритмическую вероятность, суживающуюся систему вложенных поисков - здесь широченный фронт вполне четких

> задач (хотя есть трудные моменты - теория самооптимизации и пока не вполне ясное обучение целевым функциям)

> потом уже вводим все известные в ИИ методы машинного обучения и поиска как априорные, но необязательные элементы

> и затем уже (что, правда, видится пока наименее четко в плане реализации) - добавляем модально-независимые представления (но

> опять же как опциональные), социальные навыки (communication prior, theory of mind, etc)..
Ядро программы AIDEUS - модель УАИ AIXI представлена в упомянутых презентациях Потапова (сc.8-13) и Белобородова (сc.38-46).
Cразу 2 вопроса, - что есть интеллект и в чем универсальность УИ.
Получаемый ответ странный - идеальный интеллектуальный агент БЕЗ когнитивных функций. Они появляются лишь в эвристически

трансформированном базовом агенте. Но если модель ядра не обнаруживает интеллекта. то может быть он ЗА РАМКАМИ модели, которая

лишь по недоразумению называется 'интеллектуальной' (как по недоразумению логика называется наукой о мышлении)? И это так.
Модель АIXI cтроится на сильных допущениях: УЖЕ есть восприятие, полезность, интерпретированные моторные программы и, главное,

уже решен вопрос что есть главное в интеллекте, мах-рациональность как главный принцип поведения.


Это представляется слишком смелым обобщением принципов универсальной индукции, теории игр и теории принятия решений (рациональ-

ного выбора) - НОРМАТИВНЫХ принципов - до 'УИ', особенно без замесу в синтез теории полезности и теории управления.


Т.о., мы будем отстаивать несовпадение понятий алгоритма и системы, полагая понятие системы более широким, позволяющим говорить

о системе алгоритмов, которая не выражается через единый алгоритм, которое достаточно конструктивно позволяет говорить о самоорга-

низации системы (системы алгоритмов в т.ч.) и самоорганизации программы алгоритма (как системы кодов).
‘Вычислительная’ теория разума уделяет совсем недостаточно внимания вопросам самоорганизации, самовоспроизведения понятно

почему - она обнаруживает свой базовый концепт - машину Тьюринга - предданным и отмахивается от вопросов псевдоконстатацией,

что, мол, самоорганизация автоматов в МТ возможно в тьюринг-полном пространстве, хотя вопрос заключается в том, как именно на



Поделитесь с Вашими друзьями:
  1   2   3   4   5   6


База данных защищена авторским правом ©dogmon.org 2019
обратиться к администрации

    Главная страница