Метод причинной развертки научит ИИ понимать логику

Источник: neurohive

 

Одна из фундаментальных задач в машинном обучении - поиск и расшифровка причинно-следственных связей в больших массивах данных. Исследование, проведенное учеными KAUST, предлагает новый подход к решению проблемы иерархического структурирования данных и индуктивного вывода.

Проблема причинности 

Современный искусственный интеллект (вернее, так называемый, "слабый ИИ" - прим. ред.) не способен принимать решения на основе обнаруженных причинно-следственных связей. Пока что алгоритмы умеют выявлять только закономерности в данных, которые обрабатывают. Чем больше данных обработает ИИ - тем точнее будет результат.

Например, языковая модель GPT-2 от разработчиков OpenAI обучилась генерации текста, обобщению и переводу просто анализируя огромное количество данных. Алгоритм работает используя индуктивный научный метод - выдает нужный результат, сопоставляя множество факторов. Для перевода слова перебираются все варианты, где оно встречается. То слово, которое наиболее часто встречается в похожем контексте, выбирается как результат.

При этом модель не способна делать выводы и решать проблемы на основе уже полученного опыта - для каждой новой задачи ей нужно учиться заново.

Метод "причинной развертки"

Исследователи KAUST описали подход, который позволит обойти вышеописанные проблемы. Работа "Causal deconvolution by algorithmic generative models", опубликованная в журнале Nature, описывает алгоритмическую генеративную модель, которая способна более глубоко понимать причинные механизмы, обучаясь без учителя.

Подтверждение концепции, примененной к двоичной строке, состоящей из двух сегментов с различными базовыми механизмами генерации (компьютерными программами).

Метод использует сочетание подходов математической концепции алгоритмической теории информации и исчисление причинности Дж. Пёрла для создания механизма логического вывода. Основное отличие от предыдущих подходов - переход от взгляда наблюдателя к объективному анализу явлений, основываясь на отклонениях от беспорядочности.

"Наш подход использует основанное на отклонениях каузальное вычисление, чтобы вывести представления модели" - пишут исследователи.

Получается, что логика - это отклонение от беспорядочности. Находя такие отклонения в большом массиве данных, алгоритм находит причинно-следственные связи между объектами отклонения, и затем может использовать это для оптимального решения задачи. 

Подход позволит алгоритмам лучше справляться с абстрактными умозаключениями и пониманием причин и сможет дополнить статистические методы, улучшая модели, основанные на глубоком обучении.

Tagged in: Обучение без учителяСверточная нейросеть

Просмотров: 981
Автор: Olga Kravchenko
    Источник: https://arxiv.org/pdf/1802.09904.pdf
    Источник: phys.org

    Разное, Программирование, похожие статьи

    Крипто-кошельки и крипто-биржи могут пострадать от хакерских атак (или от глупости пользователей, разработчиков, а также проблем с логикой работы системы)...
    Разное  |  21.03.2019
    Ведущие мировые нефтяные компании Chevron и Total объявили о присоединении к блокчейн-платформе для торговли нефтью и другими энергоресурсами Vakt. Она была разработана консорциумом отраслевых компаний во главе BP и Shell и запущена в ноябре прошлого года.
    Разное  |  19.03.2019
    МОСКВА, 17 марта. /ТАСС/. Команда Московского государственного университета имени М. В. Ломоносова одержала победу на фестивале по спортивному программированию MosCode в Москве, участие в котором с 16 по 17 марта приняли студенты из более 20 стран мира...
    Разное  |  19.03.2019
      Не успели отшуметь новости о нейросети BERT от Google, показавшей state-of-the-art результаты на целом ряде разговорных (NLP) задач в машинном обучении, как OpenAI выкатили новую разработку: GPT-2. Это нейронная сеть с рекордным на данный момент числом параметров (1...
    Разное  |  05.03.2019
    Разное  |  05.03.2019  | 
    Яндекс цитирования