Covid был тяжелым этапом для всего мира, но он был еще тяжелее для старших членов правления Европейского исследовательского совета (ERC), поскольку совет был втянут в противоречие в отношении недавно назначенного президента ERC в 2020 году. Сердцем разногласий было разногласие во взглядах на миссию ERC. Миллиарды евро финансовых средств поручаются ERC каждый год, и миссия совета состоит в том, чтобы «поощрять исследования высочайшего качества в Европе посредством конкурсного финансирования и поддерживать передовые исследования, проводимые исследователями во всех областях, основанные на научном совершенстве».
Недавно назначенный президент в то время хотел направить большую часть финансовых средств на тематическое направление исследовательских предложений, связанных с COVID-19 (все в хорошем настроении и, очевидно, в зависимости от времени), в то время как старшие члены правления, у которых были нетронутой институциональной памяти, были почти уверены, что ERC должен оставаться верным своей миссии по финансированию самых прекрасных исследовательских центров, посвятивших свою жизнь проведению фундаментальных научных исследований, и если мир хочет найти решение пандемии, оно появится тех научных лабораторий, которые на протяжении многих лет проводят фундаментальные исследования. Члены правления были правы !
Ethos исследований ИИ
Что касается мира искусственного интеллекта (ИИ), то за последние несколько месяцев вокруг генеративного ИИ было много шума и финансирования. Тем не менее, дело в том, что, несмотря на уже вложенные десятки миллиардов долларов, лучшие из приложений генеративного искусственного интеллекта, основанных на глубоком обучении, страдают от множества серьезных проблем, таких как галлюцинации (придумывание несуществующих фактов), отсутствие планирования, рассуждения или даже математических способностей, предвзятости в отношении данных обучения, действия как непрозрачный черный ящик и отсутствия мировоззрения или модели мира. Таковы некоторые из серьезных вопросов, поднятых профессором Янном ЛеКуном на недавней конференции. И все же, в положительном смысле, это тот же самый минимальный набор способностей, который демонстрирует почти каждый разумный человек; Между тем, конечным ориентиром ИИ является имитация интеллекта человеческого уровня. Даже Сэм Альтман, генеральный директор OpenAI и ChatGPT, официально заявил, что для достижения более реалистичного искусственного интеллекта нам необходимо расширить парадигму GPT довольно важными способами, которые до сих пор отсутствуют.
Реальный вопрос заключается в следующем : что потребуется для создания более глубоких моделей ИИ?
Потребуется ли просто еще несколько миллиардов долларов, брошенных на решение этой проблемы, еще несколько миллиардов параметров обучения, используя еще несколько гигабайт обучающих данных в еще более мощной вычислительной инфраструктуре? Другими словами, можем ли мы просто спланировать свой путь? Или сообществу искусственного интеллекта потребуется тот же идеал, что и ERC, — отличная фундаментальная фундаментальная наука — чтобы достичь своего идеала моделирования интеллекта на человеческом уровне? Эта серия блогов рекомендует последнее!
Привнесение фундаментальной науки в ИИ
Исторический факт заключается в том, что пионеры искусственного интеллекта оставались верны процессу создания хорошей науки, и нам было бы полезно последовать их примеру. Если все научные лаборатории, в том числе биологические, которые применили свои теоретические модели для вакцинации против COVID-19, будут следовать процессу, представленному ниже (в левой половине рисунка), то и исследовательским лабораториям ИИ придется это делать, если они захотят создать вычислительные модели более глубокого ИИ, ИИ, который не страдает теми же проблемами, которыми, по мнению профессора Янна Лекуна, страдают нынешние модели глубокого обучения ИИ в длинном списке проблем.
Но что еще более важно, более глубокий ИИ — это предложение для сообщества ИИ пойти по более научному пути, как показано в правой половине следующего рисунка: он не начинается с простого проектирования приложения. Скорее, она изучает локус интеллекта как естественно возникающий феномен, но не в узком, а в максимально целостном и широком смысле ; затем он изучает традиции или школы мысли, которые теоретизировали такой целостный интеллект, а не ученые-компьютерщики, пытающиеся заново изобрести колесо. Только тогда он создает вычислительные модели, которые остаются верными теории, из которой они извлечены, и, наконец, вычислительные модели применяются к интересным проблемам.
Научный процесс и ИИ
Призыв к более глубокому ИИ
Следуя вышеупомянутым шагам, в этой серии статей заложена научная основа для более глубокого ИИ и подробно описаны первые два важных шага этого процесса. Если мы добавим к этому то, что независимо говорят или говорили некоторые альтернативные голоса в сообществе ИИ, то возникает явный призыв к продолжению разработки и разработке вычислительных моделей для более глубокого теоретического понимания интеллекта, а также искусственного интеллекта. интеллект.
Более глубокие модели ИИ: сообщество прагматических, семиотических и абдуктивных агентов, взаимодействующих с человеческой деятельностью, стремящихся к истине, имитируя более глубокое понимание человеческого интеллекта.
Модели глубокого обучения: учащиеся с поверхностным распознаванием образов, которым для обучения требуется много данных; они обходят дедуктивные и причинные рассуждения. После обучения система представляет собой неинтерпретируемый черный ящик.
Альтернативные голоса внутри ИИ
В то время как менее известные голоса пытались намеренно вывести вычислительную модель из ее теории, следующие очень известные современные голоса внутри сообщества (почти как сходящиеся, но независимые агенты, как предсказывает теория ) начали указывать на фрагменты одного и того же явления., хотя и непреднамеренно:
- Ян ЛеКун, лауреат премии Тьюринга, профессор Нью-Йоркского университета и главный научный сотрудник по искусственному интеллекту в Meta/Facebook, критикуя программы магистратуры, ищет системы искусственного интеллекта, которые могут учиться, запоминать, рассуждать, планировать, обладать здравым смыслом, но при этом управляемы и безопасны.
- Джеффри Хинтон, считающийся, помимо Лекуна, еще одним крестным отцом искусственного интеллекта с глубоким обучением, недавно ушел с поста вице-президента по разработкам в Google, чтобы найти более биологически правдоподобный алгоритм обучения, чем тот, который он разработал сам. Он даже исповедует новую парадигму недорогих вычислений для аппаратного обеспечения, которое может наследовать и умирать со временем, а знания могут продолжать развиваться в распределенном смысле с использованием прямого обучения.
- Кэтлин Крил — научный сотрудник Института человекоцентрированного искусственного интеллекта Стэнфордского университета. В качестве решения проблемы произвольной предвзятости, проявляемой автоматизированными системами принятия решений на основе машинного обучения, обученными на одном полном наборе данных, она предлагает ансамбль систем обучения, обученных на подмножествах более крупного набора данных, с участием человека в цикле для обоснования результатов. система.
- Дуглас Ленат, еще один академик, который также работал в научных консультативных советах Microsoft и Apple, выбрал другой путь к индуктивному машинному обучению. Ему и его команде из 60 исследователей удалось запустить 37-летний проект, в котором собраны миллионы созданных вручную явных дедуктивных правил, затраченных на это усилия, эквивалентные 2000 годам человеко-лет. Это привело к появлению Cyc, онтологии базы знаний, основанной на здравом смысле, которая, по словам Лената, не страдает от обычных ошибок систем черного ящика, основанных на машинном обучении.
- Еджин Чой — знаменитый профессор и исследователь в области обработки естественного языка. В своей программной речи, в которой она спрогнозировала и наметила ближайшие 60 лет для главного исследовательского центра ее сообщества в Ассоциации компьютерной лингвистики (ACL), она объясняет, насколько формальные логические системы, основанные на дедуктивных рассуждениях, бесплодны, и моделирование абдуктивных рассуждений является одним из способов вперед для сообщества компьютерной лингвистики.
В соответствии с миссией ERC, эта серия блогов, наряду с вышеупомянутыми альтернативными мнениями видных членов сообщества ИИ, указывает на то, что нужно выйти за рамки поверхностной науки глубокого обучения GPT и призывает к серьезному шагу вперед для создания более научных, модели более глубокого (искусственного) интеллекта.