Может ли когда-либо существовать функционально полный набор правил грамматики, которые могут точно анализировать любое утверждение на английском языке (специфично для локали) и которые могут быть реализованы для использования в проектах на основе AI?
Разобрать это да, точно скорее всего нет.
Почему ?
В соответствии с моим пониманием того, как мы получаем значение из звуков, существует две взаимодополняющие стратегии:
Правила грамматики:
основанная на правилах система для упорядочения слов, чтобы облегчить общение, здесь значение происходит от взаимодействия отдельных звуков и их независимого значения, так что вы можете проанализировать предложение на основе книги правил.
Например, «Это был триумф» : синтаксический анализатор извлекал бы местоимение ( This ) с соответствующим значением (конкретный человек или вещь); глагол ( был ) с соответствующим значением (произошло); ( а ) и здесь мы начнем с некоторых проблем с синтаксическим анализом: что извлечет парсер, существительное или неопределенный артикль? Итак, мы обращаемся к книге правил грамматики и соглашаемся со значением (неопределенная статья, любая из), вам нужно проанализировать следующее слово и обратиться к нему, хотя, но давайте пока затмем это, и наконец ( триумф ) существительное (это также может быть глагол, но благодаря книге правил грамматики мы согласились на существительное со значением: (победа, завоевание), так что в итоге мы имеем (объединяя значения):
Определенная вещь произошла из победы. Достаточно близко, и я примыкаю к нескольким другим правилам, но это не главное, другая стратегия:
Лексический словарь (или лексикон),
где слова или звуки связаны с определенным значением. Здесь значение происходит от одного или нескольких слов или звуков как единое целое. Это создает проблему для синтаксического анализатора, поскольку он ничего не должен анализировать.
Например, «Non Plus Ultra». И поэтому анализатор ИИ признает, что эту фразу не нужно анализировать, а вместо этого сопоставить со значением:
Высшая точка или кульминация
Лексические единицы представляют другую проблему в том, что они сами могут быть частью первого примера, и в результате вы получите рекурсию.
возможно ли для компьютера разобрать хорошо подготовленное предложение, написанное на английском, как если бы оно было проанализировано взрослым англоговорящим человеком?
Я полагаю, что это возможно, большинство примеров, которые я видел, эффективно справляются с книгой правил грамматики или частью лексики, но я не знаю о комбинации обоих, но с точки зрения программирования это могло бы произойти.
К сожалению, даже если вы решите эту проблему, ваш ИИ на самом деле не будет понимать вещи в строгом смысле, а скорее представит вам очень сложные синонимы, кроме того, контекст (как упомянуто в комментариях) играет роль в грамматических и лексиконных стратегиях.
Если его нельзя представить с помощью простых правил грамматики, какую семантическую структуру можно использовать для его обобщения?
Смешанный, в котором есть как грамматические правила, так и лексикон, и оба могут изменяться и подвергаться влиянию на основе конкретного контекста и опыта ИИ, а также системы для работы с этими объектами, может быть одним из способов.