Стохастическое лямбда-исчисление Скотта


19

Недавно Дана Скотт предложила стохастическое лямбда-исчисление, попытку ввести вероятностные элементы в (нетипизированное) лямбда-исчисление на основе семантики, называемой графовой моделью. Вы можете найти его слайды в Интернете, например, здесь и его статью в журнале прикладной логики , том. 12 (2014).

Однако, с помощью быстрого поиска в Интернете, я обнаружил аналогичное предыдущее исследование, например, для системы типов Хиндли-Милнера . Способ, которым они вводят вероятностную семантику, похож на метод Скотта (в первом они используют монады, в то время как во втором Скотт использует стиль прохождения продолжения).

Чем отличается работа Скотта от предыдущей работы с точки зрения самих теорий или их возможных применений?


Так как я нашел его некоторое время, вот ссылка: sciencedirect.com/science/article/pii/S1570868314000238
Blaisorblade

Ответы:


15

Одна очевидная сила его подхода состоит в том, что он позволяет функциям высшего порядка (то есть лямбда-терминам) быть наблюдаемыми результатами, которые теория измерения обычно делает довольно хитрыми. (Основная проблема заключается в том, что пространства измеримых функций обычно не имеют борелевской алгебры, для которой измерима прикладная функция, иногда называемая «eval»; см. Введение к статье Борелевские структуры для функциональных пространств .) Скотт делает это, используя Кодирование Гёделя от лямбда-терминов до натуральных чисел и работа непосредственно с закодированными терминами. Одним из недостатков этого подхода может быть то, что кодирование может быть трудно расширить с помощью реальных чисел в качестве программных значений. (Изменить: это не слабость - см. Комментарий Андрея ниже.)σ

Использование CPS, по-видимому, главным образом для наложения полного порядка на вычисления, для наложения полного порядка на доступ к случайному источнику. Государственная монада должна делать то же самое.

«Случайные переменные» Скотта, похоже, совпадают с «выборочными функциями» Пакса в его операционной семантике . Техника преобразования стандартных однородных значений в значения с любым распределением более широко известна как выборка с обратным преобразованием .

Я полагаю, что есть только одно фундаментальное различие между семантикой Рамси и Скотта. Программы Рэмзи интерпретируют программы как вычисления, которые строят оценку результатов программы. Скотт предполагает существующее единообразное измерение входных данных и интерпретирует программы как преобразования этих входных данных. (Выходная мера в принципе может быть рассчитана с использованием прообразов .) Скотт аналогичен использованию случайной монады в Haskell.

В своем общем подходе семантика Скотта кажется наиболее похожей на вторую половину моей диссертации по вероятностным языкам - за исключением того, что я придерживался значений первого порядка вместо умного кодирования, использовал бесконечные деревья случайных чисел вместо потоков и интерпретировал программы как стрелочные вычисления. (Одна из стрелок вычисляет преобразование из фиксированного вероятностного пространства в выходные данные программы; другие вычисляют прообразы и приблизительные прообразы.) Глава 7 моей диссертации объясняет, почему я считаю, что интерпретировать программы как преобразования фиксированного вероятностного пространства лучше, чем интерпретировать их как вычисления что построить меру. В основном все сводится к тому, что «точки фиксации мер очень сложны, но мы хорошо понимаем точки фиксации программ».


3
λλλ

1
@Martin: я действительно не могу ответить так быстро, потому что я не знаю много о исчислениях процесса, но кажется, что это стоило бы изучить. Мне было бы интересно узнать, как выглядят свойства исчислений процесса после их передачи, и можно ли каким-либо образом использовать переданные свойства.
Нил Торонто

2
T0λ

@ Андрей: Значит, расширение кодировки реальными числами не должно быть проблемой?
Нил Торонто

1
λλ
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.