Планирование территории патрулирования


14

Я разрабатываю игру / симулятор, где агенты сражаются за землю. У меня есть ситуация, показанная на картинке ниже:

Зеленая и красная кафельная зона с похожими по цвету "существами"

Эти существа ходят вокруг и занимают участки земли, на которые они ступают, если они свободны. Чтобы сделать это более интересным, я хочу представить «патрулирующее» поведение, чтобы агенты фактически ходили по своей земле, чтобы патрулировать от любых злоумышленников, которые могут захотеть взять это.

С технической стороны каждый квадрат представлен как x,yпозиция, а также размер, представляющий длину его стороны. Он также содержит информацию о том, кто занимает площадь. Все квадраты хранятся в ArrayList.

Как я могу представить патрулирование? Я хочу, чтобы каждый агент патрулировал определенную часть области (они делят между собой, какие области они будут патрулировать). Основная проблема, которую я обнаружил, заключается в следующем:

  • Площадь земли очень случайная, как видно на картинке. Довольно сложно понять, где находятся границы в каждом направлении.
  • Как им агенты должны разделить регионы для патрулирования?
  • Участки земли могут быть непересекающимися, так как противоборствующая команда может захватить территорию с середины.

У меня была идея взять самый дальний квадрат в каждом направлении, рассматривая их как границы области, и разделить регионы на основе этих границ, но это может включать в себя множество не относящихся к делу земель.

Как мне подойти к этой проблеме?


1
Возможно, вы могли бы взглянуть на некоторые методы обработки изображений для идей? Различные алгоритмы роста регионов, работающие одновременно, могут исходить от каждого агента до тех пор, пока всем плиткам, принадлежащим их команде, не будет назначен агент патрулирования.
Кецалькоатль

@Quetzalcoatl: Хорошая идея, легко реализуемая, но это приведет к очень неравным районам патрулирования. Рассмотрим зеленые агенты на изображении выше. У верхнего правого агента будет ~ 15 квадратов для покрытия, один в центре всего 2.
Junuxx

Гм, это более или менее похоже на выбор следующего ближайшего блока, который принадлежит их команде, из текущего блока.
Томас

1
Действительно, это несовершенно. Возможно, вместо того, чтобы использовать агенты в качестве семян для выращивания в регионе, семена могли бы быть изначально посажены случайным образом (по одному на каждого агента). Как только рост региона завершится, возможно, можно будет выполнить этап балансировки, обрабатывая каждый регион как кластер классов с мозаичными узлами в качестве узлов. KNearestNeighbour или KMean или аналогичные могут повторяться до некоторой формы сходимости, после чего регионы можно рассматривать как грубо сбалансированные, при этом каждый агент затем назначается на ближайшее семя (евклидово расстояние?). (Я думаю, что я, вероятно, слишком усложняю это, должен быть более простой способ ...)
Кецалькоатль

1
Возможно, каждый агент мог бы начать, отталкивая всех других агентов, таких как магниты. Это заставит агентов в разных уголках региона. Когда агенты останавливаются, делят землю, как предложил Кецалькоатль. Регионы должны быть примерно одинаковыми.
Тыкенн

Ответы:


9

Увлекательный вопрос. Я думаю, что одна из первых проблем, которую вы должны решить, - хотите ли вы, чтобы патрульное поведение было «оптимальным» патрулированием или «реалистичным» патрулированием. Я просто сочиняю эти слова, но я имею в виду следующее:

Оптимально : агенты перемещаются таким образом, который идеально распределяет их зону покрытия для системы в целом.

Реалистичная жизнь : агенты перемещаются и пытаются распределить себя настолько равномерно, насколько это возможно, но у каждого есть доступ только к данным, локальным для их перспективы.

Я собираюсь сосредоточиться на втором подходе, который, я думаю, вы можете решить, используя взвешенное смешивание различных шаблонов управления из Крейга Рейнольдса « Поведение управления для автономных персонажей» . Основная идея управления поведением состоит в том, чтобы использовать простые силы, которые объединяются для создания импровизационной навигации по окружающей среде. В вашем случае, я думаю, вы захотите объединить следующие способы управления:

  • Избежание (за пределами территории) - агенты пытаются оставаться на своей территории и избегать выезда за ее пределы. Для некоторого реализма, однако, влияние "выхода за пределы" территории не должно быть 100% здесь. Немного «острых углов», чтобы выйти за пределы области, вероятно, сделало бы более реалистичное движение.

  • Блуждающий - агенты пытаются продолжать двигаться и исследовать. Это тот, который вы захотите взвесить, иначе агенты попытаются найти оптимальную точку отрыва друг от друга, а затем «оставаться на месте».

  • Разделение (другие агенты) - агенты пытаются держаться на расстоянии от других агентов (таким образом, они покрывают максимум земли и не сгущаются).

  • Seek (invaders) - Агенты пытаются приблизиться к любым обнаруженным захватчикам.

Я думаю, что вы захотите поиграть с относительным весом динамически. Например, если агент обнаруживает захватчика, вес разделения должен уменьшаться. (Другими словами, они должны распространяться, только когда они охотятся, а не когда они находят кого-то.) Я думаю, что если вы поиграете с весами для вышеупомянутых четырех паттернов, у вас будет что-то довольно близкое к тому, что у вас » ищу.

В Интернете довольно много ресурсов о том, как реализовать «boids», которые следуют описанным моделям поведения. Я рекомендую реализацию с открытым исходным кодом .


2

Один подход состоит в том, чтобы записать для каждой ячейки, когда ее в последний раз посещал «охранник», и чтобы охранники постоянно перемещались в ту соседнюю ячейку, которая не была посещена дольше всего.

Конечно, это предполагает, что территория связана.

Это не идеальное решение, но легко кодируемое, адаптивное к изменяющимся обстоятельствам и эффективное. Я успешно использовал этот алгоритм для разведки и преследования в RTS-а я написал некоторое время назад.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.