Трудно сказать, не зная немного больше о вашем наборе данных и о том, насколько отделим ваш набор данных на основе вашего векторного элемента, но я бы, вероятно, предложил использовать экстремальный случайный лес по сравнению со стандартным случайным лесом из-за вашего относительно небольшого набора выборок.
Экстремальные случайные леса очень похожи на стандартные случайные леса, за исключением того, что вместо оптимизации разбиений на деревьях экстремальные случайные леса производят разбиения случайным образом. Первоначально это может показаться отрицательным, но обычно это означает, что у вас значительно лучше обобщение и скорость, хотя AUC в вашем тренировочном наборе, вероятно, будет немного хуже.
Логистическая регрессия также является довольно солидной ставкой для подобных задач, хотя из-за вашей относительно низкой размерности и небольшого размера выборки я бы беспокоился о переобучении. Возможно, вы захотите проверить, используя K-Nearest Neighbours, так как он часто выполняет очень волю с низкой размерностью, но обычно не очень хорошо обрабатывает категориальные переменные.
Если бы мне пришлось выбирать один из них, не зная больше о проблеме, я бы, конечно, сделал ставку на крайне случайный лес, так как он, скорее всего, даст вам хорошее обобщение на этот тип набора данных, а также лучше обрабатывает сочетание числовых и категориальных данных. чем большинство других методов.