Есть много, много примеров. Слишком много, чтобы перечислить, и, вероятно, слишком много, чтобы кто-нибудь мог знать полностью (кроме, возможно, @whuber, который никогда не следует недооценивать).
Как вы упоминаете, в контролируемых экспериментах мы избегаем смещения выборки путем случайного разделения субъектов на группы лечения и контроля.
При начальной загрузке мы аппроксимируем повторную выборку из популяции путем случайной выборки с заменой из фиксированной выборки. Это позволяет нам оценивать дисперсию наших оценок, среди прочего.
При перекрестной проверке мы оцениваем погрешность оценки вне выборки путем случайного разделения наших данных на срезы и сборки случайных обучающих и тестовых наборов.
При тестировании перестановок мы используем случайные перестановки для выборки по нулевой гипотезе, что позволяет проводить непараметрические проверки гипотез в самых разных ситуациях.
В пакетировании мы контролируем дисперсию оценки, многократно выполняя оценку на выборках учебных данных, а затем усредняя результаты.
В случайных лесах мы также контролируем дисперсию оценки путем случайной выборки из доступных предикторов в каждой точке принятия решения.
В моделировании мы просим модель соответствия случайным образом генерировать новые наборы данных, которые мы можем сравнить с данными обучения или тестирования, помогая проверить соответствие и предположения в модели.
В цепочке Маркова Монте-Карло мы выбираем из распределения, исследуя пространство возможных результатов, используя цепочку Маркова (спасибо @Ben Bolker за этот пример).
Это обычные повседневные приложения, которые сразу приходят на ум. Если бы я копал глубоко, я бы, вероятно, удвоил длину этого списка. Случайность является и важным объектом изучения, и важным инструментом для владения.