Вопросы с тегом «deep-learning»

Глубокое обучение - это область машинного обучения, целью которой является изучение сложных функций с использованием специальных архитектур нейронных сетей, которые являются «глубокими» (состоят из многих слоев). Этот тег следует использовать для вопросов о реализации архитектур глубокого обучения. Общие вопросы по машинному обучению должны быть помечены как "машинное обучение". Включение тега для соответствующей библиотеки программного обеспечения (например, «keras», «tensorflow», «pytorch», «fast.ai» и т. Д.) Полезно.

3
Получить местоположение всего текста, присутствующего в изображении, используя opencv
У меня есть это изображение, которое содержит текст (цифры и алфавиты) в нем. Я хочу получить местоположение всего текста и чисел, присутствующих на этом изображении. Также я хочу извлечь весь текст. Как я могу получить кординаты, а также весь текст (цифры и алфавиты) в моем изображении. Например, 10B, 44, 16, …

1
Сохраняйте модель каждые 10 эпох tenorflow.keras v2
Я использую керасы, определенные как подмодуль в tenorflow v2. Я тренирую свою модель, используя fit_generator()метод. Я хочу сохранять свою модель каждые 10 эпох. Как мне этого добиться? В керасе (не как подмодуль тф) могу дать ModelCheckpoint(model_savepath,period=10). Но в tf v2 они изменили это на то, ModelCheckpoint(model_savepath, save_freq)где save_freqможет быть, 'epoch'в …

2
Используя модуль мозга Гекко, как определить, сколько слоев и какой тип слоя использовать для решения проблемы глубокого обучения?
Я учусь использовать модуль мозга Gekko для приложений глубокого обучения. Я настраивал нейронную сеть, чтобы изучить функцию numpy.cos () и затем получить схожие результаты. Я хорошо подхожу, когда границы моих тренировок: x = np.linspace(0,2*np.pi,100) Но модель разваливается, когда я пытаюсь расширить границы: x = np.linspace(0,3*np.pi,100) Что мне нужно изменить в …
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.