Я видел много информации о том, как транслировать видео с сервера на устройство Android, но не о другом, аля Qik. Может ли кто-нибудь указать мне правильное направление или дать совет, как к этому подойти?
Я видел много информации о том, как транслировать видео с сервера на устройство Android, но не о другом, аля Qik. Может ли кто-нибудь указать мне правильное направление или дать совет, как к этому подойти?
Ответы:
Я принимал проект с открытым исходным кодом для включения телефона Android в IP-камеру:
http://code.google.com/p/ipcamera-for-android
Необработанные видеоданные извлекаются из LocalSocket, и перед потоковой передачей проверяется MDAT MOOV MP4. Живое видео упаковано в формате FLV и может быть воспроизведено через Flash Video Player со встроенным веб-сервером :)
ndk-build
. Для получения дополнительной информации прочитайте документацию NDK .
Это заняло у меня некоторое время, но я наконец смог создать приложение, которое именно это и делает. Проверьте кодовую страницу Google, если вам интересно: http://code.google.com/p/spydroid-ipcamera/ Я добавил множество комментариев в свой код (в основном, посмотрите на CameraStreamer.java), так что это должно быть довольно понятно Сложной задачей было понять RFC 3984 и реализовать правильный алгоритм для процесса пакетирования. (Этот алгоритм фактически превращает поток mpeg4 / h.264, созданный MediaRecorder, в красивый поток rtp, согласно rfc)
до свидания
Я тоже в этом разбираюсь, и, хотя у меня нет подходящего для вас решения, мне все-таки удалось откопать видеокод SIPDroid:
http://code.google.com/p/sipdroid/source/browse/trunk/src/org/sipdroid/sipua/ui/VideoCamera.java
Я создал SDK с открытым исходным кодом под названием Kickflip, чтобы сделать потоковое видео с Android безболезненным.
SDK демонстрирует использование MediaCodec API Android 4.3 для направления пакетов аппаратного кодировщика устройства непосредственно в FFmpeg для RTMP (с librtmp) или потоковой передачи HLS H.264 / AAC. Он также демонстрирует эффекты OpenGL в реальном времени (заголовки, хроматический ключ, затухание) и фоновую запись.
Спасибо ТАК, и особенно, Fadden .
Вот полная статья о потоковой передаче видео с камеры Android на веб-страницу.
Android потоковое видео с камеры в реальном времени на веб-страницу
Я могу отправить видео с камеры в реальном времени с мобильного на мой сервер. С помощью этой ссылки см. Ссылку
См. Ссылку выше. В этой ссылке приведен пример приложения. Просто вам нужно установить URL вашего сервиса в RecordActivity.class.
Пример как: ffmpeg_link = "rtmp: // yourserveripaddress: 1935 / live / venkat";
по этой ссылке мы можем отправлять видео типа H263 и H264.
Это вряд ли полный ответ, но webRTC может быть тем, что вы ищете. Вот несколько быстрых примеров работы webRTC: http://www.webrtc.org/reference-apps
Если вы хотите специальный код Android, он существует! http://www.webrtc.org/native-code/android
Проверьте библиотеку Yasea
Yasea - потоковый клиент для Android. Он кодирует данные YUV и PCM с камеры и микрофона в H.264 / AAC, инкапсулирует в FLV и передает по RTMP.
Характерная черта:
Mux (моя компания) имеет Android-приложение с открытым исходным кодом, которое транслирует RTMP на сервер, включая настройку камеры и взаимодействие с пользователем. Он построен для потоковой передачи в потоковый API Mux, но может легко транслироваться на любую точку входа RTMP.
В зависимости от вашего бюджета, вы можете использовать камеру Raspberry Pi, которая может отправлять изображения на сервер. Я добавляю сюда два урока, где вы можете найти много больше деталей:
Из этого туториала Вы узнаете, как использовать камеру Raspberry Pi и отображать изображения на устройстве Android.
Это второй учебник, где вы можете найти серию учебников о потоковой передаче видео в режиме реального времени между камерой и устройством Android