Я написал приложение для Android, которое отправляет потоковое видео с камеры через разъем на мой компьютер. Можно ли использовать FFmpeg для декодирования видеопотока MPEG4 и как отображать то, что камера видит в реальном времени? Я предполагаю, что мне нужно было бы создать растровое изображение из последней информации, полученной из потока байтов, и отобразить его на компьютере со скоростью 20 + FPS.
Как бы я поступил так?
C ++, C # или Java в порядке. Из моего понимания FFmpeg написан на C ++
Прежде всего, вы хотите создать видеоплеер самостоятельно или просто хотите посмотреть свою трансляцию? Потому что, когда у вас уже есть видеопоток, почти каждый современный видеоплеер может воспроизводить потоковое мультимедиа. Попробуйте использовать VLC (Который использует FFmpeg). В VLC просто нажмите «Медиа» -> «Открыть сетевой поток …» и введите свой URL.
А во-вторых, FFmpeg написан на C (C99). Сам FFmpeg — это всего лишь инструмент для конвертации медиа. Если вы хотите создать свою собственную программу, вы можете использовать библиотеки FFmpeg (libavcodec, libavformat, ect).
Других решений пока нет …