腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(104)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
流协议
因为编码器通常使用
RTMP
或
RTSP
协议,然后取决于服务提供者或解码器如何传送视频/流(其中协议: HLS、
WebRTC
、HDS、MPED破折号等)。因此,这可能是一个愚蠢的问题,但是否有办法从
RTMP
或
RTSP
中更改编码协议?当我用软件录制视频/直播时。现在我正在使用OBS。另外,据我所知,
RTSP
和
RTMP
之间的
区别
是一种使用iOs和另一种Windows操作系统。
浏览 0
提问于2018-09-13
得票数 0
回答已采纳
1
回答
如何设置一个接受
RTMP
和/或
RTSP
流并使用
WebRTC
流到客户端(浏览器)的livestream Node js服务器?
服务器需要同时满足
RTMP
和
RTSP
传入流。 到目前为止,我所做的是使用接受
RTMP
流,并重新复用到HLS/DASH。进一步研究,也许我可以使用
WebRTC
,但有没有办法设置一个服务器,仍然接受
RTMP
,甚至
RTSP
(可能后来转换为
RTMP
),然后通过
WebRTC
流?如果是这样的话,是怎么做的?
浏览 2
修改于2020-06-30
得票数 1
2
回答
在NGINX中将
RTMP
转换为
RTSP
我有个问题,如果我用nginx做
RTMP
流,这个函数能不能用
RTSP
来流视频?对不起,我的英语不好。
浏览 4
修改于2018-10-19
得票数 10
1
回答
将视频从独立桌面应用程序(不是浏览器)流式传输到远程桌面应用程序(不是浏览器)
我研究过
RTMP
、
RTSP
、
WebRTC
等协议。根据我的理解,我不能使用
webRTC
,因为它只在浏览器中兼容,而且我在这里不是为浏览器构建我的应用程序。请帮我选择正确的协议和媒体服务器。
浏览 27
修改于2020-07-15
得票数 1
回答已采纳
1
回答
流
RTMP
到JANUS-网关只显示比特率,但不显示视频
我目前正在使用流插件,如下所示:当使用ffmpeg命令(bellow)时,在Janus流接口上,我们只看到控制台中对应于ffmpeg输出的比特率,但没有看到任何视频。ffmpeg -i
rtmp
://localhost/live/test -a
浏览 17
提问于2020-03-25
得票数 4
2
回答
从Raspberry Pi相机到Android应用程序的实时视频流
方法,我已经根据我对此的研究得出如下结论: 在pi设备中有一个读取
RTSP
流的代码,将其推送到远程帧收集(ImageZMQ拥有一个中间件,
浏览 3
修改于2019-09-19
得票数 1
2
回答
直播频道官网直播urls
我可以使用这个api播放一些频道(使用彩信和
rtsp
urls)。但是有些频道我还不能播放。我正在使用url helper从源网站获取
rtsp
url。url helper给了我
rtsp
url,但那些
rtsp
url我无法播放。例如,我有一个频道 我像这样得到了它的
rtsp
。
rtmp
://cdn.eboundservices.com/geonews?wmsAuthSign=c2VydmVyX3RpbWU
9
MTIvMTgvMjAxMyA3O
浏览 5
修改于2013-12-28
得票数 2
1
回答
使用
RTMP
和通过WebSocket分发
我有一台Linux,它将视频(带音频)从网络摄像头传输到
RTMP
服务器(nginx)。然后,nginx
RTMP
服务器将视频转换为 HLS ,并在浏览器上显示HLS流。一切都很好。我不能使用
WebRTC
,因为缺少音频,我不能使用闪存,因为缺乏对移动浏览器的支持。所以我的问题是,有什么方法可以让消费
RTMP
流,然后通过 WebSocket 和播放<code>E 221</code>现代WebSocket支持的<code>E 122</code>浏览器<
浏览 1
提问于2018-02-08
得票数 0
1
回答
在iOS网络视图中低延迟视频流有哪些选择?
WebRTC
: webview中未实现的 JS (尽管现在在移动safari中支持)
RTSP
:在iOS上不受支持,即使通过websockets (Strea
浏览 0
提问于2019-06-07
得票数 0
1
回答
需要URL的正则表达式
|
rtsp
|qvmc|
rtmp
)://(([^/:\.[:space:]]+(\.[^/:\.[:space:]]+)*)|([0-
9
](\.[0-
9
]{3})))(:[0-
9
]+)?((/[^?我的网址是:
rtsp
://root:admin@192.0.0.0/axis-media/media.amp?videocodec=h264&audio=1>
rtsp
_tr
浏览 4
修改于2017-08-07
得票数 0
回答已采纳
1
回答
什么流媒体协议可以发布视频/音频?
在这一点上,我相信以下是正确的,但我不确定这一切都是正确的,所以如果我错了,请纠正我:
RTSP
适用于流的发布和播放。适合播放流的HLS,不适合发布()MPEG-DASH不确定这个吗? 如果协议不能广播(例如,HLS),那么通常如何实现广播?
浏览 1
提问于2016-02-29
得票数 1
1
回答
谷歌眼镜流视频到服务器
到目前为止,我似乎需要通过
RTSP
对像Wowza这样的媒体服务器这样做,然后有一个web服务器托管一些观看
RTMP
流的视频播放器,但我没有多少运气。我也会对使用
WebRTC
做一些事情感兴趣,这样我就可以做出类似于Hangout的解决方案,但我不确定是否有任何库支持这一点。 任何帮助都是非常感谢的。
浏览 0
提问于2014-01-19
得票数 3
回答已采纳
2
回答
在支离破碎的mp4,sampleOffsets和sampleSizes?
基本上,我有一个MP4源代码,我在两个通道中输入它,一个是通过
RTMP
,另一个是在
RTSP
。然后,我连接到两个频道,并创建一个MPEG-破折号的内容。当使用业界的破折号播放器(即GPAC Osmo4、数字灵长类、castlabs )时,从
RTMP
源生成的破折号内容工作得很好,然而,从
RTMP
源生成的破折号内容是有问题的(即很多视频冻结、a/v不同步等等当比较
RTMP
和
RTSP
生成的破折号片段时,唯一的
区别
是samplingOffsets和samplingSiz
浏览 5
提问于2014-11-13
得票数 1
回答已采纳
1
回答
如何在网站上嵌入
RTSP
视频提要?
摄像头是GeoVision GV-FD120D 1.3Mpix LowLux IR 2.7-
9
9
mm,它连接到我有完全访问权限的服务器(我没有直接访问摄像头的权限) 我正在玩这个摄像头的设置,我设法打开了这个摄像头的
RTSP
协议访问。然后我使用VLC (在服务器上)打开网络流,地址为:
rtsp
://192.168.0.12:8554/CH001.sdp。成功了!到目前为止一切都很好。现在..。理想情况下,我想显示的视频播放器,如,但它不支持
RTSP
协议,但
RTMP
浏览 2
提问于2012-01-26
得票数 0
1
回答
rtsp
转youtube流在windows中不起作用
在windows中运行ffmpeg时,我使用以下代码将
RTSP
流式传输到youtube streaming: ffmpeg -f lavfi -t 12:00:00 -
rtsp
_transport tcp-i
rtsp
://admin:martin123@103.76.204.2:554/Streaming/Channels/101 -tune zerolatency -g 2 -c:v copy -t 12:00:00 -c:a aac -strict experimental -f fl
浏览 19
修改于2020-07-21
得票数 0
回答已采纳
1
回答
HTML5 h264直播视频
我目前有一个可以正常工作的H264 + AAC直播服务器,但使用flv作为容器,使用
RTMP
/HLS作为协议(nginx后端),这意味着客户端i只能使用基于flash的播放器,如jwplayer或video.js我只是想澄清一下:我不想流式传输静态文件,我想流式传输实时视频编辑:似乎
rtsp
->
webRTC
是可行的。我正在查自动取款机
浏览 1
修改于2015-01-29
得票数 0
1
回答
webRTC
/canvas对旧浏览器的支持
我有一个个性化的动态画布,我想和大家分享,但我知道旧浏览器不支持这个标签(IE <
9
),所以我一直在考虑解决办法。我计划让服务器浏览画布而不是人,并通过
webRTC
共享选项卡(画布)内容的实时流。我已经成功地完成了这一部分,通过创建一个Chrome扩展和使用谷歌的来捕获选项卡内容,以及使用nodeJS服务器上的Socket.IO来建立
webRTC
会话。提前感谢 编辑:我一直在阅读关于使用媒体服务器(如 )重新发布
webRTC
流的文章,例如由flash支持的
RTMP
,并使用它作为播放器的源代码。这里的
浏览 4
修改于2017-08-31
得票数 0
1
回答
用于媒体源扩展的FFmpeg实时流
我尝试使用FFmpeg实现从
RTSP
流到网页的视频流,并使用媒体源扩展。 我知道这个任务可以用HLS或
WebRTC
来实现,但是HLS有很大的延迟,
WebRTC
很难实现。在使用ffmpeg的第一步中,我可以很容易地将
RTSP
流分割成分段。例如,我可以通过image2在TCP中轻松地发送jpg中的视频帧,在TCP流中捕获ff d
9
字节,并将流分割到jpg图像。ffmpeg -i
rtsp
://127.0.0.1:8554 -f image2pipe
浏览 13
提问于2022-08-31
得票数 0
2
回答
ffmpeg amerge和amix滤波器延迟
-map 1:a -filter_complex amix=inputs=2:duration=first:dropout_transition=3 -ar 22050 -vn -f flv
rtmp
a -map 1:a -filter_complex amix=inputs=2:duration=longest:dropout_transition=0 -vn -ar 22050 -f flv
rtmp
-vn -ar 22050 -f flv
rtmp
://172.22.45.38:1935/live
浏览 6
修改于2015-10-30
得票数 1
3
回答
Android -流相机作为
RTMP
流
我想从Android设备上捕获摄像头流,然后用
RTMP
将其流到服务器上(服务器是我控制的out )。我还没有弄清楚如何从相机本身创建数据流,但这是以后的关注。目前有两个问题:我希望支持API
9
+,
RTMP
不是由Android支持的。 我环顾四周,发现了这个,所以发布和。前者建议几乎没有文档。后者可能支持它(?),但它需要API 14+。是否有合适的例子或库支持来自Android设备的
RTMP
流?我还读过一些关于转换
RTSP
或FFMPEG的内容,如果这是一种可行的方法,那么我想它也足够了。我在Androi
浏览 7
修改于2017-05-23
得票数 13
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
点击加载更多
领券