【永利皇宫】调用ffmpeg SDK对YUV录像类别举行编码

永利皇宫 18

HTML5:使用Canvas实时管理Video

2015/09/11 · HTML5 ·
Canvas

本文由 伯乐在线 –
cucr
翻译,唐尤华
校稿。未经许可,禁绝转发!
瑞典语出处:mozilla。款待参与翻译组。

结合HTML5下的videocanvas的功能,你能够实时管理录像数据,为正在播放的录像增加有滋有味的视觉效果。本学科演示如何行使JavaScript代码完毕chroma-keying特效(也被叫作“深灰显示屏效应”卡塔尔。

请看这些实例.

来走访机智的前端童鞋怎么防盗

2016/07/12 · JavaScript
· 4 评论 ·
HTML5

初藳出处: VaJoy   

过多支付的童鞋都以孤独混江湖、夜宿城中村,假使居住的地点安保欠缺,那么身在异地难免驰念屋里的财产安全。

实则世面上有超级多了不起上的防盗设备,但对中国“氢弹之父”感的前端童鞋来讲,只要有风姿洒脱台附带摄像头的微电脑,就能够轻易地达成二个防盗监察和控制连串~

纯 JS 的“防盗”技术非常大程度凭仗于 H5 canvas
的技术,且极度有趣。纵然您对 canvas
还不熟练,能够先点这里开卷作者的不可胜佛教程。

step1. 调用录像头

咱俩须要先在浏览器上访谈和调用录制头,用来监督房子里的一言一动。差别浏览器中调用录像头的
API 都略有出入,在这间大家以 chrome 做示范:

JavaScript

<video width=”640″ height=”480″ autoplay></video>
<script> var video = document.querySelector(‘video’);
navigator.webkitGetUserMedia({ video: true }, success, error); function
success(stream) { video.src = window.webkitURL.createObjectURL(stream);
video.play(); } function error(err) { alert(‘video error: ‘ + err) }
</script>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
<video width="640" height="480" autoplay></video>
 
<script>
    var video = document.querySelector(‘video’);
 
    navigator.webkitGetUserMedia({
                video: true
            }, success, error);
 
    function success(stream) {
        video.src = window.webkitURL.createObjectURL(stream);
        video.play();
    }
 
    function error(err) {
        alert(‘video error: ‘ + err)
    }
</script>

运营页面后,浏览器出于安全性思虑,会询问是否允许当前页面访问你的摄像头设备,点击“允许”后便能直接在
<video> 上看见拍录头捕获到的画面了:

永利皇宫 1

step2. 捕获 video 帧画面

只然则开着录像头监视房间可未有别的意义,浏览器不会帮您对督查画面实行分析。所以这里大家顺遂动用脚本捕获
video 上的帧画面,用于在后续进展多少深入分析。

自此处初始大家就要依附 canvas
力量了。在 Canvas入门(五)一文大家介绍过 ctx.drawImage()
方法,通过它能够捕获 video 帧画面并渲染到画布上。

我们必要创制二个画布,然后这么写:

JavaScript

<video width=”640″ height=”480″ autoplay></video> <canvas
width=”640″ height=”480″></canvas> <script> var video =
document.querySelector(‘video’); var canvas =
document.querySelector(‘canvas’); // video捕获摄像头画面
navigator.webkitGetUserMedia({ video: true }, success, error); function
success(stream) { video.src = window.webkitU奥迪Q7L.createObjectU卡宴L(stream);
video.play(); } function error(err) { alert(‘video error: ‘ + err) }
//canvas var context = canvas.getContext(‘2d’); setTimeout(function(){
//把当前摄像帧内容渲染到画布上 context.drawImage(video, 0, 0, 640, 480);
}, 5000); </script>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
<video width="640" height="480" autoplay></video>
<canvas width="640" height="480"></canvas>
 
<script>
    var video = document.querySelector(‘video’);
    var canvas = document.querySelector(‘canvas’);
 
    // video捕获摄像头画面
    navigator.webkitGetUserMedia({
                video: true
            }, success, error);
 
    function success(stream) {
        video.src = window.webkitURL.createObjectURL(stream);
        video.play();
    }
 
    function error(err) {
        alert(‘video error: ‘ + err)
    }
 
    //canvas
    var context = canvas.getContext(‘2d’);
 
    setTimeout(function(){
        //把当前视频帧内容渲染到画布上
        context.drawImage(video, 0, 0, 640, 480);
    }, 5000);
 
</script>

如上代码所示,5秒后把录制帧内容渲染到画布上(下方右图卡塔 尔(阿拉伯语:قطر‎

永利皇宫 2

step3. 对抓获的七个帧画面推行差距混合

在上头大家提到过,要得力地识别有个别场景,要求对录制镜头进行数量深入剖析。

那就是说要怎么辨识我们的屋企是还是不是有人突然闯入了吗?答案很容易 —— 定期地破获
video 画面,然后比较前后两帧内容是不是留存超大转移。

咱俩先轻便地写二个按期捕获的不二法门,并将捕获到的帧数据存起来:

JavaScript

//canvas var context = canvas.getContext(‘2d’); var preFrame, //前生龙活虎帧
curFrame; //当前帧 //捕获并保存帧内容 function captureAndSaveFrame(){
console.log(context); preFrame = curFrame; context.drawImage(video, 0,
0, 640, 480); curFrame = canvas.toDataUHavalL; //转为base64并保存 }
//准时捕获 function timer(delta){ setTimeout(function(){
captureAndSaveFrame(); timer(delta) }, delta || 500); } timer();

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
    //canvas
    var context = canvas.getContext(‘2d’);
    var preFrame,   //前一帧
        curFrame;   //当前帧
 
    //捕获并保存帧内容
    function captureAndSaveFrame(){ console.log(context);
        preFrame = curFrame;
        context.drawImage(video, 0, 0, 640, 480);
        curFrame = canvas.toDataURL;  //转为base64并保存
    }
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            timer(delta)
        }, delta || 500);
    }
 
    timer();

如上代码所示,画布会每间距500阿秒捕获并渲染一回 video
的帧内容(夭寿哇,做完那些动作十分的大心把饼干洒了生机勃勃地。。。\(“▔□▔)/)

永利皇宫 3

留意这里大家运用了 canvas.toDataURL 方法来保存帧画面。

接着正是数据拆解分析管理了,我们能够透过相比较前后捕获的帧画面来推断录制头是还是不是监察和控制到变化,那么怎么做吗?

熟识设计的同桌料定平常使用三个图层作用 —— 混合形式:

永利皇宫 4

当有多少个图层时,对顶层图层设置“差值/Difference”的拌和形式,能够看清地见到多少个图层的间距:

永利皇宫 5

“图A”是本身2018年在集团楼下拍的照片,然后笔者把它稍稍调亮了一丝丝,并在上头画了一个X 和 O
取得“图B”。接着小编把它们以“差值”情势混合在联合,获得了最右的那张图。

JavaScript

“差值”形式原理:要掺杂图层双方的锐界GB值中每种值分别进行相比,用高值减去低值作为合成后的颜色,平日用绿蓝图层合成黄金年代图像时,可以拿到负片效果的反相图像。用巴黎绿的话不产生别的变动(月光蓝亮度最低,下层颜色减去最小颜色值0,结果和原本同样卡塔尔国,而用土黄会获得反相效果(下层颜色被减去,获得补值卡塔 尔(英语:State of Qatar),别的颜色则依照它们的亮度水平

1
“差值”模式原理:要混合图层双方的RGB值中每个值分别进行比较,用高值减去低值作为合成后的颜色,通常用白色图层合成一图像时,可以得到负片效果的反相图像。用黑色的话不发生任何变化(黑色亮度最低,下层颜色减去最小颜色值0,结果和原来一样),而用白色会得到反相效果(下层颜色被减去,得到补值),其它颜色则基于它们的亮度水平

在CSS3中,已经有 blend-mode
特性来支撑这些妙趣横生的错落有致格局,可是大家发掘,在主流浏览器上,canvas
的 globalCompositeOperation 接口也早就不错帮忙了图像混合形式:

于是乎我们再建多三个画布来展现前后两帧差别:

JavaScript

<video width=”640″ height=”480″ autoplay></video> <canvas
width=”640″ height=”480″></canvas> <canvas width=”640″
height=”480″></canvas> <script> var video =
document.querySelector(‘video’); var canvas =
document.querySelectorAll(‘canvas’)[0]; var canvasForDiff =
document.querySelectorAll(‘canvas’)[1]; // video捕获录制头画面
navigator.webkitGetUserMedia({ video: true }, success, error); function
success(stream) { video.src = window.UQashqaiL.createObjectU揽胜L(stream);
video.play(); } function error(err) { alert(‘video error: ‘ + err) }
//canvas var context = canvas.getContext(‘2d’), diffCtx =
canvasForDiff.getContext(‘2d’); //将第二个画布混合方式设为“差距”
diffCtx.globalCompositeOperation = ‘difference’; var preFrame, //前大器晚成帧
curFrame; //当前帧 //捕获并保存帧内容 function captureAndSaveFrame(){
preFrame = curFrame; context.drawImage(video, 0, 0, 640, 480); curFrame
= canvas.toDataUSportageL(); //转为base64并保存 } //绘制base64图像到画布上
function drawImg(src, ctx){ ctx = ctx || diffCtx; var img = new Image();
img.src = src; ctx.drawImage(img, 0, 0, 640, 480); } //渲染前后两帧差异function renderDiff(){ if(!preFrame || !curFrame) return;
diffCtx.clearRect(0, 0, 640, 480); drawImg(preFrame); drawImg(curFrame);
} //准期捕获 function timer(delta){ setTimeout(function(){
captureAndSaveFrame(); renderDiff(); timer(delta) }, delta || 500); }
timer(); </script>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
<video width="640" height="480" autoplay></video>
<canvas width="640" height="480"></canvas>
<canvas width="640" height="480"></canvas>
 
<script>
    var video = document.querySelector(‘video’);
    var canvas = document.querySelectorAll(‘canvas’)[0];
    var canvasForDiff = document.querySelectorAll(‘canvas’)[1];
 
    // video捕获摄像头画面
    navigator.webkitGetUserMedia({
                video: true
            }, success, error);
 
    function success(stream) {
        video.src = window.URL.createObjectURL(stream);
        video.play();
    }
 
    function error(err) {
        alert(‘video error: ‘ + err)
    }
 
    //canvas
    var context = canvas.getContext(‘2d’),
        diffCtx = canvasForDiff.getContext(‘2d’);
    //将第二个画布混合模式设为“差异”
    diffCtx.globalCompositeOperation = ‘difference’;
 
    var preFrame,   //前一帧
        curFrame;   //当前帧
 
    //捕获并保存帧内容
    function captureAndSaveFrame(){
        preFrame = curFrame;
        context.drawImage(video, 0, 0, 640, 480);
        curFrame = canvas.toDataURL();  //转为base64并保存
    }
 
    //绘制base64图像到画布上
    function drawImg(src, ctx){
        ctx = ctx || diffCtx;
        var img = new Image();
        img.src = src;
        ctx.drawImage(img, 0, 0, 640, 480);
    }
 
    //渲染前后两帧差异
    function renderDiff(){
        if(!preFrame || !curFrame) return;
        diffCtx.clearRect(0, 0, 640, 480);
        drawImg(preFrame);
        drawImg(curFrame);
    }
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            renderDiff();
            timer(delta)
        }, delta || 500);
    }
 
    timer();
 
</script>

成效如下(夭寿啊,做完那一个动作作者又把七喜洒在键盘上了。。。(#--)/
卡塔尔国

永利皇宫 6

能够看出,当前后两帧差别十分的小时,第五个画布差不离是茫然不解的一片,独有当拍戏头捕获到动作了,第多少个画布才有鲜明的高亮内容现身。

为此,我们只必要对第多少个画布渲染后的图像举办像素解析——判别其高亮阈值是或不是达到某些内定预期:

JavaScript

var context = canvas.getContext(‘2d’), diffCtx =
canvasForDiff.getContext(‘2d’); //将第贰个画布混合情势设为“差别”
diffCtx.globalCompositeOperation = ‘difference’; var preFrame, //前少年老成帧
curFrame; //当前帧 var diffFrame; //寄放差别帧的imageData
//捕获并保存帧内容 function captureAndSaveFrame(){ preFrame = curFrame;
context.drawImage(video, 0, 0, 640, 480); curFrame = canvas.toDataULX570L();
//转为base64并保存 } //绘制base64图像到画布上 function drawImg(src,
ctx){ ctx = ctx || diffCtx; var img = new Image(); img.src = src;
ctx.drawImage(img, 0, 0, 640, 480); } //渲染前后两帧差距 function
renderDiff(){ if(!preFrame || !curFrame) return; diffCtx.clearRect(0, 0,
640, 480); drawImg(preFrame); drawImg(curFrame); diffFrame =
diffCtx.getImageData( 0, 0, 640, 480 ); //捕获差别帧的imageData对象 }
//计算差别 function calcDiff(){ if(!diffFrame) return 0; var cache =
arguments.callee, count = 0; cache.total = cache.total || 0;
//整个画布都以反革命时享有像素的值的总和 for (var i = 0, l =
diffFrame.width * diffFrame.height * 4; i < l; i += 4) { count +=
diffFrame.data[i] + diffFrame.data[i + 1] + diffFrame.data[i + 2];
if(!cache.isLoopEver){ //只需在首先次循环里实践 cache.total += 255 * 3;
//单个反革命像素值 } } cache.isLoop伊芙r = true; count *= 3; //亮度放大
//再次回到“差异画布高亮部分像素总值”占“画布全亮情形像素总值”的百分比 return
Number(count/cache.total).toFixed(2); } //依期捕获 function
timer(delta){ set提姆eout(function(){ captureAndSaveFrame();
renderDiff(); setTimeout(function(){ console.log(calcDiff()); }, 10);
timer(delta) }, delta || 500); } timer();

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
    var context = canvas.getContext(‘2d’),
        diffCtx = canvasForDiff.getContext(‘2d’);
    //将第二个画布混合模式设为“差异”
    diffCtx.globalCompositeOperation = ‘difference’;
 
    var preFrame,   //前一帧
        curFrame;   //当前帧
 
    var diffFrame;  //存放差异帧的imageData
 
    //捕获并保存帧内容
    function captureAndSaveFrame(){
        preFrame = curFrame;
        context.drawImage(video, 0, 0, 640, 480);
        curFrame = canvas.toDataURL();  //转为base64并保存
    }
 
    //绘制base64图像到画布上
    function drawImg(src, ctx){
        ctx = ctx || diffCtx;
        var img = new Image();
        img.src = src;
        ctx.drawImage(img, 0, 0, 640, 480);
    }
 
    //渲染前后两帧差异
    function renderDiff(){
        if(!preFrame || !curFrame) return;
        diffCtx.clearRect(0, 0, 640, 480);
        drawImg(preFrame);
        drawImg(curFrame);
        diffFrame = diffCtx.getImageData( 0, 0, 640, 480 );  //捕获差异帧的imageData对象
    }
 
    //计算差异
    function calcDiff(){
        if(!diffFrame) return 0;
        var cache = arguments.callee,
            count = 0;
        cache.total = cache.total || 0; //整个画布都是白色时所有像素的值的总和
        for (var i = 0, l = diffFrame.width * diffFrame.height * 4; i < l; i += 4) {
            count += diffFrame.data[i] + diffFrame.data[i + 1] + diffFrame.data[i + 2];
            if(!cache.isLoopEver){  //只需在第一次循环里执行
                cache.total += 255 * 3;   //单个白色像素值
            }
        }
        cache.isLoopEver = true;
        count *= 3;  //亮度放大
        //返回“差异画布高亮部分像素总值”占“画布全亮情况像素总值”的比例
        return Number(count/cache.total).toFixed(2);
    }
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            renderDiff();
            setTimeout(function(){
                console.log(calcDiff());
            }, 10);
 
            timer(delta)
        }, delta || 500);
    }
 
    timer();

注意这里大家应用了 count *= 3
来放大差别高亮像素的亮度值,不然得出的数值实在太小了。大家运营下页面(图片超大加载会有一点点慢卡塔 尔(阿拉伯语:قطر‎

永利皇宫 7

由此试(xia卡塔尔验(bai卡塔尔国,个人以为如若 calcDiff() 再次来到的比值若是抢先0.20,那么就可以定性为“后生可畏间空屋家,猛然有人闯进来”的图景了。

step4. 上报至极图片

当上述的总括开采成情形时,供给有某种渠道通告大家。有钱有生命力的话可以安顿个邮件服务器,直接发邮件以至短信布告到温馨,but
本文走的吃吐少年路径,就不搞的那么高等了。

这正是说要怎么着轻易地落到实处丰盛图片的申报呢?我暂时想到的是 ——
直接把标题图片发送到某些站点中去。

此间大家选用今日头条的“日记”功用,它能够轻巧上传相关内容。

JavaScript

p.s.,其实这里原来是想一向把图片传遍今日头条相册上的,缺憾POST乞求的图纸实体须要走
file 格式,即不能透过脚本更正文件的 input[type=file],转 Blob
再上传也没用,只可以作罢。

1
p.s.,其实这里原本是想直接把图片传到博客园相册上的,可惜POST请求的图片实体要求走 file 格式,即无法通过脚本更改文件的 input[type=file],转 Blob 再上传也没用,只好作罢。

小编们在拘系后台创立日记时,通过 Fiddler 抓包能够看出其诉求参数非常轻巧:

永利皇宫 8

因而能够一向组织四个伸手:

JavaScript

//极度图片上传管理 function submit(){ //ajax 提交form $.ajax({ url :
”, type : “POST”, data : {
‘__VIEWSTATE’: ”, ‘__VIEWSTATEGENERATOR’: ‘4773056F’,
‘Editor$Edit$txbTitle’: ‘告警’ + Date.now(), ‘Editor$Edit$EditorBody’:
‘<img src=”‘%20+%20curFrame%20+%20′” />’, ‘Editor$Edit$lkbPost’: ‘保存’ },
success: function(){ console.log(‘submit done’) } }); }

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
    //异常图片上传处理
    function submit(){
 
        //ajax 提交form
        $.ajax({
            url : ‘http://i.cnblogs.com/EditDiary.aspx?opt=1’,
            type : "POST",
            data : {
                ‘__VIEWSTATE’: ”,
                ‘__VIEWSTATEGENERATOR’: ‘4773056F’,
                ‘Editor$Edit$txbTitle’: ‘告警’ + Date.now(),
                ‘Editor$Edit$EditorBody’: ‘<img src="’%20+%20curFrame%20+%20’" />’,
                ‘Editor$Edit$lkbPost’: ‘保存’
            },
            success: function(){
                console.log(‘submit done’)
            }
        });
    }

本来要是须求页面跟新浪域名分化,是无能为力发送 cookie
招致恳求跨域而失效,不过这一个很好化解,直接纠正 host
就可以(怎么改善就不介绍了,自行百度呢)

自家那边改完 host,通过 
之处访谈页面,发现录像头竟然失效了~

通过Google的文书档案能够获知,那是为了安全性考虑,非
HTTPS 的服务端央求都不能够联接录制头。但是裁撤办法也可能有的,以 window
系统为例,张开 cmd 命令行面板并一定到 chrome 安装文件夹下,然后实践:

ZSH

chrome
–unsafely-treat-insecure-origin-as-secure=””
–user-data-dir=C:\testprofile

1
chrome –unsafely-treat-insecure-origin-as-secure="http://i.cnblogs.com/h5monitor/final.html"  –user-data-dir=C:\testprofile

此举将以沙箱格局展开一个独立的 chrome
进程,并对点名的站点去掉安全约束。注意我们在新开的 chrome
中得重复登录腾讯网。

此刻便能通常访谈录制头了,大家对代码做下管理,当差别检查评定开掘分外时,创设大器晚成份日记,最小间距时间为5秒(然则后来发现没供给,因为新浪已经有做了岁月范围,大约10秒后手艺发布新的日志卡塔 尔(阿拉伯语:قطر‎

JavaScript

//定期捕获 function timer(delta){ set提姆eout(function(){
captureAndSaveFrame(); renderDiff(); if(calcDiff() > 0.2){
//监察和控制到极度,发日志 submit() } timer(delta) }, delta || 500); }
setTimeout(timer, 60000 * 10); //设定展开页面十分钟后才起来监控//卓殊图片上传管理 function submit(){ var cache = arguments.callee, now
= Date.now(); if(cache.reqTime && (now – cache.reqTime < 5000))
return; //日记成立最小间距为5秒 cache.reqTime = now; //ajax 提交form
$.ajax({ url : ”, type :
“POST”, timeout : 5000, data : { ‘__VIEWSTATE’: ”,
‘__VIEWSTATEGENERATOR’: ‘4773056F’, ‘Editor$Edit$txbTitle’: ‘告警’ +
Date.now(), ‘Editor$Edit$EditorBody’: ‘<img src=”‘%20+%20curFrame%20+%20′”
/>’, ‘Editor$Edit$lkbPost’: ‘保存’ }, success: function(){
console.log(‘submit done’) }, error: function(err){ cache.reqTime = 0;
console.log(‘error: ‘ + err) } }); }

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            renderDiff();
            if(calcDiff() > 0.2){  //监控到异常,发日志
                submit()
            }
 
            timer(delta)
        }, delta || 500);
    }
 
    setTimeout(timer, 60000 * 10);  //设定打开页面十分钟后才开始监控
 
 
    //异常图片上传处理
    function submit(){
        var cache = arguments.callee,
            now = Date.now();
        if(cache.reqTime && (now – cache.reqTime < 5000)) return;  //日记创建最小间隔为5秒
 
        cache.reqTime = now;
 
        //ajax 提交form
        $.ajax({
            url : ‘http://i.cnblogs.com/EditDiary.aspx?opt=1’,
            type : "POST",
            timeout : 5000,
            data : {
                ‘__VIEWSTATE’: ”,
                ‘__VIEWSTATEGENERATOR’: ‘4773056F’,
                ‘Editor$Edit$txbTitle’: ‘告警’ + Date.now(),
                ‘Editor$Edit$EditorBody’: ‘<img src="’%20+%20curFrame%20+%20’" />’,
                ‘Editor$Edit$lkbPost’: ‘保存’
            },
            success: function(){
                console.log(‘submit done’)
            },
            error: function(err){
                cache.reqTime = 0;
                console.log(‘error: ‘ + err)
            }
        });
    }

实施坚守:

永利皇宫 9

日记也是妥妥的出来了:

永利皇宫 10

点开就会来看这些的那张图纸了:

永利皇宫 11

要留神的是,新浪对日记发表数量是有做天天额度限定来防刷的,到达限额的话会以致当天的小说和小说也无计可施公布,所以得严刻接受:

永利皇宫 12

但是这种形式仅能申报十分图片,一时半刻不也许让大家立时收悉告急,有乐趣的童鞋能够试着再写个
chrome 插件,准期去拉取日记列表做判别,假使有新扩充日记则触发页面 alert。

别的我们当然希望能直接对闯入者实行警戒,那块相比好办 ——
搞个警告的节奏,在特别的时候接触播放就可以:

JavaScript

//播放音频 function fireAlarm(){ audio.play() } //定期捕获 function
timer(delta){ setTimeout(function(){ captureAndSaveFrame(); if(preFrame
&& curFrame){ renderDiff(); if(calcDiff() > 0.2){ //监察和控制到十三分//发日记 submit(); //播放音频告急 fireAlarm(); } } timer(delta) }, delta
|| 500); } setTimeout(timer, 60000 * 10);
//设定展开页面十二分钟后才起来监察和控制

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
    //播放音频
    function fireAlarm(){
        audio.play()
    }
 
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            if(preFrame && curFrame){
                renderDiff();
                if(calcDiff() > 0.2){  //监控到异常
                    //发日记
                    submit();
                    //播放音频告警
                    fireAlarm();
                }
            }
            timer(delta)
        }, delta || 500);
    }
 
    setTimeout(timer, 60000 * 10);  //设定打开页面十分钟后才开始监控

提起底说一下,本文代码均挂在我的github上,风乐趣的童鞋能够自助下载。共勉~

1 赞 4 收藏 4
评论

永利皇宫 13

首先,全数关乎到编解码的的成效,都不得不要注册音摄像编解码器之后才具使用。注册编解码调用上边包车型客车函数:

 

文书档案内容

本文使用的XHTML文档如下所示。

XHTML

<!DOCTYPE html PUBLIC “-//W3C//DTD XHTML 1.0 Transitional//EN”
“; <html
xmlns=”; <head> <style> body
{ background: black; color:#CCCCCC; } #c2 { background-image:
url(foo.png); background-repeat: no-repeat; } div { float: left; border
:1px solid #444444; padding:10px; margin: 10px; background:#3B3B3B; }
</style> <script type=”text/javascript;version=1.8″
src=”main.js”></script> </head> <body
onload=”processor.doLoad()”> <div> <video id=”video”
src=”video.ogv” controls=”true”/> </div> <div> <canvas
id=”c1″ width=”160″ height=”96″/> <canvas id=”c2″ width=”160″
height=”96″/> </div> </body> </html>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN"
        "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml">
  <head>
    <style>
      body {
        background: black;
        color:#CCCCCC;
      }
      #c2 {
        background-image: url(foo.png);
        background-repeat: no-repeat;
      }
      div {
        float: left;
        border :1px solid #444444;
        padding:10px;
        margin: 10px;
        background:#3B3B3B;
      }
    </style>
    <script type="text/javascript;version=1.8" src="main.js"></script>
  </head>
 
  <body onload="processor.doLoad()">
    <div>
      <video id="video" src="video.ogv" controls="true"/>
    </div>
    <div>
      <canvas id="c1" width="160" height="96"/>
      <canvas id="c2" width="160" height="96"/>
    </div>
  </body>
</html>

如上代码关键部分如下:

1.创办了五个canvas成分,ID分别为c1和c2。c1用来彰显当前帧的庐山真面目目录像,c2是用来突显推行chroma-keying特效后的录像;c2预加载了一梁欢态图片,将用来代表录制中的背景观部分。
2.JavaScript代码从main.js文件导入;这段脚本使用JavaScript
1.8的特征,所以在导入脚本时,第22行中钦命了版本。
3.当网页加载时,main.js中的processor.doLoad()方法会运行。

ret = av_image_alloc(ctx.frame->data, ctx.frame->linesize,
ctx.c->width, ctx.c->height, ctx.c->pix_fmt, 32);
if (ret < 0)
{
fprintf(stderr, “Could not allocate raw picture buffer\n”);
return false;
}
(3)、编码循环体

48       ctx.lineTo(loc.x,loc.y);

关于笔者:cucr

永利皇宫 14

微博天涯论坛:@hop_ping
个人主页 ·
小编的小说 ·
17

永利皇宫 13

int avcodec_encode_video2(AVCodecContext *avctx, AVPacket *avpkt,
const AVFrame *frame, int *got_packet_ptr);
其参数和重临值的含义:

    钦赐线性渐变时利用createLinearGradient()方法,具体语法如下:

JavaScript代码

main.js中的JS代码满含多个章程。

率先深入分析、管理输入参数,如编码器的参数、图像的参数、输入输出文件;
创立全方位FFMpeg编码器的种种构件工具,顺序依次为:avcodec_register_all
-> avcodec_find_encoder -> avcodec_alloc_context3 ->
avcodec_open2 -> av_frame_alloc -> av_image_alloc;
编码循环:av_init_packet -> avcodec_encode_video2(两次) ->
av_packet_unref
闭馆编码器组件:avcodec_close,av_free,av_freep,av_frame_free

 5 <style type=”text/css”>

初始化chroma-key

doLoad()方法在XHTML文书档案早先加载时调用。那几个方式的机能是为chroma-key处理代码筹算所需的变量,设置一个事件侦听器,当客户早先广播录制时我们能检验到。

JavaScript

doLoad: function() { this.video = document.getElementById(“video”);
this.c1 = document.getElementById(“c1”); this.ctx1 =
this.c1.getContext(“2d”); this.c2 = document.getElementById(“c2”);
this.ctx2 = this.c2.getContext(“2d”); let self = this;
this.video.addEventListener(“play”, function() { self.width =
self.video.videoWidth / 2; self.height = self.video.videoHeight / 2;
self.timerCallback(); }, false); },

1
2
3
4
5
6
7
8
9
10
11
12
13
doLoad: function() {
    this.video = document.getElementById("video");
    this.c1 = document.getElementById("c1");
    this.ctx1 = this.c1.getContext("2d");
    this.c2 = document.getElementById("c2");
    this.ctx2 = this.c2.getContext("2d");
    let self = this;
    this.video.addEventListener("play", function() {
        self.width = self.video.videoWidth / 2;
        self.height = self.video.videoHeight / 2;
        self.timerCallback();
      }, false);
  },

这段代码获取XHTML文书档案中video成分和五个canvas元素的援引,还赢得了三个canvas的图纸上下文的引用。这一个将要大家达成chroma-keying特效时使用。

addEventListener()监听video成分,当客户按下摄像上的播放开关时被调用。为了回应客商重播,这段代码获取录像的增加率和高度,并且减半(大家就要推行chroma-keying效果时将录制的尺寸减半卡塔 尔(阿拉伯语:قطر‎,然后调用timerCallback()方法来运转录制捕捉和视觉效果计算。

AVCodec *avcodec_find_encoder(enum AVCodecID id);
该函数的输入参数为一个AVCodecID的枚举类型,再次回到值为八个指向AVCodec结构的指针,用于收纳找到的编解码器实例。若无找到,那么该函数会回到一个空指针。调用方法如下:

 8     border-width: 5px;

沙漏回调

反应计时器回调函数在录像初始广播时被调用(当“播放”事件发生时卡塔 尔(英语:State of Qatar),然后担负自身周期调用,为每生机勃勃帧摄像完成keying特效。

JavaScript

timerCallback: function() { if (this.video.paused || this.video.ended) {
return; } this.computeFrame(); let self = this; setTimeout(function () {
self.timerCallback(); }, 0); },

1
2
3
4
5
6
7
8
9
10
timerCallback: function() {
    if (this.video.paused || this.video.ended) {
      return;
    }
    this.computeFrame();
    let self = this;
    setTimeout(function () {
        self.timerCallback();
      }, 0);
  },

回调函数首先检查录疑似否正在播放;若无,回调函数不做其余事并当即赶回。

接下来调用computeFrame()方法,该办法对现阶段录制帧执行chroma-keying特效。

回调函数做的结尾生机勃勃件事正是调用setTimeout(),来让它本身尽快地被重新调用。在切实地工作情况中,你可能会依据摄像的帧率来设置调用频率。

/* encode 1 second of video */
for (frameIdx = 0; frameIdx < io_param.nTotalFrames; frameIdx++)
{
av_init_packet(&(ctx.pkt)); //初始化AVPacket实例
ctx.pkt.data = NULL; // packet data will be allocated by the encoder
ctx.pkt.size = 0;

复制代码

管理录制帧数据

computeFrame()方法,如下所示,实际上担负抓取每风度翩翩帧的多少和实践chroma-keying特效。

JavaScript

computeFrame: function() { this.ctx1.drawImage(this.video, 0, 0,
this.width, this.height); let frame = this.ctx1.getImageData(0, 0,
this.width, this.height); let l = frame.data.length / 4; for (let i = 0;
i < l; i++) { let r = frame.data[i * 4 + 0]; let g = frame.data[i
* 4 + 1]; let b = frame.data[i * 4 + 2]; if (g > 100 && r >
100 && b < 43) frame.data[i * 4 + 3] = 0; }
this.ctx2.putImageData(frame, 0, 0); return; }

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
computeFrame: function() {
    this.ctx1.drawImage(this.video, 0, 0, this.width, this.height);
    let frame = this.ctx1.getImageData(0, 0, this.width, this.height);
    let l = frame.data.length / 4;
 
    for (let i = 0; i < l; i++) {
      let r = frame.data[i * 4 + 0];
      let g = frame.data[i * 4 + 1];
      let b = frame.data[i * 4 + 2];
      if (g > 100 && r > 100 && b < 43)
        frame.data[i * 4 + 3] = 0;
    }
    this.ctx2.putImageData(frame, 0, 0);
    return;
  }

当它被调用后,video成分将显得前段时间的录像帧数据,如下所示:

永利皇宫 16

在第2行,摄像帧被复制到第叁个canvas
ctx1的图纸上下文中,高度和宽度值钦点为大家事先封存的帧大小的二分之一。注意,您能够经过传递video成分到绘图上下文的drawImage()方法来绘制当前录制帧。其结果是:

永利皇宫 17

第3行代码通过调用第八个canvas上下文的getImageData()方法,来博取原始图像数据当前摄像帧的三个别本。它提供了庐山真面目指标三拾人像素图像数据,那样大家就可以预知进行操作。第4行代码通过将帧图像数据的路途度除以4,来测算图像的总像素数。

第6行代码循环扫描全体像素,获取各种像素的红、绿、蓝值,同有时候和预订义的背景观实行相比较,那个背景象将用foo.png中程导弹入的背景图像替换。

被检查评定成背景的每四个像素,将它的阿尔法值替换为零,表明该像素是一心透明的。结果,最后的图像背景有个别是百分百晶莹剔透的,那样在第13行代码,把它被绘制到对象的上下文中时,效果是内容叠合到静态背景上。

经过产生的图像看起来像这么:

永利皇宫 18

在录像播放时每每那样做,那样后生可畏帧接意气风发帧管理,显示出chroma-key的特效。

请看那一个实例。

1 赞 1 收藏
评论

avctx: AVCodecContext结构,钦定了编码的部分参数;
avpkt: AVPacket对象的指针,用于保存输出码流;
frame:AVframe结构,用于传入原始的像素数量;
got_packet_ptr:输出参数,用于标记AVPacket中是不是业原来就有了完整的意气风发帧;
重临值:编码是还是不是中标。成功再次来到0,退步则赶回负的错误码
通过输出参数*got_packet_ptr,大家可以判断是还是不是应当大器晚成帧完整的码流数据包输出,若是是,那么能够将AVpacket中的码流数据输出出来,其地址为AVPacket::data,大小为AVPacket::size。具体调用方式如下:

  context.arcTo(x1,y1,x2,y2,半径);

/* encode the image */
ret = avcodec_encode_video2(ctx.c, &(ctx.pkt), ctx.frame,
&got_output); //将AVFrame中的像素音讯编码为AVPacket中的码流
if (ret < 0)
{
fprintf(stderr, “Error encoding frame\n”);
exit(1);
}

 2卡塔尔圆形渐变

ctx.frame = av_frame_alloc(); //分配AVFrame对象
if (!ctx.frame)
{
fprintf(stderr, “Could not allocate video frame\n”);
return false;
}
ctx.frame->format = ctx.c->pix_fmt;
ctx.frame->width = ctx.c->width;
ctx.frame->height = ctx.c->height;
分配像素的存款和储蓄空间须要调用av_image_alloc函数,其注解情势为:

 

编码前其余索要做到的操作时初始化AVPacket对象。该对象保存了编码之后的码流数据。对其进展初步化的操作特简单,只须要调用av_init_packet并传到AVPacket对象的指针。随后将AVPacket::data设为NULL,AVPacket::size赋值0.

27   var startAngle=0;

AVCodecContext *avcodec_alloc_context3(const AVCodec *codec);
其特点同avcodec_find_encoder相似,重回一个指向AVCodecContext实例的指针。假若分配失利,会回来三个空指针。调用方式为:

 

这一步大家得以设置多个特意的布局文件,并将参数根据有个别事写入那些布局文件中,再在前后相继中剖判那一个布局文件拿到编码的参数。如若参数非常的少以来,大家得以向来动用命令行将编码参数字传送入就可以。

 8     border-style: dashed;

选择FFMpeg实行摄像编码的入眼流程如:

 47             while(dp.firstChild)

int avcodec_open2(AVCodecContext *avctx, const AVCodec *codec,
AVDictionary **options);
该函数的前八个参数是我们恰巧建设构造的多少个对象,第几个参数为叁个字典类型对象,用于保存函数推行进度总不可能识别的AVCodecContext和此外一些民用设置选项。函数的重临值表示编码器是或不是展开成功,若成功重回0,失利再次来到叁个负数。调用格局为:

 

(1)、输入编码参数

14 </head>

} //for (frameIdx = 0; frameIdx < io_param.nTotalFrames;
frameIdx++)
(4)、收尾管理

37 </html>

fflush(stdout);

Read_yuv_data(ctx, io_param, 0);        //Y分量
Read_yuv_data(ctx, io_param, 1);        //U分量
Read_yuv_data(ctx, io_param, 2);        //V分量

ctx.frame->pts = frameIdx;

/* encode the image */
ret = avcodec_encode_video2(ctx.c, &(ctx.pkt), ctx.frame, &got_output); //将AVFrame中的像素信息编码为AVPacket中的码流
if (ret < 0) 
{
    fprintf(stderr, "Error encoding frame\n");
    exit(1);
}

if (got_output) 
{
    //获得一个完整的编码帧
    printf("Write frame %3d (size=%5d)\n", frameIdx, ctx.pkt.size);
    fwrite(ctx.pkt.data, 1, ctx.pkt.size, io_param.pFout);
    av_packet_unref(&(ctx.pkt));
}

举个栗子:

ctx.c = avcodec_alloc_context3(ctx.codec); //分配AVCodecContext实例
if (!ctx.c)
{
fprintf(stderr, “Could not allocate video codec context\n”);
return false;
}
需注意,在分配成功之后,应将编码的参数设置赋值给AVCodecContext的分子。

29 </script>

为了促成调用FFMpeg的API实现录制的编码,以下结构是必备的:

  1) beginPath() 重新恢复生机设置路线的最初

到此结束,大家的希图工作已经大致形成,上边在此之前实践实际编码的轮回进度。用伪代码差不离表示编码的流水生产线为:

4卡塔尔国绘制矩形的rect()方法

/* get the delayed frames */
for (got_output = 1; got_output; frameIdx++)
{
fflush(stdout);

118 <body>

(2)、依据供给初步化供给的FFMpeg结构

 

int av_image_alloc(uint8_t *pointers[4], int linesizes[4], int
w, int h, enum AVPixelFormat pix_fmt, int align);
该函数的多少个参数分别代表AVFrame结构中的缓存指针、种种颜色分量的上涨的幅度、图像分辨率(宽、高卡塔尔国、像素格式和内部存款和储蓄器对其的轻重。该函数会重返分配的内部存款和储蓄器的高低,假若失利则赶回四个负值。具体调用情势如:

 

avcodec_close(ctx.c);
av_free(ctx.c);
av_freep(&(ctx.frame->data[0]));
av_frame_free(&(ctx.frame));
3、总结

    线性渐变与圆圈渐变

/* find the mpeg1 video encoder */
ctx.codec = avcodec_find_encoder(AV_CODEC_ID_H264);
//根据CODEC_ID查找编解码器对象实例的指针
if (!ctx.codec)
{
fprintf(stderr, “Codec not found\n”);
return false;
}
AVCodec查找成功后,下一步是分配AVCodecContext实例。分配AVCodecContext实例要求大家前面查找到的AVCodec作为参数,调用的是avcodec_alloc_context3函数。其宣称形式为:

 

ret = avcodec_encode_video2(ctx.c, &(ctx.pkt), NULL, &got_output);      //输出编码器中剩余的码流
if (ret < 0)
{
    fprintf(stderr, "Error encoding frame\n");
    exit(1);
}

if (got_output) 
{
    printf("Write frame %3d (size=%5d)\n", frameIdx, ctx.pkt.size);
    fwrite(ctx.pkt.data, 1, ctx.pkt.size, io_param.pFout);
    av_packet_unref(&(ctx.pkt));
}

 ctx.putImageData(imagedata,dx,dy)
将imagedata所代表的图像绘制在极点坐标为(dx,dy)处。

while (numCoded < maxNumToCode)
{
read_yuv_data();
encode_video_frame();
write_out_h264();
}
其中,read_yuv_data部分直接行使fread语句读取就能够,只必要了解的是,八个颜色分量Y/U/V的地点分别为AVframe::data[0]、AVframe::data[1]和AVframe::data[2],图像的上涨的幅度分别为AVframe::linesize[0]、AVframe::linesize[1]和AVframe::linesize[2]。须求注意的是,linesize中的值日常指的是stride并不是width,约等于说,像素保存区或许是含有自然幅度的失效边区的,在读取数据时需注意。

 8     border-style: dashed;

1、FFMpeg举行录像编码所须求的组织:

 72                  var w=parseInt(image.width);

avcodec_register_all();
编解码器注册成功之后,根据内定的CODEC_ID查找内定的codec实例。CODEC_ID日常内定了编解码器的格式,在那我们采取当前应用最为普及的H.264格式为例。查找codec调用的函数为avcodec_find_encoder,其表明格式为:

 4 <meta charset=”utf-8″ />

AVCodec:AVCodec结构保留了一个编解码器的实例,达成实际的编码功用。平常我们在前后相继中定义三个指向AVCodec结构的指针指向该实例。
AVCodecContext:AVCodecContext表示AVCodec所代表的上下文音讯,保存了AVCodec所必要的片段参数。对于贯彻编码成效,我们得以在此个结构中装置大家钦定的编码参数。平时也是概念三个指南针指向AVCodecContext。
AVFrame:AVFrame结构保留编码在此以前的像素数量,并作为编码器的输入数据。其在前后相继中也是三个指南针的方式。
AVPacket:AVPacket表示码流包结构,蕴涵编码之后的码流数据。该组织能够不定义指针,以一个目的的花样定义。
在大家的程序中,我们将这么些组织构成在了多个结构体中:

 1 <!DOCTYPE html>

/*****************************************
Struct: CodecCtx
Description: FFMpeg编解码器上下文
*****************************************/
typedef struct
{
AVCodec *codec; //指向编解码器实例
AVFrame *frame; //保存解码之后/编码在此之前的像素数量
AVCodecContext *c; //编解码器上下文,保存编解码器的有个别参数设置
AVPacket pkt; //码流包结构,包蕴编码码流数据
} CodecCtx;
2、FFMpeg编码的显要步骤:

28   ctx.bezierCurveTo(100,280,180,280,280,20);

} //for (got_output = 1; got_output; frameIdx++)
事后,大家就足以按布署关闭编码器的相继零器件,截止全数编码的流水生产线。编码器组件的放走流程可类比创建流程,需求关闭AVCocec、释放AVCodecContext、释放AVFrame中的图像缓存和对象自己:

 6.绘制图像

假若大家就此截止编码器的全部运维进度,我们会发觉,编码完成现在的码流相比较原来的数码少了风度翩翩帧。那是因为大家是基于读取原始像素数据停止来决断循环结束的,那样结尾大器晚成帧还保留在编码器中平昔不输出。所以在关门全数解码进度早前,大家必需继续奉行编码的操作,直到将最后风度翩翩帧输出停止。施行那项操作依旧调用avcodec_encode_video2函数,只是表示AVFrame的参数设为NULL就可以:

20                ctx.fillStyle=’rgba(192,80,77,0.7)’;   

马到功成将原始的YUV像素值保存到了AVframe结构中事后,便得以调用avcodec_encode_video2函数进行实际的编码操作。该函数可谓是全体育工作程的中央所在,其声称情势为:

 

if (avcodec_open2(ctx.c, ctx.codec, NULL) < 0)
//依照编码器上下文展开编码器
{
fprintf(stderr, “Could not open codec\n”);
exit(1);
}
下一场,大家要求管理AVFrame对象。AVFrame表示录像原始像素数据的二个容器,管理该项目数据必要多少个步骤,其一是分配AVFrame对象,其二是分配实际的像素数量的储存空间。分配对象空间相通于new操作符同样,只是须要调用函数av_frame_alloc。借使战败,那么函数再次回到二个空指针。AVFrame对象分配成功后,须要设置图像的分辨率和像素格式等。实际调用进度如下:

 

if (got_output)
{
//拿到三个生龙活虎体化的编码帧
printf(“Write frame %3d (size=%5d)\n”, frameIdx, ctx.pkt.size);
fwrite(ctx.pkt.data, 1, ctx.pkt.size, io_param.pFout);
av_packet_unref(&(ctx.pkt));
}
之所以,八个完好的编码循环提就能够使用上边包车型大巴代码实现:

13 </head>

近日,AVCodec、AVCodecContext的指针都曾经分配好,然后以这两个目的的指针作为参数展开编码器对象。调用的函数为avcodec_open2,注明格局为:

20   

简述之,使用getImageData()方法抽出Canvas上海体育场地像的像素数量,通过JavaScript加工过那个像素数量后,使用putImageData方法,重新绘制到Canvas中。

 2 <html>

 
 线性渐变就是从左至右(或自上而下卡塔尔依次显示慢慢成形的水彩。而圆形渐变自圆心向外部渐渐展现变化的颜料。

37       var canvas=event.target;

 30           //页面导入时的处理

38                ctx.strokeStyle=’rgba(128,100,162,1)’;

 62          //展现拖入图像文件

15 hello HTML5!

25   //路线开首

16 <canvas id=”c1″ width=”300″ height=”300″ ></canvas>

32   ctx.strokeStyle=”#ff0000″;

22 function getPointOnCanvas(canvas, x, y) {

  1 <!DOCTYPE html>

26   ctx.fillStyle=”rgba(0,0,255,0.5)”;

      context.quadraticCurveTo(cpx,cpy,x,y);

27                ctx.arc(125,95,35,0,Math.PI*2,false);

 98              var pixels=len/4;

 ② context.fillRect(x,y,w,h)   填充矩形

 91                  }

 49                 dp.removeChild(dp.firstChild);

 3 <head>

30   var ctx=canvas.getContext(“2d”); 

 

120 <p>将桌面图像文件拖动到此处。</p>

 

31   //进行绘图管理

 76                  canvas.width=w;

107                  //将转变后的像素数量设置到原本数组成分中

34   ctx.stroke();

  arcTo()方法的语法如下:

 31           window.addEventListener(“load”,function(){

 

18 <script type=”text/javascript”>

 46             //清空显示区域

31   //绘制处理

 93          

 6      canvas {

30   

14 <body>

 2 <html>

 

 

 图像绘制的骨干步骤如下:

 

 5 <style type=”text/css”>

20   

45 <canvas id=”c1″ width=”300″ height=”150″ ></canvas>

 

  image.onload=function(){//图像读取时的拍卖}

 

35 </script>

  上面制作八个当顾客触摸屏幕时在触摸地点绘制三角形的实例程序
(书上的是客商触摸显示屏时绘制,以往改一下,鼠标移动时在移动的职位绘制三角形卡塔尔国效果:

  // 追加渐变颜色  
CanvasGradient.addColorStop(颜色起首的对峙地点,颜色);

 2卡塔尔fill()填充路线

复制代码

1.第一个Canvas程序 

12 

 5 <style type=”text/css”>

 

51       ctx.strokeStyle=”red”;

ctx.strokeStyle=”#ff0000″;

24   g.addColorStop(0.7,”yellow”);

 56             if(!/^image/.test(file.type)){alert(“请拖入图像文件”);}

 

 

 

 3卡塔尔国lineWidth 钦定路径线的粗细

5.绘制渐变效果

23   ctx.fillRect(0,0,300,300);

14 <body>

49       

24   //描绘圆弧

15 hello HTML5!

 

 

55 </html>

 3 <head>

11 }

16 <canvas id=”c1″ width=”300″ height=”300″ ></canvas>

 

 

43       

 

 

12 

21   //得到绘图用的上下文对象

32                

35 </script>

ctx.fillStyle=”#0000ff”;

119 <div id=”dp”>

 

12 </style>

 6      canvas {

 

 12    min-height:70px;

  8     font-size:80%;

19   var ctx=canvas.getContext(“2d”);

46       ctx.lineTo(loc.x,loc.y+r);

16 <canvas id=”c1″ width=”300″ height=”300″ ></canvas>

29   //路线绘制甘休

 

11 </style>

复制代码

 9     border-color: rgba(20, 126, 239, 0.50)

 

 77                  canvas.height=h;

24   g.addColorStop(1,”rgb(255,255,0)”); //黄色

 3 <head>

 32                  //获取拖动区域的div成分

 

37 </html>

 1 <!DOCTYPE html>

33   ctx.lineWidth=3;

34       //得到鼠标移动处的坐标

20   

 20         }

  效果:

44       ctx.beginPath();

21                ctx.fill();

25   //路线的绘图

21   //使用颜色填充矩形

代码如下:

 作者本人从当中演习的知识点应该是

17 <script type=”text/javascript”>

31   //设置Canvas的onmouse事件

15 hello HTML5!

31                ctx.stroke();

 97              var len=data.length;

19                ctx.arc(150,45,35,0,Math.PI*2,false);

复制代码

 

14 <body>

 

23   //路线绘制开端

33   ctx.lineWidth=3;

16 <canvas id=”c1″ width=”300″ height=”300″ ></canvas>

 

19   var ctx=canvas.getContext(“2d”);

103                  var b=data[i*4+2];

12 </style>

 

11 </style>

 

 

25                //圆2

 14    background-color:#eeeeee;

29 </body>

 

 

   ③imagedata.data  图像数量(CanvasPixelArray类型卡塔 尔(阿拉伯语:قطر‎

You can leave a response, or trackback from your own site.

Leave a Reply

网站地图xml地图