Html5 canvas画图教程22:获取与操作像素信息getImageData

2018-03-09 02:10:58

getImageData的直译即“获得图像数据”,他的作用是从canvas中提取像素出来。所以,他是有返回值的。

语法及返回值

ctx.getImageData(x,y,width,height);

这就是他的语法。而他的返回值是一个ImageData对象:

ImageData { width=10, height=10, data=Uint8ClampedArray}

这个ImageData对象包括:width,height,以及一个像素信息数组data。

这个像素信息数组是重中之重。他包括red,green,blue,和alpha,且每个都是0-255的数值——连alpha也是。

这个data数组的大小由像素个数决定,即ImageData的width*height.如getImageData(1,1,1,1),那data就只有一个像素信息;而getImageData(1,1,10,10),则有10*10=100个。

而像素信息在data中是怎么保存的呢?本来我的理解,data可以是一个二维数组,每个元素就是一个数组,每个元素保存一个像素信息。

但是,我错了。data只是个一维数组

data的元素始终依次是red,green,blue,alpha,red,green,blue。。。一直重复到最后一个。

所以,data的length始终是像素个数*4.而在循环data的时候,也是以4为步进。

了解了这个ImageData对象,那么,像素提取出来有什么用呢?我们可以把提出来的像素进行一些操作,然后放回canvas里,就能得到一幅新的图像——比如类似PS的滤镜效果。

而把ImageData放入canvas的方法,则是putImageData.

ctx.putImageData(imagedata,x,y)

注意,putImageData就没有width,height参数了,因为他们已经包含在了imagedata对象中

图形例子

我画了一个圆形和一个矩形,再从中提取像素:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23

ctx.arc(100,100,50,0,Math.PI*2);
ctx.fillStyle = "rgba(234,1,1,0.6)";
ctx.fill();
ctx.beginPath();
ctx.fillStyle = 'rgba(1,234,1,0.7)';
ctx.fillRect(100,100,70,100);
ca.onclick = function  (e) {
    var x = e.clientX,
        y = e.clientY,
        caL = ca.getBoundingClientRect().left,
        caT = ca.getBoundingClientRect().top;
    var X = x-caL, Y = y-caT;
    // console.log('X:'+X+',Y:'+Y);
    var imagedata = ctx.getImageData(X,Y,10,10);
    for(var i=0,dl = imagedata.data.length;i<dl;i+=4) {
        imagedata.data[i] = 255-imagedata.data[i];
        imagedata.data[i+1] = 255-imagedata.data[i];
        imagedata.data[i+2] = 255-imagedata.data[i];
    }
    ctx.putImageData(imagedata,X,Y);
    // jg.innerHTML = data.data;
    console.log(imagedata);
}

我把像素提出来后,对每个像素进行了反色(即255-本色),但我没改alpha通道。然后把改变后的imagedata放入canvas中。

效果预览:
[runcode id=’ksjdklj’] 
点图形看结果
[/runcode]

不过,这效果太没特色了,无法激发人的学习欲望。所以我再写一个变图片的吧.

进行图像反色

[runcode id=”sjdk”]原图:偷自w3c

 
点图形看结果
[/runcode]

注意,经实验,imagedata的width和height是只读的

效率问题

如果imagedata.data包含的像素越多,则在循环时耗时更久,对每个像素操作也会花去很多时间。

简单的说,图片越大,得到的像素越多,就越卡!!

总结:

  1. getImageData有返回值,是imageData对象。包括width,height,data

  2. imagedata.data以4为步进

  3. imagedata的width与height不可更改

  4. imagedata不放入canvas中就没有作用


  • 2019-12-17 11:56:05

    ffmpeg concat video and mix audio,ffmpeg简单快速的合并视频

    在ffmpeg中,官网给出两种连接媒体文件(音频、视频、etc..)的解决方案。 the concat "demuxer" the concat "protocol" 对比而言, demuxer更加灵活一些,需要媒体文件是属于相同的编解码器,但是可以属于不同的容器格式(mp3,wav, mp4, mov, etc..). 而protocol只适用于少数集中容器格式。

  • 2019-12-17 11:58:55

    FFmpeg文章目录

    seek ffmpeg # How to seek in mp4/mkv/ts/flv ffmpeg # flags &= ~AVSEEK_FLAG_BACKWARD ffmpeg # AVSEEK_FLAG concat ffmpeg # concat 连接两个视频 ffmpeg # -f concat -i mylist.txt ffmpeg # concat详解+音画同步策略 截图

  • 2019-12-18 23:26:00

    FFMPEG命令记录

    ffmpeg,拼接两个音频,剪切音频片段,多个音频混音,剪切一段MP4并转换成gif,改变音量大小,音频淡入淡出,音频格式处理

  • 2019-12-19 00:04:44

    ffmpeg concat video and mix audio

    在ffmpeg中,官网给出两种连接媒体文件(音频、视频、etc..)的解决方案。 the concat "demuxer" the concat "protocol" 对比而言, demuxer更加灵活一些,需要媒体文件是属于相同的编解码器,但是可以属于不同的容器格式(mp3,wav, mp4, mov, etc..). 而protocol只适用于少数集中容器格式。

  • 2019-12-19 00:16:30

    android采用FFmpeg实现音频混合与拼接剪切

    接触FFmpeg有一段时间了,它是音视频开发的开源库,几乎其他所有播放器、直播平台都基于FFmpeg进行二次开发。本篇文章来总结下采用FFmpeg进行音频处理:音频混合、音频剪切、音频拼接与音频转码。

  • 2019-12-19 15:01:58

    spring boot 在Linux下服务启动报错Unable to find Java

    将 Spring boot 安装为 Linux 服务启动,后输入 service myapp start 报错 Unable to find Java ,但是使用 java -jar myapp.jar 启动成功。不知道为啥引起的,经过百度找到下面这个解决方法和我的情况一样,终于把问题解决