嵌入式开发者社区

标题: 关于VPIF_OV2640demo的问题 [打印本页]

作者: 蓝色火焰john    时间: 2014-9-23 19:23
标题: 关于VPIF_OV2640demo的问题
请问如何查看将此demo中采集到的视频数据的存储地址,或是图像二维数组的地址。我想只有知道图像二维数组的地址后,才能将demo所采集的数据进行处理,对吗?


作者: 蓝色火焰john    时间: 2014-9-24 08:07
求创龙程序员老师解答

作者: 希望缄默    时间: 2014-9-24 09:11



显然是 image[800*600*2] 这个变量~

作者: 蓝色火焰john    时间: 2014-9-24 09:55
希望缄默 发表于 2014-9-24 09:11
显然是 image[800*600*2] 这个变量~

我若想将输出视频二值化,应该怎么办,例如在哪个函数下添加代码,我是菜鸟,请老师讲的稍微详细点

作者: 蓝色火焰john    时间: 2014-9-24 10:14
希望缄默 发表于 2014-9-24 09:11
显然是 image[800*600*2] 这个变量~

在做完二值化输出我只是做个测试,本目的是将采集到的图像先读到dsp的ddr里,然后处理,显示,该怎么操作


作者: 希望缄默    时间: 2014-9-24 19:50
蓝色火焰john 发表于 2014-9-24 09:55
我若想将输出视频二值化,应该怎么办,例如在哪个函数下添加代码,我是菜鸟,请老师讲的稍微详细点
...

很简单啊
可以自己写函数 RGB图像>提取亮度分量>灰度图像>像素点亮度值 非0即1>二值化图像

也可以调用 OpenCV 图像函数库

作者: 希望缄默    时间: 2014-9-24 19:51
蓝色火焰john 发表于 2014-9-24 10:14
在做完二值化输出我只是做个测试,本目的是将采集到的图像先读到dsp的ddr里,然后处理,显示,该怎么操作 ...

程序的所有数据本来就在 DDR 中
关于这个你可以看下 DSP的视频教程

作者: 蓝色火焰john    时间: 2014-9-24 20:24
希望缄默 发表于 2014-9-24 19:51
程序的所有数据本来就在 DDR 中
关于这个你可以看下 DSP的视频教程

是点亮LED的视频吗

作者: 蓝色火焰john    时间: 2014-9-27 22:09
希望缄默 发表于 2014-9-24 19:50
很简单啊
可以自己写函数 RGB图像>提取亮度分量>灰度图像>像素点亮度值 非0即1>二值化图像

请问如何在CCS下调用opencv函数库

作者: shjjsj    时间: 2014-9-28 07:58
请问:希望缄默 image[800*600*2]里面存放什么格式的图像?

作者: 希望缄默    时间: 2014-9-28 10:15
shjjsj 发表于 2014-9-28 07:58
请问:希望缄默 image[800*600*2]里面存放什么格式的图像?

RGB16

作者: 希望缄默    时间: 2014-9-28 10:16
蓝色火焰john 发表于 2014-9-27 22:09
请问如何在CCS下调用opencv函数库

下载源码>CCS编译

作者: shjjsj    时间: 2014-9-28 10:55
什么是RGB16格式,劳请详细解释。我知道RGB,每个颜色8个bit

作者: 希望缄默    时间: 2014-9-28 14:42
shjjsj 发表于 2014-9-28 10:55
什么是RGB16格式,劳请详细解释。我知道RGB,每个颜色8个bit

呃~ 这个.....
转载~
YUV / RGB 格式及快速转换算法
1 前言

        自然界的颜色千变万化,为了给颜色一个量化的衡量标准,就需要建立色彩空间模型来描述各种各样的颜色,由于人对色彩的感知是一个复杂的生理和心理联合作用的过程,所以在不同的应用领域中为了更好更准确的满足各自的需求,就出现了各种各样的色彩空间模型来量化的描述颜色。我们比较常接触到的就包括 RGB / CMYK / YIQ / YUV / HSI等等。

        对于数字电子多媒体领域来说,我们经常接触到的色彩空间的概念,主要是RGB , YUV这两种(实际上,这两种体系包含了许多种具体的颜色表达方式和模型,如sRGB, Adobe RGB, YUV422, YUV420 …), RGB是按三基色加光系统的原理来描述颜色,而YUV则是按照 亮度,色差的原理来描述颜色。

        即使只是RGB YUV这两大类色彩空间,所涉及到的知识也是十分丰富复杂的,自知不具备足够的相关专业知识,所以本文主要针对工程领域的应用及算法进行讨论。

2 YUV相关色彩空间模型2.1 YUV 与 YIQ YcrCb

        对于YUV模型,实际上很多时候,我们是把它和YIQ / YCrCb模型混为一谈的。

        实际上,YUV模型用于PAL制式的电视系统,Y表示亮度,UV并非任何单词的缩写。

        YIQ模型与YUV模型类似,用于NTSC制式的电视系统。YIQ颜色空间中的I和Q分量相当于将YUV空间中的UV分量做了一个33度的旋转。

        YCbCr颜色空间是由YUV颜色空间派生的一种颜色空间,主要用于数字电视系统中。从RGB到YCbCr的转换中,输入、输出都是8位二进制格式。

        三者与RGB的转换方程如下:

        RGB -> YUV:


       实际上也就是:

Y=0.30R+0.59G+0.11B , U=0.493(B-Y) , V=0.877(R-Y)

        RGB -> YIQ:

       RGB -> YCrCb:

        从公式中,我们关键要理解的一点是,UV / CbCr信号实际上就是蓝色差信号和红色差信号,进而言之,实际上一定程度上间接的代表了蓝色和红色的强度,理解这一点对于我们理解各种颜色变换处理的过程会有很大的帮助。

        我们在数字电子多媒体领域所谈到的YUV格式,实际上准确的说,是以YcrCb色彩空间模型为基础的具有多种存储格式的一类颜色模型的家族(包括YUV444 / YUV422 / YUV420 / YUV420P等等)。并不是传统意义上用于PAL制模拟电视的YUV模型。这些YUV模型的区别主要在于UV数据的采样方式和存储方式,这里就不详述。

        而在Camera Sensor中,最常用的YUV模型是 YUV422格式,因为它采用4个字节描述两个像素,能和RGB565模型比较好的兼容。有利于Camera Sensor和Camera controller的软硬件接口设计。

3 YUV2RGB快速算法分析

        这里指的YUV实际是YcrCb了,YUV2RGB的转换公式本身是很简单的,但是牵涉到浮点运算,所以,如果要实现快速算法,算法结构本身没什么好研究的了,主要是采用整型运算或者查表来加快计算速度。
首先可以推导得到转换公式为:

        R = Y + 1.4075 *(V-128)
        G = Y – 0.3455 *(U –128) – 0.7169 *(V –128)
        B = Y + 1.779 *(U – 128)

3.1 整型算法

       要用整型运算代替浮点运算,当然是要用移位的办法了,我们可以很容易得到下列算法:

        u = YUVdata[UPOS] - 128;
        v = YUVdata[VPOS] - 128;

        rdif = v + ((v * 103) >> 8);
        invgdif = ((u * 88) >> 8) +((v * 183) >> 8);
        bdif = u +( (u*198) >> 8);

        r = YUVdata[YPOS] + rdif;
        g = YUVdata[YPOS] - invgdif;
        b = YUVdata[YPOS] + bdif;

为了防止出现溢出,还需要判错计算的结果是否在0-255范围内,做类似下面的判断。

        if (r>255)
            r=255;
        if (r<0)
            r=0;

        要从RGB24转换成RGB565数据还要做移位和或运算:

        RGBdata[1] =( (r & 0xF8)  | ( g >> 5) );
        RGBdata[0] =( ((g & 0x1C) << 3) | ( b >> 3) );

3.2 部分查表法

        查表法首先可以想到的就是用查表替代上述整型算法中的乘法运算。

        rdif = fac_1_4075;
        invgdif = fac_m_0_3455 + fac_m_0_7169[v];
        bdif = fac_1_779;

        这里一共需要4个1维数组,下标从0开始到255,表格共占用约1K的内存空间。uv可以不需要做减128的操作了。在事先计算对应的数组元素的值的时候计算在内就好了。

        对于每个像素,部分查表法用查表替代了2次减法运算和4次乘法运算,4次移位运算。但是,依然需要多次加法运算和6次比较运算和可能存在的赋值操作,相对第一种方法运算速度提高并不明显。

3.3 完全查表法

        那么是否可以由YUV直接查表得到对应的RGB值呢?乍一看似乎不太可能,以最复杂的G的运算为例,因为G与YUV三者都相关,所以类似 G=YUV2G[Y][U][V]这样的算法,一个三维下标尺寸都为256的数组就需要占用2的24次方约16兆空间,绝对是没法接受的。所以目前多数都是采用部分查表法。

        但是,如果我们仔细分析就可以发现,对于G我们实际上完全没有必要采用三维数组,因为Y只与UV运算的结果相关,与UV的个体无关,所以我们可以采用二次查表的方法将G的运算简化为对两个二维数组的查表操作,如下:

        G = yig2g_table[ y ][ uv2ig_table[ u ][ v ] ];

        而RB本身就只和YU或YV相关,所以这样我们一共需要4个8*8的二维表格,需要占用4乘2的16次方共256K内存。基本可以接受。但是对于手机这样的嵌入式运用来说,还是略有些大了。

        进一步分析,我们可以看到,因为在手机等嵌入式运用上我们最终是要把数据转换成RGB565格式送到LCD屏上显示的,所以,对于RGB三分量来说,我们根本不需要8bit这么高的精度,为了简单和运算的统一起见,对每个分量我们其实只需要高6bit的数据就足够了,所以我们可以进一步把表格改为4个6*6的二维表格,这样一共只需要占用16K内存!在计算表格元素值的时候还可以把最终的溢出判断也事先做完。最后的算法如下:

        y = (YUVdata[Y1POS] >> 2);
        u = (YUVdata[UPOS] >> 2);
        v = (YUVdata[VPOS] >> 2);

        r = yv2r_table[ y ][ v ];
        g = yig2g_table[ y ][ uv2ig_table[ u ][ v ] ];
        b = yu2b_table[ y ][ u ];

        RGBdata[1] =( (r & 0xF8)  | ( g >> 5) );
        RGBdata[0] =( ((g & 0x1C) << 3) | ( b >> 3) );

        这样相对部分查表法,我们增加了3次移位运算,而进一步减少了4次加法运算和6次比较赋值操作。

        在计算表格元素数值的时候,要考虑舍入和偏移等因数使得计算的中间结果满足数组下标非负的要求,需要一定的技巧。

        采用完全查表法,相对于第一种算法,最终运算速度可以有比较明显的提高,具体性能能提高多少,要看所在平台的CPU运算速度和内存存取速度的相对比例。内存存取速度越快,用查表法带来的性能改善越明显。在我的PC上测试的结果性能大约能提高35%。而在某ARM平台上测试只提高了约15%。

3.4 进一步的思考

        实际上,上述算法:

        RGBdata[1] =( (r & 0xF8)  | ( g >> 5) );
        RGBdata[0] =( ((g & 0x1C) << 3) | ( b >> 3) );

        中的 (r & 0xF8) 和 ( b >> 3) 等运算也完全可以在表格中事先计算出来。另外,YU / YV的取值实际上不可能覆盖满6*6的范围,中间有些点是永远取不到的无输入,RB的运算也可以考虑用5*5的表格。这些都可能进一步提高运算的速度,减小表格的尺寸。

        另外,在嵌入式运用中,如果可能尽量将表格放在高速内存如SRAM中应该比放在SDRAM中更加能发挥查表法的优势。

4 RGB2YUV ?

        目前觉得这个是没法将3维表格的查表运算化简为2维表格的查表运算了。只能用部分查表法替代其中的乘法运算。

        另外,多数情况下,我们需要的还是YUV2RGB的转换,因为从Sensor得到的数据通常我们会用YUV数据,此外JPG和MPEG实际上也是基于YUV格式编码的,所以要显示解码后的数据需要的也是YUV2RGB的运算。




以下是从DirectShow中摘抄的相关文章
计算机彩色显示器显示色彩的原理与彩色电视机一样,都是采用R(Red)、G(Green)、B(Blue)相加混色的原理:通过发射出三种不同强度的电子束,使屏幕内侧覆盖的红、绿、蓝磷光材料发光而产生色彩。这种色彩的表示方法称为RGB色彩空间表示(它也是多媒体计算机技术中用得最多的一种色彩空间表示方法)。
根据三基色原理,任意一种色光F都可以用不同分量的R、G、B三色相加混合而成。
F = r [ R ] + g [ G ] + b [ B ]
其中,r、g、b分别为三基色参与混合的系数。当三基色分量都为0(最弱)时混合为黑色光;而当三基色分量都为k(最强)时混合为白色光。调整r、g、b三个系数的值,可以混合出介于黑色光和白色光之间的各种各样的色光。
那么YUV又从何而来呢?在现代彩色电视系统中,通常采用三管彩色摄像机或彩色CCD摄像机进行摄像,然后把摄得的彩色图像信号经分色、分别放大校正后得到RGB,再经过矩阵变换电路得到亮度信号Y和两个色差信号R-Y(即U)、B-Y(即V),最后发送端将亮度和色差三个信号分别进行编码,用同一信道发送出去。这种色彩的表示方法就是所谓的YUV色彩空间表示。
采用YUV色彩空间的重要性是它的亮度信号Y和色度信号U、V是分离的。如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。
YUV与RGB相互转换的公式如下(RGB取值范围均为0-255):
Y = 0.299R + 0.587G + 0.114B
U = -0.147R - 0.289G + 0.436B
V = 0.615R - 0.515G - 0.100B
R = Y + 1.14V
G = Y - 0.39U - 0.58V
B = Y + 2.03U
在DirectShow中,常见的RGB格式有RGB1、RGB4、RGB8、RGB565、RGB555、RGB24、RGB32、ARGB32等;常见的YUV格式有YUY2、YUYV、YVYU、UYVY、AYUV、Y41P、Y411、Y211、IF09、IYUV、YV12、YVU9、YUV411、YUV420等。作为视频媒体类型的辅助说明类型(Subtype),它们对应的GUID见表2.3。
表2.3 常见的RGB和YUV格式
GUID    格式描述
MEDIASUBTYPE_RGB1    2色,每个像素用1位表示,需要调色板
MEDIASUBTYPE_RGB4    16色,每个像素用4位表示,需要调色板
MEDIASUBTYPE_RGB8    256色,每个像素用8位表示,需要调色板
MEDIASUBTYPE_RGB565    每个像素用16位表示,RGB分量分别使用5位、6位、5位
MEDIASUBTYPE_RGB555    每个像素用16位表示,RGB分量都使用5位(剩下的1位不用)
MEDIASUBTYPE_RGB24    每个像素用24位表示,RGB分量各使用8位
MEDIASUBTYPE_RGB32    每个像素用32位表示,RGB分量各使用8位(剩下的8位不用)
MEDIASUBTYPE_ARGB32    每个像素用32位表示,RGB分量各使用8位(剩下的8位用于表示Alpha通道值)
MEDIASUBTYPE_YUY2    YUY2格式,以4:2:2方式打包
MEDIASUBTYPE_YUYV    YUYV格式(实际格式与YUY2相同)
MEDIASUBTYPE_YVYU    YVYU格式,以4:2:2方式打包
MEDIASUBTYPE_UYVY    UYVY格式,以4:2:2方式打包
MEDIASUBTYPE_AYUV    带Alpha通道的4:4:4 YUV格式
MEDIASUBTYPE_Y41P    Y41P格式,以4:1:1方式打包
MEDIASUBTYPE_Y411    Y411格式(实际格式与Y41P相同)
MEDIASUBTYPE_Y211    Y211格式
MEDIASUBTYPE_IF09    IF09格式
MEDIASUBTYPE_IYUV    IYUV格式
MEDIASUBTYPE_YV12    YV12格式
MEDIASUBTYPE_YVU9    YVU9格式
下面分别介绍各种RGB格式。
¨ RGB1、RGB4、RGB8都是调色板类型的RGB格式,在描述这些媒体类型的格式细节时,通常会在BITMAPINFOHEADER数据结构后面跟着一个调色板(定义一系列颜色)。它们的图像数据并不是真正的颜色值,而是当前像素颜色值在调色板中的索引。以RGB1(2色位图)为例,比如它的调色板中定义的两种颜色值依次为0x000000(黑色)和0xFFFFFF(白色),那么图像数据001101010111…(每个像素用1位表示)表示对应各像素的颜色为:黑黑白白黑白黑白黑白白白…。
¨ RGB565使用16位表示一个像素,这16位中的5位用于R,6位用于G,5位用于B。程序中通常使用一个字(WORD,一个字等于两个字节)来操作一个像素。当读出一个像素后,这个字的各个位意义如下:
     高字节              低字节
R R R R R G G G     G G G B B B B B
可以组合使用屏蔽字和移位操作来得到RGB各分量的值:
#define RGB565_MASK_RED    0xF800
#define RGB565_MASK_GREEN  0x07E0
#define RGB565_MASK_BLUE   0x001F
R = (wPixel & RGB565_MASK_RED) >> 11;   // 取值范围0-31
G = (wPixel & RGB565_MASK_GREEN) >> 5;  // 取值范围0-63
B =  wPixel & RGB565_MASK_BLUE;         // 取值范围0-31
¨ RGB555是另一种16位的RGB格式,RGB分量都用5位表示(剩下的1位不用)。使用一个字读出一个像素后,这个字的各个位意义如下:
     高字节             低字节
X R R R R G G       G G G B B B B B       (X表示不用,可以忽略)
可以组合使用屏蔽字和移位操作来得到RGB各分量的值:
#define RGB555_MASK_RED    0x7C00
#define RGB555_MASK_GREEN  0x03E0
#define RGB555_MASK_BLUE   0x001F
R = (wPixel & RGB555_MASK_RED) >> 10;   // 取值范围0-31
G = (wPixel & RGB555_MASK_GREEN) >> 5;  // 取值范围0-31
B =  wPixel & RGB555_MASK_BLUE;         // 取值范围0-31
¨ RGB24使用24位来表示一个像素,RGB分量都用8位表示,取值范围为0-255。注意在内存中RGB各分量的排列顺序为:BGR BGR BGR…。通常可以使用RGBTRIPLE数据结构来操作一个像素,它的定义为:
typedef struct tagRGBTRIPLE {
  BYTE rgbtBlue;    // 蓝色分量
  BYTE rgbtGreen;   // 绿色分量
  BYTE rgbtRed;     // 红色分量
} RGBTRIPLE;
¨ RGB32使用32位来表示一个像素,RGB分量各用去8位,剩下的8位用作Alpha通道或者不用。(ARGB32就是带Alpha通道的RGB32。)注意在内存中RGB各分量的排列顺序为:BGRA BGRA BGRA…。通常可以使用RGBQUAD数据结构来操作一个像素,它的定义为:
typedef struct tagRGBQUAD {
  BYTE    rgbBlue;      // 蓝色分量
  BYTE    rgbGreen;     // 绿色分量
  BYTE    rgbRed;       // 红色分量
  BYTE    rgbReserved;  // 保留字节(用作Alpha通道或忽略)
} RGBQUAD;
下面介绍各种YUV格式。YUV格式通常有两大类:打包(packed)格式和平面(planar)格式。前者将YUV分量存放在同一个数组中,通常是几个相邻的像素组成一个宏像素(macro-pixel);而后者使用三个数组分开存放YUV三个分量,就像是一个三维平面一样。表2.3中的YUY2到Y211都是打包格式,而IF09到YVU9都是平面格式。(注意:在介绍各种具体格式时,YUV各分量都会带有下标,如Y0、U0、V0表示第一个像素的YUV分量,Y1、U1、V1表示第二个像素的YUV分量,以此类推。)
¨ YUY2(和YUYV)格式为每个像素保留Y分量,而UV分量在水平方向上每两个像素采样一次。一个宏像素为4个字节,实际表示2个像素。(4:2:2的意思为一个宏像素中有4个Y分量、2个U分量和2个V分量。)图像数据中YUV分量排列顺序如下:
Y0 U0 Y1 V0    Y2 U2 Y3 V2 …
¨ YVYU格式跟YUY2类似,只是图像数据中YUV分量的排列顺序有所不同:
Y0 V0 Y1 U0    Y2 V2 Y3 U2 …
¨ UYVY格式跟YUY2类似,只是图像数据中YUV分量的排列顺序有所不同:
U0 Y0 V0 Y1    U2 Y2 V2 Y3 …
¨ AYUV格式带有一个Alpha通道,并且为每个像素都提取YUV分量,图像数据格式如下:
A0 Y0 U0 V0    A1 Y1 U1 V1 …
¨ Y41P(和Y411)格式为每个像素保留Y分量,而UV分量在水平方向上每4个像素采样一次。一个宏像素为12个字节,实际表示8个像素。图像数据中YUV分量排列顺序如下:
U0 Y0 V0 Y1    U4 Y2 V4 Y3    Y4 Y5 Y6 Y8 …
¨ Y211格式在水平方向上Y分量每2个像素采样一次,而UV分量每4个像素采样一次。一个宏像素为4个字节,实际表示4个像素。图像数据中YUV分量排列顺序如下:
Y0 U0 Y2 V0    Y4 U4 Y6 V4 …
¨ YVU9格式为每个像素都提取Y分量,而在UV分量的提取时,首先将图像分成若干个4 x 4的宏块,然后每个宏块提取一个U分量和一个V分量。图像数据存储时,首先是整幅图像的Y分量数组,然后就跟着U分量数组,以及V分量数组。IF09格式与YVU9类似。
¨ IYUV格式为每个像素都提取Y分量,而在UV分量的提取时,首先将图像分成若干个2 x 2的宏块,然后每个宏块提取一个U分量和一个V分量。YV12格式与IYUV类似。
¨ YUV411、YUV420格式多见于DV数据中,前者用于NTSC制,后者用于PAL制。YUV411为每个像素都提取Y分量,而UV分量在水平方向上每4个像素采样一次。YUV420并非V分量采样为0,而是跟YUV411相比,在水平方向上提高一倍色差采样频率,在垂直方向上以U/V间隔的方式减小一半色差采样,如图2.12所示。




作者: 希望缄默    时间: 2014-9-28 14:42



作者: shjjsj    时间: 2014-9-28 15:23
非常感谢大牛

作者: 蓝色火焰john    时间: 2014-9-28 19:45
希望缄默 发表于 2014-9-28 14:42
呃~ 这个.....
转载~
YUV / RGB 格式及快速转换算法

按照如上所述,若将rgb16转换成YUV,应该在VPIF_OV2640程序的哪个模块进行添加代码?请赐教

作者: 蓝色火焰john    时间: 2014-9-28 19:46
希望缄默 发表于 2014-9-28 14:42
呃~ 这个.....
转载~
YUV / RGB 格式及快速转换算法

按照如上所述,若将rgb 16转换成YUV,应该在VPIF_OV2640程序的哪个模块进行添加代码?请赐教

作者: 希望缄默    时间: 2014-9-28 20:26
蓝色火焰john 发表于 2014-9-28 19:46
按照如上所述,若将rgb 16转换成YUV,应该在VPIF_OV2640程序的哪个模块进行添加代码?请赐教
...

CMOS 采集回来图像数组 image[800*600*2]
LCD 显示图像数组 g_pucBuffer
你可以处理 image 中的数据产生一个新的图像数组

数据的搬移是 EDMA实现的
[attach]62[/attach]

所以你将处理完的图像数组名称替换 image 就可以了


作者: 蓝色火焰john    时间: 2014-9-29 08:10
希望缄默 发表于 2014-9-28 20:26
CMOS 采集回来图像数组 image[800*600*2]
LCD 显示图像数组 g_pucBuffer
你可以处理 image 中的数据产生 ...

谢谢大神

作者: 蓝色火焰john    时间: 2014-9-29 10:42
为了得到相机的亮度图像,我在如下函数中增加了代码:
/****************************************************************************/
/*                                                                          */
/*                       VPIF中断服务程序                                                                               */
/*                                                                          */
/****************************************************************************/
static void VPIFIsr(void)
{
    unsigned int temp;
    unsigned int Y_i;
    unsigned short int PixelVal;
    unsigned short int R_Val,G_Val,B_Val;
#ifdef _TMS320C6X
    IntEventClear(SYS_INT_VPIF_INT);
#else
    IntSystemStatusClear(SYS_INT_VPIF);
#endif
    for(Y_i=0;Y_i<800*600;Y_i++)
    {
            PixelVal = *((unsigned short int *)(image)+Y_i);
            R_Val = (PixelVal & 0xF800) >> 11;
            G_Val = (PixelVal & 0x07E0) >> 5;
            B_Val = (PixelVal & 0x01F);

            image_Y[Y_i] = (R_Val * 0.3 + G_Val * 0.59 + B_Val * 0.11);
    }

    temp = VPIFInterruptStatus(SOC_VPIF_0_REGS, VPIF_ERROR_INT | \
                                                                            VPIF_FRAMEINT_CH3 | \
                                                                            VPIF_FRAMEINT_CH2 | \
                                                                            VPIF_FRAMEINT_CH1 | \
                                                                            VPIF_FRAMEINT_CH0);


        /* if error interrupt occurs, report error */
    if ((temp & VPIF_ERROR_INT))
    {
        error_flag = 1;
    }
}
麻烦帮忙看看代码是否有问题,通过调试的结果,image_Y中的值都是30以下,改变相机的亮度,值变化也不大。另外我想看看image_Y中的图像,应该怎么看?

作者: 蓝色火焰john    时间: 2014-9-29 10:43
unsigned char image_Y[800*600];//亮度图像数组

作者: 希望缄默    时间: 2014-9-29 11:09
蓝色火焰john 发表于 2014-9-29 10:43
unsigned char image_Y[800*600];//亮度图像数组

[attach]64[/attach]

参考附件例程的说明~


作者: 蓝色火焰john    时间: 2014-9-29 15:35

    srcBuff = (char *)(image+1);//_srcBuff;
请问上段代码(image+1)是什么意思,为什么要+1.还有就是用RGB565转换成Y,得到的Y值都很小啊?

作者: 蓝色火焰john    时间: 2014-9-29 19:48
希望缄默 发表于 2014-9-28 20:26
CMOS 采集回来图像数组 image[800*600*2]
LCD 显示图像数组 g_pucBuffer
你可以处理 image 中的数据产生 ...

在光盘所给的代码中,qdma()模块是
srcBuff = (char *)(image+1);//_srcBuff;
而不是向老师贴出的srcBuff = (char *)(image);//_srcBuff;
请问(image+1)是什么意思,为什么要+1?


作者: 希望缄默    时间: 2014-9-29 22:04
蓝色火焰john 发表于 2014-9-29 19:48
在光盘所给的代码中,qdma()模块是
srcBuff = (char *)(image+1);//_srcBuff;
而不是向老师贴出的srcBuf ...

地址偏移一个字节~

作者: 蓝色火焰john    时间: 2014-9-30 08:09
希望缄默 发表于 2014-9-29 22:04
地址偏移一个字节~

为什么要偏移一个字节啊?


作者: 希望缄默    时间: 2014-9-30 10:11
蓝色火焰john 发表于 2014-9-30 08:09
为什么要偏移一个字节啊?

图像前几个字节可能会包含一些图像配置信息 这个跟你对 OV2640 的配置有关

详情请参阅 OV2640 数据手册

作者: 蓝色火焰john    时间: 2014-9-30 10:21
希望缄默 发表于 2014-9-30 10:11
图像前几个字节可能会包含一些图像配置信息 这个跟你对 OV2640 的配置有关

详情请参阅 OV2640 数据手册

好,谢谢大神。在老师的指导下,已经有点小突破了

作者: 希望缄默    时间: 2014-9-30 10:34
蓝色火焰john 发表于 2014-9-30 10:21
好,谢谢大神。在老师的指导下,已经有点小突破了

OV2640 最大支持 200万像素输出
支持 QCIF(176*144) QVGA(320*240) VGA(640*480) 1024*768 1600*1200 等分辨率

具备两种输出格式:
1、原始数据如RGB565 RGB RAW YUV422
2、JPEG 压缩图像格式

因为 TL-EVM6748 LCD 是 RGB565 也就是 RGB16位模式

所以当前配置为 RGB565(RGB16位) 你要是通过网络传输的话可以改成 JPEG压缩这样可以支持更大分辨率

作者: 蓝色火焰john    时间: 2014-10-8 10:55
希望缄默 发表于 2014-9-30 10:34
OV2640 最大支持 200万像素输出
支持 QCIF(176*144) QVGA(320*240) VGA(640*480) 1024*768 1600*1200 等 ...

我现在将OV2640改成YCbCr设置了,但如何将image中的图像搞成灰度图像?恳求大神再次显身助我一臂之力


作者: 希望缄默    时间: 2014-10-8 11:52
蓝色火焰john 发表于 2014-10-8 10:55
我现在将OV2640改成YCbCr设置了,但如何将image中的图像搞成灰度图像?恳求大神再次显身助我一臂之力:diz ...

Y 分量就是亮度也就是灰度

作者: 蓝色火焰john    时间: 2014-10-8 14:05
希望缄默 发表于 2014-10-8 11:52
Y 分量就是亮度也就是灰度

我用tools->image显示内存中图像时,显示的不对。现在疑惑的是,我的设置是否正确,是否只对OV2640设置既可得到YUV数据?

作者: 蓝色火焰john    时间: 2014-10-8 20:36
希望缄默 发表于 2014-10-8 11:52
Y 分量就是亮度也就是灰度

从工程的哪个代码文件里可以查看对OV2640的寄存器设置?谢谢大神

作者: 蓝色火焰john    时间: 2014-10-8 21:01
蓝色火焰john 发表于 2014-10-8 20:36
从工程的哪个代码文件里可以查看对OV2640的寄存器设置?谢谢大神

找到了

作者: 希望缄默    时间: 2014-10-9 09:22

进步很快啊
估计再过几天 我就没什么能告诉你的了~ O(∩_∩)O哈哈~

作者: 蓝色火焰john    时间: 2014-10-9 10:06
希望缄默 发表于 2014-10-9 09:22
进步很快啊
估计再过几天 我就没什么能告诉你的了~ O(∩_∩)O哈哈~

大神,你这是在笑话我吗?哈哈哈

作者: 希望缄默    时间: 2014-10-9 17:21
蓝色火焰john 发表于 2014-10-9 10:06
大神,你这是在笑话我吗?哈哈哈

怎么会呢
看到你进步这么大 我也很高兴哇

作者: 蓝色火焰john    时间: 2014-10-9 18:59
希望缄默 发表于 2014-10-9 17:21
怎么会呢
看到你进步这么大 我也很高兴哇

那是因为我的起点太低,又在大神和老师的指导下,所以进步明显一些。为了让OV2640采集并输出YUV格式的图像存储带DSP的内存,我修改了dcmi_OV2640.c文件下的帧率和dcmi_ov2640.h文件下寄存器的值,怎么输出的格式还是不正确,请问还有什么需要设置?

作者: 希望缄默    时间: 2014-10-11 11:07
蓝色火焰john 发表于 2014-10-9 18:59
那是因为我的起点太低,又在大神和老师的指导下,所以进步明显一些。为了让OV2640采集并输出YUV格式的图 ...

应该可以了吧
你是怎么判断格式不对呢?

作者: 蓝色火焰john    时间: 2014-10-11 11:17
希望缄默 发表于 2014-10-11 11:07
应该可以了吧
你是怎么判断格式不对呢?

用的tools->Image Analyzer查看内存中的图像,显示的不是摄像头采集到的图像。我查看的方法对吗,请问该如何判断格式?

作者: 希望缄默    时间: 2014-10-11 20:30
蓝色火焰john 发表于 2014-10-11 11:17
用的tools->Image Analyzer查看内存中的图像,显示的不是摄像头采集到的图像。我查看的方法对吗,请问该 ...

那参数也得配置合适啊
建议Image Analyzer你先在rgb565试试是否正确

作者: 蓝色火焰john    时间: 2014-10-11 21:16
希望缄默 发表于 2014-10-11 20:30
那参数也得配置合适啊
建议Image Analyzer你先在rgb565试试是否正确

RGB565正确,把RGB565转换成灰度图像显示也正确,RGB到灰度图像运算量大,速度慢。所以我想直接采集YUV,然后提取Y,得到灰度图像。大神,你真是太好了,就我问的问题多,您还每帖必回,该如何让小弟如何感谢。

作者: 希望缄默    时间: 2014-10-12 15:35
蓝色火焰john 发表于 2014-10-11 21:16
RGB565正确,把RGB565转换成灰度图像显示也正确,RGB到灰度图像运算量大,速度慢。所以我想直接采集YUV, ...

rgb转灰度不会慢啊 主要是用移位代替除法运算就可以了
配置成yuv420 422格式不也得再提取么?

O(∩_∩)O哈哈~ 客气啦

作者: 蓝色火焰john    时间: 2014-10-14 08:19
希望缄默 发表于 2014-10-12 15:35
rgb转灰度不会慢啊 主要是用移位代替除法运算就可以了
配置成yuv420 422格式不也得再提取么?

用RGB转灰度我试过了,要计算800*600像素点,很慢。用YUV提取Y分量应该快点吧

作者: 蓝色火焰john    时间: 2014-10-14 10:31
希望缄默 发表于 2014-10-12 15:35
rgb转灰度不会慢啊 主要是用移位代替除法运算就可以了
配置成yuv420 422格式不也得再提取么?

现在采集到YUV了,也把Y提取出来了,就是图像对比度太低,继续调~~~~~~~~~

作者: 蓝色火焰john    时间: 2014-10-14 14:24
希望缄默 发表于 2014-10-12 15:35
rgb转灰度不会慢啊 主要是用移位代替除法运算就可以了
配置成yuv420 422格式不也得再提取么?

这是我用image ananlyzer查看内存图片时的参数设置和显示的图像,您帮看看有设置不对的。我值修改了IMAGE_DOMDE位的参数。
                Actual_imgPtr = image + 1;

                        for(Y_i=0;Y_i<800*600;Y_i++)
                 {
//
                                        PixelVal = *((unsigned short int *)(Actual_imgPtr)+Y_i);
//                                        PixelVal = *((unsigned char *)(image+1)+Y_i);
//
                                 Y_Val = (PixelVal & 0xFF00) >> 8;

                     image_Y[Y_i]=Y_Val;

                          }

以上是我编写的用来提取Y分量的代码,有何不妥吗?


作者: yuanhaisu    时间: 2014-10-14 20:19
在vpif的例程上弄下图像取反,运行没问题,但是发现帧率很低,请问这是什么原因?
我用的XDS100的仿真器,是由于仿真器不行,还是在vpif中的qdma前直接对图像取反的做法不对呀?
求大神解答!

作者: 希望缄默    时间: 2014-10-14 23:06
蓝色火焰john 发表于 2014-10-14 14:24
这是我用image ananlyzer查看内存图片时的参数设置和显示的图像,您帮看看有设置不对的。我值修改了IMAGE ...

显示参数不对啊
YUYV 两个像素点占用2个字节 4:2:2 排列

作者: 希望缄默    时间: 2014-10-14 23:08
yuanhaisu 发表于 2014-10-14 20:19
在vpif的例程上弄下图像取反,运行没问题,但是发现帧率很低,请问这是什么原因?
我用的XDS100的仿真器, ...

如果要从ccs看的话 xds100比较慢


作者: 希望缄默    时间: 2014-10-14 23:09
yuanhaisu 发表于 2014-10-14 20:19
在vpif的例程上弄下图像取反,运行没问题,但是发现帧率很低,请问这是什么原因?
我用的XDS100的仿真器, ...

如果要从ccs看的话 xds100比较慢


作者: 希望缄默    时间: 2014-10-14 23:09
yuanhaisu 发表于 2014-10-14 20:19
在vpif的例程上弄下图像取反,运行没问题,但是发现帧率很低,请问这是什么原因?
我用的XDS100的仿真器, ...

如果要从ccs看的话 xds100比较慢


作者: 蓝色火焰john    时间: 2014-10-15 09:44
希望缄默 发表于 2014-10-14 23:06
显示参数不对啊
YUYV 两个像素点占用2个字节 4:2:2 排列

给大神看看调试成果,哈哈。我觉得还比较满意,谢谢大神的指导。我也贡献一下{:soso_e113:}


作者: yuanhaisu    时间: 2014-10-15 10:13
希望缄默 发表于 2014-10-14 23:08
如果要从ccs看的话 xds100比较慢

我是在摄像头前面晃动手,明显的感觉图像不连续,这样还是仿真器的原因么?

作者: 蓝色火焰john    时间: 2014-10-15 11:19
yuanhaisu 发表于 2014-10-15 10:13
我是在摄像头前面晃动手,明显的感觉图像不连续,这样还是仿真器的原因么?
...

应该是代码和仿真器两方面的原因。我用的100V3,前段时间加了个RGB转灰度的代码,就很慢。

作者: 希望缄默    时间: 2014-10-15 14:41
蓝色火焰john 发表于 2014-10-15 11:19
应该是代码和仿真器两方面的原因。我用的100V3,前段时间加了个RGB转灰度的代码,就很慢。
...

在LCD看 就跟仿真器没有关系的~

作者: 蓝色火焰john    时间: 2014-10-16 08:16
希望缄默 发表于 2014-10-15 14:41
在LCD看 就跟仿真器没有关系的~

又跟大神学知识了

作者: 蓝色火焰john    时间: 2014-10-16 11:17

我下一个阶段是将采集到的YUV在LCD显示出来,请问对代码或寄存器的配置,您有什么建议和指导,能让我少走些弯路?

作者: 希望缄默    时间: 2014-10-16 22:20
蓝色火焰john 发表于 2014-10-16 11:17
我下一个阶段是将采集到的YUV在LCD显示出来,请问对代码或寄存器的配置,您有什么建议和指导,能让我少走 ...

建议参考一下最新发布的图像处理例程 ImageProcess

这是一个演示通过边缘检测算法实现的数字识别的例程~

作者: 蓝色火焰john    时间: 2014-10-20 14:59
希望缄默 发表于 2014-10-16 22:20
建议参考一下最新发布的图像处理例程 ImageProcess

这是一个演示通过边缘检测算法实现的数字识别的例程~ ...

好的,谢谢大神,哈哈

作者: yuanhaisu    时间: 2014-10-20 23:18
希望缄默 发表于 2014-9-24 19:50
很简单啊
可以自己写函数 RGB图像>提取亮度分量>灰度图像>像素点亮度值 非0即1>二值化图像

版主,麻烦看看这个问题哈,需要你的帮助!

http://www.51dsp.net/forum.php?m ... 437&fromuid=165

作者: jqgt2006    时间: 2015-11-5 16:49
蓝色火焰john 发表于 2014-9-24 08:07
求创龙程序员老师解答

我也在弄OV2640 !输出YUV的配置!RGB 和JPEG 我都弄出来了!可YUV 死活不对!你的配置文件可以让我参考一下么?QQ1126539423
作者: Lewis    时间: 2015-11-13 09:36
RGB565
作者: cchwhk    时间: 2016-5-23 11:31
怎么我的摄像头程序跑不过啊,出现了花屏的现象
作者: 希望缄默    时间: 2016-5-25 17:07
cchwhk 发表于 2016-5-23 11:31
怎么我的摄像头程序跑不过啊,出现了花屏的现象

默认程序适配  7 寸屏幕以及 OV2640 摄像头的




欢迎光临 嵌入式开发者社区 (https://51ele.net/) Powered by Discuz! X3.4