我采用ov7725作为视屏数据采集,采用一个2.2寸屏来显示。其中ov7725采集视频分辨率为320*240,2.2寸显示屏分辨率为240*320。ov7725采集的数据是yuv422的,而显示屏是RGB565的,将摄像头采集回来的数据的部分图像做彩色空间转换,用于LCD的显示。我的做法是,建立一个表以Y为下标对应到相应的RGB灰度,表的形式如下: volatile unsigned short Y2Gray[] = {
: S/ {' f! [7 w7 I0x0000,0x0000,0x0000,0x0000,0x0020,0x0020,0x0020,0x0020,+ W5 |5 [- Z; J; s' l) w: x
0x0841,0x0841,0x0841,0x0841,0x0861,0x0861,0x0861,0x0861,
0 N" E8 k/ V8 b* z9 S6 A0x1082,0x1082,0x1082,0x1082,0x10a2,0x10a2,0x10a2,0x10a2,
- K3 M4 `' x9 e9 [. K.... 0xffdf,0xffdf,0xffdf,0xffdf,0xffff,0xffff,0xffff,0xffff, }; 色彩空间转换的部分如下: volatile unsigned char *videoTopY, *videoTopC;7 s; m$ H+ L4 U% U) G
volatile unsigned short *videoTopRgb1, *videoTopRgb2; for(i = 0; i < 240; i++)2 w4 `9 ?3 I; `! b1 K
{* I. w& J, z9 L2 t9 [
for(j = 0; j < 240; j+=8)
7 u' h; {: h- V# N2 S {
4 c3 G/ q0 ~3 E index = i * 240+ j;2 g) ^. {, D; R' a
index1 = i * 320+ j;; D5 }3 B, l) _$ d0 q L6 ^
videoTopRgb1[index] = Y2Gray[videoTopY[index1 * 2]];/ c- f* p. e/ J5 i
videoTopRgb1[index + 1] =Y2Gray[videoTopY[(index1 + 1) * 2]];
3 i9 l1 @* J$ M videoTopRgb1[index + 2] = Y2Gray[videoTopY[(index1 + 2) * 2]];
% e! p0 N2 s: M: T. L/ | videoTopRgb1[index + 3] = Y2Gray[videoTopY[(index1 + 3) * 2]];
9 ?% E+ H. n0 T* z8 r- e0 q, q& t videoTopRgb1[index + 4] = Y2Gray[videoTopY[(index1 + 4) * 2]];
" J5 @) V( ?% c videoTopRgb1[index + 5] = Y2Gray[videoTopY[(index1 + 5) * 2]];1 x) D$ o3 M" O: k& U
videoTopRgb1[index + 6] = Y2Gray[videoTopY[(index1 + 6) * 2]];5 [# F! L2 r3 w! f; w" K; r% I
videoTopRgb1[index + 7] = Y2Gray[videoTopY[(index1 + 7) * 2]]; }
9 N: ~% o' p/ p7 Y6 [. Z! p1 Y T+ l7 c
} 我用的是双buffer显示的。 问题是图像只会显示一半。 使用CCS5.5将DSP内存中的数据保存,放到matlab中显示如下: 我的摄像头采集回来的数据是这样的(图一) 小黑点忽略yuv 理论上处理完成之后应该是这个样子的(图二) 但是dsp处理完数据后显示buff里的数据是这样的(图三,图四):
, R U- w. ^( @$ g4 B6 U2 V程序运行过过程中图三,图四是交替显示的。 请问这是为什么?我开了L1cache,cache inv和wb都用了,也不起作用。 请TL的工程师帮忙解决一下,困扰了两周了,不胜感激。 2 J( Z/ m5 W* j! |. l! u
2 O1 ?7 u, k% g( ^ |