首先,我使用STM 32单片机有2 年左右的时间了,但是openmv却不足一个月的时间,由于近几天问我关于两者之间如何进行通讯问题的人比较多,所以特地写这样一篇文章进行讲解。如果有什么讲的不对的地方,还请各位读者指正。

在开始的时候,我们得必须明白一件事,我们要干什么。我们先来梳理一下任务。

openmv与单片机通讯,大多数时候都不是只发送一两个字符或数字,一般都需要进行大量数据传输,将识别到的图像,位置,颜色信息通过转换为数字的方式发送给单片机。既然是很多数字,那么如何才能使数字能准确的传输而不发生错误和“错位”呢?我想,将数据以帧格式进行发送,是一种非常不错的选择。简单的说一下帧格式备用:

百度的解释太过于复杂,一般 我们常用到的帧格式为:

帧头+帧头+数据类型+数据量+数据....+校验和+结束标志。就像这样:

5A 5A 01  08 FF DD 00 1B 40 12 00 00  54 C0     (随意编的,不一定对)。需要说明的是,一帧数据不一定需要这里面的所以东西,最简单的一帧可以只有帧头和数据构成,就变成了这样:5A 5A  FF DD 00 1B 40 12 00 00。数据总不能省略吧。帧头也是不能省略的,如果没有帧头,那怎么能在一大串连续的数据中分辨出数据的开始呢,而且经验告诉我,用两个Byte的帧头很有必要的。接下来我就以最简单的方式来讲解如何发送一帧数据给单片机,大家后期可以根据自己的需求在添加上需要的帧段。

openmv如何配置串口,并且利用串口助手发送单个字符串给电脑相信大家都已经实现,网上教程也很多,这里就不再讲解。

openmv的一个while(true)循环,一般产生一帧数据

就像这样:这是一个颜色识别并输出色块中心点坐标的程序

# Untitled - By: 小柱 - 周三 4月 17 2019

import sensor, image, time
from pyb import UART
import json

threshold = [(37, 67, 45, 84, 4, 68),         #red
             (34, 67, -55, -22, 2, 41),      #green
             (25, 67, -37, 26, -63, -26)]    #blue
#设置红色的阈值,括号里面的数值分别是L A B 的最大值和最小值(minL, maxL, minA,
# maxA, minB, maxB),LAB的值在图像左侧三个坐标图中选取。如果是灰度图,则只需
#设置(min, max)两个数字即可。

sensor.reset()
sensor.set_pixformat(sensor.RGB565)
sensor.set_framesize(sensor.QVGA)
sensor.skip_frames(time = 2000 )
sensor.set_auto_whitebal(False)
#关闭白平衡。白平衡是默认开启的,在颜色识别中,需要关闭白平衡。

clock = time.clock()

uart = UART(3, 115200)

uart.init(115200, bits=8, parity=None, stop=1)  #8位数据位,无校验位,1位停止位、

while(True):
    clock.tick()
    img = sensor.snapshot()
    blob = img.find_blobs(threshold, area_threshold=300)
    if blob: #如果找到了目标颜色
       # print(blob)
       # uart.write("B3 B3 ")    #一帧数据的帧头
        FH = bytearray([0xb3,0xb3])
        uart.write(FH)
        for b in blob:
        #迭代找到的目标颜色区域
            img.draw_rectangle(b[0:4]) # rect
            img.draw_cross(b[5], b[6]) # cx, cy
            x = b.cx()
            y = b.cy()

            print(x, y, end = ',')

            data = bytearray([x,y])
            uart.write(data)
            #uart.write("%x %x \r"%(x,y))   #以16进制的格式输出,(16进制不能这样输出啊,浪费了我两天的时间)

    #img.draw_circle((50, 50, 30), color = (250, 0, 0))


    print(clock.fps())

我们主要看while(true)。其中,uart.write(FH)输出的是帧头,uart.write(data)输出的是色块坐标位置信息。

          简单分析一下,while(true)是一个大循环,通常情况下,一个大循环才能完成一轮识别,产生一帧数据(这当然取决于你的代码怎么写)。所以会在识别到摄像头识别到颜色(if blob)后首先发送出帧头 0xb3 ,0xb3。然后进入for循环(for b in blob)当for循环完的时候,一帧数据中完整的数据量就产生了。这样就在openmv当中产生了完整的一帧数据,利用串口助手可以观察到

这就是在串口助手中看到的数据内容

 

特别注意:!!!!

一帧数据的每一个Byte必须要以字节的显示发送(data = bytearray([x,y])),而不能是用16进制发送(uart.write("%x %x \r"%(x,y))),他们两个函数在串口助手里面看到的内容是一样的(大小写的区别),但是后者是无法让单片机接收到的。如果采用后者发送方式,就会出现openmv和单片机分别于PC通讯没问题,但是二者之间却无法通讯的问题,我也是在这里浪费了很多的时间,希望读者特别小心这个问题。

再一个,以上程序数据不一定是6个!!!,当只识别到一个或者两个色块时,就只产生两个或者四个数据!!!!

 

现在openmv能产生一帧有效数据了。STM32该如何接收到呢?由于stm32串口接收是以中断的方式。

void USART2_IRQHandler(void)
{
	
	static uint8_t rebuf[8]={0},i=0;
	
	if(USART_GetITStatus(USART2,USART_IT_RXNE) != RESET)
	{
		rebuf[i++]=USART_ReceiveData(USART2);	
		if(rebuf[0]!=0xb3)//帧头
			i=0;
	  if((i==2)&&(rebuf[1]!=0xb3))//判断帧头
			i=0;
		if(i>=7)//代表一帧数据完毕
		{
			memcpy(OpenMV_Rx_BUF,rebuf,i);
			
			i = 0;

		}
		USART_ClearFlag(USART2,USART_FLAG_RXNE);
	}	
}

其中OpenMV_Rx_BUF是一个外部变量用于保存从openmv接收到的数据,中断子程序中,每当进入中断,会首先判断帧头,如果不是 帧头,会直接丢弃,直到等到帧头的到来。

值得注意的是,中断子程序每进入一次,只会接收一个Byte的数据。也就是说接收完一帧数据需要进入8次中断才行。这一点的理解也比较重要,需要多多体会才行。

当数据保存在OpenMV_Rx_BUF[]后,就可以调用来使用了(注意数据不一定是完整的)使用时最好加以判断。

void Color_Blob_Show(void)
{
	OLED_ShowNum(0,6,OpenMV_Rx_BUF[0],3,12);
	
	OLED_ShowNum(20,6,OpenMV_Rx_BUF[1],3,12);
	OLED_ShowNum(40,6,OpenMV_Rx_BUF[2],3,12);
	OLED_ShowNum(60,6,OpenMV_Rx_BUF[3],3,12);
	
}

显示图像

 

这样,一帧数据的发送和接受就完成了。

最后我要特别感谢CSDN,给了我一个学习的平台,在这里我学习到了很多知识,解决了我很多问题,感谢各位前辈的无私奉献。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐