opencv灰度图和彩色图互相转换
如果摄像头本来就得到3维度红外图那就不用处理直接可以用:
import cv2
cap = cv2.VideoCapture(0)
ret, image_np = cap.read()
直接转成单通道的灰度图看看能不能用:
#如果后面不写0,那就是默认彩色的
# 第一种方式
image = cv2.imread('***/timg4.jpg',0)
#第二种方式
#dst=cv2.cvtColor(src,cv2.COLOR_BGR2GRAY)
detecotr = TOD()
detecotr.detect(image)
# 或者视频转换方式如下
ret, image_np = cap.read()
image_np=cv2.cvtColor(image_np,cv2.COLOR_BGR2GRAY)
上面两种方式得到的数据是不完全相同的,网上尚未查找到具体原因,通过对读取到的ndArray数据对比,发现存在不完全相同的数据。
观察直接转成1通道的图像:
直接转成了1通道灰度图喂进去神经网络不行,因为只有1通道,必须经过如下的处理;
image_np=cv2.cvtColor(image_np,cv2.COLOR_GRAY2BGR)
上面代码可以得到3通道灰度图,就是把灰度图的1通道复制三遍,然后就可以喂进网络了:
红外图像和灰度图像本身就不是在同一分类标准下得到的概念。
红外图像是红外成像设备采集目标在红外波段的辐射形成的影像,这个图像可专以是灰度图像,也可以彩色图像。同样的道理,可见光图像可以是灰度属图像,也可以彩色图像。
灰度图像是相对彩色图像而言的。灰度图像没有颜色,灰度值由0变化至255时,图像由黑变白。
再将上述的3通道灰度值转换为伪彩图,观察结果:
ret, image_np = cap.read()
image_np=cv2.cvtColor(image_np,cv2.COLOR_BGR2GRAY)
#image_np=cv2.cvtColor(image_np,cv2.COLOR_GRAY2BGR)
image_np = cv2.applyColorMap(image_np, cv2.COLORMAP_JET)
对于伪彩图有不同的伪彩图方式,各个函数如下:
# COLORMAP_AUTUMN = 0,
# COLORMAP_BONE = 1,
# COLORMAP_JET = 2,
# COLORMAP_WINTER = 3,
# COLORMAP_RAINBOW = 4,
# COLORMAP_OCEAN = 5,
# COLORMAP_SUMMER = 6,
# COLORMAP_SPRING = 7,
# COLORMAP_COOL = 8,
# COLORMAP_HSV = 9,
# COLORMAP_PINK = 10,
# COLORMAP_HOT = 11
注意:
在使用模型框架的时候,如果是使用tensorflow object detection API,需要将1通道的灰度图转成3通道(唯一通道复制三遍)来训练和检测;
为什么不直接使用者通道的灰度图来做呢,这样是不是能提高性能呢?
不是,因为这样对于提高性能和速度没有意义,它只影响了卷积神经网络的第一层而已,后续层的计算量和参数量没有丝毫影响,这样的影响等同于没有,如果真的考虑性能和速度,直接更改模型更可靠。
附:python将灰度图转换为RGB彩色图
from PIL import Image
import os
path = r'图片存储的路径'
newpath = r'转换后存储图片的路径'
def RGBtoGray(path):
files = os.listdir(path)
for file in files:
imgpath = path + '/' + file
#print(imgpath)
#
im = Image.open(imgpath).convert('RGB')
#resize将图像像素转换成自己需要的像素大小
img = im.resize((512, 512))
dirpath = newpath
file_name, file_extend = os.path.splitext(f)
dst = os.path.join(os.path.abspath(dirpath), file_name + '.jpg')
img.save(dst)
if __name__ == "__main__":
RGBtoGray(path)
总结
到此这篇关于python opencv实现灰度图和彩色图互相转换的文章就介绍到这了,更多相关opencv灰度图和彩色图互相转换内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!