文章目录
1. 计算LPIPS
1.0.说明
LPIPS:学习感知图像块相似度(Learned Perceptual Image Patch Similarity, LPIPS)也称为“感知损失”(perceptual loss),用于度量两张图像之间的差别。来源于CVPR2018《The Unreasonable Effectiveness of Deep Features as a Perceptual Metric》
1.1. 代码
要计算两张图片之间的LPIPS(Learned Perceptual Image Patch Similarity)距离,可以使用已经训练好的LPIPS模型来进行计算。以下是一个示例代码,演示了如何使用PyTorch和LPIPS模型计算两张图片的LPIPS距离:
import torchimport lpipsfrom PIL import Image# 假设您已经有了要计算LPIPS距离的两张图片 image1 和 image2# 加载图像文件image1 = Image.open("image1.jpg")image2 = Image.open("image2.jpg")# 加载预训练的LPIPS模型lpips_model = lpips.LPIPS(net="alex")# 将图像转换为PyTorch的Tensor格式image1_tensor = torch.tensor(np.array(image1)).permute(2, 0, 1).unsqueeze(0).float() / 255.0image2_tensor = torch.tensor(np.array(image2)).permute(2, 0, 1).unsqueeze(0).float() / 255.0# 使用LPIPS模型计算距离distance = lpips_model(image1_tensor, image2_tensor)print("LPIPS distance:", distance.item())
在上述代码中,您需要将要计算LPIPS距离的两张图片存储在变量image1和image2中(可以使用PIL库的Image.open()函数加载图像文件)。
然后,我们加载了预训练的LPIPS模型,这里使用了alex网络。您可以根据需要选择其他可用的网络,如vgg
或squeeze
。
接下来,我们将图像转换为PyTorch的Tensor格式,并进行归一化处理,将像素值范围从[0, 255]归一化到[0, 1]。注意,这里的图像顺序是通道在前,即形状为[C, H, W]。
最后,我们使用LPIPS模型对两张图像的Tensor进行计算,得到LPIPS距离。距离的值通过distance.item()获取。
请确保安装了PyTorch和lpips库。您可以使用以下命令安装lpips库:
pip install lpips
2. 计算SSIM
2.0 说明
结构相似性指数(SSIM,Structural Similarity Index)
2.1 代码
安装
pip install scikit-image
import cv2from skimage import metrics# Assume you have two image files: image1.jpg and image2.jpg# Load the imagesimage1 = cv2.imread("image1.jpg")image2 = cv2.imread("image2.jpg")# Convert images to grayscalegray_image1 = cv2.cvtColor(image1, cv2.COLOR_BGR2GRAY)gray_image2 = cv2.cvtColor(image2, cv2.COLOR_BGR2GRAY)# Compute SSIMssim_score = metrics.structural_similarity(gray_image1, gray_image2)print("SSIM score:", ssim_score)
使用cv2.imread()函数加载图像文件,并将其分别存储在变量image1和image2中。
然后,将图像转换为灰度图像,以便计算SSIM。使用cv2.cvtColor()函数将图像从BGR色彩空间转换为灰度色彩空间。
最后,使用skimage.measure.compare_ssim()函数计算两张灰度图像之间的SSIM。
来源地址:https://blog.csdn.net/BIT_HXZ/article/details/131079400