文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

20 行代码:Serverless 架构下用 Python 轻松搞定图像分类和预测

2024-12-03 14:01

关注

本文转载自微信公众号「Serverless」,作者江昱 。转载本文请联系Serverless公众号。 

前言

图像分类是人工智能领域的一个热门话题。通俗解释就是,根据各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。

它利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读。

图像分类在实际生产生活中也是经常遇到的,而且针对不同领域或者需求有着很强的针对性。例如通过拍摄花朵识别花朵信息、通过人脸比对人物信息等。

通常情况下,这些图像识别或者分类的工具,都是在客户端进行数据采集,在服务端进行运算获得结果,也就是说一般情况下都是有专门的 API 实现图像识别的。例如各大云厂商都会为我们有偿提供类似的能力:

阿里云图像识别页面:

华为云图像识别页面:

本文将会通过一个有趣的 Python 库,快速将图像分类的功能搭建在云函数上,并且和 API 网关结合,对外提供 API 功能,实现一个 Serverless 架构的“图像分类 API”。

首先和大家介绍一下需要的依赖库:ImageAI。通过该依赖的官方文档我们可以看到这样的描述:

ImageAI 是一个 python 库,旨在使开发人员能够使用简单的几行代码构建具有包含深度学习和计算机视觉功能的应用程序和系统。

ImageAI 本着简洁的原则,支持最先进的机器学习算法,用于图像预测、自定义图像预测、物体检测、视频检测、视频对象跟踪和图像预测训练。ImageAI 目前支持使用在 ImageNet-1000 数据集上训练的 4 种不同机器学习算法进行图像预测和训练。ImageAI 还支持使用在 COCO 数据集上训练的 RetinaNet 进行对象检测、视频检测和对象跟踪。最终,ImageAI 将为计算机视觉提供更广泛和更专业化的支持,包括但不限于特殊环境和特殊领域的图像识别。

也就是说这个依赖库,可以帮助我们完成基本的图像识别和视频的目标提取,虽然他给了一些数据集和模型,但是我们也可以根据自身需要对其进行额外的训练,进行定制化拓展。通过官方给的代码,我们可以看到一个简单的 Demo:

  1. # -*- coding: utf-8 -*- 
  2. from imageai.Prediction import ImagePrediction 
  3.  
  4. # 模型加载 
  5. prediction = ImagePrediction() 
  6. prediction.setModelTypeAsResNet() 
  7. prediction.setModelPath("resnet50_weights_tf_dim_ordering_tf_kernels.h5"
  8. prediction.loadModel() 
  9.  
  10. predictions, probabilities = prediction.predictImage("./picture.jpg", result_count=5 ) 
  11. for eachPrediction, eachProbability in zip(predictions, probabilities): 
  12.     print(str(eachPrediction) + " : " + str(eachProbability)) 

(左右滑动查看)

当我们指定的 picture.jpg 图片为:

[[374517]]

我们在执行之后的结果是:

  1. laptop : 71.43893241882324 
  2. notebook : 16.265612840652466 
  3. modem : 4.899394512176514 
  4. hard_disc : 4.007557779550552 
  5. mouse : 1.2981942854821682 

如果在使用过程中觉得模型

resnet50_weights_tf_dim_ordering_tf_kernels.h5 过大,耗时过长,可以按需求选择模型:

模型下载地址可参考 Github 地址:https://github.com/OlafenwaMoses/ImageAI/releases/tag/1.0

或者参考 ImageAI 官方文档:https://imageai-cn.readthedocs.io/zh_CN/latest/ImageAI_Image_Prediction.html

项目 Serverless 化

将项目按照函数计算的需求,编写好入口方法,以及做好项目初始化,同时在当前项目下创建文件夹 model,并将模型文件拷贝到该文件夹:

项目整体流程:

实现代码:

  1. # -*- coding: utf-8 -*- 
  2.  
  3. from imageai.Prediction import ImagePrediction 
  4. import json 
  5. import uuid 
  6. import base64 
  7. import random 
  8.  
  9.  
  10. # Response 
  11. class Response: 
  12.     def __init__(self, start_response, response, errorCode=None): 
  13.         self.start = start_response 
  14.         responseBody = { 
  15.             'Error': {"Code": errorCode, "Message": response}, 
  16.         } if errorCode else { 
  17.             'Response': response 
  18.         } 
  19.         # 默认增加uuid,便于后期定位 
  20.         responseBody['ResponseId'] = str(uuid.uuid1()) 
  21.         print("Response: ", json.dumps(responseBody)) 
  22.         self.response = json.dumps(responseBody) 
  23.  
  24.     def __iter__(self): 
  25.         status = '200' 
  26.         response_headers = [('Content-type''application/json; charset=UTF-8')] 
  27.         self.start(status, response_headers) 
  28.         yield self.response.encode("utf-8"
  29.  
  30.  
  31. # 随机字符串 
  32. randomStr = lambda num=5: "".join(random.sample('abcdefghijklmnopqrstuvwxyz', num)) 
  33.  
  34. # 模型加载 
  35. print("Init model"
  36. prediction = ImagePrediction() 
  37. prediction.setModelTypeAsResNet() 
  38. print("Load model"
  39. prediction.setModelPath("/mnt/auto/model/resnet50_weights_tf_dim_ordering_tf_kernels.h5"
  40. prediction.loadModel() 
  41. print("Load complete"
  42.  
  43.  
  44. def handler(environ, start_response): 
  45.     try: 
  46.         request_body_size = int(environ.get('CONTENT_LENGTH', 0)) 
  47.     except (ValueError): 
  48.         request_body_size = 0 
  49.     requestBody = json.loads(environ['wsgi.input'].read(request_body_size).decode("utf-8")) 
  50.  
  51.     # 图片获取 
  52.     print("Get pucture"
  53.     imageName = randomStr(10) 
  54.     imageData = base64.b64decode(requestBody["image"]) 
  55.     imagePath = "/tmp/" + imageName 
  56.     with open(imagePath, 'wb'as f: 
  57.         f.write(imageData) 
  58.  
  59.     # 内容预测 
  60.     print("Predicting ... "
  61.     result = {} 
  62.     predictions, probabilities = prediction.predictImage(imagePath, result_count=5) 
  63.     print(zip(predictions, probabilities)) 
  64.     for eachPrediction, eachProbability in zip(predictions, probabilities): 
  65.         result[str(eachPrediction)] = str(eachProbability) 
  66.  
  67.     return Response(start_response, result) 

所需要的依赖:

  1. tensorflow==1.13.1 
  2. numpy==1.19.4 
  3. scipy==1.5.4 
  4. opencv-python==4.4.0.46 
  5. pillow==8.0.1 
  6. matplotlib==3.3.3 
  7. h5py==3.1.0 
  8. keras==2.4.3 
  9. imageai==2.1.5 

编写部署所需要的配置文件:

  1. ServerlessBookImageAIDemo: 
  2.   Component: fc 
  3.   Provider: alibaba 
  4.   Access: release 
  5.   Properties: 
  6.     Region: cn-beijing 
  7.     Service: 
  8.       Name: ServerlessBook 
  9.       Description: Serverless图书案例 
  10.       Log: Auto 
  11.       Nas: Auto 
  12.     Function
  13.       Name: serverless_imageAI 
  14.       Description: 图片目标检测 
  15.       CodeUri: 
  16.         Src: ./src 
  17.         Excludes: 
  18.           - src/.fun 
  19.           - src/model 
  20.       Handler: index.handler 
  21.       Environment: 
  22.         - Key: PYTHONUSERBASE 
  23.           Value: /mnt/auto/.fun/python 
  24.       MemorySize: 3072 
  25.       Runtime: python3 
  26.       Timeout: 60 
  27.       Triggers: 
  28.         - Name: ImageAI 
  29.           Type: HTTP 
  30.           Parameters: 
  31.             AuthType: ANONYMOUS 
  32.             Methods: 
  33.               - GET 
  34.               - POST 
  35.               - PUT 
  36.             Domains: 
  37.               - Domain: Auto 

在代码与配置中,可以看到有目录:/mnt/auto/ 的存在,该部分实际上是 nas 挂载之后的地址,只需提前写入到代码中即可,下一个环节会进行 nas 的创建以及挂载点配置的具体操作。

项目部署与测试

在完成上述步骤之后,可以通过:

  1. s deploy 

进行项目部署,部署完成可以看到结果:

完成部署之后,可以通过:

  1. s install docker 

进行依赖的安装:

依赖安装完成可以看到在目录下生成了 .fun 的目录,该目录就是通过 docker 打包出来的依赖文件,这些依赖正是我们在 requirements.txt 文件中声明的依赖内容。

完成之后,我们通过:

  1. s nas sync ./src/.fun 

将依赖目录打包上传到 nas,成功之后再将 model 目录打包上传:

  1. s nas sync ./src/model 

完成之后可以通过:

  1. s nas ls --all 

查看目录详情:

完成之后,我们可以编写脚本进行测试,同样适用刚才的测试图片,通过代码:

  1. import json 
  2. import urllib.request 
  3. import base64 
  4. import time 
  5.  
  6. with open("picture.jpg"'rb'as f: 
  7.     data = base64.b64encode(f.read()).decode() 
  8.  
  9. url = 'http://35685264-1295939377467795.test.functioncompute.com/' 
  10.  
  11. timeStart = time.time() 
  12. print(urllib.request.urlopen(urllib.request.Request( 
  13.     url=url, 
  14.     data=json.dumps({'image': data}).encode("utf-8"
  15. )).read().decode("utf-8")) 
  16. print("Time: "time.time() - timeStart) 

可以看到结果:

  1. {"Response": {"laptop""71.43893837928772""notebook""16.265614330768585""modem""4.899385944008827""hard_disc""4.007565602660179""mouse""1.2981869280338287"}, "ResponseId""1d74ae7e-298a-11eb-8374-024215000701"
  2. Time:  29.16020894050598 

可以看到,函数计算顺利地返回了预期结果,但是整体耗时却超乎想象,有近 30s,此时我们再次执行一下测试脚本:

  1. {"Response": {"laptop""71.43893837928772""notebook""16.265614330768585""modem""4.899385944008827""hard_disc""4.007565602660179""mouse""1.2981869280338287"}, "ResponseId""4b8be48a-298a-11eb-ba97-024215000501"
  2. Time:  1.1511380672454834

可以看到,再次执行的时间仅有 1.15 秒,比上次整整提升了 28 秒之多。

项目优化

在上一轮的测试中可以看到,项目首次启动和二次启动的耗时差距,其实这个时间差,主要是函数在加载模型的时候浪费了极长的时间。

即使在本地,我们也可以简单测试:

  1. # -*- coding: utf-8 -*- 
  2.  
  3. import time 
  4.  
  5. timeStart = time.time() 
  6.  
  7. # 模型加载 
  8. from imageai.Prediction import ImagePrediction 
  9.  
  10. prediction = ImagePrediction() 
  11. prediction.setModelTypeAsResNet() 
  12. prediction.setModelPath("resnet50_weights_tf_dim_ordering_tf_kernels.h5"
  13. prediction.loadModel() 
  14. print("Load Time: "time.time() - timeStart) 
  15. timeStart = time.time() 
  16.  
  17. predictions, probabilities = prediction.predictImage("./picture.jpg", result_count=5) 
  18. for eachPrediction, eachProbability in zip(predictions, probabilities): 
  19.     print(str(eachPrediction) + " : " + str(eachProbability)) 
  20. print("Predict Time: "time.time() - timeStart) 

执行结果:

  1. Load Time:  5.549695014953613 
  2. laptop : 71.43893241882324 
  3. notebook : 16.265612840652466 
  4. modem : 4.899394512176514 
  5. hard_disc : 4.007557779550552 
  6. mouse : 1.2981942854821682 
  7. Predict Time:  0.8137111663818359 

可以看到,在加载 imageAI 模块以及加载模型文件的过程中,一共耗时 5.5 秒,在预测部分仅有不到 1 秒钟的时间。而在函数计算中,机器性能本身就没有我本地的性能高,此时为了避免每次装载模型导致的响应时间过长,在部署的代码中,可以看到模型装载过程实际上是被放在了入口方法之外。这样做的一个好处是,项目每次执行的时候,不一定会有冷启动,也就是说在某些复用的前提下是可以复用一些对象的,即无需每次都重新加载模型、导入依赖等。

所以在实际项目中,为了避免频繁请求,实例重复装载、创建某些资源,我们可以将部分资源放在初始化的时候进行。这样可以大幅度提高项目的整体性能,同时配合厂商所提供的预留能力,可以基本上杜绝函数冷启动带来的负面影响。

总结

近年来,人工智能与云计算的发展突飞猛进,在 Serverless 架构中,如何运行传统的人工智能项目已经逐渐成为很多人所需要了解的事情。本文主要介绍了通过一个已有的依赖库(ImageAI)实现一个图像分类和预测的接口。借助这个例子,其实有几个事情是可以被明确的:

当然,本文也算是抛砖引玉,希望读者在本文之后,可以发挥自己的想象,将更多的 AI 项目与 Serverless 架构进行进一步结合。

Serverless Devs

Serverless Devs 是一个开源开放的 Serverless 开发者平台,致力于为开发者提供强大的工具链体系。通过该平台,开发者可以一键体验多云 Serverless 产品,极速部署 Serverless 项目。

Github 地址:https://github.com/serverless-devs

Gitee 地址:https://gitee.com/organizations/serverless-devs/projects

Serverless Devs 官网:https://www.serverless-devs.com

 

来源:Serverless 内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯