欢迎您访问bat365在线平台的官方网站!

资讯中心

News

谷歌开发人员推出了AI和机器人技术,研究食物识别制作便当

2020/4/15 18:41:41

在谷歌的面向开发者的博客“谷歌 Developers”上,谷歌开发人员在开放源上刊登了利用AI相关技术的App库“TensorFolow”,机器人“Foodly”的应用场景。
在人旁边工作的“Foodly”
“Foodly”是在制作便当的工厂生产线上,与工作人员协作工作的机器人。使用AI技术识别便当的配菜,机器人拿起装在便当里。机器人大小约为成人,可以在便当工厂的传送带上与人相邻作业。
能从散装的状态,一个个识别这个系统最难的是从堆积如山的炸鸡块等图像中判断,识别一个炸鸡块,然后挑出来装盘。也就是所谓的被称为“区分”的领域。在图像识别的世界里,特别是在食材中,油炸食品很难区分。理由是没有两个形状相同的。而且,如果散装的话,很难分辨图像中一个炸鸡块是从哪里到哪里。Foodly的识别App解决了该问题。TensorFlow是谷歌作为开放源代码发布的用于机器学习的App库,它通过使用深度学习的机器学习来识别食物成分和各个位置。
将整个散装识别为一条大型油炸鱼
识别每个单独的油炸产品
一方面,便当工厂方面的问题是劳动力短缺。另一方面,Foodly机器人不是人类。它可以在普通工厂中直接使用,在60至90厘米的狭窄空间中使用,而无需专业人员进行复杂的安装和调整。这不仅是一个硬件问题,即使它碰到人也不会有危险,而且这是也是App的特点,即使未预先确定,它也能识别照明等环境。
此外,在便当工厂流水线上的菜单每小时变化约2到3次。此外,还有不确定因素,例如不同的便当盒和不同的流速。使用传统的工业机器人很难处理这些问题,但是Foodly能使之成为可能。
第一个模型“ NEKONOTE”Foodly的前身“ NEKONOTE”就像一个工业机器人,由一只手臂和一个安装在顶部的摄像头组成。NEKONOTE在2016年6月的“ TensorFlow研究会议”上发表,并在德国的CEBIT 2017上展出。
“ NEKONOTE”在CEBIT 2017上展出
针对NEKONOTE,有人认为“在现场使用的话一只手的话会很可怕”,也有人认为“在食材上配置照相机的话有可能混入异物”。另外,由于相机和手臂的位置关系,也存在自己的手臂会妨碍视线的问题。从这些情况出发,大家认为类人形式的机器人是符合需求的,所以它成为现在的Foodly的类型。在NEKONOTE时代,它还不支撑散装堆叠,而是识别出单独放置炸鸡块的位置后将其装盘。
早期检测
深度学习进行油炸检测的旅程通过NEKONOTE的发展而积累的专业常识而产生的Foodly现在可以从散装食品中检测出每种油炸产品。在检测中,识别轮廓而不是矩形。这是一种使用从R-CNN开发的Mask R-CNN的方法。
另外,Foodly使用深度相机,该相机可以从相机知道深度。由于可以将不规则行为作为特征并进入深度学习,因此提高了准确性。
使用深度摄像头了解不规则性
现在,Foodly机器人还可以抓取番茄等柔软的食材。另一个问题是,您需要调整力度以避免挤压,要解决这个问题,需要Foodly具有控制握力的功能,研究人员正在努力利用App与硬件的优势,来应对食品行业种类多样性的挑战。


扫一扫 关注大家
XML 地图 | Sitemap 地图