将AI与NVIDIA GPU带到边缘

2021-04-14 03:15:39

CloudFlare已经长期使用过机器人检测,识别异常,客户支持和商业智能。在内部我们有一组用于模型培训和推理的GPU集群。

我们甚至更长时间,我们已经在全球200多个城市运行了“在边缘”的代码。最初,这是我们编写的代码,通过我们的UI或API完成了任何自定义。大约七年前,我们开始部署在Lua的定制代码,为我们的企业客户。

但它非常明显,使用一种没有广泛理解的语言,并通过一个帐户主管来获得代码,这不是一个可行的解决方案,所以四年前我们宣布了CloudFlare工人。工人允许任何人在任何计划上写入部署到我们边缘网络的代码。他们可以用他们选择的语言来做到这一点。

启动工人后,我们通过工人KV添加存储作为程序需要算法加数据。我们继续为工人平台添加到工人未绑定,持久物体,司法管辖区的限制等。

但是,今天的许多应用程序需要访问最新的机器学习和深度学习方法。这些应用需要三件事:轻松缩放,以安全地处理模型并使用熟悉的工具。

为帮助任何人构建基于AI的应用程序CloudFlare正在扩展工人平台,包括支持NVIDIA GPU和Tensorflow。很快您将能够使用预先构建或自定义模型来构建基于AI的应用程序,用于推断。

多年来,我们已经寻找适当的硬件来在我们的边缘网络上运行,以实现AI供电的应用程序。我们已经审查了各种专用AI加速器芯片,以及使用模型巧妙编码的方法使它们能够高效地运行CPU。

最终,我们决定,在全球200多个城市的服务器大量占地面积以及AI工具包中强大支持NVIDIA GPU,最好的解决方案是部署NVIDIA GPU,以实现基于AI的应用。今天我们宣布我们正在与NVIDIA合作,将AI带到我们的全球优势网络。

以前的机器学习模型部署在昂贵的集中式服务器上或使用云服务将其限制在世界各地的“地区”。 CloudFlare和NVIDIA在全球在线人群的毫秒内将机器学习置于边缘,从而实现高性能,低延迟AI被任何人部署。

由于模型本身留在CloudFlare的数据中心中,因此开发人员可以部署自定义模型,而无需将它们放在最终用户设备上,因此它们可能会被盗。因为我们将在大型网络上部署模型,因此缩放变得微不足道并内置。

Tensorflow已成为建筑和运行AI型号的Defacto标准库和工具集之一。 CloudFlare的Edge AI将使用Tensorflow允许开发人员在部署到我们的EDGE网络之前使用熟悉的工具和测试来培训和优化模型。

除了使用Tensorflow构建您自己的模型外,我们还计划为图像标记/对象​​识别,文本检测等的任务提供预先训练的型号。

作为在CloudFlare基础设施上运行的基于AI的基于AI的应用程序的示范,CloudFlare Lisbon Office的团队建于一个网站:nataornot.com。上传一张食物的照片,它会告诉你它是葡萄牙美味的Pasteis de nata之一(一个鸡蛋蛋羹馅饼糕点用肉桂粉)。

该代码使用了来自Pasteis和其他食物的数千张图片构建的Tensorflow模型,这些食物在CloudFlare服务器上运行,其中包含了NVIDIA A100张核心GPU。如果您想建立自己的柔和山顶识别器,我们可以在此开放纹理流出模型。

如果你只是想知道你拥有的食物的图片是否是山顶或不访问nataornot.com。 如果您有兴趣在工人AI获得通知时,请在此处注册。 如果您有兴趣在我们招聘的规模上致力于AI。 开发者周开发人员CloudFlare工人合作伙伴