聆听 Rita Kozlov 畅谈隐私、AI 和云计算的未来

TechArena 播客,由 Allyson Klein 和 Jeniece Wnorowski 主持

了解 AI 如何影响 Cloudflare 开发者社区,并为开发者提供各种工具来帮助他们集成 AI、保护数据隐私并快速进入市场。Cloudflare 产品副总裁 Rita Kozlov 与 Jeniece 和 Allyson 探讨了 Cloudflare 如何帮助这些开发者直接在其平台上构建产品,从而更容易地扩展规模,无需维护架构,也无需限制产品的区域覆盖范围。

可通过以下渠道收听播客:


音频转录文稿

音频转录文稿

出于清晰简洁的目的,本转录文本经过编辑

旁白:欢迎收听 TechArena,在这里,科技领域顶尖创新者将与主持人 Allyson Klein 展开真诚对话。现在,让我们开始收听吧。

Allyson Klein:欢迎收听“TechArena 数据洞察系列”节目。我是 Allyson Klein。热烈欢迎我的搭档回来,她就是来自 Solidigm 的 Jeniece Wnorowski。Jeniece,欢迎回到节目,最近过得怎么样?

Jeniece Wnorowski:你好,Allyson,非常感谢。我一切都好,能再次回到节目真的很开心。

Allyson:Jeniece,我知道我们今天会有一场非常精彩的访谈。要不要你来介绍一下我们的嘉宾?

Jeniece:当然!今天我特别兴奋,我们邀请到了一位特殊嘉宾 Rita Kozlov,她是 Cloudflare 的产品副总裁。所以今天我们会了解到很多关于 Cloudflare 的信息。

Allyson:欢迎你,Rita。

Rita Kozlov:谢谢,谢谢。感谢你们的邀请。

Allyson:我期待这次访谈已经整整一周了,我们之前也邀请过 Cloudflare 的其他员工上这个节目,但你是第一次来。能先介绍一下你在公司的职责,以及它与 Cloudflare 的整体使命之间的关系吗?

Rita:当然可以。我在 Cloudflare 工作了八年,期间职责有过几次变动。不过我习惯这样概括:Cloudflare 主要为客户提供三类核心服务。大多数人知道我们是因为我们提供的 CDN [Cloud Delivery Network]、WAF [Web Application Firewall]、DDoS [protection. Distributed Denial of Service protection] 等服务。我们倾向于将这些服务看作是应用程序服务。那么,我该如何保护、保障和加速我的应用程序呢? 我们还有一套零信任服务,这项服务更多地关注如何保护员工的设备以及用户实际连接到网络的方式。这类服务更面向企业内部,那如何保障这一侧的安全? 之后我们开始思考:既然我们已经建立了这个网络,而且我们已经在用它做这些事情了,那我们该如何向开发者开放这个平台,让他们能够直接在上面构建产品? 而我负责的正是开发者产品相关的业务,核心是帮助开发者,让他们能在这套基础设施之上搭建应用,无需担心扩容、维护或管理任何底层架构,它们只需要专注于编写代码,就能轻松从“零”快速迭代到最小可行产品,并在此基础上持续发展。

Jeniece:太棒了。说到这一点,Rita,你负责 Cloudflare 的产品相关业务。能不能结合你刚才聊到的解决方案,跟我们说说这一职责具体是指什么?

Rita:当然可以。我负责带领 Cloudflare 开发者平台的产品团队。这意味着要管理一个项目经理团队,共同明确我们解决方案的形态与核心架构。这可能需要考虑方方面面,包括:开发者如何与我们的平台互动? 他们如何编写代码? 他们如何测试代码? 他们如何入驻我们的开发者平台? 我们如何帮助他们成功编写出属于他们自己的第一个程序? 然后,还要考虑该如何为他们提供适当的工具,以帮助他们逐步将编写的代码发布出去。从这个意义上,同时也考虑我们需要向开发者提供哪些工具来帮助他们构建全栈应用程序,我们着手制定产品战略。

Allyson:说到这个,Cloudflare 最鲜明的标签之一就是分布式计算网络。它和传统云服务相比,独特之处在哪里? 这对你们的技术优先级排序又意味着什么?

Rita:如果你之前使用过其他云服务提供商,你首先需要做的事情之一就是选择地区。如果你使用 AWS,你会看到这个下拉菜单,然后你可以选择“美国东部 1”,或者如果面向欧洲用户,就选欧洲的某个区域。说到底,我觉得作为开发者,这首先是一个必须做出的重大决策。而且是你要做的第一件事。因为你实际上是在决定你自己最关心哪些客户。如果选了美国,全球其他地区的用户访问你的应用时,延迟会大幅增加。这就是基于我们的网络搭建产品,与基于“区域化服务”构建的云服务提供商的区别之一。之后当你想拓展业务覆盖范围时,就得搭建相当复杂的架构,包括负载均衡、在多个区域复制所有数据等,这些操作都不简单。当然,从终端用户体验来看,我们的模式优势很明显,延迟更低。但我认为,真正重要的另一方面是开发者体验。通过让一切都在网络层运行,开发者能够运用更高层次的抽象技术,而不仅仅是“掩盖底层架构”那么简单,你应该能理解我的意思。

Jeniece:完全理解。这让我想到,显然,AI 是我们今天的重点话题。Rita,我很想知道,关于 AI 如何满足需求,你们从客户那里收到了怎样的反馈?这些需求是什么?还有这对你的团队需要继续创新意味着什么?你能给我们详细讲讲吗?

Rita:我认为在 AI 工作负载需求方面,我们收到了一些不同的反馈。每个客户的探索路径都有所不同。首先是我所说的运营 AI。团队更多地从内部角度思考:“那我该如何使用 AI 来赋能员工、开发者、团队,以提高他们的工作效率?” 这也是很多企业开展 AI 实验的起点。所以,我认为 AI 最常见的入门用例之一就是代码生成。正因如此,开发者才能很快看到它的好处,因为他们的工作效率一下子就大大提高了。这是我们正在投入的领域,我们也在探索如何让使用这类产品的开发者,能更轻松地运用我们的开发者平台。我认为第二个方面是,你完成了运营 AI 阶段后,就会面临这样一个问题:如何将 AI 投入生产环境或如何向客户推广这种技术?——即使仍处于运营 AI 阶段也可能会面临这个问题。我之前提到过,要让开发者能够构建全栈应用程序,现在我们已经看到,随着开发者的这种期望,AI 已经真正成为技术栈的一部分。因为以前,如果你看一下构成应用程序的组件,你会发现有前端和后端,即 API 和数据库。当然这是非常简化的说法,但核心离不开计算、存储和数据这三大模块。而现在,几乎所有应用程序都包含某种 AI 组件。此类组件或许是为了预测你的下一步行动,或者帮助你决定下一步要做什么,所以你需要运行一个模型才能做到这一点。或许你希望自动聊天机器人能够代表你的团队回答问题,或者能够用更具语义理解能力的功能替代传统搜索,你可以问它:“我需要一款适合这种场合的裙子”,,而不用再勾选一堆筛选框之类的。随着 AI 以这种方式越来越多地融入产品中,我认为这确实改变了开发者的期望,因此,我们推出了一系列 AI 产品来帮助支持这一点。

Allyson:很显然,Cloudflare 并非孤立地运作。你需要有一整套生态系统合作伙伴,才能将这些独特的功能推向市场。你们如何与生态系统互动,来提供客户真正需要的解决方案,尤其是在处于 AI 时代拐点的当下? 这对你们所针对的基础设施和软件类型意味着什么?

Rita:在提供商或生态系统方面,首先,我们非常幸运能够在开源 AI 蓬勃发展的时代投身 AI 领域。正因如此,我们对 Hugging Face 团队所做的工作感到无比兴奋,并将他们的模型纳入到了我们的模型目录中。总的来说,我们一直是开源技术的坚定拥护者。因此迅速向开源方向布局是顺理成章的选择。我还想说的是,生态系统中发展最快的领域是模型本身,以及模型迭代的速度。所以我们会与 Meta 等模型提供商展开合作,确保开发者能在这些工具一推出就及时获取。

Jeniece:从整个数据管道的角度来看 AI 部署,从数据的预训练/后训练到训练、微调,再到最终的重新推理,你认为 Cloudflare 是如何成为客户的首选合作伙伴的?这对你们的产品战略有何影响?

Rita:当我们开始研究 Cloudflare 在 AI 领域可以发挥什么作用时,我们首先考虑的其中一方面是:训练和推理。至少从计算的角度来看,我们涉足推理领域并非明智之举。实际上,这种模式更适合传统的超大规模企业,因为他们需要极其庞大的数据中心以及大量集中部署的 GPU 资源来运行这类工作负载。但我想说的是,即使在训练方面,我们也看到很多开发者倾向于使用 Cloudflare 来存储数据。所以我们发现越来越多人关注我们的对象存储解决方案 [Cloudflare] R2,尤其是因为曾有一段时期 GPU 严重短缺,导致开发者不得不跨多个供应商进行开发。从那时开始,出口费用开始增加,而采用无出口解决方案则带来了巨大的差别。其次,在推理方面,我们看到了 Cloudflare 真正的巨大机遇。我们认为,有三类组织运行 AI 是明智之举。更为明显的两类组织中首当其冲的可能是超大规模企业,我们刚才讨论过这类组织的训练需求。但问题在于,随着 AI 变得越来越普及,这些工作负载对性能的要求也会越来越高。网络也出现了同样的情况,如果你每天与 AI 互动多次,你就会想要获得实时反馈,你会希望一切都能做到即时实现。所以,当事情发生在如此遥远的地方时,你会觉得不够理想。还有一些设备会运行 AI 的子集。你从 Apple 的公告可以得知,很多功能都被集成到设备中,但最终,设备的性能还是会受制于硬件能力。我认为,正因如此,我们把自己定位为一个理想的平台,能够在非常靠近用户的地方运行,而无需在设备本身上运行。随着模型训练逐渐减少,推理成为主要工作负载,我们认为我们处于非常有利的地位,能够为其中很多工作提供支持。

Allyson:谈到这个话题,我想到的一点是,你们的业务遍及很多不同的国家和地区,而且你们在 AI 方面会使用大量的客户数据。你们如何平衡数据安全、隐私和数据主权等因素? Cloudflare 如何与客户一起解决这个问题?

Rita:我认为这是一个非常重要的问题。从推理的角度来看,我们实际上认为自身的一大优势是,我们不使用客户数据来训练模型。我们绝对不会做那样的事。我们不是 OpenAI,我们不会训练基础模型。因此,每一次推理都是完全无状态的,除非你选择使用像我们的矢量数据库这样的产品——在这种情况下,你可以完全控制索引以及你自己存储在产品中的数据。除此之外,推理完全是转瞬即逝的。所以,从这个意义上讲,我们把自己视为真正以隐私保护为先的提供商。至于你提出的关于数据主权的具体问题,我们认为我们的网络在这方面具有强大的优势,因为我们能够精确控制 AI 的运行范围,例如,如果你面临基于某些法律的区域限制,或者你希望推理过程保持在某个区域内。

Jeniece:是的,Rita,我认为 Cloudflare 不仅是一家以隐私保护为先的提供商,而且也因其在可持续计算领域的领先地位而闻名。我很想听听你对此有何看法。

Rita:这涉及几方面。一方面,我们认为能够在用户附近运行实际上是一个巨大的优势,因为这样就不必在全球范围内来回传输所有数据,而这正是我们能够节省大量成本的地方。第二方面实际上关乎如何看待资源配置。我们看到市场上很多其他的 AI 解决方案都将 AI 资源视为虚拟机,但用户必须预先配置这些虚拟机。因此,作为开发者,你必须提前考虑的一个问题是,你需要多少个实例。这种思维方式相当不灵活,因为它意味着你必须提前考虑流量高峰会是什么样子,这是一种非常低效的资源利用方式。所以最终的结果就是,在流量不大的时候,很多资源都闲置着;而当流量高峰来临时,却可能仍然出现资源配置不足问题,于是你继续配置更多资源。相比之下,Workers AI 是无服务器的,我们也将我们的整个开发者平台定位为无服务器平台。所以,我们可以根据用户的需求进行扩展和精简。我们能够跨所有不同的租户进行管理,这是一种更可持续的长期扩展方式。

Allyson:Rita,我很高兴你来参加这个节目。我对 Cloudflare 有了更深入的了解,也真正体会到了现在为客户提供服务是一种什么感觉。现在真是一个疯狂的时代,你们做得非常出色,始终走在时代前沿。我相信大家都很想和你们深入交流。在可以哪里进一步了解你今天所谈到的服务以及与你的团队互动?

Rita:非常欢迎大家与我们互动。如果你想与我们的工程师和团队交流,我绝对推荐我们的开发者聊天工具 Discord,网址为 discord.gg/cloudflaredev。至于我们的 AI 服务,ai.cloudflare.com 上列出并详细介绍了所有服务。以上就是大家可以联系我们的几个途径。

Allyson:非常感谢你今天来参加这个节目。Jeniece,这又是一期非常精彩的“TechArena 数据洞察”节目。感谢你的到来,和我一同分享与行业领导者们的精彩对话。

Jeniece:谢谢你,Allyson,也再次感谢 Rita。太棒了。

Rita:再次感谢你们的邀请。

旁白:感谢收听 TechArena。可在我们的网站 thetecharena.net 进行订阅和互动。所有内容版权归 TechArena 所有。

经许可使用。