【游戏世界】12月5日消息,据最新调查显示,Generative AI(GenAI,生成式人工智能)每年将为全球经济贡献7.9万亿美元。GenAI的影响不仅在全球经济中显著,也为各行各业带来了变革机遇。
随着GenAI在不同领域的影响日益加深,对GenAI安全性的关切也逐渐升温。
在亚马逊云科技于2023年re:Invent全球大会上,亚马逊首席安全官Steve Schmidt从两个方面探讨了GenAI和大型语言模型(LLMs)与企业信息安全之间的关系。
亚马逊首席安全官Steve Schmidt
Schmidt强调了LLMs和GenAI是安全人员改善安全成果的最新工具之一。他指出,GenAI是亚马逊团队为帮助客户更有效工作、提高安全标准而推出的工具之一。
据游戏世界了解,亚马逊在re:Invent上正式推出了两项GenAI驱动的安全服务新功能。
第一个新功能是Amazon Inspector的升级版,利用机器学习模型和自动推理来帮助用户识别代码漏洞,并提供修复漏洞的代码补丁的指导。Steve Schmidt表示,GenAI驱动的Amazon Inspector不仅能够指出不正确的代码,还能直接提供正确代码,加速开发者解决安全问题的速度。
第二个新功能是Amazon Detective的升级版,它是一项调查潜在安全问题的服务能力,能够帮助客户分析、调查并快速确定安全发现或可疑活动的根本原因。Amazon Detective使用GenAI创建关于安全威胁或入侵的技术指标的文本描述,帮助安全工程师提高工作效率。
Steve Schmidt向游戏世界表示,“亚马逊的所有代码在进入生产阶段之前都要经过审查,多年来进行的大量代码审查和庞大的代码库规模使我们能够有效地训练和精细调整这个模型服务,最近亚马逊开始使用定制的大型语言模型来加速代码审查。”
关于如何安全使用GenAI服务,Schmidt提出了三个关键问题:
第一:“我们的数据在哪里?”他强调在使用公司数据训练大型语言模型时,必须关注模型如何访问数据、数据在传输和静止时的加密,以及对访问数据的权限进行最小化。
第二:“查询和相关数据会发生什么?”他表示查询本身可能是敏感的,而当用户向GenAI提问时,查询中可能会包含更多细节和具体要求,需要加入数据保护计划。
第三:“GenAI模型的输出是否足够准确?”他强调GenAI生成“非确定性”的输出,企业不能完全依赖于AI替代安全工程师,而是应该让大模型帮助工程师更有效率地工作。
总体而言,GenAI的广泛应用在不同行业带来了显著的经济贡献,但与之伴随的安全问题也需谨慎对待。游戏世界建议,企业在使用GenAI服务时,应该对数据、查询和模型输出进行深入思考,并确保安全团队在决策过程中发挥关键作用。