Forrester Logo
Forrester Linkin
Forrester英文站
Forrester英文站

首页 >  新兴科技洞察  生成式 AI 与设计相辅相成

生成式 AI 与设计相辅相成

Rowan Curran,分析师  I 2023年3月21日

生成式 AI 作为当今发展最快的技术领域之一。 它能使用机器学习或其他模型(如大语言模型)来创建小说文本、图片和声音等内容,一直以来备受关注。随着最近 OpenAI 发布 ChatGPT,它又火了一把。过去一周里,人们纷纷尝试通过提示和提问来让 ChatGPT 完成各种任务,比如写故事大纲,或者给代码找漏洞。虽然大多数结果是有用和准确的,但 ChatGPT 和其它用于生成文本的大语言模型也很容易信口开河。试用并将生成式 AI 融入员工工作流让企业感到兴奋,但不应掉以轻心,因为企业仍然需要对内容生成流程和 AI 应用方面现有的透明度和治理操作加以维护。


人们在使用生成式 AI 时可能会不小心生成恶意内容(如用 Galactica 生成种族主义或反犹太研究论文)或不受控内容(如用户对所要求的内容不甚了解,因此无法辨别信息的真伪)。如果这样的内容被用于生产或正式环境,那么上述两种情况都会为企业带来风险。对采用该技术的企业来说,至关重要的是要适当审查内容并且能够正确地分辨字面意思和实际意思。如果把生成式 AI 系统比作人类,那么其已经到了“大龄儿童”阶段。这些系统生成的文本可能入木三分、条理清晰,但我们无法判断文本是否为编造的,或是系统在投用户所好。 


生成式 AI 潜力巨大,但在管理上应当与任何其他企业应用一视同仁。如果生成式 AI 能让做事情更简单,那么它也能让做坏事更简单,记得这一点很重要。“信口开河”带来的挑战意味着,我们前所未有地需要围绕 AI 生成内容保持适当的企业工作流和治理操作,进而确保它和其他企业软件一样准确和完整。虽然用生成式 AI 编排企业流程可能是困难的,尤其是考虑到我们能够生成 AI 文本与图片的速度。但当面向生产环境发布的应用可能产生巨大意外后果(如 Meta 的 Blender AI 机器人最近的不当言论带来的后果)时,恰当的治理还是能够帮助团队避免因此而焦头烂额。然而,声誉并非唯一风险。如果缺乏模型使用控制或保护,那么不难看到,ChatGPT 提供的健康改善建议反而会让用户的健康状况变糟。


试用和采用生成式 AI 应用前先思考以下问题。 企业开始探索新的可能性了,但关于应用还有很多问题尚待解决。企业应首先思考以下核心问题:

  • 训练数据来源可靠吗?它可能是正确的吗?


  • 如果由外部合作伙伴来训练模型,企业如何审计数据源以确保能够识别数据中可能存在的偏见和干扰因子?   


  • 解决方案理解上下文吗?它能根据前一问题理解后面的新问题吗?它可能根据对用户的了解来给出不同答案吗?  

 

  • 解决方案中是否包含审计跟踪、监管链或其它表明其为生成内容的指标?


生成式 AI 的未来是光明的,但也不要被各种可能性所蒙蔽。生成式 AI 的未来是不断扩展的用例带来的各种可能。企业各部门都能受益于该技术——从呼叫中心到营销、产品开发、内容生成、人力资源、员工支持和客户体验。对于当下这些模型的可能性,我们只看到了冰山一角,因为模型开发一直都在快速提供更丰富的能力。企业必须即刻着手探索这些能力,而且应当基于生成式 AI 可能影响企业的方式,以自上而下和自下而上两种方式制定战略。


Forrester 订阅会员可点击这里参阅完整版英文报告 《Generative AI Prompts Productivity, Imagination, And Innovation In The Enterprise 

若您有任何其他问题,欢迎电邮 china@forrester.com 与我们联系,点击这里解锁更多新兴科技洞察  


联系我们


请填写表格,我们将尽快与您取得联系。