ECI@HiTech | Gartner专家详解:企业生成式AI的顶级问题解答(上)

转载 收藏 评论
举报 2023-07-31

【ECI @HiTech科技创新】每周精选热门科技创新主题,帮助科技创新者和初创团队取得成功!让我们共同携手,寻找改变现有游戏规则的科技创新,激发人类的智慧和挑战,实现科技的创新和梦想。这就是科技创新的终极魅力!

通常来说,科技的发展都会交替经历平台期和爆发期。平台期的科技创新更多聚焦于识别并解决客户现在的痛点,而爆发期的科技创新更多聚焦于引领并创造客户未来的需求,划时代的伟大科技创新往往诞生于此。

在当今数字化时代,人工智能技术的发展和应用已经越来越广泛,其中生成式AI更是成为了一个热门话题。然而,对于企业而言,如何理解和应用生成式AI,如何解决其中所涉及的顶级问题,却是需要深入探讨的。Gartner专家针对这一话题,详细解答了企业在应用生成式AI时所面临的顶级问题,为我们提供了一份宝贵的参考。


有关生成式AI的相关问题




Q1:什么是生成式AI?


生成式AI是指能够从现有艺术作品中学习,并生成新的、逼真的艺术作品(大规模)的能力的人工智能。它能够产生各种新颖的内容,例如图像、视频、音乐、语音、文本、软件代码和产品设计等。

生成式AI使用许多不断发展的技术。最重要的是人工智能基础模型,这些模型经过广泛的、未标记的数据训练,可以用于不同的任务,并进行额外的微调。这些训练模型的创建需要复杂的数学和巨大的计算能力,但它们本质上是一种预测算法。

如今,生成式AI最常见的应用是响应自然语言请求创建内容——不需要了解或输入代码——但其在企业中的用途众多,包括药物和芯片设计以及材料科学发展方面的的一些创新。


Q2:生成式AI突然受到热捧的背后是什么?

Gartner自2020年起在人工智能技术成熟度曲线图上对生成式AI进行了跟踪(此外,生成式AI还被列入我们2022年的顶级战略技术趋势),该技术已从创新触发阶段进入到了期望膨胀顶点。但是,生成式AI只是在2022年末随着能够进行类人机交互的聊天机器人ChatGPT的推出才成为主流头条新闻。:一夜之间变得广受欢迎、激起公众关注的ChatGPT由OpenAI推出。(OpenAI的DALL·E 2工具以相关生成式AI创新技术根据文字生成图片。)

Gartner认为,生成式AI将成为一种通用技术,其影响将与蒸汽机、电力和互联网类似。随着实施的现实情况显现,炒作将会消退,但生成式AI的影响将会随着人员和企业发现该技术在日常工作和生活中的应用而不断增强。


Q3:生成式AI的好处和用途是什么?


基础模型,包括驱动ChatGPT的生成式预训练转换器,是可以用来实现自动化、增强人类或机器,以及自动执行商业和IT流程的AI架构创新之一。


生成式AI的好处包括更快的产品开发、更好的客户体验和更高的员工效率,但具体取决于使用案例。最终用户应现实地看待他们希望实现的价值,尤其是在使用存在重大局限性的服务时。生成式AI创建的工具有时可能不准确或有偏见,因此人的验证是必不可少的,并可能限制其为工作人员节省的时间。Gartner建议将使用案例与KPI挂钩,以确保任何项目要么提高运营效率,要么创造净新收入或更好的体验。


在最近的Gartner网络研讨会的调查中,有2500多名高管参加,38%的人表示,客户体验和留存是他们投资生成式AI的主要目的。其次是收入增长(26%)、成本优化(17%)和业务连续性(7%)。

Q4:生成式AI的风险是什么?

与生成式AI相关的的主要风险包括:

  • 不透明:生成式AI和ChatGPT模型是不可预测的,即使是它们背后的支持的公司也并不总是能完全理解它们是如何工作的。


  • 准确性:生成式AI系统有时会产生不准确和虚构的答案。在依赖或公开传播信息之前,请对所有输出进行准确性、适当性和实际可用性评估。


  • 偏见:需要制定政策或采用控制措施来检测有偏见的输出,并按照公司政策和任何相关法律规定处理这些有偏见的输出。


  • 知识产权(IP)和版权:目前没有可验证的数据管理和保护保证,以确保企业机密信息不被泄露。用户应假设输入ChatGPT及其竞争对手的所有数据或查询将成为公开信息。我们建议企业制定控制措施,避免无意中泄露IP。


  • 网络安全和欺诈:企业必须为使用生成式AI系统的恶意行为者做准备,以防止他们进行网络和欺诈攻击,例如使用深度伪造技术对员工进行社交工程攻击,并确保实施缓解控制措施。与网络安全保险提供商协商,检查您的现有政策在多大程度上涵盖了与AI相关的漏洞。


  • 可持续性:生成式AI使用大量电力。要选择能够降低能耗并利用高质量可再生能源的供应商,以缓解对可持续发展目标的影响。


Gartner还建议考虑以下问题:

  • 谁定义了生成式AI的负责任使用,特别是随着文化规范的发展和社会工程方法的地理差异?谁确保合规?不负责任使用的后果是什么?


  • 如果出现差错,个人可以采取什么行动?


  • 用户如何给予和取消同意(选择加入或选择退出)?从隐私辩论中可以学到什么?


  • 使用生成式AI会帮助还是伤害组织和对整体机构的信任?


  • 如何确保内容创作者和所有者保持对其IP的控制并得到公平补偿?新的经济模型应该是什么样子?


  • 谁将确保整个生命周期的正确运作,他们将如何实现?例如,董事会是否需要人工智能道德领导?


最后,不断监控生成式AI的监管发展和诉讼情况很重要。中国和新加坡已经出台了关于生成式AI使用的新法规,意大利则暂停了使用。美国、加拿大、印度、英国和欧盟目前正在制定各自的监管环境。

Q5:生成式AI目前的一些实际应用是什么?

生成式AI将在科学发现和技术商业化方面迅速发展,但在创意内容、内容改进、合成数据、生成式工程和生成式设计方面,用例正在迅速涌现。目前,高级实际应用包括以下内容。

  • 书面内容扩充和创作:以所需风格和长度生成文本的“草稿”输出


  • 问答和发现:使用户能够根据数据和提示信息定位输入的答案


  • 语气:文本操作,以软化语言或使文本专业化


  • 总结:提供对话、文章、电子邮件和网页的缩短版本


  • 简化:分解标题、创建大纲和提取关键内容


  • 针对特定用例的内容分类:按情感、主题等分类


  • 聊天机器人性能改进:改善“实体”提取、整个对话情感分类以及根据一般描述生成旅程流


  • 软件编码:代码生成、翻译、解释和验证


具有长期影响的新兴用例包括:

  • 创建显示疾病未来发展的医学图像


  • 合成数据帮助扩充稀缺数据,减轻偏差,保护数据隐私并模拟未来场景


  • 主动向用户建议附加操作并向其提供信息


  • 遗留代码现代化


Q6:生成式AI将如何创造商业价值?

生成式AI提供了新的、颠覆性的机会来增加收入、降低成本、提高生产力和更好地管理风险。在不久的将来,它将成为竞争优势和差异化因素。

Gartner将机会分为三类:

  • 收入机会

产品开发:生成式AI将使企业能够更快地创建新产品,包括新药、毒性更低的家用清洁剂、新型香料和香水、新合金以及更快、更准确的诊断。

新的收入渠道:Gartner的研究表明,人工智能成熟度较高的的企业将获得更大的收益。

  • 成本和生产力机会

工人扩充:生成式AI可以增强工人起草和编辑文本、图像和其他媒体的能力,还可以总结、简化和分类内容;生成、翻译和验证软件代码;提高聊天机器人性能。在此阶段,该技术擅长快速、大规模地创造各种艺术品。

长期人才优化:员工将通过与AI合作构思、执行和完善想法、项目、流程、服务和管理关系的能力而脱颖而出。这种共生关系将加速熟练程度的,并大大扩展全体员工的工作范围和能力。

流程改进:生成式AI可以从大量内容中得出真正、情境化的价值,而迄今为止这些内容可能还没有被广泛利用。这将改变工作流程。

  • 风险机会


降低风险:生成式AI分析和提供更广泛、更深入的数据可见性的能力,如客户交易和潜在的故障软件代码,提高了模式识别和更快识别企业潜在风险的能力。

可持续性:生成式AI可以帮助企业遵守可持续性法规,降低搁浅资产的风险,并将可持续性嵌入到决策制定、产品设计和流程中。

Q7:哪些行业受到生成人工智能的影响最大?

生成式AI将通过人工智能模型增强核心流程,影响制药、制造、媒体、建筑、室内设计、工程、汽车、航空航天、国防、医疗、电子和能源行业。它将通过增强跨多个组织支持流程的方式,影响营销、设计、企业通信以及培训和软件工程。例如:

  • 我们认为,到2025年,超过30%的新药物和材料将系统地使用生成式AI技术发现,而现在为零。考虑到可以在药物发现过程中降低成本、缩短时间,生成式AI在制药行业看起来很有潜力。


  • 我们预测,到2025年,大型组织的30%的对外营销信息将从合成中生成,高于2022年的不到2%。像GPT-3这样的文本生成器已经可以用来制作营销文案和个性化广告。


  • 在制造、汽车、航空航天和国防工业领域,生成式设计可以创建针对特定目标和约束条件(如性能、材料和制造方法)进行优化的设计。这通过为工程师探索一系列潜在解决方案加快了设计流程。


Q8:使用生成人工智能的最佳实践是什么?

提供人工智能信任和透明度的技术将成为生成人工智能解决方案的重要补充。此外,执行领导人应遵循LLM和其他生成人工智能模型的道德使用指南:

  • 从内部开始。在使用生成人工智能创建面向客户或其他外部内容之前,请与内部利益相关者和员工用例进行广泛测试。


  • 重视透明度。与人坦诚相待,无论是员工、客户还是公民,都要清楚地在对话中多次标注交谈内容。


  • 做好尽职调查。建立流程和保护措施以追踪偏见和其他信任问题。通过验证结果并不断测试模型是否偏离轨道来实现这一目标。


  • 解决隐私和安全问题。确保不输入也不导出敏感数据。与模型提供商确认此数据不会在您的组织之外用于机器学习。


  • 放慢脚步。让功能在beta测试阶段停留更长时间。这有助于降低对完美结果的期望。


注:本文内容转载于Gartner网站文章:

Gartner Experts Answer the Top Generative AI Questions for Your Enterprise(https://www.gartner.com/en/topics/generative-ai)


ECI Media官方媒体矩阵



联系我们




本文系作者授权数英发表,内容为作者独立观点,不代表数英立场。
转载请在文章开头和结尾显眼处标注:作者、出处和链接。不按规范转载侵权必究。
本文系作者授权数英发表,内容为作者独立观点,不代表数英立场。
未经授权严禁转载,授权事宜请联系作者本人,侵权必究。
本内容为作者独立观点,不代表数英立场。
本文禁止转载,侵权必究。
本文系数英原创,未经允许不得转载。
授权事宜请至数英微信公众号(ID: digitaling) 后台授权,侵权必究。

    评论

    文明发言,无意义评论将很快被删除,异常行为可能被禁言
    DIGITALING
    登录后参与评论

    评论

    文明发言,无意义评论将很快被删除,异常行为可能被禁言
    800

    推荐评论

    暂无评论哦,快来评论一下吧!

    全部评论(0条)

    发布者
    ECI Awards

    ECI Awards

    上海 黄浦区

    蒙自路169号智造局一期2号楼201-203室