生成式 AI:机会与风险并存,企业该如何取舍?

作者 | 李晨

编辑 | Debra Chen

Gartner最近对全球2,500名高管进行的一项调查发现,近一半(45%)的人表示,ChatGPT的宣传促使他们增加人工智能(AI)投资。调查报告称,70%的高管表示他们正在调查人工智能的使用,而19%的高管正在试点或已经在生产中部署人工智能。

Gartner发现,大量组织正在使用ChatGPT等生成式AI来改进宣传内容或者生成代码。这种技术可以增强使用者的能力,并可以自主执行业务和IT流程,生成式AI可以潜在地取代或补充多项工作任务。调查发现,68%的高管认为生成式AI的好处大于风险,而只有5%的人认为风险大于收益。然而,随着使用程度的不断深入,高管们可能会开始改变他们的观点。

Gartner给出了建议和警告:“最初对新技术的热情可能会让位于对风险和实施挑战的更严格的管控,组织在开始开发和部署生成式AI时,可能会遇到许多信任、风险、安全、隐私和道德问题。”

ChatGPT,文心一言,Bard或通义千问等工具使用先进的机器学习技术来生成复杂的文本。生成式AI的好处包括易于培训和定制化、降低运营成本和7x24全天候服务。然而,尽管有这些好处,但像ChatGPT这样的生成式AI工具确实存在着捏造信息、泄露隐私和错误引导等风险。

生成式AI如何提供业务价值?

生成式 AI 是一种特定自然语言处理(NLP)工具,该工具以类似人类的对话方式生成对用户提示或问题的响应。生成式AI分析和“学习”各种类型的数据:文本、音频、图像,并生成类似人类的输入答案。

在用于客户服务目的的生成式AI的场景下,组织通常将该工具集成到基于文本或语音的聊天机器人中,用于完成以下任务:

  • 回答客户有关产品或服务的问题。
  • 自动化完成订单,换货和退货。
  • 提供多种语言服务。
  • 将用户引导至FAQ和服务团队寻求帮助。

根据企业业务的不同,客户服务用例可能会有很大差异。但是ChatGPT这类生成式AI工具确实帮助企业提升了AI机器人对客户服务的效率和准确率。

生成式AI在企业应用中的风险

尽管有好处,但像ChatGPT这类的生成式AI工具也有不少缺点,甚至是致命问题。因此,企业在将重要业务控制权移交给AI机器人之前必须了解以下风险:

  1. 捏造信息

生成式AI机器人的有用性取决于它们拥有的信息。在某些情况下,人工智能可能会错误地解释信息,或者使用不充分或过时的信息。如果人工智能系统学习到不准确或捏造的数据,它可能会对用户问题产生不正确的回答。

生成式人工智能聊天机器人还可以创造连贯的废话,自信而雄辩地做出虚假陈述。在这种情况下,生成式AI工具会生成随机且不准确的输出,这会使用户感到困惑,捏造的信息也可能导致用户对该工具失去信任,从而降低其实用性。

  1. 隐私泄露风险

隐私泄露风险是指用户不知情情况下,个人的私密信息被泄露,或者通过其他信息被ChatGPT推断出来的隐私信息。在使用 ChatGPT 过程中,个人、企业、甚至国家的机密信息都可能泄露。

个人信息的泄露可能会对个人的心理健康、人身和财产安全造成影响。而国家或企业商业机密则往往只有少数人能够获悉,这些信息的泄露和传播可能会危及国家和企业的安全。此外,即使用户未直接泄露私密信息,ChatGPT 在不断学习的过程中,也可能自行推断出这些信息,增加了隐私信息被推导出来的风险。

  1. 有偏见的信息

人工智能模型可以学习识别和描述对象,以区别很多相似的名字或外观,但ChatGPT使用和分析的数据是来自数十亿个网页的数据。因此,在互联网上存在的种族或政治偏见可以被夹带到工具的输出中。

如果一个企业的生成式AI聊天机器人产生种族主义、歧视或政治偏见的回应,该企业的品牌可能会受到严重损害。

  1. 缺乏同理心

ChatGPT可以在其回复内容中模拟人类口吻和行为,但它仍然缺乏真实人类的同情心和同理心。如果一个愤怒的客户与一个缺乏真正人类情感的AI机器人互动,他们可能会变得越来越沮丧和愤怒。

  1. 安全问题

与任何网络连接技术一样,一些组织或个人可以秘密地将虚假信息插入生成人工智能系统。例如,他们可能会插入受恶意软件感染的链接或网络钓鱼做法,为AI提供向用户传递恶意软件和网络钓鱼信息的机会。

企业应该使用生成式AI吗?如何使用更稳妥?

在这个AIGC时代,生成式AI会极大的改变社会运行方式和企业商业运行逻辑。客户服务和咨询行业、金融和银行业、制造业、教育行业、翻译、影视制作、图像服务等行业都会迎来翻天覆地的变化。我们不要因噎废食,因为生成式AI有这样或那样的风险就不去使用,这样会使个人或企业错过技术革新而失去竞争力。但是,也需要在使用时进行细致的规划和规范的管理。建议企业在使用生成式AI时遵循以下原则:

  1. 用户教育和安全意识提升:

提高用户的教育和安全意识是确保安全使用生成式AI的重要措施。平台和开发者应该提供明确的使用指南和行为准则,向用户解释生成式AI的工作原理、其生成内容的特点以及潜在的风险。推广数字素养和信息鉴别能力,帮助用户更好地辨别虚假信息、不当行为和恶意攻击。开发者可以开展宣传活动、举办培训和研讨会等,让用户了解生成式AI的应用场景、限制和风险。通过增加用户对生成式AI的认知,可以帮助他们更加谨慎地使用,并主动参与保障使用生成式AI的安全性。

  1. 私有化部署生成式AI大模型,并尽量使用自有完整数据进行二次训练,而非直接采用外部服务或现成大模型:

对生成式AI进行有效的训练和筛选是必要的,训练数据的质量和多样性对于生成出准确、有用的回答至关重要。通过对训练数据进行筛选和审核,去除虚假、有害或误导性的内容,能够提高生成式AI的可信度和安全性。经过内部完整数据的二次训练,会让生成式AI更懂实际业务场景和正确的应对内容,提供给用户的反馈信息就会更准确,针对性更强。

  1. 完善管理策略, 遵循国家政策或法律法规,避免产生道德、隐私或安全问题:

实施内容审核和监管机制是确保生成式AI安全使用的关键一环。平台和使用者应该加强对生成内容的监控和审核,及时发现和处理不当的言论或内容。建立机制,使用户能够报告有害或违规内容,从而保障平台的安全和用户的权益。

如何私有化部署大模型并快速训练?

面对以上问题,有不少企业希望训练自己的私有化GPT大模型,但是不菲的硬件投入成本和时间成为最大的阻碍,让很多尝试拥抱生成式AI的企业望而却步。如何能用最小的代价,快速训练出安全、准确、适用的GPT大模型?Apache顶级开源社区海豚调度- DolphinScheduler给出了答案。

Apache DolphinScheduler是一个Star超过1万的大数据和AI的调度工具,它是Apache软件基金会旗下的顶级项目,这意味着你可以免费使用它,也可以直接修改代码而不用担心任何商业问题。在AIGC领域,DolphinScheduler的目标是让任何对GPT大模型有需求的个人或者企业,都能享受到拥有更“懂”自己的模型的乐趣,每个人或企业都有权利和能力去塑造自己的AI助手,而DolphinScheduler可见即所得的工作流程为此提供了可能。

无论你是业界专家,寻求用专属于你的数据来训练模型,还是AI爱好者,想尝试理解并探索深度学习模型的训练,DolphinScheduler都将为你提供便捷的服务。它为你解决了复杂的预处理、模型训练、优化等步骤,只需1-2个小时几个简单的操作,加上几十小时的运行时间,就可以构建出更“懂”你的定制化ChatGPT大模型。

在这个以数据和技术驱动的世界中,拥有一个专属的生成式AI模型具有无法估量的价值。随着人工智能和深度学习的日益发展,我们正处在一个可塑造个性化AI助手的时代。而训练和部署属于自己的生成式AI模型,可以帮助我们拿到更准确,更安全、更可信的结果,更好地利用AI实现业务价值。

总体而言,自训练和部署生成式AI模型可以帮助你更好地保护数据安全和隐私、满足特定的业务需求、节约技术成本,同时通过工作流工具如DolphinScheduler使训练过程自动化,可以加速这一工作的实现。更多信息,请访问海豚调度官方网站 https://dolphinscheduler.apache.org/ 或者关注微信公众号 “海豚调度”

本文由 白鲸开源 提供发布支持!

热门相关:盛世妖颜   魔神狂后   隐婚试爱:娇妻,好甜!   悠哉兽世:种种田,生生崽   一等狂妃:邪王,请接招!