在自动化和流程协作中实现人工智能(AI)具有巨大的潜力,可以提高效率、流程有效性和获得更好的业务成果。通过正确的专业知识、合作伙伴关系和人工监督,AI系统在自动化环境中可以非常有效。
在带来回报的同时,AI为现实世界中的工业应用也带来了一定的挑战和风险。除了一些AI领导者发现的更深层次的生存威胁在外,在将AI添加到您的超自动化技术堆栈中之前,还有一些实际的考虑因素需要牢记。以下是自动化领域中AI实施带来的一些关键挑战,以及如何解决这些挑战的建议。
1. 机器学习的数据可用性
虽然这听起来像是一个简单的问题,但现实是为机器学习模型准备数据往往是一个巨大的挑战。相关调查显示,数据科学家和数据工程师通常将 80% 的精力用于数据准备。
如果没有为 AI 设计的纯净数据,就不可能训练出适合的 AI 模型以使其为生产做好准备。不幸的是,失败经常发生。市场研究公司Gartner发现,85%的AI项目未能交付,只有53%的项目最终实现了从原型到投产。
许多企业提供为机器学习准备的数据集以用于自动化领域,例如用于不断改进过程模型的流程执行数据,这加快了培训进度,并大大减少了数据科学家和数据工程师所需的工作量。从而使这些供不应求的高价值员工,可以将时间分配到其他关键的任务。
2. 模型中的准确性问题和偏差
准确性和偏差是人工智能应用中两个关键但反复出现的问题,需要人类的监督。例如,生成式AI应用程序容易产生幻觉,或者根据其训练数据集编造事实。
同样,将有偏差的数据集输入到机器学习模型也可能会产生有偏见的结果。例如,如果一家金融服务公司正在使用由AI驱动的自动化系统来接受或拒绝信贷申请,那么就必须避免培训数据集中可能包含的对女性或有色人种的系统性偏见。
随着我们朝着AI驱动的决策方向发展,人类必须在“回路”中保持清醒,验证机器学习算法产生的结果,以检查偏差和其他形式的不准确。让人类参与“回路”是重新训练算法以在生产环境中更有效地执行的关键一步。
3. 安全策略
许多大型语言模型和其他机器学习模型已经使用互联网用户生成的大量在线数据语料库进行了训练。例如,公开可用的亚马逊和Yelp评论被用于训练情绪分析算法。
在企业环境中,使用 ChatGPT 等公开可用的模型可能会对敏感数据(如个人身份信息或知识产权)构成风险。使用这些工具时,遵守公司的数据安全策略非常重要。
为了避免这些类型的问题,许多组织基于内部数据集开发了自己的专有机器学习模型,从而降低了企业数据落入坏人之手的风险。
4. 法律风险
监管AI是一个全球持续存在的问题,法律领域继续受到包括生成式AI在内的新兴技术的影响。例如,许多人对使用AI生成的文本和图像提出了版权问题。
在开源世界中,自动代码生成器引起了对许可的担忧。一些关键问题在于生成式AI系统缺乏可追溯性——换句话说,很难知道代码来自哪里以及如何将其归因于其原始创建者。
例如,如果组织正在使用自动代码生成器为流程模型开发代码,那么在输入专有代码或利用开源软件时最好谨慎行事。
5. 成熟度考量
在某些技术领域,例如自动化决策的增强智能系统,可能还没有完全准备好迎接黄金时代。这些技术通常需要来自多个来源的混合数据集才能做出有效的决策。许多团队没有能力在生产中使用这些系统,无论是由于资源限制还是缺乏适用的培训数据。
然而,随着企业在数智化方面成熟度的提高,能够在人类监督的环境中使用增强智能,这些系统在自动做出某些决策方面将变得更加有效。它们可以帮助改善人类的工作流程,让员工更有效地分配时间。
虽然这些挑战肯定会影响实施人工智能的任何决定,但这并不妨碍企业进行试验的意愿。AI与流程协作相结合有助于提高自动化程度,从而改善业务运营和客户体验。从持续改进流程到自动化决策,再到增强或优化人类工作流程——AI在这一领域的无限可能性是令人兴奋的。