对于 IT 领导者而言,可操作的基因人工智能仍是一个不断变化的目标

计算机世界
2024-02-29 08:45 来自广东

【导语】生成式人工智能突飞猛进的发展速度,让企业在有效实施和衡量这项技术的同时,还要防范偏见和风险。

已经部署或正在积极探索生成式人工智能的公司数量正在加速增长,以至于加在一起,已经很少有公司还在犹豫不决。

2022 年 11 月,人工智能在企业中的应用几乎为零,当时常见的工具只有人工智能图像或早期文本生成器。但到了 2023 年 5 月,根据 IDC 的一项调查,65% 的公司正在使用基因人工智能,到了 9 月,这一数字上升到 71%,另有 22% 的公司计划在未来 12 个月内实施。

根据 IBM 今年 1 月发布的一份报告,即使在起步阶段,人工智能也已成为一种公认的行动和应用方式,最常见的使用案例包括 IT 流程自动化、安全和威胁检测、供应链智能以及客户服务和网络流程自动化。此外,如果再加上 ChatGPT 等基于云计算的人工智能工具,以这种或那种形式使用人工智能的公司比例几乎达到了普遍水平。

这还不包括现在嵌入到 Office 365、Google Docs 和 Salesforce 等平台中的人工智能。

然而,进入更困难的实施类型--微调模型、为人工智能系统提供上下文和最新信息的矢量数据库,以及将人工智能集成到工作流程中的应用程序接口--可能会出现问题。建立企业级人工智能平台就像射击移动的靶子,而人工智能的发展速度远远超过了它们的适应能力。

卡内基梅隆大学人工智能教授阿南德-拉奥(Anand Rao)说:"这让企业在操作生成式人工智能方面面临挑战。卡内基梅隆大学人工智能教授 Anand Rao 说:"不同的工具、模型和向量数据库都在不断发展,新的论文也层出不穷,这对公司来说非常具有挑战性。他们需要稳定性。告诉我未来三个月要做什么,不要每两周就改变一切。"

根据英特尔公司 cnvrg.io 于 12 月发布的调查结果显示,由于这一挑战的复杂性,加上所涉及的成本和所需的专业知识,去年只有 10% 的组织能够真正将基因人工智能模型投入生产。

但这并不意味着企业应该坐等一切尘埃落定。为了帮助企业重新获得一些主动权,现在就可以采用一些最佳实践来开始构建人工智能平台--这些实践将使企业能够随着技术的变化而快速适应,包括构建强大而现代化的数据和应用程序接口基础设施,在企业应用和所使用的人工智能模型之间创建人工智能抽象层,以及制定安全和成本政策、使用警戒线和道德框架,以指导企业如何部署人工智能。

数据和应用程序接口基础设施

总部位于伦敦的独立分析和咨询公司 Omdia 负责人工智能平台、分析和数据管理的首席分析师 Bradley Shimmin 说,数据仍然很重要。

然而,根据IBM的调查,数据复杂性是仅次于缺乏专业知识的第二大应用障碍,而cnvrg.io的调查则表明,对于希望生产大型语言模型(LLM)的公司来说,基础设施是最大的挑战。

探索相关问题

另一个挫折是企业因数据管理能力不足而无法跟上业务需求。麦肯锡公司合伙人纳尤尔-汗(Nayur Khan)说,但一个首要的问题是,大多数组织没有计划。"他们试图做一些事情,看看能坚持到什么时候"。但是,随着基因人工智能模型以 OpenAI API 等服务的形式提供,在一些用例中,企业可以直接跳过将人工智能作为服务来部署。

可汗说:"现在,它变成了一种我可以调用的服务,我不必担心培训问题。"这很好,但语言模型对语言来说很好。但对于知识来说,它们并不是最好的。他说,知识在组织内部。

例如,一家零售公司可能拥有 360 度的客户视图,这些视图都被输入到分析引擎、机器学习和其他传统人工智能中,以计算出下一步的最佳行动。然后,基因人工智能可用于向这些客户发送个性化信息。因此,通过使用公司的数据,通用语言模型成为了一种有用的商业工具。每个人都在尝试构建这类应用。

可汗说:"我在各行各业都看到了这一点,从高科技、银行业一直到农业和保险业。他补充说,这迫使企业在数字化方面加快步伐,并修复所有他们说要做但一直没来得及做的事情。

公司不仅要为分析和 MLOps 准备好所有基本要素,还需要专门为人工智能基因建立新的数据结构和管道。

当一家公司想要微调一个模型或在某一特定主题领域创建一个新模型时,就需要数据架构、对要采用的模型或模型类型做出关键选择等等。"全球数字咨询公司 Publicis Sapient 的执行副总裁 Sheldon Monteiro 说:"复杂性很快就会增加。

即使是比较简单的项目,比如在现有基因人工智能模型中添加外部数据源,也需要矢量数据库、正确的模型选择和工业级管道。

但一切都要从数据开始,而这正是许多公司落后的领域。如果没有一个统一的整体战略,每个部门都会制定各自的解决方案。

蒙泰罗说:"如果这样做,你最终会犯更多的错误,一遍又一遍地重新学习同样的东西。"作为首席信息官,你必须采取一种架构方法,投资于一个通用平台。"

然后是收集和准备数据的艰苦工作。他说,质量检查和验证对于建立坚实的基础至关重要,这样才能避免出现偏见,从而损害客户和业务。

因此,如果一个特定的数据集排除了价值最高的交易,因为这些交易都是人工处理的,那么由此产生的模型就有可能偏向于规模较小、利润较低的业务线。垃圾进,垃圾出 "适用于新的人工智能时代,就像在以前的技术时期一样。

蒙泰罗说,对于已经投资数据基础设施的公司来说,这些投资将在未来继续获得回报。"他说:"对数据基础进行投资的公司在使用生成式人工智能方面拥有巨大的先机。

尽管如此,这些最初为高级分析和机器学习用例而设计的传统数据基础也只能到此为止。

Omdia 的 Shimmin 说:"如果你想超越基础知识,就需要了解生成式人工智能的一些更深层次的微妙之处。"不同的嵌入模型有什么区别,什么是分块,什么是重叠?有哪些不同的方法可以用来以最有效的方式标记数据?为了节省矢量数据库的空间,你想要高维还是低维?我们现有的 MLOps 工具并不是用来做这些事情的。这一切都非常复杂,如果你不知道自己在做什么,就会浪费大量的时间和金钱。

但他说,MLOps 平台供应商正在加紧努力。"Dataku、DataRobot 和 Databricks 等公司都进行了调整,以支持 LLMOps 或 GenAIOps。所有的小部件都开始就位。

分析抽象层

去年 11 月,企业基因人工智能的首选平台 OpenAI 意外解雇了首席执行官山姆-奥特曼(Sam Altman),引发了一场马戏团般的寻找新首席执行官的争夺战,员工威胁要离职,而微软则表示愿意接纳所有人。在那些动荡的日子里,许多使用 OpenAI 模型的公司突然意识到,他们把所有鸡蛋都放在了一个不稳定的篮子里。

Constellation Research 副总裁兼首席分析师 Dion Hinchcliffe 说:"我们看到很多 OpenAI 集成。但是,OpenAI 发生的整个管理问题让人们对他们的过度承诺产生了质疑。"

即使一家公司没有倒闭,也可能很快被淘汰。去年初夏,ChatGPT 几乎是城里唯一的游戏。随后,Facebook 发布了对大多数企业客户免费的 Llama 2,紧接着 Anthropic 又发布了 Claude 2,其上下文窗口可容纳 200,000 个代币,足以让用户将相当于 600 页书的内容剪贴到提示符中,这让 GPT-4 的 32,000 个代币望尘莫及。不过,谷歌也不甘示弱,在二月份宣布其新型 Gemini 1.5 可处理多达 1000 万个代币。有了它,再加上在视频、音频和书面文案方面更高的速度、效率和准确性,几乎没有任何限制。

免费的开源模型以及针对特定行业的模型不断涌现,例如针对金融、医学或材料科学的预训练模型。

Publicis Sapient 的 Monteiro 说:"似乎每周都有新的公告。"

他说,这就是 "模型花园 "的作用所在。如果公司能严格选择和管理自己的模型,并构建自己的系统,使模型可以方便地互换,就能应对这一领域的波动。

但这个抽象层需要做的不仅仅是让公司升级模型或为每个特定用例选择最佳模型。

技术和咨询公司 Wipro Technologies 首席技术官 Subha Tatavarti 说,它还可用于可观察性、计量和基于角色的访问控制。

她说,拥有 24.5 万名员工的 Wipro 公司别无选择,只能采用人工智能技术,因为客户希望它这样做。

她说,我们是一家基础技术公司,我们必须这样做。

拓宽视野

可观察性使公司能够看到数据的去向、正在使用的模型和提示,以及回复所需的时间。它还可以包括编辑或混淆敏感数据的机制。

一旦公司了解了其机型的使用情况,就可以实施计量控制,例如限制特定机型的使用量,以避免成本意外飙升。

Tatavarti 说:"现在,计量的工作方式是代币消费模式。"这可能会变得非常昂贵。

此外,对于常见问题,公司可以缓存回复,以节省时间和金钱。对于某些使用案例,可能不需要昂贵的高端商用 LLM,因为本地托管的开源模型可能就足够了。

她补充说:"所有这一切都令我们着迷,我的团队肯定会为此而努力。"这是我们必须要做的。

说到访问控制,基本原则应该是永远不要向组织暴露本机应用程序接口,而是要有一个中间层来检查权限并处理其他安全和管理任务。

IT 咨询公司 Xebia 的首席数字官拉贾特-古普塔(Rajat Gupta)说,举例来说,如果人力资源平台使用基因人工智能,根据政策和其他信息的矢量数据库来回答问题,那么员工应该可以询问有关自己工资的问题。但他们不应该询问其他员工的工资问题,除非他们自己是经理或在人力资源部门工作。

鉴于人工智能技术在企业不同业务部门和职能部门的应用速度如此之快,如果要针对每种使用情况从头开始构建这些控制措施,无疑是一场噩梦。

"工作量会非常大,"他说,"会一片混乱。"

Gupta 也认为,需要构建此类功能的企业应该一次性完成,然后重复使用。他说:"把它们共同需要的一切--安全、监控、访问控制--作为企业级平台的一部分来构建。

他称之为人工智能网关,开源的 MLflow AI Gateway 就是一个例子。该网关于去年 5 月发布,目前已被弃用,转而使用 MLflow 部署服务器。他的公司正在使用的另一款工具是 Arthur AI 的 Arthur Shield,这是一款用于 LLM 的防火墙。它可以过滤提示注入攻击、亵渎和其他恶意或危险提示。

此外还有 Ragas,它可以帮助将人工智能的反应与矢量数据库中的实际信息进行核对,以提高准确性并减少幻觉。

他说,在开源和商业领域都有很多这样的项目。

第三方人工智能平台、初创企业和咨询公司也纷纷加入,以填补空白。

人工智能生态系统的发展方式令人惊讶,"古普塔说。"我们原以为发展速度会放缓,但事实并非如此。它正在迅速增长。"

他说,为了更快地进入市场,Xebia 正在将这些不同的项目编织在一起,但人工智能公司不断推出新产品,例如人工智能驱动的自主代理,这也无济于事。

他问道:"如果你使用自主代理,你如何实际衡量整个代理项目的效率?"这对实际监测和控制是一个挑战"。

如今,Xebia 使代理步履蹒跚,限制了他们的自主权,只允许他们执行非常有限和精确的任务。"他补充说:"这是目前唯一的办法。他补充说:"限制他们可以使用的技能,并有一个中央控制器,这样他们就不会互相交谈。在我们有更深入的理解和反馈回路之前,我们都要对其进行控制。这是一个相当新的领域,所以看看它如何发展会很有趣。

建筑护栏

根据 cnvrg.io 的调查,合规性和隐私是希望实施基因人工智能的公司最关心的问题,其次是可靠性、成本和缺乏技术技能。

同样,在 IBM 的调查中,对于未实施基因人工智能的公司,57% 的受访者认为数据隐私是障碍,43% 的受访者认为透明度是障碍。此外,85% 的受访者表示,消费者会更倾向于选择那些人工智能实践透明且符合道德规范的公司,但只有不到一半的受访者正在努力减少偏见、跟踪数据来源、努力使人工智能具有可解释性或制定符合道德规范的人工智能政策。

技术专家很容易专注于技术解决方案。道德人工智能超越了技术的范畴,还包括法律和合规角度,以及企业价值观和身份认同问题。因此,首席信息官或首席人工智能官可以在这一领域挺身而出,帮助指导大型企业。

而且还不止于此。建立对人工智能友好的数据基础设施、安全和管理控制以及道德导轨,是全面运行 LLM 的第一步。

安永美洲新兴技术负责人马特-巴林顿(Matt Barrington)说,新一代人工智能将要求首席信息官重新思考技术。他说,在人工智能时代之前,软件是确定性的。

他说:"你要设计、构建、测试和迭代,直到软件表现符合预期。"如果不符合预期,那就是一个错误,你会回去修正它。如果修复了,你就把它部署到生产中。所有大型计算堆栈,无论软件模式如何,都是确定性的。现在,除了量子计算,基因人工智能是第一个广为人知的非确定性软件模式,他说。他说:"错误其实就是特点。它能自行生成东西,这才是主要卖点。"

但这并不意味着旧东西都要扔掉。他说,MLOps 和 Pytorch 仍然很重要,知道何时使用 RAG 嵌入模型、DAG 或多模态模型,以及为基因人工智能准备好数据也很重要。

他说:"所有这些都将继续存在,而且非常重要。"但是,你会看到一种新的非确定性平台堆栈出现,它将与传统堆栈并存,同时出现一个全新的基础设施工程和运营领域,以支持这些功能。

他说,这将在核心层面上改变企业的运营方式,而朝着这个方向发展,成为一个真正由人工智能驱动的企业,将是一个快节奏的转变。他说:"观察这一现象的出现将非常酷。"

热点新闻