生活网 10 月 30 日消息:根据 Nash Squared 的年度数字领导力报告,虽然生成式人工智能(Generative AI)已经引起了公众的广泛关注,但这种激动人心的情感并没有让企业高管们相信它已经准备好在商业领域中部署。报告显示,全球仅有十分之一的技术领导者报告他们已经实施了大规模的 AI 应用。
尽管围绕生成式 AI 的炒作不断,但 Nash Squared 的报告指出,大规模投资 AI 的企业比例在过去五年中并没有改变。
从外部看,似乎 AI 的噪音远大于实际效果。虽然每个人都在谈论生成式 AI 和机器学习,但很少有公司投资于大规模的 AI 实施。
然而,数字转型和招聘专家 Nash Squared 的首席执行官 Bev White 在接受采访时表示,将这些标题数据放在背景中非常重要。White 说:「我们实际看到的是一个相当大的接受度,」她指出,目前对 AI 的兴趣主要集中在研究而非生产阶段。
报告显示,约一半的公司(49%)正在测试或进行小规模的 AI 应用,而三分之一的公司正在探索生成式 AI。
White 通过将 AI 的崛起与十多年前云技术的初始迁移相比较,来说明这种情况。「就像当时一样,『让我们试探一下水温,了解所有政策、数据、隐私和培训的含义,』」她说。
她解释说,通过进行小而有意义的试点,企业正在为自己创建用例。这种情况在上次云技术崛起时发生过,她对此并不感到惊讶。事实上,White 表示,目前很多企业对大规模 AI 投资的犹豫不决是合理的,主要原因有两个:
首先,由于 COVID-19 大流行期间和之后对 IT 的大量投资,许多公司的现金流都比较紧张。「数字领导者正在努力平衡账本——他们在想『现在什么会为我提供最大的投资回报,』」她说。
她建议,小心翼翼、良好规划的试点,同时执行一些较为突出的数字转型项目,将对公司产生重大影响。
其次,很多新兴技术——特别是生成式 AI——仍处于发展的初级阶段。每一个大型语言模型的新迭代,例如 OpenAI 的 ChatGPT,都带来了新的发展和机遇,但也存在风险。
「作为大型企业的 CIO 或 CTO,你要负责,你想确保你知道你正在做什么,」她说,「这里存在很大的风险,你需要考虑你的风险暴露——你如何保护为你工作的人?你想有什么样的政策?」
White 谈到了 AI 安全和隐私的重要性,特别是在员工使用其他人拥有的数据来训练模型时,可能会打开诉讼的大门。
她说:「存在很大的风险,人们可以复制和粘贴。我不是说生成式 AI 不好。我真的很喜欢。但我是说,你必须非常清楚数据的来源和你基于那些信息所做的决定。」
考虑到这些对新兴技术的担忧,Nash Squared 报告仅有 15% 的数字领导者感觉准备好应对生成式 AI 的需求,可能会让人感到奇怪。
然而,White 说,鉴于目前如何安全和可靠地实施 AI 的不明确,以及不久的将来可能会出现的方向突变,这种缺乏准备是可以理解的。
「如果你要负责技术在你的企业内的安全、安全和声誉,你最好确保你已经仔细考虑了所有事情,并且在过程中也教育了你的董事会,」她说。
很多首席执行官都知道他们的组合中必须有 AI,因为它会提供竞争优势,但他们还不知道具体的应用领域。这实际上是一个发现阶段。
White 表示,探索和调查的重点也有助于解释为什么全球只有 21% 的组织制定了 AI 政策,而超过三分之一的组织(36%)没有制定这样的政策的计划。
「你知道多少创新项目是从考虑潜在的门槛和失败点开始的?」她说。「大多数情况下,你一开始都会说,『哇,我能用这个去哪里呢?』 然后你就会弄清楚你需要关闭哪些大门,以确保你的项目和数据安全并受到控制。」
尽管专业人士想要在探索 AI 的机会时尽情享受,但这项对全球超过 2000 名数字领导者进行的研究表明,CIO 们对于在这个快速发展领域中需要强有力的治理并不感到陌生。
在大多数情况下,数字领导者正在寻求法规来帮助他们的组织安全和可靠地调查 AI。然而,他们也不相信来自行业或政府机构的 AI 规则会有效。
尽管有 88% 的数字领导者认为需要更严格的 AI 法规,但高达 61% 的人表示,更严格的法规不会解决所有与新兴技术相关的问题和风险。
「你总是需要一个稻草人来反击。并且从行业团体和政府那里获得指导是件好事,你可以将自己的想法与之对比,」White 说。「但你不一定会喜欢它。如果它被执行并写入法律,那么你突然之间就必须遵守它,并找到保持在这些指导方针内的方法。所以,法规可能是福也是祸。」
即使在 AI 这个快速发展的领域,法规的出台较慢,White 也表示,这不是企业探索这项技术的借口。她建议,数字领导者,特别是安全负责人,应该立即考虑企业内 AI 使用的自己的护栏。
她说,这是她自己的组织正在发生的事情。「我们的 CISO (首席信息安全官)一直在考虑生成式 AI 如何成为网络犯罪分子的真正礼物。它可能无辜地打开通向重要、大量数据的大门。这可能意味着访问你的秘密武器。你必须权衡风险和收益,」她说。
考虑到这种平衡,White 向专业人士发出警告——为一些高调的 AI 事件做好准备。她解释说,就像影响少数人的网络安全事件可以帮助展示给更多人看到的风险一样,AI 事件——如数据泄露、幻觉和诉讼——将导致高级专业人士在探索新兴技术时暂停并反思。
「作为领导者,我们需要担忧,但我们也需要保持好奇。我们需要倾身参与,以便我们可以看到外面有什么机会,」她说。