为人工智能和机器学习的“黄金时代”做准备

为人工智能和机器学习的“黄金时代”做准备

企业能否相信人工智能和机器学习正在大量涌现的决策? 这些决策需要更多的制衡——IT 领导者和专业人员必须确保 AI 尽可能公平公正和准确。 这意味着更多的培训和对数据的更多投资。 ZDNet 对 IT 高管进行的一项新调查发现,公司需要更多的数据工程师、数据科学家和开发人员来实现这些目标。

该调查证实,AI 和 ML 计划是大多数企业的前沿和中心。 截至 8 月,当 ZDNet 进行调查时,近一半的代表企业 (44%) 正在积极构建或部署基于人工智能的技术。 另有 22% 的项目正在开发中。 在这个领域的努力仍然是新的和新兴的——59% 的受访企业使用人工智能的时间不到三年。 调查受访者包括高管、CIO、CTO、分析师/系统分析师、企业架构师、开发人员和项目经理。 代表的行业包括技术、服务、零售和金融服务。 公司规模各不相同。

Amazon Web Services 机器学习副总裁 Swami Sivasubramanian 将此称为人工智能和机器学习的“黄金时代”。 那是因为这项技术“正在成为全球企业的核心部分”。

IT 团队直接领导此类工作,大多数公司都在内部构建他们的系统。 接近三分之二 (63%) 的受访者表示,他们的人工智能系统是由内部 IT 人员构建和维护的。 近一半 (45%) 的受访者还通过软件即服务 (SaaS) 提供商订阅了 AI 相关服务。 另有 30% 的人使用即服务 (PaaS),28% 的人求助于外部顾问或服务公司。

首席数字官、首席数据官或首席分析官通常在 AI 和 ML 驱动的产出方面发挥带头作用,50% 的受访者认为这些高管是主要决策者。 另有 42% 的人表示,个别部门负责人在这一过程中发挥了作用,33% 的受访组织拥有行使 AI 监督权的公司委员会。 这些组织中有三分之一将 AI 和 ML 职责分配给数据科学家和分析师。 有趣的是,首席信息官和首席技术官仅占受访者公司的 25%。

与此同时,人工智能还没有完全渗透到 IT 专业人员和其他员工的日常工作中。 例如,只有 14% 的受访者可以说他们的大多数 IT 员工在日常生活中直接使用或访问人工智能技术。

实施难
Avanade 高级总监 Tripti Sethi 表示:“实施 AI 解决方案并不容易,并且有许多 AI 在生产中出错的例子。” “我们见过的从人工智能中获益最多的公司明白,人工智能不是一种即插即用的工具,而是一种需要培养和成熟的能力。这些公司都在问‘我可以用数据驱动什么商业价值? ‘ 而不是‘我的数据能做什么?’”

技能可用性是企业在构建和维护 AI 驱动系统时面临的主要问题之一。 近三分之二 (62%) 的受访企业表示,他们无法找到符合转向 AI 所需技能要求的人才。 超过一半(54%)的人表示很难在他们现有的组织文化中部署人工智能,46% 的人表示难以为他们想要实施的项目寻找资金。

数据工程是支持 AI 和 ML 计划最需要的技能,69% 的受访者提到了这一点。 AI 和 ML 算法的好坏取决于输入它们的数据,因此具有数据专业知识的员工对于验证、清理和确保数据的响应交付至关重要。 除了数据工程,企业还希望数据科学家开发数据模型,希望开发人员构建算法和支持应用程序。

几乎一半的企业 (47%) 通过第三方或云提供商买扩展处理能力。 这是在技术领域采购的领先硬件领域。 只有 11% 的企业买硬件或系统用于现场实施。 至少 42% 的人正在使用物联网 (IoT) 设备和网络来支持他们的 AI 工作。 在人工智能相关软件方面,47% 的人正在使用 Apache Spark 等分析引擎。 另有 42% 的人使用 Hadoop 等大数据集群,还有 42% 的人部署高级数据库。

“对于许多新用户来说,分析并不是他们所拥有的技能,这导致外包成为一种可行的替代方案,”SAS 人工智能和分析主管大卫·塔林 (David Tareen) 说。 例如,已建立且广为人知的分析功能可能需要外部帮助才能“微定位、发现欺诈交易”。 Tareen 说,需要新数据源以及创新和高级分析和 AI 方法的新项目可能包括计算机视觉或对话式 AI。 “该项目要求算法决策完全透明。这些类型的项目更难执行,但也提供了新的收入来源和独特的差异化。”

人工智能偏见
最近几个月和几年,人工智能偏见一直是头条新闻,表明人工智能算法强化了种族主义和性别歧视。 此外,对人工智能的依赖引入了信任因素,因为企业领导者可能会将关键决策留给无人值守的系统。 企业为实现公平和消除人工智能结果的偏见所做的努力还有多远? 数据显示他们并没有那么远,41% 的受访者表示很少(如果有的话)检查他们的 AI 输出,或者他们根本不知道是否进行了此类检查。 只有 17% 的受访者表示他们会持续检查 AI 输出。 此外,58% 的组织尚未向技术人员提供 AI 道德培训,或者根本不知道是否提供此类培训。

公司是否做了足够的工作来定期审查他们的人工智能结果? 最好的方法是什么? “全面的 AI 审查需要多方面的方法,”SAS 的 AI 战略顾问 Kimberly Nevala 说。 “在解决方案开发和部署之前和整个过程中,必须定期评估数据、操作环境、算法和业务成果。这需要涉及多个学科,包括业务流程/绩效管理、数据管理、模型管理、安全、IT 运营、风险和法律。许多公司在分立元件方面做得很好,但很少有公司提供强大、全面的覆盖范围。不是因为他们没有认识到这种需求,而是因为它很复杂。”

58% 的组织尚未向技术人员提供 AI 道德培训,或者根本不知道是否提供此类培训。

在许多情况下,特别是在受到严格监管的行业中,“大多数要求的做法都存在,”Nevala 说。 “然而,它们并没有以协调的方式用于分析系统。更常见的是,审查仅限于时间点检查——分析培训数据,在测试期间验证模型性能或定期报告业务成果。”

但是,有一些措施可以成功地消除偏见。 “可以使用常见的数据分析技术和方法来识别数据中的偏差,以解释存在的某些算法的基本逻辑,”Nevala 说。 “严格的测试可以揭露隐藏的偏见,例如淘汰所有女性的招聘算法。因此,虽然仍处于萌芽状态,但组织正在更好地寻找和识别偏见。”

然而,问题在于确定给定的偏见是否公平,Nevala 继续说道。 “这就是公平的来源。更复杂的是,一个没有偏见的系统可能不公平,而一个公平的系统可能有偏见——通常是有意设计的。那么,什么是公平的?你是在争取公平还是平等?你做你的 目标用户有平等的机会或能力使用该解决方案吗?受解决方案影响的人会同意它是公平的吗?这是我们应该做的事情吗?这些是技术无法回答的问题。解决人工智能中的公平和偏见需要不同的利益相关者 团队和协作团队模式。这样的组织模式正在出现,但它们还不是常态。

Blue Yonder 的联合创始人兼战略顾问 Michael Feindt 博士提倡:“IT 领导者无疑需要更多的培训和对现实世界和 AI 偏见的认识。” “由于世界本质上是不平衡的,反映当前世界和人类决策的数据自然是有偏见的。在 IT 领导和员工对他们的 AI 软件的无意识偏见负责之前,AI 不会解决歧视问题,特别是如果它仅依赖于历史人类或 做出决定的歧视性证据。明确减少历史数据中的偏见并采用固有公平的人工智能算法在打击歧视方面拥有非常强大的武器。”

该流程需要公开并可供 IT 内外的所有决策者使用。 博思艾伦人工智能战略总监 Kathleen Featheringham 表示,创建负责任的人工智能“需要特定的工具和支持性的治理流程,以有意义地平衡收益与风险的权衡”。 “这些是将负责任的 AI 原则和价值观付诸实践所需的基本要素。组织必须能够以描述性形式提供所有数据,以便随着变化和用途不断更新,以使其他人能够探索涉及数据收集过程的潜在偏见。 这是帮助识别和分类模型最初预期用途的关键步骤。在所有组织都这样做之前,我们无法消除偏见。”

IT 领导者和 AI 支持者可以通过多种方式帮助解决 AI 可操作性和问责制方面的问题。 70% 的人正在对其 AI 和 ML 工作采用持续集成/持续部署 (CI/CD) 方法,以确保不断检查算法的组成、相关应用程序以及通过它们的数据。 61% 的组织采用 DevOps——它使开发人员和运营团队的活动保持一致并实现自动化。 AIOps——用于 IT 运营的人工智能,旨在应用 AI 来管理 IT 计划——被调查的一半以上的公司 (52%) 使用。 DataOps 旨在管理和自动化数据流向分析——在 44% 的组织中发挥作用,43% 的组织采用敏捷计算方法。

AIOps 尤其是一种强大的方法,可在具有许多不同议程和要求的复杂企业中提供 AI 功能。 “成功地将试点项目投入运营需要我们从企业的角度全面考虑采用和部署,”Booz Allen 的副总裁 Justin Neroda 说,该公司支持 120 多个活跃的 AI 项目。 “我们创建了一个 AIOps 工程框架,专注于克服负责任地开发 AI 的试验后挑战所需的关键要素。AIOps 可以为组织带来许多技术优势,包括减少单个分析师的维护负担,同时最大限度地利用主题专家 ’生产力和满意度。这种方法推动了在一系列环境中快速部署预配置 AIOps 管道的能力。它允许在 AI 模型的整个开发、测试和部署过程中实现模型跟踪、版本控制和监控过程的自动化。”

MLOps 方法论
与这些方法相关的是 MLOps,Avanade 数字伦理总监兼全球负责人 Chris McClean 提倡将其作为将机器学习模型有效部署和维护到生产中的途径。 “MLOps 方法不仅避免了我们看到其他公司犯下的常见错误,而且为未来充满持续成功的 AI 部署建立了组织,”McClean 说。 他还提倡广泛使用自动化和自动化工具,“以更好地衡量和改进 KPI”。

行业专家列举了以下成功的 AI 和 ML 之旅的步骤,这些步骤确保了交付结果的信任和可行性:

专注于业务问题:“寻找已经有大量未开发数据的地方,”Sivasubramanian 说。 “避免修复实际上没有损坏的东西,或者选择一个华而不实但商业价值不明确的问题。”
关注数据:Sethi 建议采用“现代数据”来提供让 AI 和 ML 发挥作用的燃料。 “我们看到客户开始他们的 AI 之旅的一些关键领域是销售优化、客户旅程分析和系统监控。为了进一步推动数据的规模和可访问性,建立基础数据是一个关键要素,因为它解锁了结构化的 和非结构化数据,并驱动这些底层用例。” 此外,Sivasubramanian 说,管理数据可能会占用 AI 团队的大部分时间。 “开始时,要问的三个最重要的问题是:今天有哪些数据可用?可以提供哪些数据?一年后,我们希望今天开始收集哪些数据?”
与业务密切合作:“IT 提供基础架构来对数据进行建模,而主题专家使用模型来找到正确的解决方案,”联想高级副总裁兼首席信息官 Arthur Hu 说。 “这类似于一个食谱:它不是关于任何一种成分,甚至不是所有成分;它需要适当平衡的成分一起工作才能产生预期的结果。确保公平和无偏见地使用 AI 的关键是相同的 首先,让它成功的关键是:人类掌舵。人工智能的突破只有在各自领域的专家推动下才有可能实现。”
Sivasubramanian 说:“当心人工智能的‘漂移’:‘定期审查模型结果和性能’是公司应该例行实施的最佳实践。”定期审查模型性能很重要,因为它们的准确性会随着时间的推移而下降, 称为模型漂移的现象。”Sivasubramanian 说,除了检测模型和概念漂移外,“公司还应该审查在已经训练的模型中是否可能随着时间的推移而产生潜在偏差。” 数据和模型没有偏见,但世界的变化会导致偏见随着时间的推移而发展。”例如,抽样人口中的人口统计变化可能会导致过时的结果。

发展你的团队:Featheringham 说,大规模培训“是实现负责任的人工智能的一个关键方面,它结合了人工智能的采用、人工智能伦理和劳动力发展。” “道德和负责任的 AI 开发和部署取决于为其采用、集成和使用做出贡献的人。人类是每个 AI 系统的核心,应该保持最终控制,这就是为什么他们在每个领导层级接受适当的培训, 至关重要。” McClean 说,这包括有针对性的培训和意识。 “IT 领导者和员工应该学习如何考虑他们正在开发或运营的技术的道德影响。他们还应该能够阐明他们的技术如何支持公司的价值观,这些价值观是否是多样性和包容性,员工福祉 、客户满意度或环境责任。公司不需要每个人都学习如何识别和解决人工智能偏见或如何制定人工智能公平政策。相反,他们需要每个人都明白这些是公司的优先事项,每个人都有 如果他们想成功,就可以发挥作用。”
最终,“创建适用于人类的 AI 解决方案还需要了解人类的工作方式,”Nevala 说。 “人类与人工智能系统的互动如何影响他们的行为和表现?反之亦然。批判性思维、应对不确定性和高效协作也是被低估的关键技能。”

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。商机网仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 tenspace2022@163.com 举报,一经查实,本站将立刻删除。 本文链接:https://www.315965.com/n/66525.html 聚才发 母婴好物

(0)
上一篇 2023年12月29日 上午2:30
下一篇 2023年12月29日 上午3:43

相关推荐

  • 法院案件受理费计算标准(法院案件受理费计算方法)

    很多人关心, 打一场官司要花多少钱? 诉讼的成本由以下费用构成: 案件受理费+其他诉讼费用+律师费 01 案件受理费 案件受理费就是人民法院决定受理当事人提出的诉讼后,依法向当事人收取的费用。根据财产类案件和非财产类案件区分按不同的标准收取案件受理费: 1、非财产类案件案件受理费是指:如离婚、侵犯公民肖像权、名誉权等因人身关系或非财产关系提起的诉讼时,人民法…

    2023年8月3日
    646
  • 健身房私教

    健身房 健身房的后希多民球左久够湖私教课程是可以退的,因为健身房办理私教课程约定不能退的相关规定是违反法律的相关规定的。根据我国民法典以及相关法律规定,当事人双方订立了合同时一方存在欺诈或者重大误解而订立的合同,受欺诈方推既色线兰石利乡煤和行为人可以请求人民法院撤销合同。 法律依据:《中华人民共和国民法典》第一百四十七条基于重大误解实施的民事法律行为,行为人…

    2023年12月27日
    144
  • 蝴蝶结的打法 慢动作最简单(风衣,鞋带裙子衣服的最简单的打法图解)

    花店都是这样系蝴蝶结的,简单又好看。 重点是系的结不容易歪!遇到两面不同颜色的绸带不再纠结正反! 蝴蝶结打法第三款教程 建议点赞,收藏~很实用,以后用得上! 我们以英文绸带为例:可以看到一边有印字,一边没有。 绸带正面有英文字 绸带反面无印字 首先将下面的绸带打成一个折形带,放在靠右上角的位置。 将下面的绸带打成一个折形带 然后将上面的绸带围绕折形绕一圈半。…

    2023年11月29日
    306
  • 红砖多少钱一块2024(农村建筑普通红砖价格表)

    前段时间二嫂家盖房子,地基下好了之后放那了,迟迟不见建筑队继续施工,后来才知道是因为二嫂嫌砖头贵,四毛七一块,想等等降价了再盖,听说到麦口会便宜很多。四毛七确实不便宜,我记得我家18年盖房的时候,砖头三毛八,这都差了九分,快一毛了。 果然,还没到麦口呢,就降了,前几天三毛八,现在听说是三毛六,比18年还便宜呢,一车砖小车有八千块,大车一万二,按大车算,一块差…

    2023年12月6日
    379
  • 盘点爱情樱花校园模拟器的隐藏地点(新手情侣正确玩法小技巧)

    《樱花校园模拟器》风筝来袭任务流程一览 在下午16:00的时候传送到便利店门口,可以看见很多飞蛾,我们帮助店员小姐姐清除飞蛾,这个隐藏任务就完成了 在下午17:00的时候来到公园,可以看见“谢克”跟黄骑警在台上,走到公园旁的迷宫,然后抱着白骑警飞出来,任务就完成了 在下午18:00的时候,传送到教堂,可以看见有一对拿刀的情侣,消灭他们后,这个隐藏任务就完成 …

    2023年12月2日
    352
  • 笔仙是真的还是假的啊(笔仙是真是假?)

    很多人受影视剧的影响相信真的有笔仙这个东西因而心生恐惧。当然这一切是不存在的。北京大学心理学教授沈政认为,如果游戏者是正常人,不排除两种类型的心理暗示。第一种是被赋予了暗示性人格特征的人易受到影响,因为此类人对周围人和事非常关注,不难发现,求仙者以女性居多。女性特征决定了其更容易受到暗示。第二种是在特定环境中的某些人会由于意识范围缩小、精神高度集中而产生违拗…

    2023年8月3日
    281
  • 会赚钱的餐厅都是如何做品牌营销的?

    如 制定电商网站的品牌营销策略,可以重点做好以下几点: 1.搭建电商品牌线上啊供款倒传播“基站” 品牌句部作为企业开展营销活动的核心宣传曲日首点,如何更好的获得消费者对自身品牌的忠诚度以及信液耐具湖任度是企业在营销之前要落实的重点工作。选择其中几个较为适合自己企业产品展养掉序收早卫且雨流商原示、推销的电商,以品牌官方网站或者是品牌在主流电商上旗舰店铺的形式展…

    2024年1月19日
    112
  • 程咬金和秦琼的关系好吗 他们为什么会投奔李唐

    历史上,程咬金和秦琼之间的交情还是挺深的,他们很早便在一起共事,后来又一起投奔李唐,都是隋末唐初的名将。那大家可能还是更加熟悉《隋唐演义》里,所描述的秦琼和程咬金,他们早期经历十分曲折,参与各种大小战役,最后能活下来其实十分不易。那下面就来讲讲,当年程咬金和秦琼为什么会投奔李唐,以及他们早年的一些经历故事。 1、瓦岗寨 隋唐之间,华夏大地烽烟四起,各路势力同…

    2024年2月18日
    34
  • 对于 Windows 用户,有关对抗勒索软件攻击的提示源代码

    这是一个让许多计算机用户心生恐惧的词,尤其是考虑到几乎每天都有关于受影响公司的头条新闻。 这让我们想知道为什么这种情况不断发生在大大小小的用户和企业身上。 但是您可以做很多事情来保护自己或您的企业。 [相关:如何在 Windows 10 中保护您的隐私]小心你点击的内容大多数时候,影响个人的勒索软件发生在有人点击了他们不应该点击的东西之后——可能是与网络钓鱼…

    2024年1月11日
    133
  • 明孝宗的一生一世一双人——皇权与爱情的博弈

    明朝的历史中,明孝宗朱祐樘是一位让人印象深刻的皇帝。他以仁爱之名垂青史册,更以“一生只娶一人”的坚守,展现了他对爱情的执着和对皇权的理智掌控。然而,为何明孝宗会如此选择呢?这背后又隐藏着怎样的故事? 首先,我们要明白,在那个时代,皇帝的婚姻并非个人意愿可以决定的。婚姻是政治联姻的一种手段,是权力的象征,也是维护皇权稳定的重要手段。明孝宗的父亲,明成祖朱棣,为…

    2024年2月21日
    36

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注