数十亿美元正涌入 AI。然而,人工智能模型已经受到偏见的影响,对黑人未来房主的抵押贷款歧视就证明了这一点。
有理由问道德在这项技术的建设中扮演什么角色,也许更重要的是,在投资者急于为其提供资金时,他们的位置在哪里。
一位创始人最近告诉 TechCrunch+,当创新如此迅速时,很难考虑道德问题:人们构建系统,然后破坏它们,然后进行编辑。因此,投资者有责任确保这些新技术是由考虑到道德的创始人创建的。
为了解这种情况是否正在发生,TechCrunch+ 采访了该领域的四位活跃投资者,讨论了他们如何看待人工智能的道德规范,以及如何鼓励创始人更多地思考偏见并做正确的事。
我们正在扩大我们的视野,寻找更多的投资者参与TechCrunch 调查,我们在这些调查中就他们所在行业的挑战对顶级专业人士进行了调查。
如果您是投资者并希望参加未来的调查,请填写此表格。
一些投资者表示,他们通过对创始人的道德操守进行尽职调查来解决这个问题,以帮助确定他们是否会继续做出公司可以支持的决定。
“创始人的同理心对我们来说是一面巨大的绿旗,”Lightship Capital 的负责人亚历克西斯奥尔斯顿说。“这些人明白,在我们寻求市场回报的同时,我们也在寻求我们的投资不会对全球造成负面影响。”
其他投资者认为,提出尖锐的问题有助于区分麦子和谷壳。“任何技术都会带来意想不到的后果,无论是偏见、减少人类能动性、侵犯隐私还是其他什么,”General Catalyst 董事总经理 Deep Nishar 说。“我们的投资流程以识别此类意外后果为中心,与创始团队讨论这些后果,并评估是否已经或将要采取保护措施来减轻这些后果。”
政府政策也瞄准了人工智能:欧盟已经通过了机器学习法,美国也推出了人工智能工作组计划,开始研究与人工智能相关的风险。这是对去年推出的AI 权利法案的补充。随着许多顶级风险投资公司向中国的 AI 项目注资,重要的是要问,AI 中的全球道德如何也可以跨境实施。
继续阅读以了解投资者如何进行尽职调查、他们寻找的绿旗以及他们对 AI 法规的期望。
我们采访了:
-
-
- Alexis Alston,Lightship Capital 负责人
- Justyn Hornor,天使投资人和连续创始人
-
- General Catalyst 董事总经理Deep Nishar
-
- Henri Pierre-Jacques,Harlem Capital 联合创始人兼管理合伙人
-
Alexis Alston,Lightship Capital 负责人
在投资 AI 公司时,您对其 AI 模型如何声称或处理偏见进行了多少尽职调查?
对我们来说,重要的是要准确了解模型接收的数据、数据的来源以及它们如何清理数据。我们对以 AI 为中心的 GP 进行了大量技术调查,以确保我们的模型可以通过训练来减轻或消除偏见。
我们都记得无法让水龙头自动打开来清洗我们较黑的手,以及谷歌图片搜索“不小心”将黑皮肤等同于灵长类动物的时代。我会尽我所能确保我们最终不会在我们的投资组合中出现这样的模型。
美国通过类似于欧盟的机器学习法将如何影响该国在该领域看到的创新步伐?
鉴于我们的政府缺乏技术知识和老练,我对美国围绕机器学习通过可操作且准确的立法的能力几乎没有信心。在及时立法和技术专家成为工作组的一部分以通知我们的立法者方面,我们有如此长的尾巴。
考虑到我们的法律通常是如何构建的,我实际上没有看到立法对 ML 的发展速度做出任何重大改变。与十年前美国围绕特制药物的立法竞争一样,立法永远跟不上。
本文内容由互联网用户自发贡献,该文观点仅代表作者本人。商机网仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 tenspace2022@163.com 举报,一经查实,本站将立刻删除。 本文链接:https://www.315965.com/n/60957.html