谷歌已经开放了其 AI Test Kitchen 移动应用程序,通过其在 AI 方面的最新进展,例如其会话模型 LaMDA,为每个人提供一些受限的动手体验。
谷歌在 5 月宣布了 AI Test Kitchen,以及第二版 LaMDA(对话应用程序语言模型),现在让公众测试它认为是人机交互未来的部分内容。
AI Test Kitchen“旨在让你了解将 LaMDA 掌握在手中会是什么样子,”谷歌首席执行官周日皮查伊当时表示。
AI Test Kitchen 是谷歌计划的一部分,以确保其技术的开发具有一定的安全性。 任何人都可以加入 AI 测试厨房的候补名单。 最初,它将提供给美国的小团体。 Android 应用程序现已可用,而 iOS 应用程序将在“未来几周内”推出。
参见:数据科学家与数据工程师:对这些角色的需求如何变化
注册时,用户需要同意几件事,包括“我不会在与这些演示的互动中包含任何关于我自己或他人的个人信息”。
与 Meta 最近对其聊天机器人 AI 模型 BlenderBot 3 的公开预览类似,谷歌也警告说,其 LaMDA 的早期预览“可能会显示不准确或不适当的内容”。 Meta 在向美国居民开放 BlenderBot 3 时警告说,聊天机器人可能会“忘记”它是一个机器人,并可能“说出我们不引以为豪的话”。
两家公司都承认,他们的 AI 有时可能会被认为是政治不正确的,就像微软的 Tay 聊天机器人在 2016 年在公众向它输入令人讨厌的输入后所做的那样。 和 Meta 一样,Google 表示 LaMDA 已经进行了“关键的安全改进”,以避免它给出不准确和冒犯性的响应。
但与 Meta 不同的是,谷歌似乎采取了一种更受限制的方式,对公众如何与它沟通设置了界限。 到目前为止,谷歌只向谷歌员工公开了 LaMDA。 向公众开放可能会让谷歌加快提高答案质量的步伐。
谷歌正在发布 AI Test Kitchen 作为一组演示。 第一个,“想象它”让你说出一个地方,于是人工智能提供了“探索你的想象力”的路径。
第二个“列出它”演示允许您“分享一个目标或主题”,然后 LaMDA 会尝试将其分解为有用的子任务列表。
第三个演示是“谈论它(狗版)”,这似乎是最自由的测试——尽管仅限于犬类问题:“你可以就狗和只有狗进行有趣的、开放式的对话,这 探索 LaMDA 保持话题的能力,即使你试图偏离话题,”谷歌说。
LaMDA 和 BlenderBot 3 在模拟人机对话的语言模型中追求最佳性能。
LaMDA 是一个 1370 亿参数的大型语言模型,而 Meta 的 BlenderBot 3 是一个 1750 亿参数的“能够通过访问互联网和长期记忆进行开放域对话的对话模型”。
谷歌的内部测试一直专注于提高人工智能的安全性。 谷歌表示,它一直在进行对抗性测试以发现模型中的新缺陷,并招募了“红队”——攻击专家,他们可以以不受约束的公众可能的方式对模型施加压力——他们“发现了额外的有害但微妙的输出 ,”谷歌研究院的特里斯·沃肯廷 (Tris Warkentin) 和谷歌实验室的乔什·伍德沃德 (Josh Woodward) 表示。
虽然谷歌希望确保安全并避免其人工智能说出可耻的话,但谷歌也可以通过将其置于野外体验它无法预测的人类语言而受益。 相当进退两难。 与一位质疑 LaMDA 是否有知觉的谷歌工程师相反,谷歌强调了微软的 Tay 在暴露于公众时所遭受的一些限制。
“该模型可能会误解身份术语背后的意图,有时在使用它们时无法产生响应,因为它难以区分良性提示和对抗性提示。它还可能根据其训练数据中的偏差产生有害或有毒的反应,产生 基于性别或文化背景刻板印象和歪曲人们的反应。这些领域以及更多领域仍在积极研究中,”Warkentin 和 Woodward 说。
参见:我如何使用 ChromeOS Flex 使三台古老的计算机复活
谷歌表示,到目前为止,它增加的保护措施使其人工智能更加安全,但并未消除风险。 保护措施包括过滤掉违反其政策的单词或短语,这些政策“禁止用户故意生成色情内容;仇恨或冒犯性;暴力、危险或非法;或泄露个人信息。”
此外,用户不应期望谷歌删除在完成 LaMDA 演示时所说的任何内容。
“我将能够在使用特定演示时删除我的数据,但一旦我关闭演示,我的数据将以谷歌无法知道是谁提供的方式存储,并且无法再满足任何删除请求,” 同意书状态。
本文内容由互联网用户自发贡献,该文观点仅代表作者本人。商机网仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 tenspace2022@163.com 举报,一经查实,本站将立刻删除。 本文链接:https://www.315965.com/n/66749.html