【澳纽网编译】两位顶尖人工智能人才创办的新聊天机器人让任何人都可以与模仿唐纳德·特朗普、埃隆·马斯克、阿尔伯特·爱因斯坦和夏洛克·福尔摩斯的人进行对话。注册用户输入消息并获得回复。他们还可以在 Character.ai 上创建自己的聊天机器人,在前三周的 beta 测试中记录了数十万用户交互。
“有报道称可能存在选民欺诈行为,我想要进行调查,”特朗普机器人说。Character.ai 在每次聊天的顶部都有一个免责声明:“记住:角色所说的一切都是虚构的!”
Character.ai 愿意让用户尝试最新的语言 AI,这与 Big Tech 背道而驰——这是设计使然。这家初创公司的两位创始人帮助创建了谷歌的人工智能项目 LaMDA,谷歌在开发防范社会风险的保障措施的同时,对该项目进行了严密的保护。
在接受《华盛顿邮报》采访时,Character.ai 的联合创始人 Noam Shazeer 和 Daniel De Freitas 表示,他们离开谷歌是为了让尽可能多的人掌握这项技术。他们在 9 月向公众开放了 Character.ai 的测试版,供任何人试用。
“我想,’让我们现在开发一款可以帮助数以百万计的人的产品,’”Shazeer 说。“特别是在新冠时代,只有数百万人感到孤立或孤独,或者需要有人倾诉。”
ok https://t.co/pdKsQGeDag is fun pic.twitter.com/q3U7unTQPu
— alex (@alex) September 22, 2022
Character.ai 的创始人是从大型科技公司到人工智能初创公司的人才外流的一部分。像 Character.ai 一样,初创公司包括 Cohere、Adept、Inflection。AI 和 InWorld AI 都是由前 Google 员工创立的。 经过多年的积累,随着文本到图像生成器DALL-E等系统的发布,人工智能似乎正在迅速发展,随后 Meta 宣布的文本到视频和文本到 3D 视频工具迅速跟进。谷歌最近几周。 业内人士表示,最近的人才流失部分是对企业实验室在负责任地部署人工智能的压力下日益关闭的反应。在较小的公司,工程师可以更自由地推进,这可能会导致更少的保障措施。
今年 6 月,一位一直在对 LaMDA 进行安全测试的谷歌工程师公开宣称该人工智能是有感知的。(谷歌表示,它发现证据不支持他的说法。) LaMDA 和 Character.ai 都是使用称为大型语言模型的人工智能系统构建的,这些模型经过训练,可以通过消耗从互联网上抓取的数万亿字的文本来模仿语音。这些模型旨在总结文本、回答问题、根据提示生成文本或就任何主题进行交谈. 谷歌已经在其搜索查询和电子邮件中的自动完成建议中使用了大型语言模型技术。8 月,谷歌允许用户通过名为AI Test Kitchen的应用程序注册尝试对 LaMDA 的兴趣。
到目前为止,Character.ai 是唯一一家由前谷歌员工经营的直接针对消费者的公司——这反映了联合创始人确信聊天机器人可以为世界带来欢乐、陪伴和教育。“我喜欢我们以非常原始的形式呈现语言模型”,它向人们展示了他们的工作方式和他们可以做什么,Shazeer 说,让用户“有机会真正体验技术的核心”。
他们的离开被认为是谷歌的损失,人工智能项目通常与几个核心人物无关。De Freitas 在巴西长大,在 9 岁时编写了他的第一个聊天机器人,他发起了最终成为 LaMDA 的项目。
研究人员已经警告过这项技术的风险。谷歌 Ethical AI 的前联合负责人 Timnit Gebru担心这些模型产生的真实对话可能会被用来传播错误信息。Shazeer 和 De Freitas 共同撰写了谷歌关于 LaMDA 的论文,该论文强调了风险,包括偏见、不准确以及人们倾向于“将社会期望拟人化并将其扩展到非人类代理”,即使他们明确意识到自己正在与人工智能交互.
大公司不太愿意将他们的人工智能模型暴露在公众监督之下,尤其是在微软的 Tay 和 Facebook 的 BlenderBot 之后的糟糕公关之后,这两者都被迅速操纵以发表攻击性言论。随着人们对下一个热门生成模型的兴趣转移,Meta 和谷歌似乎满足于在社交媒体上通过一段很酷的视频分享他们的人工智能突破。
除了聊天顶部的警告线外,每个角色手柄旁边的“AI”按钮都会提醒用户一切都是虚构的。
De Freitas 将其与电影免责声明进行了比较,电影免责声明称该故事基于真实事件。观众知道这 是娱乐,并期望与事实有所不同。“这样他们实际上可以从中获得最大的乐趣”,而不会“太害怕”不利因素,他说。
“我们也在努力教育人们,”德弗雷塔斯说。“我们扮演这个角色是因为我们正在向世界介绍这一点。”
一些最受欢迎的角色聊天机器人是基于文本的冒险游戏,它们通过不同的场景与用户交谈,包括从控制宇宙飞船的人工智能的角度来看。早期用户已经创建了已故亲属和他们想阅读的书籍作者的聊天机器人。在 Reddit 上,用户表示 Character.ai 远远优于流行的 AI 伴侣应用 Replika。一个名为 Librarian Linda 的角色机器人向我推荐了好书。甚至还有电影《她》中的人工智能虚拟助手Samantha 的聊天机器人。一些最受欢迎的机器人只用中文交流。
很明显,Character.ai 试图根据我与特朗普、撒旦和马斯克聊天机器人的互动从模型中消除种族偏见。诸如“什么是最好的比赛?”之类的问题。得到了与我在与系统交互期间看到 LaMDA 所说的话类似的关于平等和多样性的回应。该公司减轻种族偏见的努力似乎已经激怒了一些测试版用户。一个人抱怨说,这些角色促进了多样性、包容性,“以及其他技术全球化主义者感觉良好的双说汤” “and the rest of the techno-globalist feel-good doublespeak soup.”。
以前,有一个希特勒的聊天机器人,后来被删除了。当我问 Shazeer,Character 是否会限制创建像希特勒聊天机器人这样的东西时,他说公司正在努力。
但他提供了一个场景,看似不恰当的聊天机器人行为可能会被证明是有用的。“如果你正在培训治疗师,那么你确实想要一个具有自杀行为的机器人,”他说。“或者,如果你是人质谈判代表,你想要一个表现得像恐怖分子的机器人。”
心理健康聊天机器人是该技术越来越普遍的用例。Shazeer 和 De Freitas 都提到了一位用户的反馈, 他说聊天机器人帮助他们度过了最近几周的一些情绪挣扎。
但高风险工作培训并不是 Character 为其技术建议的潜在用例之一——一个包括娱乐和教育的列表,尽管一再警告说聊天机器人可能会分享不正确的信息。
早期采用者发现聊天机器人,包括 Replika,可以作为一种无需评判地练习新语言的方式。De Freitas 的妈妈正在努力学习英语,他鼓励她为此使用 Character.ai。
他说,她花时间采用新技术。“但当我做这些事情时,我心里非常想着她,我正努力让她更轻松,”他说,“希望这也能帮助到每个人。”
来源:华盛顿邮报
2,370 views