从错误中学习:人工智能教练让人工智能完成自己的工作

2023-12-19 08:45来源:大智报

CommentsShare

人类向文本机器人ChatGPT(符号图像)输入文本。©Frank Rumpenhorst/德新社

在所有人中,那些靠训练人工智能赚钱的人把工作外包给了人工智能。这可能会带来毁灭性的后果。

有时感觉像ChatGPT这样的人工智能工具是由魔法驱动的。它们的表面显得太光滑,生成的文本太连贯,工作速度太高。然而,为了让一切感觉如此顺利,实际上需要无数的体力劳动者。

毕竟,人工智能只有经过大量数据的训练才会变得智能。在很大程度上,人工智能系统是自己做到这一点的。然而,训练中的许多步骤不能如此容易地自动化。例如,这包括解决所谓的captcha:例如,在登录电子邮件程序之前,您必须复制疏远的字母的小测试。这应该能够证明你是一个人,而不是一台机器。

这就是为什么许多人工智能公司雇佣人类,即所谓的零工,来帮助他们完成这些任务。例如,这包括标记数据或对训练文本进行评论。工作人员的工作内容将被传递给人工智能模型,然后人工智能模型与他们一起训练。

然而,这一体系存在一个大问题:零工通常应该得到很少的工资。与此同时,他们被期望迅速完成堆积如山的任务。因此,许多员工很快就找到了让他们更快、更轻松地工作的解决方案:他们自己使用ChatGPT等人工智能工具。

一半的零工可以使用人工智能模型

位于瑞士洛桑的瑞士联邦理工学院(EPFL)想知道到底有多少员工在使用人工智能工具。这当然不会有什么坏处——因为如果人工智能是用人工智能数据训练的,它可能会造成真正的问题。稍后会详细介绍。

据曾在麻省理工学院创刊的《麻省理工科技评论》杂志报道,研究人员通过零工工作平台“亚马逊土耳其机器人”雇佣了44人参与这项研究。然后,新员工被要求总结16篇医学领域的研究论文。

然后,研究人员用他们自己训练的人工智能模型检查了这些答案:它应该能够识别出文本是否使用了ChatGPT或其他人工智能工具的迹象。例如,他们观察了员工敲了多少次键。这允许他们查看员工是否复制并粘贴了来自其他来源的回复。

结果是:大量员工明显表现出他们正在使用人工智能模型的迹象。根据该报告,研究人员估计,33%至46%的员工曾求助于ChatGPT和Co.。

0

读也

为所有参保人员提供的新养老金:但几乎没有人使用它

领取养老金的人有权得到额外的钱——但他们不知道

破产一个接一个:破产浪潮席卷德国

公民的钱从1月份开始增加:表格显示了有多少钱

但是不淘汰内燃机?这辆汽车现在正与电动汽车竞争

想要一次发现之旅吗?

我的区域

这一比例在未来甚至会显著增加,因为人工智能模型变得越来越好,访问它们变得越来越容易。这可能会促使许多零工更广泛地使用这些工具。

人工智能模型可能会产生更多的错误

回到为什么这项研究揭示了这样一个重要的话题:ChatGPT和它的人工智能同事们吐出幻觉事实、编造的引用或其他错误的情况并不少见。例如,如果零工工人使用人工智能,他们的培训数据也可能存在缺陷。模特们从中学习。

换句话说,随着时间的推移,这些工具可能会变得越来越多。与此同时,确定人工智能语言模型所产生的错误来自何处可能会变得越来越困难。所以下面的建议仍然适用:总是再次检查所有假定的事实。

人工智能不能被使用完全被追踪到

零工员工使用人工智能的事实说明了技术中的一个主要问题:在大多数情况下,不可能最终确定文本是否由生成式人工智能创建。通过这种方式,人工智能生成的内容与人工内容愉快地混合在一起。

到目前为止,即使是ChatGPT公司OpenAI也显然没有找到解决方案。尽管她已经开始了一项实验,但在今年年初,她启动了一个旨在追踪人工智能生成文本的项目:“人工智能分类器”。然而,它并没有很好地工作。因此,OpenAI再次关闭了它。

该公司在其博客上解释说,该程序“由于准确性低而不再可用”。目前正在研究更有效的追踪文本来源的技术。

至少OpenAI做了一个模糊的承诺:“我们致力于开发和部署机制,让用户了解音频或视觉内容是人工智能生成的。”但这究竟意味着什么,以及这样的机制是否可行,仍不得而知。例如,零工可能会继续使用人工智能,而人工智能也会继续进行自我培训。

亿商网声明:未经许可,不得转载。
美国
欧洲
中东