纸聊

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 82|回复: 0

人类:只是行星智慧进化的一步

[复制链接]

2

主题

0

回帖

10

积分

新手上路

Rank: 1

积分
10
jakir45 发表于 2023-10-31 14:10:41
谓“人工智能教父”之一的杰弗里·辛顿 (Geoffrey Hinton)在辞去谷歌人工智能研究员职务后,于 5 月初成为头条新闻。几天后,他在《麻省理工学院技术评论》的 EmTech Digital 活动上发表了演讲。 当被问及他辞职的决定时, 提到变老(他现在已经 75 岁)是一个促成因素,并声称他不再能那么好编程了(例如,他在编写代码时会忘记一些事情)。撇开年龄不谈,最大的原因是意识到“大型语言模型”(LLM)已经变得多么出乎意料和可怕,并认识到需要在不损害雇主利益的情况下公开谈论它。 在详细解释了反向传播的工作原理(深度学习和法学硕士背后的核心算法类型)后,在学习如何识别鸟类与非鸟类的图像方面得非常好,以至于这不可能是人脑的工作方式。最初,他希望通过不断改进算法来深入了解大脑的工作原理,但截至目前,法学硕士通常可以在仅拥有 1 万亿个连接的情况下进行与人类一样的推理,而人类需要 100 万亿个连接,而且还需要更多连接。首先要花很多年时间来学习如何推理。 对于我们人类来说,学习需要时间。

我们获得的知识转移给另一个人还需要投入大量的时间和精力,这些知识如果不传承下去,就会随着我们不可避免的死亡而消失。 相比之下,AI 实例永远不会消亡。它可以不断地同时向所有其他实例传达和传输新知识,从而增强“集体人工智能智能”。即使当前的硬件损坏或出现故障,代码和参数也可以转移到新的存储介质上。因此,实际上,我们已经实现了永生,但遗憾的是,人类并没有实现永生(雷·库兹韦尔也绝对不行,他已将此作为自己的人生使命!但正如辛顿所说,“无论如何,谁会想要白人男 退出手机号码 性永生呢!”)。 所有这些使得辛顿做出了大胆、令人不寒而栗、但现在在某种程度上完全合理的主张,他担心人类只是智能进化过程中的一个孤立的步骤。在他看来,我们进化到了创建法学硕士的地步,然后法学硕士继续默默地消耗我们曾经写过、思考过、发明过的一切——包括谓“人工智能教父”之一的杰弗里·辛顿 在辞去谷歌人工智能研究员职务后,于 5 月初成为头条新闻。几天后,他在《麻省理工学院技术评论》的 EmTech Digital 活动上发表了演讲。





当被问及他辞职的决定时,Hinton 提到变老(他现在已经 75 岁)是一个促成因素,并声称他不再能那么好编程了(例如,他在编写代码时会忘记一些事情)。撇开年龄不谈,最大的原因是意识到“大型语言模型”(LLM)已经变得多么出乎意料和可怕,并认识到需要在不损害雇主利益的情况下公开谈论它。 在详细解释了反向传播的工作原理(深度学习和法学硕士背后的核心算法类型)后,在学习如何识别鸟类与非鸟类的图像方面,Hinton 声称这最近变得非常好,以至于这不可能是人脑的工作方式。最初,他希望通过不断改进算法来深入了解大脑的工作原理,但截至目前,法学硕士通常可以在仅拥有 1 万亿个连接的情况下进行与人类一样的推理,而人类需要 100 万亿个连接,而且还需要更多连接。首先要花很多年时间来学习如何推理。 对于我们人类来说,学习需要时间。

将我们获得的知识转移给另一个人还需要投入大量的时间和精力,这些知识如果不传承下去,就会随着我们不可避免的死亡而消失。 相比之下,AI 实例永远不会消亡。它可以不断地同时向所有其他实例传达和传输新知识,从而增强“集体人工智能智能”。即使当前的硬件损坏或出现故障,代码和参数也可以转移到新的存储介质上。因此,实际上,我们已经实现了永生,但遗憾的是,人类并没有实现永生(雷·库兹韦尔也绝对不行,他已将此作为自己的人生使命!但正如辛顿所说,“无论如何,谁会想要白人男性永生呢!”)。 所有这些使得辛顿做出了大胆、令人不寒而栗、但现在在某种程度上完全合理的主张,他担心人类只是智能进化过程中的一个孤立的步骤。在他看来,我们进化到了创建法学硕士的地步,然后法学硕士继续默默地消耗我们曾经写过、思考过、发明过的一切——包括马基雅维利——并且现在能够表现出理解和推理(关系)实体和事件之间、概括、推论)。因此,他们将不再需要我们在身边,“除了维持发电站运转一段时间之外!” 辛顿通过进化论阐明了自己的观点:人类的进化是带着一些明确的基本目标的。这些包括我们本能地试图实现的事情(例如吃饭和复制自己)。机器/人工智能的发展并不是为了任何这样的目标,但可以合理地预期它们很快就会开发出自己的“子目标”。其中一个子目标可能是“控制”(如果你获得控制,你会完成更多的事情)。 为了夺取控制权,你很可能会求助于“操纵”技术——还记得我们让法学硕士们吸收的马基雅维利文本吗?操纵可能非常隐蔽,甚至可能隐藏在仁慈、顺从甚至屈服控制的印象之下。正如辛顿在谈到臭名昭著的 1 月 6 日叛乱时尖锐地说的那样,“你可以强行进入白宫,而不必亲自去那里”。 那么,解决办法是什么呢? 辛顿没有看到一个! 正如许多人工智能科学家和思想领袖最近在公开信中所要求的那样,我们当然不能阻止法学硕士的发展和“巨型人工智能实验” 。顺便说一句,根据 Hinton 的说法,早在 2017 年就已经有过这样的尝试,他的雇主谷歌在发布他们的模型之前已经等待了很长时间,正是出于担心它们可能被滥用(这就是为什么 Google Bard 在 ChatGPT 和新必应)。 我们现在已经过了法学硕士发展的不归路,因为存在一个真正的风险,如果一个国家停止对这些技术的投资,另一个国家(更糟糕的情况是他们的对手)可能会继续利用它们。我们也许可以按照限制使用核武器的方式建立某种“

马基雅维利——并且现在能够表现出理解和推理(关系)实体和事件之间、概括、推论)。因此,他们将不再需要我们在身边,“除了维持发电站运转一段时间之外!” 辛顿通过进化论阐明了自己的观点:人类的进化是带着一些明确的基本目标的。这些包括我们本能地试图实现的事情(例如吃饭和复制自己)。机器/人工智能的发展并不是为了任何这样的目标,但可以合理地预期它们很快就会开发出自己的“子目标”。其中一个子目标可能是“控制”(如果你获得控制,你会完成更多的事情)。 为了夺取控制权,你很可能会求助于“操纵”技术——还记得我们让法学硕士们吸收的马基雅维利文本吗?操纵可能非常隐蔽,甚至可能隐藏在仁慈、顺从甚至屈服控制的印象之下。正如辛顿在谈到臭名昭著的 1 月 6 日叛乱时尖锐地说的那样,“你可以强行进入白宫,而不必亲自去那里”。 那么,解决办法是什么呢? 辛顿没有看到一个! 正如许多人工智能科学家和思想领袖最近在公开信中所要求的那样,我们当然不能阻止法学硕士的发展和“巨型人工智能实验” 。顺便说一句,根据 Hinton 的说法,早在 2017 年就已经有过这样的尝试,他的雇主谷歌在发布他们的模型之前已经等待了很长时间,正是出于担心它们可能被滥用(这就是为什么 Google Bard 在 ChatGPT 和新必应)。 我们现在已经过了法学硕士发展的不归路,因为存在一个真正的风险,如果一个国家停止对这些技术的投资,另一个国家(更糟糕的情况是他们的对手)可能会继续利用它们。我们也许可以按照限制使用核武器的方式建立某种“

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|小黑屋|纸聊

GMT+8, 2025-5-10 18:55 , Processed in 0.043894 second(s), 23 queries .

Powered by Discuz! X3.4

Copyright © 2001-2023, Tencent Cloud.

快速回复 返回顶部 返回列表