纸聊

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 113|回复: 0

你需要检查一下人工智能人工智能 (AI) 对未来几年

[复制链接]

1

主题

0

回帖

9

积分

新手上路

Rank: 1

积分
9
adnanhridoy2965 发表于 2023-10-30 13:26:08
的影响将与微处理器对 20 世纪的影响一样大。这是这里反馈的想法。

英国牛津大学人类未来研究所所长尼克•博斯特罗姆(Nick Bostrom)撰写的《超级智能:路径、危险、策略》是一本颇具争议性的电子书。尽管它的主题被认为是荒凉的,但它已成为《纽约时报》的畅销书之一。除了相关的好处和风险之外,他还讨论了超级智能机器的实际机会。

博斯特罗姆博士表示,科学家认为,地球历史上曾发 加拿大手机数据库 生过五次大规模灭绝事件,大量物种消失。例如,《恐龙的终结》被认为是其中之一。今天我们能够生活在星期五,星期五是人类活动的结果。他问道:我们不会在那个名单上吗?

当然,也有一些外部原因,比如流星坠落,但他专门研究了一种直接出现在《终结者》等科技小说电影中的可能性。这本书确实是有争议的,并且可能显得危言耸听,但它的假设是可行的。

一些科学家回应了这一警告,包括史蒂芬•霍金,他写道:“人工智能的全面发展应该意味着人类的终结。”特斯拉汽车公司创始人兼首席执行官埃隆•马斯克近日也在推特上写道:“博斯特罗姆的超级智能值得一读。我们希望对人工智能格外谨慎。可能比核武器的风险更大。 ”

智能机器的发展将成倍加速医学发现的进程

从好的方面来说,博斯特罗姆表示,这些机器的创造应该会成倍地提高科学发现的技术,并为人类的生存开辟新的可能性。一个开放的问题是这种情报能力是否可行。

合成智能研究人员表示,超级智能机器——人类程度的系统智能(HLMI)——在 2020 年之后出现的风险为 10%,在 2050 年左右出现的风险为 50%。 。 2100年,机会是90%!

做出预测并使其正确可能非常困难。例如,在80多年前的1933年9月的一次演讲中,著名物理学家欧内斯特•卢瑟福表示,每一个声称可以从原子中提取能量的人“都是在胡说八道”。“胡说八道”。但明天,一位匈牙利科学家概念性地表明它是如何执行的。我们认为可能在 30 或 40 年内发生的事情也可能在短短五年内发生。



尤瓦尔•诺亚•赫拉利 (Yuval Noah Harari) 的另一本电子书《Homo Deus》也引发了一场有趣的辩论,并提醒我们,人类和机器之间的根本区别在于两者之间知识差异的联系。对于机器来说,方法是信息=经验事实x算术。


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|小黑屋|纸聊

GMT+8, 2025-5-10 18:47 , Processed in 0.040374 second(s), 23 queries .

Powered by Discuz! X3.4

Copyright © 2001-2023, Tencent Cloud.

快速回复 返回顶部 返回列表