|
的影响将与微处理器对 20 世纪的影响一样大。这是这里反馈的想法。
英国牛津大学人类未来研究所所长尼克•博斯特罗姆(Nick Bostrom)撰写的《超级智能:路径、危险、策略》是一本颇具争议性的电子书。尽管它的主题被认为是荒凉的,但它已成为《纽约时报》的畅销书之一。除了相关的好处和风险之外,他还讨论了超级智能机器的实际机会。
博斯特罗姆博士表示,科学家认为,地球历史上曾发 加拿大手机数据库 生过五次大规模灭绝事件,大量物种消失。例如,《恐龙的终结》被认为是其中之一。今天我们能够生活在星期五,星期五是人类活动的结果。他问道:我们不会在那个名单上吗?
当然,也有一些外部原因,比如流星坠落,但他专门研究了一种直接出现在《终结者》等科技小说电影中的可能性。这本书确实是有争议的,并且可能显得危言耸听,但它的假设是可行的。
一些科学家回应了这一警告,包括史蒂芬•霍金,他写道:“人工智能的全面发展应该意味着人类的终结。”特斯拉汽车公司创始人兼首席执行官埃隆•马斯克近日也在推特上写道:“博斯特罗姆的超级智能值得一读。我们希望对人工智能格外谨慎。可能比核武器的风险更大。 ”
智能机器的发展将成倍加速医学发现的进程
从好的方面来说,博斯特罗姆表示,这些机器的创造应该会成倍地提高科学发现的技术,并为人类的生存开辟新的可能性。一个开放的问题是这种情报能力是否可行。
合成智能研究人员表示,超级智能机器——人类程度的系统智能(HLMI)——在 2020 年之后出现的风险为 10%,在 2050 年左右出现的风险为 50%。 。 2100年,机会是90%!
做出预测并使其正确可能非常困难。例如,在80多年前的1933年9月的一次演讲中,著名物理学家欧内斯特•卢瑟福表示,每一个声称可以从原子中提取能量的人“都是在胡说八道”。“胡说八道”。但明天,一位匈牙利科学家概念性地表明它是如何执行的。我们认为可能在 30 或 40 年内发生的事情也可能在短短五年内发生。
尤瓦尔•诺亚•赫拉利 (Yuval Noah Harari) 的另一本电子书《Homo Deus》也引发了一场有趣的辩论,并提醒我们,人类和机器之间的根本区别在于两者之间知识差异的联系。对于机器来说,方法是信息=经验事实x算术。
|
|
|
|
|
|
|