大家好,如何看待霍金说人工智能或许是危险的相信很多的网友都不是很明白,包括霍金为什么不建议人工智能也是一样,不过没有关系,接下来就来为大家分享关于如何看待霍金说人工智能或许是危险的和霍金为什么不建议人工智能的一些知识点,大家可以关注收藏,免得下次来找不到哦,下面我们开始吧!
本文目录
如何看待霍金说人工智能或许是危险的
因为人工智能发展到一定程度,谁能保证它的的“机器观”,“世界观”和我们的“人生观”不相冲突呢?举个例子来说:蚊子咬你,你认为蚊子是害虫,你可以随意拍死它,你认为杀猪吃肉再平常不过。当AI以第三者角度看这个事,它是否会认为你再屠杀异类?就好比老虎当着你面杀牛吃肉,你再旁边肯定会想“下一个吃的会不会是我?”
霍金曾预言人工智能将导致人类灭亡,真的有这么可怕吗你怎么看
智能控制人类为少数人服务,还要多余的人类干什么,没用了还好生事,杀之了事。
老子早就给下了结论,用智治国,国之贼。
霍金给人类留下的六个警告
一,气候变化
霍金认为,全球变暖是人类面临的主要问题之一。他说,如果温室气体的排放量不能得到减少的话,那么在不久的将来,我们的地球就给金星一样,温度将高于460摄氏度
二,遭小行星袭击
悲观地说,如果说全球变暖不能摧毁我们的话,那小行星撞击地球就会毁灭我们。霍金曾参与过亿万富翁尤里·米尔纳的突破性星弹计划,该计划的实质就是派内帕拉特前往半人马座阿尔法星,去寻找离地球最近的恒星系统,显然这是为了以后的搬迁作准备。
三,人工智能
霍金表示,人工智能将完全取代人类,不过,没有说明具体细节。在他看来,机器人的崛起是在所难免的,所以,它们需要一种“特殊的力量”。
四,暴力
霍金说,人类最大的问题就是暴力。它能摧毁地球上的一切,如世界大战。
五,与外星文明联系
霍金最令人惊讶的预言之一就是关于外星文明问题。天体物理学家确信,我们在宇宙中并不是唯一存在的,但如果我们与外星人“见面”,很可能他们会毁灭我们。或许,任何外星文明都比我们的文明更先进,所以我们应该考虑到这一点。
六,霍金警告说,人口过剩可能会导致人类灭亡。他认为,在我们这个“脆弱的星球”上,人类很难再活1000年。
霍金预言的人工智能开发会导致人类灭亡有科学的解释吗
人工智能,其本质是人类手里的工具。按理,人类有了征服自然的好工具,是不足以让人类灭亡的。尤其幻想发生机器人控制了人类这样的后果,那应当不会。要是有,那也一定是有人故意而为止,是为了自己的私欲。要真那样,也是相当于人类自己把自己灭亡的。如果不是人类自己要那样,那么很难想象机器人能够不受人控制。
那么,人类会灭亡吗?我认为会的。并且我认为人类灭亡应当是生物学角度的原因!
科学技术发展无极限,人类这样的生物可就逆了天!比如人类的每个成员无病痛,不死亡,身体机能永远充满活力,那么人类还会去生育后代吗?人还有“过生活”之说吗?反正,到那时应当是“人类”也不成其为人类了,人即便死了也可以再活过来,那么,人死了和活着,都不知道差别在那里了。如果人活着和死了差不多,可能就是人类“灭亡了”吧?
总之,人类是生物类,并且是有情感、有智慧的一类生物,是要有追求的,追求活着的意义的。科学技术的发展,可能会降低人做为生物的“生活感”,这是人类发展的负面。并且,人类发展越快,应当是距离走向灭亡的时间越短。欲望让人类发展,同样也让人类灭亡。最有可能的结局也是一定会象人的祖先猿那样消亡,类人猿进化成智慧人类而使其消亡,那人类又会变成什么呢?
END,本文到此结束,如果可以帮助到大家,还望关注本站哦!
声明:本文内容来自互联网不代表本站观点,转载请注明出处:https://bk.oku6.com/12/117942.html