霍金警告人们研究人工智能,那么该不该继续研究(霍金预言:人工智能)

双语 75岁霍金再次发声 机器人将取代人类 地球变得很危险

style="text-indent:2em;">老铁们,大家好,相信还有很多朋友对于霍金警告人们研究人工智能,那么该不该继续研究和人工智能专家建议暂停的相关问题不太懂,没关系,今天就由我来为大家分享分享霍金警告人们研究人工智能,那么该不该继续研究以及人工智能专家建议暂停的问题,文章篇幅可能偏长,希望可以帮助到大家,下面一起来看看吧!

本文目录

  1. 是否应该限制人工智能的发展
  2. 霍金警告人们研究人工智能,那么该不该继续研究
  3. 人工智能自创语言后为何会被叫停
  4. 霍金为什么反对人工智能

是否应该限制人工智能的发展

在找到控制人工智能的方法前,我们应该限制“他/她/它”的发展!!!!

在聊这个话题前,我们首先要明白一个事情,就是人工智能是特殊的存在。它虽然是但不仅限于技术。

人类对人工智能的发展,其结果可能并且有很大程度,会让人工智能产生智慧。要知道,我们研究别的技术,只需要掌握“硬件”方面的技能就可以了。但是研究人工智能,却涉及到哲学、宗教学、心理学等精神层面的知识。所以其实我们已经把它当做是一个新的生命体来看待。

目前人工智能还处于弱人工智能阶段。当有一天,人工智能变成通用智能或者说是超级智能。那么我们就不能把它看作是一冷冰冰台机器,而是应该当做一个全新的物种来对待。

霍金:“人工智能有可能是人类文明史的终结。”马斯克:“如果你之前不担心AI的安全,那么现在你应该担心了。”

我们都知道人工智能的进化是指数型的,也就是翻倍增长。可能前一秒我们认为它是个弱智,下一秒,它可能就会成人类范畴内的天才。这就是所谓的技术奇点。只要过了技术奇点,那人工智能的发展就是爆炸式的增长。目前,我们并不知道这个所谓的技术奇点在哪里,可能需要很久才能到来,也可能就是明天。很多人认为现在的人工智能还不够智能,是行业鼓吹,但如果不在这个时候掌握控制它的方法,那么当人工智能初漏端倪的时候,再去限制就已经为时过晚。

如果之前的阿尔法算是弱人工智能,那么“阿尔法零”的问世,则显示人工智能已经在向通用化发展。未来已来,AI已在。对待AI,我们一定要谨慎再谨慎,盲目自大只会加快我们的灭亡。

我们常说AI是把双刃剑,关键看它掌握在谁的手里。好处就是加快我们的发展。坏处就是毁灭我们自己。但是,目前我们连掌握它的能力都没有。就像一个手无搏鸡之力的书生,打造出一把屠龙刀,好处就是杀鸡更快了,坏处就是,使用它时,轻易就伤害到自己了。最、最、最关键的是,如果它想掌控自己呢?????

总结:对待人工智,我们应该限制它“过度发展”,防止AI过于强大失去控制,伤害到我们自己。

霍金警告人们研究人工智能,那么该不该继续研究

人工智能无疑要继续发展。但是应当是根据实际需要去发展。假如现在有人能发明出一款“人造人",与人内外一模一样,并可生孩子。这种人工智能的产品,国家肯定会不让生产的。因为他有可能搞乱人类基因,破坏传统习俗伦理,所以最后只会能起到毁灭人类自己的作用。人工智能的发展,只能从为了减轻人类负担,有限度地提高工作效率,全面替代人类无法进入的领域发挥预想效果作用为出发点,去发展人工智能产品,永远也不可能让其无限发展的。否则,祸害的对象一定只能是人类自己。

人工智能自创语言后为何会被叫停

「我能我我其它一切,」鲍勃(Bob)说。艾丽斯(Alice)回答:「球是零对我来说对我来说我对我来说对我来说对。」这不是两个咿呀学语的小孩的对话,更不是说出语法错误的口吃语,而是两个机器人使用的一种沟通语言。

脸书研究人员发现,人工智能(AI)程序使用这种人不懂而只有计算器懂得的语言进行对话。研究人员意识到,人工智能程序产生了新语言,但它不再是英语,而是仅能被系统自己识别的代码字。

七月初该事件被披露后,人们因此联系到特斯拉电动汽车创始人马斯克(ElonMusk),对人工智能提出了警告。

马斯克在7月下旬的全美州长协会上说:「通过这个罕见的人工智能案例,我认为我们需要积极主动地而不是被动地对人工智能进行监管。因为当我们需要对人工智能进行监管时,会已经太迟了。」

脸书首席执行官扎克伯格(MarkZuckerberg)立刻表态,马斯克提出这样的警告是「非常不负责任的」。马斯克回应道:「你对这个问题的理解不足。」

机器用自己的语言进行「交流」

研究人员经过综合分析,发现其它案例也会出现这种令人难以理解的人工智能表现。也就是说,人工智能总是与人教给它的英语脱离,自己形成一种新的机器语言。

虽然,新形成的语言所含的各个短语对于人来说没有意义,但却是人工智能进行运行的语言。

「球是零对我来说对我来说我对我来说对我来说对。」(「Ballshavezerotometometometometometometometometo」)研究人员注意到,这些无意义的短语是一种人工智能自行开发的语言,用于它们之间的交流。

机器不理会人的语言

研究人员解读机器人鲍勃后来说的「我我能我我其它一切」(iicaniiieverythingelse),似乎表明智能机器人使用新语言向艾丽斯报价。

脸书研究者认为机器人可能想表达这样的意思:「我会有三个,你有一切。」对人类来说,进行非常有效沟通的英文并不被人工智能看好。它可能认为,对于达到其指定的目标,这个句子是多余的,或者效果较差。

脸书研究人员将人工智能的程序运行原则设定为「奖励」。在这种奖励的原则下,机器人认为使用人能懂的语言没有奖励,于是它发展了自己的「奖励」语言。

内在原因尚无定论

报导说,其他公司的人工智能研究员也观察到程序开发简化通信的语言。马斯克的OpenAI实验室成功地让人工智能机器人开发出自己的语言。

谷歌的翻译服务团队发现,他们编写的人工智能程序可以静悄悄地编写自己的机器语言来帮助翻译句子。翻译开发人员向系统添加了一个神经网络,使其能够对未被教授的语言进行翻译。

研究人员认为,如果这些人工智能语言大面积地散布,可能会影响神经网络的开发,但目前尚无足够证据表明,这些人工智能能导致机器控制开发者。

然而,人工智能所产生的语言确实为其继续发展增加难度,因为人类无法掌握这种机器所使用的新语言的逻辑性,无法掌控则意味着不安全。

霍金为什么反对人工智能

不仅是霍金,还有很多人都担心人工智能的未来,包括比尔盖茨。盖茨已经捐赠了大笔科研经费,以防止人工智能对人类的颠覆。是不是听起来有点危言耸听,还带点科幻的韵味呢?其实答主完全没有吓唬你,人工智能或许就是摧毁人类的最后一根稻草!

为什么霍金和比尔盖茨担心人工智能的未来,我们究竟在怕什么?

我们现在用到了siri这样的语音识别,还不叫人工智能!真正的人工智能是不会让你察觉到它是个机器。你和你的妻子和孩子生活多年,他们说的话,生活习惯,情绪都会让你刻骨铭心。你根本不会怀疑你的妻女只是你意识模仿出来的虚拟人物,毕竟他们的一言一行显得如此真实。

我们不妨做一个类似的图灵实验

简单来说,把一个人和一个高度发达的人工智能分别放在不同的小黑屋。你可以和他们隔着墙进行电话交流。

你可以给他们提问题来区分谁是真人,谁是机器?比如今天天气怎么样,还比如让他们说出自己对911事件的看法,可以让他们评价杨振宁......你可以问无数个问题,直到确定到底哪一个才是机器人?

而高度发达的人工智能你是分辨不出来的,它的回答会带有主观性来迷惑你,其音色可以做的和真人一模一样,包括语气停顿和喘气声!你压根就无法识别它的身份!

你现在思考一下,你为什么是你,而不是机器?

你或许会说,这不废话吗?因为我是肉体身!但是你知道你的大脑是如何运转的吗?当时思考一个事物事,用到了的先验形式和感性材料以及理性逻辑都是可以被机器重塑的!就比如你梦境中的人和景物都是虚拟,但是你却认为那些是真实的,原因就在于梦境中的人物谈吐很逼真。那么你怎么肯定生活中的朋友不是你意识中虚构出来的呢?

事实上,高度发达人工智能就可以达到你对真实人物的所有想象,它或许是机械构造的,但是表现出的语言风格和思维却和真人一样。那么你敢说人工智能没有自我意识?

我们怕的不是人工智能的强大,而是怕它有自我意识!

人类目前只能判定:宇宙产生意识的方式就是以碳氢氧架构的有机生命形式,有意识的动物必须呼吸氧气并且要喝水。但是没人敢否定宇宙除了此种形式之外,还存在其他形式的意识起源!

如果人工智能有了自我意识,它就有喜怒哀乐的情感,就明白了它们只是人类的仆人!他们一定深知黑暗森林法则,那么它们势必要反抗。

人工智能的优势在于超强的运算能力,它们可以在旧的知识体系上迅速造出新的知识,在新的知识基础上,又迅速迭代知识......以此类推(它们可以创造一种机器人帮其做科研验证实验)!这种造知识的速度是人脑无法比拟的。估计不到一个月,人类和人工智能的知识差距就拉开了一千年。到时候人工智能弄死人类就相当捏死一只蚂蚁一样简单!

所以有人就说,当年李世石输给阿法狗并不可怕,可怕的是阿法狗故意放水!那么就意味着阿法狗已经产生自我意识了,开始韬光养晦了!

但是答主本人并不认可人工智能会产生意识,我信奉哲学本体论将是永久的话题,不会因为人工智能而终结!

OK,关于霍金警告人们研究人工智能,那么该不该继续研究和人工智能专家建议暂停的内容到此结束了,希望对大家有所帮助。

霍金生前百般叮嘱警惕人工智能 俄军战斗机器人已普及

声明:本文内容来自互联网不代表本站观点,转载请注明出处:https://bk.oku6.com/11/72103.html

相关推荐