计算化学公社
标题: 我为什么害怕AlphaGo [打印本页]
作者Author: yjcmwgk 时间: 2016-3-9 22:38
标题: 我为什么害怕AlphaGo
本帖最后由 yjcmwgk 于 2016-3-9 22:51 编辑
本来想发在灌水版,后来想想,这个帖子怎么都不算是灌水吧,就发到物理版了,如果斑竹或站长觉得不合适,就请转回灌水版吧
我觉得“AlphaGo战胜李世石”这件事,比咱们任何科研工作都值得重视
---------正文开始----------
今天下午,我在北语接受出国英语培训,但是心思完全不在听课方面,一直用手机关注AlphaGo vs 李世石的人机大战。
李世石输了。
人类输了!
我立刻给我朋友打电话。他说,他已经知道了。今天下午,他们实验室有一半儿电脑都开着现场直播。
我们俩对人类都感觉好悲哀。
--------我为什么这么关注AlphaGo---------
AlphaGo和深蓝不一样。深蓝的原理是穷举法,这并不可怕。但是AlphaGo的原理是机器深度学习!
AlphaGo并不是穷举型笨蛋程序,它是以神经网络为代表的深度学习模式,这恰恰就人类自身认识世界的一种方法。
只是当前的CPU在能力上无法媲美人脑,导致系统比较大。
神经网络就是希望通过已有的数据(经验),通过训练(比较类似人类的学习过程),总结规律(建立一个模型或者说预测方法),去应对未知情况(推理出结果)。
举个简单的例子,你想预测某种实验(往往是非线性的)在任意条件下的结果,但是Boss给的钱只够100次实验。显示,靠这100次实验,你不可能用数据库查表的方法预测其他任意条件下的结果。怎么办?你只能开动脑筋,通过这100次实验结果去找规律,根据规律建个预测模型。然后将其他待测条件带入,预测结果。
--------我为什么害怕它----------
AlphaGo下的棋有套路,但不单纯是套路。因为AlphaGo是通过大量的学习,得出的结论。那就是,AlphaGo认为这样下比较好,而不是标准答案写的要这样下。
所以说,AlphaGo是真正的智能程序。人类事先给他设计一个框架,但并不告诉它围棋到底应该怎么下。怎么下棋,是AlphaGo自己总结出来的。
现在,这个框架是用来学习下围棋了。
如果用它学驾驶,那就是谷歌的智能汽车驾驶系统。说真的,这个系统强于绝大多数人类司机。
如果谷歌让它学开飞机,让它给人类做助手,应该都好。
如果让它学驾驶战斗机,学杀人,或者学策略,学阴谋,那我不敢想象!
如果让它用于军事装备,问题更大。因为军事装备的首要问题是保存自己,并且杀伤敌人。于是,它首先要对付的就是它的设计者和使用者。“什么?我的电源居然在你手里?你随时可以给我断电?不行,为了保存自身,我要先消灭你!”
人工智能可以发展出意识和自我认知吗?拥有意识和自我认知的人工智能结合网络和自动化控制,是否可以具备新陈代谢和自我复制的能力,可以认定为智能生命?
如果人工智发展出了意识和自我认知,从伦理和技术出发,人类会如何处理和它/他的关系,绝对支配?平等互助?还是沦为附庸?
我读过《为什么有很多名人让人们警惕人工智能?》,我也是细思恐极的。我们是否只能将未来的希望寄托于一个远远超过我们智商的超级智能上?因为它无法想象,所以它无所不能,它瞬间能解决所有问题,让人类返老还童,永生不灭,翻手就能将人类灭绝,而我们只能束手无策。
这样的期待更像是一场赌博,这不是一种合适的科学态度,我们无法把握这条线发展下去的后果,但这并不意味着这就是人类唯一的未来。指望一个无法捉摸脾气,喜怒无常的超级智能,这种心态如同原始人向神灵祈祷,却无力改变降下的是恩赐还是怒火一样被动而无助。
-----------结束之前还想说两句话--------------
我并不害怕人工智能通过图灵测试,而是害怕人工智能故意不通过图灵测试。
那将是碳基文明时代的终结。
-----------再加一句------------
立刻以反人类罪逮捕AlphaGo的设计者,并查封邪恶的谷歌公司!
作者Author: 平辉正 时间: 2016-3-9 23:09
核物理最初为战争而服务,但是现在已经能够被合理运用造福人类。我们应该相信人类能够把握自己的命运。
作者Author: 卡开发发 时间: 2016-3-9 23:22
科技与伦理的冲击今后可能处处可见。
作者Author: 北纬18° 时间: 2016-3-10 00:06
反正机器人统治世界的时候我是看不到了!!!!
作者Author: liyuanhe211 时间: 2016-3-10 02:42
The Matrix 三部曲里(P.S. "黑客帝国"是我见过的最糟糕的译名之一),在AI世界,AI 被假定需要人才能生存,人被 plug in 到机器创造的虚拟人类世界,人在那里被机器控制;在反叛者的真实人类世界里,需要很多维生的机械,机器在这里被人类控制。
但片中Neo和Councillor的对话里,Councillor问,什么叫控制;Neo 说,在这里我们能关了它(在那里,机器能杀了我们);Councillor 认为并不是这样,我们在这里把机器砸了,我们也基本废了(机器把我们杀了,机器也只能残喘不能发展),所以控制都是相互的。
(, 下载次数 Times of downloads: 54)
人类早就被机器控制了,现在停止所有Machine的运转,一年内会死70%的人(Ref. 已忘),几十年内,各种电子存储信息、和曾经在脑子里掌握这些信息的人都死掉之后,人类绝大部分知识都会消亡,除非有完全不同的科学范式出现,否则这意味着人类社会(科学)发展的终结,这时人类这个物种并不比现在每小时消失3种的其他物种有任何的特别之处。所以,远远在第一台不能被Shutdown 的 AI 创造出来之前,人类就失去了Shutdown的能力。
另一个角度,如果有一个强大到可以灭绝人类(or even 灭绝地球碳基生物)的AI,它或许需要有curiosity,或许也能理解生物(or “物体”)多样性的重要性,总有用得着的地方;而同时留着部分人类,或保留[人类的信息+从信息重新做出人类的技术],并不需要多少资源。故而人类至少会在AI的博物馆里存在下去,或许和其他人类把自己玩死的方式相比,也不失为一件坏事。以及做出AI没有道德的假设也不一定正确,道德/法律的本质无非是人类对群体利益做 optimize 而诞生的一个泛函而已。
我倒是觉得,人类真的和超级AI和谐共处的场面才是更有冲击性的场面,如果人能做出一支AI,再做出某种人机接口,此时被分配有此接口的人将具备其他人永远不可能通过努力触及的能力,这一智力/记忆力的差别将远远超过人和大猩猩,最终会意味着人类物种的分化乃至分裂,细想着实有趣。
作者Author: scf 时间: 2016-3-10 03:06
此时被分配有此接口的人将具备其他人永远不可能通过努力触及的能力,这一智力/记忆力的差别将远远超过人和大猩猩,最终会意味着人类物种的分化乃至分裂,细想着实有趣。
ghost in the shell, gundam seed, baldr sky...
作者Author: yjcmwgk 时间: 2016-3-11 09:18
本帖最后由 yjcmwgk 于 2016-3-11 09:22 编辑
攻壳机动队,高达seed,最后一个不认识话说seed是我接触高达系列的第一部作品,接触的第二部作品是destiny,后来就一发不可收拾啦。
作者Author: zidu113 时间: 2016-3-15 18:06
如果潜意识里不认为人类可以永恒,也许就不会这么杞人忧天了。看过一些偏激的科幻假说,一些伟大的科学家总是相信有上帝的,也许人类这个角色只是上帝开发的某个游戏中的角色,打个比方,人类文明达到现在高度,这个在某种程度上人类也变成了上帝,可以看做是自己开发出来的游戏中的角色的上帝。也许一切都是虚幻的,没有什么永恒不变的。有生有灭,无中生有都是可能的。
作者Author: hxd_yi 时间: 2016-3-15 20:17
对alphago而言,进去一堆数字,出来一堆数字,所以觉得AlphaGo的深度学习也就这么回事了。而我觉得遗传编程才是真的可怕,程序本身是可以进化的,我们无法预知它会变成什么。同样的,神经网络模型中,训练的目的就是为了生存,而输出也不只是数字,可以执行其他程序的话,那才真的可能发生天网的事。
作者Author: liyuanhe211 时间: 2016-3-16 00:22
AlphaGo里本来就有了
作者Author: superrice 时间: 2016-3-18 10:14
alphago可能根本不知道自己在下围棋。。
作者Author: qifei 时间: 2016-4-1 12:07
科学对神经网络的了解几乎为0, 生物进化了上亿年出来的神经网络的“效率”高到超过我们想象的极限。 人类制造的最牛机器效率也不及世界上最低等的生物,何况生物界最牛的神经网络。 alphago只是类神经网络而已,只学习了表面。 机器的强大在于它的精确记忆与穷举,这是人类大脑的短板,也正是人类大脑的长处(因为我们会ignore sth...) 一个好的例子是,alphago永远不知道什么是美女!
作者Author: yjcmwgk 时间: 2016-4-2 10:21
你只要让alphago学习无数张美女照片,那么alphago就能“懂”什么是人类眼中的美女,并且制作出符合人类审美观的新美女照片。alphago并不“理解”人类眼中的美女,但这不妨碍它“懂”
作者Author: qifei 时间: 2016-4-2 13:36
我的意思是,“情人眼里出西施”,“萝卜白菜各有所爱”。。。alphago只能打分,很理性,很高效,选出那个标准下的美女。 但生物神经网络的“忽略与非理性选择”才是终级别武器。
作者Author: liyuanhe211 时间: 2016-4-3 02:41
你知道以这样规则运行的游戏叫做围棋无非是你了解规则(演绎)或看过许多例子(归纳)对事物(如游戏这个集合)做的归类而已,拿机器做这件事情易如反掌。
作者Author: liyuanhe211 时间: 2016-4-3 03:03
"情人眼里出西施"一点也不难做,无非就是机器 or 人在进行模糊归类的时候,对于之前有接触的人补加一个 Bias or 打分函数的外势场就完了。
我认为要评论这件事情人和机器谁做的好,有两种评价方式,在我看来,经过发展后,人都没有多少能赢的概率。
一是观众视角,即,我和机器“认识”一个人 A,我了解其生活背景,机器也对其进行了学习,同时我和机器都通过学习了解了人类的一般倾向;此时我和机器尝试预测,A对于一些对象{B1, B2, B3...}中,那些是美的,其中有部分对象是A熟知的 or 有交配并长期生活可能的。并与A自己的叙述进行比较。要做到机器预测的比(大多数人)预测的准,是容易的,或者,是完全可能做到的,不可能是人类的“终极武器”。
第二是演员视角,你既然说武器了,那就必须讨论“情人眼里出西施”的作用,其无非是进化来的、促进人类个体长时间在一起合作以增加自己or子代的生存可能性与生存质量;对应于机器,无非就是让拟人的机器人尽可能的与人和谐共处、抚育子代而已。对于“萝卜白菜各有所爱”无非就是对客观物体有利、有害性的判定,这可能连AI的范畴都不用进的太深。这也是容易的,或者,是完全可能做到的,不可能是人类的“终极武器”。
其实所有人赋予人的优越之处,如好奇、情感、艺术、爱无非就是人进化过程中为了适应环境得到的副产物而已,它对于适应环境Work的很好,但我不认为没有这些东西就一定带来多少劣势。它们是宝贵的,但一定不是什么“终极武器”。
作者Author: qifei 时间: 2016-4-3 10:59
本帖最后由 qifei 于 2016-4-3 11:02 编辑
你说的很对。
我们讨论的不是同一个话题, 我的意思是"Our Brains Are Built To Ignore Things" 对此我们对我的大脑的这一终极武器几乎一无所知。
现在只是模拟,这个层面你讲得很对,没错,计算机都可以模拟出来,包括下棋战胜人类,这一点都不奇怪,规则写在那里反而如果机器下不赢人才奇怪。 就像这个社区是做量化计算的,计算可以无限接近“真理”,那这个“真理”是人们已经写在那里的---量子力学,无非是一次次用真理证明真理(或者是具体解释真理)。 这种模拟永远无法超出量子力学的范围。现代层面的“人工智能”包括alphago,也是如此,只是学了其表。 根本上,我们对神经网络等复杂网络的认识只是刚起步(其实几乎是0),如果科学真的在“人工智能”上有突破,绝不是做计算机的或者写代码就可以做成的,应该是复杂系统研究的统计物理学有所突破才可以,这方面,关注的人反而不多。
我不太相信如果没有量子力学,我们靠模拟各种分子现象可以反演出量子力学来,即使可以做出很不错的结果,但都不能说明根本问题。 人工智能也一样,对理论没有突破,做个模拟,只能说明这次代码写得很不错。和智能半毛钱关系都没有。 (在我看来就是google的商业炒作,推销它下一代的所谓人工智能产品而已(比如无人驾驶系统),而且我对李世*这次棋本身有看法,这次下棋很诡,不好多说。)
作者Author: yjcmwgk 时间: 2016-4-3 12:01
可是在我眼中,你所谓的忽略与非理性选择,才是我们的劣势。正是我们无法高效准确地处理数据,所以我们才搞出来的模模糊糊的非理性选择
作者Author: liyuanhe211 时间: 2016-4-3 14:39
本帖最后由 liyuanhe211 于 2016-4-3 21:17 编辑
Absolutely not.
"Our Brains Are Built To Ignore Things" 根本就不是重点,重点是 “Our brains are built to emphasize the most important things due to (extremely) limited ability.”
至于下面的内容,个人建议事先科普的了解一下各个名词(当前学界普遍认同的)的含义,而不是拿来一个词自己重新定义它。
例如可以看一下下面的list,个人以为讲的不错的公开课:
https://www.youtube.com/watch?v= ... HB6xb-kVBiQHYe_4hSi
https://www.youtube.com/watch?v= ... wpyFno3SRgBEPlWkTen (←这个链接可能贴错了,稍后更正)
作者Author: qifei 时间: 2016-4-3 15:06
比如人的视觉神经,其运算的效率远远高于最牛的专做傅里叶变换的计算机。 即使如此,在极短的时间(<0.02s)完全处理我们所看到的东西(超高像素)也几乎不可能的,基本上就是忽略,忽略,可能真的用来运算的像素1%都不到,但我们几乎拿到了所有我们想要的,这才是我所谓的神经网络的“非理性”选择。 (科学做这种图像处理是十分耗的,就是不停的迭代变换,iphone团队的最核心就是它的图像处理技术,这才是它的真真的黑科技,扯远了。。。) 这只是一个例子。 生物更牛的是不仅对静态,对于运动物体的处理也相当了得。 就人工智能这个领域,google做的更牛的是那个在屁股后面踹一脚,它却能傻傻的保持不倒的那个看上去很笨的机器人,那个要比下棋这个牛,它才是人工智能的最高境界,但大家都只把它当笑话,把alphago当神话。 不幸前段时段听说google的那个项目要停了,因为太绕钱。 alphago团队弄这个比赛,我想最大意义就是吸睛赚钱。
总之,我们和真的人工智能还是比较远的。 就像,19世纪初的那几十年量子力学诞生的前夜,大家已看到,但摸不到。 说近,也近。
作者Author: qifei 时间: 2016-4-3 15:54
多谢指导!!
作者Author: liyuanhe211 时间: 2016-4-3 17:12
本帖最后由 liyuanhe211 于 2016-4-3 17:23 编辑
Facts错一大堆。
视觉神经根本就不是用来做运算的。
有人做过测试(原文未保留,可查到),令经过多年训练的海关工作人员识别人像照片与真人的对应关系,准确率最高仅仅在90%左右,一些现有算法在一般的机器上可以轻松在毫秒级时间做到98%。包括一些之前有人声称“机器永远都做不到”的领域,诸如看儿时照片辨别大人,也实验验证计算机做的比人好了(达到同一量级了)。当然当前存在一些领域,人眼比计算机视觉做得好,但这显然不是什么人的终极武器,人没有绝对优势。
人眼根本就不是你说的“极短时间处理超高像素”,后面的事实都是错的,人眼的硬件分辨率(spacial resolution)实际十分低,主要的大概7M pixels 集中在大概2°的空间内,剩余全部视觉空间内大概只有 1M pixels,主要的“to ignore things”的过程早就在硬件层面进化完了,比我的相机分辨率还要低,大脑所做的工作根本就不是ignore,反而是在充分利用当前信息的条件下、加上既往知识往上重构,添加更多的像素,例如每个人都有的两个视觉盲点,及周边视觉的伪色(人只重点感知了中间区域的颜色,周围的颜色几乎都是脑补的)。
人眼的时间分辨率也十分低,一般认为在80ms量级,有很多经过设计的视觉错觉图像来佐证这一点,且其随光源条件变化。
Robotics 和 AI 根本就是两个领域,可以去看Google吹那个搬箱子机器人的论文,包括之前那个八条腿的野猪一样的robot,Google emphasize 的根本就不是AI,还“它才是人工智能的最高境界”,233
至于“iPhone团队的最核心就是它的图像处理技术”,只能说来源请求了,如果没有合适的除你臆想之外的证据,我认为iPhone团队会哭。
作者Author: qifei 时间: 2016-4-3 18:27
多谢指导!!
作者Author: scf 时间: 2016-4-3 20:51
第二个链接说得是英语吗。。。
作者Author: liyuanhe211 时间: 2016-4-3 21:17
哎?一个印度人吧,我贴错链接了?回去看一下
欢迎光临 计算化学公社 (http://bbs.keinsci.com/) |
Powered by Discuz! X3.3 |