机器人与人工智能爱好者论坛

 找回密码
 立即注册
12
返回列表 发新帖
楼主: vr1881
打印 上一主题 下一主题

转个帖子:从法则层面看人工智能

[复制链接]

1

主题

10

帖子

36

积分

注册会员

Rank: 2

积分
36
11#
 楼主| 发表于 2020-7-28 10:35:59 | 只看该作者
八、封闭式环境
        既然人工智能被各种基础法则所制约,这也做不到那也做不到,那是怎么在下围棋的时候战胜各路九段高手的呢?
        这个问题,实际上在计算器上就已经显现出来了,计算器们在算数的时候,无论是加减乘除,还是乘方开方,都算的极快极准,远远超过我们的水平。根本原因是它工作在一个没有新情况的环境下。计算器做算术题的时候,只面对各种预置策略能够覆盖的情况,我们不让它去处理范围以外的情况。
        开放式环境是有可能出现新情况的环境,封闭式环境是不能出现新情况的环境。封闭并不是指某个地方用铁丝网拦起来了,大家进不去,也不是指挂了牌子顾客止步什么的,而是每个进入这个环境的个体都遵守环境中的规则,环境中的个体都不产生新情况,同时环境本身不产生新情况,这样的环境就不会有新情况出现,叫做封闭式环境。
        封闭式环境可以是具体的地方,也可以是抽象领域,可以随时形成,也可以随时消失。我使用计算器的时候,我同计算器之间就构成了一个封闭式环境,我是参与个体,计算器是参与个体,我懂得计算器的规则,计算器自然也懂,我按照计算器的规则来输入各种条件,计算器按照它的内置策略来应对这些条件。在这个过程中,我和计算器都绝对遵守计算器相关的各种规则,我不破坏规则,计算器也不破坏规则,这便是由两个个体组合成的一个封闭式计算环境。
        如果我打算让计算器干点别的,比如说计算器你给我唱个歌,那便是我不遵守规则了,便打破了环境的封闭性,使这个环境变成了一个开放式环境,因为这里有新情况出现了。
        这里说的规则不是法则,法则不是人为定出来的东西,不管我们去不去了解它,它都一直存在,都一直起作用,只要我们遇到某些法则相关的领域,法则就自然发挥作用,不管我们想不想遵守,它都会发挥作用。规则有时候是法则,有时候不是,但一般都是人为定出来的东西。
        对于计算器来说,它要符合加减乘除法则,要符合乘方开方法则,运用这些法则进行计算的时候,结果才可以正确。不过如果我们在制造计算器的时候,让它把5+5算成18,就这么给它定下来,那这就不符合加法法则了,只是我们人为定出来的东西,只算是规则。如果我们就这么给计算器定下来,它就会这么去算,这便是规则,虽然结果不正确,但是它会遵守。
        再比如说,我买了一块电子表,时间不准,现在需要调时间,时间具体怎么调,这个调节方法是有一定的规则的,手表出厂的时候,由厂家设计这些规则,我需要阅读手表说明书,或者通过实验得知。我知道了调节方法后,按照调节方法,才能把时间调准。这些调节方法,就是规则。在我调时间的时候,和手表组成了一个封闭式环境,在环境中,我用了解到的手表规则去和手表互动,手表自然也用这些规则来工作,这里没有法则,只有规则,我们俩都遵守规则,都不破坏这个环境的封闭性,都不产生新情况。这个环境存在时间非常短暂,我调好了时间,就离开这个环境,环境自然就消失了。
        各种棋类都是封闭式环境,不管是军旗也好,跳棋也好,象棋也好,围棋也好,不管有多少个体参与到一个游戏里来,也不管是自然人参与,还是数字思维参与,进入某个棋类环境的个体都会遵守环境中的规则,都不在环境中做规则以外的事,更不在环境中产生新情况,这就形成了封闭式的交互环境。每种棋类都有各自的规则,这些规则都不是法则,都是人为定出来的。
        环境是否是封闭的,跟各种基础法则没有必然的联系,只看环境中是否产生新情况。新情况的来源一般有两种,一种是进入环境的个体产生,另一种是环境本身产生。我们这个世界是开放的,我们自己在不断产生各种新情况,环境也在不断产生各种新情况。进入环境的个体和环境本身都不产生新情况,才叫做封闭式环境。
        封闭环境的特点是有限,由于环境与个体都不会产生新情况,那么在封闭式环境中,
规则的总量就是有限的,不管是人为定出的规则,还是某些法则在环境中起到规则的作用,这些规则的总量都是有限的,最终由这些规则所产生的结果,其总量也就是有限的了,这个总量也许会非常大,但总会有个总量存在。如果是开放式环境,一直有新情况产出,那就不会有个总量,总量会一直增加,那就无限了。
        对于机器来说,只有有限结果的环境是非常理想的工作环境,总结果有限,就可以事先预置应对这些结果的策略,应对能力只跟覆盖范围有关,不需要考虑新情况的出现。
        预置策略的途径上节说过有两种,一是通过逻辑推理获取,一是通过经验获取。谷歌制造的围棋程序,在最开始的时候,用的是第二条路,通过经验获取预置策略。他们把最底层的围棋规则编成思考核心,这样机器就知道了围棋是个什么东西,知道了基础规则,比如每次落一子,黑白交替。核心功能完备后,机器知道游戏规则后,教给它具体策略,策略就是各种棋谱,告诉它怎么使用这些规则,输入的棋谱越多,预置策略越完备,棋力越高。
        后来用的是第二条路,通过逻辑推理获得策略。先也是把底层的围棋规则编成思考核心,在机器知道了围棋的游戏规则后,不教给它具体的策略,而是把两台机器放在一起,让它们对弈。开始的时候,它们棋力很低,是还不能充分应用规则的结果,随着对弈场次增加,不断失败或成功帮助机器积累了经验,这些经验并不是事先预置的,只通过不断应用各种推理策略,用场次积累。下棋场次越多,积累的经验越丰富,或者说积累的应对策略越丰富,策略越丰富的情况下,应对范围越广泛,棋力越高。
        棋力的提高建立在规则不变的情况下,如果围棋规则改变了,那就必须根据新规则重新推理,或者重新预置策略。如果规则一直在变,那就完全没法真正提高了。比如说,机器执黑先行,某人用白子应对,机器再来黑子,某人继续应对,下着下着,这人不高兴了,找个记号笔,把白子涂成黄子,落了个黄子进棋盘,这就是新情况出现了,也带来了规则的改变,就把封闭式环境变成了开放式环境,如果机器必须应对,就要有相应的黄子策略,策略通过推理或者经验取得,推理或者经验基于围棋规则,规则里没有黄子,这就没法下了,就会出现某些奇怪的计算结果。如果不是机器,而是两个人在下棋,某一人出了个黄子,另一人在遇到了这种新情况时,会离开原有围棋规则,重新产生一个新策略来应对这种新情况,比如掀桌子。机器如果想掀桌子,它必须要预置掀桌子策略才行,不能当时产生,因为它们精确思考,不能产生新策略来应对新情况。能够应对的只能是不会产生新情况的,不会有规则变化的封闭式环境。
        棋类游戏大约都是这么个情况,有些棋类游戏规则非常简单,所产生的结果总量也就比较少,甚至不需要用到人工智能这么复杂的程序,只用普通应答程序就足够了。
        但是到了现实世界中,许多地方都是开放的,不管个体进入环境时规则有多简单,如果一直有新情况产生,就需要不断的调整策略覆盖范围,自己调整覆盖范围这种事机器做不到,必须有人工参预,所以机器自己也就无法应对这样的环境。
        有些人把某些画作输入进机器,让它学习,然后可以作画,有些人把某些曲子输入进机器,让它学习作曲,有些人给机器新闻稿,让它们学写新闻,这都是同一类应用,都是让机器在大量数据中,识别出其中的规则,然后应用新素材在这些规则之上模拟出前作,这是只使用预置经验的操作方法。这一类做法的目的并非应用规则,只是为了识别规则,模拟结果,所以无法用逻辑推理途径来应对,白话来说,在不教它们怎么做的情况下它就不会,必须教了之后才能起作用。这个太简单,不说了。
        在我们的世界中,有许多封闭环境,理论上,机器都是能够发挥作用的,但是也有许多假封闭环境,会误导大家。
        比如自古以来就有法律这种东西,法律规定了我们有些事情不能做,各种法律都是规则,用来把某些不好的情况隔离出去,让大家生活在更美好的环境中,但是这种隔离只能起到一定的作用,并非每个进入这个环境的个体,都会像下棋遵守棋盘规则一样的遵纪守法,总会有些人做规则不允许的事,也就会出现各种破坏环境封闭性的结果,所以,虽然有法律法规存在,法规管辖范围内,仍然是开放式环境。
        而且我们这个世界上还不断的会有新技术出现,新技术一旦出现,法律法规是没有那么快跟的上的,比如说,如果人工智能技术发展起来了,人工智能相关的法律在许多国家都会是空白状态。新技术的出现是一种新情况,新情况能够出现在开放式大环境中很正常,法规无法及时应对,必须扩大范围,这个看起来有点像机器的运行模式了,不过法律体系不是机器,我们自然人会很快产生各种相应的新策略,把新情况们都包含到法规里来。
        高速公路也是个假封闭环境,为了安全起见,高速公路都是封闭的,封闭会带来安全和秩序,也有各种交通规则和惩处措施帮助维持整个环境的封闭性,但是由于公路这个东西是我们整个大环境的一部分,大环境是开放的,于是公路上也就会出现各种意外,各种新情况。有时候是外部混乱个体进入,比如有狗跑上高速了,还被吓着了,在那里乱窜;有时候是进入环境的正当个体产生的,比如某车爆胎了,甚至翻车了,或者还有故意的时候,不该变道的时候瞎变,不主动保持车距等;也有高速公路这个环境自己产生的,比如路面塌陷了,出了一个大坑;也有外部环境产生了影响这个环境的,比如下雪了,路面结冰了。
        虽然我们把高速公路封闭起来,并且严加管理,希望它尽可能的封闭,但是这仍然是个开放式环境,尽管它看起来像是封闭的,所以这个环境只能算是个假封闭环境。如果机器进入这么个环境,自然就会遇到各种新情况。
        现在许多人研究人工智能,都把人工智能驾驶汽车作为发展方向,主要是因为许多电影电视里出现过这么一种东西,但是编故事的人并不懂得人工智能,更不懂得人工智能在面对开放式环境的时候会遇到新情况这么一种法则层面的问题,只是想当然的从个人愿望入手去设计故事,所以许多人在打算往人工智能方向发展的时候,首选人工智能驾驶汽车,是被导演编剧们植入了思维定势。
        在研究制造人工智能驾驶汽车的时候,可能会遇到这么一些情况,先搭建好人工智能汽车的硬件部分,再写好底层的识别应对程序,把所有我们能想到的情况都教给汽车,这是预置应对策略的途径。
        把我们的驾车经验,把各种需要遵守的规则,把遇到问题怎么应对,都变成算法,变成程序模块,放进机器内,然后开始实验。在实验室状态下,或者在实验场地内,由于进入这些环境的个体都不会有意无意的制造新情况给汽车,于是汽车很快就可以表现出足够的驾驶能力。
        高高兴兴上路测试的时候,就比较烦恼啦,走着走着就会遇到1情况,这个情况没有预置进汽车,无法应对,也许撞车了,也许莫名其妙停车了,甚至可能稀里哗啦翻车了,遇到问题解决问题,拉回实验室,仔细分析当时的情况,把1情况变成算法模块,置入汽车。
        再次上路,走着走着遇到2情况,也不在应对范围内,再次回厂,教汽车应对2情况。再次上路,又遇到3情况,再次回厂,预置3情况。再上路还有4情况,解决后,再上路还有5情况,还有6情况,7情况,8,9,10,11……
        设计师们,程序员们拼死累活的一直在解决各种情况,预置进越来越多的情况,看起来汽车的能力变的越来越强,但是问题在于,所有的情况都能预置进来吗?汽车上路之后能应付所有的问题吗?很遗憾,是不能的。因为汽车需要应对的是个开放式环境,不论我们预置了多少应对策略进去,哪怕把现今世界所有已经出现过的情况都预置了,开放式环境的本质是不断产生新情况,只要汽车上路,只要路上跑的时间足够长,就会遇到某些新情况,使它无法处理。
        有人可能会说,不对,现在有些自动驾驶汽车已经上路了,跑的挺好的。那只能说明它们目前没有遇到范围外的情况,预置的策略足够应对,但是只要它们在开放式环境中存在,那么迟早是会遇到应对范围外的情况的,这只是个时间的问题。
        我们十分希望有人工智能汽车这种东西,坐上就走了,想想都舒服啊。人工智能汽车的目的大概是两个,第一,缓解驾驶疲劳;第二,应对危险情况。目的一比较简单,它能够正常运行,能把我们从一处载到另一处就可以了,要实现这个目的,只要能正常识别环境中的各种东西,能遵守驾驶规则就可以了,预置策略越多,就越能应对复杂的情况,当然要应对所有情况是做不到的。
        针对目的一,人工智能汽车开发过程中会遇到这样的情况,预置一些策略后,汽车上路,上路遇到新情况,返厂扩大策略范围,再上路再遇到新情况,再返厂再扩大策略范围,由于开放式环境中新情况会不断出现,所以理论上,这个测试通不过和需要不断返厂的过程会一直持续。越是负责任的厂商,越是希望把所有情况都包含进应对范围的厂商,就越无法正式发布正式上路。但是有些厂商不会仔细上路测试,或者认为只包含部分策略就足够了,那就可以先人一步抢占市场,当然这样做,他们的车子也就只能应对比较少的情况,就会比较不可靠一些。
        所以,不负责任的厂商,能应对的情况最少,可以很早发布产品;比较负责任的厂商,能应对的情况较多,只能很晚发布产品;绝对负责任的厂商,希望自家车子能够应对所有情况的,产品永远都无法发布。
        目的二是不可逾越的难关,法则起作用的制约主要都在目的二。机器的运算速度很快,所以理论上,反应会非常快非常灵敏,机器的大局观很强,理论上处理问题比我们要更合理完善,所以表面看起来,人工智能技术应该是能用来处理驾车遇险这种情况的。但遗憾的是,由于目前大家对人工智能还不够了解,都没有将机器运行的本质考虑进去。机器的反应速度比人更快,处理问题更具大局观,是建立在机器已经了解了需要处理的情况的基础上的,在已经学会下围棋,且积累了大量应对策略的基础上,可以下好围棋,可以战胜九段高手们。如果刚刚遇到围棋这种东西呢?甚至围棋玩法都还不明白的情况下呢?有没有可能战胜九段高手们?
        所以到了汽车这,就会遇到这样的问题,人工智能汽车上路开着,现在某种危险的新情况出现了,需要在0.5秒内作出反应。因为是新情况,汽车从来没有遇到过,也无法逻辑推理得出结果,也没有预置的应对策略,那会是个什么结果?老实说,我也不知道是个什么结果。想知道结果的人,可以自己做实验,现在已经有许多自动驾驶汽车上路了不是?他们还不敢说自家车子是人工智能的,以后也许会有人工智能的。做实验的时候,人在车外待着,让车自己开,给它设计些意料之外情理之中的情况,我们是混乱思考个体,能产生各种新情况,产生一些出来给它,让它经历一下。总会有一些情况在汽车策略范围之外,那应该就知道汽车会怎么应对了,实践出真知么。
        在需要应对新情况的时候,推理可知,我们应该比机器能做的更好,尤其是遇到危险的时候。开车遇到了危险,反应需要的是速度,并非精确,应对的时候只需要足够快就可以了。在不需要精确性的时候,在只需要差不多的时候,我们和数字化思维是一样快的,眼睛看到,大脑反应,手脚活动,都是神经信号传递,跟机器的电路工作速度差不多,机器只比我们多了精确性,但比我们少了新策略产出。情况出现了需要应对的时候,就要看机器的策略范围是否覆盖需要应对的情况,如果是旧情况,也许机器能跟我们一样好,或者稍微好些,如果是新情况,当然是我们更胜一筹。
        所以通过机器的运行本质来推测,随着技术不断发展,人工智能汽车可以应对的情况会越来越多,但是由于有新情况这个大魔头存在,遇到大魔头的时候,需要随时产生新策略这个大法宝来降伏它,那还是我们自己驾驶更安全。
回复 支持 反对

使用道具 举报

0

主题

1

帖子

10

积分

注册会员

Rank: 2

积分
10
12#
发表于 2020-7-29 15:41:38 | 只看该作者
学习了,很详细,不错不错,感谢
回复 支持 反对

使用道具 举报

0

主题

2

帖子

12

积分

注册会员

Rank: 2

积分
12
13#
发表于 2020-9-26 08:37:35 | 只看该作者
_(:з」∠)_论点说来说去,大概就是:
机器人受了限制,无法像人一样随意、模糊……
_(:з」∠)_发现了就解决下吧……之后看看
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

QQ|Archiver|手机版|小黑屋|陕ICP备15012670号-1    

GMT+8, 2024-11-25 14:23 , Processed in 0.067126 second(s), 21 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表