欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > DOC文档下载  

    脑是一台数字计算机吗转自译言网.doc

    • 资源ID:5220897       资源大小:74.90KB        全文页数:24页
    • 资源格式: DOC        下载积分:10金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要10金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    脑是一台数字计算机吗转自译言网.doc

    脑是一台数字计算机吗 转自译言网脑是一台数字计算机吗?向美国哲学学会六十四周年太平洋区大会递交的主席致辞1990年5月30日,加利福尼亚州,洛杉矶一、导论,强AI,弱AI与认知主义向美国哲学学会提交主席致辞有许多不同的方式;我所选择的方式是简要地汇报一下我当下所做的工作,也就是目前正在发展当中的工作。我将呈现我对心灵的计算模型的进一步探索。心灵的计算模型的基础想法是,心灵是一个计算系统的程序,而脑则是其硬件。人们经常能够看到的一个口号是"心灵之于脑就好比程序之于硬件让我们通过区分三个问题来开始我们对这一论断的研究:(1)脑是一台数字计算机吗?(2)心灵是一个计算机程序吗?(3)脑的运作能够在一台数字计算机上加以模拟吗?我将探讨1,而不是2或3。我认为2能够果断地加以否定。既然程序是纯粹形式化地或语法性地加以界定的,既然心灵具有固有的心智内容,那么直接就可以得出程序凭自身无法构建心灵。程序的形式化语法凭自身无法保证心智内容的存在。我于十年前在中文屋论证中证明了这一点(Searle,1980)。比如我这样的一台计算机可以运行像理解中文这样的程序的诸步骤,而无需理解一个中文语词。该论证依赖于这样一个简单的逻辑真理,即语法与语义不同,并且对于语义来说也是不充分的。所以对第二个问题的回答很明显是"不"。在我看来,对3的回答至少根据一个自然的解释来说,很明显是"是"。也就是说,就自然解释来说,该问题意指:是否存在这样一些对脑的描述,以至于基于那一描述你可以对脑的运作进行计算模拟?但是既然根据丘奇论题,任何可以给出足够精确的特征描述的事物作为一系列步骤都能够在一台数字计算机上加以模拟,那么平凡地来说该问题具有一个肯定性的回答。脑的运作可以在一台数字计算机上加以模拟,在同样的意义上,气象系统、纽约股市行为或者拉丁美洲航班模式也可以。因而我们的问题并不是"心灵是一个程序吗?"对那一问题的回答是"不"。该问题也不是"脑可以被模拟吗?"对那一问题的回答是"是"。问题是"脑是一台数字计算机吗?"对于此次探讨来说,我将那一问题等同于"脑的过程是计算性的吗?"人们或许会认为如果问题2得到了否定的回答,那么此问题就会变得不大有意思。也就是说人们或许会假设除非心灵是一个程序,否则脑是否是一台计算机这一问题就并没有什么意思。但情况并非如此。甚至对于那些同意程序凭自身并不构成心智现象的人来说,仍然存在一个重要的问题:假设对于心灵来说不只是数字计算机的语法运作,情况也可能会是下面这样的,即心智状态至少是计算状态,而心智过程乃是在这些心智状态的形式化结构上运作的计算过程。事实上在我看来这是相当大一部分人所采取的姿态。我并没有说这一观点是完全清楚的,但其想法乃是像这样的:在某些描述层次上,脑的过程乃是语法性的;存在所谓的"脑袋里的句子"。这些无需是英语或中文句子,但或许采用的是"思维语言"(Fodor,1975)。就像任何句子一样,现在它们具有一个语法结构以及一个语义或意义,并且语法问题可以与语义问题分离开来。语义问题是:脑袋里的这些句子如何获得其意义?但那一问题可以独立于下述问题来被探讨,即:在处理这些句子方面脑是如何工作的?对后一个问题的一个典型回答是:就像一台数字计算机执行计算操作那样,脑基于脑袋里的句子的语法结构来工作。为了保持术语的整齐,我把认为拥有一个心灵所需要的就是拥有一个程序这一观点称为强AI,把脑的过程(以及心智过程)能够以计算的方式加以模拟这一观点称为弱AI,把脑是一台数字计算机这一观点称为认知主义。这一报告是关于认知主义的,我最好在一开始说一下激励这一观点的东西。如果你读一下关于脑的书籍(比如Shepherd,1983,或者Kufer与Nicholls,1976),你就会获得一幅关于脑中发生的事情的特定图像。如果你接着转向关于计算的书籍(比如Boolos与Jeffrey,1989),你就会获得一幅关于计算理论的逻辑结构的图像。然后如果你转向关于认知科学的书籍(比如Pylyshyn,1985),它们会告诉你说关于脑的书籍所描述的与关于可计算性的书籍所描述的其实是一样的。从哲学上来说,我认为这一观点的味道有问题,至少在开始探讨时我要遵循我自己的嗅觉。o=""span=""二、最初的故事我想这样来开始探讨,即尽可能有力地陈述为何认知主义从直觉上来看很吸引人。在图灵的经典论文(1950)背后有一个关于人类智能与计算之关系的故事,我认为这是认知主义观点的基础。我将称其为最初的故事:我们从数理逻辑中的两个成果开始,也就是丘奇-图灵论题(有时被成为丘奇论题)和图灵法则。对我们来说,丘奇-图灵论题认为对于任何算法来说,都存在可以执行那一算法的图灵机。图灵法则认为存在一台可以模拟任何图灵机的通用图灵机。现在如果我们把这二者放到一起,那么我就有了这样一个结果,即通用图灵机可以执行任何算法。=""span=""但是现在是什么使得这一成果如此令人振奋?让一整代人工智能领域的工作人员兴奋不已的乃是下述思想:假设脑是一台通用图灵机。好吧,假设脑是一台通用图灵机有什么好的理由吗?让我们继续那个最初的故事。很明显至少有一些人类的心智能力是算法性的。举个例子,我可以通过检查一个解决长除法问题的算法的诸步骤,来有意识地做长除法。此外,一台通用图灵机在算法上可以做任何一个人类可以作的事情,这是丘奇-图灵论题与图灵法则的一个推论。比如我可以执行与我用来在一台数字计算机上做长除法的算法相同的算法。就此情况而言,就像图灵所描述的那样(1950),我这台人类计算机与机械计算机都执行相同的算法;我是有意识地这么做的,而机械计算机则是非意识地这么做的。现在,假设或许还有很多也是计算性的心智过程非意识地发生于我的脑中,这看起来非常合理。如果确实如此,我们就可以通过在一台数字计算机上模拟这些过程来弄明白脑是如何工作的。就好像我们获得了做长除法这一过程的计算机模拟,我们也可以获得理解语言、视觉知觉、分类等过程的计算机模拟。=""span="""但是语义又如何呢?毕竟程序纯粹是语法性的。"在此,另外一系列的逻辑-数学成果在最初的故事中发挥了作用。证明论(proof theory)的发展表明,在某些知名的限度内,命题间的语义关系可以完全由表达那些命题的句子之间的语法关系反映出来。现在假设脑袋里的心智内容在脑袋里被语法性地表达了出来,那么所有我们为了说明心智过程而需要的,就是脑袋里的语法要素间的计算过程。如果我们正确地理解证明论,语义自己就会照顾好它自己;计算机所做的就是:它们执行证明论。=""span=""因而我们有了一个被明确界定的研究方案。我们试着通过下述方法来发现应用于脑中的程序,即为计算机编程,使其执行相同的程序。反过来我们通过让机械计算机匹配人类计算机的表现(也就是通过图灵测试),从而让心理学家寻找下述观点的证据,即内在过程在两类计算机中乃是一样的。在接下来的内容中,我希望读者将这一最初的故事牢记心中-特别要注意图灵在下述两者间的对比,一方面是人类计算机对程序的有意识的执行,另一方面是脑或者机械计算机对程序的非意识的执行;此外还要注意下述想法,即我们或许只是发现在自然中运行的程序,我们输入我们的机械计算机中的正是同样的程序。如果有人看一下支持认知主义的书籍和论文,他会发现某些相同的假设,这些假设虽未明言,但却十分普遍。第一,人们常常假设对于脑是一台数字计算机这一观点来说,唯一的替代选择是某些形式的二元论。其想法是认为除非你相信不朽的笛卡尔式的灵魂的存在,否则你就必须相信脑是一台计算机。事实上看起来通常的假设是,脑是否是一个决定了我们的心智状态的物理结构这一问题和脑是否是一台数字计算机这一问题乃是相同的。从修辞学上来说,该想法乃是胁迫读者认为除非他接受脑是某些种类的计算机这一想法,否则他就是忠实于某些怪异的反科学观点。近来这一领域稍微开放了一点,允许下述可能性,即脑或许不是一个老式的冯·诺依曼式数字计算机,而毋宁是一种更为高端的并行处理计算设备。否认脑是计算性的依旧要冒失去科学共同体中的成员资格的风险。第二,还有一个假设是,脑的过程是否是计算性的这一问题不过是个平常的经验性问题。它可以通过事实研究来解决,就好像心脏是否是一个泵或者绿叶是否进行光合作用被作为一个事实问题来加以解决那样。既然我们正在谈论硬科学事实,那么就并不存在逻辑分析或者概念分析的空间。实际上我认为许多在这一领域中工作的人将会对下面这一点表示怀疑,即本文的标题提出了一个合适的哲学问题。比起"位于神经肌肉接头的神经递质真的是乙酰胆碱吗?"这一问题来,"脑真的是一台数字计算机吗?"这一问题并不更加是一个哲学问题。甚至那些并不同情认知主义的人,比如彭罗斯和德雷福斯,看起来也把这当做是一个简单的事实问题。他们看起来并不担心他们所怀疑的究竟是哪类论断。但我却对这一问题感到困惑:关于脑的何种事实可以构成它是一台计算机?第三,这些著作的另一个文本特征乃是仓促,有时甚至是粗心大意,正是伴随着这些特征,基本难题被掩盖了起来。所探讨的脑的解剖学和心理学特征究竟是什么?究竟什么是一台数字计算机?关于这两个问题的回答如何衔接?这些书籍和论文的通常程序是稍稍评论一下0和1,给出丘奇-图灵论题的通俗概括,然后继续去做更加振奋人心的事情,比如计算机的成就和不足。在阅读这些著作时令我惊讶的是,我发现看起来存在奇特的哲学裂缝。一方面,从图灵法则到丘奇论题,再到递归函数理论,我们有一系列优雅的数学成果。另一方面,我们有一系列每天使用的、令人印象深刻的电子设备。既然我们有如此先进的数学和如此好的电子学,因而我们假设以某种方式来说,有人必定已经做了衔接数学与电子学的基础哲学工作。但据我所知情况并非如此。相反,我们正处于一个奇特的境遇当中:究竟什么是一台数字计算机?究竟什么是一个符号?究竟什么是一个计算过程?两个系统究竟是基于何种物理条件来执行相同的程序的?对这些绝对基本的问题来说,从业人员间很少有理论上的一致。o=""span=""三、计算的定义既然对于基本问题并没有普遍的一致,所以我相信最好是回到根源,回到由艾伦·图灵给出的原初定义。根据图灵,一台图灵机可以执行某些基本的操作:它可以在其纸带上将一个0改写为一个1,它可以在其纸带上将一个1改写为一个0,它可以将纸带向左移动一格,或者它可以将纸带向右移动一格。它由一个指示程序所控制,每一个指示说明了一个条件以及当该条件被满足时所执行的一个行动。那就是计算的标准定义,但从字面上来看,它至少有一点误导人。如果你打开你的家用计算机,你几乎不可能找到任何0与1,甚或是一条纸带。但对定义来说这并不是问题。要弄明白一个物体是否真的是一台数字计算机,我们并不真的要寻找0和1等;相反,我们只需要寻找可以看作是0和1,或者当做是0和1,或者可以用作是0和1来起作用的东西。此外,让问题更加令人困惑的是,结果表明这一机器可以用任何东西来制造。就像约翰逊-莱尔德说的那样,"它可以像老式机械计算器那样用齿轮和杠杆来制造;它可以用一个水在其中流动的液压系统来制造;它可以用蚀刻在一片硅片上的晶体管来制造,电流在此晶体管中流动。它甚至可以由脑来执行。这些机器中的每一个都用一个不同的媒介来表征二进制符号-齿轮的位置、水的存在或缺失、电压水平以及也许是神经脉冲"(Johnson Laird,1988:39)。绝大多数就这一话题有所著述的人都得出了相似的评论。比如奈德·布洛克(1990)证明了在1和0分别被指派给4伏电压等级和7伏电压等级时我们如何能够具有电子门。所以我们或许会认为我们应当去寻找电压等级。但布洛克告诉我们,1只是"按照约定"被指派给了一个特定的电压等级。他进一步告诉我们说我们完全不需要使用电,我们能够使用由猫、老鼠和奶酪组成的精密系统,以下述方式来制造我们的门,即猫将拉动皮带推开一扇门,而我们则可以将此视为是一个0或1,当他这么说时情况就更加令人困惑了。就像布洛克急于坚持的那样,关键在于"硬件实现与计算实现并不相关。这些门以不同的方式工作,但它们以计算的方式来说乃是等价的"(p.260)。同样,派利夏恩说一个计算序列可以通过"一组被训练地像一台图灵机那样来啄食的鸽子"来实现(Pylyshyn,1985:57)。但现在如果我们试着严肃对待脑是一台数字计算机这一想法,那么我们就会获得下述令人不快的结果,即我们可以用几乎任何东西来制造一个做脑所做的事情的系统。根据这一观点,从计算上来说,你可以用猫、老鼠和奶酪或者杠杆或者水管或者鸽子或者任何事物来制造一个像你的脑和我的脑那样运作的"脑",只要这两个系统在布洛克的意义上乃是"以计算的方式来说是等价的"。你只需要多得可怕的猫,或者鸽子,或者水管,或者任何什么东西。认知主义的支持者洋洋得意地报告了这一成果。但我认为他们应当为此感到担忧,我将试着证明这只是诸多问题的冰山一角。o=""span=""四、第一个困难:语法并不是物理所固有的为何计算主义(computationalism)的辩护者并不对多重可实现性的含义感到担忧?答案是他们认为相同的功能允许多重实现这一点对于功能的说明来说乃是很典型的。在这一方面,计算机就好像是汽化器和自动调温器一样。就好像汽化器可以用黄铜或者钢铁来制造一样,计算机可以用范围并不明确的硬件材料来制造。但是有一点不同:汽化器和自动调温器的类别是根据特定物理效果之产生来界定的。那就是为什么比如没有人说你可以用鸽子来制造汽化器。但计算机的类别是根据0和1的指派在语法上加以界定的。多重可实现性并不是相同的物理效果可以由不同的物理实体来实现这一事实的推论,而是相关性质纯粹是语法性的这一事实的推论。物理其实并不相关,只要它允许指派0和1,允许它们之间的状态转换。但这可能有两个灾难性的推论:(1)意味着多重可实现性的同一原则看起来也意味着普遍可实现性。如果计算是根据语法的指派来界定的,那么每样东西都将是一台数字计算机,因为无论什么物体都可以是语法性的。你可以根据0和1来描述任何东西。(2)更糟糕的是,语法并不是物理所固有的。对语法性质的归属总是相对于一个行为能动者或观察者的,正是他们将特定的物理现象当做是语法性的。现在,究竟为什么这些推论会是灾难性的?好吧,我们想知道脑是如何工作的,尤其它是如何产生心智现象的。说脑是一台数字计算机,在此意义上胃、肝脏、心脏、太阳系和堪萨斯州都是数字计算机,这并没有回答那个问题。我们所拥有的模型是,我们或许会发现关于脑之运作的一些事实,它们表明脑是一台计算机。我们想要知道是否存在这样一些意义,在这些意义上脑本质上是数字计算机,就好像绿叶在本质上执行光合作用或者心脏在本质上泵血。这并不关乎我们任意地或"按照约定"将"泵"这个词指派给心脏或者将"光合作用"这个词指派给叶子。这是个事实。我们所询问的是"以那种方式来说,是否存在一个使脑成为数字计算机的事实?"说是的,脑是数字计算机,因为每样东西都是一台数字计算机,这并没有回答那个问题。根据标准教科书对计算的定义,(1)对于任何事物来说,都有对那个事物的某个归属,以至于基于那一归属,该物体乃是一台数字计算机。(2)对于任何程序来说,都有某个充分复杂的事物,以至于存在对那个物体的某个归属,基于此归属它执行该程序。因而比如我背后的墙目前正在执行Wordstar程序,因为存在某些分子运动模式,它们与Wordstar的形式化结构是同构的。但如果这堵墙正在执行Wordstar,那么如果它是一堵足够大的墙,它就是在执行任何程序,包括任何在脑当中执行的程序。我认为那些支持者未能看到多重或普遍可实现性是个问题的原因乃是在于他们并不把它看作是一个更加深刻的观点的一个推论,也就是"语法"并不像质量或地心引力那样是一个物理特征的名称。相反,他们谈论"语法引擎"甚至"语义引擎",就好像是在谈论汽油引擎或柴油引擎一样,就好像脑或者任何别的东西是一个语法引擎是一个简单的事实一样。我认为通过固定我们的计算定义,大概能够阻止多重可实现性这一结果。当然我们需要尊重下述事实,即程序员和工程师将此视为图灵的原初定义的一个巧合,而不是计算的真实的特征。布莱恩·史密斯、维诺德·戈埃尔与约翰·巴塔利的未发表的著作都主张,一个更加现实的计算定义将强调像下面这样的特征,即程序状态间的因果关系、结构的可编程性和可控性,以及实在世界中的境遇。但对计算定义的这些进一步的限制对于当前的探讨来说并没有帮助,因为真正深刻的问题是语法在本质上乃是一个相对于观察者的概念。以计算的方式来说是等价的过程在不同物理媒介中的多重可实现性不只是标志着这些过程是抽象的,而是标志着它们完全不是系统所固有的。它们依赖于来自外界的解释。我们寻找的是使脑的过程是计算性的事实;但给定我们界定计算的方式,绝不可能有任何此类事实。我们不能一方面说对于任何事物而言,如果我们可以将语法指派给它的话,它就是一台数字计算机,然后又假设存在一个其物理运作所固有的事实问题,即比如脑这样的一个自然系统是否是一台数字计算机。如果"语法"这个词看起来令人困惑,那么相同的观点可以不用它而被陈述出来。就是说,某人可能声称"语法"和"符号"概念只是一个说话方式,而我们真正感兴趣的乃是伴随有离散物理现象的系统之存在,以及它们之间的状态转换。根据这一观点,我们并不真的需要0和1;它们只是一个方便的缩写。但我相信这一变动毫无帮助。一个系统的一个物理状态只是相对于指派给那个状态以某个计算角色、功能或解释而言才是一个计算状态。没有0和1,同样的问题也会出现,因为像计算、算法和程序这样的概念并不命名系统的固有物理特征。计算状态并不是在物理中被发现的,它们是被指派给物理的。这是一个与中文屋论证并不相同的论证,我在十年前就该看到它,可是却没有看到。中文屋论证表明语义并不是语法所固有的。现在我提出了独立的、不同的观点,即语法并不是物理所固有的。对于最初的论证来说,我只是假设计算机的语法特征是不成问题的。但那是一个错误。你决不能发现某物在本质上是一台数字计算机,因为它作为一台数字计算机的特征总是相对于一个观察者的,正是这个观察者将一个语法解释指派给了该系统的纯粹物理特征。当应用于思维语言假设时,这个论证就有了一个推论,即该论题是不连贯的。你绝对无法发现在你的脑袋里存在固有的、未知的句子,因为某物只是相对于某个行为能动者或者将其用作是一个句子的使用者而言才是一个句子。当普遍地应用于计算模型时,一个过程的计算性特征乃是一个物理系统的来自于外界的特征;将该过程确认为计算性的并不是在确认该物理系统所固有的特征,本质上它乃是一个相对于观察者的特征。这一观点必须要精确地加以理解。我并不是说对于我们在自然中可以发现的模式有先验的限制。我们无疑能在我的脑中发现一个事件模式,它和在计算机上执行vi程序是同构的。但说某事物乃是作为一个计算过程来起作用的,就是说出现了不只是一个物理事件模式的某事物。需要有某个行为能动者对计算解释加以指派。同样,我们或许会在自然中发现这样的物体,它们有着与椅子同样的形状,因而能够被当做椅子来使用;但我们无法在自然中发现像椅子那样起作用的物体,除非相对于某些将它们当做是或用作是椅子的行为能动者。o=""span=""五、第二个困难:小人谬误(homunculus fallacy)乃是认知主义所特有的到目前为止,我们看起来达致了一个问题。语法并非是物理的一部分。这有着下述推论,即如果计算是根据语法来界定的,那么没有什么东西仅凭借其物理性质而在本质上是一台数字计算机。是否有摆脱这个问题的方法?是的,有,并且这是在认知科学中被典型地加以采用的方法,但这不过是跳出油锅跳进火里罢了。我看到过的绝大多数关于心灵的计算理论的著作都犯了某种小人谬误。其方法总是这样来对待脑,即好像在它里面有某个用它来计算的行为能动者。一个典型的例子是大卫·马尔(1982),他把视觉的任务描述为经由视网膜上的二维视觉阵列到作为视觉系统之产物的对外在世界的三维描述。困难是:谁在阅读这一描述?实际上由马尔的整本书和关于这一主题的其他标准著作来看,似乎我们必须乞灵于在这个系统中的一个小人,以便于将该系统的运作视为真正是计算性的。许多作者感到小人谬误并非真的是个问题,因为用丹尼特的话来说(1978),他们感到小人可以被"排除掉"。其想法是:既然计算机的计算操作可以被渐进地分析为更简单的单位,直到最终我们达致简单的触发器、"是-不是"、"1-0"模式,看起来高层次的小人可以被渐进地换做更加愚笨的小人,直到最终我们达致一个完全不包含任何实在小人的触发器的底层。简单来说,该想法是递归分解将去除小人。我花了很长时间去弄清楚这些人所驾驭的是什么,所以万一有谁也同样感到困惑,我将用一个例子来详细解释一下:假设我们有一台计算机将六乘了八次得到四十八。现在我们问:"它是如何做到这一点的?"好吧,答案或许是它将六自加了七次但如果你问:"它是如何将六自加七次的?"回答或许是,第一,它将所有数字都转变为二进制符号,第二,它应用了一个基于二进制符号操作的算法,直到最后我们达致了底层,在此唯一的指示乃是"打印一个零,抹去一个一"。所以比如在高层次我们的智能小人说:"我知道如何将六乘八次来得到四十八。"但在下一个较低层次他被一个稍微愚笨一点的小人所替代了,后者说:"我不知道如何做乘法,但我知道做加法。"在他下面是一些更愚笨的小人,他们说:"我们并不知道如何做加法或乘法,但我们知道如何将十进制数转换为二进制数。"在这些下面则是更加愚笨的小人,他们说:"我们对这一题材一无所知,但我们知道如何操作二进制符号。"在底层是一大堆小人,他们只是说:"零一,零一。"所有的高层次都被还原为这一底层。只有底层才真实存在,高层次都不过是好像而已。当各个作家(比如Haugeland,1981,Block,1990)说系统是一台驱动语义引擎的语法引擎时,他们都对这一特征有所描述。但我们依旧必须面对之前我们所具有的问题:系统所固有的什么事实使其是语法性的?关于底层或任何其他层次的什么事实使这些操作转变为零和一?去除了位于递归分解外部的小人,我们甚至没有了加以操作的语法。通过递归分解来去除小人谬误的企图失败了,因为获得物理所固有的语法的唯一方法是在物理中放入小人。对这一切来说有一个迷人的特征。认知主义者乐于承认计算的高层次(比如6乘8次)是相对于观察者的;并没有真的直接与乘法相应的东西;一切只存在于小人/旁观者的眼中。但他们想要在低层次上停止让步。他们承认电子电路自身并不将6乘8次,但它确实操作0和1,而这些操作可以说加起来就是乘法。但承认计算的高层次并非是物理所固有的,就已经承认了低层次也不是固有的。所以小人谬误依旧伴随着我们。对于你在商店里买的那类真的计算机来说,并没有小人问题;每个使用者就是所探讨的小人。但如果我们假设脑是一台数字计算机,我们就依然会面对"谁是使用者?"这一问题。认知科学中的典型的小人问题就像下面这样:"视觉系统如何从阴影计算出形状;它如何由视网膜图像的大小计算出物体距离?"一个相似的问题是:"钉子如何由锤子的锤击和木头的密度计算出它们进入木板的距离?"就两种情况而言回答是一样的:如果我们在谈论系统是如何工作的,那么本质上钉子和视觉系统都不计算任何东西。我们作为外部的小人或许会将它们描述为计算性的,并且这么做总是有所助益。但你并不通过假设钉子以某种方式在本质上执行捶打算法来理解捶打,你也不通过假设系统执行像由阴影算出形状这样的算法来理解视觉。o=""span=""六、第三个困难:语法并不具有因果力量自然科学中的特定解释说明了在需要加以解释的现象之产生中因果地起作用的结构。这在生物科学中尤其普遍。想一下疾病的微生物理论,对光合作用的说明,遗传性状的DNA理论,甚至还有自然选择的达尔文理论。在每一个情况中因果结构都得到了说明,并且在每个情况中,其说明都给出了对结构之输出的解释。现在,如果你回过头去看一下最初的故事,看起很明显这是由认知主义所允诺的那类解释。脑的过程产生出意识所依靠的结构被认为是计算性的,通过说明这些程序,我们将说明认知的原因。这一研究方案的一个时常被评论的绝妙之处在于为了解释认知,我们不需要知道脑之运作的细节。脑的过程只提供了认知程序的硬件实现,而真实的认知解释是在软件层次给出的。根据标准说明,比如就像纽厄尔说的那样,一共有三个解释层次,即硬件、软件和意向性(纽厄尔称这最后一个层次为知识层次),而认知科学的特殊贡献是在软件层次做出的。但如果至此我所说的是正确的,那么对于这整个课题来说有些东西就与期望有所出入。我曾经相信,认知主义者的理论作为一个因果说明至少是错误的;但现在就其作为一个经验性论题而言,我也很难明确表述它的一个连贯版本。该论题是,存在大量在脑中被操作的符号,0和1以闪电般的速度在脑中闪过,这不仅对于裸眼来说是无法看到的,连最强大的电子显微镜也看不到,正是这引起了认知。但困难在于0和1本身完全没有因果力量,因为它们只存在于旁观者的眼睛中。除了应用媒介的因果力量外,应用性程序并不具有因果力量,因为程序并不具有超越应用媒介的实在存在,即存在论。从物理上来说,并没有作为一个独立的"程序层次"的事物。如果你回到最初的故事,提醒你自己机械计算机和图灵的人类计算机之间的差别,那么你就会看到这一点。在图灵的人类计算机中,确实有一个系统所固有的程序层次,并且它是在那一层次上因果地起作用,从而将输入转变为输出的。这是由于人类是有意识地遵循做一个特定计算的规则的,这因果地解释了他的表现。但当我们为机械计算机编程,让其执行同样的计算时,一个计算解释的指派现在是相对于我们的,也就是相对于外在的小人的。并没有一个为系统所固有的意向因果关系层次。人类计算机是有意识地遵循规则的,这一事实解释了他的表现,但机械计算机在字面上完全不遵循任何规则。它被设计来精确地采取行动,就好像它是在遵循规则,因而是出于实践目的还是商业目的都没有关系。现在认知主义告诉我们说脑像商用计算机那样运作,而这导致了认知。但缺少了一个小人,商用计算机和脑就都只有模式而已,但除了应用媒介的因果力量外,模式并不具有因果力量。所以看起来认知主义没有办法可以给出认知的因果说明。然而就我的观点来说存在一个难题。任何用计算机来工作的人在因果上都知道,事实上我们常常给出诉诸于程序的因果解释。比如我们可以说当我敲击这个按键时我得到了如此这般的结果,因为这台机器正在执行vi程序而不是Emacs程序;这看起来给出了一个一般性的因果解释。所以难题是我们如何调和语法本身并不具有因果力量这个事实和我们确实给出了诉诸于程序的因果解释这一事实?而更为紧迫的是,此类解释会给认知主义提供一个合适的模型,从而拯救认知主义吗?比如我们是否可以通过指出就像"自动调温器"概念出现于因果解释中而并不涉及其实现之物理一样,"程序"概念或许也可以同样独立于其物理而得到解释,从而拯救与自动调温器的类比呢?为了考察这个难题,让我们试着通过拓展最初的故事,从而表明在实际的研究实践中认知主义研究程序是如何工作的,以此来为认知主义辩护。典型地来说,其想法是为一台商用计算机编程,从而使它可以模拟某些认知能力,比如视觉或语言。然后,如果我们获得了良好的模拟,也就是至少给了我们以图灵等价的模拟,我们就假设脑计算机正在运行与商用计算机相同的程序,而为了测试该假设,我们寻找间接的心理学证据,比如反应时间。所以看起来我们可以通过引证该程序来因果地解释脑计算机的行为,在相同的意义上我们可以解释商用计算机的行为。现在,那有什么错的呢?难道这听起来不像是一个完全合法的科学研究方案吗?我们知道商用计算机是通过一个程序来解释由输入到输出的转换的,而在脑中我们发现了相同的程序,因而我们有了一个因果解释。对于这一课题我们有两件事立刻就需要加以担忧。第一,我们绝不会接受这一对脑的任何功能的解释模型,实际上我们理解脑是如在在神经生物学层次上工作的。第二,对于我们能够以计算的方法加以模拟的其他种类系统来说,我们将不会接受这一解释。为了证明第一点,请考虑一下比如蛙眼告诉了蛙脑什么所给出的著名说明(Lettvin et al.,1959 inMcCulloch,1965)。该说明完全是根据青蛙的神经系统的解剖学与心理学而给出的。下面是其中任选的一个典型章节:1、持续的对比检测=""span=""当一般性照明被打开或关闭时,这一组的一个无髓鞘轴突并没有做出反应。如果一个物体的比背景更加明亮或更加暗淡的清晰边缘进入其领域并停下来,它就会迅速且持续地放电,边缘的形状是什么,这个物体是比接受域更小还是更大,这些都没有关系。(p.239)=""span=""我从未听到任何人说过所有这一切只是硬件实现,以及它们应当已经说明了青蛙所执行的是哪个程序。我并不怀疑你可以对青蛙的"错误检测"进行计算机模拟。或许已经有人这么做了。但我们都知道一旦你理解了青蛙的视觉系统实际上是如何工作的,那么"计算层次"就是不相关的。要证明第二点,请考虑一下其他种类系统的模拟。比如我正在一台模拟老式机械打字机之行为的机器上键入这些词随着模拟的进行,就模拟一台打字机来说,文字处理程序比我所知的任何对脑进行模拟的AI程序都要做得更好。但没有神志清醒的人会认为:"终于我们理解了打字机是如何工作的,它们是文字处理程序之实现。"简单地来说,情况并不是计算模拟提供了对被模拟现象的因果说明。所以,这是怎么一回事?一般来说我们并不假设就脑实际是如何工作的而言,对脑的过程的计算模拟给了我们任何代替神经生物学说明的解释或者除了神经生物学说明外的别的什么解释。并且一般来说我们也并不用"X是对Y的一个计算模拟"来命名一个对称关系。也就是说,我们并不假设因为计算机模拟了一台打字机,因而该打字机模拟了一台计算机。我们并不假设因为一个气象程序模拟了一场飓风,因而该程序也就提供了该飓风之行为的因果解释。所以为什么涉及到未知的脑的过程时,我们就要为这些原则破例呢?有什么好的理由来破例吗?何种因果解释才是一个引证了一个形式化程序的解释呢?我相信解决我们的这个难题的方法如下。一旦你从系统中去除了小人,你就只剩下了一个事件模式,外部的某个人能够将一个计算性解释附加在该事件模式上面。现在,如果你知道一个特定的模式存在于一个系统中,你就知道某个或者其他的一些原因要对该模式负责,在此意义上,对该模式的说明凭自身提供了一个因果解释。所以你可以从早期阶段预言后期阶段。此外,如果你已经知道一个外部小人为该系统编制了程序,那么你就可以给出对小人的意向性有所指称的解释。比如你可以说这台机器之所以按其采取行动的方式来采取行动,乃是因为它在运行vi。那就好像是解释说这本书以幸福的家庭为开端,而不包含任何关于很多兄弟的章节,因为它是托尔斯泰的安娜·卡列尼娜,而不是陀思妥耶夫斯基的卡拉马佐夫兄弟。但对于像一台打字机或一个脑那样的物理系统来说,你不可能通过确认该系统与其计算模拟共享的一个模式来对其加以解释,因为此模式的存在并不解释该系统作为一个物理系统实际上是如何工作的。就认知而言,对于解释像视觉知觉之出现或理解一个句子这样的具体心智(因而也就是物理)现象来说,该模式太过于抽象了。现在,我认为很明显的是,对于打字机和飓风是如何工作的而言,我们不可能通过指向它们与其计算模拟共享的形式化模式来对其加以解释。为何对于脑来说这就不是明显的呢?在此我们来到了该难题的解决办法的第二部分。在为认知主义辩护时我们默认脑或许是在执行认知算法,在同样的意义上图灵的人类计算机和他的机械计算机也在执行算法。但很明确的是我们所看到的假设是错误的。要看到这一点,请问一下你自己,当一个系统执行一个算法时都发生了些什么。在人类计算机中,系统有意识地经历了算法的诸阶段,因而其过程既是因果性的也是逻辑性的;之所以是逻辑性的,是因为算法提供了一系列由输入符号得出输出符号的规则;之所以是因果性的,是因为行为能动者是在做出有意识的努力来经历诸阶段。同样就机械计算机而言,整个系统包括了一个外部的小人,而系统和小人一起既是因果性的也是逻辑性的;之所以是逻辑性的,是因为小人对机器的过程提供了一个解释;之所以是因果性的,是因为该机器的硬件导致其经历了诸过程。但这些条件不可能由脑的无情的、盲目的、非意识的神经生物学运作来满足。在脑计算机中,并没有对算法的有意识的意向执行,在机械计算机中也没有,因为那要求有一个外部的小人依附于一台人类计算机,但也不可能像在对物理事件的计算解释中那样,有任何非意识的执行。我们在脑中最有可能发现的是一个事件模式,它在形式上类似于机械计算机中的应用性程序,但那个模式自身并没有独立的因果力量,因而不能解释任何东西。总而言之,对于程序提供了认知的因果解释这一论断来说,语法属性并不识别任何进一步的因果力量这一事实乃是致命的。为了探索这一点的推论,让我们提醒我们自己认知主义解释看起来究竟像是什么。像乔姆斯基的自然语言语法的说明或者马尔的视觉说明这样的解释,是通过陈述一个符号输入转换成一个符号输出所遵循的一系列规则来展开的。比如就乔姆斯基而言,通过一系列语法规则的重复应用,一个单个的输入符号S被转换为潜在地无限多的句子中的任何一个。就马尔来说,依照某些算法,对一个二维视觉阵列的表征被转换为对世界的三维"描述"。马尔在计算任务、该任务的算法方案和该算法的硬件实现这三者间做出的区分(就像纽厄尔的区分那样)作为一个关于一般解释模式的陈述而变得十分有名。如果你像我一样朴素地对待这些解释,那么最好是认为它们是在说,这就好像一个独自在一间屋子里的人正经历着一系列遵循规则的步骤,从而产生出英语句子或者三维描述,这要看情况而定。但现在,让我们问一下,实在世界中的什么事实被认为是与这些被应用于脑的解释相一致的。比如就乔姆斯基而言,我们不应该认为行为能动者有意识地经历了一系列重复的规则应用;我们也不应该认为他是无意识地思考着他经历这一系列规则的方式。毋宁说这些规则是"计算性的",并且脑是在执行计算。但那是什么意思呢?好吧,我们应该认为它就好像是一台商用计算机。将同一系列规则归属给一台商用计算机被认为就相应于将那些规则归属给脑。但我们已经看到,在商用计算机中,归属总是相对于观察者的,也就是说归属总是相对于一个小人的,他将计算解释指派给了硬件状态。除去小人就没有计算,有的只是电子电路。所以我们如何在缺少一个小人的情况下使计算进入到脑中?据我所知,乔姆斯基和马尔都没有解决这个问题,甚至都不曾想到有这样的一个问题。但是去除了小人,对于程序状态的假设就没有解释力量。有的只是一个伴随着其各种实在的物理、心理/心智因果描述层次的物理机械,也就是脑。o=""span=""七、第四个困难:脑并不做信息处理在这一部分我将最后转向所有这一切中的核心问题,即信息处理问题。"认知科学"这一科学范式中的许多人将会觉得我的许多探讨是不相关的,他们将像下面这样来加以反驳:在脑和所有其他你所描述的系统间存在区别,这一区别解释了为何就其他系统而言一个计算模拟只是一个模拟,而就脑来说,一个计算模拟真实地复制了脑的功能性质,而不只是模仿之。其原因是与其他系统不同,脑乃是一个信息处理系统。用你的话来说,关于脑的这一事实乃是"固有的"。这只是一个生物学事实,即脑处理信息,既然我们也能够以计算的方式处理相同的信息,那么脑的过程的计算模型就具有一个与比如气象的计算模型完全不同的角色。所以存在一个明确界定的研究问题:"脑处理信息的计算程序与计算机处理相同信息的程序是一样的吗?"=""span=""刚刚我所想象的一个反对者说的东西代表了认知科学的许多最糟糕的错误中的一个。这个错误就是假设在计算机是被用来处理信息的这一意义上,脑也处理信息。要看到那是一个错误,请对比一下在计算机中发生的事情和在脑中发生的事情。就计算机而言,一个外部的行为能动者以能够被计算机电路处理的方式对一些信息进行编码。也就是说,他或她为计算机可以在不同电压等级上加以执行的信息提供了语法性实现。然后计算机经历了一系列的电子阶

    注意事项

    本文(脑是一台数字计算机吗转自译言网.doc)为本站会员(sccc)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-2

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开