查看人工意识的源代码
←
人工意识
跳转至:
导航
、
搜索
因为以下原因,你没有权限编辑本页:
你刚才请求的操作只对属于该用户组的用户开放:
用户
您可以查看并复制此页面的源代码:
'''人工意识'''([[英语]]:'''A'''rtificial '''C'''onsciousness,缩写'''AC'''),是一个涉及认知[[机器人学]]的领域,其目的是研究合成一个具有意识的人造物需要哪些必要条件。 [[神经科学]]的研究推测[[意识]]是由互相连结的[[脑]]区交互作用所产生的,这些脑区被称为[[意识相关神经区]](NCC)。然而也有人反对这样的观点。人工意识的支持者则认为电脑可以模拟这种尚未完全明瞭的意识交互行为。在最近的研究里,Steven Ericsson-Zenith认为目前还缺少新方法和新机制去解释神经元的行为如何产生意识。在人工智能哲学中关于心灵、意识和精神状态的讨论中,人工意识也是一个经常出现的话题。 ===哲学观点=== 关于意识的理论假设有很多种,所以关于人工意识的操作方案也有很多种。在哲学的语境下,关于意识最常见的分类方法可能是分为取用意识(Access consciousness)与现象意识(Phenomenal consciousness)。取用意识包括那些可以被知觉到的[[经验]]概念,而现象意识指的是那些不能被知觉到的,包括“纯感觉”、“它是怎样的”或者是[[感质]]。 ==== 关于可能性的争论 ==== 类型物理主义者和其他怀疑论者坚持认为,意识只能够在特别的物理系统中产生,因为意识的某些特性依赖于物理构成。 Giorgio Buttazzo在他的文章《人工意识:幻想还是真实的可能》("Artificial Consciousness: Utopia or Real Possibility")中写道:我们现有的技术水平所能达到的自主水平“计算机在完全自主的运行模式下,不能表现出创造性、情感或者自由意志。一台计算机就像洗衣机一样,是由各部件构成的奴隶。” 对于其他理论家(例如功能主义者),他们将精神状态定义为因果关系序列。任何系统,不管其物理构成如何,只要能够形成同样的因果关系模式,就可以被认为拥有精神状态,包括意识。 '''基于计算的观点''' 关于人工意识的可能性,最明确的一个观点来自于戴维·查默斯(David Chalmers)。他在文章''Chalmers 2011''中提出,对于构建一个有意识的心灵来说,恰当类型的计算就足够了。在摘要中,他这样定义他的目标:计算机能够执行计算。计算可以把握其他系统的抽象因果结构。 查默斯的观点中最具争议的部分是,他认为精神特性是“结构不变的”。精神的属性分为两方面,心理学的和现象学的。心理学属性,例如信仰和知觉,是“由其因果关系定义的”。他根据他根据''Armstrong 1968'' 和 ''Lewis 1972''这两篇文章提出“具有同样因果拓扑结构的系统...会具有同样的心理学属性。” 现象学属性初看起来并不能够通过它们的因果关系结构来定义。要建立用因果关系结构来说明现象学属性的理论,需要经过证明。查默斯为此提出了“跳舞的感质证明”:查默斯首先假设,拥有不同的因果结构的智能主体可以拥有不同的体验。然后他让读者想象将其中一个主题逐个更换零件(比如硅制成的神经元件),使它渐渐变成另一个主体,在过程中保留它的因果结构不变。根据原假设,在这个变换的过程中,主题的体验会发生变化,然而由于因果拓扑结构没有变化,主体无法从中“意识”到自己的经验哪一点发生了变化。 而人工意识的反对者们认为,查默斯的证明依赖于,默认所有的精神属性和外部链接都可以经过因果结构的抽象过程。 ==== 伦理学 ==== 如果我们确定一个机器具有意识,那么它就需要成为[[伦理学]]的主题(例如,它在法律上的地位是什么)。例如,一个有意识的计算机如果被当做工具、当做建筑的中央电脑或者是巨型机器,会造成特殊的混乱。需要为这样的情况制定特别的[[法律]],也需要为意识提供一个法律上的定义(例如,感受[[快乐]]和[[痛苦]]等[[情感]]的能力)。由于人工意识仍然很大程度上属于理论课题,这些伦理问题也并未被广泛讨论或研究,虽然它们常常成为科幻的主题(见下文)。 2003年的洛伯纳奖(Loebner Prize)的规则明确地指出了机器人权益的问题: ::61. 如果,在任何一年里,一个经由萨里大学或者剑桥中心参赛的,可公开获得的开源参赛者获得了银奖或者金奖,那么奖牌和奖金将授予对此参赛者负责的实体。如果这样的实体无法识别,或者两个或更多的申领人之间有争议,那么奖牌和奖金将被保留在基金中''直到该参赛者可以合法地在美国或者参赛地拥有对奖牌和奖金的权利''。 === 研究与实施方案 === ==== 意识的各方面 ==== 意识有很多方面被认为是为机器建造一个人工意识所必需的。伯纳德·巴尔斯(Bernard Baars,1988)等人提出了一系列需要意识参与的功能,包括定义与语境设定、适应与学习、整合、标记与纠错、召集与控制、排序与存取访问、决策或执行功能、模仿能力、元认知与自我观察功能、自编程与自我维持功能。Igor Aleksander为人工意识提供了12条标准''Aleksander 1995'',包括:脑是一台状态机器、内部神经元分区、有意识与无意识状态、知觉学习与记忆、预测、自我意识、 意义代表、话语学习、语言学习、意愿、直觉以及情绪。人工意识的目标是定义意识的这些方面,是否以及如何能够在一台人工的机器,例如数字计算机内工程合成。这个名单并未穷尽,还有许多其他并未包含在内。 '''觉察''' 觉察是人工意识中必需的一部分,但是关于“觉察”的确切定义还有许多问题。关于猴的[[镜像神经元]]的实验结果显示,激活神经元的是某个过程,而非仅仅一个状态或者物体。觉察包括根据来自感觉或者想象的信息构建和测试不同的模型,在做预测的时候也会有效。这样的建模需要很大的可塑性。建造这样的模型,包括物理世界的模型、个人的内部状态与过程的模型,以及其他有意识个体的模型。 至少存在三种类型的觉察:主体觉察(agency awareness)、目标觉察(goal awareness)以及感觉动作觉察(sensorimotor awareness),后者可能是有意识的也可能不是。例如,你可能通过主体觉察知道你昨天进行了某项行为,但是现在不能意识到它;目标觉察是你可能觉察到你必须寻找一个丢失的物体,但是现在不能意识到它;感觉动作觉察,你可能觉察你的手放在一个物体上,但是现在不能意识到它。 因为被觉察的物体通常会被意识到,意识(consciousness)和觉察(awareness)之间的差别常常混淆,有时它们被当做同义词使用。 '''记忆''' 有意识的事件与记忆之间,以学习、复现与检索的方式相互作用。 [[LIDA (认知架构)|IDA]]模型将意识的作用描述为知觉记忆、暂时[[情节记忆]]与[[程序记忆]]的更新,暂时的情节记忆与[[陈述性记忆]]在IDA模型中存在分布式表示,有证据表明它们在神经系统中也是如此。在IDA模型中,这两种记忆的计算采用了彭蒂·卡内尔瓦(Pentti Kanerva)的[[稀疏分布式存储器]]结构。 '''学习''' 伯纳德·巴尔斯认为学习对于人工意识来说也同样重要,意识的经验需要得到表示,并且转化为新的和有意义的事件(''Baars 1988'')。阿克塞尔·克里尔曼斯(Axel Cleeremans)与Luis Jiménez认为,学习可以定义为“一组系统发生学上的高级改变行为,它高度依赖于主体经验的感觉演化,以便让他们拥有在高度复杂、无法预测的环境中灵活控制行为的能力。” '''预期''' 伊戈尔·亚历山大(Igor Aleksander)认为对于可预知的事件进行预测的能力是人工意识的重要部分。在涌现主义者[[丹尼尔·丹尼特|丹尼尔·丹尼特]]的《意识的解释》(Consciousness Explained)中提出的多重草稿模型(Multiple drafts principle)可能用于预测:该模型提出了选择最适合的“草稿”来适合当前环境的评价机制。预期包括了预言自我的有意识行为的后果和他人的可能行为的后果。 真实世界中的各种关系在生物的意识中构造出镜像,从而使得生物能够预测事件。而人工意识机器也应该能够预期事件,以便当它们发生的时候进行回应,或者采取必要行为来防止相应事件发生。这暗示着该机器需要可塑性、即时反应的组成部分以便建立真实世界和预测世界的空间、动力学、统计、功能与因果关系模型,使得它足以证明不仅对于过去有意识,对于现在和未来也有意识。为了达到这一点,一个意识机器需要作出一致的预言与偶发事件应对方案,不仅仅针对类似象棋盘这样的固定规则游戏,也要针对会发生变化的新环境,可以在运行中对于真实环境进行恰当的模拟与控制。 '''主观经验''' 主观经验或[[感质|感质]]被广泛认为是[[困难问题|意识的难题]]。事实上,这点的确被认为是对[[物理主义|物理主义]]的挑战,也更加是对[[心灵计算理论|计算主义]]的挑战。但从另一方面来看,其他科学领域也遇到了可观察事物被限制的困扰,例如物理学中的[[不确定性原理|不确定性原则]],而这点并没有使这些科学领域的研究成为不可能。 ==== 认知架构的作用 ==== [[认知架构]]可指关于人类心灵结构的理论,或指其任何部分或功能,包括意识。在其他语境中,认知架构是心灵结构理论的计算机实现。其中一个例子是QuBIC:Quantum and Bio-inspired Cognitive Architecture for Machine Consciousness(用于机器意识且受量子和生物启发的认知架构)。认知架构的主要目标之一是将认知心理学的各种成果总结在一个综合的计算机模型中,但是这些成果需要形式化,才能作为电脑程序的基础。此外,认知架构也有着让人工智能够清晰地组织、建立和实现其思维过程的作用。 ===参见=== *[[人工智能基本条目]] *[[计算机科学技术基本条目]] *[[工学(目录)]] * [[计算机科学]] * [[机器人学]] * [[人工智能]] * [[强人工智能]] * [[超人工智能]] * [[艾伦·图灵]] * [[图灵测试]] * [[人工生命]] * [[人工智能哲学]] * [[认知神经科学]] * [[电脑围棋]] * [[恐怖谷理论]] * [[电子世界争霸战]] * [[电脑科学]] * [[认知科学]] * [[意识]] * [[语义学]] * [[技术奇异点]] * [[集体智慧]] * [[控制论]] * [[心理学]] * [[生物化学计算机]](例:[[人脑]]) * [[国际人工智能联合会议]] * [[网络本体语言]](OWL) * [[游戏树]] * [[人工智能叛变]] * [[人工意识]] * [[人工生命]] * [[生物神经网络]] * [[蓝脑计划]] * [[认知架构]] * [[有效利他主义]] * [[人脑计划]] * [[多智能体系统]] * [[开放蠕虫]] * [[模拟现实]] [[Category:工学]] [[Category:计算机科学与技术]] [[Category:人工智能| ]] [[Category:控制论]] [[Category:形式科学]] [[Category:技术与社会]] [[Category:计算神经科学]] [[Category:新兴技术]] [[Category:机器人学]] [[Category:多重代理人系统]] [[Category:脑]] [[Category:精神哲学思想实验]] [[Category:意识研究]] [[Category:中文词典]] [[Category:R音词条]] [[Category:人]]
返回
人工意识
。
导航菜单
个人工具
创建账户
登录
名字空间
页面
讨论
变种
查看
阅读
查看源代码
查看历史
操作
搜索
导航
首页
最近更改
随机页面
工具箱
链入页面
相关更改
特殊页面
页面信息
扫描二维码可以用手机浏览词条