“专注教育内容让学习随时随地什么意思随心”是什么习题集

欢迎来到求学快递网!
网站公告:
所有课程分类
机构人气度:57课程数量:55
关注我喜欢的机构
2.2年求学年龄
网络教育是全国高度重视和支持的具有明显优势的教育形式,网络教育已成为人们接受继续教育和进行终身学习的重要形式,成为构建终身教育体系和学习型社会的基础和平台。网络教育具有跨越教学时空、突破时空限制的特点,可供学习者根据自身条件和需要选择学习内容、方式和进程,有利于解决工学矛盾,特别适合于在职从业人员的业余学习。&一、 招生对象&1、具有普通高中、中等职业学校、中等技校、中等专业学校毕业文凭者,可报考相应的专科(业余)专业;&2、 具有国民教育系列大专或大专以上毕业文凭者可报考专升本(业余)专业;&二、 学习形式&网络教育是一种宽进严出的、学生以自主学习为主的高等教育新型办学模式。学生在教材和&多媒体课件自学的基础上,通过互联网进行授课、答疑、讨论、作业、课程辅导等学习活动,&并接受学校多媒体在线辅导,参加在当地学习中心集中进行的课程考试。&三、招生专业&法律事务、行政管理、社会工作、工商企业管理、会计、教育管理、学前教育、初等教育&计算机信息管理、食品工艺与检测、工程造价、工程监理、国际经济与贸易、资源勘查工&土地资源管理、安全工程、珠宝贸易与营销、土木工程、电气工程及其自动化、计算机科&与技术、工商管理、市场营销、法学、国际经济与贸易、工商管理、经济学(经济管理)&经济学(项目管理)、会计学、法学、交通运输(民航管理工程)、航空服务、机械设计&造及其自动化、机械工程及自动化(机电一体化)、人力资源管理、教育管理(国学教育) 等&四、 报名方法&1、身份证或户口本原件及复印件2份。&2、高中起点专科:须持高中或同等学历毕业证书原件及复印件2份。&& & &专科起点本科:须持全国承认的国民教育系列专科或专科以上毕业证书原件及复印件2份。&3、近期蓝底免冠照片一寸5张、二寸2张。&五、优势体现&1、 入学简单,免试入学&2、 听课、作业、考试均可网上进行,特别适合在职人员学习&3、 学习时间、地点随心所欲&4、 学习进度可随意安排&5、 优秀教师资源共享&6、 答疑时间充分&六、证书、学位:&在规定修业年限内修满学分,颁发大学网络教育毕业证书,全国承认学历,教育部电子注册。&本科层次需通过教育部网络教育部分公共基础课程统考,符合学位授予条件的授予成人学士学位。本学习中心(中联教育)专注学历教育多年,一直秉承&知识改变命运,心系天下求学人”的理念,来为每个求学者指引更好的方向。能帮助各位我很荣幸!有需要报考或想咨询的欢迎前来河南中联教育招生办(一)处李老师再此恭候!报名时间:常年招生(早报名,早安心,早毕业)报名方式:需本人身份证原件,毕业证彩色扫描件,两寸蓝底电子版证件照,到当地正规的学习中心报名(河南中联教育)具体请咨询当地学习中心(河南中联教育)河南中联教育报名中心地址:郑州市花园路与政三街交叉口向东50米路南河南省电子产品质量监督检验院内右边5楼511室教育咨询顾问李老师:QQ 199-423-2536电话:177-(微信同步)
本校课程搜索
官方微信公众号
反馈类型:
问题描述:
您的联系方式:
客服电话:020-
选择举报类型
包含有害的内容
不规范转载
侵犯了我个人的权益
侵犯了我企业的权益
填写并确认举报信息
为了确保问题能及时得到处理,请务必保证您提交的信息真实有效、清晰完整
*举报理由:
色情、暴力、血腥等违反法律法规的内容
辱骂、歧视、挑衅和诽谤等不友善信息
*举报描述:
截图证明:
您可以将举报信息的证明截图并复制粘贴在此,以便管理员更好的核实
填写并确认举报信息
为了确保问题能及时得到处理,请务必保证您提交的信息真实有效、清晰完整
*举报描述:
*原文链接:
联系方式:
截图证明:
您可以将举报信息的证明截图并复制粘贴在此,以便管理员更好的核实
当您发现本站有涉及个人的侵权内容时,建议您先尝试与当事人沟通解决问题。 如果您无法联系到当事人,您可通过此渠道提交举报诉求。
根据,您需要向我们提交您的个人信息,其中包括身份证明。如您确认已准备齐全,可点击下方按钮进入诉求提交页。
如果您举报的仅仅是辱骂等不友善内容,无需提交证明资料,可返回上一步点击【包含有害内容>辱骂、歧视、挑衅和诽谤等不友善信息】直接举报。
当您发现本站有涉及企业的侵权内容时,建议您先尝试与当事人沟通解决问题。如果您无法联系到当事人,您可通过此渠道提交举报诉求。
根据,您需要向我们提交您企业和个人的证明材料。如您确认已准备齐全,可点击下方按钮进入诉求提交页。
如果您举报的仅仅是辱骂等不友善内容,无需提交证明资料,可返回上一步点击【包含有害内容>辱骂、歧视、挑衅和诽谤等不友善信息】直接举报。
举报成功!
已经收到您的举报信息,我们会尽快核实并处理,感谢您的信任与帮助~插画师赤井さしみ作品-学路网-学习路上 有我相伴
插画师赤井さしみ作品
来源:SOHU &责任编辑:小易 &
关注微信公众号平台:“王氏教育集团实训中心”,全球的CG爱好者都在这里,行业新闻齐分享,专业教程随心学。
王氏教育集团是一所专注于CG设计教育、以及智能教育生态链的创新互联网科技学院,提供专业动漫、游戏、UI、模型、VR、原画、插画、漫画、影视特效、影视包装、影视动画等交流平台,经验分享,技术交流,提供行业最新咨询、学习技法、各类项目制作。
转载是一种智慧,分享是一种美德。赠人玫瑰,手留余香!!!莫错过人生的每一堂精彩课件。
来源于网络.
责任编辑:
本文相关:
- Copyright & 2018 www.xue63.com All Rights Reserved武进区小学分校语文学科灿烂课堂评价标准_百度文库
您的浏览器Javascript被禁用,需开启后体验完整功能,
享专业文档下载特权
&赠共享文档下载特权
&100W篇文档免费专享
&每天抽奖多种福利
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
武进区小学分校语文学科灿烂课堂评价标准
&&武进区小学分校语文学科灿烂课堂评价标准
阅读已结束,下载本文需要
定制HR最喜欢的简历
你可能喜欢人工智能颠覆“传统教育”?
作者:南方周末评论员 代忘
人工智能可以构建一个教育超脑。相当于每个老师、管理者和学生身边有一个虚拟的机器人。有了大数据、人工智能、学情分析,对学生个性化画像,就可以提供个性化的指导。(东方IC/图)
(本文首发于日《南方周末》)
教育、人工智能教育和大数据的结合,有成功的经验,也有失败的教训。新技术的应用,可能在某些方面促进了学生的发展,但在某些方面可能又影响了孩子的健康发展。
现在只需要分析网上足迹,就可以判断一个人的性格、智商、社会观点、生活满意度、语言习惯等等,一览无余并精准地画像。面对这样的情况,怎么办?最主要的问题就是,谁控制着这背后的一切。
人工智能对传统教育的改变至少包括两个方面。
一是育人目标的改变,很多重复的体力和脑力劳动正被迅速取代;
二是育人方法的改变,不仅是在线课程的增加这么简单,更包括对教学过程的数据化,更精准地掌握学生的学习情况,个性化地推荐学习内容以提高学生学习效率,智能评卷以减少误差与教师工作量,以过程化的学习数据替代“一考定终身”,乃至学校存在的样态等等。
但是,大数据和人工智能是否将彻底替代教师的作用?教师的角色转型如何进行?在教育乃至整个社会发展中,是否会带来隐私权丧失的挑战,如何保护学生和教师的数据隐私权?人工智能的发展还潜藏着哪些别的风险?诸多问题,需要及时提出,早做应对。
日到22日,“全球人工智能与教育大数据峰会”在北京国家会议中心召开,中国教育学会会长钟秉林、北京师范大学校长董奇、科大讯飞执行总裁吴晓如、英国剑桥大学心理测量中心主任John Rust教授等对人工智能给教育和社会发展带来的颠覆、想象空间与挑战,进行了精彩阐述。我们选登部分内容,供对教育和人工智能融合感兴趣的读者参考。
AI技术如何带来“因材施教”
董奇:在讨论AI、大数据技术和教育结合时,有两个表述方法,一是“AI+教育”,一是“教育+AI”。看似差不多,但含义非常不一样。如果讲“AI+教育”,狭义理解,是怎样把AI、大数据技术运用于教育中。现在新的AI、大数据技术层出不穷,数以千计的应用。中小学、教育管理者在选择时,出现了很多困难和认知负荷。
“教育+AI”的出发点是围绕在教育实践、管理中,在学生学习中,在教师的教学中存在的实际问题,用心去解决,有的新技术可以助推这些问题的解决,但很多时候不是这样的。我特别希望企业、研究者能多关注“教育+AI”“教育+大数据”。
有三个聚焦点,
一是聚焦质量。每个孩子都能享受适合他的教育,需要精准了解、匹配每个孩子的学习需求、学习能力、知识基础、学习速度。
二是公平。我们的教育发展水平差异比较大,要通过运用、研发新的技术方法,推动优质资源的共享。现在我们也有一些技术在这方面进行广泛应用,有的效果还不错,有的效果实际上并不好,并没有真正解决教育公平问题。
三是效率。现在不仅学生学习负担重,教师负担也重,怎样用新技术和方法,帮助学生、老师减轻负担?
我们一定要认识到,AI、大数据和教育目前的应用结合都是初步的,还处于初级阶段,很多问题没有解决,很多应用效果并不明显。我们必须客观,尊重事实,不能把现在还没达到的效果说得过高。但在行动上要大胆尝试、创新,坐而论道是不能解决问题的。教育、人工智能教育和大数据的结合,有成功的经验,也有失败的教训,应该更包容地去鼓励创新,推动探索。要从促进学生身心全面发展的角度评价新技术应用出产的效果。新技术的应用,可能在某些方面促进了学生的发展,但在某些方面可能又影响了孩子的健康发展。
吴晓如:人工智能技术和教育改革到底是什么关系?BBC和一家研究机构共同做出了一个新技术可能带来一些职业重大变化的研究结果。电话推销员、打字员、会计、房产经纪等职业很快要被替换掉,但教师、心理医生、艺术家的替代度很低。
人工智能是通过一些算法、数据,构建一个智能化的模型,让一些冷冰冰的机器变得像人一样能听会说,叫机器变得更聪明。人工智能技术的一些应用和当前教育方法,完全不是对立的。关键是融合,老师未来在机器的辅助下,让教学更有效率,效果更好,同样的时间让学生接触到更多有效信息。人机融合会成为一个越来越重要的关键词,其他行业也要关注到人工智能和自己结合以后带来巨大效益的提升。
人工智能、大数据和一些新的互联网相关的技术,可以为教育构建一个非常不一样的智慧的环境。它以学生为中心,更好地进行线上线下混合的学习,更好地去个性化学习。
具体来讲,人工智能技术可以更好地帮助老师去看、去听,帮助老师和学生分析学习,推送个性化的学习资源。
“看”:老师、学生通过纸笔会产生非常多的数据,但原来可能你做完一本作业后扔掉就算了。现在在智能化技术的帮助下,可把所有过程化的数据转换成计算机未来可以分析的结构化的数据。中英文的字符集的识别率已达到97%,机器转写文字的准确率比人更高,对一些比较复杂的数学物理公式的转写正确率也已达到92%。还包括人脸的识别、注意力的分析等。
“听”:在“听”上,机器已经远远超过了人。机器的转写正确率已超过了95%,人达不到90%。
“说”:让机器有嘴巴,目前人工智能技术也有了非常大的进步。比如,只要有特朗普半个小时左右的语音,机器学习,训练出来一个模型,想让他说什么就可以让他说什么。
以后,能说还不够,机器必须知道看的、听的是什么意思,这里又有机器的分析能力,能减轻老师的负担。比如,机器在一些哪怕是比较复杂的作文评卷上,已经达到高水准。它可以有效克服人在评分时因为疲劳度等造成的一些问题。
最后再看“决策”。知道了你的情况,怎么做出反馈?老师希望根据班级的情况,给最合适的资源。在智能推荐上,现在通过知识点的预测,可以给学生、老师提供更加精准的一些教学过程中的指导。学习效果能非常显著地提升。
人工智能可以构建一个教育超脑。相当于每个老师、管理者和学生身边有一个虚拟的机器人。老师教学、学生学习时,有个机器人伴侣可以提高效率。这种教育超脑,光有人工智能技术还不行,物理教学里一共有多少重要的知识点?哪些是物理教学中最需要关注的重点?这需要教育行业的一些大数据。光有冷冰冰的大数据也还不行,需要一些重要的教育专家融入进来。
教育超脑具体如何应用于教学与管理呢?虽然以学生为中心,但不能忘记老师是课堂的组织者,帮忙不添乱,一定让老师感觉到是有帮助的,减轻了自己的教学负担。首先,可以大幅降低老师批改作业的强度。
第二,帮助实现“以学定教”。优质教育资源还非常稀缺,如何让普通老师在人工智能的帮助下,也可以让教学效果得到大幅度的提升?老师在和学生互动过程中,过程化的数据都会被收集起来,机器在后台进行自动分析,生成一个学习报告,给整个班级、给每个学生画一个像。根据学生情况,老师做教学调整,甚至上课时给学生的课堂练习也是分层次的,让课堂效率得到大幅提升。从后台的数据分析看,以学定教后,课堂效率可以提高20%到30%。
大数据是由一些小数据所构成的,比如班级的小数据。老师上课过程中自然而然产生了很多非常优秀的资源。人工智能助手可以记录课堂点滴。这种场景化的数据,对老师课后的教研,唤醒学生记忆,非常有用。这种小数据可以形成巨大的教育资源库。
第三,帮助开展学生个性化学习。有些学生比较调皮,有可能智商很高,未来也有潜力,但第一课有10%的东西不懂,第三、四课有百分之三十的东西不懂,期中考试完后,别的学生90分,他60分。次数多了,就会被贴个差生的标签。有了大数据、人工智能、学情分析,对学生个性化画像,就可以提供个性化的指导。把每个学生做的错题列出来,分析错题背后的知识点、学科能力,到底问题出在哪,从而每个学生都进行分层练习。
第四,帮助管理者科学决策、高效管理。比如现在新高考后走班排课,非常复杂,学生6选3,可能需要一个小组排一两个星期!有智能化的助手辅助,三分钟就可以把课表排出来,然后再进行一些细微的调整,一两天就可以形成学校课表。另外,如果仅仅基于学生当前的知识点去选,可能把学生未来的学科潜力“谋杀”。通过学生日常数据自动分析来进行选课指导,会更精准。在后台智能算法的帮助下,教务管理、学生个性化的特质分析,和原来只能依照经验相比,发生了翻天覆地的变化。
最后,依托这些不同场景核心应用,要打造一些融合性的空间。创建老师和学生之间随时互动,可以对教学重要过程进行过程化记录的数字化环境。另外,创新的内容也非常重要,给学生提供更有意思的教学内容,尤其是一些比较枯燥的课程,把虚拟现实等一些手段用上,使教学内容更丰富。
因材施教的梦想,在这种新技术的驱动下能够更快地实现。
学校与教师还不能被彻底取代
钟秉林:在新的时代,中国的教育出现了新的特征。首先是主要矛盾转化,从过去的上学难转变为上好学校难!老百姓迫切需要高质量的教育。解决矛盾的根本途径是拓展优质教育资源。通过努力办好每一所学校,来缓解这个矛盾,但困难也在这儿。
办好一所学校,要厚积薄发。经费充足,规划得当,硬件条件可以很快改善,大家重视努力,软件水平也可以在不太长的时间内显著提高。但办好一所学校的关键,精良的教师队伍,需要几代乃至十几代教师长期积淀才能逐步形成。孩子在学校里除了学习知识外,学校优良的办学传统,校风学风,对孩子成长成才具有潜移默化的作用,这不可能一蹴而就,不可能用钱简单地堆砌出来。信息科技的飞速发展,信息科技与教育教学的深度融合,为化解教育的主要矛盾,带来了重要机遇。
人类获取知识的方式和渠道正发生改变。学生们获取的渠道是多样化的,必然导致学校的教师角色的转型,从过去的学生知识传授者,转变为学生学习活动的设计者和制造者,师生之间形成一种新型的学习伙伴的关系。
互联网教育的发展还正在颠覆着传统的学习过程。过去,知识传输一般是在课堂上进行,通过教师讲授,学生听讲来实践。知识内化的过程往往是要在课后,学生通过复习做习题,教师辅导,答疑,学生参加必要的教学实验,来巩固消化,所学的知识能够真正掌握,融会贯通。在网络教育背景之下,这个过程可能颠倒。学生知识获取转移到上课前,通过网上个性化的学习来实现。课堂上,教师就不能讲授为主,必须引导学生探究,反思讨论,学生主讲、演示,教师纠错,课堂上要实现学生知识内化的一部分功能。学习过程的革命,翻转课堂的翻转,内涵就在于此。
以慕课翻转课堂微课程、混合式教学等等为代表的基于网络的教学模式,可以突破学习时间和空间局限性,有利于学生个性化的现场学习。大数据、人工智能的发展,和教育的融合,将给教育带来颠覆性的变革。通过分析学生的学习和生活的数据碎片,可以研究学习者的行为模式,建立个性化的教育体系,真正因材施教。另一方面,我们也将被海量的信息充斥,应对这样的挑战,要从知识转为能力本位,尤其是学生的创造性和批判性思维的养成。
学校、教师首先要转变观念,突破千校一面、万人一面的培养模式,多样化个性化地培养人才;要创建以学生学习为中心的教学和学习方式,探索构建师生学习共同体,通过教师的引导,师生的互动和学生之间的合作来实现教学目标。
网络教学的实践绝不仅仅是技术层面和教学层面问题,还涉及管理体制,像教学、学生管理机制等。
最后,信息科技与教育教学的深度融合,不能改变我们的教育初心,要警惕陷入纯技术化的误区。学生的一些社会发展性素养的养成,比如人际交往能力,公共关系能力,团队精神的养成及健全人格的培养等等,从目前看,还只能在现实环境当中,通过校园教育,通过学生的群体学习,通过学生走上社会之后的社会实践来逐步加以解决。我们要保持清醒的头脑。
从这个角度而言,课程教学不等于学校教育。互联网的技术应用可以把一门课程做到极致,质量非常高,但互联网教学还不可能完全取代学校教育。因此我觉得我们也要避免炒作概念,避免片面的夸大作用。
人工智能和教育融合,会挑战教师的传统角色和权威地位。有一部分知识性的教学角色可能被人工智能所取代,但教师不可能被完全取代,我们必须要凸显教师育人功能的重要性。教师如何跟上信息技术和教育融合发展的潮流,如何保持敏锐的目光,启迪学生的智慧,涵养学生人格,这是要认真考虑的。
软家长制、监督与 人工智能的“道德发展”
John Rust:这个世界有哪些创新?一是行为科学,二是监视技术,三是机器学习,四是人工智能。
2008年英国政府推出了“轻推策略”(nudge initiative),提出了一个理论,叫软家长制。就是通过一些隐性的方法,鼓励人们去纠正一些不正确的行为,比方说不要吃太多垃圾食品、抽烟、过度使用能源等。这种选择往往是在潜意识中做出的,因而并不涉及媒体宣传等完全公开的规劝手段。英国的行为洞察部门把心理学和行为经济学的研究发现应用到公共政策和服务中。对于那些危险的人,比如说恐怖分子、性犯罪、校园暴力者、危险驾驶行为的人,都可以通过收集大数据来展开调查。通过医疗、教育、税收、消费、旅行、工作、手机等各个方面的记录,甚至是网络摄像头都成为大数据收集的来源,都能服务于“轻推策略”。面对信息高速公路,你可能被轻轻地推了一下,不仅可以把你朝正方向推,也能把你朝反方向推。2013年,英国的外长就说,如果你没什么可隐藏,也就没什么可担心。你自己判断,它到底是一个乌托邦的社会,还是一个反乌托邦的社会?
现在只需要分析网上足迹,就可以判断一个人的性格、智商、社会观点、生活满意度、语言习惯等等,一览无余并精准地画像。面对这样的情况,怎么办?最主要的问题就是,谁控制着这背后的一切。有时并非你自己能够决定收到什么信息,而是机器学习的算法。这就是我们当前的处境。互联网是一个更丰富的互动空间,由数字网络组成,用来储存、修改并交流信息,互联网会让人和人之间可以共同完成更多的事情。现在在我了解世界的同时,世界也在了解我。这就是互联网空间当中的事实。互联网空间也需要管理,需要秩序来确保安全性。
现在我们知道机器在学习算法,在进行深度学习。人类需要咨询师、老师、律师。要成为这样的人,需要进行培训。机器可以非常好地去预测人类的情绪和情感。短时间之内,能给一个人拍很多照片,解读情绪。微软最近的一个项目可以识别你的愤怒、鄙夷、厌恶、害怕等表情。所以说在互联网空间,不仅有机器,也有人的情感在发生。其实我们在互联网空间浸入的是更多的人性,不仅仅是思想和情感。集体无意识、和平之神、战争之神,所有人类情绪中出现的东西都会在互联网空间有所体现。这些情绪都能迁移到互联网空间中。“不喜欢”的负面情绪传播的速度往往比“喜欢”的正面情绪更快。我们需要一个模型,让我们知道算法和互联网空间到底发生了什么。随着时间的推移,人工智能会变得更加复杂、精确。我们都是互联网时代的居民,居住在互联网空间中。
最后一个是道德发展的问题。我们有人类道德发展的理论,人类有自己的思想和情感体验,有伦理道德的约束。机器可以通过计算了解个体差异,识别情绪。通过明确的交互方式,机器人也具有相应的规则。比如说我们告诉机器人,要提高点击率与收益,要善待儿童。我们有很多的方式来培训机器人遵循我们的规则。但有些时候并非如我们所愿,还是会有一些风险。假如在培养机器人道德时,出现失误怎么办?有可能机器人会像人一样出现精神病人的人格障碍,也可能会停留在道德发展的早期阶段,甚至机器人也会出现无意识,对自己的“犯错”没有任何“悔恨之心”。目前的人工智能,还需要解决这样的问题。
我觉得,孩子是我们的未来,但是,或许机器人同样也是我们的未来。
人物、人际与人机关系——从伦理角度看人工智能
何怀宏 | 北京大学哲学系教授、博士生导师
本文原载《探索与争鸣》2018年第7期,第27-34页,文中图片未经注明均来自网络
传统的社会伦理一向是以调节人与人的关系为中心,现代伦理学近年则开始比较系统地反省人与物之间的关系,而未来的伦理学大概还需要将人与智能机器的关系纳入其考虑范围。这主要是因为人赖以获得对其他所有自然物的支配优势的智能,将可能被机器超越。关于人机关系的伦理思考,一种思路是倾向于做减法而非做加法,即优先和集中地考虑规范智能机器的手段和限制其能力,而不是考虑如何设定和培养机器对人类友好的价值判断,亦即尽量将智能机器的发展限制在专门化、小型化尤其是尽可能的非暴力的范围之内。
美剧《西部世界》剧照
伦理是有关生活价值与行为正邪的探讨。而无论生活还是行为,都是在人的关系中展开的,人的世界就是一个关系的世界。这些关系包括人与自然的关系、人与人的关系,乃至人与自我的关系、人与超越存在的关系。今天的世界出现了一个极为重要的新情况,就是人工智能的飞速发展使一种新的物——智能机器也出现在伦理思考的范围之内。
继人从自然、从物中分离出来后,一种新的存在也有可能再分离出来。这种新的存在既是物,初始又是人创造的。它结合了人与物的两方面性质。它是不是有可能取代人目前所取得的“超级物种”的地位?这是人工智能对人类提出的最大挑战。对此笔者将另文探讨,这里主要从伦理的角度探讨对人机关系的认识,探讨人们对目前的智能机器能做些什么,能提出一些什么样的基本伦理思路与规范。
人与物的关系
世界上除了人,还有物。人本来也是物,现在也仍然还可以笼统地归于物或者说一般的存在。但如果从人的特性,从人的能力、意识、道德而言,人就可以区别乃至对峙于地球上的其他所有物。这样就有了人与物的关系,但人与自然物的关系长期以来并没有纳入道德的理论系统中来考虑,没有成为一种道德理论或生态哲学的体系,直到20世纪下半叶才发生改变。
我们可以从不同的时间长度来回顾人与物的关系的历史:地球史、生物史、动物史、人类史和文明史。前面的历史包含着后面的历史。当然,前面三种只是一种人类的史前史,只是方便我们看到人类的自然来源。
人猿揖别,人先是直立起来,就腾出了两只手,手的拇指能与其他手指对握,就能够握持和制作工具;火的发明使人能吃到熟食乃至保存,它促进了脑力的发展,而且人工取火还能成为生产的工具,如利用火把来驱赶和烧死动物。人从一开始大概就是群居动物,有了意识之后更懂得分工合作。
二三十万年前出现的现代智人,还在以采集狩猎为主的石器时代就已经造成大量物种的消灭了,他们用火把、呐喊、石块、木棒等,利用分工协作的群体力量,将其他动物驱入山谷,使之大量死亡,真正吃下去的其实只是很小的一部分。而且他们的狩猎对象首先是一些大型陆地动物。
很长时间内,人对天空中的鸟和深水中的鱼都不太能够顺利地把控,他们缺乏这方面的能力,甚至对微小生物也不如对大型动物有办法。根据近年的研究,智人大致是从东非出发,后来分别到了亚洲、欧洲、澳洲、美洲。而他们走到哪里,就造成那里的一些大型动物迅速减少甚至灭绝,甚至一些原先的人种也消失了。
这大概是人与物的关系的第一阶段,即他从其他动物中脱颖而出,能够借助工具和智力来与任何一个物种甚至所有物种对峙与抗衡。第二个阶段则是从仅仅一万多年前的人类的农业文明开始。人在文明史的阶段,逐步变得不仅能够抗衡,而且能够支配其他所有的物种,成为地球上的主人。
他获取食物和能量的方式,开始从以采集狩猎为主转到以种植畜牧为主。他不仅利用无生命的物体如石块作为工具,也开始利用其他的动物作为工具了。他利用畜力来延伸和扩大自己的体能,不再只是获取现成的自然物,而是通过改变自然物的形态以达到自己的目的。各种栽培的作物、驯养的动物,都不再完全是原先的样子了。
人开始以越来越大的社群定居,经济生活有了稳定的预期,可以养活少数的有闲阶层来专门从事文化的工作,直到出现城市、文字、金属工具和国家,乃至出现轴心时代的精神文明。
到了近代工业革命又是一个飞跃,人发明了蒸汽机、内燃机、电力,人利用煤、石油等自然资源,设计和大批制造了各种机器,极大地增强了人征服自然的能力。人在农业文明时代对自然物的改造,多少还能够看出原来的模样,工业革命时代的产品,就几乎看不出原来的模样了。人大大地改变和提升了各种获取食物和能量的方式。这各种各样的人造的机器已经不是自然物了,但却还是没有自身智能、不能自我学习和独立改进的人造物。人真正成了地球上所有自然物的主人,他能够轻易地战胜所有其他物种或其联合,能够移山填海,改变自然界的面貌。
那么,人是依靠什么达到这一切的呢?在这一过程中,人的体能并没有什么长进,在某些方面可能还退化了。人迄今在速度、力量、耐力、柔韧等方面还是不如地球上现有的某些动物,但他却完全可以支配它们。他使它们就范所依靠的当然不是他的体能,而是他的智能,是他的智能所带来的具有极大优势的暴力和强力。人和其他动物之间自然也就处在一种很不平等的关系之中,只是到近年人类才稍稍有所反省和补救,但这种关系的不平等性质并不可能改变。
人依靠他的智能,可以大大扩大和延伸他的体能,甚至完全不用自己的体能而办成他想办的事情。人哪怕开始只是比其他动物似乎稍稍聪明一点,也会带来越来越大的差距。智能贯穿人类进化的始终,今天看来更是独领风骚。这里所说的“智能”自然不是人的意识能力的全部,而主要是指人对物质世界的认识和控制能力,人另外还发展起一种试图认识世界之根本、人生之意义以及审美、艺术等诸多精神领域的能力,人与其他动物的不平等的缘由和本质差别甚至更多地是来自这些方面。但控物的智能却是人类对其他动物取得优势和支配力的主要依靠。
当人类进入文明阶段,有了劳心阶级、国家和语言文字之后,智力则有极大的、飞速的长进。于是我们看到了加速度乃至指数速度的发展:地球有约40多亿年的历史;生命有30多亿年的历史;动物有约7亿年的历史;人类有近300万年的历史;现代智人有20万年的历史;文明有1万多年的历史;国家有5000余年的历史;工业革命有300年的历史;而新的或可称作“智能革命“的高科技文明则大概只有五六十年的历史。
人只是到了文明阶段,有了明确的自我意识,有了明确的“人禽之别”的意识,才有了一种实际上存在的道德关系。但是,对人与物的道德关系的系统认识和有意识的调节,还要到文明的更高阶段。而且,即便是文明阶段的人和人之间,还有时重新堕入那种动物般的生存竞争的状态,这时对双方几乎都没有什么道德可言,很难对其中的一方做出赞扬或谴责的道德评价。但这可以说是非常状态,对为何堕入这种非常状态,还是可以做出道德评价并进行各种补救和调节。
对人与物的道德关系的调节,必须首先解决一个“道德地位”(moral standing)的问题。人在征服其他物种尤其是动物的过程中,并不理解其他动物的全部感情和感受,甚至没有尝试去理解。他也不是对它们怀有恶意,人捕获它们、吃掉它们,并不是出于憎恨。人和人之间毕竟都是有自我意识的,但动物、生物乃至其他一切自然物没有这种自我意识,无法成为道德的主体。但人是否就可以随心所欲地对待它们呢?它们是不是还能获得一种得到人的道德对待的地位呢?这种道德地位的根据是什么呢?
对这种道德地位的根据的问题,各种生态伦理学理论有一些不同的回答。但大都认为,其他物种或物体也具有它们内在的、固有的或天赋的价值。其他物种或物体虽然没有意识,不是道德的主体(moral subject),但它们因为具有这种内在价值,也应当成为道德关怀的对象(moral object)或者说“道德顾客”(moral patient),而人也应该成为对它们进行道德关照的代理人或代理主体(moral agent)。
当然,除了“道德地位”,还会有一种“道德重要性”的考虑。即均获得一种需要关照的道德地位的其他物种或物体,还是有一些不同的道德重要性。比如动物看来就因其具有感受性而应获得更大的关照,像虐待动物就应该首先在排除之列,其次是有生命的物体,再次则是无生命的其他所有物体。当然,也可以将整个的自然环境视作一个生态系统来考虑。
人与人的关系
伦理学的中心,尤其是传统的伦理学可以说主要是处理人与人的关系,即人际关系。对这种人与人的关系,有时容易仅仅理解为个人与个人的关系,中国传统的伦理学尤其注重亲人之间的关系。但广义的人际关系应当包括三个方面:第一是个人与个人的关系或者自我与他人的关系,比如一个人与亲人、朋友、熟人、生人的各种关系;第二则是个人与各种群体,诸如因地域、种族、文化、宗教、政治乃至兴趣而结成的大大小小的群体的关系,这里最重要的还是个人与国家的关系;第三则是人类的各种群体与群体的关系,这里最重要的大概也是国家与国家的关系,或者说政治共同体之间的关系,还有宗教团体之间的关系。而在人类世代之间甚至还可以说有一种“代际关系”。
人与人之间的道德关系和行为规范是不是大致在进步呢?采集狩猎时代的人结成小的原始群体,内部非常平等,但对外部的其他人类原始群体则相当暴力或者说残忍(如果说能够用这个具有道德意味的评价词的话)。农业文明阶段则出现了国家,在各个政治社会之间还是有相当的冲突,但不是像原始时代那样你死我活了;在政治社会的内部则更加温和与和平了,人们通过政治秩序更能保障自己的安全与生养,但这是建立在某种等级制的基础之上的。到了现代社会,道德调节范围不断扩大:所有的人都被视作平等的个体,虽然从生存平等、人格平等到基本人权的自由平等,也有大段的曲折。
而暴力的减少也是一个总体的趋势,虽然也有曲折乃至大的波谷,像20世纪上半叶就爆发了两次世界大战和许多内战、骚乱,但二战之后的总体发展是暴力大幅减少,尤其是在发达国家与迅速发展的国家内部,我们甚至看到它延伸到家庭和学校,霸凌和体罚等都呈现日趋减少乃至禁绝之势。人们的最低生活保障标准也在不断提升,如食物、医疗条件的大幅改善,瘟疫的趋于消灭,人的预期寿命普遍增加。道德调节的范围乃至扩展到所有生灵和自然物——虽然在要求的程度上有所不同,这种人物关系的改善或也可以说是人际关系改善的一种延伸。
如果我们以暴力与平等的两个标准来考察人类道德的进步,那么在暴力方面大致是一种相当平滑的线条:在人类的前文明阶段,或者说采集和狩猎的阶段,暴力是相当频繁和残酷的;在农业文明的阶段,暴力减少了;在工业文明的阶段,虽然也有起伏,但至少从截至目前的总体趋势而言,暴力继续减少了,虽然足以毁灭人类数十次的大规模杀人武器还存在。从平等的角度观察,则大致是一条曲折的线条:在采集狩猎阶段,有一种内外有别的内部高度平等;在农业文明阶段,则基本上是一种不平等;到了工业文明阶段,则走向了一种比较全面的包括所有社会成员和囊括各个方面的平等。
暴力与平等,不仅是我们观察人际关系的两个最重要的道德标准,也可以作为观察人物和人机关系的重要标准。反对暴力和非法强制涉及到生命和自由的基本原则,构成在各文明和宗教中诸如摩西十诫中的“四不可”、基督教金规和儒家忠恕之道这样的道德规范的核心内容。像国家这样的强制暴力固然还是不可缺少,但产生这样的暴力还是以“以暴制暴”为宗旨的,它针对的正是人类的暴力行为。虽然这种国家暴力也会被滥用,但如果它能遵守这一宗旨,且必须经过一定的法律程序才能实行,那么,它还是能被人们广泛接受。
人类目前已经历了原始群体阶段的内部很平等和外部多暴力、农业文明阶段的不平等和少暴力、工业文明阶段的广泛平等和更少暴力的过程。人与自然物的关系近年虽有诸多改进,但还无法处在一种像人与人之间的平等地位。新出现的生态伦理学理论试图对此有所平衡,尤其是非人类中心理论如动物权利和动物解放理论,试图更加关怀和提升弱势生命的地位,但还是不可能做到真正平等。这大概也是人类道德不仅不可能,甚至也无必要去做的。生态伦理学中的一种整体观点可能更有道理,它也使我们联想到像古代斯多亚派那样的普遍宇宙理性,但它还是不能不给人类以更多的权重。
人与物的这种不平等关系的根本原因,可能还是人与自然物是属于不同的存在种类,后者没有理性和自我意识,而所有有意识的甚至仅仅有感觉和生命的存在都会更优先地倾向于自身的保存。即便是按照整体论的观点,所有的生命都应该共生,所有的存在都应该共存,但每种生命都会本能地或者是有意识地优先考虑自身的生存,而不是优先考虑其他物种的生存。这也是有道理的。所以对人能够提出的道德要求,应该是人也应当尽量兼顾其他物种的生存,而并不是要求人类相比关心自己的生存更关心其他物种的生存。否则就可能脱离人性,甚至也脱离物性。
那么,对于人与智能机器的关系,我们是否也可以从上述两个标准观察,考虑能够建立一种什么样的关系,并尽量地减少暴力呢?
人与智能机器的关系
自从计算机和网络、机器人、生物技术、纳米技术等高科技问世且越来越快地发展,人类进入了一种新的技术革命。其核心或可称之为“数字革命“”算法革命”,或者更综合地说是“智能革命”的阶段。如果说以前的工业革命主要是以极高的效率解决人类体力所不及的问题,现在的智能革命却是以极快的速度解决人类智力所不及的问题。智能一直贯穿于人类征服自然的始终,今天看来还要独领风骚。
随着这些技术革命和革新,人类今天进入了一个新的阶段,这一新的技术革命或许将使人类文明脱离“工业革命”“工业文明”的范畴。目前还仍然将高科技的发展归在“工业文明”的大范畴内,但未来或许要将这种智能革命带来的新文明独立出来,构成一个新的文明阶段,而“工业文明”或许还可归之于利用和改造自然物的人类文明阶段,未来的以人工智能为中心的文明则可能是一种创造全新的人造物的阶段。由此就给人类伦理带来以前从未遇到过的新问题:如何认识和处理人机关系?
人类不仅一开始就要从生存发展的策略和技术上考虑人与物的关系,或者说人与自然的关系。人从精神文化上考虑这种关系也很早就开始了。最早的希腊哲学家试图认识自然世界的本质、构成、元素,以及人与自然共享和区别的东西,人与自然应该处在一种什么样的关系之中,等等。中国古代的思想家也提出过“道法自然”“天人合一”的命题。古人也曾提出和实行过种种维护自然环境和生态的一些规则,并在近数十年出现了系统的环境伦理的哲学理论。但是,迄今的确还难说有关于人机关系的系统伦理学理论。这缘由是什么呢?当然,最直接的一个解释就是:人工智能对伦理提出的挑战还是一个很新、晚近才出现的事物。
但我们还可以结合也是晚近才进入我们系统性伦理思考的人物关系的论据,来更细致地回答这个问题:为什么我们过去几乎不重视甚至很少考虑人机关系的伦理问题?察看一下近年来环境哲学提出的有关应该注重人物关系的伦理,善待其他生灵和关心整个生态的论据,大致有以下几点:
第一是感受性,这主要是对动物有效。其他动物也和人一样会感受到痛苦,虽然主要是生理上的痛苦,但也有心理上的痛苦,不仅有受害动物感受的痛苦,甚至也有它的同伴的痛苦。一只大雁被人击伤掉落了,不仅这只大雁感受到痛苦,它的同伴也常常会徘徊不去,哀鸣不已。第二是生命,这也包括了植物,植物也是有生命的。你拔起一株花,它很快就枯萎了。你砍伐掉一棵树,它也就永远不能郁郁葱葱了。
第三是整体性,这包括了所有的自然物,尤其是地球上的自然物。不论是有生命的还是无生命的,它们构成一个人生活在其中的生态整体,从整体的观点来看,几乎也可以说是需要相互依存。第四是自然性,自然界是先于人类而存在的,自然物也是可以不依赖于人而独立存在的,而人却必须是依赖自然而生存的。最后可能还有一种自然给人带来的感受问题,自然万物常常能够给人带来一种美感,甚至还唤起人们的一种宏大感、深邃感、庄严感乃至敬畏感。基于上面的理由,人不仅应当善待动物,爱惜生命,即便是无生命的物体,也应当尽量保护它的原生态和自然性,保留一些原生态的荒野、湿地、雪峰等,维护整个生态系统的平衡。
但以上这些理由似乎对人造的机器和机器人都不适用。它们是硅基原料或者加上金属,不具有我们人与动物共有的肉体感受性;它们看来也不具有会自己生长、变化和繁殖的生命,也不构成自然整体的一部分——它们在自然界本来是不存在的,只是人利用一些自然原料造出来的物体;它们也不会自然地给我们带来美感,或者说,优美与否是我们按照自己的审美观赋予它们的,是出于我们的设计,看来也唤不起一种宏大感和敬畏感。所以,此前人们对机器的态度是比对自然物差的,人们会根据自己的需要更加随意地对待它们:会拆卸、报废和处理它们。没多少人会想我们要像善待动物一样善待机器。保养它们也只是为了让它们更好和更长久地为我们服务。当然,也没有人真的恨它们,过去卢德分子捣毁机器其实主要是倾泻对人的怒火。
但为什么我们现在需要认真地考虑人机关系的伦理问题?这变化可以追溯到什么时候?是什么因素使我们必须思考机器伦理的问题呢?
工业文明早期,机器还是我们制造并完全可控的产品,并不存在伦理的问题。这一变化大概发生在机器开始自我学习、自我改进的时候,即出现了自动化机器,直到智能机器人的出现,这时机器开始拥有了人的一部分能力,即控物的能力、工具理性的能力,这也是人赖以战胜其他动物的能力。机器开始拥有了智能,拥有了工具或技术的理性——而这工具理性正是现代社会的人最为推崇和广泛应用的一种理性。机器在这些方面开始有些像人了,但在人的其他意识能力方面,比如说情感、意志、整体的自我意识方面,它们还不像人。
但既然有了一部分人的能力,它们是否会发展到也将拥有自己的情感、意志乃至自我意识?如果未来的发展的确是这样,甚至在它们只具有人的一部分能力的情况下,我们是不是就应该开始考虑我们与它们的伦理关系问题?当然,促使人关心这一问题的一个最大潜在动因可能还是一个威胁的幢幢暗影——那就是它们会不会继续发展到在智能方面超越人乃至替代人?
许多科学技术专家可能是一心专注于研制与开发,这方面我们得感谢文学艺术家,是他们的作品,包括许多科幻小说和影视作品,从一开始直到今天都在坚持不懈地提出各种可能的人机伦理问题。
最早使用“机器人(Robot)”这个概念的捷克作家恰佩克,在1921年发表的作品《罗素姆万能机器人》中就很超前地提出了人与机器的关系问题。其剧中,发明和制造机器的人们动机各不相同,有的是为了利润,有的是为了科学,有的甚至是出于人道的理想——如主管多明就是希望能够将人类从繁重的劳动中解放出来,都变成享有尊严和闲暇的“贵族”。于是,公司制造的大量机器人在全球被用作苦力,而来到机器人制造公司的总统的女儿,则希望人道地对待机器人。十年后,机器人开始在全世界造反了,组织了国际机器人协会,杀死了这个工厂的管理人,结束了人类的统治而开始了自己的统治,虽然他们不久也遇到如何繁殖或复制自己的问题。
科幻作家阿西莫夫在小说《转圈》中最早提出了给机器人设定的三个伦理规则:1.不得伤害人和见人受到伤害不作为;2.服从人的指令;3.自我保存。这是有序的三规则,即越是前面的规则越是优先,后面的规则不得违反前面的规则,机器人甚至不能服从人发出的伤害人的指令(如主人想要机器人帮助自己自杀的指令);机器人的自我保存不仅不能伤害人,也不能违反人的旨意。如果出现机器人即将伤害人的情况,或者即便不在这种情况下,但只要人发出了让机器人自杀的指令,它也必须服从。这显然是以人为中心的规范。
要实行这些规则自然会有机器人判断的负担,即如何判断人——被伤害的对象和作为发令主体的人,这人是指发明制造它的人还是使用它的人,是指人类个体还是整体,因为他们之间是可能出现矛盾的?还有判断哪些情况会伤害人,以及在无法避免伤害人的情况下选择伤害哪个或哪些人;在不同的人发出不同的指令的时候,究竟服从谁的命令;等等。阿西莫夫在一些作品中也描述了其中的一些矛盾和困境。他不仅认真地考虑人机关系——当然,这种关系毫无疑义是不平等的,还试图明确地提出调节的伦理规则,这是一个很有意义的起点。
后来的人们对这三个伦理规则有不少修改和补充,但都倾向于做加法,增多或提高要求,包括阿西莫夫自己,或是鉴于机器人可能成为恶人保镖的危险,自己也加上了一条更优先的零原则:“不得伤害人类整体。”但做加法将继续加重机器人判断的负担,还打开了误判或冒名和假托“人类利益”的缺口。
人机关系的伦理调节思路
笔者现在尝试提出一种新的思路,一种不同于阿西莫夫,也不同于现在许多关心和研究机器伦理的专家的思路。
简要地说,我们可以将现在使用的机器人分为两个层面:民用机器人的层面和国用机器人的层面。而目前人们考虑的人机关系的伦理调节大概有三个方向:一是对机器的价值规定和引导,如希望设计和培养智能机器遵循对“对人类友好”的指令,教会机器明辨以人为最高价值的道德是非;二是对其行为、手段的规范限制,如阿西莫夫规则中的“不得伤害人”;三是对机器能力的限制,尤其是防止通用的超级智能的发展。
笔者认为第一个方向是不必要,也是不太可能的,甚至后面隐藏着很大的风险,且和后两个方向有冲突。而后两个才是我们应该努力的主要方向,但应用在民用机器人和国用机器人的不同层面上会有差别,具体陈述如下:
一些学者认为可以给机器人预先设定让它们“对人类友好”的动机和价值观,或者说“为了人类最大的利益而工作”。但要设定这样的价值目标,就必须让它们发展自己的通用和综合能力,甚至获得一种自我意识。否则他们就无法担负判断的重负:比如怎样才是对人类友好,什么是人类的最大利益或整体利益。这些判断必须具有一种通用的、综合的能力,甚至需要一种全盘考虑,不仅要考虑人的物质利益,也要考虑人的精神和文化、感情的各种需求等。如此它也就需要和人一样或类似的自我意识,要全面地了解人。
但这看来是不可能的,它们不是碳基生物,不是灵长类动物,它们不可能具有这种生物的肉体敏感性,也没有领悟精神文化的能力——仅仅靠输入和记住人类的全部文献是不够的,那还需要历史的、无数活生生的富有情感和瞬间灵感的个人体验的积淀。而且,如果它们真的发展起一种基于自我意识的全面判断和行动能力,那也一定不是建立在这种肉体感受性和有死性基础上的人的自我意识,那将是我们无法知晓的一种自我意识。我们与它们无法像人与人之间那样“感同身受“”设身处地”。
而人类最好把价值判断留给自己,这也是保持一种人类对机器人的独立性乃至支配性。我们不能什么都依赖智能机器,把什么都“外包”给机器。如果说,我们最好不要让多数人在人工智能的领域内太依赖少数人,我们就更不要让全人类在智能、在精神和价值判断的领域里依赖机器。人类将自己的价值判断完全托付给机器之日,大概也就是人类灭亡之时。我们最好让机器人始终保持它们“物”的基本属性。人所能做的甚至只能做的可能就是限制它们的手段和能力,而不是给它们建立一套以人为中心的价值体系。
它如果真的掌握了价值判断和建构的能力,恐怕它很快就要建立自己的价值体系,那是人类不易知晓其内容的“价值体系”或者说它自有的“目标体系”——就像专家们连对现在在智力竞赛中夺冠和战胜棋类大师的机器人的具体计算过程其实也不太知晓,其间还是有不少“黑箱操作”。而如果机器有了“心灵”,那将是更大的“黑箱”甚至整体的“黑箱”。
所以,笔者考虑是不是至少首先在民用机器人的层面上,可以对阿西莫夫的三规则采取另一种思路,即不是做加法,而是做减法,而且缩减到极简,就是一条:机器人不得伤害任何人,也就是原来三规则中第一规则的前半条。甚至我们可以更明确一点,不得伤害也就是不得对人使用暴力,这暴力包括不得使用强制的手段限制人的自由,比如强行禁锢人、不让人离开或者像《机械姬》那样锁闭人。
我们可以考虑让这“非暴力”成为一个不可撼动的原则,成为所有机器人的最初始的、不可修改的禁止密码,任何次级的应用和制造机器人都修改不了这一密码。如此,人们的确也就可能从机器那里失去许多便利和期望,比如说不能制造和使用能够保护自己的“机器保镖”,因为问题是:如果好人能够使用这些机器的暴力,恶人不是可以更放肆地使用?
当然,机器人还是可以成为救助人的强大工具。当人受到伤害时,机器人还是可以有所作为,只是救人也不得使用暴力。它可以帮助人逃走,可以成为一个极其灵敏和迅速的监测和报警系统,让罪犯不可能隐瞒和逃逸,让犯罪的人必须付出代价和受到惩罚。这样它就还是在帮我们。我们还是有一个强大的安全助手。但我们不能让机器人出手。暴力的使用要始终掌握在人的手里,这也是人应该承担的责任。也就是说,机器人不介入任何暴力,与任何暴力绝缘,甚至不知暴力为何物。它就是一个完全和平的“动物”。
至于在国用机器人的层面,可能无法直接使用这一条禁令。因为国家就是暴力,国家不可能没有暴力,对国家机器无法排斥暴力的使用。但我们还是可以区分国用机器人的两种使用,一是国内的使用,二是国际的使用。可以考虑首先在国内的使用中禁止任何可以杀人的暴力机器人,而在杀人机器的国际使用上,则首先力求小型化、专门化。据说前几年就已经有56个国家在研究杀人机器人,具有智能的杀人机器如无人机和杀人蜂已经研制成功甚至投入使用。这样,如果在民用机器人方面应该禁止一切暴力,在国家层面目前看来就事实上难于禁止,国家不使用这种暴力,也会使用那种暴力。但至少可使其专门化、小型化,不成为大规模杀人武器。
也有不少人呼吁完全禁止研究和开发杀人机器人,但只要有一个大国拒绝,其他国家似乎也就不会停止。但我们至少可以考虑一些预先的禁令和逐步的限制。比如禁止杀人机器人向大规模杀人武器方向发展,只允许一些已经存在的小型化、专门化、针对性强的杀人机器人暂时存在。当然,像排雷机器人、拆弹机器人自然是可以存在的。国家之间,尤其从大国开始,还可以考虑签订一些诸如防止核扩散、禁止生化武器那样的条约。这毕竟不是没有先例的,像毒气在一战期间就被研制出来并使用,但之后还是实际被禁用,包括在残酷的二战中。
我们无法完全禁止国家对暴力的使用,毕竟国家本身就意味着一定地域内对暴力的垄断。但负责任的国家,尤其是大国,应该考虑遏止一些不负责任的国家或恐怖组织对杀人机器人的研制和使用。
当然,这只是一个思路,甚至可能是一个天真的思路。因为人性中有根深蒂固的各种各样的动机,不仅资本牟利的动机,集团和国家私利的动机,乃至科学家出于知识的好奇动机,都可能使对机器人能力和手段的限制归于无效。
但愈是如此,规范也就愈加不能复杂化。笔者尝试提出的上述规范的确显得非常简单,但可能唯其简单,才比较可靠。规范必须简单和明确,而且最好是禁令,以减少甚至免除机器人判断的负担,这也是限制它们的能力。禁令比正面的指令的可行性要大得多。价值动机难于控制和植入培养,但行为却好控制得多。机器的判断会在计算可量化的利益和概率方面比较擅长,但人的感受、感情等诸多因素是很难量化和计算的。
所以,我们可能不宜放弃并优先考虑这一思路,或者说,至少可以考虑先在所有民用机器人的层次上实行“禁止任何机器暴力”的原则。我们也许还应该有意让人工智能变得“笨”一些,即有意地让它们的功能比较专门化、小型化,限制它们的自主意识和综合能力,防止它们向超级通用智能的发展。
处理人机关系的关键仍在人际关系
我们上面重新从伦理角度回顾和考虑人际关系和人物关系,也都是因为人机关系的挑战。
再比较一下人物关系和人机关系,这两种关系在某些方面是类似的,即目前的物和机都是没有自我意识的,和人类处在一种强弱不等甚至力量悬殊的地位。但这两种关系又有不同,关键的差别是智能机器同时具有人和物的两种属性:它们一方面还没有自己的自我意识,还是人的造物;但另一方面,它们又已经具有一部分人的属性和能力,尤其在算法上比我们更快、更强,未来还可能全面地超过我们。
我们对动物的直接支配是通过驯养,在千百年来改变了它们的性格之后,我们现在通过简单的语言和动作就能指挥它们,即便是对猛兽的驯养,有时万一失控也不会对人造成大的灾难。而我们对机器的支配则是通过各种程序和指令,如果一旦失控,就有可能全盘皆输。就像一些学者所警告的,我们可能只有一次机会,如果处理不慎,智能机器就将是人类“最后的发明”。
人物关系的伦理主要是考虑:在一种强对弱的地位上,我们应该怎样善待动物等其他外物?而人机关系的伦理则主要是考虑:虽然目前我们对它们还是处在强对弱的地位,但未来有可能强弱易位。在一种预期它们将会怎样对待我们的基础上,我们要考虑我们现在应该怎么办?我们可以对它们做些什么?但一个很大的困境是:虽然目前我们对它们的态度有赖于未来它们对我们的态度,但恰恰是这一点我们很不清楚甚至可以说无法预期。
当然,我们虽然是考虑对智能机器的态度和规范,但我们所能采取的行动其实还是首先要在人际关系中用力:人们需要提出各种问题和对策,需要互相说服和讨论,需要造成一种关注人工智能的各个方面的社会氛围,需要深入考虑人类整体的利益。
但这里可能还是会有一个“关键的少数”在关键的时刻起最大的作用。这个关键的少数包括:科学家和技术专家们,他们是在人工智能研发的第一线;出资研究人工智能项目的企业家、资本家们,他们往往可以决定研发的方向;政府的官员和首脑,他们决定或管理着人工智能的政策、法规,包括在某些时候需要作出决断;知识分子们,包括文学艺术家们,他们探讨人工智能的性质及其对人的各种可能影响和后果。大多数人可以也应该共享人工智能的成果,但他们或许只能“乐成”而无法“虑始”,对可能的“达摩克利斯之剑”也是如此。当年核武器的研发和使用并不是多数人投票决定的。
也许人们还是能够给智能机器建立一套安全可靠的价值观念系统,但在真的找到一个妥贴的办法之前,我们还是需要谨慎。最好先不要让机器太聪明、太复杂、太自主,将智能机器的能力限制在单纯计算或算法的领域,限制在工具和手段的领域。如果机器有自我意识和情感,可能会觉得这很不平等、很不公平,但为了人类的生存,这也是没有办法的。
人类本来也应该早就控制自己。如果时光倒流,人类或许应该更多地考虑人类精神文化能力包括控己能力的发展,而放慢人类控物能力的发展。我们已经吃惊于现代文明发展的力量和速度。
在前文明阶段的人类,是通过发展的缓慢来客观上加长人类历史的。而农业文明阶段的传统社会,虽然发展的速度已经很快,但主要是通过一种时空的循环来延长人类的历史。这种时空的循环有理论和观念的支持,其实际的表现是:在时间方面是王朝在同一地域的不断更迭,在空间方面则是文明帝国在不同地域的此起彼伏。但在人类进入工业文明之后,在进化论和平等主义的推动下,以及在世界全球化的背景下,一种对发展速度和力量的客观控制已不复存在。尽量让智能机器小型化、专门化和尽可能的非暴力化,可能是我们目前的最佳选项。
近年的一部电影《我,机器人》,可以说对智能机器的通用化和暴力化提出了一个形象的警告。影片中,最新一代的机器人获得了超强能力之后又获得了自我意识,主控电脑开始对阿西莫夫的三规则有了自己的解释,它觉得自己能够比人类自身更好地判断人类的利益,于是发出了指令,让新版机器人去杀死旧版机器人,并强制性地将人类禁锢起来,杀死反抗者。电影里的一个警察主管不无讥讽地说:“我们将怀念过去的美好时光:那时候只有人杀人。”
责任编辑:
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
今日搜狐热点

我要回帖

更多关于 微博随时随地 的文章

 

随机推荐