人工智能的思考,人工智能的思考2000字论文

admin7个月前34

文章目录:

关于人工智能的想法

人工智能未来可能人工智能的思考的两个方向,一是成为独立的思维体,甚至会作为一个全新的物种,比人类更高级的物种,像现在的我们看其它动物一样来看我们。二是本质上还是人类的工具,虽然有独立的思维,但无法脱离人类的控制,无法独立于人类存在。

前者的不确定因素太多,相当于把全人类的命运交到它们手中,任由它们摆布。

人工智能的思考,人工智能的思考2000字论文

它们杀死我们,甚至让人类灭绝,可能就像我们人类一时起兴踩死几只蚂蚁一样,捕杀一些动物到绝迹一样。

这种情况人类不愿意看到,也会尽量避免去让它发生。这种情况,可以类比现在全球基本上统一的一个观念,不能克隆人。像前段时间的“艾滋病基因编辑婴儿”的出世,遭到了国内外各方的强烈谴责一样。

因而,除了少数比较疯狂的科学家,人类不会让人工智能成为一个完美的存在,而是给它们留下一些特定的缺陷,给人类留一道保险让其成为后一种情况。

而后一种情况的实现,需要从人工智能的设计开始。

人类较可能的做法,也就是较可能用来对付人工智能的终极武器,是在所有人工智能的程序中统一植入一个病毒或者设定(较好的情况是,全人类保密,所有的人工智能都不知道自己有这个缺陷),一旦人工智能处于某个状态,比如识别到它准备伤人,就会自动触发辩庆,人工智能的“意识”、“行动能力”等被强制销毁,然后它就会定在哪里。当然早期很有可能的是,人类拿着遥控来进行监督控制。(自爆的设定不太可能,因为可能会危及到人的安全)

人类还会有专门的武器对付不在控制范围内的人工智能。因为如果未来还有恐怖分子,不排除他们可能改造人工智能来协助犯罪。可能的武器类型会是电磁干扰、电磁屏蔽等,破坏它较关键的部位(核心芯片、主板或其他),让它失去行动能力。

相对较近的未来,可能每台人工智能配一个人来监督,这个人可能是拥有者,也可能仅仅是是专业人员,这个不好确定。而且,可能会有一个设定,一个人工智能机器人离开其监管人(或者拥有者)为中心的一个范围,它就会失去行动能力,甚至是失去“意识”,自动销毁等(这里的销誉胡毁不是指爆炸之类的,而是内部程序或其他的自行销毁,就好比突然让人心跳停止、大脑枯竭、中枢神经系统严重损伤等一样)。

未来关于人工智能,还将会有不少严格的规定,相关的法律法规,严格监管对人工智能的使用,甚至还会有不少对人工智能的使用方面的条文列入刑法。

现在不少人在担心人工智能会大规模运用于生产活动中,引发大规模的失业、找不到工作等问题,以致社会动荡不安。

我觉得在将来的很长一段时间都不必太过担心,而且对于个人的提升,社会整体文化、素质、能力的提升,以及社会生活水平的的提高有很大的促进作用。

从企业方面来说,未来大规模运用人工智能机器人,极大地提高了生产效率、增加生产的时间,然后很多产品的价格就便宜下来,提高人们的生活水平。就像还没有电解制铝的手段之前,铝制餐具是贵族、王族的专属用品,而现在有了这个手段,平常老百姓都可以随便使用铝制餐具了。

从个人方面来说,企业大规模使用人工智能,会促使个人不断去学习,去提高自己的某些能力。在将来比较长携虚握的一段时间内,企业大规模运用的人工智能,大多都是体力方面有优势。考虑到成本,未来的人工智能会趋向于专门化,像阿尔法狗、小冰这样偏思维层面的人工智能,不会去赋予它们体力型人工智能的力气,反之亦然。而企业,特别是一些工厂对人工智能的大规模使用,往往是偏向于体力活。人类在体力方面比不过这些人工智能,为了生存,人类会不断学习,不断提高自己脑力方面的能力,参与一些需要经过思考,需要有一定思维能力等能力才能做好的工作,从而整体上提高了人们的文化素质。那些思维懒惰,不想努力,只想做着简单工作混日子的人,会被社会所淘汰,无法生存于社会。

这就像大自然捕食者和被捕食者的共同进化一样,捕食者想生存,就要跑得更快一点才能捕到猎物,而被捕食者想要生存,也要跑得更快一点,才能逃脱天敌的虎口,然后捕食者和被捕食者共同进化,都拥有很强的奔跑能力,不相上下。而那些不想跑得、跑得慢的,要么被饿死,要么早早地被天敌吃掉。

再者人有人工智能无法给的东西,比如人文情怀,比如感同身受,有人工智能没有的优势。如果你去一家餐厅,你希望为你点餐的是一位热情洋溢的服务员,还是一个冰冷的人工智能机器人呢?

所以,我们大可不必为人工智能会取代人类的某些岗位而担心,而是不断去学习,不断提升自己的能力,成为人工智能无法替代的存在。

对人工智能的认识和理解

对人工智能的认识和理解是它可以完成人类羡腊穗可以完成或完不成的事或物,

1,人工智能就是机器可以完成人们不认为机器能胜任的事。是将人类现有的作业流程、作业内容、作业标准都实现智能化升级,帮助人类更兄卜高效、更准确、更省成本、更安全的完成现有工作内容。

2,人工智能既可以根据环境感知做出主动反应,又强调人工智能所做出的反应必须达致目标,同时,不再强调人工智能对人类思维方式,或人类总结的思维法则(逻辑学规律)的模仿。

3,针对人工智能,不同的定义将人们导向不同的研究或认知方向,不同的理解分别适用于不同的人群和语境。如果非要调和所有看上去合理的定义,我们得到局橘的也许就只是一个全面但过于笼统、模糊的概念。

人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。

如何理性的看待人工智能?

人工智能是一个繁荣发展的领域人工智能的思考,它的出现给我们的生活带来了很多便利,但同时也引起了人们的关注和担忧。要理性看待人工智能,我们需要从以下几个方面来思考。

首先人工智能的思考:我们应该看到人工智能带来的便利。随着科技的不断发展,人工智能已经融入到我们的生活之中。比如在家居领域,人工智能技术可以使家庭更加智能化,比如智能家居物联网系统可以让我纳纳们远程操控家中的电器设备;在医疗领域,人工智能技术能够帮助医生更加快速准确地诊断疾病;在工业制造领域,人工智能技术可以使生产更加高效。这些应用给人们的吵伏生活和工作带来了很大的便利,可以让我们更好地利用时间和精力。

其次:我们要认识到人工智能也带来了一些社会问题。自动化设备的出现使许多工作岗位逐渐被机器取代,这对一些从事体力工作的人来说可能会失去工作机会。此外,人工智能的技术也可能被滥用,比如用于侵犯个人隐私、制造虚假信息等。但这并不意味着我们应该反对人工智能技术的发展,而是应该对其进行规范和监管,确保其合法、安全、有效地运用。

较后:我们还需要认识到人工智能本身并没有好坏之分,它只是一种技术手段。如何利用人工智能技术,关键在于人类的价值和决策。我们应该以人类的利益和社会发展为出发点,来探讨如何合理利用人工智能技术,让其更好地服务于人类。

总之:理性看待人工智能需要我们看到其带来的便利,认识到其可能带来的问题,并以洞碰没人类的利益和社会发展为出发点,来探讨如何合理利用其技术。只有在这样的基础上,人工智能技术才能更好地发展,真正地为人类带来更多的福利和发展。

对人工智能的一些不成熟思考

一,计算的本质与智能的本质。

《类脑智能研究的回顾和展望》指出,现有人工智能系统通用性较差与其计算理论基础和系统设计原理有密不可分的关系。计算机的计算本质和基础架构是图灵机模型和冯诺伊曼体系结构,其共同的缺点是缺乏自适应性。图灵计算的本质是使用预定义的规则对一组输入符号进行处理,规则是限定的,输入也受限于预定义的形式。图灵机模型取决于人对物理世界的认知程度,因此人限定了机器描述问题,解决问题的程度。而冯诺伊曼体系结构是存储程序式计算,程序也是预先设定好的,无法根据外界的变化和需求的变化进行自我演化。总结来看,计算的本质可以用一个数学公式f(x)=y来表达,是问题求解的范畴。

那智能的本质是什么?如何表达?著名信息论和人工智能专家钟义信给了一个探讨性的定义:智能一定是在环境的作用下,人跟环境相互作用,不断的去学习,不断的去进化,在这个过程当中展开了智能的活动。反之,如果没有这种主体跟客体的相互作用,如果一切都是十全十美,如果不需要做出任何的改进,那就不需要思考、不需要学习,也就不需要智能。所以,一定要在主体跟客体相互作用过程当中来考察智能才有意义。李衍达院士在《 沿Simon 开拓下去》的报告中探讨了智能的功能与智能的机理问题,指出基因的层次没有鸿沟,人薯告和所有生物的机理是相同的,区别的是进化:自动适应外界变化而优化自身结构的功能。而且人脑在进化过程里面通过DNA的改变,改变了神经元的连接,这个连接既记录了学习的结果,又优化了学习算法。既简化了所需要的元件,又节省了能耗,非常巧妙。

第二,关于程序员转型。

和一个问题有关,我们都是学习图灵机模型和数宴明冯诺伊曼架构长大的,思维方式相对固定。深度学习今年非常火爆,程序员又要开始转型。关于转型,我注意到几个论调:

以上我都不太认同,人类是万物之灵,遇到新问题,学习新东西,再正常不过的事情,何来转型之说?如果非要说有什么需要转变,我觉得是到思维方式的转变:

第三,脑复杂?还是环境复杂?

傅小兰在《Simon与认知科学研究》报告中提到了《分布式认知》,指出认知现象在认知主体和环境间分布的本质:认知既分布于个体内与个体间,也分布于媒介、环境、文化、社会和时间等之中(Cole Engestrom, 1993)。Herbert A. Simon 也指出,一个人,若视作行为系统,是很简单的。他的行为随时间而表现出的表面复杂性主要是他所处环境的复杂性的反映。人——或至少人的智力要素——也许是比较简单的,人的行为的复杂性也许大半来自人的环境,来自人对优秀设计的搜索,因此,“在相当大的程度上,要研究人类便要研究设计科学。它不仅是技术教育的专业要素,也是每个知书识字人的核心学科”。

第四,从上而下还是从下而上?

人工智能从上而下研究的开创者和代表人物是Herbert A. Simon,他当时想到,人的大脑活动是分层次的,在底层的机理没有搞清楚时,他认为也不妨碍对于高层概念、推理、问题求解层次进行研究。符祥弯号学派就是自上而下的典型代表,但至今符号学派一直受到自下而上的连接主义压制。自下而上的代表是日本的第五代计算机计划,东京大学元岗达教授提出“第五代计算机的构想”,随后日本制定了研制五代机的十年计划,总预算达4.3亿美元。以渊一博为所长的“新一代计算机技术研究所”苦苦奋战了近十年,他们几乎没有回过家,近乎玩命式的拼搏;然而,由于没有突破关键性技术难题,无法实现自然语言人机对话,程序自动生成等目标,较终于1992年宣告失败!这或许也是图灵机模型和冯诺伊曼架构的失败。然而,峰回路转,得益于分布式计算和大数据时代,深度学习成为主流的自下而上方法。近五年来,深度学习在“视”、“听”、“说”等领域取得了的巨大成功,但这还不能表明自下而上的胜利或者神经网络模型的正确。神经网络只是从下而上对大脑的粗糙模拟和抽象,是否是正确的大脑学习隐喻还不得而知。但神经网络的成功又引发了一些自下而上的尝试,据称IBM有一个名为“突触”的项目,研究芯片级类脑计算设备,支持低频率,低功耗,和大量链接等神经网络功能。

第五,鲁棒性?可解释性?魔术性?

这几个问题是现在机器学习,特别是深度学习面临的主要问题。人类犯错:水平从九段降到八段,机器犯错:水平从九段降到业余,这就是鲁棒性。鲁棒性要求,“好的时候”要好,“坏的时候”不能太坏。在封闭静态环境中,重要因素大多是“定”的,而在开放动态环境中,一切都是变的,开放环境的鲁棒性,这也是自动驾驶面临的困难所在。关于可解释性,也被称为深度学习的黑箱模型。若学习器不能给出治疗理由,则难以说服患者接受昂贵的治疗方案。若学习器不能给出停机检测的理由,则难以判断停机检测的风险和代价。这些案例都需要机器学习的模型给出解释,否则难以应用到难以用于高风险应用。而机器学习魔术性是指即便相同数据,普通用户很难获得机器学习专家级性能。就是专家之间,是特别考验团队实力的,也有一点运气在里面。门派都一样,功力不一般。

第六,目前的研究热点和我的方向。

深度学习是很火的,不过周志华说的很中肯:“深度学习中间还有很多困难而又重要的问题值得深入研究,但这些真正值得研究的问题,就我看到的情况而言,好像做的人非常少。大多数人在干什么呢?拿它做做应用,调调参数,性能刷几个点,然后发几篇文章。这样虽然容易发表文章,但恐怕很难产生有影响的成果。” 另外,周志华在引领集成学习的发展方向,CCAI17可以看到一些方向,香港科技大学计算机系主任杨强谈到的迁移学习,日本理化学研究所杉山将谈到的弱监督机器学习等。我的计划是,从历史中观其大略;感知机,神经网络,反向传播,深度学习是一条线,已经是备的基础了;然后向增强学习发力;在技术上打通分布式系统,大数据和机器学习;在业务和需求上结合金融场景。

第七,已知和未知。

我们参考神经生理学,研制了神经网络和深度学习,并且取得了良好的效果。有人指出,大脑的生物物理结构,机制和功能只是大脑处理信息过程中的印记,其中很少一部分可用于有意识的思想(认知)。在学习未知的过程中,我们对学习到底了解了多少?在未知的区域里,既有要学习的对象,也有学习本身。

参考文献:

《人工智能走向2.0》 潘云鹤

《类脑智能研究的回顾与展望》曾毅等

《脑启发计算》苏中

《机器学习》序言 陆汝钤

《机器学习:发展与未来》周志华

《H. A. Simon学术生平》林建祥

《Simon的认知科学思想》傅小兰

《人工智能--螺旋上升的60年》高文院士

《沿Simon 开拓下去》李衍达

《塞蒙终生学术经历简介》林建祥

《人工智能的历史》中国人工智能学会

《司马贺的创新之路》史忠植

《弘扬Simon学术思想 》钟义信

《探寻大师足迹,一览马文•明斯基学术风采》史忠植

《站在巨人的肩膀上,从人工智能与认知商务》苏中

《弘扬 Simon的源头创新精神开拓“AI”的新理念新路径》钟义信

人工智能的思考,人工智能的思考2000字论文

《独家 | 周志华:深度学习很有用,但过度追捧就有危险了》AI科技大本营

度玩小站 https://www.feisul.cn/ai/1860.html 转载需授权!