人工智能无处不在,比如现在已经有了智能搜索、智能推荐、自动驾驶、仓库机器人、AI助手、人脸安防、机器翻译、AI作画作曲作新闻等等。
我们经常跟风说着人工智能,但是有没有仔细想过这样的问题:
以下内容由chenqionghe倾情总结~
比如下围棋、人脸识别、自动驾驶
这是一种仿生学的思路,模仿大脑神经元对刺激的处理和传播过程,
早在通用电子计算机出现之前,科学家们就提出了有关神经元处理信息的假想模型。
人类大脑中的数量庞大的神经元共同组成一个相互协作的网络结构,信息通过若干层神经元的增强、衰减或屏蔽处理后,作为系统的输出信号,控制人体对环境刺激的反应。
深度神经网络内部,每层神经元的输出信号可能相当复杂,复杂到编程者并不一定清楚这些中间信号在自然语言中的真实含义,但是这不重要,重要的是整个模型可以聪明地工作,最终结果看起来就像人做的一样。
人的智慧离不开长大成人过程里的不间断学习。今天最典型的人工智能可以被看成是模拟了人类学习和成长的全过程。
感知环境,做出合理的行动,获得最大收益的计算机程序
计算机通过反复训练数据,总结出规律,就叫“机器学习”。比如:反复看图,学会认字。
相关专业术语:
深度学习是基于多层神经网络的机器学习模型,有两个最基本前提:
模拟人类大脑中的神经元相互协作的网络结构,信息通过若干层神经元的增强、衰减或屏蔽处理后,作为系统的输出信号
可以用通俗的水管网络例子理解
一、比如我们要识别汉字“田”
二、比如我们再识别汉字“申”
三、识别另外的字
当大量识字卡片被这个管道网络处理,所有阀门都调节到位后,整套水管网络就可以用来识别汉字了。这时,我们可以把调节好的所有阀门都“焊死”,静候新的水流到来。
指导深度学习的基本是一种实用主义的思想,要理解更复杂的世界规律,就不断增加水管网络里可调节的阀门的个数(增加层数或增加每层的调节阀数量),让计算机在拼命调节无数个阀门的过程中,学到训练数据中的隐藏规律。
有史以来最有效的机器学习方法,竟是一个只可意会、不可言传的“黑盒子”。
如果人们只知道计算机学会了做什么,却说不清计算机在学习过程中掌握的是一种什么样的规律,那这种学习本身会不会失控?
现在我们的人工智能可以理解成一个巨大的Excel表,通过深度学习黑盒计算得出一列新的数据,它是单一领域,弱的人工智能。
我们离强人工智能还差得很远,但是可预知的是。强人工智能一旦出现,人类就必须认真考虑自己的命运问题了,因为从强人工智能“进化”到超人工智能,对机器而言,也许只是几个小时的事情。
因为一个可以像人一样学习各种知识的计算机,它一定有这样的特点
一个有着和人一样思考水平的机器,同时有着比人快无数倍的思考速度以及几乎无限的记忆空间,这样的机器几乎比人类所有科学家都厉害!
它可以借助比人类强大得多的计算资源、网络资源甚至互联网知识库以及永不疲倦、不需要吃饭睡觉的特点,无休止地学习、迭代下去,并在令人吃惊的极短时间内,完成从强人工智能到超人工智能的跃迁!
它一旦出现,我们人类肯定是会毁灭的。
霍金说
人工智能可以在自身基础上进化,可以一直保持加速度的趋势,不断重新设计自己。而人类,我们的生物进化速度相当有限,无法与之竞争,终将被淘汰。
埃隆·马斯克说:
我们必须非常小心人工智能。如果必须预测我们面临的最大现实威胁,恐怕就是人工智能了。
人类强大的跨领域联想、类比能力是跨领域推理的基础
一个三四岁的小孩子看一辆自行车之后,再见到哪怕外观完全不同的自行车,小孩子也十有八九能做出那是一辆自行车的判断。
而目前的计算机视觉系统辨别出什么是自行车,需要至少数百万张或更多自行车的照片后,才能识别,这种需要大量训练照片的学习方式看上去还比较笨拙。
人类的学习过程往往不需要大规模的训练数据。人类可以用自己卓越的抽象能力,仅凭少数个例,就归纳出可以举一反三的规则、原理,甚至更高层次上的思维模式、哲学内涵等。这一差别给人类带来的优势是全方位的。
人类基于实验和科学观测结果建立与发展物理学的历程,是“知其然,也知其所以然”的最好体现。
而人工智能技术,经验的成分比较多。输入大量数据后,机器自动调整参数,完成深度学习模型,在许多领域确实达到了非常不错的效果,但模型中的参数为什么如此设置,里面蕴含的更深层次的道理等,在很多情况下还是个黑盒。
人的常识,是个极其有趣,又往往只可意会、不可言传的东西。
比如:即使两岁孩童也能理解直观的物理过程,比如丢出的物体会下落。人类并不需要有意识地知道任何物理学就能预测这些物理过程。但机器做不到这一点。
我们每个人头脑中,都有一些几乎被所有人认可的,无须仔细思考就能使用的知识、经验或方法。(康德的先天经验)
很难说清到底什么是自我意识,但我们又总是说,机器只有具备了自我意识,才叫真的智能。
我们在自己的宇宙中,只发现了人类这一种具有自我意识的生物。
茫茫宇宙,尚无法找到如《三体》中所述的外星智慧的痕迹。这一不合常理的现象就是著名的费米悖论。
《三体》用黑暗森林理论来解释费米悖论。而费米悖论的另一种符合逻辑的解释就是,
人类其实只不过是更高级别的智慧生物养在VR实验室里的试验品而已,人类的所谓自我意识,也许不过是“上帝”为了满足我们的虚荣心而专门设计的一种程序逻辑。
审美能力是人类独有的特征,很难用技术语言解释,也很难赋予机器。
审美能力并非与生俱来,但可以在大量阅读和欣赏的过程中,自然而然地形成。
虽然机器已经可以依照人类的绘画、诗歌、音乐等艺术风格,照猫画虎般地创作出电脑艺术作品来,但机器并不真正懂得什么是美。
审美是一件非常个性化的事情,不同的人心中有自己一套关于美的标准,但审美又可以被语言文字描述和解释,人与人之间可以很容易地交换和分享审美体验。而这种神奇的能力,计算机目前几乎完全不具备。
审美能力明显是一个跨领域的能力,每个人的审美能力都是一个综合能力,与这个人的个人经历、文史知识、艺术修养、生活经验等都有密切关系。一个没有多少经历的年轻人都尚且感受不到那些文学、诗词、音乐绘画中传达的情绪,何况还要让计算机学会?
欢乐、忧伤、愤怒、讨厌、害怕……每个人都因为这些情感的存在,而变得独特和有存在感。
情感是人类之所以为人类的感性基础。机器目前没有这种情感,所以那些基于人文的关怀的服务,也是机器暂时替代不了的。
简单说,这个时代,通才比专才更有竞争力,更不容易被AI淘汰。
人和今天的AI相比,有一个明显的智慧优势,就是举一反三、触类旁通的能力。
人工智能时代,程式化的、重复性的、仅靠记忆与练习就可以掌握的技能是最没有价值的,几乎一定可以由机器来完成。那种单一领域的钉子是最容易被替代的,比如:律师、保安、客服、司机等等。
未来的生产制造行业将是机器人、智能流水线的天下。人类再去学习基本的零件制造、产品组装等技能,显然意义不大。人类的特长在于系统设计和质量管控,只有学习更高层次的知识,才能真正体现出人类的价值。
那些最能体现人的综合素质的技能,例如
这些才是人工智能时代最有价值的,最值得培养和学习的技能。
举例来说
最后用一句科幻作家、雨果奖得主郝景芳的话结束总结
很显然,我们需要去重视那些重复性标准化的工作所不能够覆盖的领域。包括什么呢?包括创造性、情感交流、审美、艺术能力,还有我们的综合理解能力、我们把很多碎片连成一个故事这样的讲述能力,我们的体验。所有这些在我们看来非常不可靠的东西,其实往往是人类智能非常独特的能力