《人工智能》大神眼中的2019
请点击上面蓝字关注我们
对于人工智能这个领域,越是众说纷纭,越应该倾听大神的声音,这才能帮助我们排除外界的噪音和干扰,看清人工智能的未来走向。
人工智能有看好的,有唱衰的,但对这个问题,相信没有人比人工智能领域的顶级从业者更有发言权了。科技媒体网站VentureBeat最近采访了四位科技界大咖
这四位大咖,都是人工智能领域非常有份量的大人物,包括斯坦福大学的计算机科学系的副教授、全球人工智能和机器学习领域最权威的学者之一吴恩达、纽约大学计算机科学家杨立昆、埃森哲应用智能部的总经理鲁曼·乔德赫里,还有数据科学和机器学习咨询机构Fast Forward Labs的创始人兼CEO希拉里·梅森。
VentureBeat(互联网产业新闻博客)说,对于人工智能这个领域,越是众说纷纭,越应该倾听大神的声音,这才能帮人们排除外界的噪音和干扰,看清未来走向,这也是VentureBeat做这次采访的主要原因。
总的来说,在过去的一年里,最让四位大神惊讶的是,人们越来越清楚人工智能的能力边界在哪里,像电影《终结者》里表现的那种“人工智能威胁论”,已经没有多少人会当真了。
四位大神主要从两个方面进行了预测,一个是人工智能的学习方式,一个是人工智能的监管和应用,下面咱们就分为两部分来详细说一说。
| 三种最主要的机器学习方式
2019年,人工智能在学习方式上,主要有三个发展趋势,分别是少样本学习,自监督学习和因果学习。
我们先来说说所谓“少样本学习”(Few Shot Learning),它指的是,让人工智能用更少的数据,学会更强大的技能。
吴恩达说,目前机器学习的方法,主要是拿大量的数据来进行训练。比如说,你想开发一个智能语音识别系统,至少要拿出10小时的语音素材来训练人工智能,也就是说,训练素材和数据的量越大、花的时间越长,机器学习的效果就越明显,但是,这显然不是一个最高效的学习途径。
吴恩达发现,其实只要找对了方法,哪怕只用小规模的数据,也能获得有价值的结果。比如说,训练一个图像识别系统,不需要再拿上亿张图片来做训练素材,只用1000张图片也能达到预期的效果,这就大大节约了时间和成本,也降低了人工智能行业的准入门槛。所以,“少样本学习”,将会成为2019年人工智能学习方向的一个重要趋势。
再来说说,“自监督学习”(Self-supervised Learning)和“因果学习”(Establish Causal Relationships between Events),这两个趋势,一个说的是让人工智能自己来掌握事物的运作规律,另一个说的是让人工智能学会建立因果关系。
自监督学习跟人类的学习方式很接近,也就是通过观察和发现,来了解事物的运作规律。比如说,想让小孩子认识什么是“球”,不用给他看成千上万张“球”的图片,小孩子看过篮球和足球,自己就能总结出来,那种圆圆的、能滚动的东西,就是球。
而要让人工智能学会建立因果关系,就不仅是通过观察来学习了,还要能进行推理,比如说,看到有人打伞,就能推测出,外面可能在下雨。
自监督学习和建立因果关系,这两种能力组合到一起,就能让人工智能像人类一样,学会关于这个世界的常识了。
事实上,目前有很多公司都在做这方面的研究,杨立昆在2018年的,全球移动互联网大会上说,Facebook已经和微软、亚马逊等公司都达成了合作,会进行共同研究。还有硅谷的一些科技企业,比如说有一家叫Vicarious的公司,在这方面就进行了积极的探索,他们直接把人类使用的基本逻辑,用编程的方式告诉人工智能,比如说,物体具有保持自身原有运动状态的性质。再比如说,汽车开动时,乘客会向车后方向倒,就是惯性的表现。不过这种技术也有局限,还是要靠人来提前输入逻辑,而不是让人工智能自己摸索出来。
也就是说,人工智能在学习方面,所面临的挑战,同时也是未来的发展方向,就是利用少样本进行学习,在无监督的情况下,学会自己去归纳,推理,最终获得能够媲美人类的推理能力。而与技术发展相对应的,就是更广泛的监管和应用。
埃森哲应用智能部的总经理乔德赫里预计,在2019年,政府对人工智能,将会有更多的审查和监管,而其中,对于人工智能伦理的监管,将成为重中之重。
为什么呢?因为随着人与机器的边界越来越模糊,人工智能带来的伦理问题也一天比一天尖锐了,比如说,人工智能极大地提高了生产力,必然会带来财富的大幅增长,那么,如何才能对财富进行合理分配,而不会加剧阶级分化呢?
再比如说,儿童和人工智能的接触程度要有多深,才能既能让孩子享受到人工智能的好处,比如开发智力、提高学习效率、预防疾病等等,又不至于过度地依赖人工智能,甚至被人工智能所操纵?
另外,如何利用人工智能对现有的教育体系进行优化,但又保持学生的创造力和独立思考的能力?这些都是人类要继续探索解决的伦理问题。
其实这些问题,最近几年也是各大科技公司和学者所关注的焦点。像微软、IBM、谷歌,都成立了人工智能伦理委员会;谷歌AI中国中心前负责人李飞飞,在离开谷歌后,回到了斯坦福大学的人工智能实验室,她的主要研究的方向之一,就是新兴技术带来的哲学和伦理问题。
但是,意识到监管的重要性,只是一个开始,如何真正执行监管,才是真正的问题所在。对此乔德赫里认为,现在人工智能的核心技术,还都掌握在科技巨头的手里,这就给监管带来了很大的难度。比如说,怎样建立一个合理的监管体制,能够既不妨碍创新,又不偏袒大公司?监管的范围又如何界定,是按本地来算,还是按国家算,还是按照全球范围来算?这些都是现实问题。
在这些问题上,从政府到人工智能行业的领军者们,都做出了积极的尝试,比如联合国从2016年起,就开始发布《人工智能政策报告》,为各国提供政策建议,帮助各国政府,应对人工智能和技术发展带来的问题;而欧盟、德国、韩国等在人工智能研究方面领先的国家,也设立了伦理委员会,制定了人工智能的伦理规范,确保研究机构和制造商提供的是安全可靠的人工智能产品和服务。在2019年,这些在人工智能伦理监管方面的努力,也会带来更令人乐观的成果。
那么,在人工智能的应用范围上,大咖们又做出了什么样的预测呢?乔德赫里认为,在2019年,将会有更多的家庭开始使用人工智能产品,也就是说,人工智能将从“商用”进一步走向“民用”。其实现在很多人家里,都已经习惯使用智能音箱或者其他的智能设备了,那再进一步,会不会像科幻电影里描述的那样,出现机器人管家呢?
在这一点上,吴恩达博士想的更远,他认为,人工智能最大的发挥空间,是在技术和软件公司之外的行业,比如制造业、金融、医疗保健这些行业里,为这些行业带来更高的经济价值。
事实上,麦肯锡的报告也证明了这一点,这份报告认为,到了2030年,人工智能将会让全球GDP增加13万亿美元。
| 总结
看完今天的内容,当你和朋友再聊到人工智能这个话题的时候,你就可以说,人工智能虽然会成为未来科技的主流,但它也并非无所不能。
在2019年,人工智能将朝着这样一个方向发展:用少量样本就能掌握更强大的技能,甚至还可能拥有像人类一样的常识;不过,在人工智能发展的道路上,我们还会面临更复杂的伦理挑战,将会是一个长期难题。
就像文章里说的,越来越多的人理解了人工智能的能力边界,但计算机和数据科学家,仍然需要以负责的道德标准,去推动人工智能发展。
在4位大神的预测中,你最看好人工智能的哪一个发展方向?
转载自百家号作者:核心资讯
尊重原创,转载请指明
想学习AI相关知识
请点击下面海报内二维码
相关文章
一篇PPT全面了解人工智能(AI)的现状与未来
--end--
声明:本文章由网友投稿作为教育分享用途,如有侵权原作者可通过邮件及时和我们联系删除:freemanzk@qq.com