在刚刚结束的CCF-GAIR大会上,来自清华、加利福尼亚大学伯克利、斯坦福、哈工大等国内外一流理工科大学的院士聚集在深圳,分享了自己的最新研究.各自研究的细分领域不同,通过贯穿始终的技术演讲,很多院士直接或间接地学习算法是不可避免的.在演讲中,他们再次明确指出深入学习的缺陷,进一步指出,在可以预见的未来,随着研究的推进,现在的深入学习算法逐渐被拉下神坛.
.但是,随着学术界的进入产业应用,产业界的关注点是技术的落地.落地,本质上是无数应用场景的合.因此,对AI企业来说,探索业务,用适当的技术解决实际问题是最好的.因此,深入学习有缺陷,这个问题短期内不会妨碍AI现在不可阻挡的发展趋势,技术的限制也不意味着AI公司们什么也做不了.但阳春白雪的研究始终领先于AI产业的技术方向,也是企业利益和产业变革的重要驱动力.因此,在深入学习被过度炒鱿鱼的现在,我们应该站在院士们的肩膀上,看得更远.企业家们在踏实的同时,也不要忘记仰望星空.这已经不是新鲜的话题了,但业内没有解决问题的方法.让我们看看人工智能的缺点.
.1.人工智能正在为你的工作而来.为了保护你的职业,最好做机器不擅长的工作.例如,与人有关,无法预测,需要创造力的工作.我们必须避免在可预见的环境中自动消失的重复性和结构化工作.例如,电话销售员、仓库工人、收银员、列车员、面包师、生产线厨师等.货车、公交、出租车、uber/lyft的司机可能很快就会被取代.除此之外,还有很多职业(包括律师助理、信用分析师、贷款官、记账、税务会计),虽然没有被列入将被替代的名单中,但大部分工作都是自动化的,所以需要更少的人力.
.2.失业可能是一生的假期.人工智能的进步,不仅可以为所有人创造一个奢侈的休闲社会,也可以为不能就业的大多数人带来前所未有的痛苦,这取决于人工生产的财富如何征税分享.
.3.***手机器人不是虚构的.我们即将在人工控制的武器上发起失控的军备竞赛,这可能会削弱当今大国的军事力量,因为它可以让每个人都有一台便宜便捷的暗***机,包括恐怖组织.人工智能研究人员对此表示反对,希望达成国际人工智能武器控制条约.
.4.机器没有智商.智力需要完成复杂的目标.不能用智商等数字量化.因为有机体和机器擅长不同的东西.
.5.人工智能越来越广泛.现在的人工智能主要是狭义的智能,也就是完成象棋和驾驶等小目标的能力,其表现有时比人好.相比之下,人类拥有真正的智力,即完成任何目标的能力,包括学习.人工智能的最终发展目标是通用人工智能,即人类完成任何智能任务的能力.许多领先的人工智能研究者认为我们离AGI只有几十年.
.6.人工智能可能会让我们远远落后.正如英国数学家Irvingj.Good在1965年说明的,无论多么聪明,超智能的机器都被定义为远远超过人类智能活动的机器.机器设计是智能活动,超智能机器可以设计更好的机器.毫无疑问,这将是一场智力爆炸,人类的智力将远远落后.因此,靠前台超智能机器是人类需要制造的最后一项发明,前提是机器足够温顺,告诉我们如何控制它.
.7.我们还没有达到计算的极限.自从我奶奶出生以来,电脑的成本大幅度下降.如果一切都变得更便宜,那么1%的钱就可以让你购买今年地球生产的所有商品和服务.摩尔法则决定了我们在二维硅片上移动电子的成本是多少,一旦进入这个平台,我们就可以尝试许多其他的硬件解决方案,比如使用三维电路,使用电子来完成我们的招标.我们仍然比物理法则的极限计算低100兆倍.
.8.人工智能可以帮助人类繁荣.因为人类文明的每一件事都是智能化的产物,所以我们可以通过人工智能放大自己的智慧,帮助生命像以前一样蓬勃发展,解决我们最棘手的问题,从疾病到气候变化等.
.9.人工智能带来风险.好莱坞对机器有意识和邪恶的恐惧是转移注意力的行为.真正的顾虑不是恶意,而是能力.超人工智能的定义是非常善于实现目标,无论是什么,都需要确保目标与目标一致.人类一般不讨厌蚂蚁,但我们比它们聪明得多——所以如果我们想建一个水电站,那里就有蚂蚁丘,这对蚂蚁来说简直太糟糕了.
.10.我们需要人工智能安全研究.为了确保人工智能对社会的影响日益增强,同时还需要更多的人工智能安全研究.例如,如何将今天漏洞百出的电脑变成真正可靠、强大的人工智能系统?如何让机器学习、接受和保留目标?
.这些都是有挑战性的问题,可能需要几十年才能回答,所以现在要开始研究,确保在需要的时候能找到答案.但是,相对于花费数十亿美元使人工智能更加强大,至今为止各国***几乎没有资金用于人工智能的安全研究.
.TAG:人工智能的弊端