Hennessy和Patterson于2018年6月23日(周六)在加州旧金山举行的ACM年度颁奖晚宴上正式接受2017 ACM A.M.图灵奖的颁奖。ACM主席Vicki L. Hanson说:“他们基于RISC的高能效处理器的贡献使得移动和物联网革命成为可能。过去的25年里,他们开创性的教科书影响了一代又一代的工程师和计算机体系结构设计师。”
AI的开放平台和普惠AI,促成了我们对AI安全性的关注。
Open AI平台
Sutskever最初硏究的序列建模应用于语音,文本和视频,非常实际的应用就是机器翻译。2014年,Sutskever与谷歌研究员共同提出Seq2seq学习(Sequence to Sequence Learning)。还使循环神经网络(RNN)应用于AI语言任务。他又加入了Google开源库TensorFlow(世界上最流行的机器学习系统)的开发,将它用于大规模机器学习,还用数据流图来描述计算并与各种计算设备连接(CPU,GPU和定制设计的ASIC、称为张量处理单元的GoogleT)。在谷歌,Sutskever协助DeepMind的研究人员开发“AlphaGo”,展示出超越人类的强大的智能。
OpenAI
他意识到人类需要一个组织,一个非营利组织实现人工智能的使命。于是,在2015年12月Sutskever和GregBrockman(现为OpenAI首席技术官)共同创立了OpenAI,目标是“以最有可能造福人类的方式推进数字智能并使之成为一个整体”。他们创建了一个名为Universe的软件平台,用于测量和训练全球各地的人工智能系统,旨在让机器人学习不同的策略。
关于AI的安全性
史蒂芬·霍金(物理学家):我们现有的人工智能初始形态确实对我们有帮助,但我认为人工智能的全面解放会给人类写下绝笔。
埃隆·马斯克(特斯拉CEO):人工智能是对人类文明的根源性威胁。
比尔·盖茨(微软创始人):我认为对人工智能有所忌惮是对的,但我不认为我们在发展人工智能后,它就一定会和人类发展背道而驰。
人工智能安全研究也属于OpenAI研究的范畴。两年前,OpenAI列出了许多关于确保现代机器学习系统按预期运行的研究问题。
Tegmark也指出:“现在,觧决AI安全问题非常困难,或许需要30年才能攻克,而且我们必须现在就开始着手解决它们。” Tegmark创办的“未来生命研究所“发起抵制AI武器化的行动,包括马斯克和哈萨比斯在内的2000多名AI学者在斯德哥尔摩IJCAI上签署宣言,让AI的安全性话题再度受到关注。
伦敦大学学院(UCL)计算机科学系教授汪军也指出,普惠AI的安全性包括两个层面。第一个层面是鲁棒性,即在特殊环境中使用AI是不是比较好。其次才是通常意义上讲的安全层面。
普惠的AI
信息化之后必然的趋势是智能化。数据流转分享、算法成本下降,算力安全可靠,才能使AI普惠。