加入收藏 | 设为首页 | 会员中心 | 我要投稿 广安站长网 (https://www.0826zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 外闻 > 正文

这是人干的事儿?

发布时间:2021-02-10 15:06:05 所属栏目:外闻 来源:互联网
导读:今年是该年度报告的第三期,由Nathan Benaich 与 Ian Hogarth 代表剑桥大学总结了过去一年的 AI 趋势。 和往年一样,该报告援引的数据来自知名科技公司和研究小组。新版 AI 全景报告全方位总结过去一年来 AI 领域的研究成果与突破、人才形势、产业动态等,并

今年是该年度报告的第三期,由 Nathan Benaich 与 Ian Hogarth 代表剑桥大学总结了过去一年的 AI 趋势。

和往年一样,该报告援引的数据来自知名科技公司和研究小组。新版 AI 全景报告全方位总结过去一年来 AI 领域的研究成果与突破、人才形势、产业动态等,并作出未来预测。

报告显示,在美国工作的顶尖 AI 人才中,27% 有中国教育背景,但他们在毕业后有 54% 会去美国攻读研究生博士,这其中又有 90% 选择留美工作。

如果您想获得本报告的全文 pdf,请在雷锋网(公众号:雷锋网)微信公众号回复关键词“ 1010报告”提取。

文档来源:剑桥大学

一、人工智能研究进展:只有 15% 的论文会公开代码,PyTorch 超越了 TensorFlow

1、开放性不足

AI 研究的开放性并没有我们想象的那么高,只有 15% 的论文会开源他们的代码。
 

冯·诺依曼架构中数据储存和计算分离,这就好比信息存储在甲地,要计算的时候却得把信息搬到乙地去,算完了再搬回来。但搬运的速度要远远低于计算的速度,反而让搬运本身成为麻烦。”潘纲说,“存储墙”在大数据时代已让计算机性能提升难于施展,如果要从事人工智能等高耗能计算,计算机还会撞上“功耗墙”。

在数据成为基础性战略资源,计算能力成为国家综合实力重要量度的当下,计算机发展如何实现颠覆性创新,成为今日各国科学界“兵家必争之地”,借鉴人类大脑,尤其成为探索焦点。美国出资1亿美金资助IBM和荷美尔(HRL)的研究团队发展拟态神经网络计算;德国海德堡大学等高校积极布局类脑计算机……浙大团队,正在努力追赶上来。

3. 类脑计算如何演化?

如果房间里有一只不请自来的小老鼠,那可是件令人头疼的事。它可能来无影去无踪,偷吃食物不说,还能精准绕过人们设下的陷阱。一台和小鼠大脑神经元运算规模一致的类脑计算机,“智力”能达到什么水平?

在浙大项目的实验中,类脑计算机展示了多方面的能力,比方说指挥机器人完成“抗洪救灾”模拟任务。在实验现场,半月谈记者看到三台机器人在计算机调度下各司其职,1号机器人自带摄像头,在场地来回巡逻,一旦发现堤坝缺口,便呼叫负责工程维修的3号机器人前来修坝;发现倒在地上的人体模型后,就呼叫负责救援的2号机器人……
 

简单说来,大脑神经元的工作机理可以理解为,随着神经元接受输入脉冲,其细胞体的膜电压升高,当达到特定阈值时,会发出一个输出脉冲到轴突,传递到邻近神经元,实现信息的传递。信号来时方启动,没有信号不运行。”项目研究骨干、浙江大学副教授马德说,类脑计算机工作原理提炼自生物神经元的“日常生活”,相较于传统计算机,能耗显著降低,效率大为提升。

为了让大量神经元高效联动,令杂乱无章的信息流得以有序分配,科研人员还专门研发了达尔文类脑操作系统。目前该系统的功能任务切换时间已达微秒级。

2. 颠覆传统的“大块头”

相较于我们日常使用的小巧轻便的各类电子计算机,今天的类脑计算机还是个“大块头”。但科学家们表示,如果用电子计算机的历史来衡量,类脑计算机现在还处于一切草创的“埃尼阿克”(ENIAC)阶段,随着芯片及其他硬件的不断迭代升级,类脑计算机“减重”指日可待。

电子计算机传统上仰赖长于数值计算的冯·诺依曼架构,然而,随着摩尔定理逐渐失效,这一架构的局限日益明显。从存储到功耗,以至于智慧水平,有前瞻性的科学家已经看到了它的“瓶颈”。

(编辑:广安站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读