当前位置: 首页 » 新闻资讯 » 最新资讯 » 正文

哈佛开发计划成全新光学仪器CPU可视高效“厚度进修”

分享到:
放大字体  缩小字体    发布日期:2021-07-07  来源:仪器网  作者:Mr liao  浏览次数:39
核心提示:美国麻省理工学院(MIT)科学家在6月12日出版的《自然·光学》杂志上发表论文称,他们开发出一种全新的光学神经网络系统,能执行高度复杂的运算,从而大大提高“深度学习”系统的运算速度和效率。  “深度学习”系统通过人工神经网络模拟人脑的学

  美国麻省理工学院(MIT)科学家在6月12日出版的《自然·光学》杂志上发表论文称,他们开发出一种全新的光学神经网络系统,能执行高度复杂的运算,从而大大提高“深度学习”系统的运算速度和效率。

  “深度学习”系统通过人工神经网络模拟人脑的学习能力,现已成为计算机领域的研究热门。但由于在模拟神经网络任务中,需要执行大量重复性“矩阵乘法”类高度复杂的运算,对于依靠电力运行的传统CPU(中央处理器)或GPU(图形处理器)芯片来说,这类运算太过密集,完成起来非常“吃力”。

  通过几年努力,MIT教授马林·索尔贾希克和同事开发出光学神经网络系统的重要部件——全新可编程纳米光学处理器,这些光学处理器能在几乎零能耗的情况下执行人工智能中的复杂运算。索尔贾希克解释道,普通眼镜片就能通过光波执行“傅里叶变换”这样的复杂运算,可编程纳米光学处理器采用了同样的原理,其包含多个激光束组成的波导矩阵,这些光波能相互作用,形成干涉模式,从而执行特定的目标运算。

  研究小组通过测试证明,与CPU等电子芯片相比,这种光学芯片执行人工智能算法速度更快,且消耗能量不到传统芯片能耗的千分之一。他们还用可编程纳米光学处理器构建了一个神经网络初级系统,该系统能识别出4个元音字母的发音,准确率达到77%。他们的最终目标是,将可编程纳米光学处理器交叉铺成多层结构,构建光学网络神经系统,模拟人脑中神经元执行复杂的“深度学习”运算。

  索尔贾希克表示,新光学处理器还能用于数据传输中的信号处理,更快速实现光学信号与数字信号间的转换。未来,在大数据中心、安全系统、自动驾驶或无人机等所有低能耗应用中,基于新光学处理器的复杂光学神经网络将占据重要席位。

 
 
打赏
[ 新闻资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]
免责声明:
本网站部分内容来源于合作媒体、企业机构、网友提供和互联网的公开资料等,仅供参考。本网站对站内所有资讯的内容、观点保持中立,不对内容的准确性、可靠性或完整性提供任何明示或暗示的保证。如果有侵权等问题,请及时联系我们,我们将在收到通知后第一时间妥善处理该部分内容。
 

哈佛开发计划成全新光学仪器CPU可视高效“厚度进修”二维码

扫扫二维码用手机关注本条新闻报道也可关注本站官方微信账号:"xxxxx",每日获得互联网最前沿资讯,热点产品深度分析!
 

 
0相关评论