当人脑可以植入芯片,未来人们可以不用学习了?

2017-08-31 07:47

相信很多人小时候都做过这样的梦:幻想着有一天能在大脑里植入一块芯片,将背不下来的公式和课文统统装进脑子里!

如今,熊孩子长成了科学家,他们正在努力实现这个构想!

对于AI领域的科学家而言,人工智能的终极目标之一就是用机器实现人脑的全部功能,而作为人脑的最小细胞单位——神经元,将会是一个最好的入手点。

IBM制造人造神经元、马斯克成立公司Neuralink专注人脑与AI融合……

当下大部分的科学家们,正致力于更加完美的模仿神经元的运行。如果用真实的生物神经元和机器结合会发生什么呢?

神经元AI芯片具有嗅觉

8月27日在坦桑尼亚举办的TEDGlobal 会议上,尼日利亚神经学家Oshiorenoya Agabi带来了实验结果。

Agabi利用小鼠的神经元制造了一种计算机芯片 Koniku Kore,该芯片是世界首个具有嗅觉并可以识别爆炸物等气味的芯片。

Koniku Kore 芯片并不是以硅作为基础,而是使用了小鼠的神经元进行构建,芯片的每部分都是活体神经和硅的混合物,这款神经元芯片可以模拟 204 个脑神经元的功能。

据Agabi介绍:未来这项技术,除了用于炸弹检测之外,还可以用于医疗领域,通过感知患者呼出的空气中疾病的标志物来检测疾病。

“生物学是科学技术,我们创造的深度学习神经网络正在复制大脑功能。” 虽然计算机在复杂的算法中具有比人类更高效的优点,但人类大脑在许多认知功能上是占有先天优势的。

Agabi 表示:“未来机器人的处理能力将是基于合成生物学的,我们今天所做的正是为未来奠定基础。”

合成生物学芯片还在刚刚起步,然而在人工智能的推动下,芯片行业正在面临一场巨大的变革!

CPU的时代即将终结!

在深度学习出现之后,人工智能(AI)得以模拟人脑实现许多前所未有的功能。

深度学习与传统计算模式最大的区别就是不需要编程,它是从输入的大量数据中自发地总结出规律,而传统计算模式更多都需要人为提取所需解决问题的特征或者总结规律来进行编程。

也正因为如此,深度学习对计算能力要求非常高,以至于有人将深度学习称之为“暴力计算”。

因此,传统的 CPU 并不适用于深度学习。

GPU,深度学习主流芯片

GPU,也就是我们常说的显卡,得益于其硬件架构对并行计算支持比较好,最一开始大家都用 GPU 来搞深度学习。

谷歌、Facebook、微软、和百度等互联网巨头,都在使用 GPU 作为其深度学习载体。让服务器学习海量的照片、视频、声音文档,以及社交媒体上的信息,来改善搜索和自动化照片标记等各种各样的软件功能。

与 CPU 少量的逻辑运算单元相比,GPU 整个就是一个庞大的计算矩阵,GPU 具有数以千计的计算核心、可实现 10-100 倍应用吞吐量,而且它还支持对深度学习至关重要的并行计算能力,可以比传统处理器更加快速,大大加快了训练过程。

GPU 是目前最普遍采用的深度学习运算单元之一。

但在深度学习专家眼中,GPU 仍不是最优的答案。它的性能很好,但耗电惊人。

备受看好的 FPGA

FPGA,即现场可编辑门阵列,是一种新型的可编程逻辑器件,由于其具有静态可重复编程和动态在系统重构的特性,使得硬件的功能可以像软件一样通过编程来修改。

用 VPU 制成的神经计算棒

FPGA 作为人工智能深度学习方面的计算工具,主要原因就在于其本身特性:可编程专用性,高性能,低功耗。

简单来说,因为 FPGA 对并行计算支持好,性能高,便于重新编程,功耗比 GPU、CPU 低,FPGA 也是人工智能芯片的一个重要门派。

目前百度的XPU、微软的HPU 和“脑波计划”DPU都是用的FPGA技术。

不可估量的 ASIC

ASIC(ApplicationSpecificIntegratedCircuits,专用集成电路),是指应特定用户要求或特定电子系统的需要而设计、制造的集成电路。

ASIC的优势在于体积更小、功耗更低、可靠性提高、性能提高、保密性增强。

然而ASIC芯片投入代价非常大风险也很大,但这种通用芯片一旦成功放量市场空间也是空前的;

简单说来,ASIC芯片就像,完全一块砖一块砖按自己需求重新搭建一个房子,这种方式性能上最能贴近我们的需求,但是一次性投入太大。

寒武纪自主研发的NPU和谷歌专用于人工智能深度学习计算的 TPU,都是一款 ASIC。

来源:AI纪

眼界

着眼IT、数码、创业、AI及软件应用等众多领域,为您展现全球最先进、最前沿的科学技术和先进文明成果。

评论

【声明】评论应与内容相关,如含有侮辱、淫秽等词语的字句,将不予发表。

推荐阅读