加入收藏 | 设为首页 | 会员中心 | 我要投稿 阿坝站长网 (https://www.0837zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 动态 > 正文

新手机之外还有什么值得期待?

发布时间:2021-02-11 11:00:18 所属栏目:动态 来源:互联网
导读:TinyML的例子 以前,复杂的电路是设备执行各种动作所必需的。现在,机器学习使将这种硬件智能抽象为软件变得越来越可能,从而使嵌入式设备变得更加简单,轻巧和灵活。 嵌入式设备的机器学习所面临的挑战是巨大的,但是在这一领域已经取得了巨大的进步。在微

TinyML的例子

以前,复杂的电路是设备执行各种动作所必需的。现在,机器学习使将这种硬件"智能"抽象为软件变得越来越可能,从而使嵌入式设备变得更加简单,轻巧和灵活。

嵌入式设备的机器学习所面临的挑战是巨大的,但是在这一领域已经取得了巨大的进步。在微控制器上部署神经网络的关键挑战是低内存占用,有限的功率和有限的计算。

TinyML最明显的例子也许是在智能手机中。这些设备会永久地积极聆听"唤醒词"

例如Android智能手机的" Hey Google"或iPhone的" Hey Siri"。通过智能手机的主中央处理器(CPU)运行这些活动,现代iPhone的主中央处理器(CPU)为1.85 GHz,将在短短几个小时内耗尽电池。对于大多数人每天最多使用几次的这种程度的降级是不可接受的。

为了解决这个问题,开发人员创建了专用的低功耗硬件,该硬件可以用小电池(例如,环形CR2032"硬币"电池)供电。这些功能使电路即使在CPU未运行时(基本上在屏幕不亮时)也保持活动状态。
 

介绍

在过去的十年中,我们见证了由于处理器速度的提高和大数据的出现,机器学习算法的规模呈指数增长。最初,模型足够小,可以使用中央处理器(CPU)中的一个或多个内核在本地计算机上运行。

此后不久,由于引入了基于云的服务(例如SaaS平台(例如Google Colaboratory)和IaaS(例如Amazon EC2实例)),使用图形处理单元(GPU)的计算对于处理更大的数据集变得十分必要,并且变得更加容易获得。此时,算法仍可以在单台计算机上运行。

最近,我们已经看到了专用的专用集成电路(ASIC)张量处理单元(TPU)的开发,该模块可以封装约8个GPU的功能。这些设备已经增强了在多个系统之间分布学习的能力,以尝试发展越来越大的模型。

最近,随着GPT-3算法的发布(2020年5月发布)而达到了顶峰,该算法的网络体系结构包含了惊人的1750亿个神经元,是人脑中神经元数量的两倍(约850亿)。这是有史以来创建的第二大神经网络Turing-NLG(于2020年2月发布,包含约175亿个参数)的神经元数量的10倍以上。一些估计称,该模型的培训成本约为1000万美元,并使用了约3 GWh的电力(大约三个小时的一小时核电站的输出)。

尽管GPT-3和Turing-NLG的成就值得称赞,但自然而然地,这引起了业内一些人士对AI行业日益增长的碳足迹的批评。但是,它也有助于激发AI界对更节能计算的兴趣。这样的想法,例如更高效的算法,数据表示和计算,一直是看似无关的领域的关注重点:微型机器学习。

微型机器学习(tinyML)是机器学习与嵌入式物联网(IoT)设备的交叉点。该领域是一门新兴的工程学科,具有革新许多行业的潜力。

tinyML的主要行业受益者是边缘计算和节能计算。TinyML源自物联网(IoT)的概念。物联网的传统思想是将数据从本地设备发送到云进行处理。一些人对此概念提出了某些担忧:隐私、延迟、存储和能源效率等等。

能源效率。(通过有线或无线方式)传输数据非常耗能,比机载计算(具体而言,乘累加单位)要高大约一个数量级。开发可以执行自己的数据处理的物联网系统是最节能的方法。人工智能的先驱们已经讨论了"以数据为中心"的计算思想(与云模型的"以计算为中心"相对),现在我们开始看到它正在发挥作用。

隐私。传输数据可能会侵犯隐私。此类数据可能被恶意行为者拦截,并且当存储在单个位置(例如云)中时,其固有的安全性降低。通过将数据主要保留在设备上并最大程度地减少通信,这可以提高安全性和隐私性。

存储。对于许多物联网设备而言,它们获取的数据毫无用处。想象一下一个安全摄像机每天24小时记录着建筑物的入口。在一天的大部分时间里,相机镜头没有任何用处,因为什么也没发生。通过拥有仅在必要时才激活的更智能的系统,就需要较低的存储容量,并减少了传输到云所需的数据量。

潜伏。对于标准IoT设备(例如Amazon Alexa),这些设备将数据传输到云中进行处理,然后根据算法的输出返回响应。从这个意义上讲,该设备只是通向云模型的便捷网关,就像您自己和亚马逊服务器之间的信鸽。该设备非常笨拙,完全取决于互联网的速度才能产生结果。如果您的网速较慢,Amazon Alexa也会变慢。对于具有机载自动语音识别功能的智能IoT设备,由于减少了对外部通信的依赖(如果不是这样),因此可以减少延迟。

这些问题导致了边缘计算的发展,即在边缘设备(位于云"边缘"的设备)上执行处理活动的想法。这些设备在内存,计算和功能方面都受到资源的高度限制,从而导致了更高效的算法,数据结构和计算方法的发展。

此类改进也适用于较大的模型,这可能导致机器学习模型的效率提高几个数量级,而不会影响模型的准确性。

例如,Microsoft开发的算法可以小到2 KB,但比典型的40 MB kNN算法或4 MB神经网络具有更好的性能。这个结果听起来可能并不重要,但是在尺寸的1/10万分之一的模型上,相同的精度令人印象深刻。如此小的模型可以在具有2 KB RAM的Arduino Uno上运行,总之,你现在可以在5美元的微控制器上构建这样的机器学习模型。

我们正处于一个有趣的十字路口,机器学习在两个计算范式之间分叉:以计算为中心的计算和以数据为中心的计算。在以计算为中心的范例中,数据是通过数据中心中的实例进行存储和分析的,而在以数据为中心的范例中,处理是在数据的原始位置进行的。尽管我们似乎正在迅速迈向以计算为中心的范例的上限,但是以数据为中心的范例的工作才刚刚开始。

物联网设备和嵌入式机器学习模型在现代世界中变得越来越普遍(到2020年底,预计将有200亿以上的活动设备)。其中许多你甚至可能都没有注意到。智能门铃、智能恒温器、智能手机,只要你说几句话,甚至只是拿起电话,都可以"唤醒"。本文的其余部分将更深入地关注tinyML的工作方式以及当前和将来的应用程序。

(编辑:阿坝站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读