广和通:<span style='color:red'>深度学习</span>究竟“深”在何处?
  广和通要闻  每一次产业革命都离不开核心技术的驱动,正如机械技术、电气技术、信息技术之于前三次工业革命。如今,我们正处于第四次工业革命浪潮,AI已成为关键驱动力。其中,深度学习作为核心技术,是快速构建、训练和部署AI应用的重要能力。  深度学习作为人工智能技术之一,通过大量的数据和强大计算能力来训练神经网络,以模拟人脑进行自动学习。深度学习推动了各行业AI化应用发展,在各种自然语言处理任务中显示出巨大效用,如工业自动化、机器翻译、视觉识别、预测性维护、自动驾驶等。广和通端侧AI解决方案融合深度学习能力,支持多种深度学习架构,帮助客户降低智能终端部署AI的难度,将终端应用做“深”。  深度学习已应用于多个行业,发挥着“润物细无声”的数据处理与分析作用:  在智慧工厂中,深度学习可应用到自动检测和预测性维护中,帮助机器进行视觉质检和自动化工作。  在自动驾驶中,汽车行业研究员使用深度学习来训练汽车检测停车标志、红绿灯、人行横道和行人等物体。  通过图像识别应用和深度学习技术,医学影像专家可以利用数字化的医疗记录和医学影像数据来支持和改进医学诊断过程,提供更精确和高效的医疗服务。  在客户服务中,聊天机器人、虚拟助手和拨入式客户服务门户利用语音识别、机器翻译等工具,更好地实现客户服务。  深度学习的应用需要强大的计算能力与算法部署,得以进行大量的数据分析与学习。广和通端侧AI解决方案具备高算力,可运行各类1.3B/3B/7B开源大语言模型,为终端部署深度学习架构提供基础。同时,广和通端侧AI解决方案还集成高性能GPU和专为图像数据处理设计的高速HVX技术,具备强大的图像编解码能力,便于终端利用图像、视频或文本进行学习和预测。  深度学习可消除一部分与机器学习相关的数据预处理过程,对非结构化数据(如文本、图像)进行特征提取,减少人为的特征结构建立。深度学习对智能终端的赋能将大大提高预测的效率与便捷性。基于对深度学习的技术运用,广和通可为客户定制包括摄像头、RTK定位天线、设备整板等全套硬件,以模组、PCBA等多种灵活商务模式合作。在软件部分,广和通采用自主研发的定位、路线规划等算法,采用真实图像数据进行AI训练,充分利用深度学习的技术要点,帮助客户快速落地智能终端。  强大的通信连接能力融合AI,将是AIoT产业的发展方向。广和通抢得AIoT新发展赛道,是AI技术和深度学习的先行者,未来,广和通融合深度学习架构的端侧AI解决方案将推动越来越多的数智场景落地。
关键词:
发布时间:2024-07-11 09:59 阅读量:401 继续阅读>>
瑞萨电子宣布推出R-Car V4H片上系统 <span style='color:red'>深度学习</span>性能高达34 TOPS
  近日,瑞萨电子集团宣布,推出R-Car V4H片上系统(SoC)——用于高级驾驶辅助(ADAS)和自动驾驶(AD)解决方案的中央处理。R-Car V4H的深度学习性能高达34 TOPS(每秒万亿次运算),能够通过汽车摄像头、雷达和激光雷达(LiDAR)对周围物体进行高速图像识别与处理。  R-Car V4H凭借一流IP与专业硬件优化的精心组合,造就了业界领先的性能功耗比,适用于自动驾驶应用大规模量产区间:即Level 2+和Level 3等级市场。  瑞萨电子宣布推出R-Car V4H片上系统 深度学习性能高达34 TOPS  得益于高度的集成性,R-Car V4H允许客户开发具有成本竞争力的单芯片ADAS电子控制单元(ECU)。这些控制单元可支持适合Level 2+和Level 3等级的自动驾驶系统,包括完整的NCAP 2025功能。R-Car V4H还支持环视和自动泊车功能,并具有优异的3D可视化效果实现逼真的渲染效果。  瑞萨电子汽车数字产品营销事业部副总裁吉田直树表示:“我们已经得到了众多客户对于瑞萨已量产的R-Car V3H和V3M的积极反馈,也很高兴看到R-Car V4H的问世更强化了我们的产品阵容。随着瑞萨扩展R-Car产品组合,我们期望看到尖端ADAS被用于从中档到入门级的所有车型。”  “成功产品组合”解决方案支持业界严格的ASIL要求  关于ISO 26262的功能安全性,SoC开发过程针对所有安全相关的IP提供ASIL D系统能力。R-Car V4H的信号处理部分有望实现实时域的ASIL B及D指标。  此外,瑞萨基于RAA271041前端稳压器和RAA271005 PMIC为R-Car V4H提供了专用电源解决方案。这使得R-Car V4H和外围存储器能够从车载电池的12V电源中获得高度可靠的供电。这些功能可实现低功耗运行,同时以极低的BOM成本实现ASIL D目标合规等级以满足系统和随机硬件故障的要求。有助于最大限度地减少硬件和软件开发工作量,同时缩减设计复杂性、成本和上市时间。  嵌入式软件平台开发为实现“软件定义汽车”铺平道路  R-Car V4H软件开发工具套件(SDK)也可助力更快、更轻松的启动设备评估和软件开发,包括深度学习算法移植。该SDK带来机器学习开发的全部功能,并对嵌入式系统的性能、电源效率和功能安全进行优化。套件提供完整的仿真模型,瑞萨独立于操作系统的软件平台使“软件定义汽车”的开发更加容易。  对于从零开始的开发场景,Fixstars的Genesis平台使工程师可以在任何地方通过他们的云解决方案评估R-Car,并可提供快速、简便的CNN基准测试结果。  R-Car V4H的关键特性  *四核1.8 Ghz Arm? Cortex?-A76内核,为ADAS/AD应用提供总计49KDMIPS的通用算力  *三个锁步1.4Ghz Arm? Cortex?-R52内核,提供9KDMIPS的总算力,以支持ASIL D等级实时操作,而无需外部微控制器  *专用深度学习和计算机视觉I/P,整体性能达34 TOPS  *用于机器和人类视觉并行处理的图像信号处理器(ISP)  *用于鱼眼畸变校正或其它数学运算的图像渲染器(IMR)  *图形处理器单元(GPU)AXM-8-256 @ 600MHz,整体性能超过150 GFLOPS  *专用车用接口:CAN、以太网AVB、TSN和FlexRay  *两个第四代PCIe接口  供货信息  R-Car V4H SoC样片即日起发售,并计划于2024年二季度开始量产。
关键词:
发布时间:2022-04-19 10:13 阅读量:2089 继续阅读>>
一颗简单的MCU,让<span style='color:red'>深度学习</span>在网络边缘上跑起来
  就在几年前,人们普遍认为,机器学习(ML)甚至深度学习(DL)只能通过由网关、边缘服务器或数据中心执行的边缘训练和推理,在高端硬件上完成。这种想法在当时不无道理,因为在云端和边缘之间分配计算资源的趋势尚处于早期发展阶段。但如今,得益于业界和学术界的艰苦研发和不懈努力,情况已然发生了翻天覆地的变化。  处理器不必提供每秒数万亿次操作(TOPS),也能执行机器学习(ML)。越来越多的用例证明,只要使用最新的微控制器(部分带有嵌入式 ML 加速器),就能在边缘设备上开展机器学习。  只需极低的成本和极低的功耗,这些设备就能出色地完成 ML,仅在绝对必要时才连接到云。简而言之,内置 ML 加速器的微控制器代表着物联网发展的下一阶段:在生产数据的源头,例如麦克风、摄像头和监控其他环境条件的传感器中引入智能计算,并使物联网应用受益。  边缘有多深?  目前普遍认为边缘是物联网网络的最远点,但通常指先进的网关或边缘服务器。不过,这并不是边缘的尽头。真正的尽头是邻近用户的传感器。所以,合乎逻辑的做法是将尽可能多的分析能力安排在邻近用户的位置,而这也正是微处理器所擅长的。  不同宽度乘数下的多个 MobileNet V1 模型。图中可见,宽度乘数对参数的数量、计算结果和精度都有显著影响。但是,如果只是将宽度乘数从 1.0 改为 0.75,TOP-1 精度并无太大变化,参数的数量和算力需求却明显不同。  可以说,单板计算机也能用于边缘处理,因为它们具有出色的性能,其集群可媲美一台小型超级计算机。但问题是尺寸依然过大,而且对于大规模应用所需的成百上千次部署而言,成本过于高昂。它们还需要连接外部直流电源,在某些情况下可能超出可用范围;相比之下,MCU 的功耗只有几毫瓦,并且可以使用纽扣电池或一些太阳能电池来供电。  毫无意外,用于在边缘执行 ML 的微控制器成为了十分热门的研发领域。甚至还有专有名称——TinyML。TinyML 的目标就是允许在资源受限的小型低功耗设备(尤其是微控制器),而不是在更大的平台或云端上执行模型推理,甚至最终能实现模型训练。这就需要缩小神经网络模型的尺寸,以容纳这些设备中相对较少的算力、存储空间和带宽资源,同时不会严重降低功能性和精度。  这些方案对资源进行了优化,使设备可以采集充足的传感器数据并发挥恰当作用,同时微调精度并降低资源要求。因此,虽然数据可能仍被发送到云端(或者可能是先发送到边缘网关,然后再发送到云端),但数量少得多,因为相当大一部分的分析已经完成。  现实中,一个十分常见的 TinyML 用例就是基于摄像头的对象检测系统,尽管能够捕获高分辨率图像,但由于存储空间有限,只能降低图像分辨率。可是,如果摄像头内置了数据分析功能,则只会捕获所需的对象而非整个场景,而且因为相关的图像区域更小,能保留高分辨率图像。这种功能通常只见于更大型、性能更强大的设备,但是 TinyML 技术使得微控制器也能实现。  小巧却不简单!  尽管 TinyML 还只是相对较新的一种范式,但已经表现出了不容小觑的推理能力(即便使用的是相对温和的微控制器)和训练(在性能更强大的微控制器上)成效,且精度损耗控制在最低限度。最近的示例包括:语音和面部识别、语音命令和自然语言处理,甚至同时运行多个复杂的视觉算法。  实际说来,这意味着一台装载 500MHz Arm Cortex-M7 内核的微控制器,花费不超过 2 美元,内存容量从 28 Kb 到 128 KB 不等,却能提供强大的性能,使传感器实现真正智能。例如,恩智浦的 i.MX RT 跨界 MCU 就使用运行 TensorFlow Lite 运行时引擎的小型 ML 模型实现了此种性能。以基本对象识别为例,通常在 200ms 内即可完成,而且精度接近 95%。  即使在这个价格和性能水平上,这些微处理器配备了多个安全功能(包括 AES-128),并支持多个外部存储器类型、以太网、USB 和 SPI,同时还包含或支持多种类型的传感器以及蓝牙、Wi-Fi、SPDIF 和 I2C 音频接口。价格稍高一些的设备则是通常搭载 1GHz Arm Cortex-M7、400MHz Cortex-M4、2 Mbytes RAM 和图形加速。采用 3.3 VDC 电源供电时,功耗一般远低于单板计算机。  TOPS 有意义吗?  会使用单一指标来评判性能的不仅是消费者;设计者和市场营销部门也一直如此,因为作为一项主要规格,它可以轻松地区分设备。一个经典示例就是 CPU,多年来人们一直通过时钟速率来评判性能;幸运的是,现在的设计者和消费者已不再如此。只用一个指标评定 CPU 性能就像是按照发动机的峰值转速来评估汽车性能。尽管峰值转速有一定参考意义,但几乎无法体现发动机的强劲或汽车的驾驶性能,这些特性取决于许多其他因素。  遗憾的是,同样的尴尬也发生在以每秒数十亿次或上万亿次操作来界定的神经网络加速器(包括高性能 MPU 或微控制器中的加速器),原因一样,简单的数字好记。在实践中,单独的 GOPS 和 TOPS 只是相对无意义的指标,代表的是实验室而非实际操作环境中的一次测量结果(毫无疑问是最好的结果)。例如,TOPS 没有考虑内存带宽的限制、所需要的 CPU 开支、预处理和后处理以及其他因素。如果将所有这些和其他因素都一并考虑在内,例如在实际操作中应用于特定电路板时,系统级别的性能或许只能达到数据表上 TOPS 值的 50%或 60%。  所有这些数字都是硬件中的计算单元乘以对应的时钟速率所得到的数值,而不是需要运行时数据已经就绪的频率。如果数据一直即时可用,也不存在功耗问题和内存限制,并且算法能无缝映射到硬件,则这种统计方式更有参考价值。然而,现实中并没有这样理想的环境。  当应用于微控制器中的 ML 加速器时,该指标更没有价值。这些小型设备的 GOPS 值通常在 1-3 之间,但仍然能够提供许多 ML 应用中所需要的推理功能。这些设备也依赖专为低功耗 ML 应用而设计的 Arm Cortex 处理器。除了支持整数和浮点运算以及微控制器中的许多其他功能之外,TOPS 或其他任何单一指标明显无法充分定义性能,无论是单独使用还是在系统中都是如此。  边缘计算的未来  随着物联网领域进一步发展,在边缘执行尽可能多的处理,逐渐出现一种需求,即在直接位于或附着于传感器上的微控制器上执行推理。也就是说,微处理器中应用处理器和神经网络加速器的发展速度十分迅猛,更完善的解决方案也层出不穷。总体趋势是将更多以人工智能为中心的功能(例如神经网络处理)与应用处理器一起整合到微处理器中,同时避免功耗或尺寸显著增加。  如今,可以先在功能更强大的 CPU 或 GPU 上训练模型,然后在使用推理引擎(例如 TensorFlow Lite)的微控制器上实施,从而减小尺寸以满足微控制器的资源要求。可轻松扩展,以适应更高的 ML 要求。相信不久之后,推理和训练就能在这些设备上同时执行,让微控制器的竞争力直追更大、更昂贵的计算解决方案。
发布时间:2020-09-27 00:00 阅读量:1408 继续阅读>>
AI 招聘放缓,机器学习和<span style='color:red'>深度学习</span>占据受欢迎 AI 职业前二
  在硅谷乃至世界各地,人工智能一直是热门职业,一名机器学习工程师的平均年薪高达142858美元。但是,据招聘网站Indeed研究显示,人工智能招聘发布数量的增长已经放缓,求职者对这类工作的兴趣也有所消退。  Indeed网站上与AI相关的工作招聘发布率从2018年5月至2019年5月上涨了29.1%。然而,这一增长远低于前两年的水平。两年前同一时期,即2017年5月至2018年5月,Indeed网站上AI招聘发布率增长了57.9%。在2016年5月至2017年5月,这一数据更是高达136.2%。  与此同时,求职热度逐渐消退。2018年5月至2019年,在Indeed网站上对AI相关的搜索量减少了14.5%。相比之下,2017年5月至2018年期间,搜索量增长了31.9%,2016年5月至2017年之间,搜索量增长了49.12%。Indeed表示,今年这一数据的下降也意味着,市场上工作岗位数量较优质求职者数量而言,可能已出现供大于求的情况。  AI工作搜索量并不总是跟得上其工作发布的数量。以数据科学家为例,他们的工作是获取原始数据并应用编程、可视化和统计建模来为组织提取可操作的数据。  考虑到数据就像是一种“新型石油”的新事物,所以市场上对数据科学家们的需求很大。Indeed研究显示,从2017年到2018年,工作发布量增加了31%,但同期的搜索量只增加了约14%。  机器学习和深度学习工程师在人工智能工作前十名的排名中占据主导地位。  为了了解2018年至2019年发布的最受欢迎的AI职位,该公司的分析团队确定了10个最符合相关描述的职位,该描述包括关键词“人工智能”或“机器学习”。  十大AI工作  1、机器学习工程师  2、深度学习工程师  3、高级数据科学家  4、计算机视觉工程师  5、数据科学家  6、算法开发人员  7、初级数据科学家  8、开发顾问  9、数据科学主任  10、首席数据科学家  分析主任、统计学家、首席科学家、计算机科学家、研究工程师和数据工程师未被列入其中,但它们是今年前十名的主要竞争者。  Indeed发现,今年机器学习工程师的工作岗位在AI和机器学习关键词中所占的比例最高(2018年也是如此)。机器学习工程师负责开发设备和软件,并运用预测技术,如苹果的Siri或天气预报应用程序。他们确保机器学习算法拥有需要处理的数据,并通过分析大量的实时数据,使机器学习模型更加精确。  尽管机器学习工程师包含相关关键词的数量仍是最多的,但2018年它们在这些职位中所占的比例更高,达到了94.2%,而2019年仅为75%。  2019年的榜单中,很多需要人工智能技能的工作都没有在2018年的榜单上出现过。比如深度学习工程师,首次排在了第二位,他们的工作是开发模拟大脑功能的编程系统。  这些工程师是三个快速发展的领域的关键角色:自动驾驶、面部识别和机器人。一项研究显示,仅全球面部识别市场的市值,就有望从2016年的33.7亿美元增长到2022年的77.6亿美元  这些年来的差异可能反映出各类公司对数据科学家的需求日益增长;许多雇主现在需要一个完整的数据科学团队,其工作人员需求从初级到主任级不等。相比之下,2018年的列表则包含了更通用的数据科学工作,如数据科学家、首席科学家和计算机科学家。Indeed称,招聘经验丰富的员工能够吸引更多的人才,帮助企业在激烈的劳动力市场上更具竞争力。  平均工资最高的AI职位  机器学习工程师不仅是发布率最高的AI工作,也是工资最高的工作之一。与2018年相比,这是平均年薪增长最多的工作。  在2018年和2019年的排名中,机器学习工程师是薪酬第三高的工作。然而,今年该职位的平均年薪为142859美元,比去年高出8409美元。与人力资源公司Mercer预测的2019年平均2.9%的薪资增幅相比,增幅为5.8%。  同样,算法工程师今年的平均年薪升至109313美元,增加了5201美元,增幅为4.99%。在竞争激烈的人工智能就业市场中,这两次加薪都很可能是各组织花费更多资金吸引人才担任这些关键角色的结果。  与前一份排名一样,薪酬排名第一的职位显示了整个人工智能市场的演变和成熟。更普遍的职位,如分析主任、数据工程师、计算机科学家、统计学家和研究工程师,都出现在2018年的榜单上,但今年没有进入前十名。2019年名单上的新职位包括更特殊的数据科学工作,如高级数据科学家和首席数据科学家。  纽约和旧金山是人工智能工作的领头羊。  与去年相比,尽管有一些小变动,以及加入了一个“新人”,但2019年AI工作比例最高的大城市排名没有明显变化。  城市AI工作比例排名  1、纽约  2、加州旧金山  3、华盛顿特区  4、加州圣何塞  5、华盛顿西雅图  6、马萨诸塞州波士顿  7、加州洛杉矶  8、伊利诺斯州芝加哥  9、德州达拉斯沃思堡  10、佐治亚州亚特兰大  2018年和2019年,纽约市和旧金山地铁区分别排在第一和第二位。然而,纽约已经失去了一些优势:去年,纽约占人工智能职位的11.6%,2019年降至9.72%。相比之下,旧金山2018年的份额为9.6%,2019年降至9.20%,现在仅略落后于纽约。(旧金山也在“2019年求职者最佳城市”排行榜上排名第二,在25个市区中脱颖而出。)  纽约的排名令人惊讶,但这个城市拥有从金融服务业到出版业等多个行业,其中许多行业现在都采用了人工智能。许多位于西海岸的科技公司,如亚马逊、facebook和google,在该地区都有很大的影响力。纽约也拥有与人工智能相关的科技初创公司的份额,如Alphasense、Clarifai、Persado和x.ai。  在2018到2019年之间,有三个地区在Indeed的排名名单上变换了位置。2018年,圣何塞排名第三(9.2%),华盛顿名列第四(7.9%)。但今年华盛顿特区排名第三,圣何塞排名第四。2019年,波士顿(从第五位下滑)与西雅图(从第六位上升)变换了位置,芝加哥将第七名让位给了洛杉矶(之前第八名)。达拉斯沃思堡排名第九。费城,去年排名第十,此次被新来的亚特兰大从排行榜上挤了出去。  AI创造的就业机会会比它所消除的更多吗?  在未来的几年里,最大的问题将是:AI创造的就业岗位是否会多于它所消除的。  一些研究表明,事实上,比起被破坏的数量,AI将创造更多的就业机会。世界经济论坛2018年发布的“就业未来”报告发现,到2022年,人类与机器之间分工的转变——即AI支持的自动化——将取代7500万个工作岗位,但会创造1.33亿个新的工作岗位。Gartner估计,到2020年,AI将创造230万个新的就业岗位,同时也会因此而减少180万个。根据一份2019年Dun&BradStreet的报告,40%的组织由于采用AI而增加了更多的工作岗位,而只有8%的公司因此而裁员。这种趋势是否会持续下去,我们拭目以待。
发布时间:2019-07-01 00:00 阅读量:1487 继续阅读>>
每个人都在讲AI,可你知道<span style='color:red'>深度学习</span>和机器学习的区别吗?
  本质上,深度学习提供了一套技术和算法,这些技术和算法可以帮助我们对深层神经网络结构进行参数化——人工神经网络中有很多隐含层数和参数。深度学习背后的一个关键思想是从给定的数据集中提取高层次的特征。因此,深度学习的目标是克服单调乏味的特征工程任务的挑战,并帮助将传统的神经网络进行参数化。  现在,为了引入深度学习,让我们来看看一个更具体的例子,这个例子涉及多层感知器(MLP)。  在MLP中,“感知器”这个词可能有点让人困惑,因为我们并不想只在我们的网络中使用线性神经元。利用MLP,我们可以学习复杂的函数来解决非线性问题。因此,我们的网络通常由连接输入和输出层的一个或多个“隐藏”层组成。这些隐藏的层通常有某种S型的激活函数(logs-s形或双曲正切等)。例如,在我们的网络中,一个逻辑回归单元,返回0-1范围内的连续值。一个简单的MLP看起来就像这样:  其中y是最终的类标签,我们返回的是基于输入x的预测,“a”是我们激活的神经元,而“w”是权重系数。现在,如果我们向这个MLP添加多个隐藏层,我们也会把网络称为“深度”。这种“深度”网络的问题在于,为这个网络学习“好”的权重变得越来越难。当我们开始训练我们的网络时,我们通常会将随机值赋值为初始权重,这与我们想要找到的“最优”解决方案很不一样。在训练过程中,我们使用流行的反向传播算法(将其视为反向模式自动微分)来传播从右到左的“错误”,并计算每一个权重的偏导数,从而向成本(或“错误”)梯度的相反方向迈进。现在,深度神经网络的问题是所谓的“消失梯度”——我们添加的层越多,就越难“更新”我们的权重,因为信号变得越来越弱。由于我们的网络的权重在开始时可能非常糟糕(随机初始化),因此几乎不可能用反向传播来参数化一个具有“深度”的神经网络。  这就是深度学习发挥作用的地方。粗略地说,我们可以把深度学习看作是一种“聪明”的技巧或算法,可以帮助我们训练这种“深度”神经网络结构。有许多不同的神经网络结构,但是为了继续以MLP为例,让我来介绍卷积神经网络(CNN)的概念。我们可以把它看作是我们的MLP的“附加组件”,它可以帮助我们检测到我们的MLP“好”的输入。  在一般机器学习的应用中,通常有一个重点放在特征工程部分;算法学习的模型只能是和输入数据一样好。当然,我们的数据集必须要有足够多的、具有辨别能力的信息,然而,当信息被淹没在无意义的特征中,机器学习算法的性能就会受到严重影响。深度学习的目的是从杂乱的数据中自动学习;这是一种算法,它为我们提供了具有意义的深层神经网络结构,使其能够更有效地学习。我们可以把深度学习看作是自动学习“特征工程”的算法,或者我们也可以简单地称它们为“特征探测器”,它可以帮助我们克服一系列挑战,并促进神经网络的学习。  让我们在图像分类的背景下考虑一个卷积神经网络。在这里,我们使用所谓的“接收域”(将它们想象成“窗口”),它们会经过我们的图像。然后,我们将这些“接受域”(例如5×5像素的大小)和下一层的1个单元连接起来,这就是所谓的“特征图”。在这个映射之后,我们构建了一个所谓的卷积层。注意,我们的特征检测器基本上是相互复制的——它们共享相同的权重。它的想法是,如果一个特征检测器在图像的某个部分很有用,它很可能在其他地方也有用,与此同时,它还允许用不同的方式表示图像的各个部分。  接下来,我们有一个“池”层,在这个层中,我们将我们的特征映射中的相邻特征减少为单个单元(例如,通过获取最大特征,或者对其进行平均化)。我们在很多测试中都这样做,最终得出了我们的图像的几乎不不变的表示形式(确切的说法是“等变量”)。这是非常强大的,因为无论它们位于什么位置,我们都可以在图像中检测到对象。  本质上,CNN这个附加组件在我们的MLP中充当了特征提取器或过滤器。通过卷积层,我们可以从图像中提取有用的特征,通过池层,我们可以使这些特征在缩放和转换方面有一定的不同。
发布时间:2017-12-05 00:00 阅读量:1700 继续阅读>>
<span style='color:red'>深度学习</span>触发AI革命,AI+安防最先布局
过去5年间,计算能力的大幅进步触发了AI革命,谷歌母公司Alphabet、亚马逊、苹果、Facebook以及微软等科技巨头争先进入这个领域。尤其是自去年人工智能机器人大与人类棋手开展,人工智能关注度达到了一个新的高峰。其实,人工智能的发展可以追述到60几年前,但是因为技术的原因数次沉寂,直到深度学习的出现,让人工智能再次掀起热潮。   深度学习再度点燃人工智能 安防成重点领域 什么是深度学习? 深度学习是机器学习方法之一,而机器学习则是让计算机从有关我们周围世界或其中某个特定方面的范例中学习,从而让计算机变得更加智能的一种方式。在所有的机器学习方法中,深度学习是最独特的,因为它的灵感源自我们对人脑探索与研究。深度学习试图让计算机学会很多不同层次的抽象和表达,这可能是使此类系统如此成功的原因。  为何安防行业成深度学习重点? 安防领域是个时刻都能产生海量数据的行业,近两年在AI技术的加持之下,这些数据正在产生新的意义,为安防这个传统行业解决更多问题。  安防行业作为人工智能技术天然的训练场和应用场,对于人工智能的落地应用有着迫切的需求,基于安防行业的天然属性,安防行业在人工智能化市场有着深入的投入。出于对市场的敏感,主流的设备解决方案供应商已经发力布局已经纷纷入局,凭借其各自深耕安防行业的经验,都在应用落地取得了不俗的成绩。其中,深度学习方面取得的成绩尤为突出,成为点燃人工智能发展的关键技术。  深度学习主要的研究领域在语音识别和视觉方面,而且将深度学习应用到各个方向,可以不同的领域做出不同的技术创新。对于掌握了许多视频图像资源的安防行业来说,深度学习和安防的结合拥有比较高的契合度,即对图像和视频的分析,包括: ——在图像分析方面,比如人们熟悉的人脸识别、文字识别和大规模图像分类等,深度学习大幅提升了复杂任务分类的准确率,使得图像识别、语音识别,以及语义理解准确率大幅提升。 ——在人脸方面,可以实现人脸检测、人脸关键点定位、身份证对比、聚类以及人脸属性、活体检测等等。在智能监控方面,可以做人、机动车、非机动车视频结构化研究。 ——在文字方面,小票的识别、信用卡的识别、车牌的识别,这些都是由深度学习的算法来做的。同时在图像的处理方面,在去雾、超分辨率、去抖动、去模糊,HDR、各种智能滤镜的设计都是用深度学习的算法。 安防行业深度学习主要集中在体分析(人脸识别、人体特征提取技术)、车辆分析(车辆识别技术、车辆特征提取技术)、行为分析(目标跟踪检测技术、异常行为分析技术)、图像分析(视频质量诊断技术、视频摘要分析技术)四大块上。随着深度学习算法的突破,目标识别、物体检测、场景分割、人物和车辆属性分析等智能分析技术,都取得了突破性进展。 “AI+安防”潮流来袭 根据前瞻产业研究院《中国互联网+安防行业发展前景预测与投资战略规划分析报告》显示,近年来,随着安防需求不断提升。我国安防行业市场规模从2010年的2350亿元增长到2016年的5400亿元,年复合增长率达到15%。 值得一提的是,与传统安防手段相比,新一代安防技术正借助人工智能、云计算、大数据、物联网、移动互联等技术,实现多元化快速发展,“AI+安防”正给人们带来一个更加“聪明”的安全时代。 据中安协发布的《中国安防行业“十三五”(2016—2020年)发展规划》,“十三五”期间,安防行业将向规模化、自动化、智能化转型升级。到2020年,安防企业总收入达到8000亿元左右,年增长率达到10%以上。 “未来4到5年,安防将进入一个人工智能高速发展的时代。”国内安防企业宇视科技副总裁闫夏卿表示,安防行业2016年基本完成了场景智能的适配;2017年、2018年将进入以深度学习为基础的人工智能阶段;到2019年、2020年将全面进入到数字智能的阶段。最终,经过数字智能阶段后,安防行业的人工智能将全面的和全行业、全IT的大数据业务平台进行完善的对接,安防也进入智能时代。 除了赢得产业巨头们的积极响应之外,“AI+安防”还获得了国家层面的政策加持。 2016年6月份,工信部等部门发布的《“互联网”人工智能三年行动实施方案》指出,智能安防将作为人工智能产品创新的重点应用推广领域。《方案》提出,实施智能安防推广工程,鼓励安防企业与互联网企业开展合作,研发集成图像与视频精准识别、生物特征识别、编码识别等多种技术的智能安防产品,推动安防产品的智能化、集约化、网络化。 结语:现阶段,不仅安防行业,越来越多的产业和企业在深度学习领域进行探索。当然我们也期待在深度学习甚至是人工智能的影响和各个安防生厂商的创新下,更多的智能安防产品能迅速落地应用,提高城市安防系统的工作效率!
发布时间:2017-06-23 00:00 阅读量:1517 继续阅读>>
面对<span style='color:red'>深度学习</span>/人工智能这块肥肉,NVIDIA/高通都有哪些法宝?
看好深度学习与人工智能的所带来的庞大商机,NVIDIA(辉达)与Qualcomm(高通)旗下的高通技术公司,分别推出智能影像分析平台Metropolis,以及推进机器学习能力的行动平台Snapdragon 660与630。 前者在影像串流上使用深度学习技术,支持包含公共安全、交通管理以及资源优化等应用,让城市更加安全且更智能化;后者则可推进高阶摄影、增强电竞、整合性连接,以及机器学习能力。 芯片大厂各自推出平台,大啖深度学习与人工智能所带来的商机。NVIDIA副总裁暨Tegra事业部总经理Deepu Talla表示,深度学习促成许多功能强大的智能影像分析方案,将匿名影像实时转化为有用情资,进而提升安全并改善生活。 NVIDIA Metropolis平台让用户将人工智能技术应用于每个影像串流上,打造更智能化的城市。NVIDIA认为,影像是全球最庞大的数据源,许多画面是透过成千上亿建置在政府资产、大众运输、商业建筑以及道路等区域的摄影机记录而成。 预估到了2020年,摄影机的数量将增加到约10亿部。然而,人类目前仅能监看部份已记录的影像内容,其中大多数影像都储存于硬盘供日后检视。 实时影像分析技术早期发展结果远不如人工监看来得可靠,而智能影像分析技术克服这方面的挑战,运用深度学习于摄影机、现场录像机与服务器以及云端环境实时监看影片,并达到理想的精准度及扩充性。 在Snapdragon 660与630行动平台方面,高通技术公司产品管理副总裁Kedar Kondap则表示,随着此一行动平台的推出,可在保持产品效能及质量的情况下,让优化的影像质量与高速LTE连接等特色展现于多样的装置之中。举例来说,OEM厂商与开发商可运用Snapdragon神经处理引擎软件开发工具包(SDK),发挥Snapdragon 660与630行动平台的机器学习功能,带来沉浸式与引人入胜的用户体验。此外,此异质化软件框架支持Caffe/Caffe2与TensorFlow,更易于在Snapdragon核心定位与执行各类神经网络,为目标功能选用适合的功率与效能组件─包括CPU、GPU、或DSP/HVX。 据了解,该公司推出的Snapdragon 660与630行动平台包含有各项基频功能的Snapdragon 660与630 系统单芯片(SoC)以及射频前端、内建Wi-Fi、电源管理、音效编译码器与喇叭放大器等软硬件组件。
发布时间:2017-05-10 00:00 阅读量:1430 继续阅读>>

跳转至

/ 1

  • 一周热料
  • 紧缺物料秒杀
型号 品牌 询价
RB751G-40T2R ROHM Semiconductor
MC33074DR2G onsemi
BD71847AMWV-E2 ROHM Semiconductor
CDZVT2R20B ROHM Semiconductor
TL431ACLPR Texas Instruments
型号 品牌 抢购
ESR03EZPJ151 ROHM Semiconductor
BU33JA2MNVX-CTL ROHM Semiconductor
TPS63050YFFR Texas Instruments
STM32F429IGT6 STMicroelectronics
IPZ40N04S5L4R8ATMA1 Infineon Technologies
BP3621 ROHM Semiconductor
热门标签
ROHM
Aavid
Averlogic
开发板
SUSUMU
NXP
PCB
传感器
半导体
关于我们
AMEYA360商城(www.ameya360.com)上线于2011年,现有超过3500家优质供应商,收录600万种产品型号数据,100多万种元器件库存可供选购,产品覆盖MCU+存储器+电源芯 片+IGBT+MOS管+运放+射频蓝牙+传感器+电阻电容电感+连接器等多个领域,平台主营业务涵盖电子元器件现货销售、BOM配单及提供产品配套资料等,为广大客户提供一站式购销服务。