AI智能
改变未来

《评人工智能如何走向新阶段》后记(再续24)

394,基于Loihi计算架构的神经拟态计算

2020年4月9日英特尔中国研究院院长宋继强接受记者采访,谈到英特尔对未来计算的研究和布局问题时,他说量子计算和神经拟态计算是非常重要的新兴计算方式。他在谈到神经拟态计算时说,面向神经拟态计算,英特尔发布了Loihi新型计算架构,可以模拟人脑神经元连接构建的连接方式,将计算和存储融合,并考虑到时间序列,采用“异步脉冲”方式进行计算。

关于英特尔Loihi神经拟态芯片(整合计算和存储)其主要参数:128个内核、13万个神经元、1.3亿个突触(每个神经拟态计算内核模拟1000个逻辑神经元,片上网络连接支持高效的脉冲消息分发,高度复杂的神经网络拓朴,支持多种学习模式的可扩展的片上学习能力)。

在神经拟态芯片提供的底层硬件基础上有两类做法:

①第一类模拟设计不变,把现有深度神经网络移植到神经拟态芯片上,需要大量数据,只是运行网络的功耗更低。

②第二类涉及模型设计和算法基本原理的改变。模型设计首先需要用非深度学习的方法去做,现在配合神经拟态计算比较常用的就是脉冲神经网络(SNN)。

SNN充分考虑了时间序列上的差异,在设计该网络时会模仿一些生物感知和处理节奏。比如英特尔近期发布的基于神经拟态芯片Loihi的嗅觉系统,其网络构造系统借鉴了人类嗅觉系统的结构设计。这是全新的模型设计,它不像深度学习那样需要大量数据、大量参数来达到一个稳定状态。

395,依托人工智能,人脸识别需要安全加持

近年来人脸识别获得广泛应用。人脸识别相比指纹、密码、语音等生物识别技术,其安全性、便捷性、可靠性都更胜一筹。但在安全防护、防伪攻击等要求更高的领域,人脸识别还需安全加持。

396,开源为AI构建一个开放共进的生态环境并且帮助行业加速AI落地

近年来像TensorFlow、Keras、PyTorch、Caffe、Theano、Paddle paddle、Angel、XDL等一些AI框架和平台,相继发展成开源项目;最近国内AI开源生态突然热闹起来,清华刚开源了一个强化学习平台,华为和旷视又相继开源了AI计算和深度学习框架。

开源已成为人工智能领域的关键词,开源为AI行业发展提供了不可或缺的动力。开源为AI构建一个开放共进的生态环境,并帮助行业加速AI应用落地,在解决行业实际问题时持续更新和迭代,源源不断地给AI领域输送重要的技术养料和创造力。

397,深度学习可实时同步扫描心脏血流

英国《自然-机器智能》杂志4月13日发表一项医学人工智能研究成果:瑞士科学家研发一种人工智能深度学习模型可以在几秒之内重建并扫描心血管血流。

瑞士苏黎世联邦理工学院瓦雷黑-韦诗耐韦斯基教授的研发团队研发一种深度学习模型可以实时快速同步重建并扫描心血管血流,让临床医生在患者接受四维(4D)核磁共振扫描的同时可实时观察患者血流变化,完成对医疗成像的实时评估,从而优化医疗诊断。该团队用11个扫描案例训练了一种神经网络(人工神经网络),为了可以在几秒处理时间内(通常扫描的处理时间20秒)对经过心脏的心血管血流进行四维重建(供同步实时扫描之需)。

本案例也再次证明,深度学习网络当今将更多地用于物理、医学、生物、社会等人工智能数据分析领域,尚未到达天花板,再放异彩!

398,可编辑神经网络(Editable neural network)

如今深度神经网络广泛应用于各种任务中,从图像分类和机器翻译到人脸识别和自动驾驶汽车。在许多应用中,一个单一的模型错误可能在财务、声誉甚至危及生命等方面导致毁灭性的后果。因此当模型错误出现时,迅速纠正它们是至关重要的。在这项工作中,研究神经网络编辑问题,如何在不影响其他样本的模型行为的情况下,在特定样本上有效地修补模型的错误。也就是说,提出可编辑的训练,这是一种与模型无关的训练技术,它鼓励快速编辑所训练的模型。通过实验验证了该方法在大规模图像分类和机器翻译任务中的有效性。

可查:MachineLearning(cs.LG)

Submitted on1Apr2020

ICLR2020

https:∥github.com/editable-ICLR2020/editable

399,美国多地用大疆无人机对抗新冠病毒流行

无人机将实时视频导入人工智能分析软件中

新泽西警方:救一条命就值了!

美媒《航空周刊》4月10日刊文:中国大疆向全美供应无人机以对抗流行病。

大疆正在向美国警察、消防和公共安全部门分发100套小型无人机系统。

美国DroneDJ网站报导:大疆无人机依托人工智能技术在美国各地用以对抗新冠疫情:

①以航拍自动评估人群密集度。

对城市中公共场所人群过密时能发预警,也可监控是否有人违反居家隔离令。

②喊话提醒。

装有喊话器的无人机可以发出警告,并宣传保持社交距离和居家隔离的规定

如在佛罗里达的代托海滩使用大疆Mavic2企业级无人机提醒公众景区已关闭。

③监控犯罪。

监控在疫情肆虐的荒芜街道和关门企业的犯罪活动。

德克萨斯州休斯敦市的纪念村警察局规划无人机巡逻自动飞行。

④送医疗用品。

用无人机做快递/外卖,运送血样、药品、医疗用品。

400,最新自然语言处理算法已在医疗业务中率先应用

基于NLP构建医疗知识图谱

近日,自然语言处理领域国际顶级会议ACL2020(Association for Computations Linguistics)论文接收结果公布,中科院自动化所3篇论文入选:

在医疗对话的自动信息抽取,国际疾病分类(ICD)自动编码,ICD自动编码可解释性。这些最新NLP算法将为后续研究提供极具价值的经验和方向。

NLP的医疗业务应用,在电子病历方面:

电子病历已成为现代医疗的重要组成部分,但目前书写电子病历费时费力,已成为医生沉重负担。

通过面向医患对话文本的信息抽取系统,可从对话中抽取出症状、检查、手术一般信息及其相应状态,这些NLP抽取出的信息将有助于医生在书写病历时减轻负担,或进一步用于病历自动生成。

在临床医学决策方面:

为缓解人工编码耗时费力容易出错的问题,开始研究利用机器进行自动的ICD编码,中科院自动化所语言与知识计算联合实验室的研究团队通过结合中文的语言特点,提出了一种基于空洞卷积和N一gram语言模型的ICD自动编码方法,利用空洞卷积捕获非严格匹配的语义片段证据,和利用N一gram捕获严格匹配的语义片段证据,进而二者结合使用,提升预测结果的可解释性,而可解释的结果对临床医学决策具有重要意义。

在构建医疗知识图谱方面:

中科院自动化所语言与知识计算联合实验室基于NLP技术构建的医疗知识图谱已储备约50万医学概念,超过169万医学术语和398万医学关系库(涵盖绝大部分药品、疾病、科室与检查,规模达国际领先水准),并在语音病历、病历生成、病历质控、辅助诊断系统等具体应用。

401,如何使用Caps克服空间位置局限性

如何使用GAN生成“真实”人脸

大多数主流的神经网络,如卷积神经网络(Convolution al neuralnetwork,CNN)、人工神经网络(Art ificialNeural Network,ANN)等通常用于图像识别或人脸识别,胶囊神经网络(Capsule neural network,Caps)是为了克服CNN、ANN等主流神经网络的局限性(难以识别图像中的位置关系,或缺少空间分层和空间推理能力)而提出的一种新的网络架构。

生成对抗网络(GenerativeAdversarial Network,GAN)较之其他类型的神经网络采用不同的学习方法,GAN的算法体系结构使用两个神经网络模块,即生成器(Generator)和判别器(Discriminator),它们相互竞争以产生所需的结果。生成器的工作是创建看起来逼真的假图像,而判别器的工作是区分真实图像和假图像。如果两者均能正常工作,则结果是能准确选择或生成真实图像。大多数主流神经网络很容易通过在原始数据中加入少量噪声而被错误地分类。

CNN、ANN、Caps、GAN一般都与深度学习算法绑定,因此也统称深度神经网络,而深度学习算法是基于深度神经网络建立的。

深度学习模型是从有限的数据中学习的,这是一个缺点,因此它很容易过度拟合;同样,输入和输出之间的映射几乎是线性的,即使特征空间中某个点的微小变化也可能导致数据分类错误。而基于GAN生成对抗网络的深度学习模型可以避免陷于分类错误的境地。

402,使用人工智能清除系统软件(或核心软件)漏洞

深度学习模型促计算机/软件生态建设

开发操作系统或其他核心软件,都将带来大量漏洞(Bug),不管是开源软件还是私有闭源软件,都是如此!如果不能及时清除这些漏洞(检出、打补丁、测试,即BugFix,Patch),用户便无法正常、稳定运行该产品;清除这些漏洞不是一次性的,有些漏洞还会在运行中暴露出来,要求产品提供商隨时清除;当这些系统(或核心)软件改版升级时,需同步清除由开发带来的漏洞。这也是企业运维工作或完善生态系统的重要环节。

微软使用深度学习模型清除软件漏洞,并提高安全漏洞的识别和分类水平。微软已经开发了一种系统,用自动化工具优先解决安全漏洞,能够在99%的时间里正确区分安全漏洞与非安全漏洞,并能够在97%的时间里准确识别出关键的、高优先级的安全漏洞。该系统通过AzureDevOps和GitHub知识库,对微软47000名开发人员的1300万个工作项目和Bug数据集进行训练。据估计,开发人员每1000行代码就会产生70个Bug,而修复一个Bug所需时间是编写一行代码所需时间的30倍。

微软并不是唯一一家使用人工智能清除软件漏洞的科技巨头。亚马逊的CodeGuru服务,在一定程度上是针对其开发的代码审查,以便发现并解决资源泄漏和CPU周期浪费等问题。至于脸书,它开发了一个工具SapFix,在把生成的代码发送给工程师批准前它会修复好Bug。

Linux内核约有2600~2780万行代码,约180个Bug;Win10操作系统约有5000万行代码,约350个Bug;安卓移动操作系统约有1200~1500万行代码,约100个Bug;TensorFlow(人工智能框架)约有200万行代码,约15个Bug。

403,阿里集团达摩院AI医疗团队研发一种基于人工智能图卷积神经网络模型(CPR一GCN),催生心血管病医学影像辅助诊断应用场景,攻克医学影像深水区:自动化、高精度心脏冠脉血管识别。

404,使用自然语言处理技术提升创新效率

近日美国Lux research发布《人工智能和机器学习改善创新前端》的白皮书。

Lux research数字产品副总裁凯文-西恩博士指出,有效利用机器学习可快速挖掘数据,减少全面分析时间,使用机器学习来提升创新速度和技术包容性,在定义成熟的人工智能和机器学习策略时需要加权考虑一些关键技术点:是否需要构建新的技术框架,使用哪些数据源,如何定义和解释技术。

该书指出:使用自然语言处理(NLP)技术提升创新效率(但目前尚未得到充分开发利用)。

目前产业界正在研发人工智能利用数据的高效方法,尤其关注NLP。通过NLP和主题建模,可使技术优化、竞争分析和微弱信号检测等流程得到改善,可加快海量文本数据分析。NLP带来的增速是由主题建模实现的,主题建模从文本中提取重要概念,同时大量消除与之相关的人工假设及数据偏差,关于NLP中的知识建模可使分类法来定义特定主题下关键创新领域的技术发展趋势。

更多推荐:

《评人工智能如何走向新阶段》后记

《评人工智能如何走向新阶段》后记(再续1)

《评人工智能如何走向新阶段》后记(再续2)

《评人工智能如何走向新阶段》后记(再续3)

《评人工智能如何走向新阶段》后记(再续4)

《评人工智能如何走向新阶段》后记(再续5)

《评人工智能如何走向新阶段》后记(再续6)

《评人工智能如何走向新阶段》后记(再续7)

《评人工智能如何走向新阶段》后记(再续8)

《评人工智能如何走向新阶段》后记(再续9)

《评人工智能如何走向新阶段》后记(再续10)

《评人工智能如何走向新阶段》后记(再续11)

《评人工智能如何走向新阶段》后记(再续12)

《评人工智能如何走向新阶段》后记(再续13)

《评人工智能如何走向新阶段》后记(再续14)

《评人工智能如何走向新阶段》后记(再续15)

《评人工智能如何走向新阶段》后记(再续16)

《评人工智能如何走向新阶段》后记(再续17)

《评人工智能如何走向新阶段》后记(再续18)

《评人工智能如何走向新阶段》后记(再续19)

《评人工智能如何走向新阶段》后记(再续20)

《评人工智能如何走向新阶段》后记(再续21)

《评人工智能如何走向新阶段》后记(再续22)

《评人工智能如何走向新阶段》后记(再续23)

赞(0) 打赏
未经允许不得转载:爱站程序员基地 » 《评人工智能如何走向新阶段》后记(再续24)