AI智能
改变未来

针对《评人工智能如何走向新阶段》一文,继续发布国内外的跟贴留言466-476条如下:

466,移动智能设备/压缩传感技术/追踪去噪BPDN/稀疏图像编码器/LCA神经网络硬件实现

当今的移动智能设备通常受到数据通信所需能量的限制,而不是数据处理所受的能量限制。因此,除了在信号处理中的传统用途外,压缩传感技术现在在低功率传感系统中的相关性越来越高。但是基本追踪去噪(BPDN)是此类技术所需的稀疏优化,通常计算量大,无法直接求解,因此实现通常采用近似于优化的追踪方法。

本地竞争算法(LCA)是一类脉冲循环神经网络,可解决BPDN加速器的高效硬件架构。这样的加速器是原型稀疏图像编码器,它使用定制的模拟神经元实现了无与伦比的能源效率。该工作已集成到数字设计流程中。混合信号原型的效率仅为48.9pj/像素和50.1nj/编码,是等效全数字架构的两倍。

当负责对手写数字图像进行编码时,该原型会生成稀疏代码,这些稀疏代码将压缩90%以上,同时可以保畄特征。与传统处理技术相比,原型压缩传感器雷达处理器将目标范围和速度估值的精度提高了6倍以上。该原型机能够每秒产生超过100000个估算值,与最新技术相比,呑吐量提高了8倍,效率提高了18倍。此外,由于突触权重压缩的独特形式,原型体系结构是迄今为止完全连接的LCA神经网络的最大硬件实现。

 

467,改进脉冲神经网络(SNN)训练方法在完成任务中获好性能并抗噪性

近年来,基于梯度反向传播的脉冲神经网络(SNN)训练方法逐渐兴起。在这种训练方法下,SNN能够在保畄神经元内部动力学的同时获得较好的性能。

在此基础上,中科院自动化研究所听觉模型与认知计算团队,模仿刻画视听觉系统神经元侧向作用的数学模型动态神经场,提出了具有侧向作用的SNN——LISNN用于图像识别任务。并且在测试中,根据侧向作用的动力学特点,人为加入噪声以验证侧向作用对网络鲁棒性的提升。

该研究工作分别在静态数据集MNIST与FashionMNIST、动态数据集N—MNIST上对LISNN的性能进行了验证。输入数据以特定方式编码为一定长度的脉冲序列,每个时刻的序列规模与原图像(或事件点坐标范围)相同。模型在MNIST和N-MNIST数据集上均取得了和已有最好性能相近的结果;在Fashion-MNIST数据集上则取得SNN中的最好性能。

与传统的神经网络算法相比,所提算法取得较好的性能并自然地实现对噪声干扰的抗性,具有一定理论研究价值和工程实用价值。

 

468,伯克利研发一种用于智能机器人的新型多方向高分辨率触摸传感器OmniTact

近日,美国加州大学伯克利分校人工智能研究组成功开发一种新型的多方向高分辨率触摸传感器OmniTact,让机器人能够感知它所持有或操作的物体的特性。此前,已有Gelsight传感器被应用于机器人学习如何插入USB线、滚动模具和抓紧物体。标准的Gelsight传感器使用现成的网络摄像头来捕获硅凝胶皮肤上变形的高分辨率图像,不幸的是,由于Gelsight尺寸较大并且仅在一侧敏感,所以在实际应用场景中Gelsight传感器面临很大挑战。OmniTact传感器设计旨在解决以上限制,它以紧凑的外形在曲面上提供了多方向和高分辨率的感知信息。OmniTact使用嵌入到硅胶凝胶中的摄像头来捕获皮肤的变形情况,从而提供丰富的信号,可以推断出诸如剪切刀和法向力、物体姿态、几何形状和材料特性等各种特征,OmniTact使用多个摄像头,使其具有高分辨率和多:方向功能。传感器本身可以用作“手指”,并且可以集成到抓手或机械手中。利用通常在内窥镜中使用的微型相机并将硅凝胶直接浇注到相机上,OmniTact比以前的Gelsight传感器更加紧凑。研究员认为,紧凑、高分辨率和多方向能摸感应技术有可能改变当前机器人操纵的功能。多方向触觉传感器可能是通用机器人操纵中的重要元素,可以应用在远程外科手术、海上或太空飞行任务上。研究员计划使OmniTact变得更便宜、更紧凑,从而使其可用于更广泛的任务上。

 

469,麻省理工研究团队使用AI来研发“好奇”的机器学习新算法

在与生俱来的“好奇心(curiosity)”的驱使下,孩子们探索世界并从经验中学到新的技能。相比之下,把计算机放到新的环境中,有时就会出现故障。为了能让计算机更好地适应新环境,MIT的研究团队尝试用AI来发现具有“好奇心”的算法。

研究人员从人和其他动物的好奇行为中汲取了灵感,“好奇心”是进化过程中探索发现的一种机制,该机制促使智能体进行有意义的探索,在学习中不断获取经验赢得高额回报。研究人员将产生“好奇行为”的问题看作一种元学习。

基于此,研究人员创建了一种“元学习”算法,该算法生成52000个探索算法,然后再从这些算法中筛选出最佳的算法。Google首席科学家QuocLe表示,“使用程序检索来发现更好的内在激励机制是非常有创意的,它开拓了计算机辅助深度学习模型设计的相关研究”。

这项研究表明,使用机器学习方法来创造新颖的、高性能的机器学习算法是可行的,具有巨大潜力。

 

470,我国新一代外骨骼机器人问世

适应多地形、无需拐支撑!新一代步行外骨骼机器人

我国是继美国、以色列、日本之后第四个成功研发外骨骼机器人的国家

中国科大科研团队突破过去机器人研究:平衡行走大都借助拐杖支持,使得人机处于静平衡状态,不能自由行走,研发新一代步行外骨骼机器人。他们通过全方位改进外骨骼机械设计、控制算法和拟人化步态,攻克一系列关键技术:突破了人机混合智能的人机电系统协调一体化技术,建立穿戴外骨骼机器人主动认知智能,实现了对外骨骼机器人的直觉控制,实现了人机动态平衡,外骨骼机器人融合人工智能、传感、控制、信息、移动计算等技术于一身。让新一代下肢康复外骨骼机器人可以实现无拐杖辅助平地行走、跨越障碍、转弯以及上下楼梯等场景,帮助穿戴者释放上肢负担,扩大运动范围、增加平衡性和安全性。

这款基于人工智能、仿生学和人体工程学的机器人是目前国内自由度数最多的外骨骼机器人。

 

471,百度大脑DuMixAR发布

百度大脑DuMixAR发布室内定位能力,携手百度地图赋能智慧商超精准导航

导航:宏观+微观

当人们逛商场时,如果不是特别熟悉商场内地理环境、门店配置,想寻找一个特定门店,往往需要反复查找和问询,免不了走很多弯路。这时你纵使持有百度地图宏观导航,在这个复杂的室内商超微观环境中将不起作用。

近日,百度推出百度大脑DuMixAR,可对每个商场或商厦内不同方位、不同楼层的各家门店实行精准定位(将AR步行导航功能搬进商场对其内部各家门店实行步行精准定位)。

进一步,百度大脑携手百度地图,这时将对某一地区从总体上赋能智慧商超宝现全面的精准导航。

 

472,运用AI等高科技诊治COVID—19

近日英特尔CEO睿博(BobSwan)谈到世界正面临挑战,从气候变化到数字鸿沟再到新冠疫情。他也谈到英特尔提出的科技应对计划。

他谈到下一个十年的科技应对计划:

一是推动技术变革,改善健康和安全;二是促进技术包容性,扩大数字化就绪;三是实现碳中和计算,以应对气候变化。其中他也提出了科技抗疫应对计划:

该计划运用人工智能(AI)、云计算和高性能技术解决方案,运用高科技来更好地诊断、治疗和治愈新冠肺炎(COⅤID—19)。并为未来有可能发生的流行病做好充分准备。

 

473,AI ProCon2020将于2020年7月3~4日在线上隆重举行

CSDNAI开发者大会(AIproCon),作为年度AI技术趋势与行业应用的风向标,已连续成功举办两届,今年的AIproCon2020再度强势来袭。

AIproCon2020深度聚焦人工智能技术创新与行业应用:

用更新鲜、更有趣、更年轻的方式,聚焦智能时代AI技术发展曲线,以及AI与社会各行业相结合的最新实践进展,深入解析AI热门技术在行业中的实践和落地;揭示技术与行业发展面临的挑战和机遇。

AIproCon2020将作为CSDN推出的“百万人学AI”系列活动最重要的部分。邀请近百位顶尖AI专家、知名企业代表,为万名AI开发者大会进行技术解读和新产业论坛,一起共铸AI新生态。

本届万人AI大会主席为陆奇。

 

474,人脸新算法:人脸组成编辑算法(r-FACE)

人脸肖像编辑指基于一幅给定的人脸图像,对人脸的属性或组成进行编辑,并且生成的图像看起来真实自然,其在影视制作、照片处理和交互式娱乐等方面具有广阔应用前景。针对这个问题,媒体深度伪造与反伪造创新团队成员邓琪瑶博士、李琦副研究员、孙哲南研究员等人提出一种从参考图像学习目标人脸组成形状的人脸组成编辑算法(r-FACE)。该方法创新性地提出了多样化且可控的人脸组成编辑方法,并较好地保留原有图像的姿势、肤色等风格特征,与传统算法及商业PS算法等相比,有明显视觉效果提升。相关成果论文《ReferenceGuidedFaceComPonentEditing》。

 

475,GitHub上最火的NLP项目做机器翻译了!

HuggingFace发布了1008种机器翻译模型,该模型(26.9K-Transformer项目)涵盖140种不同的语言组合(中翻英、英译法、法语翻阿拉伯语……,还能够一对多翻译)。该模型是研究人员使用无监督学习和Opus数据集训练的(Opus项目来自赫尔辛基大学及其全球合作伙伴,旨在收集和开源各种语言数据集,尤其是低资源、小语种语言数据集)。

据HuggingFace创始人ClementDelangue谈,全世界有那么多人在使用GitHub上的开源项目,越来越多使用不同语言的人聚集在NLP社区,让我们意识到应该在模型中提供更多语言的接入,同时也提供翻译。

 

476,GPU—NⅤIDIA-A100发布

20倍AI算力飞跃!

NⅤIDIA发布NⅤIDIA-A100,这是目前全球最大的GPU,具备全新的Ampere架构,7nm工艺,540亿晶体管,20倍AI算力提升。

NⅤIDIA创始人兼CEO黄仁勋说,云计算和人工智能的强大趋势正在推动数据中心设计的结构性转变,过去的CPU服务器正在被高效的加速计算基础架构所取代。NVIDIA-A100GPU作为一个端到端的机器学习加速器,其实现了从数据分析到训练再到推理20倍的AI性能飞跃,这是有史以来首次。

首款基于Ampere架构的GPU——NⅤIDIA-A100,目前已全面投产并已向全球客户交付。NⅤIDIA-Ampere架构实现了革命性的数据分析、训练和推理性能。A100采用了NⅤIDIA-Ampere架构的突破性设计,该设计为NⅤIDIA第八代GPU提供了迄今为止最大的性能飞跃。其性能比前代产品提升20倍。作为一款通用型工作负载加速器A100还被用于数据分析、科学计算和云图形,被全球顶级云供应商和服务器制造商所采用。

赞(0) 打赏
未经允许不得转载:爱站程序员基地 » 针对《评人工智能如何走向新阶段》一文,继续发布国内外的跟贴留言466-476条如下: