技术

为工程师提供有关电子整机产品设计所需的技术分析、设计技巧、设计工具、测试工具信息,也提供有关IC设计的工具、方法和相关资料信息。帮助工程师实现创新设计!

智能购物应用中的存储器——第二部分

作者:Reuben George

当今,物联网(IoT)已对所有行业产生了影响,而且有望到2020年成为一个1.7万亿美元的市场。IoT领域建立在云计算以及由移动、虚拟和即时连接搭建的数据采集传感器网络的基础之上。行业专家认为,它将让我们生活中的一切变得更加“智能”,从路灯到海港。IoT已经渗透至各行各业:从工厂自动化到点播娱乐和可穿戴设备。

IoT无疑是推动半导体行业和嵌入式系统发展的新动力。它的诞生推升了市场对众多新使能技术的需求,其中包括:

  • 新一代超低功耗IC
  • 全新的无线通信协议
  • 分析及云计算用全新数据处理技术

随着芯片朝着更小尺寸的工艺节点迈进,此前相对不引人注目而现在变得愈发显眼的一个半导体细分市场就是存储器。物联网及其艾字节数级的数据流量正在推升市场对高性能、低功耗、超小封装存储器的需求。

IoT对半导体-尤其是存储器-强加的另一个约束就是安全性和可靠性要求。大量隐私信息将存储在可穿戴设备、服务器和其它物联网节点上。IoT创造了对高性能、低功耗、使用电池供电仍能执行复杂运算的芯片的需求,同时还必需尽量缩减芯片引脚数量和外形尺寸。

无线充电产品互操作性测试解析

引言

日前市场上传出苹果新一代机种将导入无线充电技术;另一则消息则是苹果加入了无线充电联盟WPC。苹果一向代表产业风向球、引领主流市场走向,接二连三的消息传出,似乎预告了行之有年、尚未开花结果的无线充电技术与市场荣景即将来临。

根据IHS市场研究报导,2017年无线充电装置(Rx)和无线充电板(Tx)总出货量预计会超过6亿台,至2025年Tx与Rx总出货量以倍数成长达到28亿台,从图一我们可得知,手机、智能手表等无线充电装置已成为无线充电市场主要推力,连带拉高充电板出货。

图一、全球无线充电产品出货量,数据源:IHS

高速连接器发展趋势与质量检验重点

概况

在通讯产业蓬勃发展之下,各式电子产品持续追求更佳的传输质量与及时性并提供多元化应用,这些需求促使讯号传递速度持续朝高速发展。为了提升讯号传递速度以及缩短用户的等待时间,除改变讯号编码方式外,降低讯号位准(signal level)亦或是提供全双功的传输模式都成为改良的手段;为达到此一目标,各组件或装置之间对于减少讯号衰减与失真以及避免噪声干扰的要求大幅提升。因此,作为沟通桥梁的连接器也无法幸免,其对于传输讯号质量与速度的影响也日趋受到重视。以数据传输为例,从早期USB 1.0的最大传输速度为12 Mbps,到了USB 2.0 时最大传输速度为480 Mbps、在USB 3.0(SuperSpeed USB)更提升到5 Gbps,最近相当热门USB 3.1 Gen 2 更一口气将传输速度提高到10 Gbps,其通讯模式也从半双功提升至全双功,以满足高速传输。

理解电机驱动器电流环路中非 理想效应影响的系统方法

作者:Jens Sorensen,Dara O’Sullivan

本文将重点关注相电流测量引起的扭矩纹波。我们将对每种误差进行分析,并讨论最大限度地减小测量误差影响的方法。

摘要

在任何数控电机驱动器中,一个不可或缺的部件是相电流反馈。测量质量与扭矩纹波和扭矩建立时间等系统参数直接相关。虽然系统性能与相电流测量之间存在强相关关系,但很难将其转换成对反馈系统的硬性要求。从系统角度来看,本文将讨论如何设计出面向电机控制优化的反馈系统。同时还将指出误差源,并讨论缓解效应。

1. 简介

电流环路在电机驱动器或伺服(见图1)中的性能直接影响电机的扭矩输出(扭矩输出对平滑响应至关重要)以及精确定位和速度曲线。平稳扭矩输出的一个关键衡量指标是扭矩纹波。这对仿形切削和切割应用尤为重要,在此类应用中,扭矩纹波会直接转 化为可实现的终端应用精度。对于生产效率直接受可用控制带宽影响的自动化应用,响应时间和建立时间等与电流环路动态相关的参数非常重要。除电机设计本身外,驱动器内的多个因素也会直接影响这些性能参数。

语音接口技术浅析

语音接口已经成为一个改变人机交互方式的全新切入点。这些系统如何工作?打造这样一款设备在硬件方面有什么要求?随着语音控制接口变得越来越普及,德州仪器(TI)的一位工程师对此技术进行了深入的了解,并分享了其对这项技术的认识和看法。

语音接口是什么?

语音识别技术自20世纪50年代起开始出现在我们身边。那时贝尔实验室的工程师创建了一款可以识别单个数字的系统。然而,语音识别只是完整语音接口技术的一部分。语音接口包含传统用户接口的所有方面:它能呈现信息并为用户提供一种操控方式。在语音接口中,操控或者甚至一些信息的呈现都将通过语音实现。在一些如按钮或显示屏等传统的用户接口上,也可能配置语音接口这一选项。

大部分人遇到的第一款语音接口设备很有可能是移动电话,或者是个人电脑上非常基础的将语言转换成文字的程序。然而,这些设备的运行都非常缓慢、识别不精确且可识别的词汇有限。

那是什么将语音识别从一种附属性功能变成了计算机世界炙手可热的技术呢?首先,如今的计算能力和算法性能都有显著的提高(如果你对隐马尔科夫模型有所了解,对此你会有更直观的认识)。其次,云技术和大数据分析的应用也改进了语音识别效果,并且提高了识别的速度和准确性。

为你的设备添加语音识别功能

针对支持 HART 的 4 mA 至 20 mA 输入进行优化的电路设计

作者:Derrick Hartmann,Michal Brychta

HART(可寻址远程传感器高速通道的开放通信协议)协议允许在传统的模拟4 mA至20 mA电流环路内实现双向1.2 kHz/2.2 kHz FSK (频移键控)调制数字通信。这样可实现传感器/执行器的查询,并且能够在设备安装、监控和维护过程中表现出显著的优势。通过使用便携式辅助器件查询传感器/执行器,HART可为维护人员提供众多便利,但要完全实现HART带来的所有好处,必须将传感器/执行器连接至带支持HART的电流输入或输出的控制系统。本文将重点阐述支持HART的电流输入以及与向余量受限的4 mA至20 mA输入设计中添加HART功能相关的难题。

我们先来看看HART FSK发送电路。图1显示了HART FSK发送电路的一种传统方案,对此电路进行讨论后我们将展示经过改进的电路设计,改进后的电路可节省空间和成本。

高速信号编码之8B/10B

作者:黄刚

前面文章说过,在高速链路中导致接收端眼图闭合的原因,很大部分并不是由于高频的损耗太大了,而是由于高低频的损耗差异过大,导致码间干扰严重,因此不能张开眼睛。针对这种情况,前面有讲过可以通过CTLEFFE(包括DFE)均衡进行解决,原理无非就是衰减低频幅度或者抬高高频幅度,从而达到在接收端高低频均衡的效果。同时我们在前文还埋了个伏笔:

大功率、可扩展、封装占板面积很小、产生热量更少的 POL 稳压器已经出现

通过 3D 封装架构和聪明的组件放置方式解决了热量问题

作者:Afshin Odabaee 微型模块电源产品部 业务部经理

下面将要陈述的一些事实一定会让 DC/DC IC 及电路设计师不快,不过,真实情况是,这些问题今天比几年前更加显著。尽管这些设计师脑力强大,通晓设计艺术和设计学,拥有丰富经验,可以熟练摆弄波德图 (Bode plot)、麦克斯韦方程 (Maxwell’s equations) 和零极点,能够设计出精致的 DC/DC 转换器电路,但是 IC 设计师常常对付最后一个可怕的物理难题:热量。这本来是封装工程师的事儿。如今,封装工程师对 DC/DC POL (负载点) 稳压器热性能的影响要比以往大得多,尤其是那些大功率、小封装稳压器。

POL 稳压器之所以产生热量,是因为没有电压转换效率能够达到 100%。这样一来就产生了一个问题,由封装结构、布局和热阻导致的热量会有多大? 封装的热阻不仅提高 POL 稳压器的温度,还提高 PCB 及周围组件的温度,并使得系统散热设计更加复杂。

组件安装到 PCB 上以后,消除封装产生的热量主要有两种方法:

  1) 采用表面贴装方式时,将热量传导到铜质 PCB 层,从封装底部散热。

标签

发射本振泄漏—零中频架构中令人烦恼的问题

作者:Dave Frizelle

简介

零中频架构有一些重要优势,但也有一些挑战需要克服。发射本 振泄漏(以下简称为发射LOL)便是其中之一。未校正的发射LOL 会在所需发射范围内产生无用发射,造成潜在的违反系统规范的 风险。本文论述发射LOL的问题,并介绍在ADI的RadioVerse™ 收发 器系列(包括AD9371;有关详情,请参见ADI RadioVerse网站)中实 现的可消除此问题的技术。如果可以将发射LOL降低到足够低的 水平,使其不再导致系统或性能问题,也许人们就可以不必为LOL 问题而烦恼!

互联网+AI,云反射弧如何成为人工智能发展的下一个重点

作者:刘锋

从2014年开始,人工智能逐渐成为科技领域最热门的概念,被科技界,企业界和媒体广泛关注。作为一个学术领域,人工智能是在1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题时首次提出。

事实上,人工智能的发展充满了坎坷,在过去的60年里,人工智能经历了多次从乐观到悲观,从高潮到低潮的阶段。最近一次低潮发生在1992年日本第五代计算机计划的无果而终,随后人工神经网络热在20世纪90年代初退烧,人工智能领域再次进入“AI之冬”。这个冬季如此的寒冷与漫长,直到2006年加拿大多伦多大学教授Geoffrey Hinton提出”深度学习“算法,情况才发生转变。

这个算法是对20世纪40年代诞生的人工神经网络理论的一次巧妙的升级,它最大的革新是可以有效的处理庞大的数据。这一特点幸运的与互联网结合。由此引发了2010年以来新的一股人工智能热潮。2011年,一位NCAP研究员和斯坦福的Andrew Ng在Google建立了以深度学习为基础的谷歌大脑,Andrew Ng也就是后来百度大脑的首席科学家吴恩达。2013年,Geoffrey Hinton加入Google公司,其目的是进一步把谷歌大脑的工作做的更为深入。