- 10
- 0
- 约3.8千字
- 约 5页
- 2017-08-11 发布于重庆
- 举报
基于AVR单片机的八通道AD采集
AVR采集数据软硬件设计
概述
该部分将前部分得到的模拟信号进行AD转换,用数码管进行显示。采用Atmel公司 的ATMEGA128 单片机做控制器,利用其自带的10 位精度的模数转换器,免去外部ADC 芯片,在提高采样精度的同时降低硬件成本,设计采用过采样技术,将mega128单片机自带的10 位AD转换器的精度提高到12 位。依据过采样原理的限制条件,为了保证过采样原理应用的可靠性,设计引入了噪声激励信号。为了避免噪声激励可能出现的偏差,使用了mega128 自身的计数器来生成噪声,来满足实验要求。
系统要求
ADC 转换时可能引入很多种噪声,例如热噪声、杂色噪声、电源电压变化、参考电压变化、由采样时钟抖动引起的相位噪声以及由量化误差引起的量化噪声。有很多技术可用于减小噪声,例如精心设计电路板和在参考电压信号线上加旁路电容等,但是ADC 总是存在量化噪声的,所以一个给定位数的数据转换器的最大SNR 由量化噪声定义。在一定条件下过采样和求均值会减小噪声和改善SNR,这将有效地提高测量分辨率。过采样指对某个待测参数,进行多次采样,得到一组样本,然后对这些样本累计求和并对这些样本进行均值滤波、减小噪声而得到一个采样结果。
要准确采集到微弱信号可以提高ADC的分辨率,而高分辨率的ADC价格较为昂贵,并且它是用速度换取的高精度,导致采样率不高 ,特别是用于多通道采样时,由于建立时间长,采样率还会显著降低。利用AVR单片机内部集成的ADC转换器可大大减少硬件开支。Atmel 的AVR 单片机提供了10 位精度的模数转换器。在大多数情况10 位精度已经足够了,但是某些情况下需要更高的精度。我们可以使用特殊的信号处理技术来提高测量的精度。使用这种方法可以得到较高的精度,不需要使用外部的ADC。可以有效地利用片上资源,降低硬件成本。
过采样技术原理
过采样技术是以远高于奈奎斯特采样频率的频率对模拟信号采样。,由信号采样量化理论可知,若输入信号的最小幅度大于量化阶梯Δ,并且输入信号的幅度随机分布,则量化噪声的总功率为一个常数,与采样频率fs 无关,且在0~fs 的频带范围内均匀分布。但是,量化噪声电平与采样频率成反比,提高采样频率,可降低量化噪声电平,而频带不变,因而降低选取频带噪声功率,提高信噪比。因此采样频率越高,输出频带内量化噪声功率越低。
根据Nyquist 定理规定信号的采样频率必需至少是信号频率的两倍,否则高频部分将有损失。最小需要的采样频率称为Nyquist 频率。
在实际应用的ADC 变换器中,转换结果中两个相邻ADC 码之间的距离决定量化误差的大小,如果N 为ADC码的位数,Vref为参考电压,则量化误差eq可以表示为
输入信号的最高频率为fm,采样频率是fs,则过采样率(OSR)可以表示为
:
噪声为白噪声,则平均噪声功率可以表示为:
对于白噪声带内噪声的输出功率为:
上式联解得到:
这说明由于过采样而增加了ADC 的分辨率,即增加了W 的分辨率。也就是说,可以通过设定过采样率来获得工程中所需要的分辨率。
过采样原理的一个很重要的假设条件,就是噪声必须是白噪声。因此,工程上在一定条件下才可以使用这个原理:
(1) 信号上有一定噪声;
(2) 噪声必须逼近白噪声,在整个有用频带内具在平均分布的功率谱密度;
(3) 噪声幅度必须足够大,能引起输入信号样本之间的随机变化,最少为1~2 个LSB。
为了使结果可靠,我们考虑激励噪声应该保证以下几点:
(1) 当添加N 次采样时,噪声周期不能超过N 次采样的周期;
(2) 激励噪声的幅度至少需要达到 1 LSB;
(3) 当添加激励噪声时,噪声的均值必须是0。
过采样频率和输入信号的关系如:
综上可见,foversampling 的采样频率上限是15kHz。fnyquist 的上限降为15/4nkHz,牺牲了部分MCU 的性能。
四、在AVR上的软硬件实现
AVR 单片机上8 位单片机是一个真正的RISC 结构的单片机。在一个时钟周期可以完成一条指令执行。运行速度是80C51 单片机的20 倍以上。不同型号MCU,片上资源有所差异。我们在工程中具体使用了AVR 系列中的ATmega128。
ATmega128速度等级0~16MHz;片内具有非易失性的程序和数据存储器,包括:128K 字节寿命10,000次写/ 擦除周期的可编程Flash、4K 字节寿命:100,000次写/ 擦除周期的EEPROM、4K 字节的内部SRAM、多达64K 字节的优化的外部存储器空间,具有独立锁定位、可选择的启动代码区,通过片内的启动程序实现系统内编程真正的读- 修改- 写操作。另外,两个具有独立的预分频器和比较器功能的8 位定时器/ 计数器;两个具有预分频器、比较功能
原创力文档

文档评论(0)