- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
粒子滤波及组合模式 内容概要 1 组合导航中的状态估计问题 (为什么要用粒子滤波方法?) 2 粒子滤波方法 (什么是粒子滤波方法?) 3 基于粒子滤波的组合模式 (怎么用粒子滤波方法?) 线性,高斯噪声 非线性,高斯噪声 非线性,非高斯噪声 卡尔曼滤波(Kalman Filter,KF)(最优线性滤波) 扩展卡尔曼滤波(Extended Kalman Filter,EKF);无迹卡尔曼滤波(Uncented Kalman Filter,UKF) 最优贝叶斯滤波(Bayes Filter) 粒子滤波(Particle Filter) (基于蒙特卡洛仿真的递归贝叶斯滤波) 一、预备知识 二、最优贝叶斯滤波 三、蒙特卡洛仿真 四、粒子滤波 一、预备知识 状态方程: p(xk|xk-1) (状态转移概率密度) 观测方程: p(zk|xk) (观测值似然概率密度) 状态估计:在已知状态方程(状态转移概率密度) 、观测方程(观测值似然概率密度)及观测向量基础上,推算状态向量后验概率密度,进而对状态向量进行估计。 2. 几种概率密度意义 p(xk|xk-1)状态转移概率密度 状态模型:已知船舶前一位置为xk-1,则船舶当前位置为xk的概率密度。 p(zk|xk)观测值似然概率密度 观测模型:已知船舶当前位置为xk,其观测值zk的似然概率密度。 p(xk|z1:k) 后验概率密度 已知对于船舶位置的观测值序列z1:k,则船舶当前真实位置xk的概率密度。 3. 概率论预备知识 4. 系统模型假设 二、最优贝叶斯滤波 目标为基于所能获得的观测量z1:k迭代估计未知状态量 xk的后验概率密度 p(xk|z1:k)。 最优贝叶斯滤波方法可分为四步:步骤1.状态向量概率密度预测步骤2.观测向量概率密度预测步骤3.状态向量后验概率密度计算 步骤4.状态向量估计 步骤1:假定在k-1时刻已经获得 ,那么状态向量预测概率密度函数可推导如下 三、蒙特卡洛仿真 非线性、非高斯系统状态的后验概率密度p(xk|z1:k)的估计不存在解析解,但运用蒙特卡洛仿真,后验概率密度可以被N个带有权值的抽样点所近似。粒子滤波方法就是一种基于蒙特卡洛方法的递归状态贝叶斯估计方法。 对于状态序列 其联合后验概率密度可由一系列的从后验概率密度分布产生获得样本抽样 表示,该样本抽样被称为粒子 则对于序列 的任意函数 的概率分布可由相应粒子函数值的柱状图近似,其期望值则可由粒子函数值的平均获得。即对于期望值 取 p(x)=Gamma(4,1),生成随机粒子,取较小的领域,画出其柱状图,可以看出,柱状图非常接近真实概率分布。 四、粒子滤波方法 实际应用中无法从未知的后验概率密度获得粒子。因此往往从一个已知的、简单的概率密度获得采样粒子。该概率密度函数称为重要性概率密度函数(Importance Density Function Distribution),采样过程称为重要性采样(Importance Sampling),采样而产生的样本称为采样粒子(Sampling Particle),粒子滤波迭代过程中的采样称为序贯重要性函数采样。 粒子退化定量描述 对粒子滤波算法粒子退化的一个量度为有效样本容量,定义如下 粒子重采样法(Particle Resampling) 基于优选重要性密度函数的粒子滤波方法 基本思想:使重要性密度函数尽可能接近最优概率密度函数,从而解决粒子退化问题。 可以证明:粒子滤波器最优概率密度函数为状态向量的后验概率密度函数。 解决方法:取后验概率密度函数的高斯近似作为重要性密度函数 1. EKF粒子滤波器 2. UKF粒子滤波器 3. 高斯混合粒子滤波 3 基于粒子滤波的组合模式 重采样算法是降低粒子权值退化现象的另一种方法,其思想是通过对粒子和相应权值表示的概率密度函数重新采样,增加权值较大的粒子数 序贯重要性采样粒子滤波(Sequential Importance Sampling,SIS) Initialize particles Output Output estimates 1 2 M . . . Particle generation New observation Exit Normalize weights 1 2 M . . . Weight computation Resampling More observations? yes no
文档评论(0)