- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
中国工程热物理学会 传热传质学
学术会议论文 编号:063006
脉冲激光加热下双相滞模型的数值模拟·
韩鹏唐大伟周乐平
中国科学院工程热物理研究所100080.
Emai
联系电话:,01062559365
1:dwtang@mail.etp.ac.cn
摘要;本文应用双相滞模型(Dual—phase—lagmodel)处理高速脉冲激光加热有限固体表面问题,并
在柱坐标系下用有限差分方法对其进行了数值模拟。本文没有直接求解温度控制方程,而是首先用有
限差分的方法对热流控制方程进行了数值求解,然后在已知热流分布的基础上问接求得了温度场的分
布.给出了计算结果,并对热波、类热波、扩散以及过扩散等不同的导热行为进行了讨论。
关键词 高速脉冲激光双相滞模型数值模拟
1引言
高速脉冲激光的发展为传热领域的深入研究提供了令人振奋的机遇。对高速脉冲激
光加热问题的处理,目前存在两类模型:一类是由Cattaneo[1]_j}l
Vemotte[2]从宏观角度
wave
提出的热波模型(Thermal
model),另一类是从微观角度得到的两步模型(Two.step
field
model)【3】和纯声子场模型(Purephononmodel)[41。热波模型推出了一个双曲型
导热方程,它表明了热是以有限速度传播的。两步模型和纯声子场模型分别预测了金属
和非金属材料中的一些导热行为,然而这些行为是用热波模型和傅立叶扩散模型无法解
体中描述剪切波的思想提出了Jeffreys热流方程,此方程引入了两个时间常数:热流弛
豫时间和热流延迟时间。几年后,Tzou在Fourier热流方程中引入两个时间常数:热流
滞后时间和温度梯度滞后时间,推出了与Jeffreys热流方程有相同形式的双相滞模型。
双相滞模型把微尺度效应归结到两个时间滞后响应中去。虽然模型中引入的两个时间常
数的物理意义具有很大的争议,此模型的合理性也受到了怀疑,但是这个模型对建立统
一的宏观导热模型具有重大的挑战意义。从理论上讲,这个模型不是从微观物理角度导
出的,但是它却和两个微观模型吻合得非常好【3.4】。实验方面,它成功地描述了金属和
多孔介质的导热行为【6—7】。该模型把微尺度效应简单归入两个时间常数中,这也许有些
问题,但是对其最终验证还是要通过实验。对此模型进行分析可以为实验提供必要的准
备,从而为判断这个模型的合理性奠定基础。
Tang和Araki【7】将双相滞模型应用于高速脉冲激光加热有限大固体表面问题中,
并给出了该问题的一维解析解。Antaki利用双相滞模型,对表面阶跃热流作用下的半无
限大物体进行了分析。Quintanilla【9】对半无限大柱体的一些问题解的空间行为进行了分
析。Liu【io]分析了在辐射边界条件下两层薄膜的双相滞导热行为,并且考虑了膜与膜
之间的接触热阻。Wang等,在线性边界条件下给出了两个双相滞模型的解结构定理。
and
Ang用双重边界元方法在拉氏空间对双相滞模型进行了求解。ZhangZhao【13]提供
了利用前处理共轭梯度法对离散的线性系统进行了求解的计算程序。大多数关于双相滞
模型的前期工作都是在一维坐标系下,或者在简单热流作用下进行的,但实际上,激光
’
的脉冲形状是各种各样的,加热过程也往往是二维或三维问题。
794
本文应用双相滞模型处理高速脉冲激光加热有限固体表面问题,并在柱坐标系下采
用一种间接求解温度场的方法对其进行了数值模拟。利用这种方法
文档评论(0)