- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
PAGE1
PAGE1
Azure数据工厂:与Azure机器学习的集成教程
1Azure数据工厂概述
AzureDataFactory(ADF)是一个云端数据整合服务,用于创建和调度数据驱动的工作流。这些工作流可以摄取、转换、加载和编排数据,从而实现从多个数据存储中提取数据,进行数据转换,最后将数据加载到目标数据存储的ETL(Extract,Transform,Load)过程。ADF支持多种数据源,包括但不限于AzureSQLDatabase、AzureCosmosDB、AzureBlobStorage、AzureDataLakeStorage、SQLServer、OracleDatabase等。
1.1主要功能
数据摄取:从各种数据源中提取数据。
数据转换:使用预置的转换活动或自定义的.NET或Python代码进行数据转换。
数据加载:将转换后的数据加载到目标数据存储。
数据编排:创建和管理数据驱动的工作流,包括触发器、管道和活动。
监控和管理:提供工具来监控和管理数据工厂的运行状态和性能。
2Azure机器学习服务简介
Azure机器学习服务是Microsoft提供的一套全面的机器学习平台,旨在简化机器学习的整个生命周期,从数据准备、模型训练、模型部署到模型管理。它支持自动化的机器学习流程,以及使用Python、R、Scala等语言进行自定义的模型训练。
2.1主要组件
Azure机器学习工作室:一个基于Web的界面,用于数据探索、模型训练和部署。
计算实例和计算集群:用于模型训练的计算资源。
模型注册和管理:用于存储、版本控制和管理模型的注册表。
模型部署:将模型部署为Web服务,以便在生产环境中使用。
3集成的必要性和优势
将AzureDataFactory与Azure机器学习服务集成,可以实现数据的自动化处理和机器学习模型的自动化训练和部署,从而提高数据处理和模型开发的效率。这种集成的主要优势包括:
数据自动化处理:ADF可以自动处理和准备数据,为机器学习模型提供干净、格式化的数据。
模型自动化训练和部署:一旦数据准备好,可以自动触发机器学习模型的训练和部署,无需人工干预。
资源优化:通过集成,可以更有效地管理计算资源,避免资源浪费。
流程自动化:整个数据处理和模型开发流程可以自动化,提高效率和减少错误。
3.1实例:使用ADF触发机器学习模型训练
假设我们有一个存储在AzureBlobStorage中的数据集,我们希望使用这个数据集来训练一个机器学习模型。我们可以使用ADF来自动化这个过程。
3.1.1数据集
数据集是一个CSV文件,包含以下列:
Id
Age
Income
SpendingScore
CustomerSegment
Id,Age,Income,SpendingScore,CustomerSegment
1,35,60000,75,2
2,40,80000,80,3
3,25,40000,60,1
3.1.2ADF管道
在ADF中,我们创建一个管道,该管道包含以下活动:
CopyActivity:从AzureBlobStorage复制数据到AzureSQLDatabase。
HDInsightSparkActivity:使用Spark进行数据预处理,例如缺失值处理、数据类型转换等。
ExecutePythonScriptActivity:执行Python脚本来触发Azure机器学习服务中的模型训练。
3.1.3Python脚本
#导入必要的库
fromazureml.coreimportWorkspace,Dataset,Experiment
fromazureml.train.automlimportAutoMLConfig
#加载工作空间
ws=Workspace.from_config()
#加载数据集
dataset=Dataset.get_by_name(ws,name=CustomerData)
#创建自动机器学习配置
automl_config=AutoMLConfig(task=classification,
primary_metric=accuracy,
training_data=dataset,
label_column_name=CustomerSegment,
n_cross_validations=5)
您可能关注的文档
- Amazon S3:S3事件通知与监控技术教程.docx
- Amazon S3:S3数据安全与加密.docx
- Amazon S3:S3性能优化与成本控制.docx
- Amazon S3:S3智能分层存储教程.docx
- AmazonS3:AmazonS3简介与核心概念.docx
- Anaconda:NumPy数组操作教程.docx
- Anaconda:Python基础语法教程.docx
- Anaconda:Scikit-learn机器学习基础教程.docx
- Anaconda:机器学习项目实战.docx
- Anaconda:深度学习项目实战.docx
- Azure数据工厂:与Power BI的连接与数据可视化教程.docx
- Bokeh(Python库):Bokeh多图布局与嵌套.docx
- Bokeh(Python库):Bokeh服务器与应用程序部署.docx
- Bokeh(Python库):Bokeh高级绘图技巧.docx
- Bokeh(Python库):Bokeh工具栏和注释使用教程.docx
- Bokeh(Python库):Bokeh基本绘图元素讲解.docx
- Bokeh(Python库):Bokeh交互式图表创建.docx
- Bokeh(Python库):Bokeh流数据可视化实践.docx
- Bokeh(Python库):Bokeh模型和模型系统介绍.docx
- Bokeh(Python库):Bokeh入门与环境搭建.docx
文档评论(0)