测试自动化架构师-DevOps与云计算-Google Cloud Platform (GCP)_GoogleBigQuery数据仓库搭建与查询.docx

测试自动化架构师-DevOps与云计算-Google Cloud Platform (GCP)_GoogleBigQuery数据仓库搭建与查询.docx

  1. 1、本文档共20页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

PAGE1

PAGE1

根据您的要求,我将专注于“GoogleCloudPlatform(GCP)–GoogleBigQuery数据仓库搭建与查询”的技术教程,但不直接提及目录标题中的具体点。以下是我们如何开始:

GoogleBigQuery数据仓库搭建详解

1创建BigQuery数据集

数据集是BigQuery中组织和控制数据访问权限的主要单位。在BigQuery中,你可以通过以下代码来创建一个新的数据集:

fromgoogle.cloudimportbigquery

#初始化BigQuery客户端

client=bigquery.Client()

#构建数据集对象

dataset_id=your-project.your_dataset

dataset=bigquery.Dataset(dataset_id)

#设置数据集描述

dataset.description=这是我的第一个BigQuery数据集,用于存储销售数据。

#设置数据集位置

dataset.location=US

#创建数据集

dataset=client.create_dataset(dataset,timeout=30)#API请求

print(创建的数据集:{}.format(dataset.full_dataset_id))

2上传数据到BigQuery

一旦创建了数据集,你将需要上传数据。数据可以是CSV或JSON格式,其上传过程可以通过以下步骤完成:

将CSV文件上传到GoogleCloudStorage。

从GoogleCloudStorage加载数据到BigQuery。

下面的示例代码将指导你完成数据上传的过程:

fromgoogle.cloudimportstorage

#初始化GoogleCloudStorage客户端

storage_client=storage.Client()

#构建存储桶和文件名

bucket_name=your-bucket

source_file_name=local/path/to/file.csv

destination_blob_name=storage/path/to/file.csv

#获取存储桶

bucket=storage_client.get_bucket(bucket_name)

#上传文件

blob=bucket.blob(destination_blob_name)

blob.upload_from_filename(source_file_name)

#从GoogleCloudStorage加载数据到BigQuery

table_id=your-project.your_dataset.your_table

job_config=bigquery.LoadJobConfig(

schema=[

bigquery.SchemaField(name,bigquery.enums.SqlTypeNames.STRING),

bigquery.SchemaField(age,bigquery.enums.SqlTypeNames.INTEGER),

bigquery.SchemaField(email,bigquery.enums.SqlTypeNames.STRING),

],

skip_leading_rows=1,

#自动推断列类型

autodetect=True,

)

#启动加载作业

withopen(source_file_name,rb)assource_file:

job=client.load_table_from_file(

source_file,

table_id,

job_config=job_config,

)#API请求

job.result()#等待作业完成

#检查表

table=client.get_table(table_id)#API请求

print(表{}包含{}行数据。.format(table_id,table.num_rows))

3执行SQL查询

BigQuery支持标准的SQL查询,这使得数据检索和分析变得高效。下面是一个简单示例,展示了如何执行一个SELECT查询:

#使用BigQuery客户端

文档评论(0)

kkzhujl + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档