BigQuery
準備
1. パッケージのインストール
- R
- Python
install.packages("bigrquery")
pip install google-cloud-bigquery
2. パッケージの読み込み
- R
- Python
library(bigrquery)
from google.cloud import bigquery
プログラム
1. データを読み込む
- R
- Python
# Google Cloudと認証
# 省略しても後続の処理で対話的に認証できる
# bq_auth(path = "<CREDENTIALS_FILE_PATH>") # email引数でも可
project_id <- "<PROJECT_ID>"
sql <- "select * from <DATASET>.<TABLE>"
# クエリを実行し、結果をtibbleとして読み込む
df <- bq_project_query(project_id, sql) %>%
bq_table_download()
この方法は、bigrquery::bq_table_download
は、小さいクエリ(例えば 100MB 未満)の結果に最適である。
データが 100MB を超える場合は、ローカルに CSV ファイルとしてダウンロードして、readr::read_csv
で読み込む。
# Google Cloudと認証
client = bigquery.Client()
project_id = "<PROJECT_ID>"
sql = "SELECT * FROM <DATASET>.<TABLE>"
# クエリを実行し、結果をデータフレームとして読み込む
df = client.query(sql, project=project_id).result().to_dataframe()