各製品の資料を入手。
詳細はこちら →SQLAlchemy ORM を使って、Python でDatabricks のデータに連携する方法
CData Python Connector を使って、Python アプリケーションおよびスクリプトからSQLAlchemy 経由でDatabricks にOR マッピング可能に。
最終更新日:2023-09-23
この記事で実現できるDatabricks 連携のシナリオ
こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。
Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for Databricks は、pandas、Matplotlib モジュール、SQLAlchemy ツールキットから使用することで Databricks にデータ連携するPython アプリケーションを構築し、Databricks のデータを可視化できます。 本記事では、SQLAlchemy でDatabricks に連携して、データを取得、、更新、挿入、削除 する方法を説明します。
CData Python Connectors の特徴
CData Python Connectors は、以下のような特徴を持った製品です。
- Databricks をはじめとする、CRM、MA、会計ツールなど多様なカテゴリの270種類以上のSaaS / オンプレデータソースに対応
- Python をはじめとする多様なデータ分析・BI ツールにDatabricks のデータを連携
- ノーコードでの手軽な接続設定
CData Python Connectors では、1.データソースとしてDatabricks の接続を設定、2.Python からPython Connectors との接続を設定、という2つのステップだけでデータソースに接続できます。以下に具体的な設定手順を説明します。
必要なモジュールのインストール
pip でSQLAlchemy ツールキットをインストールします:
pip install sqlalchemy
モジュールのインポートを忘れずに行います:
import sqlalchemy
Python でDatabricks のデータをモデル化
次は、接続文字列で接続を確立します。create_engine 関数を使って、Databricks のデータに連携するEngne を作成します。
engine = create_engine("databricks///?Server=127.0.0.1&Port=443&TransportMode=HTTP&HTTPPath=MyHTTPPath&UseSSL=True&User=MyUser&Password=MyPassword")
Databricks 接続プロパティの取得・設定方法
Databricks クラスターに接続するには、以下のプロパティを設定します。
- Database:Databricks データベース名。
- Server:Databricks クラスターのサーバーのホスト名。
- HTTPPath:Databricks クラスターのHTTP パス。
- Token:個人用アクセストークン。この値は、Databricks インスタンスのユーザー設定ページに移動してアクセストークンタブを選択することで取得できます。
Databricks への認証
CData は、次の認証スキームをサポートしています。
- Basic
- 個人用アクセストークン
- Azure Active Directory(AD)
- Azure サービスプリンシパル
- OAuthU2M
- OAuthM2M
Basic
Basic 認証には、ユーザー名とパスワードが必要です。以下を設定します。
- AuthScheme:Basic。
- User:ユーザーネーム。これはデフォルト値("Token")をオーバーライドします。
- Token:パスワード。
その他の認証方法については、ヘルプドキュメント の「はじめに」セクションを参照してください。
Databricks のデータのマッピングクラスの宣言
接続を確立したら、OR マッパーでモデル化するテーブルのマッピングクラスを宣言します。本記事では、Customers テーブルを使います。sqlalchemy.ext.declarative.declarative_base 関数を使って、新しいクラスにフィールド(カラム)を定義します。
base = declarative_base() class Customers(base): __tablename__ = "Customers" City = Column(String,primary_key=True) CompanyName = Column(String) ...
Databricks のデータをクエリ
マッピングクラスができたので、セッションオブジェクトを使ってデータソースをクエリすることができます。セッションにEngine をバインドして、セッションのquery メソッドにマッピングクラスを提供します。
query メソッドを使う
engine = create_engine("databricks///?Server=127.0.0.1&Port=443&TransportMode=HTTP&HTTPPath=MyHTTPPath&UseSSL=True&User=MyUser&Password=MyPassword") factory = sessionmaker(bind=engine) session = factory() for instance in session.query(Customers).filter_by(Country="US"): print("City: ", instance.City) print("CompanyName: ", instance.CompanyName) print("---------")
ほかの方法としては、execute メソッドを適切なテーブルオブジェクトに使うことが可能です。以下のコードはアクティブなsession に対して有効です。
execute メソッドを使う
Customers_table = Customers.metadata.tables["Customers"] for instance in session.execute(Customers_table.select().where(Customers_table.c.Country == "US")): print("City: ", instance.City) print("CompanyName: ", instance.CompanyName) print("---------")
より複雑なクエリとして、JOIN、集計、Limit などが利用可能です。詳細はヘルプドキュメントをご覧ください。
Databricks のデータの挿入(INSERT)
Databricks のデータへの挿入には、マップされたクラスのインスタンスを定義し、アクティブな session に追加します。commit 関数を呼び出して、Databricks にすべての追加インスタンスを送ります。
new_rec = Customers(City="placeholder", Country="US") session.add(new_rec) session.commit()
Databricks のデータを更新(UPDATE)
Databricks のデータの更新には、更新するレコードをフィルタクエリとともにフェッチします。そして、フィールドの値を変更し、セッションでcommit 関数を呼んで、Databricks にレコードを追加します。
updated_rec = session.query(Customers).filter_by(SOME_ID_COLUMN="SOME_ID_VALUE").first() updated_rec.Country = "US" session.commit()
Databricks のデータを削除(DELETE)
Databricks のデータの削除には、フィルタクエリと一緒に対象となるレコードをフェッチします。そして、アクティブsession でレコードを削除し、セッションでcommit 関数を呼び出して、該当するレコードの削除を実行します。
deleted_rec = session.query(Customers).filter_by(SOME_ID_COLUMN="SOME_ID_VALUE").first() session.delete(deleted_rec) session.commit()
Databricks からPython へのデータ連携には、ぜひCData Python Connector をご利用ください
このようにCData Python Connector と併用することで、270を超えるSaaS、NoSQL データをPython からコーディングなしで扱うことができます。30日の無償評価版が利用できますので、ぜひ自社で使っているクラウドサービスやNoSQL と合わせて活用してみてください。
日本のユーザー向けにCData Python Connector は、UI の日本語化、ドキュメントの日本語化、日本語でのテクニカルサポートを提供しています。