各製品の資料を入手。
詳細はこちら →Python でSAP HANA のデータを変換・出力するETL 処理を作る方法
CData Python Connector とpetl モジュールを使って、SAP HANA のデータを変換後にCSV ファイルに吐き出すETL 処理を実装します。
最終更新日:2023-09-23
この記事で実現できるSAP HANA 連携のシナリオ
こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。
Pythonエコシステムには多くのモジュールがあり、システム構築を素早く効率的に行うことができます。本記事では、CData Python Connector for SAPHANA とpetl フレームワークを使って、SAP HANA のデータにPython から接続してデータを変換、CSV に出力するETL 変換を実装してみます。
CData Python Connector は効率的なデータ処理によりSAP HANA のデータ にPython から接続し、高いパフォーマンスを発揮します。SAP HANA にデータをクエリする際、ドライバーはフィルタリング、集計などがサポートされている場合SQL 処理を直接SAP HANA 側に行わせ、サポートされていないSQL 処理については、組み込みのSQL エンジンによりクライアント側で処理を行います(JOIN やSQL 関数など)。
必要なモジュールのインストール
pip で必要なモジュールおよびフレームワークをインストールします:
pip install petl pip install pandas
Python でSAP HANA のデータをETL 処理するアプリを構築
モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。
CData Connector を含むモジュールをインポートします。
import petl as etl import pandas as pd import cdata.saphana as mod
接続文字列で接続を確立します。connect 関数を使って、CData SAP HANA Connector からSAP HANA への接続を行います
cnxn = mod.connect("User=system;Password=mypassword;Server=localhost;Database=systemdb;")
Server、Database、およびPort プロパティを設定して、対話するSAP Hana データベースのアドレスを指定します。User およびPassword プロパティを設定してサーバーへ認証します。
SAP HANA をクエリするSQL 文の作成
SAP HANA にはSQL でデータアクセスが可能です。Buckets エンティティからのデータを読み出します。
sql = "SELECT Name, OwnerId FROM Buckets WHERE Name = 'TestBucket'"
SAP HANA データ のETL 処理
DataFrame に格納されたクエリ結果を使って、petl でETL(抽出・変換・ロード)パイプラインを組みます。この例では、SAP HANA のデータ を取得して、OwnerId カラムでデータをソートして、CSV ファイルにデータをロードします。
table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'OwnerId') etl.tocsv(table2,'buckets_data.csv')
CData Python Connector for SAPHANA を使えば、データベースを扱う場合と同感覚で、SAP HANA のデータ を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。
おわりに
SAP HANA Python Connector の30日の無償トライアル をぜひダウンロードして、SAP HANA のデータ への接続をPython アプリやスクリプトから簡単に作成しましょう。
フルソースコード
import petl as etl import pandas as pd import cdata.saphana as mod cnxn = mod.connect("User=system;Password=mypassword;Server=localhost;Database=systemdb;") sql = "SELECT Name, OwnerId FROM Buckets WHERE Name = 'TestBucket'" table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'OwnerId') etl.tocsv(table2,'buckets_data.csv')