SQLAlchemy ORM を使って、Python でElasticsearch のデータに連携する方法

CData Python Connector を使って、Python アプリケーションおよびスクリプトからSQLAlchemy 経由でElasticsearch にOR マッピング可能に。

加藤龍彦
デジタルマーケティング

最終更新日:2023-09-23

この記事で実現できるElasticsearch 連携のシナリオ

こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。

Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for Elasticsearch は、pandas、Matplotlib モジュール、SQLAlchemy ツールキットから使用することで Elasticsearch にデータ連携するPython アプリケーションを構築し、Elasticsearch のデータを可視化できます。 本記事では、SQLAlchemy でElasticsearch に連携して、データを取得、、更新、挿入、削除 する方法を説明します。

CData Python Connectors の特徴

CData Python Connectors は、以下のような特徴を持った製品です。

  1. Elasticsearch をはじめとする、CRM、MA、会計ツールなど多様なカテゴリの270種類以上のSaaS / オンプレデータソースに対応
  2. Python をはじめとする多様なデータ分析・BI ツールにElasticsearch のデータを連携
  3. ノーコードでの手軽な接続設定

CData Python Connectors では、1.データソースとしてElasticsearch の接続を設定、2.Python からPython Connectors との接続を設定、という2つのステップだけでデータソースに接続できます。以下に具体的な設定手順を説明します。

必要なモジュールのインストール

pip でSQLAlchemy ツールキットをインストールします:

pip install sqlalchemy

モジュールのインポートを忘れずに行います:

import sqlalchemy

Python でElasticsearch のデータをモデル化

次は、接続文字列で接続を確立します。create_engine 関数を使って、Elasticsearch のデータに連携するEngne を作成します。

engine = create_engine("elasticsearch///?Server=127.0.0.1&Port=9200&User=admin&Password=123456")

Elasticsearch 接続プロパティの取得・設定方法

接続するには、Server およびPort 接続プロパティを設定します。 認証には、User とPassword プロパティ、PKI (public key infrastructure)、またはその両方を設定します。 PKI を使用するには、SSLClientCert、SSLClientCertType、SSLClientCertSubject、およびSSLClientCertPassword プロパティを設定します。

CData 製品は、認証とTLS/SSL 暗号化にX-Pack Security を使用しています。TLS/SSL で接続するには、Server 値に'https://' を接頭します。Note: PKI を 使用するためには、TLS/SSL およびクライアント認証はX-Pack 上で有効化されていなければなりません。

接続されると、X-Pack では、設定したリルムをベースにユーザー認証およびロールの許可が実施されます。

Elasticsearch のデータのマッピングクラスの宣言

接続を確立したら、OR マッパーでモデル化するテーブルのマッピングクラスを宣言します。本記事では、Orders テーブルを使います。sqlalchemy.ext.declarative.declarative_base 関数を使って、新しいクラスにフィールド(カラム)を定義します。

base = declarative_base()
class Orders(base):
	__tablename__ = "Orders"
	OrderName = Column(String,primary_key=True)
	Freight = Column(String)
	...

Elasticsearch のデータをクエリ

マッピングクラスができたので、セッションオブジェクトを使ってデータソースをクエリすることができます。セッションにEngine をバインドして、セッションのquery メソッドにマッピングクラスを提供します。

query メソッドを使う

engine = create_engine("elasticsearch///?Server=127.0.0.1&Port=9200&User=admin&Password=123456")
factory = sessionmaker(bind=engine)
session = factory()
for instance in session.query(Orders).filter_by(ShipCity="New York"):
	print("OrderName: ", instance.OrderName)
	print("Freight: ", instance.Freight)
	print("---------")

ほかの方法としては、execute メソッドを適切なテーブルオブジェクトに使うことが可能です。以下のコードはアクティブなsession に対して有効です。

execute メソッドを使う

Orders_table = Orders.metadata.tables["Orders"]
for instance in session.execute(Orders_table.select().where(Orders_table.c.ShipCity == "New York")):
	print("OrderName: ", instance.OrderName)
	print("Freight: ", instance.Freight)
	print("---------")

より複雑なクエリとして、JOIN、集計、Limit などが利用可能です。詳細はヘルプドキュメントをご覧ください。

Elasticsearch のデータの挿入(INSERT)

Elasticsearch のデータへの挿入には、マップされたクラスのインスタンスを定義し、アクティブな session に追加します。commit 関数を呼び出して、Elasticsearch にすべての追加インスタンスを送ります。

new_rec = Orders(OrderName="placeholder", ShipCity="New York")
session.add(new_rec)
session.commit()

Elasticsearch のデータを更新(UPDATE)

Elasticsearch のデータの更新には、更新するレコードをフィルタクエリとともにフェッチします。そして、フィールドの値を変更し、セッションでcommit 関数を呼んで、Elasticsearch にレコードを追加します。

updated_rec = session.query(Orders).filter_by(SOME_ID_COLUMN="SOME_ID_VALUE").first()
updated_rec.ShipCity = "New York"
session.commit()

Elasticsearch のデータを削除(DELETE)

Elasticsearch のデータの削除には、フィルタクエリと一緒に対象となるレコードをフェッチします。そして、アクティブsession でレコードを削除し、セッションでcommit 関数を呼び出して、該当するレコードの削除を実行します。

deleted_rec = session.query(Orders).filter_by(SOME_ID_COLUMN="SOME_ID_VALUE").first()
session.delete(deleted_rec)
session.commit()

Elasticsearch からPython へのデータ連携には、ぜひCData Python Connector をご利用ください

このようにCData Python Connector と併用することで、270を超えるSaaS、NoSQL データをPython からコーディングなしで扱うことができます。30日の無償評価版が利用できますので、ぜひ自社で使っているクラウドサービスやNoSQL と合わせて活用してみてください。

日本のユーザー向けにCData Python Connector は、UI の日本語化、ドキュメントの日本語化、日本語でのテクニカルサポートを提供しています。

関連コンテンツ

トライアル・お問い合わせ

30日間無償トライアルで、CData のリアルタイムデータ連携をフルにお試しいただけます。記事や製品についてのご質問があればお気軽にお問い合わせください。