MongoDBでの集計処理の概要
一般的なNoSQLプロダクトは、RDBのSQLでいうGroup By句やSum関数などの集計機能がありません。集計を実施するには、アプリケーション側で独自にコードを書くことになります。
しかし、MongoDBは、NoSQLのパフォーマンスを維持しながら、RDBライクな機能を実装することを開発方針として掲げており、集計機能に関してもいち早く実装してきました。MongoDBで集計処理を行う方法は3つあります。
- 1. Aggregationフレームワーク
- SQLでいうGroup By句やSum関数を提供します。Mongo Shellからクエリと同じように実施できます。一部の処理($groupと$sort)はシャーディングに対応しており、各シャードで処理します。
- 2. MongoDBのMap/Reduce機能
- Map関数/Reduce関数を独自に定義し、集計処理を行います。Aggregationフレームワークではできないような、複雑な集計処理を行うために使用します。シャーディングに対応していますので、分散処理を実施することが可能です。
- 3. その他集計処理ミドルとの連携
- より大規模に集計処理を行うため、他の集計処理ミドルとの連携も可能です。今回の記事では、Hadoopとの連携を紹介します。
それではさっそくAggregationフレームワークを使って、集計処理を実施してみましょう。
Aggregationフレームワーク
データの準備
最初に集計するためのデータを準備しましょう。今回はWebサーバーのアクセスログを想定したデータを用います。下記のサンプルデータをMongoDBへ保存します。
Aggregationフレームワークで集計する
それではAggregationフレームワークを使って集計してみましょう。先ほど保存したアクセスログのデータ使用して、まずはURLごとのアクセス数を集計しましょう。ここではHTTPステータスコードは無視します。HTTPステータスコードも利用した複数キーの集計は、後ほど紹介します。
URLごとのアクセス数の集計をAggregationフレームワークで実施するには、下記のコードを実行します。
実行してみます。
集計できました。
複数キーで集計する
次はURLとHTTPステータスコードの2つをキーとして集計してみましょう。 複数キーで集計するには、$groupオペレータの"_id"の値を下記のように修正します。
実行してみます。
こちらも集計できました。
Aggregationフレームワークでできること
このように、今回のような単純な集計なら、Aggregationフレームワークで実施することができます。
他にもAggregationフレームワークには集計に便利なオペレータが用意されており、組み合わせて使うことができます。
たとえば以下のような、テストの平均点を求めるようなSQLを考えてみます。
上記のSQLをAggregationフレームワークで表現すると、このようになります。
このようにオペレータをフィルタのように使い、パイプライン処理を行うことでより高度な集計処理が可能となります(図1参照)。
その他のオペレータについては、公式マニュアルにSQLとAggregationフレームワークのマッピング表がありますので、一部紹介します。
SQL | Aggregationオペレータ |
WHERE | $match |
GROUP BY | $group |
HAVING | $match |
SELECT | $project |
ORDER BY | $sort |
LIMIT | $limit |
SUM() | $sum |
COUNT() | $sum |
公式マニュアルには他にも、各SQLに対応したサンプルコードも掲載されています。
上記のオペレータで可能な範囲は、Aggregationフレームワークで集計できます。それ以上の複雑な処理を行う場合は、Map/Reduce機能を使ってMap関数とReduce関数を定義することで実施可能です。
それでは、次にMap/Reduceで集計してみましょう。
MongoDBのMap/Reduce
これまでにAggregationフレームワークで実行した集計を、今度はMap/Reduceを使って集計します。Map/ReduceにはJavaScriptで記述したMap関数とReduce関数が必要となりますので、準備しましょう。
Map関数の準備
Map関数は、おおまかに言うとReduce関数で使用するためのkeyとvalueを作成するための処理です。Map関数では集計処理はまだ行いません。
keyにはグルーピングするキーを指定します。先ほどと同様に、まずはURLごとのアクセス数を集計しますので、HTTPステータスコードは無視します。HTTPステータスコードも利用した複数キーの集計は、後ほど紹介します。
Map関数内部でkeyとvalueを作成するために、emit関数を使用します。第1引数にkey, 第2引数に集計方法を記述します。ここでは、第1引数this.url_path、第2引数{count : 1}を指定します。
Reduce関数の準備
Reduce関数には、Map関数内のemit関数で指定したkeyでグルーピングされた状態で、keyとvalueが渡ってきます。今回は、URLごとにアクセス数を数えるため、countを加算していく処理を記述します。
Map/Reduceで集計する
Map関数とReduce関数が作成できたら、集計してみましょう。集計には、集計するコレクションのmapReduce関数の引数に第1引数にMap関数、第2引数にReduce関数を渡します。第3引数はオプション(※)を渡します。{out: {inline:1}}を指定することで、結果をコンソールに出力することができます。
それでは、mapReduce関数を実行してみましょう。
URLアクセス数の合計が、countで集計されていることが確認できました。
次はURLとHTTPステータスコードの2つをキーとして集計してみましょう。
複数キーで集計する
複数キーで集計するためには、emit関数の第1引数にハッシュで指定します。Map関数を修正します。
URLとHTTPステータスコードをキーとするために、第1引数を下記のように変更します。
Reduce関数は先ほどのままで良いので、mapReduce関数を実行してみましょう。
URLとHTTPステータスコードが集計のキーとなっていることが確認できました。
Map/Reduceでできること
Map/Reduceでは、JavaScriptを用いて自由にMap関数とReduce関数を定義できることが大きな特徴です。Aggregationフレームワークではできない、ifなどの制御構文やその他のJavaScriptの関数を使用した処理を実装することが可能です。
それでは最後に、Hadoopとの連携を紹介します。
その他集計処理ミドル(Hadoop)との連携
Hadoopと組み合わせて使う
Hadoopは、大量のデータを複数のマシンで分散処理可能なプラットフォームです。MongoDBの開発元である10genは、HadoopとのコネクターとしてMongoDB Hadoop Adapter(mongo-hadoop)をgithubで公開しています。
公式マニュアルも充実しており、コマンドレベルでのGetting Started with Hadoopや、バッチシステム・データウェアハウス・ETLシステムの3つが紹介されたHadoop and MongoDB Use Casesがあります。
MongoDBとHadoopを組み合わせて使用することによって、データストアにMongoDBを使いながら、Hadoopの強力な分散機能により並列処理を行うことが可能となります(図2参照)。レプリカセット、シャーディング、Mongo Shellによる柔軟なクエリというデータストアとしてのMongoDBのメリットを活かしながら、Hadoopの分散処理機能を使えるという、お互いを補完し合う組み合わせが実現できます。
今回の記事では、MongoDB Hadoop Adapterについての紹介のみといたします。実際の使い方は公式マニュアルを参照ください。
まとめと次回のテーマ
今回はMongoDBで集計を実施する方法を紹介しました。MongoDBには、クエリライクに集計を実施できるAggregationフレームワークと、自分で処理内容を記述できるMap/Reduce機能とがあります。用途に応じて使い分けることが可能です。
また、近年需要が増加しているビッグデータへの集計処理には、Hadoopと組み合わせて使用するという方式があります。MongoDB開発元の10genがHadoop用のコネクタを提供しています。
次回はMongoDBの運用について紹介する予定です。お楽しみに!