Process Miningを始めるために必要なものとは?
プロセスマイニングの実行に必要なものは?
生データはスタート地点。プロセスマイニングは、整理されたクリーンなevent dataで最大の効果を発揮します。データを確認・準備・整形し、ビジネスプロセスの強力なインサイトを引き出しましょう。
プロセスマイニングに必要なデータ
あなたがレモネードスタンドを運営しているとして、記憶力に自信がなかったとします。業務状況を把握するには、以下のシンプルな情報を記録しましょう:
- Customer ID (CaseID): 顧客ごとの番号。一度来た人が再来店やクレーム時にも同一人物と分かります。
- Action Taken (Activity): どの作業をしたか(例: Take Order/Prepare Lemonade/Resolve Angry Customer Complaint など)。
- Action Time (Timestamp): その作業を行った日時。時系列の把握が重要です。
この3点データだけでProcess Miningは「小さなスパイ」となり、全体の流れ・ボトルネック(作業の遅れ)やクレーム発生などの気づきを得られます。
データ例(テーブル形式):
| Customer ID (CaseID) | Action Time (Timestamp) | Action Taken (Activity) |
|---|---|---|
| 1 | 10:00 AM | Take Order |
| 1 | 10:02 AM | Prepare Lemonade |
| 1 | 10:05 AM | Serve Customer |
| 2 | 10:03 AM | Take Order |
| 2 | 10:10 AM | Resolve Angry Customer Complaint (yikes!) |
| 2 | 10:12 AM | Prepare Lemonade |
| 2 | 10:15 AM | Serve Customer (hopefully happier this time!) |
一見すると情報が少ないように感じますが、このデータだけでもProcess Miningは多くの業務インサイトを引き出せます!
1. 消えたレモネードログ事件
レモネードスタンドは大盛況!お客様は自慢のレシピを気に入りビジネスも好調でしたが、成功の裏で新たな課題が発生。長蛇の列、苛立つお客さま…でも原因が分かりません。
頼みの小さなスパイ(Process Mining)は魔法使いではなく、正確な情報(data)が必要。でも実際には、メモに走り書きしただけの断片的な情報ばかり。ここから苦戦は始まります:
- データ探偵: 最初の課題は重要な情報集め。注文情報が付箋やレシート、クシャクシャのメモなどバラバラで、まるで探偵の捜査のよう(データベース、フラットファイル、message logsなど複数ソース)。
- 同じ言語で話す: データを見つけても意味が不明瞭。「Customer Happy!」や顔文字だけのメモも。スパイが正しく解釈できるようdata standardization(データ標準化)が必要でした。
- 正しい問いかけ: 本当に知りたいことを明確化。「列が長いのは注文が遅いのか、作るのが遅いのか?」など、重要ポイントを押さえることで効率的なデータ収集(データの異なるビュー)ができました。

この「データの大掃除」はまさに新たな冒険。でも、次の章でデータ探偵と共に改善・最適化できたストーリーをご紹介します!
2. データ発掘大作戦
レモネードスタンドは繁盛したものの、長蛇の列で悲鳴!頼りのProcess Miningを動かすには、まず「使える情報」をそろえる必要がありました。そこでdata extraction―お客様の行動・ヒントを掘り起こし、分析可能な形にまとめます。
発見したこと:
- トレジャーハント: データはまるでお宝探し。社内システムの片隅(Webページ、メール、PDFなど)や古いファイルからscreen scrapingなどツールを使い情報発掘。
- 解読が必要: データを見つけても、ナプキンの走り書き(非構造データ)や謎めいた形式(metadata不足)などバラバラ。data standardization(標準化)で解読しました。
- フォーカスが鍵: データソースが多すぎて(数千テーブルも)、むやみに収集したくなりますが、重要な質問にフォーカス。「注文が遅いのか、調理が遅いのか?」優先順位を決めて抽出データを絞り込みました。
作業は簡単ではありませんが、少しの努力と好奇心で大量のデータを発掘。次章では、データの整理からProcess Miningの本格稼働まで進みます!
3. データデトックス(不要データ排除)
抽出したデータは大量!でも中身は重要情報・ランダムなメモ・不要なデータが混在。ここで大切なのはデータの「デトックス」です。
ツールボックスを整理するように、まずは全体を見渡す粗い絞り込み(coarse-grained scoping)、続いて細かな条件で精査(fine-grained scoping)。
フィルタリング対策の進め方:
- よく使うものに集中: よく出る注文=新しいツールのようなもの。分析対象を「注文・待機・受け取り」など上位10アクティビティに絞り、データスパイが扱いやすいようにしました。残りは後回し。
- 繰り返し改善: フィルタは一度きりじゃなく、Process Miningの分析で出た新たなポイントをもとに継続してブラッシュアップ。探偵のように仮説とインサイトで精査します。

このようにデータが(ほぼ)クリーンになったら、いよいよProcess Mining本来の力が発揮できます!次章でdiscovery・conformance・enhancementなどの手法を使い、効率化の実践へ進みます。
4. データのメイクオーバー(整形)
デトックス(不要データ除去)でスッキリした後、Process Miningの力を最大化するには「データメイクオーバー」が不可欠です。例えばクシャクシャの紙幣も、そのまま受け取るよりキレイな方が管理やすい――データも同じです。
やるべきこと:
- Caseで一貫管理: プロセスはお客様の体験そのもの。ひとつのcaseごとにorder・待機・受け取りなど全eventをつなげて整理。各顧客分のレシートをまとめるイメージです。
- プロセス言語でルール化: データをプロセス的な言葉に。「Customer Happy!」では曖昧なので、「Lemonade Delivered」など明確なstatusで定義。
この地道な作業で、ついに整ったデータセットが完成!Process Miningでボトルネック特定と効率化を進め、レモネードスタンドを“業務効率モデル”へと変革できます。