ドキュメント一覧
このページ内

Process Miningを始めるために必要なものとは?

プロセスマイニングの実行に必要なものは?

生データはスタート地点。プロセスマイニングは、整理されたクリーンなevent dataで最大の効果を発揮します。データを確認・準備・整形し、ビジネスプロセスの強力なインサイトを引き出しましょう。

プロセスマイニングに必要なデータ

あなたがレモネードスタンドを運営しているとして、記憶力に自信がなかったとします。業務状況を把握するには、以下のシンプルな情報を記録しましょう:

  • Customer ID (CaseID): 顧客ごとの番号。一度来た人が再来店やクレーム時にも同一人物と分かります。
  • Action Taken (Activity): どの作業をしたか(例: Take Order/Prepare Lemonade/Resolve Angry Customer Complaint など)。
  • Action Time (Timestamp): その作業を行った日時。時系列の把握が重要です。

この3点データだけでProcess Miningは「小さなスパイ」となり、全体の流れ・ボトルネック(作業の遅れ)やクレーム発生などの気づきを得られます。

データ例(テーブル形式):

Customer ID (CaseID)Action Time (Timestamp)Action Taken (Activity)
110:00 AMTake Order
110:02 AMPrepare Lemonade
110:05 AMServe Customer
210:03 AMTake Order
210:10 AMResolve Angry Customer Complaint (yikes!)
210:12 AMPrepare Lemonade
210:15 AMServe Customer (hopefully happier this time!)

一見すると情報が少ないように感じますが、このデータだけでもProcess Miningは多くの業務インサイトを引き出せます!

1. 消えたレモネードログ事件

レモネードスタンドは大盛況!お客様は自慢のレシピを気に入りビジネスも好調でしたが、成功の裏で新たな課題が発生。長蛇の列、苛立つお客さま…でも原因が分かりません。

頼みの小さなスパイ(Process Mining)は魔法使いではなく、正確な情報(data)が必要。でも実際には、メモに走り書きしただけの断片的な情報ばかり。ここから苦戦は始まります:

  • データ探偵: 最初の課題は重要な情報集め。注文情報が付箋やレシート、クシャクシャのメモなどバラバラで、まるで探偵の捜査のよう(データベース、フラットファイル、message logsなど複数ソース)。
  • 同じ言語で話す: データを見つけても意味が不明瞭。「Customer Happy!」や顔文字だけのメモも。スパイが正しく解釈できるようdata standardization(データ標準化)が必要でした。
  • 正しい問いかけ: 本当に知りたいことを明確化。「列が長いのは注文が遅いのか、作るのが遅いのか?」など、重要ポイントを押さえることで効率的なデータ収集(データの異なるビュー)ができました。
レモネード ログの例

この「データの大掃除」はまさに新たな冒険。でも、次の章でデータ探偵と共に改善・最適化できたストーリーをご紹介します!

2. データ発掘大作戦

レモネードスタンドは繁盛したものの、長蛇の列で悲鳴!頼りのProcess Miningを動かすには、まず「使える情報」をそろえる必要がありました。そこでdata extraction―お客様の行動・ヒントを掘り起こし、分析可能な形にまとめます。

発見したこと:

  • トレジャーハント: データはまるでお宝探し。社内システムの片隅(Webページ、メール、PDFなど)や古いファイルからscreen scrapingなどツールを使い情報発掘。
  • 解読が必要: データを見つけても、ナプキンの走り書き(非構造データ)や謎めいた形式(metadata不足)などバラバラ。data standardization(標準化)で解読しました。
  • フォーカスが鍵: データソースが多すぎて(数千テーブルも)、むやみに収集したくなりますが、重要な質問にフォーカス。「注文が遅いのか、調理が遅いのか?」優先順位を決めて抽出データを絞り込みました。

作業は簡単ではありませんが、少しの努力と好奇心で大量のデータを発掘。次章では、データの整理からProcess Miningの本格稼働まで進みます!

3. データデトックス(不要データ排除)

抽出したデータは大量!でも中身は重要情報・ランダムなメモ・不要なデータが混在。ここで大切なのはデータの「デトックス」です。

ツールボックスを整理するように、まずは全体を見渡す粗い絞り込み(coarse-grained scoping)、続いて細かな条件で精査(fine-grained scoping)。

フィルタリング対策の進め方:

  • よく使うものに集中: よく出る注文=新しいツールのようなもの。分析対象を「注文・待機・受け取り」など上位10アクティビティに絞り、データスパイが扱いやすいようにしました。残りは後回し。
  • 繰り返し改善: フィルタは一度きりじゃなく、Process Miningの分析で出た新たなポイントをもとに継続してブラッシュアップ。探偵のように仮説とインサイトで精査します。
データのフォーカスと優先順位

このようにデータが(ほぼ)クリーンになったら、いよいよProcess Mining本来の力が発揮できます!次章でdiscovery・conformance・enhancementなどの手法を使い、効率化の実践へ進みます。

4. データのメイクオーバー(整形)

デトックス(不要データ除去)でスッキリした後、Process Miningの力を最大化するには「データメイクオーバー」が不可欠です。例えばクシャクシャの紙幣も、そのまま受け取るよりキレイな方が管理やすい――データも同じです。

やるべきこと:

  • Caseで一貫管理: プロセスはお客様の体験そのもの。ひとつのcaseごとにorder・待機・受け取りなど全eventをつなげて整理。各顧客分のレシートをまとめるイメージです。
  • プロセス言語でルール化: データをプロセス的な言葉に。「Customer Happy!」では曖昧なので、「Lemonade Delivered」など明確なstatusで定義。

この地道な作業で、ついに整ったデータセットが完成!Process Miningでボトルネック特定と効率化を進め、レモネードスタンドを“業務効率モデル”へと変革できます。