Waarom we out-of-the-box connectors overslaan (en wat we dan wél doen)

De kern

Data-extractie mag niet langer duren dan het verkrijgen van inzichten. In dit artikel leggen we uit waarom we bewust niet voor standaardconnectors hebben gekozen en hoe onze aanpak met datatemplates ervoor zorgt dat je sneller resultaat boekt.

Op zoek naar datatemplates? Bekijk onze gidsen voor continue procesverbetering met kant-en-klare templates voor processen zoals Purchase-to-Pay, Order-to-Cash en Crediteurenadministratie (Accounts Payable).

Process mining heeft data nodig—maar we pakken het verkeerd aan

”Data is 80% van het werk bij process mining.”

Waarschijnlijk heb je die uitspraak al eens gehoord. Wij ook—en we hebben het zelf ervaren. Maar hier komt de ongemakkelijke waarheid: dat data 80% van het werk zou zijn is geen natuurwet—het is een symptoom dat we het verkeerd aanpakken.

Als data-extractie een maandenlang project wordt, gaat er iets mis. Het doel van process mining is niet de perfecte datapipeline. Het gaat om inzichten. Ontdekken dat facturen 12 dagen blijven liggen voordat iemand ze oppakt. Zien dat 40% van de orders handmatig moet worden gecorrigeerd door een verkeerd ingesteld systeem.

Data is een middel, geen doel.

Waarom blijven zoveel process mining-trajecten hangen in de datalaag? Vaak draait het om één keuze: de keuze voor standaardconnectors.

De belofte van standaardconnectors

Eerlijk is eerlijk: de belofte is aantrekkelijk.

Standaardconnectors zijn kant-en-klare integraties die beloven procesdata uit systemen als SAP, Salesforce, ServiceNow of Oracle te halen. De pitch klinkt ongeveer zo:

  • Koppel je systeem
  • Druk op een knop
  • Je data verschijnt, perfect geformatteerd
  • Stel dagelijkse verversingen in
  • Klaar
Illustratie van een standaardconnector die data uit een ERP-systeem extraheert naar een process mining-tool

In een ideale wereld zou dit een gamechanger zijn. En eerlijk: in demo’s werkt het vaak. Soms zelfs in eenvoudige productieomgevingen met standaardconfiguraties.

Maar jouw organisatie is geen demo-omgeving.

De reality check

We helpen organisaties al jaren met process mining. We weten wat werkt en wat niet. En keer op keer zien we dat standaardconnectors meer problemen veroorzaken dan ze oplossen.

De ‘Quick Setup’ die een jaar duurt

Een van onze klanten begon vol enthousiasme aan process mining dankzij de SAP-connector van een leverancier. ‘Drie weken tot de eerste inzichten,’ was de belofte.

Achttien maanden later waren ze nog steeds bezig met het debuggen van datakwaliteitsproblemen.

Dat is geen uitzondering. We hebben connectorprojecten meer dan een jaar zien voortslepen, waarbij budgetten en enthousiasme in gelijke mate opraken. De ‘simpele’ setup blijkt allesbehalve simpel wanneer het verkoopverhaal botst met de realiteit.

Waarom connectors in de praktijk vaak vastlopen

  • Jullie systeem is niet standaard. Connectors zijn gebouwd voor specifieke versies van specifieke software. Maar bedrijven passen aan. Ze voegen velden toe, wijzigen workflows, veranderen tabelstructuren. Dat ERP-systeem bij jullie? Dat evolueert waarschijnlijk al tien jaar. De connector verwacht een standaardinstallatie; jij hebt een levend systeem, gevormd door jaren aan bedrijfsbeslissingen.

  • Connectors willen alles oplossen. Een connector die alle mogelijke process-mining-use cases moet afdekken, wordt onnodig complex. Hij ondersteunt randgevallen die je nooit ziet, maar misschien niet precies de analyse die jij nodig hebt. Die one-size-fits-all-aanpak betekent dat je door complexiteit heen moet vechten die geen waarde toevoegt.

  • Het doolhof van meerdere tabellen. De meeste connectors werken met meerdere brontabellen. Krachtig—maar complex. Je moet niet alleen je bedrijfsproces begrijpen, maar ook het datamodel van de connector, het datamodel van de bron én hoe die op elkaar aansluiten. Dat zijn heel wat modellen.

  • Zwarte dozen wekken wantrouwen. Gaat er iets mis (en er gaat altijd wel iets mis), dan kun je niet naar binnen kijken om te snappen waarom. Staat de data fout in de bron? Transformeert de connector verkeerd? Is er een configuratieprobleem? Je tast in het duister—frustrerend voor iedereen en bijna niet uit te leggen aan stakeholders.

  • Dubbel werk. Ironisch genoeg hebben veel organisaties al schone, voorbereide data in hun datawarehouse of datalake. Data-engineers hebben jaren besteed aan pijplijnen, datakwaliteit en betrouwbare datasets. Een connector negeert dat werk en begint opnieuw, met het risico dat het afwijkt van de data waar je organisatie al op vertrouwt.

  • Generieke benamingen die iedereen verwarren. Connectors gebruiken gestandaardiseerde terminologie die niet hoeft te passen bij hoe jullie over processen praten. Als de connector iets ‘Order Confirmation’ noemt terwijl jouw team het de ‘orderbevestiging’ noemt, ontstaat een vertaallaag die elke discussie vertraagt.

  • De ETL-valkuil. De meeste connectors duwen je in de ETL-tooling van de leverancier. Dat betekent propriëtaire systemen leren, afhankelijk worden van leveranciersspecifieke features en expertise opbouwen die niet overdraagbaar is. Terwijl jullie waarschijnlijk al ETL-infrastructuur en mensen hebben die ermee kunnen werken.

  • Vendor lock-in by design. Laten we eerlijk zijn: complexe, propriëtaire datapijplijnen zijn voor de leverancier een feature, geen bug. Na zes maanden bouwen aan een connector-gedreven infrastructuur wordt overstappen extreem duur. Dat is geen toeval.

De verborgen kosten

Naast de technische hobbels kent de connectoraanpak ook heel tastbare kosten:

  • Tijd: Maanden besteden aan data-extractie in plaats van analyse
  • Geld: Dure connectorlicenties plus consultancykosten voor de implementatie
  • Kansen: Procesverbeteringen lopen vertraging op terwijl de datapijplijn wordt gebouwd
  • Motivatie: Teams haken af als projecten vastlopen in de datafase
  • Vertrouwen: Stakeholders gaan twijfelen aan de waarde van process mining wanneer eerste projecten uitlopen
Illustratie van verborgen kosten bij standaard process mining-connectors

Onze aanpak: datatemplates

Wij kozen een andere route. In plaats van connectors te bouwen, ontwikkelden we datatemplates.

De gedachte is simpel: beschrijf vooraf welke data nodig is, in een formaat dat dicht bij je proces ligt en makkelijk te genereren is.

Begin gewoon met Excel

Ja, echt. Je kunt prima starten met Excel.

Nieuw met event logs? Onze gids zo maak je een process mining event log helpt je stap voor stap je eerste event log op te zetten, met voorbeelden in zowel Excel als SQL.

Onze data templates geven precies aan welke kolommen je nodig hebt voor elk type analyse. Voor veel processen zijn dat een Case ID, een Timestamp en een Activity name—plus eventuele extra attributen die voor jouw business relevant zijn.

Dit kun je zelf maken. Vandaag nog. Niet wachten op IT. Geen inkooptraject. Geen consultant nodig. Exporteer wat data uit je systeem, zet het in ons template-formaat, upload het en je analyseert je proces.

Is het perfect? Nee. Is het snel? Absoluut. En snel weegt zwaarder dan perfect wanneer je je proces wilt begrijpen.

Waarom één tabel?

We gebruiken bewust een single-tableformaat voor de meeste analyses. Dat lijkt beperkend, tot je de reden ziet:

  1. Makkelijk te begrijpen: iedereen kan een spreadsheet lezen en snappen wat er gebeurt
  2. Makkelijk te maken: geen complexe joins of relatiebeheer
  3. Process mining doet dit toch: zelfs tools die meerdere tabellen inlezen, voegen die tabellen voor de analyse samen tot één event log

In ProcessMind kun je nog steeds met meerdere tabellen werken—verschillende perspectieven, verschillende processen, zelfs object-centric process mining. Maar je hoeft daar niet te beginnen. Start simpel en voeg pas complexiteit toe als het waarde oplevert.

Werk samen met je datateam

Eén ding dat we hebben geleerd: de connectoraanpak omzeilt je data-engineers vaak. Dat is een gemiste kans.

Jouw datateam kent jullie systemen. Ze weten waar de problemen met datakwaliteit zitten. Ze weten welke velden je kunt vertrouwen en welke je moet verifiëren. Veel problemen waar een connector tegenaan loopt, hebben zij waarschijnlijk al eens opgelost.

Onze data templates creëren een gemeenschappelijke taal. Geef het template aan je data engineer en die ziet direct wat nodig is. Ze kunnen met tools die ze al kennen—SQL, jullie bestaande ETL-platform, het datawarehouse—precies de gevraagde data genereren.

Geen nieuwe systemen om te leren. Geen vendortraining voor propriëtaire tools. Gewoon heldere, duidelijke eisen die ervaren dataprofessionals snel kunnen opleveren.

Haal meer uit wat je al hebt

De meeste organisaties beschikken al over een serieuze data-infrastructuur:

  • Datawarehouses met opgeschoonde en gevalideerde data
  • ETL-pijplijnen die informatie betrouwbaar verplaatsen
  • Data lakes met historische gegevens
  • Business intelligence-tools met beproefde queries

Met de template-aanpak profiteer je hiervan. Ga niet opnieuw bouwen wat al bestaat. Maak geen parallelle datapijplijnen. Gebruik de investeringen die je al gedaan hebt.

Dat betekent ook dat de data die je voor process mining voorbereidt, je elders kunt hergebruiken. Bouw één dataset en gebruik die voor process mining, machine learning, traditionele BI en wat daarna komt. Dat is efficiënt.

AI-gedreven flexibiliteit

Zelfs met duidelijke templates komt data niet altijd perfect geformatteerd binnen. Daarom hebben we AI-gestuurde datamapping in ProcessMind ingebouwd.

Upload je data, en ons systeem herkent die vaak automatisch—het ziet welke kolom de case ID is, welke de timestamp is en welke de activiteitennamen bevat. Klopt er iets niet, dan pas je het met een paar klikken handmatig aan.

Het doel: alle wrijving tussen jou en inzichten wegnemen.

Illustratie van AI-gestuurde datamapping die het voorbereiden van eventlogs voor process mining vereenvoudigt

Process mining op basis van BPMN: een voordeel voor datakwaliteit

Niet elke aanpak voor process mining stelt dezelfde eisen aan data.

Traditionele, puur datagedreven process mining-tools moeten alles over je proces afleiden uit de eventlog. Elke Gateway, elk beslispunt, elke parallelle route moet in de data terug te vinden zijn. Als je data gaten of onvolkomenheden bevat, worstelt het algoritme—of het levert misleidende resultaten op.

Process mining op basis van BPMN werkt anders. Omdat de processtructuur in een model is vastgelegd, kan de tool beter omgaan met hiaten in de data. Ontbrekende events breken de analyse niet per se. Het model geeft context die puur datagedreven aanpakken missen.

Dat is een van de redenen waarom we ProcessMind rondom BPMN-modellering hebben gebouwd. Data uit de echte wereld is rommelig. Je process mining-tool moet met die realiteit kunnen werken, niet ertegen.

Data-updates heroverwegen

Dagelijkse updates vs. slimme updates

”Realtime data-updates” klinkt indrukwekkend in een salespitch. Maar bedenk wat dagelijkse updates in de praktijk betekenen voor je analyse:

  • Doel dat steeds verschuift: je dataset verandert continu, waardoor het lastig is om een nulmeting vast te leggen of verbeteringen te volgen
  • Meer complexiteit: een realtime pipeline vergt blijvende inspanning en monitoring
  • Hogere kosten: doorlopende verwerking betekent doorlopende cloudkosten
  • Lastiger analyseren: “deze week vs. vorige week” vergelijken wordt lastig als “deze week” steeds verandert

Voor de meeste process mining-toepassingen werken stabiele datasets die periodiek worden geanalyseerd beter. Draai je analyse maandelijks of per kwartaal. Leg heldere vergelijkingspunten vast. Voer veranderingen door en meet de impact tegen een vaste baseline.

Ververs je data wanneer het logisch is voor jouw analysecyclus—niet omdat de technologie continu verversen mogelijk maakt. Richt je energie op inzichten en verbeteringen, niet op pipeline-onderhoud.

Aan de slag: de praktische route

Zo pak je data voor process mining het beste aan:

  1. Begin met je doel. Welke procesvraag wil je beantwoorden? Welke verbetering hoop je te vinden?

  2. Breng beschikbare data in kaart. Wat staat er al in je datawarehouse? Wat kun je vandaag al uit systemen exporteren? Start met wat binnen handbereik is.

  3. Gebruik onze templates. Download het juiste template via de gidsen voor continue procesverbetering. Het formaat is eenvoudig en duidelijk gedocumenteerd.

  4. Start in Excel. Exporteer wat data, zet het in het template-formaat en upload. Binnen een uur heb je inzichten—niet pas over maanden.

  5. Itereer. Je eerste dataset is niet perfect—en dat hoeft ook niet. Leer wat ontbreekt, verbeter de data en draai de analyse opnieuw. Elke cyclus kost dagen, geen maanden.

  6. Automatiseer later. Weet je precies welke data nodig is en is de waarde bewezen? Dán automatiseren. Bouw samen met je datateam een robuuste pipeline met tools die ze al kennen.

  7. Houd het simpel. Voorkom onnodige complexiteit. Elke extra databron of transformatie vergroot de onderhoudslast en het risico op uitval.

De juiste focus

Technologie is niet dé sleutel tot succes met process mining. Leveranciers van complexe connector-infrastructuur doen je dat graag geloven, maar onze ervaring vertelt iets anders.

Wat er echt toe doet:

  • Heldere vragen: weet wat je wilt leren
  • Goede communicatie: werk effectief samen met je datateam
  • Snel itereren: kom snel tot inzichten, leer en verbeter
  • Businessfocus: data is een middel om je proces te begrijpen, geen doel op zich

De organisaties die succesvol zijn met process mining hebben zelden de meest geavanceerde datainfrastructuur. Het zijn de organisaties die scherp op de businessresultaten blijven en data-extractie niet tot doel verheffen.

Klaar om te beginnen?

ProcessMind is gebouwd op deze principes. Eenvoudige data-eisen. Snel waarde realiseren. Jij houdt de regie.

Bekijk onze gidsen voor continue procesverbetering met datatemplates voor veelvoorkomende processen. Elke gids bevat:

  • Procesactiviteiten en welke data je vastlegt
  • Templates die je direct kunt gebruiken
  • Richtlijnen voor systemen als SAP, Oracle en Microsoft Dynamics
  • Best practices voor datapreparatie

Of start een gratis proefperiode en upload wat data. Je zult verbaasd zijn hoe snel de inzichten komen als je niet hoeft te wachten tot een connector is geconfigureerd.

Data is niet het doel. Je proces begrijpen wel. Laten we daar sneller komen.

Gerelateerde Blogposts

Ontvang expertinzichten over process mining en workflow optimalisatie in je inbox
Strategische Gids voor Data-Driven Procesverbetering

Strategische Gids voor Data-Driven Procesverbetering

Een praktische gids om met data processen te verbeteren en je organisatie te versterken.

Celonis alternatieven: waarom ProcessMind slimmer is

Celonis alternatieven: waarom ProcessMind slimmer is

Vergelijk Celonis process mining met ProcessMind voor 2025. Ontdek welke oplossing bij jouw organisatie past.

Disco vs. ProcessMind: Beste Process Mining Platform 2025

Disco vs. ProcessMind: Beste Process Mining Platform 2025

Vergelijk Disco en ProcessMind en vind het beste process mining platform voor 2025. Ontdek functies, prijzen en use cases.

SAP Signavio vs ProcessMind: Jouw beste keuze voor Process Mining in 2025

SAP Signavio vs ProcessMind: Jouw beste keuze voor Process Mining in 2025

Bekijk hoe ProcessMind en SAP Signavio scoren op process mining, modeling en simulatie. Vind de beste keuze voor jouw bedrijf in 2025.

Daag jezelf uit en verbeter je processen in minder dan 30 dagen!

Direct toegang, geen creditcard, geen wachttijd. Ervaar hoe mapping, mining en simulatie samenwerken voor slimmere en snellere beslissingen.

Ontdek alle features, krijg diepgaande inzichten en verbeter je operations vanaf dag één.

Start je gratis trial en ontdek de kracht van Process Intelligence – zie resultaat in minder dan 30 dagen!