Quando si parla di ottimizzazione dei processi operativi aziendali, Robotic Process Automation (RPA) e Process Mining sono – o dovrebbero essere – le due facce di un’unica medaglia. Automatizzare intere catene di operazioni, infatti, implica la capacità di comprendere a fondo il funzionamento di ciascun task. Per certi versi, è possibile ricorrere efficacemente alla RPA solo se si è riusciti ad applicare in maniera preliminare tecniche avanzate di process management. Ciò vuol dire, in parole semplici, analizzare il log degli eventi (ovvero il censimento delle attività che svolgono gli utenti) per costruire una mappatura accurata delle relazioni fra le persone e/o gli uffici, stabilendo le corrette relazioni di causa-effetto tra un’azione e un risultato. «L’obiettivo primario è quello di individuare sacche di inefficienza, colli di bottiglia e margini di miglioramento per ciascun processo. Tutto ciò è indispensabile per identificare gli strumenti di automazione che possono aiutare (o sostituire del tutto) gli operatori umani a colmare il gap tra lo status quo e l’optimum». A parlare è Francesco Ancona, che in Siav, specialista delle soluzioni per la digitalizzazione delle imprese e della PA, ha il doppio cappello di responsabile R&D e di IT Architect. Con lui, che per lavoro deve coniugare il pragmatismo di chi ha a che fare direttamente con i clienti e la visione di chi è sempre alla ricerca di nuovi approcci alla tecnologia, abbiamo cercato di comprendere meglio la logica e la cultura alla base del concetto di automazione, e soprattutto in che modo RPA e Process Mining aiutano le organizzazioni a ottimizzare i processi.
Who's Who
Francesco Ancona
Responsabile R&D e IT Architect, Siav
Process Mining e RPA: è corretto dire che uno è propedeutico all’altra?
Sì, assolutamente. Anzi fanno parte di un ciclo iterativo nel quale il primo ottimizza l’altro e viceversa. D’altra parte, basta partire dalle definizioni. L’RPA comprende tutte le tecnologie che supportano l’automazione dei processi lavorativi: dai software intelligenti in grado di eseguire in piena autonomia attività ripetitive, alle applicazioni che utilizzano gli operatori umani, semplificando le loro attività. Nel momento in cui attribuiamo a queste soluzioni la capacità di gestire dati non strutturati, monitorare i processi che coinvolgono le persone e di sfruttare l’intelligenza artificiale in modo non deterministico per lavorare attraverso sistemi informativi diversi tra di loro, allora possiamo parlare di strumenti che ottimizzano i processi a 360 gradi.
Il Process Mining è invece una tecnica di process management basata sull’analisi del log degli eventi. Le piattaforme di Process Mining vanno a definire l’inizio e la fine di ciascuna azione, identificano, definiscono e archiviano i vari eventi e quindi, attraverso algoritmi ad hoc, eseguono una serie di performance analysis per evidenziare colli di bottiglia nei processi, task frequenti e attività che coinvolgono gli operatori in maniera più pesante. Da qui discende la possibilità di istituire KPI e monitorare i vari processi su basi metriche e quindi oggettivi, notificando agli utenti quelli che possono essere momenti critici riguardanti specifiche fasi all’interno di un determinato processo.
Sulla base di queste definizioni possiamo anche stabilire con chiarezza il rapporto tra Process Mining e RPA. Avendo a disposizione, grazie al process mining, dati quantitativi – e per questo oggettivi – su processi anche complessi, gli interventi di automazione, implementabili con tecnologie di RPA, possono essere mirati, e quindi realmente efficaci. A tutto vantaggio non solo dell’efficienza organizzativa, ma anche della soddisfazione dei lavoratori: quando un’azienda solleva i propri operatori da task noiosi, infatti, li rende più felici oltre che più produttivi.
Quali strumenti e metodologie deve adottare un’impresa che vuole sperimentare il Process Mining per conoscere e ottimizzare i propri processi operativi?
Quello che mi sento di suggerire è che bisogna prima pensare ai processi e alla cultura aziendale, poi agli strumenti da adottare. O comunque, cercare di normare le attività facendole convergere in processi strutturati ma agili. Ciò significa iniziare a mappare le attività delle persone censendole (inizialmente anche senza strumenti IT ma solo tramite tools organizzativi) in modo da consentirne un minimo controllo. Si potrebbe per esempio partire dai processi documentali e amministrativi, ideando percorsi ideali che aiutino a seguirne l’andamento. Successiva al censimento potrebbe essere la registrazione dei dati sull’esecuzione dei processi in una struttura IT (ad esempio una base dati). A quel punto è possibile implementare i processi disegnati con strumenti di Business Process Management (BPM) che li definiscano minuziosamente sul piano operativo, specialmente se sono più operatori a gestirli. A quel punto la differenza tra le attività di utenti umani e servizi automatici sarà più evidente e la raccolta dei dati nel log degli eventi risulterà più semplice.
Che ruolo ha in questo senso la presenza di una infrastruttura digitale adeguata e, di converso, come si supera il gap nel momento in cui questa non è presente?
Anche qui procederei in modo analitico: cerchiamo di capire qual è la situazione ottimale, poi analizziamo la realtà dei fatti di molte imprese e quindi stabiliamo il gap da superare. Il top è naturalmente rappresentato da un’azienda dotata di un’infrastruttura digitale e che fa leva su un buon numero di applicazioni per gestire la parte produttiva come la supply chain, i servizi ai clienti e l’amministrazione. In questo caso non parliamo quindi solo di gestionali e CRM, ma anche di applicazioni ancillari integrate nei software principali attraverso API, cioè Application Programming Interface, ETL (Extract Transform, Load, ndr) oppure connettori che accedendo alle varie basi dati possono in modo indiretto recuperare i record custoditi nel log degli eventi e attivare il Process Mining.
E la realtà dei fatti qual è?
Nella stragrande maggioranza delle aziende le applicazioni sono isole. Quindi è difficile recuperare dati: spesso non si sa nemmeno dove sono salvati, senza contare che moltissimi processi sono ancora interamente gestiti sulla carta. Quindi, se vogliamo ipotizzare una scaletta che ci aiuti a colmare questo grosso gap, il primo passo consiste nella digitalizzazione di tutte le attività manuali, a partire dalla dematerializzazione dei documenti cartacei. È un lavoro improbo, me ne rendo conto, ma che per fortuna può essere affidato in outsourcing. Il passaggio successivo è quello che abilita l’automazione. Utilizzando l’ETL o le integrazioni tra le applicazioni via API posso costruire processi strutturati e comporre un log degli eventi sufficientemente accurato. A questo punto si dà il via alla performance analysis, che permette di identificare le attività critiche e i colli di bottiglia del processo, ossia il target ideale dove applicare le automazioni essendo sicuri di ottenere un risultato tanagibile. Muovendosi lungo quest’asse le aziende possono ottenere risultati davvero inaspettati. Non si tratta solo di agevolare l’operatività dell’utente, ma anche di strutturare catene di operazioni che prima risultavano del tutto slegate. In questo senso, occorre mettere insieme un team di specializzazione per l’automazione dei processi, una serie di professionalità con competenze trasversali che funga da trait d’union tra chi in azienda gestisce le applicazioni e chi pianifica le attività.
In generale, quali sono i processi che possono essere potenziati con la RPA?
Per rispondere a questa domanda separerei il concetto di automazione in due categorie. La prima è quella che viene espletata in senso stretto su task che presentano sempre le medesime caratteristiche: sono lenti, ripetitivi, hanno input deterministici e tendono a creare colli di bottiglia. Senza incidere sui costi applicativi, questo tipo di automazione si può applicare a soluzioni in cui si dispone della stessa user interface con cui lavorano gli operatori umani demandando però l’attività a un robot. Ovviamente, i processi più facilmente potenziabili da questo punto di vista sono quelli sottoposti a Business Process Management, rispetto ai quali tutto è tracciabile. C’è poi la seconda categoria, riferibile a forme di automazione basate sulla valutazione intelligente eseguita da altri software. Un esempio concreto? Pensiamo alle attività di classificazione: potrei avere processi all’interno dei quali un operatore umano deve riconoscere vari documenti in base a tipologia e contenuto e svolgere un’operazione anziché un’altra in funzione di quanto esperito. Un’attività decisamente onerosa che può essere alleggerita introducendo sistemi di RPA fondati per esempio sul machine learning. In questo modo la procedura può essere eseguita in modo automatico o semiautomatico, con la possibilità di coinvolgere l’operatore umano nel momento in cui l’algoritmo non raggiunge la soglia di certezza programmata nel processo di riconoscimento del documento.
Che approccio avete sviluppato in Siav rispetto a RPA e Process Mining?
Un approccio progressivo ma olistico. Olistico perché abbiamo capito che è necessario intervenire sul sistema informativo nel suo complesso, incidere su diversi piani, anche paralleli, che però portano tutti al supporto dell’operatività quotidiana dell’operatore. Ma questo intervento deve essere per forza condotto a piccoli passi. Creiamo una base su cui lavorare e poi sviluppiamo progetti che soddisfano i requisiti del cliente. Dal punto di vista tecnologico, in Siav ci muoviamo facendo leva su quattro cardini, più un contenitore che li orchestra. Il primo cardine è il già citato BPM, che utilizza vari standard di omologazione per disegnare anche con metodi grafici i processi, in modo da semplificare il ciclo di sviluppo dell’operatività e coinvolgere i relativi gruppi di utenti. Poi c’è la componente di machine learning, ossia dei servizi che permettono di integrare componenti intelligenti nei processi (ad esempio in grado di scegliere sulla base della situazione specifica quale azione compiere). Come terzo pilastro abbiamo i servizi di Process mining e performance analysis di cui abbiamo parlato in precedenza. Si tratta di attività non svolte una tantum, ma in modo continuativo: man mano che vengono raccolti i dati si generano come output nuove analisi di performance, che a loro volta danno vita a nuovi e più efficaci KPI. Infine, ci sono le tecnologie di automazione vere e proprie, e nello specifico noi puntiamo su Selenium.
Parlava poi di un contenitore…
Il contenitore è il digital workplace, che nel nostro caso si identifica con la soluzione Archiflow. È quello il collante di tutti i processi di automazione: attraverso API, microservizi di Machine learning e Process mining possiamo sfruttare la piattaforma per incanalare tutte le informazioni e dare vita, gradualmente e in modo olistico, a un vero e proprio ecosistema in continua evoluzione, ma sempre al servizio dell’utente.