I test di usabilità per PA digitale 2026
L'importanza di coinvolgere gli utenti nel verificare la facilità d'uso
Video - IntervistaMetadati e link per approfondire
Scarica la trascrizione in formato ODT.
Io sono Maria Cristina Caratozzolo, sono una User Experience Designer e collaboro con il Dipartimento per la trasformazione digitale da un paio d'anni e sono anche Product Owner del progetto PA digitale 2026.
“Cos'è PA digitale 2026 e quali attività sono state realizzate per testarne l'usabilità?”
PA digitale 2026 è insieme un sito web e una piattaforma che rappresentano un punto di accesso unico per le pubbliche amministrazioni italiane ai fondi del PNRR destinati alla trasformazione digitale della Pubblica Amministrazione. Attraverso quindi PA digitale 2026, gli enti possono accedere agli avvisi e a tutte le informazioni che li riguardano e anche inviare, attraverso l'area riservata le proprie candidature per accedere ai fondi e poi successivamente gestire i progetti legati ai finanziamenti di queste candidature.
La progettazione di questo strumento è avvenuta nel corso del dello scorso anno e ha visto in diverse occasioni il coinvolgimento degli utenti finali anche attraverso attività di test di usabilità. In particolare abbiamo svolto due tornate di test di usabilità in corrispondenza dei due principali rilasci della piattaforma.
I primi due rilasci importanti di funzionalità. È stata svolta poi anche un'attività parallela ai test di usabilità, ovvero una survey, un questionario online di gradimento che riguardava anche gli aspetti di usabilità della piattaforma stessa. PA digitale 2026 è un sito che non ha come utenti diretti i cittadini.
“Cosa cambia in termini di usabilità? Avete dovuto cambiare approccio, modificare i protocolli?”
Sì, i destinatari di PA digitale 2026 sono utenti appartenenti all'ambito della Pubblica Amministrazione, quindi in particolare operatori della Pubblica Amministrazione.
In generale, si può dire che il principio di centralità dell'utente nella progettazione di strumenti e di servizi digitali è universale, e quindi vale indipendentemente da chi sia questo utente finale per il quale si sta progettando, realizzando uno strumento.
Per cui il principio e i suoi portati rimangono immutati, in questo tipo di progetti. Così come immutato rimane il riferimento di alto livello, il riferimento metodologico, per cui per questo progetto è stato applicato il processo di progettazione in 5 fasi proposto dal Designers Italia e sono stati utilizzati gli stessi strumenti metodologici di supporto alle varie attività di analisi prima di progettazione, di realizzazione e di validazione poi. Per cui l'impianto di riferimento rimane il medesimo, quello che cambia, e che viene quindi declinato diversamente, naturalmente sono appunto i protocolli che chiaramente devono essere adattati al dominio di riferimento e all'utente di riferimento. Nel caso specifico, chiaramente, l'utente Pubblica Amministrazione è un utente particolare, che ha una serie di conoscenze, competenze, un expertise di dominio molto precisa, molto puntuale e quindi su questo tipo di utente si possono considerare come il bagaglio di conoscenze di base, una serie di conoscenze che non sono le stesse chiaramente di un normale cittadino.
Nei protocolli di test, naturalmente nel costruire i task, ovvero i compiti che l'utente avrebbe dovuto svolgere nelle sessioni di test, si è tenuto presente quindi non solo i compiti che la piattaforma in sé doveva supportare per gli utenti finali ma anche il profilo proprio dell'utente di riferimento. Quindi, si sono potute dare, diciamo tra virgolette per scontate, alcune conoscenze di dominio e di processo e ci si è potuti basare sulla conoscenza di un contesto operativo di questo tipo di utenti. Mi riferisco al fatto che questi utenti operano utilizzando una rete anche di conoscenze, di relazioni, di collaborazioni con altri utenti e anche un'altra serie di strumenti fuori da PA digitale 2026 che contribuiscono alla realizzazione e al conseguimento degli obiettivi delle attività che erano incluse nei test. E quindi questo certamente nella costruzione dei protocolli ha ha influito e tutti i protocolli chiaramente sono stati costruiti ad hoc per testare la piattaforma.
“Quali sono stati gli insegnamenti chiave? Le evidenze emerse e le ottimizzazioni richieste?”
Nelle sessioni di test di usabilità che abbiamo svolto, devo dire che i risultati raccolti sono stati in generale molto buoni, molto gratificanti anche sul progetto della piattaforma perché va detto che in entrambe le sessioni le tornate di test tutti gli utenti sono sempre riusciti a svolgere i task che gli venivano assegnati con pochissime difficoltà. Quindi diciamo le evidenze hanno consolidato l'impianto generalmente efficiente ed efficace della piattaforma e un buon livello, hanno attestato un buon livello, di usabilità. Hanno comunque fornito suggerimenti molto interessanti che sono stati utilizzati per ottimizzare ulteriormente l'usabilità l'intuitività della piattaforma. Per esempio riguardo all'aspetto di alcune schermate, alcuni passaggi. Per esempio il posizionamento di alcuni elementi nella pagina che ne valorizzasse la visibilità o l'utilizzo di una determinata terminologia per identificare degli elementi dell'interfaccia o delle funzionalità che venivano proposte dall'interfaccia. Un caso particolare, molto interessante, che riguarda un test che non è stato un vero e proprio test di usabilità, ma che comunque ci ha dato veramente la misura dell'importanza del coinvolgimento degli utenti anche su questo aspetto, è stata un'attività di AB testing, nella quale abbiamo testato, prima di rilasciarle, due possibili soluzioni alternative per supportare una funzionalità. Queste due soluzioni erano state proposte dal team di progetto, che però non sapeva decidere quale fosse effettivamente la migliore per gli utenti da rilasciare in piattaforma. La scelta è stata quindi demandata agli utenti stessi che ci hanno indicato la soluzione che poi effettivamente abbiamo adottato in piattaforma, anche con un'indicazione in parte sorprendente rispetto a quelle che erano le aspettative.
“Le attività che prevedono il coinvolgimento degli utenti sono concluse o prevedete nuove azioni?”
No, non abbiamo ancora finito con le attività di coinvolgimento degli utenti e di testing dell'usabilità. Abbiamo già in piano di realizzare una nuova tornata di test di usabilità per concludere un po il ciclo del testing che abbiamo fatto corrispondere alle fasi, come dicevo prima principali di rilascio di funzionalità nella piattaforma. Quindi avvieremo, realizzeremo una terza fase di testing di usabilità nel primo trimestre di quest'anno.
E stiamo anche lavorando ad una ulteriore attività di ricerca, ad una nuova survey online, che in questo caso questa volta riguarderà la newsletter, che viene inviata mensilmente agli utenti registrati sulla piattaforma e che ci servirà a raccogliere anche in questo caso indicazioni importanti per migliorare i contenuti proposti agli utenti. L'ambizione comunque anche al di là di queste due attività già pianificate, è quella di continuare, per tutta la durata della della vita della piattaforma in relazione agli avvisi del PNRR, a effettuare periodicamente delle attività di testing dell'usabilità e comunque il coinvolgimento degli utenti finali per continuare in un'ottica di evoluzione e di ottimizzazione continua dello strumento in modo tale che nel tempo si possa ulteriormente ottimizzarne l'usabilità, ma anche adeguarne i contenuti e le proposte funzionali rispetto alle esigenze che potranno evolversi e cambiare nel tempo.
L'intervista fornisce un esempio pratico in cui l'utente finale non è il cittadino ma i funzionari della PA, racconta infatti l'attività di validazione dell'usabilità della piattaforma PA digitale 2026, utilizzata dagli enti per richiedere gli incentivi del PNRR.