White paper

Migliorare la verifica, la prevedibilità e l’efficienza utilizzando i big data

Questa Verification IQ: abilitare nuove tecnologie.

Data mining e analisi predittiva

Big data è un termine che esiste da decenni. Inizialmente è stato definito come set di dati acquisiti, gestiti ed elaborati in un lasso di tempo tollerabile oltre la capacità dei normali strumenti software. L’unica costante nelle dimensioni dei big data in questo periodo di tempo è che sono stati un bersaglio mobile guidato da miglioramenti nella potenza di elaborazione parallela e capacità di archiviazione più economica. Oggi la maggior parte del settore utilizza il modello 3V per definire le sfide e le opportunità dei big data come tridimensionali: volume, velocità e varietà. Ultimamente questo è stato esteso al machine learning e alle impronte digitali. L’elenco delle applicazioni è infinito, il processo è lo stesso: acquisizione, elaborazione e analisi. Perché questa tecnologia non dovrebbe aiutare a migliorare l’efficienza del processo di verifica e prevedere la futura approvazione dei chip?

Gli ambienti di verifica odierni devono essere collaborativi a causa delle dimensioni dei dispositivi, dei team geograficamente dislocati e delle pressioni sul time-to-market. Richiede l’uso efficiente di ogni ciclo, gestendo le risorse hardware, software e di personale.

Questo documento definirà l’ambiente di verifica tipico e i dati che spesso non vengono acquisiti per tutta la durata di un progetto. Mostrerà come il processo di acquisizione, elaborazione e analisi può essere applicato per migliorare la prevedibilità e l’efficienza dell’intero processo di verifica. Ciò richiede un’infrastruttura flessibile che consenta di estrarre i dati dai molteplici sistemi che compongono il tipico flusso di verifica. Deve essere disponibile un repository centrale che sia in grado di archiviare i dati in modo comune, così che possano essere gestiti per mantenerli puliti e pertinenti non solo per tutta la durata del progetto, ma anche nel futuro per consentire confronti e previsioni su altri e nuovi progetti.

Questo documento spiegherà come le nuove tecnologie web-ready possono essere applicate al flusso di sviluppo hardware per fornire un’infrastruttura plug-n-play per la collaborazione. Evidenzierà inoltre alcuni dei tipi di analisi e insight che sono possibili combinando le metriche di copertura comuni con quelle normalmente perse, nonché le interrelazioni tra tali metriche.

La capacità di visualizzare le metriche raccolte nel tempo può fornire informazioni dettagliate sul processo. I dati storici di copertura, con andamento nel tempo, possono fornire indicazioni su quanto tempo è necessario per completare l’approvazione. Essere in grado di tracciare queste singole metriche insieme sullo stesso grafico offre anche informazioni che spesso vengono perse.

Questo documento mostrerà inoltre, tramite esempi, altre informazioni che possono essere ottenute osservando l’analisi incrociata tra i tassi di chiusura dei bug e l’abbandono del codice sorgente che, se combinati con le metriche di copertura, possono aiutare a prevedere i progressi verso l’approvazione. Mostrerà come i dati storici possano essere utilizzati per individuare modelli simili di eventi e come la registrazione di qualche metadato in più all’interno dei sistemi esistenti consenta all’analisi incrociata di ottenere informazioni come l’efficacia di nuovi strumenti o metodologie sulla base di progetti passati. Consente inoltre il calcolo di ulteriori metriche disponibili dai dati, come il tempo medio tra le correzioni di bug, il tempo medio tra gli errori di regressione, l’ultima volta che un test è stato superato o non è riuscito e l’utilizzo delle licenze degli strumenti da parte di utenti specifici, consentendoci di rispondere e prevedere domande come “Avremo abbastanza licenze formali per il nostro picco di utilizzo nel prossimo progetto?”

Condividi

Risorse correlate