Big Data ist ein Konzept, das seit Jahrzehnten existiert. Ursprünglich definierte man es als Datensätze, die in vertretbarer Zeit erfasst, verwaltet und verarbeitet werden, jedoch die Kapazitäten herkömmlicher Software übersteigen. Die einzige Konstante bei Big Data war stets ihr wachsender Umfang – vorangetrieben durch Fortschritte in paralleler Rechenleistung und kostengünstigerer Speicherung. Heute nutzt die Branche überwiegend das 3 V-Modell, um die Herausforderungen und Chancen von Big Data in drei Dimensionen zu beschreiben: Volumen, Geschwindigkeit und Vielfalt. In jüngster Zeit erweiterte sich dies auf maschinelles Lernen und digitale Spuren. Die Liste der Anwendungen ist endlos, der Ablauf bleibt gleich: erfassen, verarbeiten und auswerten. Warum sollte diese Technologie nicht Ihre Verifikationseffizienz steigern und die nächste Chip-Freigabe prognostizieren?
Heutige Verifikationsumgebungen erfordern Zusammenarbeit aufgrund der Gerätekomplexität, global verteilter Teams und Markteinführungsdruck. Es erfordert die effiziente Nutzung jeder Ressource und das Management von Hardware, Software und Personal.
Dieses White Paper beschreibt die typische Verifikationsumgebung und die Daten, die im Projektverlauf oft unberücksichtigt bleiben. Es wird veranschaulicht, wie Erfassung, Verarbeitung und Analyse die Vorhersehbarkeit und Effizienz des gesamten Verifikationsprozesses steigern können. Dies erfordert eine flexible Infrastruktur zur Datenextraktion aus den vielfältigen Systemen des typischen Verifikationsprozesses. Es muss ein zentrales Repository vorhanden sein, das in der Lage ist, die Daten auf gemeinsame Weise zu speichern, damit die Daten so verwaltet werden können, dass sie nicht nur über die Dauer des Projekts, sondern auch in der Zukunft sauber und relevant bleiben, um Vergleiche und Vorhersagen zu anderen und neuen Projekten zu ermöglichen.
In diesem Dokument wird erläutert, wie neue webfähige Technologien auf den Hardwareentwicklungsablauf angewendet werden können, um eine Plug-and-Play-Infrastruktur für die Zusammenarbeit bereitzustellen. Es werden auch Analysearten und Erkenntnisse aufgezeigt, die durch die Kombination gängiger Abdeckungskennzahlen mit diesen normalerweise verlorenen Datenkennzahlen ermöglicht werden, sowie die Zusammenhänge zwischen diesen Kennzahlen.
Die zeitliche Betrachtung gesammelter Kennzahlen kann wertvolle Prozesseinblicke liefern. Historische Abdeckungsdaten im Zeittrend können Hinweise auf die verbleibende Dauer bis zur Freigabe geben. Die Möglichkeit, diese einzelnen Kennzahlen zusammen in einem Diagramm darzustellen, gibt außerdem Zugang zu Informationen, die oft verloren gehen.
Dieses White Paper wird auch anhand von Beispielen andere Erkenntnisse aufzeigen, die durch die Betrachtung von Cross-Analytics zwischen Bug-Closure-Raten und Quellcode-Churn gewonnen werden können, was in Kombination mit Abdeckungskennzahlen dazu beitragen kann, den Fortschritt auf dem Weg zur Abnahme vorherzusagen. Es wird gezeigt, wie anhand historischer Daten ähnliche Muster von Ereignissen erkannt werden können und wie die Aufzeichnung von etwas mehr Metadaten in bestehenden Systemen es ermöglicht, mit Kreuzanalysen Informationen zur Effizienz einer neuen Methodik oder eines neuen Tools gemessen an früheren Projekten zu ermitteln. Dies ermöglicht auch die Berechnung weiterer aus den Daten verfügbarer Kennzahlen, wie z. B. die mittlere Zeit zwischen Fehlerbehebungen, die mittlere Zeit zwischen Regressionsfehlern, das letzte Mal, dass ein Test bestanden wurde oder fehlgeschlagen ist, und die Nutzung von Tool-Lizenzen durch bestimmte Anwender – so können wir Fragen beantworten und vorhersagen wie „Werden wir genügend formale Lizenzen für unsere Spitzenauslastung beim nächsten Projekt haben?“