ホワイトペーパー

ビッグデータで検証の予測性と効率性を高める

Questa Verification IQ - 新しいテクノロジーを実現する立役者

データ・マイニングと予測分析

ビッグデータという言葉が誕生してから、数十年が経ちます。当初は、一般的なソフトウェア・ツールの性能を超え、所定時間内に収集、管理、処理されるデータセットとして定義されていました。この間、ビッグデータの規模は、並列処理能力の向上とストレージ容量の低価格化によって、常に拡大を続けています。業界の多くが採り入れている3Vモデルは、ビッグデータにおける課題と機会をボリューム、速度、多様性の3次元として定義するものです。近年、これは機械学習やデジタル・フットプリントにも拡大されています。ビッグデータのアプリケーションは無限であるものの、そのプロセスはいずれもデータの捕捉、処理、解析という同じ流れです。このテクノロジーを検証プロセスの効率化、次世代半導体チップのサインオフの予測に生かすことはできないでしょうか。

今日の検証環境では、デバイスの高集積化、地理的に分散したチーム、市場投入までの時間に対するプレッシャーなどの理由により、コラボレーションが求められています。ハードウェア、ソフトウェア、人的リソースを適切に管理しつつ、すべてのサイクルを有効活用する必要があります。

このホワイトペーパーは、一般的な検証環境を考察するとともに、プロジェクト中に捕捉しにくいデータにも焦点を当てていきます。また、データの捕捉、処理、解析という工程を通じて、検証プロセス全体の予測性と効率性を向上させる方法を紹介します。それには、一般的な検証フローを構成する複数のシステムからデータを抽出できる、柔軟なインフラストラクチャが必要です。また、共通の方法でデータを保存できる中央リポジトリも欠かせません。これにより、プロジェクトの期間中だけでなく、将来にわたってデータをクリーンで関連性のある状態に保ち、別のプロジェクトとの比較や将来の予測に生かすことができます。

このホワイトペーパーでは、最新のWeb対応テクノロジーをハードウェア開発フローに適用して、コラボレーションを容易にするプラグ・アンド・プレイ手法を説明します。また、一般的なカバレッジ・メトリクスと通常失われがちなデータ・メトリクスを組み合わせた解析やインサイト、メトリクス間の相互関係についても解説します。

収集したメトリクスを経時的に確認する機能により、プロセスに対する優れた洞察を得られます。経時的な傾向を示す過去のカバレッジ・データを見るだけで、サインオフ完了見込みがいつ頃なのか予測できます。単一のメトリクスを同じグラフ上にまとめてプロットすることで、失われがちな情報も明らかになります。

本ホワイトペーパーは、バグの解決率とソースコードの変更率のクロス分析など、そのほかの洞察についても例を挙げて示します。これらをカバレッジ・メトリクスと組み合わせることで、サインオフまでの進捗を予測します。さらに、過去データを使用して類似のイベント・パターンを特定する方法や、既存のシステム内でメタデータを記録してクロス分析を行うことで、新しい方法論やツールの有効性を調べる方法についても説明します。また、平均バグ修正期間、平均リグレッション失敗間隔、直近テストの成否時間、特定ユーザーによるライセンス・ツールの使用状況など、データから得られる他のメトリクスを計算することもできます。これにより、「次のプロジェクトで、使用量のピーク時に十分な正式ライセンスを確保できるか?」などの問いに対する答えを導き出し、予測することが可能です。

共有

関連情報