DE112010003993T5 - Erzeugung eines automatisierten Test-Ausführungsplans - Google Patents

Erzeugung eines automatisierten Test-Ausführungsplans Download PDF

Info

Publication number
DE112010003993T5
DE112010003993T5 DE112010003993T DE112010003993T DE112010003993T5 DE 112010003993 T5 DE112010003993 T5 DE 112010003993T5 DE 112010003993 T DE112010003993 T DE 112010003993T DE 112010003993 T DE112010003993 T DE 112010003993T DE 112010003993 T5 DE112010003993 T5 DE 112010003993T5
Authority
DE
Germany
Prior art keywords
test
execution plan
user
test execution
software
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112010003993T
Other languages
English (en)
Inventor
Kenneth Lee McClamroch
Jennifer Becker
Peter Sun
VinodKumar Raghavan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE112010003993T5 publication Critical patent/DE112010003993T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3684Test management for test design, e.g. generating new test cases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Debugging And Monitoring (AREA)
  • Stored Programmes (AREA)

Abstract

Ein Testausführungs-Planerzeugungs-Tool ist dazu ausgebildet, eine Vielzahl von nutzerkonfigurierten Testparametern für eine Softwareanwendung im Test zu empfangen. Zumindest ein Testziel für die Softwareanwendung wird durch nutzerkonfigurierbaren Testparameter definiert. Ein Test-Ausführungsplan kann automatisch unter Verwendung der nutzerkonfigurierten Testparameter und eines vordefinierten Test-Ausführungsplan-Datenmodells erzeugt werden. Das vordefinierte Test-Ausführungsplan-Datenmodell kann Test-Metadaten umfassen, die die Softwaretest-Domaindaten für ein Software-Testsystem darstellen, das benutzt wird, um die Softwareanwendung im Test zu bewerten. Die Test-Metadaten können Details begrenzter geteilter Ressourcen eines Testcenters spezifizieren, das durch alle Projekte im Test geteilt wird. Der erzeugte Test-Ausführungsplan kann eine spezifische Zuordnung der begrenzten geteilten Ressourcen, die zumindest einer Phase des Testes der Softwareanwendung dediziert sind, genau beschreiben, um das zumindest eine Testziel für die Softwareanwendung zu erfüllen.

Description

  • Gebiet
  • Die vorliegende Erfindung bezieht sich auf das Gebiet des Softwaretestens und im Besonderen auf die Erzeugung eines automatisierten Test-Ausführungsplans.
  • Hintergrund
  • Das Testen von Software ist ein kritisches Element in der Softwareentwicklung. Es existiert eine Vielzahl von automatisierten Softwaretools, um beim Management und/oder der Performance von Software-Tests zu unterstützen. Zum Beispiel führt ein automatisiertes Test-Tool vordefinierte Skripte aus, die die Nutzung der Software simulieren. Andere Tools fokussieren sich auf die Erzeugung von verschiedenen Testprozessartefakten, wie zum Beispiel Testfälle und Projektzeitlinien.
  • Allerdings ist die konventionelle Erzeugung von Test-Ausführungsplänen immer noch ein manueller Prozessor trotz dieser Tools. Die Erzeugung eines Test-Ausführungsplans erfordert die Beachtung vieler Faktoren, die oft in Systemen gespeichert sind, die extern gegenüber des Software-Testsystems sind. Zum Beispiel würde die Bestimmung der Verfügbarkeit von Softwaretestern die Konsultierung eines Projektmanagements und/oder Kalenderprogramms erfordern, wohingegen die testbezogene Information sich innerhalb des Software-Testsystems befindet.
  • Wegen seiner manuellen Natur ist dieser Prozess zeitraubend und wird leicht von menschlichen Fehlern beeinflusst. Für verschiedenes Personal ist es möglich, unterschiedliche Test-Ausführungspläne basierend auf denselben Datenparametern zu erzeugen. Ferner können die unterschiedlichen Test-Ausführungspläne in unterschiedlichen Formaten gespeichert werden. Diese fehlende Standardisierung behindert eine aussagekräftige Analyse der Test-Ausführungspläne und ihrer Inhalte wie zum Beispiel die Bestimmung von Lücken in der Testabdeckung.
  • Zusammenfassung
  • Die vorliegende Offenbarung bietet ein Verfahren zur automatischen Erzeugung eines Test-Ausführungsplans für das Testen von Software. Die Erzeugung des Test-Ausführungsplans wird durch ein Test-Ausführungsplan-Erzeugungstool durchgeführt. Das Test-Ausführungsplan-Erzeugungstool nutzt ein vordefiniertes Test-Ausführungsplan-Datenmodell in Verbindung mit nutzerkonfigurierten Testparametern. Das vordefinierte Test-Ausführungsplan-Datenmodell umfasst Test-Metadaten, die die Software-Test-Domaindaten des Software-Test-Systems repräsentieren, das zur Bewertung der Softwareanwendung im Test genutzt wird. Die nutzerkonfigurierten Testparameter bieten die spezifischen Testparameter für den Test-Ausführungsplan.
  • Ein Aspekt der vorliegenden Erfindung kann ein Verfahren und ein Computerprogrammprodukt zur automatischen Erzeugung von Test-Ausführungsplänen umfassen. Ein Satz nutzerkonfigurierter Testparameter für eine Softwareanwendung im Test kann durch ein Test-Ausführungsplan-Erzeugungstool empfangenen werden. Zum Beispiel kann eine grafische Nutzerschnittstelle auf einem Client präsentiert werden, der Nutzereingaben innerhalb von durch die Schnittstelle definierten grafischen Nutzerschnittstellen-Feldern akzeptiert, wobei die Nutzereingabe die Testparameter spezifiziert, die an einen Server übermittelt werden, der das Test-Ausführungsplan-Erzeugungstool hostet. Die nutzerkonfigurierten Testparameter können mit einem Eintrag korrelieren, der sich in einem vordefinierten Test-Ausführungsplan-Datenmodell befindet, das mit dem Test-Ausführungsplan-Erzeugungstool assoziiert ist. Zumindest ein Testziel für die Softwareanwendung kann durch die nutzerdefinierbaren Testparameter definiert werden. Ein Test-Ausführungsplan kann automatisch erzeugt werden unter der Verwendung der nutzerkonfigurierten Testparameter und eines vordefinierten Test-Ausführungsplan-Datenmodells. Das vordefinierte Test-Ausführungsplan-Datenmodell kann Test-Metadaten beinhalten, die die Software-Test-Domaindaten für ein Software-Testsystem repräsentieren, das zur Bewertung der Softwareanwendung im Test benutzt wird. Die Test-Metadaten können Details geteilter begrenzter Ressourcen eines Testcenters spezifizieren, der durch alle Projekte im Test geteilt wird. Der erzeugte Test-Ausführungsplan kann eine spezifische Zuordnung der begrenzten geteilten Ressourcen, die für zumindest eine Phase des Testes der Softwareanwendung dediziert sind, um das zumindest eine Testziel für die Softwareanwendung zu erreichen, genau beschreiben.
  • Ein anderer Aspekt der vorliegenden Erfindung kann ein System zur automatischen Erzeugung von Test-Ausführungsplänen umfassen. Solch ein System kann nutzerkonfigurierte Testparameter, ein vordefiniertes Test-Ausführungsplan-Datenmodell und ein Test-Ausführungsplan-Erzeugungstool umfassen. Die nutzerkonfigurierten Testparameter können Test-Anforderungen für eine Softwareanwendung im Test definieren, die innerhalb eines Software-Testsystems bewertet werden sollen. Zumindest ein Testziel für eine Softwareanwendung kann durch die nutzerkonfigurierten Testparameter definiert werden. Das vordefinierte Test-Ausführungsplan-Datenmodell kann Test-Metadaten zur Erzeugung eines Test-Ausführungsplans für die Softwareanwendung im Test definieren. Die Test-Metadaten können reprasentativ für die Software-Testdomain-Daten des Software-Testsystems sein. Die Test-Metadaten können Details begrenzter geteilter Ressourcen eines Testcenters spezifizieren, das durch alle Projekte im Test geteilt wird, wobei der erzeugte Test-Ausführungsplan die spezifische Zuordnung der begrenzten geteilten Ressourcen, die für zumindest eine Phase des Testes der Softwareanwendung dediziert sind, um das zumindest eine Testziel für die Softwareanwendung zu erreichen, genau beschreiben. Das Test-Ausführungsplan-Erzeugungstool kann dazu ausgebildet sein, automatisch den Test-Erzeugungsplan für die Softwareanwendung im Test unter Verwendung der nutzerkonfigurierten Testparameter und des vordefinierten Test-Ausführungsplan-Datenmodells zu erzeugen. Jeder erzeugte Test-Ausführungsplan kann spezifische Zuordnungen der begrenzten geteilten Ressourcen umfassen, die für zumindest eine Phase des Testes der Software-Anwendung dediziert sind, um das zumindest eine Testziel für die Softwareanwendung zu erreichen.
  • Kurze Beschreibung der Zeichnungen
  • Ausführungsformen der Erfindung werden nun lediglich beispielhaft mit Bezugnahme auf die angehängten Zeichnungen beschrieben, in denen:
  • 1 ein schematisches Diagramm ist, das ein System illustriert, das ein Test-Ausführungsplan-Erzeugungstool nutzt, um automatisch einen Test-Ausführungsplan für eine Softwareanwendung im Test nach Ausführungsformen der erfinderischen, hier offenbarten Anordnungen zu erzeugen.
  • 2 ist eine detaillierte Illustration des Test-Ausführungsplan-Erzeugungstools nach Ausführungsformen der hier offenbarten erfinderischen Anordnungen.
  • 3 ist ein Beispiel-Datenbankschema für ein Test-Ausführungsplan-Datenmodell nach Ausführungsformen der hier offenbarten erfinderischen Anordnungen.
  • 4 ist ein Flussdiagramm eines Verfahrens, das die automatische Erzeugung eines Test-Ausführungsplans beschreibt, das durch ein Test-Ausführungsplan-Erzeugungstool nach Ausführungsformen der hier offenbarten erfinderischen Anordnungen ausgeführt wird.
  • Detaillierte Beschreibung
  • Die Offenbarung bietet eine Lösung für computererzeugte, datengesteuerte Test-Ausführungspläne (zum Beispiel Test-Ausführungsanweisungen), die gewünschte Testabdeckungsziele erfüllen und die einen begrenzten Satz geteilter Ressourcen für den Test nutzen. Daten (die statische und dynamische Daten umfassen können), die den begrenzten Satz geteilter Testressourcen betreffen, können ständig in einem nichtflüchtigen Speicher sein und mit nutzerkonfigurierten testspezifischen Parametern kombiniert werden, wobei diese Daten eine Zuordnung der geteilten Testressourcen bestimmen, die für eine allgemeine Testauslastung gegeben sind. Die allgemeine Testauslastung kann einen Satz ausstehender Testaktionen umfassen, die für mehrere gleichzeitig ablaufende Projekte genötigt werden, die unabhängig voneinander sein können.
  • In einer Ausführungsform kann die Lösung Tester und Testfallprofile modellieren, kann eine Testqualitätsmetrik pflegen und Testumgebungsdaten umfassen, welche Datenelemente sind, die genutzt werden, wenn datengesteuerte Test-Ausführungspläne erzeugt werden. Ferner kann die Lösung in existierende Test-Trackingstools, Scheduling-Tools, Ressource-Management-Systeme, Projektmanagementsysteme und ähnliche integriert werden, was dem Test-Ausführungsplan-Erzeuger ermöglicht, existierende Informationen zu hebeln, um den toolspezifischen Overhead und Pflegeaktionen zu reduzieren.
  • Ein Testplan-Erzeuger der Lösung kann ausreichend robust sein, um mit einer Myriade von Variablen umzugehen, die zur Identifizierung eines passenden Satzes von Testfällen beitragen, die von einem erzeugten Testplan umfasst werden sollten. Diese Variablen können eine gewünschte Testumgebungsabdeckung (das heißt, abhängig von einem Produkt im Test spezialisierte Ressourcen umfassen kann, die eine spezifische OS-Plattform, Datenbank, Anwendungsserver nutzen), gewünschte Produktabdeckung (zum Beispiel Akzeptanztests, Regression, volle Produktabdeckung usw.), gewünschte Komponentenabdeckung (zum Beispiel Einstellungstests basierend auf einer vergangenen Qualitätsmetrik pro Komponente, Zielobjekte eines Tests usw.). Test der Verfügbarkeit und Fähigkeitslevel und Ähnliches, obwohl sie nicht darauf begrenzt sind.
  • In einer Ausführungsform kann die Lösung eine Login- und Analysefunktionalität umfassen, die bei erzeugten Plänen bestehen bleibt. Die Analysefunktion kann genutzt werden, um beliebige Abdeckungslücken in einer Serie von Testplänen, die einen Projekttestplan bilden, zu detektieren, um sicherzustellen, dass ein Projekt umfassend getestet wurde. Zusätzlich kann die Speicherung und Analyse von Plänen genutzt werden, um eine Feedback-Training-Schleife zu etablieren, die benutzt werden, um automatisch das Verhalten des Test-Ausführungsplans-Erzeugers einzustellen, um sicherzustellen, dass erzeugte Pläne über die Zeit selbstanpassend sind.
  • Die Verwendung der offenbarten Lösung kann Fehler eliminieren, die oft durch manuell erstellte Test-Ausführungspläne verursacht werden. Zusätzlich kann Managern, die verantwortlich für Tests sind, eine neue Möglichkeit zur einfachen Neuerstellung von Plänen mit Variationen gestattet werden, um optionale Testansätze mit bekannten Risiken zu bestimmen. Jeder erzeugte Testplan kann im vollen Umfang basierend auf mehreren nutzerkonfigurierbaren Kriterien angepasst werden. Ferner können sich Testpläne automatisch basierend auf Veränderungen in verfügbaren Testressourcen, verändernden Testzielen und verändernden Prioritäten zwischen einem Satz von konkurrierenden Projekten im Test anpassen.
  • Die vorliegende Erfindung kann als ein Verfahren, System oder Computerprogrammprodukt ausgeführt sein. Demnach kann die vorliegende Erfindung die Form einer vollkommenen Hardwareausführung, einer vollkommenen Softwareausführung (umfassend Firmware, residente Software, Mikrocode usw.) oder eine Ausführungsform, die Software- und Hardwareaspekte miteinander kombiniert, die alle im Allgemeinen hier als „Schaltkreis”, „Modul” oder „System” bezeichnet werden, annehmen. Darüber hinaus kann die vorliegende Erfindung in Form eines Computerprogrammprodukts auf einem computernutzbaren Speichermedium mit computernutzbaren Programmcode, der in diesem Medium ausgeführt ist, annehmen. In einer bevorzugten Ausführungsform wird die Erfindung in Software implementiert, was Firmware, residente Software, Mikrocode, usw. umfasst, aber nicht darauf begrenzt ist.
  • Darüber hinaus kann die Erfindung die Form eines Computerprogrammprodukts annehmen, auf das von einem Computer nutzbaren oder computerlesbaren Medium zugegriffen werden kann, das Programmcode zur Nutzung durch oder in Verbindung mit einem Computer oder einem Instruktions-Ausführungssystem bereitstellt.
  • Ein beliebiges passendes computernutzbares oder computerlesbares Medium kann verwendet werden. Das computernutzbare oder computerlesbare Medium kann zum Beispiel ein elektronisches, magnetisches, optisches, elektromagnetisches, infrarotes oder Halbleitersystem, Apparat, Vorrichtung oder Ausbreitungsmedium sein, wobei es aber nicht darauf begrenzt ist. Beispiele eines computerlesbaren Mediums umfassen einen Halbleiter oder Festkörperspeicher, ein magnetisches Band, eine entfernbare Computerdiskette, Arbeitsspeicher (Random Access Memory, RAM), einen Festwertspeicher (Read Only Memory, ROM), einen löschbaren programmierbaren Festwertspeicher (Erasable Programmable Read Only Memory, EPROM) oder Flashspeicher, eine starre Magnetplatte oder eine optische Magnetplatte umfassen. Gegenwärtige Beispiele optischer Platten umfassen Festwerkspeicher Compact Discs (Compact Disc Read Only Memory, CD-ROM), Compact Discs-Lesen/Schreiben (Compact Disc-Read/Write, CD-R/W) und DVD.
  • Computerprogrammcodes zur Ausführung von Betriebsschritten der vorliegenden Erfindung können in einer objektorientierten Programmsprache, wie zum Beispiel Java, Smalltalk, C++ oder Ähnlichem geschrieben sein. Allerdings kann der Computerprogrammcode zur Ausführung der Betriebsschritte der vorliegenden Erfindung auch in konventionellen prozeduralen Programmiersprachen, wie zum Beispiel „C”-Programmiersprachen oder ähnlichen Programmiersprachen geschrieben sein. Der Programmcode kann insgesamt auf dem Computer des Nutzers, teilweise auf dem Computer des Nutzers, als Stand-alone-Softwarepaket, teilweise auf dem Computer des Nutzers und teilweise auf einem Remote-Computer oder insgesamt auf dem Remote-Computer oder Server ausgeführt werden. Im letzteren Szenario kann der Remote-Computer mit dem Computer des Nutzers über ein lokales Netzwerk (Local Area Network, LAN) oder über ein Write-Verkehrsnetzwerk (Write Area Network, WAN) verbunden sein oder die Verbindung kann zu einem externen Computer hergestellt werden (zum Beispiel über das Internet unter Verwendung eines Internet Service Providers).
  • Ein Datenverarbeitungssystem, das zur Speicherung und/oder Ausführung von Programmcodes geeignet ist, umfasst zumindest einen Prozessor, der direkt oder indirekt mit Speicherelementen über einen Systembus verbunden ist. Die Speicherelemente können lokalen Speicher, der während einer wirklichen Ausführung des Programmcodes genutzt wird, einen Massenspeicher und Cache-Speicher umfassen, die temporär die Speicherung von zumindest etwas Programmcode ermöglichen, um die Anzahl der Vorgänge, wenn der Code von dem Massenspeicher während der Ausführung empfangenen wird, zu reduzieren.
  • Eingabe-/Ausgabe- oder E/A-Vorrichtungen (umfassend aber nicht begrenzt auf Tastaturen, Anzeigen, Zeichengeräte, usw.) können mit dem System entweder direkt oder über einen intervenierenden E/A-Controller verbunden sein.
  • Netzwerkadapter können auch mit dem System verbunden sein, um zu ermöglichen, dass das Datenverarbeitungssystem mit anderen Datenverarbeitungssystemen oder Remotedruckern oder Speichervorrichtungen über intervenierende private oder öffentliche Netzwerke verbunden wird. Modems, Kabelmodems und Ethernetkarten sind nur ein paar der gegenwärtig verfügbaren Arten von Netzwerkadaptern.
  • Die vorliegende Erfindung wird weiter unten mit Bezugnahme auf Flussdiagrammdarstellungen und/oder Blockdiagramme von Verfahren, Apparaten (auf Systemen) und Computerprogrammprodukten nach Ausführungsformen der Erfindung beschrieben. Es ist so zu verstehen, dass jeder Block der Flussdiagrammdarstellungen und/oder Blockdiagramme und Kombinationen von Blöcken in den Flussdiagrammdarstellungen und/oder Blockdiagrammen durch Computerprogramminstruktionen implementiert werden können. Diese Computerprogramminstruktionen können einen Prozessor eines Allgemeinzweckcomputers, eines Spezialzweckcomputers oder anderen programmierbaren Datenverarbeitungsapparaten zur Verfügung gestellt werden, um eine Maschine herzustellen, sodass die Instruktionen, die durch den Prozessor des Computers oder des anderen programmierbaren Datenverarbeitungsapparates ausgeführt werden, Mittel erzeugen zur Implementierung der Funktionen/Handlungen, die in dem Flussdiagramm und/oder Blockdiagrammblock oder Blöcken spezifiziert sind.
  • Diese Computerprogramminstruktionen können auch auf einem computerlesbaren Speicher gespeichert sein, der einen Computer oder einen anderen programmierbaren Datenverarbeitungsapparat dazu veranlassen kann, in einer bestimmten Art zu funktionieren, sodass die Instruktionen, die auf dem computerlesbaren Speicher gespeichert sind, eine Vorrichtung herstellen, die Instruktionsmittel umfasst, die die Funktionen/Handlungen implementiert, die in dem Flussdiagramm und/oder Blockdiagramm, Block oder Blöcken spezifiziert sind.
  • Die Computerprogramminstruktionen können auch auf einen Computer oder einen anderen programmierbaren Datenverarbeitungsapparat geladen werden, um eine Serie von Ausführungsschritten zu veranlassen, die durch den Computer oder den anderen programmierbaren Apparat durchgeführt werden, um einen computerimplementierten Prozess herzustellen, sodass die Instruktionen, die auf dem Computer oder dem anderen programmierbaren Apparat ausgeführt werden, Schritte zur Implementierung der Funktionen/Handlungen bereitstellen, die in dem Flussdiagramm und/oder Blockdiagramm, Block oder Blöcken spezifiziert sind.
  • 1 ist ein schematisches Diagramm, das ein System 100 illustriert, das ein Test-Ausführungsplan-Erzeugungstool 140 verwendet, um automatisch einen Test-Ausführungsplan 155 für eine Softwareanwendung im Test 122 nach Ausführungsformen der hier offenbarten erfinderischen Anordnungen zu erzeugen. Im System 100 kann der Nutzer 105 eine Nutzerschnittstelle 115, die auf einer Client-Vorrichtung 110 ausgeführt wird, nutzen, um das Test-Ausführungsplan-Erzeugungstool 140 mit nutzerkonfigurierten Testparametern 117 bereitzustellen.
  • Die Clientvorrichtung 110 kann eine Vielzahl von Rechnervorrichtungen repräsentieren, die zur Ausführung der Nutzerschnittstelle 115 und zur Kommunikation mit dem Test-Ausführungsplan-Erzeugungstool 140 über das Netzwerk 165 fähig sind. Die nutzerkonfigurierten Testparameter 117 können die Testanforderungen für eine Softwareanwendung im Test 122 repräsentieren. Beispiele für die nutzerkonfigurierten Testparameter 117 können den Namen der Softwareanwendung im Test, die Version der Softwareanwendung im Test, die Testart (zum Beispiel Regressionstest, Akzeptanztest usw.), die Testumgebung, die Namen der Softwaretester, die den Test durchführen, Fähigkeiten, die von ungenannten Softwaretestern benötigt werden, den Namen spezifischer Anwendungskomponenten, die getestet werden sollen, die Testabdeckungsverteilung, das Teststartdatum, die Testdauer, die Testpriorität, den Wichtigkeitslevel des Testes und Ähnliches umfassen, obwohl sie darauf nicht begrenzt sind.
  • Die nutzerkonfigurierten Testparameter 117 können über das Netzwerk 165 an den Server 134 übermittelt werden, auf dem das Test-Ausführungsplan-Erzeugungstool 140 ausgeführt werden kann. Das Test-Ausführungsplan-Erzeugungstool 140 kann eine Softwareanwendung umfassen, die zur automatischen Erzeugung eines Test-Ausführungsplans 155 basierend auf den nutzerkonfigurierten Testparametern 117 und einem Test-Ausführungsplan-Datenmodell 150 ausgebildet sind. Das Test-Ausführungsplan-Erzeugungstool 140 kann einen Datenspeicher 145 zur Speicherung des Test-Ausführungsplan-Datenmodells 150 und erzeugter Test-Ausführungspläne 155 umfassen.
  • Das Test-Ausführungsplan-Datenmodell 150 kann Test-Metadaten umfassen, die die Softwaretest-Domaindaten 130 des Software-Testsystems 120 repräsentieren, auf dem die Softwareanwendung im Test 122 bewertet werden kann. Zum Beispiel kann das Test-Ausführungsplan-Datenmodell 150 Informationsschlüsselpunkte bezüglich der Testfälle, der Testumgebung, der Softwaretester und der Komponentenarchitektur der Softwareanwendung im Test 122 und/oder des Software-Testsystems 120 umfassen.
  • Die Population des Test-Ausführungsplan-Datenmodells 150 kann manuell durch einen Nutzer 105 über die Nutzerschnittstelle 115 durchgeführt werden. Alternativ dazu kann das Test-Ausführungsplan-Erzeugungstool 140 automatisierte Datenabrufskripte (nicht gezeigt) umfassen, die automatisch die spezifizierten Datenelemente des Test-Ausführungsplan-Datenmodells 150 von dem Datenspeicher 125, der die Softwaretest-Domaindaten 130 speichert, sammeln können.
  • In einer anderen genannten Ausführungsform kann der Server 135, der das Test-Ausführungsplan-Datenmodell 140 hostet, eine Komponente des Software-Testsystems 120 sein.
  • Bei Empfang der nutzerkonfigurierten Testparameter 117 kann das Test-Ausführungsplan-Erzeugungstool 140 das Test-Ausführungsplan-Datenmodell 150 nutzen, um Ausführungszuweisungen 160 zu erzeugen. Eine Ausführungszuweisung 160 kann eine Gruppierung von Test-Metadaten von dem Test-Ausführungsplan-Datenmodell 150 repräsentieren, die eine spezifische Testaktivität definieren, die die nutzerkonfigurierten Testparameter 117 erfüllen. Zum Beispiel kann eine Ausführungszuweisung 160 indizieren, dass der Tester A den Testfall J unter Verwendung des Computers C zwischen den Zeiten T1 und T2 ausführen soll.
  • Die Ausführungszuweisungen 160 können angesammelt werden, um den Test-Ausführungsplan 155 herzustellen. Der Test-Ausführungsplan 155 kann mit seinen entsprechenden nutzerkonfigurierten Testparametern 117 in den Datenspeicher 145 gespeichert werden. Da die Test-Ausführungspläne 155 unter Verwendung eines standardisierten Prozesses erzeugt werden, kann das Test-Ausführungsplan-Datenmodell 140 dazu ausgebildet werden, Analysefunktionen bezüglich der Historie der Test-Ausführungspläne 155 durchzuführen.
  • Es sollte beachtet werden, dass konventionelle Verfahren zur Erzeugung von Test-Ausführungsplänen 155 manuell ausgeführt werden. Daher tendieren konventionelle Verfahren zu einer fehlenden Standardisierung und Effizienz eines automatisierten Test-Ausführungsplan-Erzeugungstooles 140.
  • Das Netzwerk 165 kann irgendwelche Hardware/Software und Firmware umfassen, die notwendig sind, um die Daten, die in Trägerwellen codiert sind, zu übermitteln. Die Daten können sich innerhalb analoger oder digitaler Signale befinden und über Daten oder Sprachkanäle übermittelt werden. Das Netzwerk 165 kann lokale Komponenten und Datenpfade umfassen, die notwendig sind für Kommunikationen, die zwischen Computervorrichtungskomponenten und zwischen integrierten Vorrichtungskomponenten und peripheren Vorrichtungen ausgetauscht werden. Das Netzwerk 165 kann auch Netzwerkausrüstung umfassen, wie zum Beispiel Router, Datenlinien, Hubs und Zwischenserver, die zusammen ein Datennetzwerk, wie zum Beispiel das Internet, formen. Das Netzwerk 165 kann auch schaltkreisbasierte Kommunikationskomponenten und mobile Kommunikationskomponenten, wie zum Beispiel Telefonswitches, Modems, Handy-Kommunikationstürme und Ähnliches umfassen. Das Netzwerk 165 kann drahtgebundene und/oder drahtlose Kommunikationspfade umfassen.
  • Die Datenspeicher 125 und 145 können physikalische oder virtuelle Speicherräume sein, die zur Speicherung digitaler Informationen ausgebildet sind. Die Datenspeicher 125 und 145 können physisch innerhalb einer beliebigen Hardwareart implementiert werden, was eine magnetische Platte, eine optische Platte, einen Halbleiterspeicher, einen digital codierten plastischen Speicher, einen holografischen Speicher oder irgendein anderes Aufnahmemedium umfasst, aber nicht auf sie begrenzt ist. Die Datenspeicher 125 und 145 können sowohl eine eigenständige Speichereinheit als auch eine aus einer Vielzahl von physischen Vorrichtungen geformte Speichereinheit sein. Zusätzlich können Informationen innerhalb der Datenspeicher 125 und 145 in einer Vielzahl von Arten gespeichert werden. Zum Beispiel können Informationen innerhalb einer Datenbankstruktur oder innerhalb einer oder mehrerer Dateien eines Dateispeichersystems gespeichert werden, wobei jede Datei für Informations-Suchzettel indiziert werden kann oder auch nicht. Ferner können die Datenspeicher 125 und/oder 145 einen oder mehrere Verschlüsselungsmechanismen nutzen, um die gespeicherte Informationen vor unautorisiertem Zugriff zu schützen.
  • Die Clientvorrichtung 110, das Software-Testsystem 120 und der Server 135 können jeder Hardware-, Software- und/oder Firmwarekomponenten umfassen. Die Komponenten können in einem Satz von einer oder mehreren Computervorrichtungen implementiert sein. Zum Beispiel kann das System 120 einen Satz von mehreren Computervorrichtungen umfassen, die für spezifische Testumgebungen ausgebildet sind. In einem anderen Beispiel kann der Server 135 in einem verteilten Computerraum oder innerhalb einer einzelnen Vorrichtung implementiert sein. Die Hardware, die von der Vorrichtung 110, dem System 120 und/oder dem Server 135 umfasst wird, kann zumindest einen Prozessor, einen flüchtigen Speicher, einen nichtflüchtigen Speicher und einen Netzwerkadapter umfassen, die miteinander über einen Kommunikationsbus verbunden sind.
  • 2 ist eine detaillierte Illustration des Test-Ausführungsplan-Erzeugungstools 200 nach Ausführungsformen der hier offenbarten erfinderischen Anordnungen. Das Test-Ausführungsplan-Erzeugungstool 200 kann innerhalb des Kontext des Systems 100 genutzt werden.
  • Das Test-Ausführungsplan-Erzeugungstool 200 kann eine administrative Komponente 205, eine Datenverarbeitungskomponente 210, eine Berichtkomponente 220 und einen Datenspeicher 235, der das Test-Ausführungsplan-Datenmodell 240, Erzeugungsregel-Template 245 und Test-Ausführungspläne 250 beinhaltet, umfassen. Die administrative Komponente 205 kann dazu ausgebildet sein, administrative Funktionen für das Test-Ausführungsplan-Erzeugungstool 200 bereitzustellen. Zum Beispiel können Funktionen der administrativen Komponente 205 genutzt werden, wenn das Test-Ausführungsplan-Datenmodell 240 und/oder die Erzeugungsregel-Templates 245 bevölkert werden sollen.
  • Die Datenverarbeitungskomponente 210 kann dazu ausgebildet sein, einer Vielzahl von Datenanalysen und Datensyntheseoperationen auf das Test-Ausführungsplan-Datenmodell 240 und/oder die gespeicherte Test-Ausführungspläne 250 anzuwenden. Die Datenverarbeitungskomponente 210 kann einen Erzeugungsregel-Übersetzer 215 umfassen. Der Überzeugungsregel-Übersetzer 215 kann eine Softwarekomponente und/oder einen Algorithmus repräsentieren, der dazu ausgebildet ist, die empfangenen nutzerkonfigurierten Testparameter in Erzeugungsregeln zu übersetzen, die durch das Test-Ausführungsplan-Erzeugungstool 200 ausgeführt werden können.
  • Zum Beispiel können nutzerkonfigurierte Testparameter, die indizieren, dass der Test-Ausführungsplan 250 für die Anwendung Z, Version 2.4, erzeugt werden soll, in eine Erzeugungsregel übersetzt werden, die aussagt, dass das Test-Ausführungsplan-Datenmodell 240 für Einträge angefordert werden soll, bei denen das Produkt = Anwendung Z UND Version = 2,4 ist. „Produkt” und „Version” können mit Datenelementen korrespondieren, die sich innerhalb des Test-Ausführungsplan-Datenmodells 240 befinden.
  • Der Erzeugungsregel-Übersetzer 215 kann Unterschiede in der Nomenklatur überbrücken, die in der Nutzerschnittstelle des Test-Ausführungsplan-Erzeugungstools 200 und des Test-Ausführungsplan-Datenmodells 240 vorhanden sind. Wie in dem obigen Beispiel gezeigt, können Erzeugungsregeln, die durch den Erzeugungsregel-Übersetzer 215 erzeugt wurden, eine boolsche Logik zur Anfrage des Test-Ausführungsplan-Datenmodells 240 umfassen.
  • Zusätzlich kann die Datenverarbeitungskomponente 210 die Erzeugungsregeln nach nutzerdefinierten Prioritätswerten priorisieren. Diese Priorisierung kann die Reihenfolge betreffen, in der die Erzeugungsregeln ausgeführt werden und/oder während der Erzeugung des Test-Ausführungsplans 250 betont werden.
  • Ferner können die Datenverarbeitungskomponente 210 und/oder der Erzeugungsregel-Übersetzer 215 dazu ausgebildet sein, die Erzeugungsregel-Templates 245 zu nutzen. Die Erzeugungsregel-Templates 245 können nutzereinstellbare Gruppen von Erzeugungsregeln repräsentieren, die mit einem spezifischen Wert eines Testparameters in Verbindung stehen. Zum Beispiel können die Erzeugungsregel-Templates 245 erzeugt werden, um Testparameter-Datenwerte und/oder benötigte Erzeugungsregeln für verschiedene Arten von Softwaretests zu definieren, wie zum Beispiel Akzeptanztests und Regressionstests.
  • Die Erzeugungsregel-Templates 245 können von der Nutzerschnittstelle des Test-Ausführungsplan-Erzeugungstools 200 auswählbar sein. Die Auswahl eines Erzeugungsregel-Templates 245 kann automatisch die definierten Testparameter und/oder Erzeugungsregeln mit den voreingestellten Datenwerten bevölkern.
  • Die Berichtkomponente 220 kann dazu ausgebildet sein, die gespeicherten Daten in nutzerspezifizierten Berichtformaten anzusammeln. Die Berichtkomponente 220 kann einen Berichterzeuger 225 und ein Benachrichtigungs-Steuerungsprogramm 230 umfassen. Der Berichterzeuger 225 kann dazu ausgebildet sein, die Definition und Erzeugung der Berichte für das Test-Ausführungsplan-Datenmodell, die Erzeugungsregel-Templates 245 und/oder die Historie der Test-Ausführungspläne 250 zu erlauben. Der Berichterzeuger 245 kann die Funktionen der Datenverarbeitungskomponente 210 nutzen, um Berichtdaten zu sammeln.
  • Das Benachrichtigungs-Steuerungsprogramm 230 kann eine Komponente sein, die dazu ausgebildet ist, Informationen an die Nutzer zu verteilen. Zum Beispiel kann das Benachrichtigungs-Steuerungsprogramm 230 elektronische Benachrichtigungs-Nachrichten an Softwaretester schicken, die Ausführungs-Zuweisungsinformationen umfassen. Das Benachrichtigungs-Steuerungsprogramm 230 kann ferner dazu ausgebildet sein, mit verschiedenen elektronischen Nachrichtensystemen verbunden zu sein, um zusätzliche Benachrichtigungsoptionen bereitzustellen.
  • 3 ist ein Beispiels-Datenbankschema 300 für ein Test-Ausführungsplan-Datenmodell nach Ausführungsformen der hier offenbarten erfinderischen Anordnung. Das Beispiel-Datenbankschema 300 kann innerhalb des Kontexts von System 100 und/oder durch das Test-Ausführungsplan-Erzeugungstool 200 von 2 genutzt werden.
  • Es sollte beachtet werden, dass die Inhalte des Beispiel-Datenbankschemas 300 nur für illustrative Zwecke gedacht sind und nicht eine definitive Implementierung darstellen sollen. Wie gezeigt wurde das Schema 300 auf die dritte normale Form reduziert, wie es Standard ist, wenn Datenbankstrukturen modelliert werden, was nicht als eine Implementierungsbegrenzung gedacht ist. Ferner kann ein Fachmann ein anderes Schema aus dem in dem illustrativen Schema 300 dargestellten Beziehungen herleiten, was immer noch als innerhalb der vorliegenden Offenbarung liegend angesehen wird.
  • Wie in dem Beispiel-Datenbankschema 300 gezeigt, kann das Test-Ausführungsplan-Datenmodell mehrere Datenbanktabellen 305350 umfassen, die ein oder mehrere Attribute 355 haben, die Test-Metadaten definieren. Ein Attribut von besonderer Wichtigkeit ist das Attribut „Prioritätswert” 365 der Testfalltabelle 310. Dieses Attribut 365 kann eine nutzerdefinierte Priorisierungseingabe bereitstellen, um die Test-Ausführungsplanerzeugung zu beeinflussen.
  • Die Datenbanktabellen 305 und 350 können miteinander über Beziehungen 360 assoziiert werden. Die Beziehungen 360 können akzeptierten Datenbank-Modellkonventionen folgen, wie zum Beispiel die Einbeziehung der Kardinalität unter Verwendung der Fußnotation nach Crow wie in diesem Beispiel gezeigt.
  • Das Beispiel-Datenbankschema 300 kann wie folgt gelesen werden. Ein Produkt 350 kann mehrere Komponenten 315 und mehrere Zuweisungen 330 haben. Ein oder mehrere Testfälle 310 können existieren, um eine Testabdeckung für eine gegebene Komponente 315 (oder funktionales Gebiet) eines Produktes 350 bereitzustellen. Eine oder mehrere Zuweisungen 330 können erzeugt werden, um die Testziele der Bereitstellung der Testabdeckung (für spezifische Testfälle 310) für ein gegebenes Produkt 350/Komponente 315 im Test (zum Beispiel über die unterstützten Ausführungsdomänen für den Satz der Betriebssysteme (305), Datenbanken (335), Runtimes (345) usw.) zu erreichen. Ein Tester 320 kann für jede Zuweisung 330, die einen assoziierten Zuweisungsstatus 340 hat, verantwortlich sein.
  • Wie in Schema 300 gezeigt, kann eine Komponente 315 viele Testfälle 315 und viele Komponenten 315 haben, die mit einem Tester 320 assoziiert sein können. Viele Tester 320 können mit einer Plattform 305 und einer Datenbank (DB) 335 assoziiert sein. Ein Testfall 315 kann mehrere Zuweisungen 330 haben. Mehrere Zuweisungen 330 können zu einem Ausführungs_Plan 325 und eine einzelne Zuweisung 330 kann zu vielen Ausführungs_Plänen 325 gehören. Viele Zuweisungen 330 können einen assoziierten Zuweisungs_Status, Runtime 345, Produkt 350, DB 335, Tester 320 und Plattform 305 haben.
  • 4 ist ein Flussdiagramm eines Verfahrens 400, das die automatische Erzeugung eines Test-Ausführungsplans beschreibt, der durch ein Test-Ausführungsplan-Erzeugungstool nach einer Ausführungsform der hier offenbarten erfinderischen Anordnung ausgeführt wird. Das Verfahren 400 kann durch das System 100, das Test-Ausführungsplan-Erzeugungstool 200 ausgeführt werden und/oder das Beispiel-Datenbankschema 300 nutzen.
  • Das Verfahren 400 kann mit Schritt 405 beginnen, in dem das Test-Ausführungsplan-Erzeugungstool nutzerkonfigurierte Testparameter empfangenen kann. Die empfangenen nutzerkonfigurierten Testparameter können in Erzeugungsregeln in Schritt 410 übersetzt werden. Die Erzeugungsregeln können Datenanfrage- und/oder Datensyntheseregeln beinhalten.
  • In Schritt 415 werden nutzerdefinierte Prioritätswerte auf die Erzeugungsregel angewandt. Die Ausführungsreihenfolge der Erzeugungsregeln kann in Schritt 420 eingestellt werden. Die Datenanfrage-Erzeugungsregeln können auf dem vordefinierten Test-Ausführungsplan-Datenmodell in Schritt 425 ausgeführt werden, um die anwendbaren Test-Metadaten zu bestimmen.
  • In Schritt 430 können die anwendbaren Test-Metadaten in Ausführungszuweisungen synthetisiert werden unter Verwendung der Datensynthese-Erzeugungsregel. Die Ausführungszuweisungen können dann in den Test-Ausführungsplan in Schritt 435 kompiliert werden. In Schritt 440 kann der Test-Ausführungsplan mit seinen nutzerkonfigurierten Testparametern gespeichert werden. Im optionalen Schritt 442 können die Ausführungszuweisungen an zugewiesene Softwaretester verteilt werden.
  • Der Test-Ausführungsplan kann innerhalb der Nutzerschnittstelle für ein Nutzer-Feedback in Schritt 445 dargestellt werden. Zum Beispiel können die Tester eine Feedback-Schnittstelle in Schritt 445 öffnen, nachdem die Ausführungszuweisungen in Schritt 442 empfangen wurden. Das Nutzer-Feedback kann optional in Schritt 450 empfangen werden, indem das optionale Feedback einen Wechsel auf einen oder mehrere nutzerkonfigurierte Testparameter umfasst.
  • Wenn Wechsel im Feedback bereitgestellt werden, kann der Schritt 455 ausgeführt werden, indem modifizierte nutzerkonfigurierte Parameter bestimmt werden können und an das Test-Ausführungsplan-Erzeugungstool übermittelt werden können. Ein neuer Plan kann basierend auf den modifizierten Parametern, wie durch den Vorgang von den Schritten 455410 erzeugt werden.
  • In Schritt 460 gibt es eine Bestimmung, ob vorherige Versionen eines neu erzeugten Test-Ausführungsplanes existieren. Wenn dies so ist, kann eine optionale Analyse der Unterschiede zwischen den Testplanversionen in Schritt 465 stattfinden. Ferner können Risiken, Vorteile, Bewertungen und andere Daten identifiziert und mit jedem der verschiedenen Testplanversionen assoziiert werden wie in Schritt 470 gezeigt. In Schritt 475 können Analyseergebnisse, Testplanunterschiede und damit in Verbindung stehende Daten einem verantwortlichen Testadministrator dargestellt werden. An jedem Punkt kann zusätzliches Nutzer-Feedback in Schritt 450 empfangenen werden, was in einer Erzeugung eines neuen Test-Ausführungsplanes resultiert, der basierend auf modifizierten Testparametern erzeugt wird. Das Verfahren 400 kann von Anfang an für verschiedene Softwarepakete im Test wiederholt werden.
  • Die Diagramme in den 14 illustrieren die Architektur, Funktionalität und Betriebsart möglicher Implementierungen von Systemen, Verfahren und Computerprogrammprodukten nach verschiedenen Ausführungsformen der vorliegenden Erfindung. In diesem Hinblick kann jeder Block des Flussdiagramms oder Blockdiagramms ein Modul, Segment oder Codeteil darstellen, der eine oder mehrere ausführbare Instruktionen zur Implementierung der spezifizierten logischen Funktion(en) umfasst. Es sollte auch beachtet werden, dass in einigen alternativen Implementierungen die in dem Block erwähnten Funktionen außerhalb der in den Figuren angegebenen Reihenfolge auftreten können. Zum Beispiel können zwei Blöcke, die aufeinander folgend dargestellt sind, in Wirklichkeit im Wesentlichen gleichzeitig ausgeführt werden oder die Blöcke können manchmal in der umgekehrten Reihenfolge ausgeführt werden in Abhängigkeit von der involvierten Funktionalität. Es sollte auch beachtet werden, dass jeder Block der Blockdiagramme und/oder der Flussdiagrammdarstellung und Kombinationen der Blöcke in den Blockdiagrammen und/oder der Flussdiagrammdarstellung durch Spezialzweck-Hardware basierte Systeme, die die spezifizierten Funktionen oder Handlungen durchführen, oder Kombinationen von Spezialzweck-Hardware und Computeranweisungen implementiert werden.
  • Die hier benutzte Terminologie dient lediglich dem Zweck zur Beschreibung bestimmter Ausführungsformen und soll die Erfindung nicht beschränken. Die Singularausdrücke „ein/eine/einer/eines” und „der/die/das” sollen die Pluralausdrücke auch mit einschließen, wenn der Kontext nicht klar etwas anderes indiziert. Es sollte ferner verstanden werden, dass die Ausdrücke „umfassen” und/oder „umfassend” die Anwesenheit der genannten Merkmale, ganzen Zahlen, Schritte, Operationen, Elemente und/oder Komponenten spezifiziert, aber nicht die Anwesenheit oder Hinzufügung einer oder mehrerer anderer Merkmale, ganzen Zahlen, Schritte, Operationen, Elemente, Komponenten und/oder Gruppen davon ausschließt, wenn sie in dieser Beschreibung genutzt werden. Die entsprechenden Strukturen, Materialien, Handlungen und Aquivalente aller Mittel und Schritte plus funktionale Elemente in den unten stehenden Ansprüchen sollen irgendeine Struktur, Material oder Handlung zur Durchführung der Funktion in Kombination mit anderen beanspruchten Elementen wie sie spezifisch beansprucht sind, mit einschließen. Die Beschreibung der vorliegenden Erfindung wurde nur für illustrative und deskriptive Zwecke vorgenommen, sie soll nicht als erschöpfend oder begrenzend auf die Erfindung in der offenbarten Form verstanden werden. Viel Modifizierungen und Variationen können einem Fachmann offensichtlich erscheinen, ohne dass er sich aus dem Bereich und dem Geiste der Erfindung bewegt. Die Ausführungsform wurde ausgewählt und beschrieben, um die Prinzipien der Erfindung und der praktischen Anwendung in bestmöglicher Art zu beschreiben und um andere Fachleute in die Lage zu versetzen, die Erfindung für verschiedene Ausführungsformen mit verschiedenen Modifizierungen, wie sie für den bestimmten betrachteten Gebrauch passend sind, zu ermöglichen.

Claims (18)

  1. Verfahren zur automatischen Erzeugung von Test-Ausführungsplänen umfassend: Empfang einer Vielzahl von nutzerkonfigurierten Testparametern für eine Softwareanwendung im Test durch ein Test-Ausführungsplan-Erzeugungstool, wobei das Test-Ausführungsplan-Tool ein Computerprogrammprodukt umfasst, das auf einem physischen Medium gespeichert ist, wobei die Vielzahl der nutzerkonfigurierten Testparameter mit einem Eintrag in einen vordefinierten Test-Ausführungsplan-Datenmodell korreliert, das mit dem Test-Ausführungsplan-Erzeugungstool assoziiert ist, und wobei zumindest ein Testziel für die Softwareanwendung durch die nutzerkonfigurierbaren Testparameter definiert wird; und automatische Erzeugung eines Test-Ausführungsplans unter Verwendung der Vielzahl der nutzerkonfigurierten Testparameter und eines vordefinierten Test-Ausführungsplan-Datenmodells, wobei das vordefinierte Test-Ausführungsplan-Datenmodell Test-Metadaten umfasst, die die Softwaretest-Domaindaten für ein Software-Testsystem darstellen, das benutzt wird, um die Softwareanwendung im Test zu bewerten, wobei die Test-Metadaten Details begrenzter geteilter Ressourcen eines Testcenters spezifizieren, das durch alle Projekte im Test geteilt wird, wobei der erzeugte Test-Ausführungsplan die spezifische Zuordnung der begrenzten geteilten Ressourcen, die zumindest einer Phase des Testes der Softwareanwendung dediziert sind, genau beschreibt, um das zumindest eine Testziel für die Softwareanwendung zu erfüllen.
  2. Verfahren nach Anspruch 1, wobei die Erzeugung des Test-Ausführungsplanes ferner umfasst: Übersetzung der empfangenen Vielzahl der nutzerkonfigurierten Testparameter in zumindest eine Erzeugungsregel, wobei die zumindest eine Erzeugungsregel als zumindest eine Datenanfragebeschränkung eine Datensynthesebeschränkung kategorisiert wird; Anfrage des vordefinierten Test-Ausführungsplan-Datenmodells für zumindest einen Test-Metadaten-Eintrag, der auf die Vielzahl der nutzerkonfigurierten Testparameter anwendbar ist; Synthetisierung des zumindest einen Test-Metadaten-Eintrages in zumindest eine Ausführungszuweisung, wobei die zumindest eine Ausführungszuweisung informationen für zumindest eine Testaktivität definiert, die durch einen zugewiesenen Softwaretester durchgeführt werden soll; und Kompilierung der zumindest einen synthetisierten Ausführungszuweisung in den Test-Ausführungsplan.
  3. Verfahren nach Anspruch 2, wobei die Übersetzung der empfangenen Vielzahl der nutzerkonfigurierten Testparameter ferner umfasst: Anwendung eines nutzerdefinierten Prioritätswertes auf die zumindest eine Erzeugungsregel, wobei der nutzerdefinierte Prioritätswert einen Grad eines Ausführungsvorranges für eine Erzeugungsregel quantifiziert; und Einstellen einer Ausführungsreihenfolge der zumindest einen Erzeugungsregel entsprechend den nutzerdefinierten Prioritätswerten.
  4. Verfahren nach Anspruch 2, wobei die Anfrage des vordefinierten Test-Ausführungsplan-Datenmodelles die Erzeugungsregeln nutzt, die als Datenanfragebeschränkungen kategorisiert sind, und wobei die Synthetisierung des zumindest einen Test-Metadateneintrages die Erzeugungsregeln nutzt, die als Datensynthesebeschränkungen kategorisiert sind.
  5. Verfahren nach Anspruch 1, ferner umfassend: Darstellung des erzeugten Test-Ausführungsplanes innerhalb einer Nutzerschnittstelle des Test-Ausführungsplan-Erzeugungstools für ein Nutzer-Feedback, wobei das Nutzer-Feedback zumindest eine Validierung, eine Modifizierung und/oder eine Zurückweisung umfasst; und bei Empfang des Nutzer-Feedbacks optional eine automatische Verteilung der zumindest einen Ausführungszuweisung an zumindest einen zugewiesenen Softwaretester, wobei jeder zugewiesene Tester eine der begrenzten geteilten Ressourcen ist.
  6. Verfahren nach Anspruch 1, ferner umfassend: Speichern des erzeugten Test-Ausführungsplanes, der mit der Vielzahl der nutzerkonfigurierten Testparameter verbunden ist, um einen Eintrag in einer standardisierten Test-Ausführungsplanhistorie hinzuzufügen.
  7. Verfahren nach Anspruch 6, ferner umfassend: Analyse des gespeicherten Test-Ausführungsplanes, was umfasst, dass die standardisierte Test-Ausführungsplanhistorie zumindest einen Testbericht erzeugt, wobei der Bericht eine Indizierung von Testabdeckungslücken bereitstellt, die aus der Analyse der standardisierten Test-Ausführungsplanhistorie bestimmt wurde.
  8. Verfahren nach Anspruch 1, wobei die Vielzahl der nutzerkonfigurierten Testparameter zumindest drei Parameter aus einer Gruppe von Parametern umfast, wobei die Gruppe aus folgenden besteht: ein Name der Softwareanwendung im Test, eine Version der Softwareanwendung im Test, eine Testart, eine Testumgebung, ein Name eines Softwaretesters, ein Fähigkeitensatz eines unbenannten Softwaretesters, ein Name einer Komponente der Softwareanwendung im Test, ein Testabdeckungswert, ein Teststartdatum und eine Testdauer.
  9. Verfahren nach Anspruch 1, ferner umfassend: nach Erzeugung eines Test-Ausführungsplans Empfang des Nutzer-Feedbacks, das zumindest einen der Vielzahl der nutzerkonfigurierten Testparameter modifiziert; und Erzeugung eines neuen Test-Ausführungsplanes basierend auf den modifizierten nutzerkonfigurierten Testparametern.
  10. Verfahren nach Anspruch 1, ferner umfassend: Bestimmung, dass eine Vielzahl verschiedener Versionen automatisch erzeugter Test-Ausführungspläne existiert, die den automatisch erzeugten Test-Ausführungsplan umfassen; Analyse der verschiedenen Versionen der automatisch erzeugten Test-Ausführungspläne und Darstellung der Analyseergebnisse auf zumindest einen der Nutzerschnittstelle und/oder des nutzerlesbaren Berichtes, wobei die Analyseergebnisse Vergleiche der verschiedenen Versionen der automatisch erzeugten Test-Ausführungspläne umfassen.
  11. System zur automatischen Erzeugung von Test-Ausführungsplänen umfassend: eine Vielzahl nutzerkonfigurierter Testparameter, die Testanforderungen für eine Softwareanwendung im Test, die innerhalb eines Software-Testsystems bewertet werden soll, umfassen, wobei zumindest ein Testziel für eine Softwareanwendung durch die nutzerkonfigurierbaren Testparameter definiert wird; und ein vordefiniertes Test-Ausführungsplan-Datenmodell, das eine Vielzahl von Test-Metadaten zur Erzeugung eines Test-Ausführungsplanes für die Softwareanwendung im Test definiert, wobei die Vielzahl der Test-Metadaten repräsentativ für eine Vielzahl der Softwaretest-Domaindaten für das Software-Testsystem ist, wobei die Test-Metadaten Details von begrenzten geteilten Ressourcen eines Testcenters spezifizieren, das durch alle Projekte im Test geteilt wird, wobei der erzeugte Test-Ausführungsplan eine spezifische Zuordnung der begrenzten geteilten Ressourcen, die für zumindest eine Phase des Testes der Softwareanwendung dediziert sind, genauer beschreibt, um das zumindest eine Testziel für die Softwareanwendung zu erfüllen; und ein Test-Ausführungsplan-Erzeugungstool, das zur automatischen Erzeugung des Test-Ausführungsplanes für die Softwareanwendung im Test unter Verwendung der Vielzahl der nutzerkonfigurierten Testparameter und des vordefinierten Test-Ausführungsplan-Datenmodells ausgebildet ist, wobei jeder erzeugte Test-Ausführungsplan spezifische Zuordnungen der begrenzten geteilten Ressourcen, die zumindest für eine Phase des Testes der Softwareanwendung dediziert sind, genau beschreibt, um das zumindest eine Testziel für die Softwareanwendung zu erreichen.
  12. System nach Anspruch 11, wobei das Test-Ausführungsplan-Erzeugungstool ferner umfasst: eine Nutzerschnittstelle, die zur Bereitstellung eines Nutzerinteraktionsmechanismus zur Akzeptanz und Darstellung von Daten ausgebildet ist; eine Datenverarbeitungskomponente, die zur Synthetisierung zumindest einer Ausführungszuweisung für den Test-Ausführungsplan ausgebildet ist; und eine administrative Komponente, die zur Bereitstellung eines Zugriffs auf nutzerkonfigurierbare Systemdaten des Test-Ausführungsplan-Erzeugungstools ausgebildet ist; und eine Berichtkomponente, die zur Erzeugung von zumindest einem Nutzer ausgewählten Bericht für zumindest den Test-Ausführungsplan, die Vielzahl der nutzerkonfigurierten Testparameter und/oder das Test-Ausführungsplan-Datenmodell ausgebildet ist; und ein Datenspeicher, der ein physisches Speichermedium ist, das zur Speicherung des vordefinierten Test-Ausführungsplan-Datenmodelles und jedes erzeugten Test-Ausführungsplans mit assoziierten nutzerkonfigurierten Testparametern ausgebildet ist.
  13. System nach Anspruch 12, wobei die Datenverarbeitungskomponente ferner dazu ausgebildet ist, Datenanalyseoperationen auf gespeicherte Test-Ausführungspläne anzuwenden.
  14. System nach Anspruch 12, wobei die Datenverarbeitungskomponente ferner umfasst: einen Regelübersetzer, der zur Übersetzung der Vielzahl der nutzerkonfigurierten Testparameter in zumindest eine Erzeugungsregel ausgebildet ist, wobei die zumindest eine Erzeugungsregel eine Darstellung eines nutzerkonfigurierten Testparameters ist, der zur Ausführung durch das Test-Ausführungsplan-Erzeugungstool auf dem vordefinierten Test-Ausführungsplan-Datenmodell geeignet ist.
  15. System nach Anspruch 14, ferner umfassend: eine Vielzahl einstellbarer Erzeugungsregel-Templates, die von der Nutzerschnittstelle aus zugänglich sind, mit zumindest einem nutzerdefinierten Wert, der mit zumindest einem nutzerkonfigurierten Testparameter assoziiert ist, wobei die Nutzerwahl eines einstellbaren Erzeugungsregel-Templates automatisch den zumindest einen Nutzer eingestellten Testparameter mit dem zumindest einen Nutzer definierten Wert bevölkert.
  16. System nach Anspruch 12, wobei die Berichtkomponente ferner umfasst: ein Benachrichtigungs-Steuerungsprogramm, das zur Übermittlung einer elektronischen Benachrichtigungs-Nachricht an jeden Softwaretester ausgebildet ist, der innerhalb des Test-Ausführungsplanes identifiziert ist, wobei die elektronische Benachrichtigungs-Nachricht die zumindest eine Ausführungszuweisung umfasst, die mit einem Softwaretester assoziiert ist.
  17. System nach Anspruch 11, wobei die Vielzahl der Nutzer eingestellten Testparameter zumindest viel der Folgenden umfasst: ein Name der Softwareanwendung im Test, eine Version der Softwareanwendung im Test, eine Testart, eine Testumgebung, ein Name eines Softwaretesters, ein Fähigkeitensatz eines unbenannten Softwaretesters, ein Name einer Komponente der Softwareanwendung im Test, einen Testabdeckungswert, ein Teststartdatum und eine Testdauer.
  18. Computerprogrammprodukt umfassend ein computerlesbares Speichermedium mit computernutzbaren Programmcode, der darauf ausgeführt ist, wobei der computernutzbare Programmcode den Computer dazu veranlasst, die Schritte eines der Ansprüche 1–10 durchzuführen, wenn er durch den Computer ausgeführt wird.
DE112010003993T 2009-10-08 2010-09-10 Erzeugung eines automatisierten Test-Ausführungsplans Ceased DE112010003993T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/575,602 2009-10-08
US12/575,602 US8423962B2 (en) 2009-10-08 2009-10-08 Automated test execution plan generation
PCT/EP2010/063308 WO2011042282A1 (en) 2009-10-08 2010-09-10 Automated test execution plan generation

Publications (1)

Publication Number Publication Date
DE112010003993T5 true DE112010003993T5 (de) 2012-10-25

Family

ID=43037805

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112010003993T Ceased DE112010003993T5 (de) 2009-10-08 2010-09-10 Erzeugung eines automatisierten Test-Ausführungsplans

Country Status (6)

Country Link
US (2) US8423962B2 (de)
JP (1) JP5607743B2 (de)
CN (1) CN102576432B (de)
DE (1) DE112010003993T5 (de)
GB (1) GB2486363A (de)
WO (1) WO2011042282A1 (de)

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7350194B1 (en) * 2001-09-24 2008-03-25 Oracle Corporation Techniques for debugging computer programs involving multiple computing machines
US9418040B2 (en) * 2005-07-07 2016-08-16 Sciencelogic, Inc. Dynamically deployable self configuring distributed network management system
US8732663B2 (en) * 2010-02-24 2014-05-20 Salesforce.Com, Inc. System, method and computer program product for providing automated testing by utilizing a preconfigured point of entry in a test or by converting a test to a predefined format
US8631384B2 (en) * 2010-05-26 2014-01-14 International Business Machines Corporation Creating a test progression plan
US9093840B2 (en) * 2010-07-02 2015-07-28 Alstom Technology Ltd. System tools for integrating individual load forecasts into a composite load forecast to present a comprehensive synchronized and harmonized load forecast
US9384198B2 (en) 2010-12-10 2016-07-05 Vertafore, Inc. Agency management system and content management system integration
FI20115104A0 (fi) * 2011-02-02 2011-02-02 Teknologian Tutkimuskeskus Vtt Oy Järjestelmä ja menetelmä malli-pohjaista testaamista varten
US20120246609A1 (en) 2011-03-24 2012-09-27 International Business Machines Corporation Automatic generation of user stories for software products via a product content space
US9448915B2 (en) * 2011-04-13 2016-09-20 Accenture Global Services Limited Modular script designer for next generation testing system
US9507699B2 (en) * 2011-06-16 2016-11-29 Microsoft Technology Licensing, Llc Streamlined testing experience
US10678666B1 (en) * 2011-09-07 2020-06-09 Innovative Defense Technologies, LLC Method and system for implementing automated test and retest procedures in a virtual test environment
US8826084B1 (en) * 2011-09-07 2014-09-02 Innovative Defense Technologies, LLC Method and system for implementing automated test and retest procedures
US9378120B2 (en) * 2011-11-09 2016-06-28 Tata Consultancy Services Limited Automated test execution plan derivation system and method
US9002813B2 (en) * 2011-12-22 2015-04-07 Sap Se Execution plan preparation in application server
US8887135B2 (en) * 2012-03-30 2014-11-11 NIIT Technologies Ltd Generating test cases for functional testing of a software application
US20130290075A1 (en) * 2012-04-30 2013-10-31 Infosys Limited Localization quality assurance of localized software
US9053442B2 (en) 2012-05-08 2015-06-09 International Business Machines Corporation Multiple project areas in a development environment
WO2013185092A1 (en) * 2012-06-07 2013-12-12 Massively Parallel Technologies, Inc. System and method for automatic test level generation
US20140007102A1 (en) * 2012-06-27 2014-01-02 Sap Ag Automated update of time based selection
US9734214B2 (en) * 2012-06-28 2017-08-15 Entit Software Llc Metadata-based test data generation
CN103514092A (zh) * 2012-06-29 2014-01-15 日立(中国)研究开发有限公司 Atm机软件系统自动测试方法
CN102819488B (zh) * 2012-06-29 2016-01-20 用友网络科技股份有限公司 测试处理装置和测试处理方法
CN104246715A (zh) * 2012-07-31 2014-12-24 惠普发展公司,有限责任合伙企业 构造应用的测试中心模型
CN103699478A (zh) * 2012-09-27 2014-04-02 中国银联股份有限公司 一种测试案例生成系统和方法
US8918762B2 (en) * 2012-11-02 2014-12-23 International Business Machines Corporation Generating test plans and test cases from service-oriented architecture and process models
US10521288B2 (en) * 2012-11-07 2019-12-31 International Business Machines Corporation Collaborative application testing
US9304894B2 (en) 2012-12-03 2016-04-05 Ca, Inc. Code-free testing framework
US9063809B2 (en) * 2013-01-15 2015-06-23 International Business Machines Corporation Content space environment representation
US9659053B2 (en) 2013-01-15 2017-05-23 International Business Machines Corporation Graphical user interface streamlining implementing a content space
US9069647B2 (en) 2013-01-15 2015-06-30 International Business Machines Corporation Logging and profiling content space data and coverage metric self-reporting
US9075544B2 (en) 2013-01-15 2015-07-07 International Business Machines Corporation Integration and user story generation and requirements management
US9218161B2 (en) 2013-01-15 2015-12-22 International Business Machines Corporation Embedding a software content space for run-time implementation
US9396342B2 (en) 2013-01-15 2016-07-19 International Business Machines Corporation Role based authorization based on product content space
US9141379B2 (en) 2013-01-15 2015-09-22 International Business Machines Corporation Automated code coverage measurement and tracking per user story and requirement
US9087155B2 (en) 2013-01-15 2015-07-21 International Business Machines Corporation Automated data collection, computation and reporting of content space coverage metrics for software products
US9081645B2 (en) 2013-01-15 2015-07-14 International Business Machines Corporation Software product licensing based on a content space
US9111040B2 (en) 2013-01-15 2015-08-18 International Business Machines Corporation Integration of a software content space with test planning and test case generation
EP2951687A4 (de) * 2013-02-01 2016-08-03 Hewlett Packard Entpr Dev Lp Testskripterzeugung basierend auf abstrakten benutzersteuerungstests
US9336127B2 (en) * 2013-02-20 2016-05-10 Kony, Inc. Exposing method related data calls during testing in an event driven, multichannel architecture
US8997052B2 (en) * 2013-06-19 2015-03-31 Successfactors, Inc. Risk-based test plan construction
CN103412818B (zh) * 2013-08-14 2016-06-29 迈普通信技术股份有限公司 自动化测试方法及系统
JP5893595B2 (ja) * 2013-09-10 2016-03-23 中国電力株式会社 スケジュール支援システム
US20150106653A1 (en) * 2013-10-10 2015-04-16 International Business Machines Corporation Test selection based on domination criterion
US9785543B2 (en) * 2013-10-10 2017-10-10 Oracle International Corporation Dual tagging between test and pods
US9507814B2 (en) 2013-12-10 2016-11-29 Vertafore, Inc. Bit level comparator systems and methods
US9367435B2 (en) * 2013-12-12 2016-06-14 Vertafore, Inc. Integration testing method and system for web services
US9292420B2 (en) * 2014-02-25 2016-03-22 International Business Machines Corporation Collaborative computer aided test plan generation
US9940310B1 (en) * 2014-03-04 2018-04-10 Snapwiz Inc. Automatically converting an electronic publication into an online course
CN103902455B (zh) * 2014-04-08 2016-08-03 中国矿业大学 含随机数软件测试数据生成问题的建模及进化求解方法
WO2016015220A1 (en) 2014-07-29 2016-02-04 Hewlett-Packard Development Company, L.P. Executable code abnormality detection
US9606901B1 (en) * 2014-08-05 2017-03-28 Amdocs Software Systems Limited System, method, and computer program for generating a detailed design of at least one telecommunications based integration testing project
US9747556B2 (en) 2014-08-20 2017-08-29 Vertafore, Inc. Automated customized web portal template generation systems and methods
CN104484267B (zh) * 2014-11-20 2018-05-01 大唐移动通信设备有限公司 一种测试系统及方法
US10534700B2 (en) * 2014-12-09 2020-01-14 Micro Focus Llc Separating test verifications from test executions
WO2016105354A1 (en) 2014-12-23 2016-06-30 Hewlett Packard Enterprise Development Lp Simulation of a synchronization of records
WO2016105352A1 (en) * 2014-12-23 2016-06-30 Hewlett Packard Enterprise Development Lp Automatically rerunning test executions
US10063452B1 (en) 2015-01-05 2018-08-28 Amazon Technologies, Inc. Routing loop for testing a communication link
US9449292B1 (en) * 2015-01-16 2016-09-20 Amdocs Software Systems Limited System, method, and computer program for automatic high level testing project planning
US10263869B1 (en) * 2015-03-16 2019-04-16 Amazon Technologies, Inc. Analysis and testing of network devices
CN105159827B (zh) * 2015-08-21 2017-09-19 北京航空航天大学 一种面向gui软件的可靠性加速测试方法
US9600400B1 (en) 2015-10-29 2017-03-21 Vertafore, Inc. Performance testing of web application components using image differentiation
US9823953B2 (en) 2016-04-04 2017-11-21 Bank Of America Corporation Interprogram communication messaging for program synchronization
US9684588B1 (en) 2016-04-04 2017-06-20 Bank Of America Corporation Interprogram communication messaging for application development event handling
US10360137B2 (en) 2016-06-28 2019-07-23 International Business Machines Corporation Adaptive testing using dynamically determined system resources of a computer system
US10223247B2 (en) 2016-07-05 2019-03-05 Red Hat, Inc. Generating pseudorandom test items for software testing of an application under test (AUT)
CN106991040B (zh) * 2016-07-20 2020-05-05 平安科技(深圳)有限公司 数据接口测试方法和装置
CN106095692B (zh) * 2016-08-12 2018-07-03 哈尔滨工业大学 嵌入式软件的单参数事件序列测试数据生成方法
CN106445814A (zh) * 2016-09-05 2017-02-22 北京新能源汽车股份有限公司 一种测试用例的检测方法及装置
US10715687B2 (en) 2017-05-29 2020-07-14 Ricoh Company, Ltd. Information processing system, information processing apparatus, and information processing method for testing a series of processes of one or more applications
US10613856B2 (en) * 2017-08-24 2020-04-07 International Business Machines Corporation Automatic machine-learning high value generator
CN108170557B (zh) * 2018-01-24 2022-11-25 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
US10545859B2 (en) 2018-02-05 2020-01-28 Webomates LLC Method and system for multi-channel testing
CN108363666A (zh) * 2018-02-13 2018-08-03 中链科技有限公司 一种软件功能测试时间确定方法、装置及终端
US10769056B2 (en) 2018-02-26 2020-09-08 The Ultimate Software Group, Inc. System for autonomously testing a computer system
US11954461B2 (en) 2018-02-26 2024-04-09 Ukg Inc. Autonomously delivering software features
EP3794311B1 (de) * 2018-05-17 2022-07-27 Carl Zeiss Industrielle Messtechnik GmbH Verfahren, vorrichtung sowie computerprogrammprodukt zum erzeugen eines prüfplans für die prüfung eines messobjekts, verfahren und vorrichtung zum prüfen eines messobjekts
US10747651B1 (en) 2018-05-31 2020-08-18 The Ultimate Software Group, Inc. System for optimizing system resources and runtime during a testing procedure
US11113175B1 (en) 2018-05-31 2021-09-07 The Ultimate Software Group, Inc. System for discovering semantic relationships in computer programs
US11010284B1 (en) 2018-05-31 2021-05-18 The Ultimate Software Group, Inc. System for understanding navigational semantics via hypothesis generation and contextual analysis
US10977155B1 (en) 2018-05-31 2021-04-13 The Ultimate Software Group, Inc. System for providing autonomous discovery of field or navigation constraints
US10599767B1 (en) 2018-05-31 2020-03-24 The Ultimate Software Group, Inc. System for providing intelligent part of speech processing of complex natural language
CN108763095A (zh) * 2018-06-05 2018-11-06 郑州云海信息技术有限公司 一种代码测试方法和装置
US10498630B1 (en) * 2018-07-14 2019-12-03 Microsoft Technology Licensing, Llc Intelligent device selection for pilot testing
CN110737570A (zh) * 2018-07-20 2020-01-31 北京奇虎科技有限公司 自动化测试行为的训练方法和装置
US10691433B2 (en) * 2018-08-31 2020-06-23 Databricks Inc. Split front end for flexible back end cluster processing
US11157491B2 (en) * 2018-10-18 2021-10-26 Sap Se Compilation framework for dynamic inlining
US11204755B2 (en) * 2018-11-13 2021-12-21 Split Software, Inc. Systems and methods for providing event attribution in software application
US10831640B2 (en) 2018-11-14 2020-11-10 Webomates LLC Method and system for testing an application using multiple test case execution channels
CN110134585A (zh) * 2019-04-12 2019-08-16 平安普惠企业管理有限公司 系统测试计划生成方法及终端设备
US11422926B2 (en) * 2019-04-16 2022-08-23 Red Hat, Inc. Managing test coverage for a software application
CN110309052A (zh) * 2019-05-22 2019-10-08 梁俊杰 一种数据校验方法以及相关设备
US11205041B2 (en) 2019-08-15 2021-12-21 Anil Kumar Web element rediscovery system and method
US11604713B2 (en) * 2020-02-12 2023-03-14 International Business Machines Corporation Automated hardware for input/output (I/O) test regression apparatus
CN113657694B (zh) * 2020-05-12 2023-10-13 富联精密电子(天津)有限公司 测试路径统筹方法、电子设备及存储介质
EP3910479A1 (de) * 2020-05-15 2021-11-17 Deutsche Telekom AG Verfahren und system zum testen von maschinenlern- und tiefenlernmodellen für robustheit und beständigkeit gegen feindliche verzerrungs- und privatsphärenangriffe
CN111737136A (zh) * 2020-06-24 2020-10-02 海尔优家智能科技(北京)有限公司 基于物联网平台的对象测试方法装置
CN113065150B (zh) * 2021-05-06 2024-03-01 中国工商银行股份有限公司 一种加密算法模块的测试方法及装置
CN113590472B (zh) * 2021-07-06 2023-03-14 四川大学 一种回归测试中测试用例优先级排序方法
CN113566812A (zh) * 2021-07-19 2021-10-29 中数通信息有限公司 一种移动终端外场测试管理系统平台
KR20240032346A (ko) * 2022-09-02 2024-03-12 쿠팡 주식회사 전자 장치 및 그의 애플리케이션 테스트 관리 방법
CN116168116B (zh) * 2023-04-19 2023-07-21 巴斯夫一体化基地(广东)有限公司 用于对测试执行计划进行可视化显示的方法及装置
CN117313856B (zh) * 2023-11-29 2024-03-05 浙江季丰电子科技有限公司 一种可靠性测试规划系统及方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6243835B1 (en) 1998-01-30 2001-06-05 Fujitsu Limited Test specification generation system and storage medium storing a test specification generation program
US6546506B1 (en) 1999-09-10 2003-04-08 International Business Machines Corporation Technique for automatically generating a software test plan
US7272752B2 (en) 2001-09-05 2007-09-18 International Business Machines Corporation Method and system for integrating test coverage measurements with model based test generation
WO2003054666A2 (en) 2001-12-19 2003-07-03 Steven Sims System and method for automated test-case generation for software
US7124401B2 (en) * 2002-09-03 2006-10-17 Sap Aktiengesellschaft Testing versions of applications
TWI262383B (en) 2003-01-10 2006-09-21 Univ Nat Cheng Kung A generic software testing system and method
JP4154289B2 (ja) * 2003-06-20 2008-09-24 富士通株式会社 不具合検出方法
US7305654B2 (en) 2003-09-19 2007-12-04 Lsi Corporation Test schedule estimator for legacy builds
US7337432B2 (en) * 2004-02-03 2008-02-26 Sharp Laboratories Of America, Inc. System and method for generating automatic test plans for graphical user interface applications
US20050204201A1 (en) 2004-03-15 2005-09-15 Ramco Systems Limited Method and system for testing software development activity
US7386763B2 (en) 2004-07-07 2008-06-10 Agilent Technologies, Inc. Proactive systemic scheduler for resource limited test systems
US8078924B2 (en) 2005-09-16 2011-12-13 Lsi Corporation Method and system for generating a global test plan and identifying test requirements in a storage system environment
US7581138B2 (en) 2005-10-24 2009-08-25 International Business Machines Corporation Method, system and computer program for managing test processes based on customized UML diagrams
CN100547562C (zh) 2006-10-18 2009-10-07 国际商业机器公司 自动生成可再现运行时问题的单元测试用例的方法和系统
US7631227B2 (en) 2006-11-21 2009-12-08 Etaliq Inc. Automated testing and control of networked devices
CN101482815B (zh) 2008-01-10 2013-08-07 国际商业机器公司 生成软件系统的测试用例的方法和设备
US20090199160A1 (en) 2008-01-31 2009-08-06 Yahoo! Inc. Centralized system for analyzing software performance metrics

Also Published As

Publication number Publication date
WO2011042282A1 (en) 2011-04-14
CN102576432B (zh) 2014-12-10
JP5607743B2 (ja) 2014-10-15
GB2486363A (en) 2012-06-13
US8479164B2 (en) 2013-07-02
US8423962B2 (en) 2013-04-16
US20110088014A1 (en) 2011-04-14
GB201203538D0 (en) 2012-04-11
CN102576432A (zh) 2012-07-11
JP2013507675A (ja) 2013-03-04
US20120151448A1 (en) 2012-06-14

Similar Documents

Publication Publication Date Title
DE112010003993T5 (de) Erzeugung eines automatisierten Test-Ausführungsplans
DE112010004420T5 (de) Verfahren und System zur Verbesserung der Ausführungszeit von Software durch Optimierung elnes Leistungsmodells
DE102017217971A1 (de) Ermöglichen von Debugging von serverlosen Anwendungen mittels Graph-Rewriting
DE202016008042U1 (de) Infrastruktur für Hosting und Publishing von Softwarepaketen
DE112018005167T5 (de) Aktualisieren von trainingsdaten
DE102019003851A1 (de) Systeme und Verfahren zum automatischen Realisieren von Modellen zu Co-Simulation
Langer et al. On the usage of UML: Initial results of analyzing open UML models
DE102013216735A1 (de) Ressourcenzuweisung in einer virtualisierten Datenverarbeitungsumgebung
DE102005010900A1 (de) Modellspezifische Registeroperationen
DE102014008551A1 (de) Softwareevaluierungsvorrichtung und -Verfahren
DE112012004776T5 (de) Erzeugen einer Produktionsserver-Lastaktivität für einen Testserver
DE102021124264A1 (de) Erzeugung von synthetischen Systemfehlern
DE102021130957A1 (de) Empfehlungen zur stabilität von software-aktualisierungen
DE112021004061T5 (de) Datenqualitätsanalyse in echtzeit
DE112018001524T5 (de) Gesundheitsdaten-analysesystem-verwaltung
de Oliveira et al. Comparative evaluation of the maintainability of RESTful and SOAP-WSDL web services
DE102014116744A1 (de) Management von Informationstechnologieressourcen
DE112021005927T5 (de) Patchen von arbeitsabläufen
DE112021004092T5 (de) Effiziente datenqualitätsanalyse in echtzeit
Krammer et al. Granularity of Services: An Economic Analysis
WO2015035438A1 (de) Verfahren zur verifizierung generierter software sowie verifizierungseinrichtung zum durchführen eines solchen verfahrens
DE102021125859A1 (de) Konfidenzberechnungen auf datenqualitätsgrundlage für aus zeitreihendaten abgeleitete kpis
DE102010044039A1 (de) Verfahren und Vorrichtung zur Qualitätsanalyse von Systemmodellen
DE112018005851T5 (de) Darstellen und Analysieren von Cloud-Computing-Daten als Pseudosysteme
DE102020133828A1 (de) Computersystem, Verfahren und Computerprogramm zur Auditierung komplexer Informationen

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06Q0010000000

Ipc: G06F0011263000

Effective date: 20120926

R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final