DE102015013943A1 - Testing a navigation system of a motor vehicle - Google Patents

Testing a navigation system of a motor vehicle Download PDF

Info

Publication number
DE102015013943A1
DE102015013943A1 DE102015013943.6A DE102015013943A DE102015013943A1 DE 102015013943 A1 DE102015013943 A1 DE 102015013943A1 DE 102015013943 A DE102015013943 A DE 102015013943A DE 102015013943 A1 DE102015013943 A1 DE 102015013943A1
Authority
DE
Germany
Prior art keywords
test
signal
key
navigation system
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102015013943.6A
Other languages
German (de)
Other versions
DE102015013943B4 (en
Inventor
Dieter Niederkorn
Dominic Springer
Lena Förstel
Franz Simmet
André Kaup
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Friedrich Alexander Univeritaet Erlangen Nuernberg FAU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG, Friedrich Alexander Univeritaet Erlangen Nuernberg FAU filed Critical Audi AG
Priority to DE102015013943.6A priority Critical patent/DE102015013943B4/en
Publication of DE102015013943A1 publication Critical patent/DE102015013943A1/en
Application granted granted Critical
Publication of DE102015013943B4 publication Critical patent/DE102015013943B4/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera

Abstract

Die Erfindung betrifft ein Verfahren zum Testen eines Navigationssystems (1), wobei durch eine Testvorrichtung (2) in einem Testdurchlauf (9) Sensordaten (5) in das Navigationssystem (1) eingespeist und Einzelbilder (6) einer Bildsequenz (4) des Navigationssystems (1) erfasst werden, wobei jedes Einzelbild (6) eine Kombination (29) aus graphischen Schlüsselobjekten (11) darstellt und zumindest eines der graphischen Schlüsselobjekte (11) ausgewählt und in den Einzelbildern (6) jedes ausgewählte Schlüsselobjekt (11) extrahiert wird und von jedem extrahierten Schlüsselobjekt (11) zu zumindest einem vorbestimmten Objektmerkmal (30) ein jeweiliger Merkmalswert (12) ermittelt wird und zu jedem Objektmerkmal (30) die ermittelten Merkmalswerte (12) aller erfassten Einzelbilder (6) zu einem Zeitsignal (14) kombiniert werden und detektiert wird, ob zumindest ein Zeitsignal (14) ein vorbestimmtes Fehlerkriterium (7) erfüllt, und, falls das Fehlerkriterium (7) erfüllt ist, ein Hinweissignal (8) erzeugt wird.The invention relates to a method for testing a navigation system (1), sensor data (5) being fed into the navigation system (1) by a test device (2) in a test run (9) and individual pictures (6) of a picture sequence (4) of the navigation system (FIG. 1), wherein each individual image (6) represents a combination (29) of key graphical objects (11) and at least one of the key graphical objects (11) is selected and in the individual images (6) each selected key object (11) is extracted and from a respective feature value (12) is determined for each extracted key object (11) for at least one predetermined object feature (30) and for each object feature (30) the determined feature values (12) of all captured individual images (6) are combined to form a time signal (14); it is detected whether at least one time signal (14) satisfies a predetermined error criterion (7) and, if the error criterion (7) is met, a flag signal l (8) is generated.

Description

Die Erfindung betrifft ein Verfahren zum Testen eines Navigationssystems. Das Verfahren wird durch eine Testvorrichtung durchgeführt, die ebenfalls Bestandteil der Erfindung ist.The invention relates to a method for testing a navigation system. The method is carried out by a test device, which is also part of the invention.

Die Komplexität von Navigationssystemen in Kraftfahrzeugen nimmt kontinuierlich zu. Dies ist nicht nur auf die Anzahl an verfügbaren Funktionen und die geforderte grafische Aufbereitung der Navigation zurückzuführen, sondern auch auf die Variantenvielfalt der verbauten Navigationssysteme und deren Interaktion mit anderen Geräten und Infotainment-Softwarekomponenten (Infotainmentsystem-Informations-Unterhaltungssystem). Mit steigender Komplexität steigt auch die Wahrscheinlichkeit, dass die Navigationssoftware Fehler enthält. Diese Fehler gilt es zu finden, bevor die Software als Serienstand den Kunden erreicht. Die Erfahrung der letzten Jahre zeigt, dass seltene, komplexe Fehler nur mit vielen hundert oder sogar tausend Stunden an automatisierten Tests zu fassen sind. Um die so nötige Testabdeckung und Testzeit für jede der relevanten Navigationsvarianten wirtschaftlich sinnvoll zu erreichen, ist eine automatisierte Erprobung mit geringem Auswerteaufwand für den Tester (Menschen) unverzichtbar.The complexity of navigation systems in motor vehicles is constantly increasing. This is due not only to the number of available functions and the required graphical processing of the navigation, but also to the variety of variants of the installed navigation systems and their interaction with other devices and infotainment software components (infotainment system information entertainment system). As the complexity increases, so does the likelihood that the navigation software will contain errors. These errors must be found before the software reaches the customer as series production. The experience of recent years shows that rare, complex errors can only be made with hundreds or even thousands of hours of automated testing. In order to achieve the necessary test coverage and test time for each of the relevant navigation variants in an economically sensible manner, automated testing with little evaluation effort is indispensable for the tester (human).

Aus der DE 10 2012 009 876 A1 ist ein Testverfahren für Navigationssysteme bekannt, bei welchem eine Bildsequenz, die ein Navigationssystem zum Ausgeben von Navigationshinweisen erzeugt, daraufhin untersucht wird, welche Bereiche in der Bildsequenz animiert worden sind und welche als statische oder stationäre Bereiche unverändert geblieben sind. Anschließend wird ein Bewegungsmodell, welches die Animation nachbildet, ausschließlich auf Grundlage der bewegten Bildbereiche konfiguriert, wodurch sich eine genauere Bewegungsbeschreibung im Vergleich zur Nutzung der gesamten Bildsequenz ergibt.From the DE 10 2012 009 876 A1 For example, a test method for navigation systems is known in which an image sequence that generates a navigation system for outputting navigation instructions is examined to see which areas in the image sequence have been animated and which have remained unchanged as static or stationary areas. Subsequently, a motion model simulating the animation is configured based solely on the moving image areas, resulting in a more accurate motion description compared to using the entire image sequence.

In der DE 10 2008 012 697 A1 ist ein Verfahren zum Betrieb eines Navigationssystems beschrieben, um zu überprüfen, ob aktuelle Karteninformationen und aktuelle Fahrinformationen übereinstimmen. Hieraus kann ein Grad der Qualität der Karteninformationen ermittelt werden.In the DE 10 2008 012 697 A1 A method for operating a navigation system is described to check whether current map information and current driving information match. From this, a degree of the quality of the map information can be determined.

In der DE 10 2013 015 145 A1 ist ein Verfahren zum computergestützten Testen und Bewerten der Qualität von Daten einer digitalen Straßenkarte beschrieben. Die Qualität wird anhand von Qualitätskriterien bewertet, die mehrere Subkriterien umfassen können und die in Abhängigkeit von den Anforderungen der Anwendungen gewählt werden können, welche die Straßenkarte nutzen sollen.In the DE 10 2013 015 145 A1 A method for computer-aided testing and rating of the quality of digital road map data is described. The quality is assessed on the basis of quality criteria, which may include several subcriteria and which may be chosen depending on the requirements of the applications that are to use the roadmap.

Der Erfindung liegt die Aufgabe zugrunde, ein Navigationssystem automatisiert zu testen.The invention has for its object to automatically test a navigation system.

Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die Merkmale der abhängigen Patentansprüche gegeben.The object is solved by the subject matters of the independent claims. Advantageous developments of the invention are given by the features of the dependent claims.

Durch die Erfindung ist ein Verfahren zum Testen eines Navigationssystems bereitgestellt. Das Verfahren wird durch eine Testvorrichtung durchgeführt. In einem Testdurchlauf des Navigationssystems werden in das Navigationssystem Sensordaten eingespeist, die eine Fahrt eines Kraftfahrzeugs beschreiben. Das Navigationssystem wird also genau so betrieben, als sei es in ein Kraftfahrzeug eingebaut und würde Sensordaten von dem Kraftfahrzeug empfangen. Sensordaten können beispielsweise GPS-Daten (GPS – Global Positioning System) und/oder Gierratendaten eines Gierratensensors und/oder ein Geschwindigkeitssignal sein. Die Sensordaten können mittels einer Simulation oder bei einer Testfahrt des Navigationssystems erzeugt werden. Alternativ zu einer Einspeisung der Sensordaten können diese innerhalb des Navigationssystems simuliert werden. Hierzu kann ein sogenannter Demo-Modus mit Testszenarien genutzt werden. „Demo-Modus” bedeutet, dass die Navigationssoftware des Navigationssystems die Sensordaten selbst generiert und zwar allein auf Basis eines von außen gesetzten Startpunktes und Zielpunktes. Dies erspart eine Zuführung der Sensordaten von außen. Das Fahrzeug fährt „virtuell” mit konstanter Geschwindigkeit.The invention provides a method for testing a navigation system. The method is performed by a test device. In a test run of the navigation system sensor data are fed into the navigation system, which describe a drive of a motor vehicle. The navigation system is thus operated exactly as if it had been installed in a motor vehicle and would receive sensor data from the motor vehicle. Sensor data may be, for example, GPS data (GPS - Global Positioning System) and / or yaw rate data of a yaw rate sensor and / or a speed signal. The sensor data can be generated by means of a simulation or during a test drive of the navigation system. As an alternative to feeding the sensor data, these can be simulated within the navigation system. For this purpose, a so-called demo mode with test scenarios can be used. "Demo mode" means that the navigation software of the navigation system generates the sensor data itself, based solely on an externally set starting point and destination point. This saves a supply of sensor data from the outside. The vehicle drives "virtually" at a constant speed.

Das Navigationssystem erzeugt in Abhängigkeit von den Sensordaten und einem vorgegebenen Navigationsziel dann in bekannter Weise eine Videosequenz oder Animation oder Bildsequenz, die auf einem Bildschirm des Navigationssystems angezeigt werden kann. Die Bildsequenz kann beispielsweise ein Symbol für das Eigenfahrzeug sowie den vorausliegenden Straßenverlauf darstellen. Bei dem Verfahren ist nun vorgesehen, dass durch die Testvorrichtung Einzelbilder (Frames) dieser Bildsequenz erfasst werden. Die Einzelbilder können beispielsweise durch Auslesen eines Videosignals oder ein so genanntes Framegrabbing oder durch Abfilmen des Bildschirms erfasst werden. Wichtig hierbei ist, dass jedes Einzelbild eine Kombination aus grafischen Schlüsselobjekten darstellt. Ein solches Schlüsselobjekt kann beispielsweise das beschriebene Symbol für das Eigenfahrzeug sein oder eine Straße oder ein Warnhinweis für eine Baustelle. Zumindest eines dieser grafischen Schlüsselobjekte wird anhand von Konfigurationsdaten ausgewählt. Mit anderen Worten wird in der Testvorrichtung anhand der Konfigurationsdaten beispielsweise durch einen Benutzer eingestellt, welches Schlüsselobjekt oder welche Schlüsselobjekte durch die Testvorrichtung beobachtet werden sollen.The navigation system then generates in response to the sensor data and a predetermined navigation target in a known manner a video sequence or animation or image sequence that can be displayed on a screen of the navigation system. The image sequence can represent, for example, a symbol for the own vehicle as well as the road ahead. The method now provides for individual images (frames) of this image sequence to be detected by the test device. The individual images can be detected, for example, by reading a video signal or a so-called frame grabbing or by filming the screen. The important thing is that each frame represents a combination of key graphical objects. Such a key object may be, for example, the described symbol for the own vehicle or a road or a warning for a construction site. At least one of these key graphical objects is selected based on configuration data. In other words, in the test device based on the configuration data, for example, set by a user, which key object or which key objects to be observed by the test device.

In den Einzelbildern wird jedes ausgewählte Schlüsselobjekt extrahiert. Mit anderen Worten wird in jedem Einzelbild eine Segmentierung des ausgewählten Schlüsselobjekts vorgenommen. Es wird also ermittelt, welche Pixel (Bildelemente) des Einzelbildes zu dem Schlüsselobjekt gehören. Von jedem extrahierten Schlüsselobjekt wird zu zumindest einem vorbestimmten Objektmerkmal ein jeweiliger Merkmalswert ermittelt. Ein Objektmerkmal oder eine Objekteigenschaft wird also in jedem Einzelbild quantifiziert. Beispielsweise kann ein Objektmerkmal die Fläche oder Größe des Schlüsselobjekts sein oder eine geometrische Ausrichtung. Dies wird zu jedem Einzelbild als jeweiliger Merkmalswert ausgedrückt oder beschrieben. Zu jedem Objektmerkmal werden dann die ermittelten Merkmalswerte aller erfassten Einzelbilder zu einem Zeitsignal oder Merkmalsverlauf kombiniert. Es wird also beispielsweise ein Zeitsignal erzeugt, welches die Fläche oder Größe des Schlüsselobjekts über der Zeit beschreibt. Es wird dann detektiert, ob das Zeitsignal oder zumindest eines mehrerer Zeitsignale ein vorbestimmtes Fehlerkriterium erfüllt. Falls das Fehlerkriterium erfüllt wird, wird ein Hinweissignal erzeugt. In the frames, each selected key object is extracted. In other words, a segmentation of the selected key object is made in each frame. It is thus determined which pixels (picture elements) of the single picture belong to the key object. From each extracted key object, a respective feature value is determined for at least one predetermined object feature. An object feature or an object property is therefore quantified in each individual image. For example, an object feature may be the area or size of the key object or a geometric orientation. This is expressed or described for each frame as a respective feature value. The determined feature values of all acquired individual images are then combined to form a time signal or characteristic curve for each object feature. Thus, for example, a time signal is generated which describes the area or size of the key object over time. It is then detected whether the time signal or at least one of a plurality of time signals satisfies a predetermined error criterion. If the error criterion is met, an alert signal is generated.

Durch die Erfindung ergibt sich der Vorteil, dass die Reaktion des Navigationssystems auf die Sensordaten und das vorgegebene Navigationsziel automatisiert durch die Testvorrichtung geprüft wird und ein Benutzer der Testvorrichtung, d. h. ein Mensch, nur dann die Bildsequenz überprüfen muss, wenn das Hinweissignal erzeugt wird, wenn also ein ungewöhnliches Ereignis in der Bildsequenz durch die Testvorrichtung erkannt wurde. Welche Ereignisse in der Bildsequenz als ungewöhnlich klassifiziert werden, kann durch das Fehlerkriterium eingestellt werden. Durch die Testvorrichtung ist es somit möglich, ein Navigationssystem viele Stunden lang oder sogar tagelang zu betreiben, ohne dass die von dem Navigationssystem erzeugte Bildsequenz tatsächlich durch einen menschlichen Betrachter beobachtet werden muss. Anhand des erzeugten Hinweissignals kann dann gezielt derjenige Abschnitt der Bildsequenz tatsächlich durch den Benutzer geprüft werden, zu dem das Fehlerkriterium erfüllt wurde. Es kann auch ein weiteres In-Ordnung-Signal erzeugt werden, falls das Fehlerkriterium nicht erfüllt ist.The advantage of the invention is that the response of the navigation system to the sensor data and the predefined navigation destination is checked automatically by the test device and a user of the test device, i. H. a human needs to check the image sequence only when the alert signal is generated, that is, when an unusual event in the image sequence has been detected by the test device. Which events in the image sequence are classified as unusual can be adjusted by the error criterion. The test apparatus thus makes it possible to operate a navigation system for many hours or even days, without the image sequence generated by the navigation system actually having to be observed by a human observer. On the basis of the generated notification signal can then be specifically checked that portion of the image sequence actually by the user, to which the error criterion has been met. It is also possible to generate a further in-order signal if the error criterion is not met.

Zu der Erfindung gehören auch optionale Weiterbildungen, durch deren Merkmale sich zusätzliche Vorteile ergeben.The invention also includes optional developments, by the characteristics of which additional benefits.

Ein Aspekt betrifft die Frage, welche Objektmerkmale geeignet sind, um zuverlässig einen Fehler in der Bildsequenz zu erkennen. Eine Weiterbildung hierzu sieht vor, dass ein Objektmerkmal ein skalarer Wert ist, also ein „Eine-Zahl-Merkmal”. Beispielsweise kann eine Pixelanzahl des grafischen Schlüsselobjekts ermittelt werden. Dies entspricht der Anzeigefläche des grafischen Schlüsselobjekts. Ein skalarer Wert weist den Vorteil auf, dass das besagte Zeitsignal als Zeitreihe von Einzelwerten ermittelt wird. Es kann dann besonders effizient durch die Testvorrichtung verarbeitet werden. Ein Objektmerkmal kann gemäß einer Weiterbildung eine dynamische oder zeitliche Eigenschaft des Schlüsselobjekts beschreiben, beispielsweise eine Bewegungsgeschwindigkeit oder einen Bewegungsvektor. Hierdurch ergibt sich der Vorteil, dass ein Zusammenhang zwischen aufeinanderfolgenden Einzelbildern berücksichtigt wird. Ein Objektmerkmal kann gemäß einer Weiterbildung ein Merkmalstupel aus mehreren Einzelmerkmalen sein. Hierdurch drückt das Zeitsignal eine mehrdimensionale Trajektorie aus, sodass durch ein einzelnes Zeitsignal die zeitliche Entwicklung mehrerer Einzelmerkmale beschrieben ist.One aspect concerns the question of which object features are suitable for reliably detecting an error in the image sequence. A development for this purpose provides that an object feature is a scalar value, ie a "one-number feature". For example, a pixel count of the key graphic object can be determined. This corresponds to the display area of the key graphic object. A scalar value has the advantage that the said time signal is determined as a time series of individual values. It can then be processed particularly efficiently by the test device. An object feature may, according to a further development, describe a dynamic or temporal property of the key object, for example a movement speed or a motion vector. This has the advantage that a relationship between successive individual images is taken into account. An object feature can be a feature tuple of several individual features according to a development. As a result, the time signal expresses a multidimensional trajectory, so that the temporal evolution of several individual features is described by a single time signal.

Bei einer Weiterbildung wird ein Objektmerkmal gewählt, das von einem Navigationskontext abhängig ist. Hierdurch kann dann für unterschiedliche Sensordaten und/oder Navigationsziele ein jeweils geeignetes Objektmerkmal im Voraus festgelegt werden, sodass gezielt für unterschiedliche Navigationssituationen ein geeignetes Objektmerkmal gewählt wird. Zusätzlich oder alternativ dazu kann als Objektmerkmal auch eine Korrelation zweier vorbestimmter Einzelmerkmale beschreiben. Mit anderen Worten wird also nicht direkt aus dem Einzelbild jeweils ein Einzelmerkmal beobachtet, sondern ein Zusammenhang zweier solcher Einzelmerkmale. Diese Einzelmerkmale können von dem Schlüsselobjekt stammen oder auch einen Bezug eines Einzelmerkmals des Schlüsselobjekts zu einem Einzelmerkmal eines anderen Objekts beschreiben. Beispielspielsweise kann hierdurch ein Größenverhältnis zweier Schlüsselobjekte als Objektmerkmal beschrieben werden.In a further development, an object feature is selected that depends on a navigation context. In this way, a respective suitable object feature can then be determined in advance for different sensor data and / or navigation targets, so that a suitable object feature is selected specifically for different navigation situations. Additionally or alternatively, a correlation of two predetermined individual features may also be described as object feature. In other words, a single feature is not observed directly from the individual image, but a relationship between two such individual features. These individual features may originate from the key object or even describe a reference of a single feature of the key object to a single feature of another object. For example, by way of example, a size ratio of two key objects can be described as an object feature.

Eine Weiterbildung sieht vor, dass die Extrahierung des Schlüsselobjekts anhand einer Farbe und/oder eines grafischen Musters erfolgt. Die Extrahierung anhand der Farbe ist besonders effizient mit geringen rechentechnischen Ressourcen zu realisieren. Ein grafisches Muster lässt sich mit einer aufwandsarmen Mustererkennung detektieren.A further development provides that the extraction of the key object takes place on the basis of a color and / or a graphic pattern. Extraction based on color is particularly efficient with low computational resources. A graphic pattern can be detected with a low-effort pattern recognition.

Das beschriebene Fehlerkriterium kann beispielsweise besagen, dass der Verlauf des Zeitsignals innerhalb eines vorbestimmten Werteintervalls oder Toleranzbereichs liegen muss. Liegt das Zeitsignal einmal außerhalb des Intervalls, so ist das Fehlerkriterium erfüllt. Eine Weiterbildung hierzu sieht vor, da kein absolutes Werteintervall verwendet wird, sondern ein Vergleich des Zeitsignals mit einem Referenzsignal durchgeführt wird. Bei dieser Weiterbildung wird der Testdurchlauf mehrmals wiederholt. Zu einem der Testdurchläufe, einer Referenzsequenz, wird dann ein Zeitsignal oder werden mehrere Zeitsignale erzeugt, je nachdem wie viel Schlüsselobjekte und wie viel Objektmerkmale pro Schlüsselobjekt beobachtet werden. Jedes Zeitsignal dieses Testdurchlaufs stellt jeweils ein Referenzsignal dar. Für einen anderen Testdurchlauf, einer Testsequenz, wird jeweils ein korrespondierendes Zeitsignal erzeugt, das dann jeweils als Testsignal verwendet wird. Das Fehlerkriterium umfasst dann, dass ein Unterschied zwischen zumindest einem Testsignal und dem korrespondieren Referenzsignal außerhalb eines vorbestimmten Toleranzbereichs liegt.The error criterion described may, for example, state that the course of the time signal must be within a predetermined value interval or tolerance range. Once the time signal is outside the interval, the error criterion is met. A development for this purpose provides that no absolute value interval is used, but a comparison of the time signal with a reference signal is performed. In this development, the test run is repeated several times. One of the test passes, a reference sequence, then generates a time signal or multiple time signals, depending on how many key objects and how many object features per key object to be watched. Each time signal of this test run represents a reference signal in each case. For another test run, a test sequence, a corresponding time signal is generated in each case, which is then used in each case as a test signal. The error criterion then includes that a difference between at least one test signal and the corresponding reference signal is outside a predetermined tolerance range.

Die Testdurchläufe können mit denselben oder mit unterschiedlichen Sensordaten durchgeführt werden. Selbst bei Verwendung derselben Sensordaten pro Testdurchlauf kommt es zu unterschiedlichen Reaktionen des Navigationssystems, je nachdem, welche Auslastung anderer Fahrzeugsysteme gegeben ist, die mit derselben Hardware realisiert werden. Beispielsweise kann bei einem Multithreading-Prozessorsystem die Verarbeitung der Sensordaten in unterschiedlichen Testdurchläufen im Navigationssystem unterschiedlich erfolgen. Entsprechend ergeben sich auch unterschiedliche Bildsequenzen. Beispielsweise kann es zu einer Unterbrechung der Darstellung der Bildsequenz bei einer ungünstigen Auslastung des Prozessorsystems kommen.The test runs can be performed with the same or different sensor data. Even if the same sensor data is used per test run, different reactions of the navigation system occur, depending on the utilization of other vehicle systems that are realized with the same hardware. For example, in a multithreaded processor system, the processing of the sensor data in different test runs in the navigation system can be different. Accordingly, there are also different image sequences. For example, there may be an interruption of the presentation of the image sequence at an unfavorable utilization of the processor system.

Um das Testsignal mit dem Referenzsignal vergleichen zu können, sieht eine Weiterbildung vor, dass das Referenzsignal und/oder das Testsignal auf eine für die Abtastung der Bildsequenz vorgegebene Abtastrate interpoliert wird. Hierdurch ergibt sich eine Synchronisierung des Testsignals mit dem Referenzsignal. Die Synchronisierung ist somit nicht von Anfang an nötig. Es können also für die unterschiedlichen Testläufe Einzelbilder innerhalb der jeweiligen Bildsequenz zu unterschiedlichen Zeitpunkten erfasst werden. So kann ein Hardware-in-the-loop-Test ermöglicht werden, bei welchem das Navigationssystem unabhängig oder asynchron zur Testvorrichtung läuft. Falls als Objektmerkmal der beschriebene skalare Wert verwendet wird, ist die Interpolation besonders robust. Es ist keine mehrdimensionale, beispielsweise grafische Interpolation eines Bildes nötig.To be able to compare the test signal with the reference signal, a further development provides that the reference signal and / or the test signal is interpolated to a sampling rate predetermined for scanning the image sequence. This results in a synchronization of the test signal with the reference signal. The synchronization is therefore not necessary from the beginning. Thus, individual images within the respective image sequence can be acquired at different times for the different test runs. Thus, a hardware-in-the-loop test can be made possible in which the navigation system runs independently or asynchronously to the test device. If the described scalar value is used as object feature, the interpolation is particularly robust. There is no need for multidimensional, for example graphic interpolation of an image.

Um den Vergleich zwischen Referenzsignalen und Testsignalen noch aussagekräftiger zu machen, sieht eine Weiterbildung vor, dass das Testsignal mit dem Referenzsignal durch einen fensterbasierten Vergleich registriert wird. Mit Registrierung ist hierbei gemeint, dass ein Zeitversatz oder Zeitoffset zwischen Testsignal und Referenzsignal auf Grundlage des fensterbasierten Vergleichs eingestellt wird. Der fensterbasierte Vergleich kann beispielsweise eine Korrelation oder eine Summe absoluter Differenzwerte (SAD) sein. Der minimale Korrelationswert oder SAD-Wert gibt dann an, dass das Testsignal und das Referenzsignal die größte Ähnlichkeit aufweisen, also der Zeitversatz dahingehend optimal ist, dass ein erkannter oder detektierter Unterschied zwischen Referenzsignal und Testsignal ausschließlich aufgrund eines Unterschieds in den Bildsequenzen verursacht wird und nicht aufgrund eines fehlerhaften Zeitversatzes.In order to make the comparison between reference signals and test signals even more meaningful, a development provides that the test signal is registered with the reference signal by a window-based comparison. By registration, it is meant that a time offset or time offset between the test signal and the reference signal is set based on the window-based comparison. The window-based comparison may, for example, be a correlation or a sum of absolute difference values (SAD). The minimum correlation value or SAD value then indicates that the test signal and the reference signal are most similar, that is, the time offset is optimal in that a detected or detected difference between the reference signal and the test signal is caused solely by a difference in the image sequences and not due to a faulty time offset.

Eine Weiterbildung ermöglicht es sogar, das Fehlerkriterium für den Vergleich von Testsignal und Referenzsignal automatisch zu erzeugen. Ein zur Weiterbildung wird ein weiteres Referenzsignal erzeugt, beispielsweise aus einem anderen Abschnitt der Referenzsequenz oder durch nochmaliges Durchlaufen des Testdurchlaufs. Aus dem weiteren Referenzsignal (oder den mehreren weiteren Referenzsignalen bei mehreren Objektmerkmalen), wird mittels einer Methode des maschinellen Lernens (ML) der Toleranzbereich für den Unterschied des Testsignals zum korrespondierenden Referenzsignal ermittelt. Als eine Methode des maschinellen Lernens kann beispielsweise die so genannte Novelty-Detetection-Methode (Neuheitserkennung) verwendet werden. Durch das maschinelle Lernen wird anhand des weiteren Referenzsignals erkannt, welche Verläufe oder Werte für das Referenzsignal typisch sind, d. h. das zu erwartende Verhalten. Hiermit können also danach statistische Ausreißer, die auf einen Fehler hindeuten, erkannt werden.A further development even makes it possible to automatically generate the error criterion for the comparison of test signal and reference signal. For further development, a further reference signal is generated, for example, from another section of the reference sequence or by running through the test run again. From the further reference signal (or the plurality of further reference signals for a plurality of object features), the tolerance range for the difference of the test signal to the corresponding reference signal is determined by means of a method of machine learning (ML). As a method of machine learning, for example, the so-called Novelty Detetection method (novelty detection) can be used. By means of the machine learning it is recognized on the basis of the further reference signal which curves or values are typical for the reference signal, ie. H. the expected behavior. This can be used to detect statistical outliers that indicate an error.

Als besonders zuverlässige automatische Toleranzfestsetzung hat sich die folgende Weiterbildung erwiesen. Sie weist den zusätzlichen Vorteil auf, dass durch einen Benutzer mittels einer grafischen Anzeige überprüft werden kann, ob der Toleranzbereich geeignet gesetzt wurde. Bei der Weiterbildung werden die Merkmalswerte zumindest zweiter Referenzsignale als Koordinaten eines Datenpunkts verwendet oder interpretiert. Mit anderen Worten werden die Merkmalswerte der Referenzsignale zu einem gegebenen Einzelbild (oder bei Interpolation zu einem gegebenen Zeitpunkt) als Koordinaten interpretiert. Nimmt man beispielsweise zwei Referenzsignale, so ergibt sich pro Zeitpunkt ein Datenpunkt in einem zweidimensionalen Koordinatensystem. Wird dies für alle Zeitpunkte oder Abtastzeitpunkte der Referenzsignale durchgeführt, so ergibt sich eine Punktwolke. Aus dieser Punktwolke, d. h. aus den Datenpunkten der Referenzsignale wird z. B. mittels radialer Basisfunktionen (RBF – Radial Basis Function) der Toleranzbereich als eine so genannte Entscheidungsgrenze (Decision Boundary) ermittelt. Die Entscheidungsgrenze ist diejenige Linie, welche die Datenpunkte oder zumindest die meisten Datenpunkte einschließt. Der Verlauf oder die Form der Entscheidungsgrenze kann dabei mittels der beschriebenen radialen Basisfunktionen besonders flexibel angepasst werden, wodurch Fehlalarme bei der Fehlerdetektion verringert werden können.As a particularly reliable automatic tolerance setting, the following has been found. It has the additional advantage that it can be checked by a user by means of a graphical display whether the tolerance range has been suitably set. In the development, the feature values of at least second reference signals are used or interpreted as coordinates of a data point. In other words, the feature values of the reference signals to a given frame (or interpolation at a given time) are interpreted as coordinates. Taking, for example, two reference signals, the result is a data point per point in time in a two-dimensional coordinate system. If this is carried out for all times or sampling times of the reference signals, the result is a point cloud. From this point cloud, d. H. from the data points of the reference signals z. B. determined by means of radial basis functions (RBF - Radial Basis Function) of the tolerance range as a so-called decision boundary (Decision Boundary). The decision boundary is the line that includes the data points or at least most of the data points. The course or the shape of the decision boundary can be adapted particularly flexibly by means of the described radial basis functions, whereby false alarms can be reduced in error detection.

Zu der Erfindung gehört auch die beschriebene Testvorrichtung für ein Navigationssystem eines Kraftfahrzeugs. Die Testvorrichtung ist dazu eingerichtet, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Hierzu kann die Testvorrichtung eine Prozessoreinrichtung aufweisen, die beispielsweise auf der Grundlage eines oder mehrerer Mikroprozessoren realisiert sein kann. Die beschriebenen Komponenten der Testvorrichtung können somit jeweils als Programmmodule realisiert sein.The invention also includes the described test device for a navigation system of a Motor vehicle. The test device is set up to carry out an embodiment of the method according to the invention. For this purpose, the test device can have a processor device, which can be realized, for example, on the basis of one or more microprocessors. The described components of the test device can thus be realized in each case as program modules.

Im Folgenden ist ein Ausführungsbeispiel der Erfindung beschrieben. Hierzu zeigt:In the following an embodiment of the invention is described. This shows:

1 eine Skizze zu einem Testdurchlauf für ein Navigationssystem, 1 a sketch of a test run for a navigation system,

2 ein Flussschaudiagramm, welches verschiedene Ausführungsformen des erfindungsgemäßen Verfahrens veranschaulicht, 2 a flow chart diagram illustrating various embodiments of the method according to the invention,

3 eine Skizze zur Veranschaulichung einer Extraktion mehrerer Schlüsselobjekte aus einem Einzelbild, 3 a sketch to illustrate an extraction of several key objects from a single image,

4 eine schematische Darstellung eines Zeitsignals eines Objektmerkmals eines der Schlüsselobjekte, 4 a schematic representation of a time signal of an object feature of one of the key objects,

5 eine schematische Darstellung zur Veranschaulichung einer Registrierung des Zeitsignals mit einem Referenzsignal, 5 a schematic representation for illustrating a registration of the time signal with a reference signal,

6 eine schematische Darstellung zur Veranschaulichung einer Überprüfung eines Fehlerkriteriums und 6 a schematic representation for illustrating a review of an error criterion and

7 eine schematische Darstellung zur Veranschaulichung einer automatischen Festlegung des Fehlerkriteriums mittels einer Methode des maschinellen Lernens. 7 a schematic representation for illustrating an automatic determination of the error criterion by means of a method of machine learning.

Bei dem im Folgenden erläuterten Ausführungsbeispiel handelt es sich um eine bevorzugte Ausführungsform der Erfindung. Bei dem Ausführungsbeispiel stellen die beschriebenen Komponenten der Ausführungsform jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren ist die beschriebene Ausführungsform auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiment explained below is a preferred embodiment of the invention. In the exemplary embodiment, the described components of the embodiment each represent individual features of the invention that are to be considered independently of one another, which also each independently further develop the invention and thus also individually or in a different combination than the one shown as part of the invention. Furthermore, the described embodiment can also be supplemented by further features of the invention already described.

In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.In the figures, functionally identical elements are each provided with the same reference numerals.

In 1 sind ein Navigationssystem 1 und eine Testvorrichtung 2 gezeigt. Das Navigationssystem 1 kann Bestandteil eines Infotainmentsystems sein. Das Navigationssystem 1 kann in einem Kraftfahrzeug (nicht dargestellt) eingebaut sein oder sich in beispielsweise in einem Versuchslabor außerhalb eines Kraftfahrzeugs befinden. Die Testvorrichtung 2 kann beispielsweise auf der Grundlage einer Prozessoreinrichtung, beispielsweise eines Personalcomputers, realisiert sein. Mittels der Testvorrichtung 2 wird das Navigationssystem 1 daraufhin überprüft, ob auf einer Anzeigeeinrichtung 3 des Navigationssystems 1 eine Bildsequenz 4 mit Navigationshinweisen fehlerfrei erzeugt wird. Hierzu wird eine Fahrt mit dem Kraftfahrzeug nachgestellt. Von der Fahrt bekommt das Navigationssystem 1 nur das mit, was Sensorsignale von Sensoren des Kraftfahrzeugs an das Navigationssystem 1 aussenden oder übermitteln. Entsprechend werden durch die Testvorrichtung 2 Sensordaten 5 in das Navigationssystem 1 eingespeist. Dies wird als sogenanntes Sensordatenreplay (Wiedereinspielen von Sensordaten) bezeichnet. Alternativ dazu kann der beschriebene Demo-Modus genutzt werden.In 1 are a navigation system 1 and a test device 2 shown. The navigation system 1 can be part of an infotainment system. The navigation system 1 may be installed in a motor vehicle (not shown) or located in, for example, an experimental laboratory outside a motor vehicle. The test device 2 may for example be realized on the basis of a processor device, for example a personal computer. By means of the test device 2 becomes the navigation system 1 then checked to see if on a display device 3 of the navigation system 1 a picture sequence 4 is generated error-free with navigation instructions. For this purpose, a trip with the motor vehicle is readjusted. From the ride gets the navigation system 1 only with what sensor signals from sensors of the motor vehicle to the navigation system 1 send or transmit. Accordingly, by the test device 2 sensor data 5 in the navigation system 1 fed. This is called a so-called sensor data playback (re-import of sensor data). Alternatively, the described demo mode can be used.

Die Testvorrichtung 2 erfasst währenddessen aus dem Navigationssystem 1 Einzelbilder 6 der Bildsequenz 4 und überprüft anhand der Einzelbilder 6, ob die Bildsequenz 4 ein Fehlerkriterium 7 erfüllt. Falls das Filterkriterium 7 erfüllt ist, wird ein Hinweissignal 8 erzeugt, welches einen Benutzer (nicht dargestellt) der Testvorrichtung 2 signalisiert, dass die Bildsequenz 4 einen Fehler enthält. Der Benutzer kann dann gezielt diese Bildsequenz 4 noch einmal anschauen, um den Fehler zu begutachten. Falls die Bildsequenz hier keinen Fehler enthält, kann ein anderes Hinweissignal („Bildsequenz in Ordnung”) signalisieren, dass der Benutzer die Bildsequenz 4 nicht überprüfen muss. Hierdurch wird dem Benutzer also erspart, jede Bildsequenz durchzuschauen. Er kann sich auf diejenigen Bildsequenzen konzentrieren, die gemäß dem Fehlerkriterium 7 einen Fehler enthalten.The test device 2 recorded meanwhile from the navigation system 1 Single images 6 the picture sequence 4 and checks based on the individual images 6 whether the picture sequence 4 an error criterion 7 Fulfills. If the filter criterion 7 is met, is a warning signal 8th which generates a user (not shown) of the test device 2 signals that the image sequence 4 contains an error. The user can then target this image sequence 4 look again to see the error. If the image sequence does not contain an error here, another alert signal ("image sequence okay") may signal that the user is viewing the image sequence 4 do not have to check. As a result, the user is spared to look through each image sequence. He can focus on those image sequences that are in accordance with the error criterion 7 contain an error.

Insgesamt ergibt sich hieraus ein Testdurchlauf 9 für das Navigationssystem 10. Dieser Testvorlauf 9 kann mit denselben Sensordaten 5 oder mit anderen Sensordaten wiederholt werden. Selbst bei Verwendung derselben Sensordaten 5 können sich andere Einzelbilder 6 ergeben, was damit zusammenhängt, dass sich jedes Mal eine andere Auslastung, d. h. andere Betriebszustände im Navigationssystem 1 aufgrund anderer Vorgänge im Navigationssystem 1 oder in dem Infotainmentsystem ergeben können. Diese Effekte sind aus dem Stand der Technik bekannt.Overall, this results in a test run 9 for the navigation system 10 , This test lead 9 can with the same sensor data 5 or repeated with other sensor data. Even when using the same sensor data 5 can other frames 6 Result, which is related, that each time a different load, ie other operating conditions in the navigation system 1 due to other processes in the navigation system 1 or in the infotainment system. These effects are known in the art.

2 veranschaulicht, wie mittels der Testvorrichtung 2 unterschiedliche Möglichkeiten der Überprüfung des Navigationssystems 1 realisiert werden können. 2 zeigt, wie mehrere Testdurchläufe 9 durchgeführt werden können, wobei ein Testdurchlauf eine Referenzsequenz REF darstellt und die übrigen Testdurchläufe 9 jeweils eine Testsequenz TEST. Zu jedem Testdurchlauf 9 werden jeweils die beschriebenen Einzelbilder 6 der Bildsequenz 4 ermittelt. 2 illustrates how by means of the test device 2 different ways of checking the navigation system 1 can be realized. 2 shows how multiple test runs 9 can be performed, with a Test run represents a reference sequence REF and the remaining test runs 9 one test sequence each TEST. To every test run 9 are each the described frames 6 the picture sequence 4 determined.

In den Einzelbildern 6 wird dann jeweils eine Extraktion 10 von grafischen Schlüsselobjekten 11 durchgeführt, was im Folgenden genauer anhand von 3 beschrieben ist. Zu den grafischen Schlüsselobjekten 11 werden dann jeweils für jedes Einzelbild 6 Merkmalswerte 12 für unterschiedliche Objektmerkmale ermittelt (siehe im Weiteren die Beschreibung im Zusammenhang mit 3). Aus den Merkmalswerten 12 werden dann durch eine Objektanalyse 13 Zeitsignale 14 erzeugt, wobei sich für die Referenzsequenz REF ein Referenzsignal 15 und für eine jeweilige Testsequenz TEST ein korrespondierendes Testsignal 16 jedes Schlüsselobjekt 11 und für jedes Objektmerkmal ergibt (siehe im Weiteren 4).In the single pictures 6 then becomes an extraction 10 of key graphical objects 11 performed, which is described in more detail below 3 is described. To the key graphical objects 11 are then each for each frame 6 characteristic values 12 determined for different object features (see below the description in connection with 3 ). From the characteristic values 12 are then through an object analysis 13 time signals 14 generated, wherein for the reference sequence REF is a reference signal 15 and for a respective test sequence TEST, a corresponding test signal 16 every key object 11 and for each object feature results (see below 4 ).

Verzichtet man auf die Referenzsequenz REF, so kann jedes Testsignal 16 in einem Speicher 17 gespeichert werden und anhand eines ersten Tests T1 mittels einer schwellwertbasierten Fehlererkennung ohne Referenz getestet werden, was im Zusammenhang mit 4 näher erläutert ist.If one renounces the reference sequence REF, then each test signal 16 in a store 17 stored and tested on the basis of a first test T1 by means of a threshold-based error detection without reference, which in connection with 4 is explained in more detail.

Speichert man das Referenzsignal 15 und das Testsignal 16 in einem jeweiligen Speicher 18 kann in einem Test T2 eine schwellwertbasierte Fehlererkennung mit Referenz durchgeführt werden. Für einen zeitlichen Angleich der Signale 15, 16 kann ein Interpolation und Registrierung 19 vorgesehen sein, was im Folgenden im Zusammenhang mit 5 und 6 näher erläutert ist.Do you save the reference signal 15 and the test signal 16 in a respective memory 18 In a test T2, a threshold-based error detection with reference can be performed. For a temporal equalization of the signals 15 . 16 can be an interpolation and registration 19 be provided what follows in the context of 5 and 6 is explained in more detail.

Der beschriebene schwellwertbasierte Vergleich im Test T2 kann noch weiter automatisiert werden, indem für jedes Referenzsignal 15 eine Merkmalsverteilung 20 ermittelt wird und auf Grundlage der Merkmalsverteilung 20 Entscheidungsgrenzen 21 als Toleranzbereich ermittelt werden. Entscheidungsgrenzen können mittels einer Methode des maschinellen Lernens ML ermittelt werden. Speichert man diese Entscheidungsgrenzen 21 in einem Speicher 22 ab und die Testsignale 16 in einem Speicher 23, so kann in einem Test T3 eine maschinengelernte Fehlererkennung mit Referenz durchgeführt werden. Dies ist im Weiteren im Zusammenhang mit 7 beschrieben.The described threshold-based comparison in the test T2 can be further automated by adding, for each reference signal 15 a feature distribution 20 determined and based on the feature distribution 20 decision limits 21 be determined as a tolerance range. Decision boundaries can be determined by a machine learning method ML. Do you save these decision limits 21 in a store 22 off and the test signals 16 in a store 23 , so can be performed in a test T3 machine-learned error detection with reference. This is related to 7 described.

3 zeigt von der Bildsequenz 4 erfasste Einzelbilder 6. Jedes Einzelbild 6 stellt mehrere Schlüsselobjekte 11 dar, beispielsweise ein Fahrzeugsymbol 24 für das Eigenfahrzeug, eine geplante Fahrroute 25, eine Verkehrsflussanzeige 26, ein Straßenverlaufs 27. In der Regel sind diese Schlüsselobjekte 11 mit unterschiedlichen Farben dargestellt. Durch die Extraktion 10 können die Schlüsselobjekte 11 segmentiert oder separiert oder einzeln und unabhängig voneinander erkannt werden. Beispielsweise kann hierzu die Darstellungsfarbe als Extraktionskriterium oder Erkennungskriterium verwendet werden. 3 zeigt, wie durch die Extraktion 10 die Fahrroute 25, die Verkehrsflussanzeige 26 und der Straßenverlauf 27 separiert werden können. In einer Zusammenschau 28 ist noch einmal veranschaulicht, wie die Kombination 29 der Schlüsselobjekte 11 im Wesentlichen wieder das Einzelbild 6 ergibt. Zu jedem Schlüsselobjekt 11 kann nun für jedes Einzelbild 6 jeweils ein Merkmalswert 12 ermittelt werden. In dem veranschaulichten Beispiel kann beispielsweise die Anzahl N der Pixel, mit welchen das jeweilige Schlüsselobjekt 11 dargestellt wird, gezählt werden. 3 shows from the image sequence 4 captured frames 6 , Every single picture 6 Represents several key objects 11 represents, for example, a vehicle symbol 24 for the own vehicle, a planned driving route 25 , a traffic flow indicator 26 , a road 27 , In general, these are key objects 11 shown in different colors. By extraction 10 can the key objects 11 segmented or separated or individually and independently recognized. For example, the representation color can be used for this purpose as an extraction criterion or recognition criterion. 3 shows how through the extraction 10 the route 25 , the traffic flow indicator 26 and the road 27 can be separated. In a synopsis 28 is once again illustrated how the combination 29 the key objects 11 essentially the single frame again 6 results. To every key object 11 can now for each frame 6 one characteristic value each 12 be determined. For example, in the illustrated example, the number N of pixels with which the respective key object 11 will be counted.

4 veranschaulicht, wie dieses Objektmerkmal 30 (beispielsweise Anzahl N der Pixel) durch Kombinieren aller Merkmalswerte 12 des Objektmerkmals 30 zu einem Zeitsignal 14 kombiniert werden, das über der Zeit t die Veränderung oder Entwicklung des Objektmerkmals 30 beschreibt. 4 veranschaulicht den Zeitverlauf 14 für das Testsignal 16. 4 illustrates how this object feature 30 (for example, number N of pixels) by combining all the feature values 12 of the object characteristic 30 at a time signal 14 be combined over time t the change or development of the object feature 30 describes. 4 illustrates the passage of time 14 for the test signal 16 ,

Das Fehlerkriterium 7 kann nur für den Test T1 beispielsweise ein Schwellwertintervall 31 vorgeben, in welchem das Testsignal 16 liegen muss. Wird das Fehlerkriterium 7 verletzt, so liegt in diesem Fall das Zeitsignal 16 außerhalb des Schwellwertintervalls 31, sodass für diesen Bildfehler 32 das Hinweissignal 8 erzeugt wird. Das Hinweissignal 8 kann auch angeben, an welchem Zeitpunkt in der Bildsequenz 4 der Bildfehler 32 detektiert wurde.The error criterion 7 For example, only for the test T1 can a threshold interval be used 31 specify in which the test signal 16 must lie. Will the error criterion 7 injured, so in this case lies the time signal 16 outside the threshold interval 31 , so for this aberration 32 the warning signal 8th is produced. The warning signal 8th can also specify at what time in the image sequence 4 the picture error 32 was detected.

5 veranschaulicht, wie zwei Zeitsignale 14, nämlich ein Referenzsignal 15 und ein Testsignal 16, miteinander registriert werden können. Dazu wird zunächst mittels eines Re-Samplings oder einer Interpolation 19 (2) jedes Zeitsignal 14 auf eine vorgegebene Abtastrate angepasst, damit Merkmalswerte 12, die zu unterschiedlichen Zeitpunkten aufgenommen wurden, mit einem jeweils korrespondierenden Merkmalswert 12' zum gleichen Zeitpunkt verglichen werden können. 5 illustrates how two time signals 14 namely, a reference signal 15 and a test signal 16 , can be registered with each other. This is done first by re-sampling or interpolation 19 ( 2 ) every time signal 14 adapted to a given sampling rate, so that feature values 12 , which were recorded at different times, each with a corresponding feature value 12 ' can be compared at the same time.

5 veranschaulicht des Weiteren, wie mittels eines fensterbasierten Vergleichs 32 durch Verschieben 33 des Testsignals 16 gegenüber dem Referenzsignal 15 ein Offsetwert 34 ermittelt werden kann, um welchen das Testsignal 16 gegenüber dem Referenzsignal 15 über der Zeit t verschoben werden muss, damit sich abgesehen von Bildfehlern eine optimale Überdeckung der beiden Zeitsignale 14 ergibt. Als Vergleichsmaß kann für jeden zeitlichen Verschiebungswert beispielsweise die beschriebene Summe der absoluten Differenzen SAD berechnet werden. 5 further illustrates how by means of a window-based comparison 32 by moving 33 the test signal 16 opposite to the reference signal 15 an offset value 34 can be determined by which the test signal 16 opposite to the reference signal 15 must be shifted over the time t, so that apart from image errors, an optimal coverage of the two time signals 14 results. As a comparison measure, for example, the described sum of the absolute differences SAD can be calculated for each time shift value.

6 veranschaulicht dann, wie durch Subtrahieren des Referenzsignals 15 und des Testsignals 16 ein Differenzsignal 35 erzeugt werden kann, welches also den Unterschiedwert dN der Pixelanzahl in dem veranschaulichten Beispiel darstellt. In dem Test T2 kann nun als Fehlerkriterium 7 wieder ein Werteintervall 36 definiert sein, welches angibt, dass Differenzsignal 35 innerhalb des Werteintervalls 36 liegen muss, damit kein Fehler vorliegt. Neben dem Bildfehler 32, der auch bei der absoluten Werteanalyse im Test T1 erkannt wurde, kann nun durch Vergleich mit dem Referenzsignal 15 ein zweiter Bildfehler 37 in dem veranschaulichten Beispiel detektiert werden. 6 then illustrates how by subtracting the reference signal 15 and the test signal 16 a difference signal 35 that is, the difference dN of the number of pixels in the illustrated example. In the test T2 can now be used as an error criterion 7 again a value interval 36 be defined, which indicates that difference signal 35 within the value interval 36 must lie, so there is no error. In addition to the picture error 32 , which was also detected in the absolute value analysis in the T1 test, can now be compared with the reference signal 15 a second mistake 37 be detected in the illustrated example.

7 veranschaulicht, wie für den Test T3 mittels des maschinellen Lernens zunächst ein Fehlerkriterium 7 in Form einer Entscheidungsgrenze 38 ermittelt werden kann. Hierzu werden zwei Referenzsignale 15, 15' für zwei Schlüsselobjekte 11 ermittelt. Beispielsweise sei im Folgenden angenommen, dass es sich bei den beiden Schlüsselobjekten 11 um den Verkehrsfluss 26 („speed & flow”) und den Straßenverlauf 27 handelt. Aus diesem Grund wird auf dieses Beispiel im Weiteren als „Speed-and-Flow-Beispiel” verwiesen. Als Objektmerkmal 30 wird dabei jeweils in dem Beispiel wieder die Anzahl N der angezeigten Pixel ausgewertet. Hierbei wird jedes Referenzsignal 15, 15' einzeln für jeden Zeitpunkt betrachtet, sodass also die einzelnen Signalwerte der beiden Referenzsignals 15, 15' aufgetragen werden. Durch Kombinieren eines jeweiligen Signalwerts des Referenzsignals 15 und des Referenzsignals 15' zu einem gegebenen Zeitpunkt ergibt sich jeweils ein Datenpunkt 39, von denen in 7 der Übersichtlichkeit halber nur einige mit einem Bezugszeichen versehen sind. Mittels des maschinellen Lernens ML kann nun beispielsweise durch Anwenden von radialen Basisfunktionen die Entscheidungsgrenze 38 ermittelt werden, welche die meisten oder alle Datenpunkte 39 einschließt. Durch Einstellen eines an sich bekannten Parameters des maschinellen Lernens ML können alternative Grenzverläufe 40 für die Entscheidungsgrenze 38 festgelegt werden, wodurch mittels des Parameters also die Fehlerrate eingestellt werden kann. 7 illustrates, as for the test T3 by means of machine learning first an error criterion 7 in the form of a decision boundary 38 can be determined. For this purpose, two reference signals 15 . 15 ' for two key objects 11 determined. For example, it is assumed below that the two key objects 11 around the traffic flow 26 ("Speed &flow") and the road 27 is. For this reason, reference is made to this example below as "speed-and-flow example". As object feature 30 In this case, the number N of pixels displayed is again evaluated in the example in each case. Hereby every reference signal becomes 15 . 15 ' considered individually for each time, so that so the individual signal values of the two reference signal 15 . 15 ' be applied. By combining a respective signal value of the reference signal 15 and the reference signal 15 ' at any given time, one data point will result 39 of which in 7 for clarity, only a few are provided with a reference numeral. By means of machine learning ML, for example, by applying radial basis functions, the decision boundary 38 to determine which most or all data points 39 includes. By setting a per se known machine learning parameter ML, alternative borderlines can be created 40 for the decision limit 38 can be set, so by means of the parameter so the error rate can be set.

In dem Test T3 können nun entsprechende Datenpunkte 41 einer Testsequenz TEST ermittelt werden. Liegen diese Datenpunkte 41 außerhalb der Entscheidungsgrenze 38, so wird hierdurch ebenfalls ein Bildfehler 42 in der Testsequenz TEST erkannt.In test T3, corresponding data points can now be used 41 a test sequence TEST be determined. Are these data points 41 outside the decision boundary 38 , so this is also an aberration 42 detected in the test sequence TEST.

Die anhand des Ausführungsspeispiels konkret beschriebenen Ausführungsformen des erfindungsgemäßen Verfahrens können abgewandelt werden, um den Test des Navigationssystems 1 an unterschiedliche Testbedingungen anzupassen. Hierzu sind im Folgenden weitere Hinweise für die Abwandlung gegeben.The embodiments of the method according to the invention which are described concretely with reference to the exemplary embodiment can be modified in order to test the navigation system 1 adapt to different test conditions. For this purpose, further notes for the modification are given below.

Das vorgestellte Konzept basiert auf der wiederholten Aufnahme des Navigation-Bildschirminhalts bei gleichbleibender Strecke. Neben dem bekannten Demo-Modus der Navigation ist dies insbesondere durch die seit kurzem verfügbare Technologie des Sensordatenreplays möglich: die Sensordaten einer mehrstündigen, realen Fahrt werden im Labor erneut in die Navigation eingespielt. Der Aufnahme des ersten Laufs wird im Folgenden als Referenz-Sequenz bezeichnet, die Aufnahmen aller nachfolgenden Aufnahmen als Test-Sequenzen.The concept presented is based on the repetitive recording of the navigation screen content at the same distance. In addition to the well-known demo mode of navigation, this is made possible in particular by the recently available technology of sensor data replays: the sensor data of a several-hour, real drive are re-recorded in the lab in the navigation. The recording of the first run is referred to below as the reference sequence, the recordings of all subsequent recordings as test sequences.

Das Verfahren umfasst grundsätzlich drei Komponenten:

  • 1. Berechnung von Schlüsselobjekt-Merkmalsverläufen
  • 2. Synchronisierung der Sequenzen, sowie
  • 3. Fehlererkennung mit/ohne maschinellem Lernen
The process basically comprises three components:
  • 1. Calculation of key object feature histories
  • 2. Synchronization of the sequences, as well
  • 3. Error detection with / without machine learning

In Kombination miteinander erlauben diese drei Komponenten eine referenzbasierte, automatisierte Erprobung der Navigation, welche die vier beschriebenen Nachteile behebt bzw. deutlich reduziert. Zudem können seltene, noch unbekannte Navigationsfehler ohne explizite Modellierung des Fehlers automatisiert erkannt werden. 2 zeigt die prinzipielle Prozesskette des vorgestellten Konzepts. Je nach Entscheidung, ob eine Fehlererkennung mit/ohne Referenzsequenz sowie mit/ohne maschinellem Lernen erfolgen soll, gelten unterschiedliche Vorgehensweisen, die mit den entsprechenden Pfeilen angedeutet sind.In combination with each other, these three components allow a reference-based, automated testing of the navigation, which eliminates or significantly reduces the four disadvantages described. In addition, rare, as yet unknown navigation errors can be detected automatically without explicit modeling of the error. 2 shows the basic process chain of the presented concept. Depending on the decision as to whether an error detection with / without reference sequence as well as with / without machine learning should take place, different procedures apply, which are indicated with the appropriate arrows.

Die Grundlage bildet die Definition von elementaren Objekten der Navigation, hier Schlüsselobjekte genannt. Diese Schlüsselobjekte erlauben eine einfache Charakterisierung des Verhaltens wichtiger Navigationselemente sowie einen Verzicht auf traditionelle Mustererkennung (= ”Pattern Matching”, Vergleich von Texturinhalten). 3 verdeutlicht dies mit einem Beispiel. Hier sind die Objekte Route, Speed & Flow sowie Straßen exemplarisch als Schlüsselobjekte gewählt worden. Jedes der gewählten Schlüsselobjekte wird anhand der zugehörigen Farbe im Frame erkannt und extrahiert. Anschließend wird für jedes Schlüsselobjekt ein charakterisierendes Schlüsselobjekt-Merkmal berechnet (= Zahl), beispielsweise die Anzahl N der Pixel dieses Objekts. Über die Sequenz ergibt sich so für jedes Schlüsselobjekt ein Schlüsselobjekt-Merkmalsverlauf (= Kurve oder Zeitsignal), der das Verhalten des Schlüsselobjekts zuverlässig abbildet und mit einer fehlerfreien Referenzsequenz vergleichbar macht.The basis is the definition of elementary objects of navigation, here called key objects. These key objects allow a simple characterization of the behavior of important navigation elements as well as a renunciation of traditional pattern recognition (= "Pattern Matching", comparison of texture content). 3 clarifies this with an example. Here, the objects Route, Speed & Flow and Roads have been selected as key objects. Each of the selected key objects is recognized and extracted by the associated color in the frame. Then, for each key object, a characterizing key object feature is calculated (= number), for example the number N of pixels of this object. The sequence results in a key object characteristic curve (= curve or time signal) for each key object, which reliably maps the behavior of the key object and makes it comparable to a defect-free reference sequence.

Es sei angemerkt, dass dieses Konzept beliebig anpassbar/erweiterbar ist. Beispiele einer möglichen Anpassung/Erweiterung wären:

  • 1. Definition zeitlicher Schlüsselobjekt-Merkmale, beispielsweise von affinen Bewegungsparametersätzes zwischen Einzelbildern oder Frames,
  • 2. Extrahierung der Schlüsselobjekte nicht aufgrund der Farbe, sondern aufgrund (einfacher) Mustererkennungsalgorithmen,
  • 3. Berechnung eines Schlüsselobjekt-Merkmalstupels, also eines mehrdimensionalen Merkmals (siehe Bewegungsparametersatz),
  • 4. Einbeziehung von Kontexten und Korrelationen bei der Berechnung und Verarbeitung von Schlüsselobjekt-Merkmalen und Schlüsselobjekt-Merkmalsverläufen (z. B. Einbeziehung von Bewegungsparametersätzen bei der Threshold- oder ML-basierten Fehlererkennung, Threshold-Schwellwert).
It should be noted that this concept is arbitrarily adaptable / expandable. Examples of a possible adaptation / extension would be:
  • 1. Definition of temporal key object features, for example of affine motion parameter etching between individual frames or frames,
  • 2. extraction of the key objects not by color but by (simple) pattern recognition algorithms,
  • 3. calculation of a key object feature tuple, ie of a multi-dimensional feature (see motion parameter set),
  • 4. Inclusion of contexts and correlations in the calculation and processing of key object characteristics and key object feature histories (eg inclusion of motion parameter sets in threshold or ML-based error detection, Threshold Threshold).

Die Verfügbarkeit einer Referenzsequenz (2, links) ermöglicht zudem den Einsatz von Methoden des maschinellen Lernens (Machine Learning, ML). Ein Beispiel hierfür ist die Novelty Detection, ein Ein-Klassen-Klassifizierungsverfahren, das eng mit der statistischen Ausreißererkennung verwandt ist. Im Rahmen von Tests wurde die Novelty Detection experimentell mit der Schlüsselobjekt-Merkmalsberechnung kombiniert und so angepasst, dass ein Erlernen des zu erwartenden Verhaltens bestimmter Schlüsselobjekt-Merkmale anhand der Referenz-Sequenz möglich wird.The availability of a reference sequence ( 2 , left) also allows the use of machine learning (ML) methods. An example of this is Novelty Detection, a one-class classification method that is closely related to statistical outlier detection. As part of testing, Novelty Detection has been experimentally combined with key object feature calculation and adapted to allow learning of the expected behavior of certain key object features based on the reference sequence.

Dies ermöglicht, eine beliebige Anzahl an Test-Wiederholungen (= Test-Sequenzen) automatisiert in den so erlernten Klassifizierer zu geben und seltene Fehler anhand möglichem „unerwartetem” Verhalten zu identifizieren. Im Vergleich mit schwellwertbasierten oder threshold-basierten Fehlererkennungsmechanismen vereinfacht sich die Auswertung durch den Menschen zusätzlich, da der Rechner das zu erwartende Verhalten der Schlüsselobjekte erlernt hat, dieses Wissen mittels Klassifizierer abbildet und damit aus hunderten Stunden Test-Wiederholungen lediglich ungewöhnliche Ereignisse an den Tester (Mensch) weitergibt. Dies entspricht im Grunde einer referenzbasierten Aufbereitung und Filterung vorhandener Schlüsselobjekt-Information.This allows any number of test iterations (= test sequences) to be automatically entered into the classifier thus learned and to identify rare bugs based on possible "unexpected" behavior. In comparison with threshold-based or threshold-based error detection mechanisms, the evaluation by humans is simplified in addition, since the computer has learned the expected behavior of the key objects, this knowledge using classifier maps and thus from hundreds of hours of test iterations only unusual events to the tester ( Human). This basically corresponds to a reference-based preparation and filtering of existing key object information.

In Kombination miteinander erlauben die drei Komponenten

  • 1. Berechnung von Schlüsselobjekt-Merkmalsverläufen
  • 2. Synchronisierung der Sequenzen, sowie
  • 3. Fehlererkennung mit/ohne maschinellem Lernen
eine Erprobung der Navigation in automatisierter Form. Zusammengefasst weist die vorgestellte Idee folgende Vorteile auf:In combination with each other allow the three components
  • 1. Calculation of key object feature histories
  • 2. Synchronization of the sequences, as well
  • 3. Error detection with / without machine learning
a trial of navigation in automated form. In summary, the idea presented has the following advantages:

1. Geringer Modellierungsaufwand1. Low modeling effort

Die Notwendigkeit zur Modellierung von Fehlerverhalten (explizit oder implizit) entfällt größtenteils, da eine Referenzsequenz für einen rechnergestützten Vergleich zur Verfügung steht und der Vergleich mittels der vorgestellten Synchronisierung zuverlässig durchgeführt werden kann.The need to model error behavior (explicit or implicit) is largely eliminated because a reference sequence is available for a computational comparison and the comparison can be performed reliably using the presented synchronization.

2. Reduzierte Rechenkomplexität2. Reduced computational complexity

Der Rechenaufwand für komplexe Mustererkennung entfällt, die Berechnung kann in annähernd Echtzeit durchgeführt werden. Der Großteil des nötigen Aufwands setzt sich aus logische Indizierung, Kurveninterpolation sowie, falls gewünscht, dem Erlernen der Decision Boundary zusammen (einmalig).The computational effort for complex pattern recognition is eliminated, the calculation can be performed in approximately real time. Most of the effort involved is logical indexing, curve interpolation and, if desired, learning the decision boundary together (once).

3. Reduzierter Auswerteaufwand3. Reduced evaluation effort

Die Abbildung elementarer Schlüsselobjekte der Navigation als einfache Kurvenverläufe sowie deren Differenzwertbildung nach erfolgter Synchronisation erlauben erstmals eine zeitliche Aufbereitung des Bildinhalts ganzer Testläufe in Plot-Form. Gängige Auswerte-Softwarewerkzeuge wie EXAM unterstützen dies nicht: die Sequenz muss stets in einem Videoplayer oder Einzelbild-Browser („Picture Browser”) in ganzer Länge mit dem Auge geprüft werden. Durch die Repräsentation des Navigations-Bildinhalts in Kurvenform wird eine schnelle, unkomplizierte Bewertung des jeweiligen Testlaufs durch den Tester (Mensch) möglich.The mapping of elementary key objects of the navigation as simple curves and their difference value formation after synchronization allow for the first time a temporal processing of the image content of entire test runs in plot form. Common evaluation software tools such as EXAM do not support this: the sequence must always be checked by eye in a full-length video player or full-length picture browser. Through the representation of the navigation image content in the form of a curve, a quick, uncomplicated evaluation of the respective test run by the tester (human) is possible.

4. Nutzung von Referenz-Information4. Use of reference information

Durch das beschriebene Konzept der Merkmale und Merkmalsverläufe von Schlüsselobjekten, kombiniert mit der vorgestellten Synchronisierung, besteht nun erstmals die Möglichkeit, mit geringem Aufwand einen rechnergestützten Vergleich gegen eine fehlerfrei Referenzsequenz durchzuführen. Der Tester hat damit die Möglichkeit, den ersten Lauf (= Referenzsequenz REF) mit dem Auge auf Fehlerfreiheit zu prüfen, und den Test anschließend bei minimalem Auswerteaufwand beliebig oft zu wiederholen (automatisierte Prüfung der Testsequenzen TEST).Due to the described concept of features and feature histories of key objects, combined with the presented synchronization, it is now possible for the first time to carry out a computer-aided comparison against an error-free reference sequence with little effort. The tester thus has the opportunity to check the first run (= reference sequence REF) with the eye for freedom from errors, and then to repeat the test as often as desired with minimal evaluation effort (automated test of the test sequences TEST).

5. Erkennung seltener und unbekannter Fehler5. Detection of rare and unknown errors

Die Nutzbarkeit einer Referenz-Sequenz kann als implizite Modellierung unbekannter Fehler (bzw. als explizite Modellierung des zu erwartenden Verhaltens) interpretiert werden. Dies wiederum ermöglicht, unbekannte Fehler anhand ihres unerwarteten Schlüsselobjekt-Verhaltens zu identifizieren, ohne mit massivem Aufwand implizite Modelle zu erstellen und zu pflegen. Die Identifikation seltener, unbekannter Fehler ist ein große Herausforderung im Bereich der automatisierten Navigationserprobung.The usability of a reference sequence can be interpreted as an implicit modeling of unknown errors (or as an explicit modeling of the expected behavior). This in turn makes it possible to identify unknown errors based on their unexpected key-object behavior without creating and maintaining implicit models with massive effort. The identification of rare, unknown errors is a major challenge in the field of automated navigation testing.

6. Machine Learning ML 6. Machine Learning ML

Durch das beschriebene Konzept der Merkmale bzw. Merkmalsverläufe von Schlüsselobjekten können erwartete Eigenschaften bzw. erwartetes Verhalten als Merkmals-Tupel interpretiert werden. Im Machine Learning bilden diese Merkmals-Tupel (auch genannt „Features”) die Grundlage für die Berechnung eines beschreibenden Modells (= Training eines Modells). Das Modell (oft ein Parametersatz eines „Kernels”, wie beispielsweise des RBF-Kernels) kann anschließend zur Klassifizierung von Features unbekannter Klassen genutzt werden. Das vorgestellte Konzept erschließt somit das Feld des Machine Learnings für zukünftige Ansätze.Due to the described concept of features or characteristic curves of key objects, expected properties or expected behavior can be interpreted as feature tuples. In machine learning, these feature tuples (also called "features") form the basis for the calculation of a descriptive model (= training of a model). The model (often a parameter set of a "kernel" such as the RBF kernel) can then be used to classify features of unknown classes. The presented concept thus opens up the field of machine learning for future approaches.

7. Zeitliche. Merkmale, Berechnung eines Kontextes7. Temporal. Characteristics, calculation of a context

Das vorgestellte Konzept der Merkmale bzw. Merkmalsverläufe von Schlüsselobjekten nutzt momentan „örtliche Merkmale” (→ Pixelanzahl von extrahierten Schlüsselobjekten). „Zeitliche Merkmale” wie beispielsweise die Bewegung zwischen Frames können in Zukunft ebenfalls Betrachtung finden. Ebenso ist die Einführung eines „Kontextes” möglich, also einer Fehlererkennung auf Basis der näheren Vergangenheit des betrachteten Merkmalsverlaufs sowie in Korrelation mit anderen Merkmalsverläufen. Es ist wahrscheinlich, dass ein automatisches „Erlernen” dieser Netzwerke (Bayes-Netzwerke) anhand der Referenzsequenz eine einfache Lösung für eine unkomplizierte, wartungsarme Erprobung der Navigation darstellt.The presented concept of features or characteristic curves of key objects currently uses "local features" (→ number of pixels of extracted key objects). "Temporal features" such as the movement between frames can also be considered in the future. Likewise, the introduction of a "context" is possible, ie an error detection on the basis of the nearer past of the considered characteristic course as well as in correlation with other characteristic courses. It is likely that an automatic "learning" of these networks (Bayesian networks) based on the reference sequence is a simple solution for an uncomplicated, low-maintenance testing of the navigation.

Nachfolgend wird die technische Umsetzung der vorgestellten Idee im Prinzip beschrieben.In the following, the technical implementation of the presented idea will be described in principle.

Berechnung von Schlüsselobjekt-MerkmalsverläufenCalculation of Key Object Characteristics

Statt der Suche nach Texturähnlichkeiten (Pattern Matching, Mustererkennung) erfolgt die Identifikation von elementaren Navigationselementen mittels einer farbbasierten Extraktion. Diese elementaren Objekte werden nachfolgend als Schlüsselobjekte bezeichnet. Weitere wichtige Begriffe sind im Folgenden zudem Schlüsselobjekt-Merkmal sowie Schlüsselobjekt-Merkmalsverlauf.Instead of searching for texture similarities (pattern matching, pattern recognition), elementary navigation elements are identified by means of color-based extraction. These elementary objects are referred to below as key objects. Other important terms in the following are also the key object characteristic and the key object characteristic course.

Je nach Zielsetzung der automatisierten Tests können die Schlüsselobjekte unterschiedlich gewählt werden. Beispiele für Schlüsselobjekte sind Straßen, Route, Speed & Flow, Fahrzeugsymbol oder andere (siehe beispielhaft 3). Es wird dabei Nutzen aus der Tatsache gezogen, dass diese Schlüsselobjekte typischerweise einfarbig sind (dient dem Zwecke der übersichtlichen grafischen Aufbereitung der Navigation). Mit Hilfe des Merkmals Farbe kann das Schlüsselobjekt als Ansammlung von Pixeln eindeutig extrahiert werden. Die Pixelanzahl ergibt das Schlüsselobjekt-Merkmal. Auch andere Schlüsselobjekt-Merkmale als die reine Pixelanzahl sind denkbar. Wichtig für eine nachfolgende Synchronisierung und Fehlererkennung ist aber, dass das Schlüsselobjekt-Merkmal pro Frame einer einzelnen Zahl entspricht. Dies gewährleistet, dass das Verhalten eines Schlüsselobjekts anhand eines einfachen, aber repräsentativen Kurvenverlaufs für die gesamte betrachtete Sequenz einfach charakterisiert werden kann. Ein Schlüsselobjekt-Merkmalsverlauf ist in 4 exemplarisch dargestellt. Zudem unterstützt diese Konvention eine grafische Aufbereitung und damit die Auswertung durch den Tester (Mensch). Es hat sich gezeigt, dass eine Vereinfachung auf ein Ein-Zahlen-Merkmal einen optimaler Tradeoff darstellt zwischen eindeutiger Charakterisierung und Handhabbarkeit der Merkmalsverläufe.Depending on the purpose of the automated tests, the key objects can be chosen differently. Examples of key objects are roads, route, speed & flow, vehicle symbol or others (see, for example) 3 ). It is taken advantage of the fact that these key objects are typically monochrome (used for the purpose of clear graphical presentation of the navigation). With the help of the color feature, the key object can be uniquely extracted as a collection of pixels. The number of pixels gives the key object feature. Other key object features than the pure number of pixels are conceivable. However, it is important for subsequent synchronization and error detection that the key object feature per frame corresponds to a single number. This ensures that the behavior of a key object can be easily characterized using a simple but representative waveform for the entire sequence under consideration. A key object feature history is in 4 exemplified. In addition, this convention supports graphical processing and thus the evaluation by the tester (human). It has been shown that simplification to a one-number feature represents an optimal tradeoff between unambiguous characterization and manageability of the feature histories.

Aus diesen Verläufen kann gezielt auf die korrekte Funktion der einzelnen Schlüsselobjekte der Navigation geschlossen werden (mehr dazu unter Fehlererkennung mit/ohne maschinellem Lernen). Sie sind zudem essentiell für die Behebung der Nachteile Modellierungsaufwand und Rechenkomplexität: In ihnen ist implizit das erwartete Verhalten modelliert, die Komplexität beschränkt sich auf eine logische Indizierung und eine Merkmalsberechnung (hier: Summe der Schlüsselobjektpixel). Die Schlüsselobjekt-Merkmalsverläufe schaffen zudem die Grundvoraussetzung für die Nutzbarkeit einer Referenzsequenz, was die Suche nach seltenen Fehlern erheblich vereinfacht.From these processes it is possible to deduce the correct function of the individual key objects of the navigation (more on this under Error detection with / without machine learning). They are also essential for resolving the disadvantages of modeling effort and computational complexity: they implicitly model the expected behavior; the complexity is limited to logical indexing and a feature calculation (here: the sum of the key object pixels). The key object feature trajectories also create the basic requirement for the usability of a reference sequence, which considerably simplifies the search for rare errors.

Synchronisierung der SequenzenSynchronization of the sequences

Der Komponente Synchronisierung ist essentiell, um die Schlüsselobjekt-Merkmalsverläufe einer Test-Sequenz mit einer bereits geprüften, fehlerfreien Referenz-Sequenz automatisiert vergleichen zu können. Dieser Referenzvergleich ist hochgradig interessant, da er ein wirkungsvolles Werkzeug zur Erkennung bisher unbekannter Fehler darstellt (explizite Modellierung des Fehlers nicht möglich, implizite Modellierung mit hohem Aufwand verbunden). Dieser Referenzvergleich kann nur durchgeführt werden, falls für den zu vergleichenden Zeitabschnitt annähernde Synchronität der beiden Zeitachsen sichergestellt ist. Angesichts der variierenden Frameraten, der asynchronen, internen Clocks der Framegrabber sowie der Auslastung der Prüfstands-PCs ist dies nicht trivial. Die Synchronisierung setzt sich aus zwei einfachen Schritten zusammen:

  • 1. Interpolationsschritt: Die Schlüsselobjekt-Merkmale aller Frames einer Sequenz stellen eine Serie an Einzelwerten dar (→ Merkmalsverlauf). Diese Einzelwerte sind als Abtastwerte zu gewissen Zeitpunkten anzusehen. Die Abtastung besitzt eine variierende Abtastrate. Es ist daher nötig, diese unregelmäßige Abtastung so zu interpolieren, dass zu jedem regulären Zeitschritt (z. B. jede Sekunde) ein Abtastwert (= Schlüsselobjekt-Merkmal) existiert.
  • 2. Registrierungsschritt: Der Registrierungsschritt beinhaltet einen fensterbasierten Vergleich der interpolierten Merkmalsverläufe von Referenz-Sequenz und Test-Sequenz. Dabei wird für jede Position der SAD (Summe der Absoluten Differenzen) der Schlüsselobjekt-Merkmale berechnet und jene Position für die Registrierung verwendet, die den minimalen SAD aufweist.
The Synchronization component is essential in order to be able to automatically compare the key object characteristic curves of a test sequence with an already tested, error-free reference sequence. This reference comparison is highly interesting because it is an effective tool for detecting previously unknown errors (explicit modeling of the error is not possible, implicit modeling requires a lot of effort). This reference comparison can only be performed if the synchronizing of the two time axes is ensured for the time period to be compared. Given the varying frame rates, the asynchronous, internal clocks of the frame grabber and the load of the test bench PCs, this is not trivial. Synchronization consists of two simple steps:
  • 1. Interpolation step: The key object characteristics of all frames of a sequence represent a series of individual values (→ characteristic curve). These individual values are to be regarded as samples at certain points in time. The sample has a varying sampling rate. It is therefore necessary to interpolate this irregular sampling such that at each regular time step (e.g. Second) a sample (= key object feature) exists.
  • 2. Registration Step: The registration step includes a window-based comparison of the interpolated feature trajectories of reference sequence and test sequence. In this case, for each position, the SAD (sum of absolute differences) of the key object features is calculated and the position for the registration that has the minimum SAD is used.

Mittels dieser Synchronisierung kann ein Abschnitt in der Test-Sequenz eindeutig dem entsprechenden Abschnitt in der Referenz-Sequenz zugeordnet werden. Die Synchronisierung macht einen zuverlässigen, aussagekräftigen Vergleich zweier Sequenzen möglich, selbst bei langen Aufnahmezeiten.By means of this synchronization, a section in the test sequence can be uniquely assigned to the corresponding section in the reference sequence. The synchronization makes a reliable, meaningful comparison of two sequences possible, even with long recording times.

Fehlererkennung mit/ohne maschinellem LernenError detection with / without machine learning

Die Fehlererkennung dient dem Zweck, ein oder mehrere fehlerhafte Frames (in Serie oder verteilt über die Sequenz) als fehlerhaft zu erkennen und dem Tester (Mensch) zur finalen Begutachtung weiterzureichen. Dabei ist eine hohe Zahl an falsch gemeldeten Fehlern (False Positives, Fehler existiert nicht in Realität) zu vermeiden, das sonst die finale Auswertung durch den Tester erheblich erschwert wird. Grundsätzlich sind drei unterschiedliche Vorgehensweisen zur automatisierten Fehlererkennung mittels des in dieser Erfindungsmeldung beschriebenen Verfahrens möglich (vergleiche 2):

  • 1. Threshold-basierte Fehlererkennung, ohne Referenz (Test T1)
  • 2. Threshold-basierte Fehlererkennung, mit Referenz (Test T2)
  • 3. Machine-Learning-basierte Fehlererkennung, mit Referenz (Test T3)
The purpose of error detection is to recognize one or more faulty frames (in series or distributed over the sequence) as faulty and to pass it on to the tester (human) for the final assessment. In this case, a high number of incorrectly reported errors (false positives, errors does not exist in reality) to avoid, otherwise the final evaluation by the tester is considerably more difficult. Basically, three different approaches to automated error detection by means of the method described in this invention message possible (see 2 ):
  • 1. Threshold-based error detection, without reference (test T1)
  • 2. Threshold-based error detection, with reference (test T2)
  • 3. Machine-learning-based error detection, with reference (test T3)

T1: Threshold-basierte Fehlererkennung, ohne ReferenzT1: Threshold-based error detection, without reference

Dies ist der einfachste Ansatz, allerdings mit einer signifikanten Zahl an False-Positives, und nur geeignet für einige Schlüsselobjekte. Ein Algorithmus prüft die Maximal-/Minimalwerte eines Merkmalsverlaufs und entscheidet, ob sie einen definierten Threshold über-/unterschreiten. Auch das Sprungverhalten des Merkmalsverlaufs kann geprüft werden (via Differenzen, z. B. interessant bei blauer Route oder Straßennetz). 4 zeigt ein Beispiel. Es hat sich zudem gezeigt, dass eine Gewichtung des Sprungverhaltens mit dem jeweiligen Abtast-Intervall die Zahl der False-Positives deutlich reduzieren kann.This is the simplest approach, but with a significant number of false positives, and only suitable for a few key objects. An algorithm checks the maximum / minimum values of a characteristic curve and decides whether they exceed or fall below a defined threshold. The jumping behavior of the characteristic curve can also be checked (via differences, eg interesting with blue route or road network). 4 shows an example. It has also been shown that a weighting of the jump behavior with the respective sampling interval can significantly reduce the number of false positives.

T2: Threshold-basierte Fehlererkennung, mit ReferenzT2: Threshold-based error detection, with reference

Durch Synchronisierung und Referenzsequenz-Vergleich existiert erheblich mehr Information über den erwarteten Schlüsselobjekt-Merkmalsverlauf als bei einem referenzlosen Vergleich. Für jedes Schlüsselobjekt ist somit eine präzise Differenzwertberechnung zwischen Referenz- und Test-Merkmalsverlauf möglich. Für manche Schlüsselobjekte ist eine Glättung des Differenzverlaufs (z. B. Faltung mit Gauss-Kurve) vor einer nachfolgenden Threshold-Berechnung sinnvoll.Through synchronization and reference sequence comparison, there is considerably more information about the expected key object feature history than with a referenceless comparison. For each key object, a precise calculation of the difference value between the reference and the test characteristic course is thus possible. For some key objects, smoothing the difference curve (eg convolution with Gauss curve) before a subsequent threshold calculation makes sense.

T3: Machine-Learning-basierte Fehlererkennung, mit ReferenzT3: Machine-learning-based error detection, with reference

Es hat sich gezeigt, dass sich bestimmte Schlüsselobjekt-Merkmale für eine Auswertung durch statistische Klassifizierungsmethoden eignen. Es ist damit möglich, Ansätze des maschinellen Lernens (Machine Learning, ML) auf die berechneten Schlüsselobjekt-Merkmale und Schlüsselobjekt-Merkmalsverläufe anzuwenden. Zum Zwecke der Untersuchung dieser Möglichkeit wurde das sog. Novelty-Detection-Verfahren auf die Merkmale Speed & Flow sowie Street Network angewendet.It has been found that certain key object characteristics are suitable for evaluation by statistical classification methods. It is thus possible to apply Machine Learning (ML) approaches to the calculated key object characteristics and key object feature histories. For the purpose of investigating this possibility, the so-called Novelty Detection method was applied to the characteristics Speed & Flow and Street Network.

Es sei angemerkt, dass auch mehr als zwei Schlüsselobjekt-Merkmale in ihrer Korrelation erlernt werden können. Der höherdimensionale Merkmalsraum macht allerdings eine einfache Visualisierung der Ergebnisse schwierig.It should be noted that also more than two key object features can be learned in their correlation. However, the higher-dimensional feature space makes it difficult to easily visualize the results.

Das prinzipielle Vorgehen lässt sich anhand des obigen Speed-and-Flow-Beispiels (7) in drei Schritten beschreiben:The basic procedure can be deduced from the above-mentioned speed-and-flow example ( 7 ) describe in three steps:

1. Training mittels Referenz-Sequenz1. Training by reference sequence

Anhand der Referenz-Sequenz wird z. B. die Korrelation „gewöhnlicher” Speed & Flow-Merkmale zu Street-Network-Merkmalen (SF-vs-SN) erlernt. Jeder verarbeitete Frame ergibt einen Datenpunkt 39 (7). Anhand dieser Datenpunkte 39 wird mittels eines RBF-Kernels eine Entscheidungsgrenze oder Decision Boundary 38 berechnet. Es existiert damit eine mathematische Beschreibung des zu erwartenden Verhaltens. Außerhalb der Decision Boundary 38 werden Datenpunkte (= Frames) als fehlerhaft klassifiziert.Based on the reference sequence z. For example, the correlation of "common" Speed & Flow features to Street Network features (SF-vs-SN) is learned. Each processed frame yields one data point 39 ( 7 ). Based on these data points 39 becomes a decision boundary or decision boundary by means of an RBF kernel 38 calculated. There is thus a mathematical description of the expected behavior. Outside the decision boundary 38 Data points (= frames) are classified as faulty.

2. Verarbeitung einer Test-Sequenz2. Processing a test sequence

Dies sei an zwei Beispielen verdeutlicht. Beispiel 1: Verarbeitung einer fehlerfreien Test-Sequenz. Die SF-vs-SN Datenpunkte betten sich erwartungsgemäß im Bereich fehlerfreier SF-vs-SN Datenpunkte ein, d. h. innerhalb der Decision Boundary 38. Beispiel 2: Verarbeitung einer fehlerhaften Test-Sequenz (gestörtes Speed & Flow Verhalten). Die SF-vs-SN Datenpunkte 42 der gestörten Frames liegen abseits der erwarteten Verteilung, d. h. außerhalb der Decision Boundary 38.This is illustrated by two examples. Example 1: Processing of an error-free test sequence. As expected, SF-vs-SN data points embedded in error-free SF-vs-SN data points, ie within the decision boundary 38 , Example 2: Processing of a faulty test Sequence (disturbed speed & flow behavior). The SF vs SN data points 42 the disturbed frames are off the expected distribution, ie outside the decision boundary 38 ,

3. Fehlererkennung mittels Decision Boundary 38 3. Error detection using decision boundary 38

Die Fehlererkennung 42 kann somit mittels der erlernten Decision Boundary 38 erfolgen. Da das Verhalten der ausgewählten Schlüsselobjekte anhand der Referenz-Sequenz erlernt wurde und mittels der Decision Boundary abgebildet wird, ist somit eine automatisierte Fehlererkennung für jedes eingehende Navigations-Frame möglich.The error detection 42 can thus by means of the learned Decision Boundary 38 respectively. Since the behavior of the selected key objects has been learned based on the reference sequence and is mapped using the decision boundary, automated error detection is thus possible for each incoming navigation frame.

Bei der in Schritt 1 erlernten Decision Boundary 38 ist wichtig, die zur Berechnung notwendigen Parameter der Novelty Detection so zu wählen, dass ein möglichst umfassender Einschluss aller Datenpunkte der fehlerfreien Referenzsequenz gewährleistet ist. Dies kann über den bekannten Parameter „v” („Nu”) erfolgen. Dieser Parameter im Bereich 0 bis 1 entspricht dem Verhältnis der Trainingsfehler zur Gesamtanzahl der Trainings-Datenpunkte und wirkt als obere Grenze für die maximal erlaubten Trainingsfehler. Ein v <= 0.01 hat sich als völlig ausreichend für die getesteten Navigationssequenzen erwiesen (7).In the Decision Boundary learned in step 1 38 It is important to select the parameters of the Novelty Detection that are necessary for the calculation in such a way that the most comprehensive possible inclusion of all data points of the error-free reference sequence is guaranteed. This can be done via the known parameter "v"("Nu"). This parameter in the range 0 to 1 corresponds to the ratio of the training errors to the total number of training data points and acts as an upper limit for the maximum permitted training errors. A v <= 0.01 has proven to be completely sufficient for the tested navigation sequences ( 7 ).

Insgesamt zeigt das Beispiel, wie durch die Erfindung Navigationsfehler mittels Schlüsselobjekt-Analyse und Referenzsequenz-Vergleich erkannt werden können.Overall, the example shows how navigation errors by means of key object analysis and reference sequence comparison can be detected by the invention.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102012009876 A1 [0003] DE 102012009876 A1 [0003]
  • DE 102008012697 A1 [0004] DE 102008012697 A1 [0004]
  • DE 102013015145 A1 [0005] DE 102013015145 A1 [0005]

Claims (10)

Verfahren zum Testen eines Navigationssystems (1), wobei durch eine Testvorrichtung (2): – in einem Testdurchlauf (9) Sensordaten (5), die eine Fahrt eines Kraftfahrzeugs beschreiben, in das Navigationssystem (1) eingespeist oder innerhalb des Navigationssystems (1) simuliert werden, und – Einzelbilder (6) einer Bildsequenz (4), die das Navigationssystem (1) in Abhängigkeit von einem vorgegebenen Navigationsziel und den Sensordaten (5) erzeugt, erfasst werden, wobei jedes Einzelbild (6) eine Kombination (29) aus graphischen Schlüsselobjekten (11) darstellt, und – zumindest eines der graphischen Schlüsselobjekte (11) anhand von Konfigurationsdaten ausgewählt wird und – in den Einzelbildern (6) jedes ausgewählte Schlüsselobjekt (11) extrahiert wird und – von jedem extrahierten Schlüsselobjekt (11) zu zumindest einem vorbestimmten Objektmerkmal (30) ein jeweiliger Merkmalswert (12) ermittelt wird, und – zu jedem Objektmerkmal (30) die ermittelten Merkmalswerte (12) aller erfassten Einzelbilder (6) zu einem Zeitsignal (14) kombiniert werden, und – detektiert wird, ob zumindest ein Zeitsignal (14) ein vorbestimmtes Fehlerkriterium (7) erfüllt, und – falls das Fehlerkriterium (7) erfüllt wird, ein Hinweissignal (8) erzeugt wird.Method for testing a navigation system ( 1 ), whereby by a test device ( 2 ): - in a test run ( 9 ) Sensor data ( 5 ) describing a journey of a motor vehicle into the navigation system ( 1 ) or within the navigation system ( 1 ), and - frames ( 6 ) of a picture sequence ( 4 ), the navigation system ( 1 ) in dependence on a predetermined navigation target and the sensor data ( 5 ), each frame ( 6 ) a combination ( 29 ) from graphic key objects ( 11 ), and - at least one of the key graphical objects ( 11 ) is selected based on configuration data and - in the individual images ( 6 ) each selected key object ( 11 ) and - of each extracted key object ( 11 ) to at least one predetermined object feature ( 30 ) a respective characteristic value ( 12 ), and - for each object feature ( 30 ) the determined characteristic values ( 12 ) of all recorded individual images ( 6 ) to a time signal ( 14 ), and - it is detected whether at least one time signal ( 14 ) a predetermined error criterion ( 7 ), and - if the error criterion ( 7 ), a warning signal ( 8th ) is produced. Verfahren nach Anspruch 1, wobei das zumindest eine Objektmerkmal (30) umfasst: – einen skalaren Wert, insbesondere eine Pixelanzahl (N), und/oder – eine dynamische Eigenschaft und/oder – ein Merkmalstupel aus mehreren Einzelmerkmalen.The method of claim 1, wherein the at least one object feature ( 30 ) comprises: a scalar value, in particular a pixel number (N), and / or a dynamic property and / or a feature tuple of a plurality of individual features. Verfahren nach einem der vorhergehenden Ansprüche, wobei das zumindest eine Objektmerkmal (11) von einem Navigationskontext abhängig ist und/oder eine Korrelation zweiter vorbestimmter Einzelmerkmale beschreibt.Method according to one of the preceding claims, wherein the at least one object feature ( 11 ) is dependent on a navigation context and / or describes a correlation of second predetermined individual features. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Extrahierung (10) des zumindest einen Schlüsselobjekts (11) anhand einer Farbe und/oder eines graphischen Musters erfolgt.Method according to one of the preceding claims, wherein the extraction ( 10 ) of the at least one key object ( 11 ) takes place on the basis of a color and / or a graphic pattern. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Testdurchlauf (9) mehrmals wiederholt wird, und jedes Zeitsignal (14) eines der Testdurchläufe (9) jeweils als Referenzsignal (15) und jedes Zeitsignal (14) eines anderen der Testdurchläufe (9) jeweils als Testsignal (16) verwendet wird und das Fehlerkriterium (7) umfasst, dass ein Unterschied (35) zwischen zumindest einem Testsignal (16) und dem korrespondierenden Referenzsignal (15) außerhalb eines vorbestimmten Toleranzbereichs (36, 38) ist.Method according to one of the preceding claims, wherein the test run ( 9 ) is repeated several times, and each time signal ( 14 ) one of the test runs ( 9 ) each as a reference signal ( 15 ) and each time signal ( 14 ) of another of the test runs ( 9 ) each as a test signal ( 16 ) and the error criterion ( 7 ) that a difference ( 35 ) between at least one test signal ( 16 ) and the corresponding reference signal ( 15 ) outside a predetermined tolerance range ( 36 . 38 ). Verfahren nach Anspruch 5, wobei das Referenzsignal (15) und/oder das Testsignal (16) auf eine für die Abtastung der Bildsequenz (4) vorgegebene Abtastrate interpoliert wird.Method according to claim 5, wherein the reference signal ( 15 ) and / or the test signal ( 16 ) to one for the scanning of the image sequence ( 4 ) predetermined sampling rate is interpolated. Verfahren nach Anspruch 5 oder 6, wobei das Testsignal (16) mit dem Referenzsignal (15) durch einen fensterbasierten Vergleich (32) registriert wird.Method according to claim 5 or 6, wherein the test signal ( 16 ) with the reference signal ( 15 ) by a window-based comparison ( 32 ) is registered. Verfahren nach einem der Ansprüche 5 bis 7, wobei ein weiteres Referenzsignal (15') erzeugt wird und aus dem weiteren Referenzsignal (15') mittels einer Methode des maschinellen Lernens (ML) der Toleranzbereich (38) ermittelt wird.Method according to one of claims 5 to 7, wherein a further reference signal ( 15 ' ) is generated and from the further reference signal ( 15 ' ) by means of a method of machine learning (ML) the tolerance range ( 38 ) is determined. Verfahren nach Anspruch 8, wobei die jeweiligen Merkmalswerte zumindest zweier Referenzsignale (15, 15') als Koordinaten eines Datenpunkts (39) verwendet werden und aus den Datenpunkten (39) der Referenzsignale (15, 15') mittels radialer Basisfunktionen der Toleranzbereich (38) als Entscheidungsgrenze (38), welche die meisten oder alle Datenpunkte (39) einschließt, ermittelt wird.Method according to claim 8, wherein the respective feature values of at least two reference signals ( 15 . 15 ' ) as coordinates of a data point ( 39 ) and from the data points ( 39 ) of the reference signals ( 15 . 15 ' ) by means of radial basis functions the tolerance range ( 38 ) as a decision boundary ( 38 ) containing most or all data points ( 39 ) is determined. Testvorrichtung (2) für ein Navigationssystem (1) eines Kraftfahrzeugs, wobei die Testvorrichtung (2) dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.Test device ( 2 ) for a navigation system ( 1 ) of a motor vehicle, wherein the test device ( 2 ) is adapted to perform a method according to any one of the preceding claims.
DE102015013943.6A 2015-10-28 2015-10-28 Testing a navigation system of a motor vehicle Expired - Fee Related DE102015013943B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015013943.6A DE102015013943B4 (en) 2015-10-28 2015-10-28 Testing a navigation system of a motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015013943.6A DE102015013943B4 (en) 2015-10-28 2015-10-28 Testing a navigation system of a motor vehicle

Publications (2)

Publication Number Publication Date
DE102015013943A1 true DE102015013943A1 (en) 2017-05-04
DE102015013943B4 DE102015013943B4 (en) 2020-10-22

Family

ID=58545742

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015013943.6A Expired - Fee Related DE102015013943B4 (en) 2015-10-28 2015-10-28 Testing a navigation system of a motor vehicle

Country Status (1)

Country Link
DE (1) DE102015013943B4 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111123740A (en) * 2019-12-19 2020-05-08 北京经纬恒润科技有限公司 Hardware-in-loop test method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5099322A (en) * 1990-02-27 1992-03-24 Texas Instruments Incorporated Scene change detection system and method
DE102008012697A1 (en) 2007-12-12 2009-06-18 Daimler Ag Method for operating a navigation system and navigation system
DE102012009876A1 (en) 2011-11-10 2013-05-16 Audi Ag Method for processing an image sequence and test device for a motor vehicle
DE102013015145A1 (en) 2013-09-13 2015-03-19 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Method for testing and evaluating the quality of digital cards

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5099322A (en) * 1990-02-27 1992-03-24 Texas Instruments Incorporated Scene change detection system and method
DE102008012697A1 (en) 2007-12-12 2009-06-18 Daimler Ag Method for operating a navigation system and navigation system
DE102012009876A1 (en) 2011-11-10 2013-05-16 Audi Ag Method for processing an image sequence and test device for a motor vehicle
DE102013015145A1 (en) 2013-09-13 2015-03-19 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Method for testing and evaluating the quality of digital cards

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PIMENTEL, Marco A. F. [et al.]: A review of novelty detection. In: Signal Processing, Vol. 99, 2014, S. 215-249. – ISSN 0165-1684 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111123740A (en) * 2019-12-19 2020-05-08 北京经纬恒润科技有限公司 Hardware-in-loop test method and device
CN111123740B (en) * 2019-12-19 2024-04-16 北京经纬恒润科技股份有限公司 Hardware-in-loop test method and device

Also Published As

Publication number Publication date
DE102015013943B4 (en) 2020-10-22

Similar Documents

Publication Publication Date Title
EP3438901A1 (en) Test drive scenario database system for realistic virtual test drive scenarios
EP2034461B1 (en) Method for detecting and/or tracking moved objects in a monitoring zone with stoppers, device and computer program
DE112018004797T5 (en) VIEWPOINT INVARIANT OBJECT DETECTION THROUGH SYNTHETIZING AND DOMAIN ADAPTATION
DE202017102381U1 (en) Device for improving the robustness against &#34;Adversarial Examples&#34;
EP3557487B1 (en) Generation of validation data with generative contradictory networks
DE102015225472A1 (en) Method and device for creating a map
DE112020007035T5 (en) Learning device, learning method, inference device, program and storage medium
WO2019119011A1 (en) Behaviour model of an environment sensor
EP3757792A2 (en) Method and device for testing a system, for selecting real tests and for testing systems with machine learning components
DE102019116834B4 (en) Augmented photo capture
DE102020202377A1 (en) PARTICIPATING GENERATIVE MACHINE LEARNING MODELS FOR FUNCTIONAL TESTING
EP3867796A1 (en) Method and device for determining an area map
DE102019208733A1 (en) Method and generator for generating disturbed input data for a neural network
DE102015013943B4 (en) Testing a navigation system of a motor vehicle
DE102019208735A1 (en) Method for operating a driver assistance system for a vehicle and a driver assistance system for a vehicle
DE102019211459B4 (en) Method and device for checking a calibration of environmental sensors
DE102016211473A1 (en) Method and device for operating a synchronous machine
EP3119035B1 (en) Method for the inspection of network facilities and network
DE102019202751A1 (en) Method for object detection with two neural networks
DE102014202639A1 (en) Method for determining movement of vehicle, involves outputting movement of vehicle when quality value formed for evaluating detected vehicle movement estimate is available in predetermined relationship to reference value
DE112018007442T5 (en) DATA SYNCHRONIZATION DEVICE, DATA SYNCHRONIZATION METHOD AND DATA SYNCHRONIZATION PROGRAM
DE102009001870A1 (en) Image processing device for monitoring system for processing of monitoring images of monitoring scene, has foreground image or actual moved foreground objects, and flow module, which is formed on basis of monitoring picture
WO2021122340A1 (en) Method and device for generating and providing a database having sensor data patches stored therein for use in quilting
EP4296970A1 (en) Computer-implemented method and system for creating a virtual vehicle environment
DE102020213058A1 (en) Method and device for partially automated or fully automated control of a vehicle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: AUDI AG, DE

Free format text: FORMER OWNERS: AUDI AG, 85045 INGOLSTADT, DE; FRIEDRICH-ALEXANDER-UNIVERSITAET ERLANGEN-NUERNBERG, 91054 ERLANGEN, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee