WO2016090439A1 - Method for detecting the brightness of fingerprints using convolutional networks - Google Patents

Method for detecting the brightness of fingerprints using convolutional networks Download PDF

Info

Publication number
WO2016090439A1
WO2016090439A1 PCT/BR2015/000131 BR2015000131W WO2016090439A1 WO 2016090439 A1 WO2016090439 A1 WO 2016090439A1 BR 2015000131 W BR2015000131 W BR 2015000131W WO 2016090439 A1 WO2016090439 A1 WO 2016090439A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pooling
fingerprint
normalization
layer
Prior art date
Application number
PCT/BR2015/000131
Other languages
French (fr)
Portuguese (pt)
Inventor
Rodrigo Frassetto NOGUEIRA
Roberto de Alencar LOTUFO
Rubens Campos MACHADO
Original Assignee
Universidade Estadual De Campinas - Unicamp
Centro De Tecnologia Da Informação Renato Archer - Cti
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidade Estadual De Campinas - Unicamp, Centro De Tecnologia Da Informação Renato Archer - Cti filed Critical Universidade Estadual De Campinas - Unicamp
Publication of WO2016090439A1 publication Critical patent/WO2016090439A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • G06F2218/04Denoising
    • G06F2218/06Denoising by applying a scale-space analysis, e.g. using wavelet analysis

Definitions

  • the present invention is inserted in the field of electrical engineering and computing, more specifically related to biometric authentication method with emphasis on false fingerprint detection.
  • the present invention relates to a fingerprint vivacity detection method that uses convoludal networks as a machine learning technique for feature extraction and artificially augmenting the dataset to improve classifier system accuracy,
  • Biometric systems have become increasingly important in recent years.
  • the main purpose of biometrics is to automatically discriminate individuals reliably using signals derived from physical or behavioral traits such as fingerprints, face, iris, voice, hand and Biometric technologies have several advantages over classic security methods based on information (password, PIN, etc.) or physical device (card, key, etc.).
  • biometric systems fingerprint recognition systems are the most popular.
  • using fake physical biometrics can be an easy way to bypass system security.
  • fingerprints can be counterfeited using common materials such as gelatin, silicone and wood glue.
  • Their creation can be divided into two categories: WO 20I6 / U90439 PCT / BR20I5 / INNM3I
  • the templates are created of latent fingerprints only, that is, the phisher has no direct fingerprint access
  • a secure fingerprint system must be able to correctly distinguish a false impression from a true one. Additionally, it is desirable that the system be able to differentiate true from false fingerprints when new counterfeiting techniques (and therefore not considered during the development phase) are presented to the system.
  • Wavelets are used as feature vectors. False and true fingerprints have a significant difference in the distances between papillae and papillae frequency.
  • Wavelet analysis uses a multi-resolution and orientation representation of a fingerprint image through subbands. Due to the multi-resolution property of wavelets, true and false fingerprint texture differences are analyzed at various scales. Additionally, the subbands carry high frequency components, which are quite striking for texture characterization.
  • the method has some disadvantages: the images used are those captures immediately after the finger is placed on the sensor surface.
  • LBP multi-scale operator can be considered equivalent to a single-layer convolutional network trained using the scaling data augmentation technique.
  • the advantage of the technique proposed in the present invention is that , through the use of multiple layers, data can be represented through the hierarchical combination of several filters. exponentially smaller filters to represent the same structure compared to the number of filters required using single layer techniques. Additionally, in convolutional networks the filters can be learned based on the training data, while the technique proposed in [18) has fixed value filters.
  • the advantage of learning filters is that the system can adapt as input data changes. This is effective when, for example, new print forgery techniques emerge, as the system will learn to recognize these new techniques through the use of new filters. Since the type of feature extracted by the technique proposed in [18] is fixed (ie texture) and independent of training data, the technique can become useless if a new counterfeiting technique that has a texture very similar to the actual prints is created. since the system, which is based on this feature alone, will not be able to differentiate between true and false impressions.
  • image degradation may limit the applicability of systems that use texture as information for classification.
  • a degradation class is blurring due to movement or lack of focus during image capture. Because "blurring" of the image is difficult to remove and introduces new artifacts, it is desirable that the system be able to analyze texture so as to be invariant to blur.
  • the phases of the four low-frequency coefficients are decorrelated and uniformly quantized in an eight-dimensional space.
  • a histogram of code words is created and used as a feature for texture classification.
  • low frequency components are shown to be invariant to symmetrical and central blurs. Although this ideal invariance is not completely obtained by the finite-size window method, the technique is quite blunt-insensitive. Since only a single phase information is used, the technique is also invariant to uniform changes in illumination.
  • the technique extracts a single type of feature (blurs) and if a new counterfeiting technique is created that can be similar to an actual print image on blur, the system can be circumvented.
  • the technique proposed in the present invention has the ability to automatically learn which are the relevant characteristics based on the training data. So if a new counterfeiting technique comes up, just train the existing system with images that use the new technique and filters will learn what are the relevant characteristics to discriminate the new data set.
  • the technique proposed in [20] has an exponentially lower data representation power for the same number of filters as the convolutional network technique (used in this invention), since the first uses only a single layer to extract the characteristics. while the second uses multiple layers, allowing a hierarchical and, consequently, more compact representation of the data.
  • each element ie the bits
  • the value of each element (ie the bits) in the BSIF binary code string is computed by binarizing the response of a zero-threshold linear filter. Each bit is associated with a different filter, and the length of the string used determines the number of filters used.
  • the filter set is learned through Independent Component Analysis, which maximizes the statistical independence of filter responses. The results are promising, but as the experiments were Made using filters previously learned with only 13 natural images, performance could certainly be improved if more training images were used and captured from a specific sensor.
  • the filters may be combined in the form of several layers, which enables hierarchical representation of structures.
  • multilayer techniques such as the convolutional networks used in the present invention, over techniques using only a single layer, as in the article by L.
  • Ghiani et al., [21] is that they require an exponentially number. smaller filters to represent the same structure. In other words, multilayer techniques offer greater structure representation power for the same number of filters than single layer techniques. Additionally, the filters mentioned in L Ghiani's article, [21]. have binary values while convolutional filters have real values, which allows more detailed representations.
  • US20130294663 describes systems and methods for detecting vividness in fingerprints by multi-resonational texture analysis.
  • the technology described in the patent resembles the present invention in that it comprises a method for detecting fingerprint vivacity which utilizes, among the aforementioned techniques, a method comprising the transfer of a plurality of images to said application (feature similar to increased data usage comprised in technology).
  • the document only mentions that the system receives multiple images as input, not to mention how multiple image capture is performed.
  • the method reported in US20130294663 requires as input at least two images of the same fingerprint while the present invention, in contrast, creates a plurality of images from capturing only one image.
  • US5825907 refers to the neural network system for fingerprint classification.
  • the present invention resembles the technology described in the US patent in that it comprises the use of a type of neural network. However, it differs from the fact that the methodology presented in US5825907 comprises an application for classifying a fingerprint into 5 distinct classes. These classes can then be used to reduce the number of fingerprints to be searched in an identification search. With respect to the present invention, the method is used for detection of vividness, the application of which is not mentioned in the cited patent. Another difference is that it uses convolutional networks, which are a type of neural network but whose implementation differs from the implementations of a classical neural network. In this sense, convolutional networks present better scalability and performance (accuracy) in several computer vision problems.
  • US7095880 discloses a method and apparatus for fingerprint capture.
  • the described technology resembles the present invention in that it comprises a method of transferring a plurality of fingerprint images to said application.
  • the proposed invention differs from the technology mentioned in the document in that it artificially creates multiple images. , requiring only a single image to be captured by the sensor
  • the technology cited requires that the sensor capture multiple images for processing, It is also necessary to hold the user's finger on the sensor until multiple images are captured. This requirement may cause undesired slowness to the user.
  • Another disadvantage is that US technology is restricted to sensors that are capable of capturing multiple images.
  • the present invention relates to a fingerprint vivacity detection method using convolutional networks comprising the following main steps:
  • the method is performed in two phases: the first of training and the second of classification.
  • step c is used at least once for system training.
  • steps c and e are required.
  • the method proposed in the present invention can be performed on cloud computers, local servers, desktop computers, notebooks.
  • Figure 1 Process flow overview 10029]
  • Figure 2 Original image (left), filtered with a low-pass filter (middle) and filtered with a high-pass filter (right).
  • FIG. 3 Sequence of steps for extracting the region of interest from a fingerprint image.
  • Figure 5 Illustration of a sequence of single layer convolutional network operations applied to an image of a fingerprint.
  • Figure 6 Illustration of a sequence of operations performed by a two-layer convolutional network.
  • Figure 8 Illustration of three types of artificially increasing data transformations: horizontal reflections, rotations, and translations.
  • the present invention relates to a method of fingerprint vivacity detection using convolutional networks. comprising the following main steps:
  • Frequency filtering comprising a low pass filter or a high pass filter
  • the method is performed in two phases: the first of training and the second of classification.
  • the training phase further comprises a validation sub-step which can be performed as follows:
  • step 4 The system comprised of steps aae with the configuration chosen in step 2 is trained using the dataset A and validated using the dataset
  • step 5 The system comprised of steps a through and with the configuration chosen in step 2 is trained using dataset B and validated using dataset
  • Steps 2 through 7 are repeated for each set of hyper parameters created in step 1.9. Choose the values for hyperparameters of each step and which steps will compose the fini system, based on the best accuracy computed in 7; In the present invention, the hyper-parameter choices and the choice of processing steps that will make up the system were made using the 5x2-Fold cross-validation scheme.
  • step c is performed at least once for system training.
  • Steps c and e are required for both phases (training and classification).
  • steps a. b1. b2, b3, b4 and d are optionally performed in both phases (training and classification).
  • the method proposed in the present invention can be performed on high performance cloud computers to shorten training times.
  • the method can also be performed on local servers, desktops, laptops, devices Programmable Gate Arrays (FPGA) that have sufficient memory (preferably larger than 1GB).
  • FPGA Programmable Gate Arrays
  • Each step is seen as a Booiean parameter. If the parameter has true value, the step will be executed, otherwise not.
  • the accuracy of the system is evaluated using the validation data set, which can be consist of a few tens, preferably hundreds, of true or false images.
  • Step a Data Increase
  • Data augmentation is a technique of artificially creating slightly modified samples from the original samples.
  • the data augmentation techniques of the present invention comprise the group of data augmentation techniques selected from rotations, translations, horizontal reflections, scaling, local alteration of pixel intensities, noise addition or sample creation from models. 3D of the object to be categorized, preferably horizontal translations and reflections, for artificially creating slightly modified samples from the original samples.
  • the classifier is expected to become more robust against small variations that may be present in the data, forcing it to learn more complex (and possibly more important) structures. It is successfully used in many computer vision applications [15], (16] and
  • Step b - Preprocessing
  • step b1 image reduction
  • step b2 filtering on frequency
  • step b3 extraction of the region of interest
  • step b4 contrast equalization
  • Images may be reduced in size to shorten training times.
  • training time is linearly proportional to image size. Therefore, if the image is reduced to half its original size, processing time is expected to be reduced by almost half.
  • image reduction is done using bt-linear interpolation and images can be scaled from 100% (no reduction) to 25% of their original size, preferably 100% (no reduction).
  • Step b2 Frequency Filtering:
  • the low pass filter is preferably implemented as the convolution of an image by a Gaussian filter and the high pass filter is preferably implemented as the subtraction of the original image filtered by the low pass filter.
  • the filters used in frequency filtering have a standard deviation of 3 and window size between 7x7 and 21x21 pixels, preferably 13x13 pixels. Figure 2 shows the effect of these filters on some fingerprint images.
  • Step b3 ⁇ Region of Interest - ROI: Many fingerprints of some sensors are not centered on the image and / or the background corresponds to much of the image. For the classifier system to receive samples that have the highest fingerprint / background ratio possible, a simple technique for extracting the region of interest was created through the following steps:
  • the morphological aperture is applied to highlight the region where the fingerprint is in.
  • the structuring element should be greater than the maximum distance between papillae comprising size range of 10 to 35 pixels for 640x480 pixel resolution images, preferably 21. pixels, ensuring that digital printing will become a continuous region after the operation.
  • Step b3.2 Calculation of the center of mass and standard deviations (0051)
  • the center of mass and the standard deviations of the height and width of the image obtained in step b3.1 are plotted.
  • Step b3.3 Determining the rectangle that will contain the region of interest
  • contrast equalization techniques selected from the group of histogram equalization techniques are used, preferably the technique called Contrast Limited Adaptive Histogram Equalization (CLAHE) [1] for contrast equalization, which is a variant of the Adaptive Htstogram Equatization (AHE)
  • the HE computes several histograms, each corresponding to a distinct section of the image and uses them to redistribute the image pixel intensities. It is therefore suitable for improving the local contrast of images.
  • AHE has a tendency to amplify noise in relatively homogeneous regions of the image.
  • CLAHE avoids this by limiting amplification by using upper limits for histogram values before computing the cumulative neighborhood distribution function.
  • Figure 4 compares original and CLAHE filtered images.
  • a classical convolutional network is composed of alternating layers of convolutions and local pooling (ie, sub-sampling) [39].
  • the objective of the first convolution layer is to extract patterns found within focal regions of the input image that are common throughout the sample set, this is done by convolution of a filter by the input image and the resulting output is a map of c characteristics for each layer filter.
  • the resulting activations of f (c) are then passed to the pooling layer, which aggregates the information into small local regions, R, producing a grouped feature map s (usually smaller than c) as output.
  • R the aggregate function
  • Rj the pooling region] in the feature map c
  • c the index of each element within it.
  • average pooling returns the average (or the sum) of the activation units of a neighborhood R,
  • Max-pooting selects the maximum value within an R region
  • pooling attempts to obtain invariance to changes in position and lighting conditions, robustness to noise, and compact representation.
  • possible pooling operations are selected from the average pooling, max-pooting, $ torch $ tic pooling, multi-scale / spatial pyramidal pooling, preferably max ⁇ pooling operations group.
  • Convolutional networks can have multiple convolution and pooling layers. The purpose of stacking these layers is to create a system that is able to capture more complex structures in the samples, because the characteristic patterns obtained in one layer are used as input to the next layer, thus allowing a hierarchical representation of the found structures, thus obtaining more complex structures as one rises in the hierarchy. .
  • Figure 5 illustrates a sequence of operations performed by a single-layer convolutional network.
  • the input image is convoluted with three random filters of size between 5x5 and 15x15, preferably 5x5 (enlarged for easy viewing), generating three A nonlinear max (x, 0) function is then applied to the images, followed by a max-poolmg operation and sub-sampling by a factor of 2.
  • Figure 6 illustrates a sequence of operations of a two-layer convolutional network (the nonlinearity and max-poolmg layers are not shown to simplify the illustration).
  • First layer output images are used as input to the second layer. They are convoluted with nine random filters and go through max-pooling and sub-sampling operations. The resulting images are usually rasterized and concatenated, forming a one-dimensional vector that is then used as input to a binary classifier comprised in step e.
  • Convolutional filter weights may be random or learned (6j.
  • the first approach is easier to implement and has system training time and is obviously faster.
  • convolutional networks whose filters have been learned have a accuracy better than networks whose filters are random [7] [8] [9].
  • a common approach is to add a layer that performs the local contrast normalization operation (not to be confused with the contrast equalization described in the preprocessing step) between the convolution and pooling layers.
  • the object of this layer is to normalize the intensities of the pixels based on their surroundings.
  • Two types of local contrast normalization are commonly used: subtractive normalization and divisive normalization.
  • the subtractive normalization operation on an image can be defined as:
  • i refers to the index of the third dimension of the image
  • j and k refer to the first two dimensions of the image (height and width)
  • q refer to the neighborhood region defined by j and k.
  • Figure 7 shows divisive normalization using 9x9 size filters applied to some fingerprint images.
  • Step d Dimensionality reduction using the Principal Component Analysis (PCA) method and normalization using the Whitening technique:
  • each data set sample size is independently normalized to zero mean and unit variance. This is usually necessary because the objective functions of many machine learning methods (such as the Support Vector Machine using kemel Gaussian) assume that all dimensions are zero-centered and have variance of the same order. If one dimension has a variance that is much larger than the others, it may dominate the objective function and render the estimator unable to use the other dimensions to learn as expected.
  • machine learning methods such as the Support Vector Machine using kemel Gaussian
  • Principal Component Analysis is a statistical procedure that uses orthogonal transformations to convert a set of possibly correlated observations of variables into a set of variables whose values are linearly uncorrelated, called principal components [10].
  • the number of major components is less than or equal to the original number of variables comprising 30 to 1300 major components.
  • This transformation is defined so that the first major component has the largest possible variance (ie that takes into account the largest possible amount of data variability), and that each successor component has the largest possible variance within the constraint that it it must be orthogonal (that is, uncorrelated) to its predecessor components.
  • whitening or sample normalization preferably whitening, may be used.
  • Extraction of the region of interest For the opening operation, a box is preferably used as a structuring element of 21x21 pixels.
  • the rectangle that marks the region of interest is three times the standard deviation of the image.
  • Image Dimension Reduction Preferably the image is reduced to 250x250 pixels. However, it is possible to use different resolutions, and the best one can be chosen in the model validation step.
  • Contrast Equalization A 30-disc diameter neighborhood is preferably used to calculate the histogram.
  • the network architecture is chosen during the validation phase. Preferably, the best amount of layers is between two to five layers. It has been experimentally noted that architectures with more than five layers increase processing time without noticeable accuracy gains. Already single layer architectures have lower accuracy in most cases.
  • max-pooling is used as a pooiing operation.
  • the invention may be used with other types of pooing, such as average, stochastic or pyramidal.
  • the local contrast normalization layer is not used in the preferred embodiment of the invention due to the increase in the computational cost and the small gains in accuracy it brings when it is used.
  • PCA with whitening is used for size reduction.
  • the number of final dimensions should be chosen such that the resulting dimensions should represent at least 98% of the variability of training data.
  • dimensionality reduction techniques may also be used, such as PCA without Whitening, Linear Discriminant Analysis (LDA) or Independent Component Analysis (ICA).
  • LDA Linear Discriminant Analysis
  • ICA Independent Component Analysis
  • Gaussian kernet was used in this invention. Another option among the various types of fears would be the linear kemel, which results in faster training times than the Gaussian kernel. despite having a lower accuracy in some cases [18].
  • the smoothing parameter C and the coefficient y are chosen during the validation phase.
  • Steps 1, 2 and 3 are repeated five times, with each iteration using a different division to create blocks A and B.
  • Table 1 summarizes the parameters used in each module during the validation phase.
  • Numpy is a general purpose vector processing package designed to manipulate large multidimensional arrays. Although Numpy is an extension of Python, its functions are written in C. Thus, any algorithm that can be primarily expressed as vectors or arrays can be executed as fast as their C equivalent.
  • An important aspect of this invention is that the methods have been performed on cloud computers, where the user can rent virtual computers and pay only for the hours the machines have been in use.
  • the advantages offered by this type of service is the ability to rent out-of-the-box instances (with machine learning packages such as Scikit-Leam already installed), high availability (often greater than 99%) and instances optimized for high processing power, commonly used on web servers, on-demand processing, distributed analysis and video processing.
  • For the system training phase we used the fastest instance available, with 32 processing cores and 60 GB of RAM, which allowed us to train models using augmented data sets and exhaustively search for the best hyper parameters in just a few. hours If ordinary desktop computers or notebooks were used, the training would take days or weeks. It is noteworthy that while the system training times are long, the rating / prediction times are less than half a second per image on a low performance desktop or notebook computer (with 2 cores and 2 GB of RAM).
  • a classifier for each sensor type a classifier is trained. This makes it easier for classifiers to learn since each classifier will learn sample characteristics that are similar to each other. However, it is also possible to train a single classifier for two or more sensor types.
  • the advantage of this approach is that the classifier design (such as the choice of hyper- parameters) needs to be done only once. However, it is necessary to resize the images so that they are all the same size, since sorting accepts only samples of the same size. Preferably, the sample size will be the smallest size of all samples.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

The present invention relates to a method for detecting the brightness of fingerprints using the feature-extraction technique known as convolutional networks and artificially increasing the data set in order to improve the accuracy of the classification system. Dimensionality reduction is also applied using principal component analysis (PCA) with whitening and a support vector machine (SVM) classifier with Gaussian kernel, used to determine whether the samples are true or false. Pre-processing operations such as frequency filtering, region-of-interest (ROI) extraction and contrast equalization can be used to improve accuracy.

Description

"MÉTODO DE DETECÇÃO DE VIVACIDADE DE  "VIVIDITY DETECTION METHOD OF
IMPRESSÕES DIGITAIS USANDO REDES CONVOLUCIONAIS"  DIGITAL IMPRESSIONS USING CONVOLUTIONARY NETWORKS "
CAMPO DA INVENÇÃO  FIELD OF INVENTION
10011 A presente invenção está inserida no campo da engenharia elétrica e computação, mais especificamente, relacionada a método de autenticação por biometria com ênfase na detecção de impressões digitais falsas.  The present invention is inserted in the field of electrical engineering and computing, more specifically related to biometric authentication method with emphasis on false fingerprint detection.
[002] A presente invenção se refere a um método de detecção de vivacidade de impressões digitais que usa as redes convoludonais como técnica de aprendizado de máquina para extração de características e aumento artificial do conjunto de dados para melhora na acuracia do sistema classificador,  [002] The present invention relates to a fingerprint vivacity detection method that uses convoludal networks as a machine learning technique for feature extraction and artificially augmenting the dataset to improve classifier system accuracy,
FUNDAMENTOS DA INVENÇÃO BACKGROUND OF THE INVENTION
(003] Sistemas biométrícos tem se tornado cada vez mais importantes nos últimos anos. O objetívo principal da biometria é discriminar automaticamente indivíduos de maneira confíávei usando sinais derivados de traços físicos ou comportamentais, tais como impressões digitais, face, Iris, voz, mão e escrita. Tecnologias biométrícas apresentam diversas vantagens sobre métodos de segurança clássicos baseados em informação {senha, PIN, etc.) ou dispositivo físico (cartão, chave, etc). De todos os sistemas biométricos, sistemas de reconhecimento baseados em impressões digitais são os mais populares. Entretanto, usar uma biometria física falsa pode ser uma maneira fácil de burlar a segurança do sistema. Em particular, impressões digitais podem ser falsificadas usando-se materiais comuns, como gelatina, silicone e cola de madeira A sua criação pode ser dividida em duas categorias: WO 20I6/U90439 PCT/BR20I5/INNM3I (003] Biometric systems have become increasingly important in recent years.The main purpose of biometrics is to automatically discriminate individuals reliably using signals derived from physical or behavioral traits such as fingerprints, face, iris, voice, hand and Biometric technologies have several advantages over classic security methods based on information (password, PIN, etc.) or physical device (card, key, etc.). Of all biometric systems, fingerprint recognition systems are the most popular. However, using fake physical biometrics can be an easy way to bypass system security. In particular, fingerprints can be counterfeited using common materials such as gelatin, silicone and wood glue. Their creation can be divided into two categories: WO 20I6 / U90439 PCT / BR20I5 / INNM3I
1004} -Sem cooperação: os moldes sâo criados de impressões digitais latentes, apenas, ou seja, o faisifícador não tem acesso a impressão digital diretamente, 1004} -Without cooperation: the templates are created of latent fingerprints only, that is, the phisher has no direct fingerprint access,
(005) -Com cooperação: o usuário pressiona seu dedo no molde para criar a sua impressão, o que normalmente produz impressões digitais de maior qualidade.  (005) -With cooperation: the user presses his finger on the mold to create his impression, which usually produces higher quality fingerprints.
[006] Um sistema de impressão digital seguro precisa ser capaz de distinguir corretamente uma impressão falsa de uma verdadeira. Adicionalmente, é desejável que o sistema seja capaz de diferenciar impressões digitais verdadeiras de falsas quando novas técnicas de falsificações <e que consequentemente não foram consideradas durante a fase de desenvolvimento) são apresentadas ao sistema.  [006] A secure fingerprint system must be able to correctly distinguish a false impression from a true one. Additionally, it is desirable that the system be able to differentiate true from false fingerprints when new counterfeiting techniques (and therefore not considered during the development phase) are presented to the system.
[007] Em aplicações práticas, a classificação é na maioria das vezes feita em tempo real, ou seja, a decisão se a impressão é falsa ou verdadeira é feita fogo após que a amostra é apresentada ao sistema. Dessa forma, as amostras precisam ser classificadas em um curto período de tempo (tipicamente, menor que 5 segundos), principalmente quando o sistema é usado em tocais de grande movimentação de pessoas, como prédios públicos e bancos. [007] In practical applications, classification is most often done in real time, ie the decision whether the impression is false or true is fired after the sample is presented to the system. Thus, samples need to be sorted in a short period of time (typically less than 5 seconds), especially when the system is used for large crowdsets such as public buildings and banks.
[0081 Diferentes métodos para detecção de vivacidade foram propostos [2] [3] [4j. Eles podem ser divididos em técnicas baseadas em hardware e técnicas baseadas em software. Different methods for vivacity detection have been proposed [2] [3] [4j. They can be divided into hardware based techniques and software based techniques.
[00$] Nas abordagens por hardware, um dispositivo especifico é adicionado ao sensor para detectar propriedades particulares de um determinado traço de vivacidade, tais como pressão sanguínea [5], temperatura [6], odor [7] ou transpiração(8] [9] [10j. Um método proposto em [11} tenta resolver o problema usando a distorção da pele, que envolve em pressionar e movimentar o dedo na superfície do sensor para se criar uma distorção. A distorção produzida devida [00 $] In hardware approaches, a specific device is added to the sensor to detect particular properties of a particular vividness trait, such as blood pressure [5], temperature [6], odor [7] or perspiration (8] [ 9] [10j.] A method proposed in [11} attempts to solve the problem by using skin distortion, which involves pressing and moving the finger on the sensor surface to create a distortion.
2 ao movimento de uma pele elástica real é grande quando comparada àquela produzida pelo movimento de um dedo falso. Um método para detecção de impressões digitais falsas através da medida de características elétricas de diferentes camadas da pele é proposto em [12]. Os autores usaram diferentes características da pele como a impedância do strato córneo para medidas de vivacidade. Alguns desses métodos são lentos., pois precisam que o dedo seja posto na superfície do sensor por alguns segundos até que informações como transpiração e temperatura estejam disponíveis. 2 The movement of a real elastic skin is large compared to that of the movement of a false finger. A method for detecting false fingerprints by measuring the electrical characteristics of different skin layers is proposed in [12]. The authors used different skin characteristics such as stratum corneum impedance for measures of vivacity. Some of these methods are slow because they need the finger to be placed on the sensor surface for a few seconds until information such as perspiration and temperature is available.
[0010] Nas abordagens por software, traços falsos são detectados assim que uma amostra é capturada por um sensor comum. As características usadas para distinguir impressões verdadeiras de falsas são extraídas da imagem da impressão digital e não do dedo. As vantagens das técnicas baseadas em software é que o sensor não precisa ser trocado conforme as técnicas de falsificação evoluem e o custo do sistema biométríco torna-se menor, já que nenhum hardware adicional é necessário, exceto pelo fato de que mais poder computacional pode ser necessário para processar as imagens em tempo real. Entretanto, o uso de informações adicionais que não estão presentes em imagens estáticas capturadas por um sensor comum è uma das vantagens nos métodos que utilizam hardware. {0011] Há técnicas baseadas em software em que as características usadas pelo classificador são extraídas de medidas especificas da impressão digital, como distância entre papilas {13] [14] e características que são extraídas no domínio da frequência através do uso da transformada de Fourier [15]. Há implementações em que as características são extraídas usando extratores genéricos, tais como Waveiets e Local Binary Patterns (L8P). 10012] No artigo de Galbally, F. A!onso-Fernandez, J. Fierrez and J. Ortega-Garcia. "A hjgh performance fingerprint liveness detection metbod based on quality related features,'' Future Generation Computer Systems, vol. 28, no. 1, pp. 311-321. 2012, [13], uma variedade de medidas de qualidade, tais como intensidade , continuidade e claridade das papilas são extraídas da imagem da impressão digital usando-se medidas estatísticas dos ângulos locais, espectro de potência e intensidade dos pixeis. Uma seieção de características é então feita na fase de validação e um classificador Linear Discriminant Analysis (LDA) é usado para fazer a predição final. Os resultados mostram uma acuràcia média de 90% em dois benchmarks padronizados, que é inferior aos 96.3% obtidos pela presente invenção. Outra desvantagem da invenção apresentada em [13] é que é necessário seíecionar manualmente as melhores características que serão usadas na classificação. Eventualmente, futuras técnicas de falsificação podem burlar as técnicas propostas, necessitando que uma nova rodada de seieção manual de características seja feita. A presente invenção não sofre desse problema uma vez que aprende automaticamente as características que melhor discriminam impressões digitais verdadeiras de falsas com base nas imagens fornecidas durante o treinamento. Dessa forma, para que a rede aprenda a detectá-las. basta realizar um novo treinamento usando-se amostras das novas técnicas de falsificação. 10013] No artigo de S. Moon. J. S. Chen, K. C. Chan, K. So and K. C. Woo: "Wavelet based fingerprínt liveness detection," Electronics Letters, vol. 20. no. 41, pp. 1 112-1113, 2005. [16], wavelets são usadas como vetores de características. Impressões digitais falsas e verdadeiras tem uma diferença significativa nas distancias entre papilas e frequência das papilas. Análise por wavelets usa uma representação multi-resolução e de orientação de uma imagem de impressão digital através de sub-bandas. Devido a propriedade de multi-resolução das wavelets, diferenças de texturas de impressões digitais falsas e verdadeiras sâo analisadas em várias escalas. Adicionalmente, as sub-bandas carregam componentes de alta- frequência, que são bastante marcantes para a caracterização de texturas. Entretanto, o método apresenta algumas desvantagens: as imagens usadas são aquelas capturas imediatamente após o dedo é posto na superfície do sensor. Não é sabido se esse método é aplicável a qualquer tipo de imagem de impressão digital já que alguns dispositivos aguardam um tempo (até um segundo) para efetívamente realizar a captura da imagem Além disso, como o método é baseado na transpiração, secar os dedos pode ser necessário antes da captura. As principais diferenças de [16] com relação a presente invenção sâo que a primeira não utiliza aumento de dados e as técnicas de extraçâo de característica são diferentes. A acurácia obtida utilizando-se Wavelets é inferior a acurácia obtida com a utilização das redes convolucionais proposta na presente invenção. In software approaches, false traces are detected as soon as a sample is captured by a common sensor. The features used to distinguish true from false prints are taken from the fingerprint image rather than the finger. The advantages of software-based techniques are that the sensor does not need to be replaced as counterfeiting techniques evolve and the cost of the biometric system becomes smaller as no additional hardware is required except that more computational power may be available. needed to process the images in real time. However, the use of additional information not present in still images captured by a common sensor is one of the advantages of methods using hardware. There are software-based techniques in which the characteristics used by the classifier are extracted from specific fingerprint measurements, such as distance between papillae [13] [14] and characteristics that are extracted in the frequency domain through the use of the Fourier transform. [15] There are implementations where features are extracted using generic pullers such as Waveiets and Local Binary Patterns (L8P). 10012] In the article by Galbally, F. A. Onso-Fernandez, J. Fierrez and J. Ortega-Garcia. "A hjgh performance fingerprint liveness detection metbod based on quality related features, '' Future Generation Computer Systems, vol. 28, no. 1, pp. 311-321. 2012, [13], a variety of quality measures, such as The intensity, continuity and clarity of the papillae are extracted from the fingerprint image using statistical measurements of local angles, power spectrum and pixel intensity.A feature selection is then made in the validation phase and a Linear Discriminant Analysis (LDA) classifier. ) is used to make the final prediction.The results show an average accuracy of 90% on two standard benchmarks, which is less than the 96.3% obtained by the present invention.Another disadvantage of the invention presented in [13] is that it is necessary to manually select the better characteristics that will be used in the classification. Eventually, future counterfeiting techniques may circumvent the proposed techniques, requiring that a new round of manual feature selection is made. The present invention does not suffer from this problem as it automatically learns the characteristics that best discriminate true from false fingerprints based on the images provided during training. This way, for the network to learn to detect them. Just re-train using samples of the new counterfeiting techniques. 10013] In the article by S. Moon. JS Chen, KC Chan, K. So and KC Woo : "Wavelet based fingerprint liveness detection," Electronics Letters, Vol. 20. no. 41, pp. 1 112-1113, 2005. [16], wavelets are used as feature vectors. False and true fingerprints have a significant difference in the distances between papillae and papillae frequency. Wavelet analysis uses a multi-resolution and orientation representation of a fingerprint image through subbands. Due to the multi-resolution property of wavelets, true and false fingerprint texture differences are analyzed at various scales. Additionally, the subbands carry high frequency components, which are quite striking for texture characterization. However, the method has some disadvantages: the images used are those captures immediately after the finger is placed on the sensor surface. It is not known whether this method is applicable to any type of fingerprint image as some devices wait a while (up to one second) to effectively capture the image. Also, as the method is based on perspiration, finger drying may be required before capture. The main differences from [16] with respect to the present invention are that the former does not use data augmentation and the feature extraction techniques are different. The accuracy obtained using Wavelets is lower than the accuracy obtained using the convolutional networks proposed in the present invention.
(0014] No artigo de Nikam and S. Agarwai, "Locai binary pattern and waveiet-based spoof fíngerprint detectton," int. J. Biometrics, vol. 1. no. 2, pp. 141-159, 2008, um sistema que usa a combinação de várias técnicas é apresentado (17] É feita a união de diferentes classificadores (k-NN, SVM e Adaboost) usando a regra do 'voto da maioria". Eles são treinados usando diferentes extratores de caracteristicas (LBP e wavelets, por exemplo). Os autores observam que os desempenhos dos extratores de características LBP e wavelets sâo similares e que o desempenho de classificadores híbridos é melhor que o desempenho de classificadores individuais. A principal diferença de (17] com relação à presente invenção é a técnica de extraçâo de características utilizada. Embora a combinação de técnicas frequentemente traz ganhos em acurácia, a acurácia obtida em [17] é inferior a acurácia obtida com a utilização de apenas das redes convolucionais, como proposto na presente invenção. (0014] In the article by Nikam and S. Agarwai, "Locai binary pattern and wave-based spooffingerprint detectton," int J. Biometrics, vol. 1. no. 2, pp. 141-159, 2008, a system that uses a combination of several techniques is presented (17] is made the union of different classifiers (k-NN, SVM and AdaBoost) using the rule of "majority vote". They are trained using different extractors characteristics (LBP and wavelets, The authors note that the performances of LBP and wavelet extractors are similar and that the performance of hybrid classifiers is better than the performance of individual classifiers. The main difference from (17] with respect to the present invention is the feature extraction technique used.Although the combination of techniques often yields accuracy, the accuracy obtained in [17] is less than the accuracy obtained using only the convolutional networks as proposed in the present invention.
[0015] No artigo de X. Jia, X. Yang, K. Cao. Y. Zang, N. 2hang: R. Dai and J. Tian, "MuJtí-scale Local Binary Pattern with Filters for Spoof Fingerprint Detection," Information Sciences, vol. 268: pp. 91-102. 2013, [18], uma variante mu tti -escala do LBP apresentada tem um bom desempenho em benchmarks de detecção de vivacidade em impressões digitais. Devido ao fato de que o LBP original não é capaz de capturar grandes regiões, a textura de imagens de impressões digitais pode ser complexa demais para ser representada pela técnica. Além disso, o LBP possui alta sensibilidade a ruídos (19]. Assim, o operador LBP muiti-escala (MSL8P) é introduzido através da aplicação de múltiplos filtros LBP com diferentes raios, e a combinação de cada imagem LBP é feita através da concatenação dos seus histogramas, formando o vetor de características final. Com o aumento da escala do L&P, grandes distancias entre amostras tornam o LBP frágil. Portanto, o MSLBP é combinado com um conjunto de filtros Gaussianos passa-baixa. Um classificador SVM é então treinado para fazer a predição final. A utilização de um operador multi-escala LBP pode ser considerado equivalente a uma rede convolucional com uma única camada treinada usando a técnica de aumento de dados com variação de escala. A vantagem da técnica proposta na presente invenção é que, através do uso de múltiplas camadas, os dados podem ser representados através da combinação hierárquica de diversos filtros. Isso possibilita um uso exponencialmente menor de filtros para representar uma mesma estrutura se compararmos com número de filtros necessários usandc-se as técnicas de uma única camada. Adicionalmente, nas redes convolucíonais os filtros podem ser aprendidos com base nos dados de treinamento, enquanto que a técnica proposta em [18) possui filtros com valores fixos. A vantagem de se aprender os filtros é que o sistema pode se adaptar conforme os dados de entrada mudam. Isso é eficaz quando, por exemplo, novas técnicas de falsificação de impressão venham a surgir, pois o sistema aprenderá a reconhecer essas novas técnicas através do uso de novos filtros. Como o tipo de característica extraída pela técnica proposta em [18] é fixo (ou seja, a textura) e independe dos dados treinamento, a técnica pode se tornar inútil caso seja criada uma nova técnica de falsificação que tenha textura muito similar ás impressões reais, já que o sistema, que se baseia apenas nessa característica nâo conseguirá diferenciar impressões verdadeiras de falsas. In the article by X. Jia, X. Yang, K. Cao. Y. Zang, N. 2hang : R. Dai and J. Tian, "Mu-scale Local Binary Pattern with Filters for Spoof Fingerprint Detection," Information Sciences, Vol. 268 : pp. 91-102. 2013, [18], a multi-scale variant of LBP presented performs well on fingerprint vivacity detection benchmarks. Due to the fact that the original LBP cannot capture large regions, the texture of fingerprint images may be too complex to be represented by the technique. In addition, LBP has high noise sensitivity (19), so the multi-scale LBP operator (MSL8P) is introduced by applying multiple LBP filters with different radii, and combining each LBP image through concatenation. histograms, forming the final feature vector. With increasing L&P scale, large sample distances make the LBP fragile, so the MSLBP is combined with a low-pass Gaussian filter set. An SVM classifier is then trained The use of an LBP multi-scale operator can be considered equivalent to a single-layer convolutional network trained using the scaling data augmentation technique. The advantage of the technique proposed in the present invention is that , through the use of multiple layers, data can be represented through the hierarchical combination of several filters. exponentially smaller filters to represent the same structure compared to the number of filters required using single layer techniques. Additionally, in convolutional networks the filters can be learned based on the training data, while the technique proposed in [18) has fixed value filters. The advantage of learning filters is that the system can adapt as input data changes. This is effective when, for example, new print forgery techniques emerge, as the system will learn to recognize these new techniques through the use of new filters. Since the type of feature extracted by the technique proposed in [18] is fixed (ie texture) and independent of training data, the technique can become useless if a new counterfeiting technique that has a texture very similar to the actual prints is created. since the system, which is based on this feature alone, will not be able to differentiate between true and false impressions.
(0016| Em aplicações como detecção de vivacidade de impressões digitais, degradações da imagem podem limitar a aplicabilidade dos sistemas que usam textura como informação para classificação. Uma ciasse de degradação é o borramento devido ao movimento ou falta de foco durante a captura da imagem. Como o "desborramento" da imagem é difícil de remover e introduz novos artefatos. é desejável que o sistema seja capaz de analisar textura de maneira a ser invariante ao borramento. (0016 | In applications such as fingerprint vividness detection, image degradation may limit the applicability of systems that use texture as information for classification. A degradation class is blurring due to movement or lack of focus during image capture. Because "blurring" of the image is difficult to remove and introduces new artifacts, it is desirable that the system be able to analyze texture so as to be invariant to blur.
[0017] O artigo de L Ghiani, G. L. Marcialis and F. Roli, Tingerprint Liveness Detection by Local Phase Quantization," 21st International Conference on. IEEE, 2012, [20], tenta resolver o problema através do uso de descritores Local Phase Quantization (LPQ). que utilizam a fase quaníizada da transformada discreta de Fourier calculada localmente em uma janela que passa por todas as posições da imagem. As fases dos quatros coeficientes de baixa-frequência são descorrelacíonadas e uniformemente quantizadas em um espaço de oito dimensões. Um histograma dos code words é criado e usado como característica para a classificação da textura. Idealmente, componentes de baixas frequências sâo mostrados como sendo invariantes a borramentos simétricos e centrais. Apesar dessa invariância ideal não ser complemente obtida peio método de janela de tamanho finito, a técnica é bastante insensitiva a borramentos. Como apenas uma única informação de fase é usada, a técnica também é invariante a mudanças uniformes na iluminação. L Ghiani's article, GL Marcialis and F. Roli, Tingerprint Liveness Detection by Local Phase Quantization, "21st International Conference on. IEEE, 2012, [20], attempts to solve the problem by using Local Phase Quantization descriptors. (LPQ), which use the quantized phase of the discrete Fourier transform calculated locally in a window that goes through all positions of the image. The phases of the four low-frequency coefficients are decorrelated and uniformly quantized in an eight-dimensional space. A histogram of code words is created and used as a feature for texture classification. Ideally, low frequency components are shown to be invariant to symmetrical and central blurs. Although this ideal invariance is not completely obtained by the finite-size window method, the technique is quite blunt-insensitive. Since only a single phase information is used, the technique is also invariant to uniform changes in illumination.
[0018] Dessa forma, os autores argumentam que a eficácia do LPQ esta na sua capacidade de representar todo o espectro de características da imagem de maneira bastante compacta, o que evita informações redundantes. Como diferentes orientações de uma impressão digital podem ser capturadas pelo sensor, eles adotaram uma versão do LPQ que é invariante a rotação. Os resultados mostram que IBP e LPQ tem desempenhos semelhantes e experimentos preliminares mostram que existe complementartedade entre as técnicas, mas mais estudos são necessários. As desvantagens do sistema proposto no artigo de L. Ghiani et al.. [20], são similares as do sistema proposto no artigo de X. Jia, [18]. A técnica extrai um único tipo de característica (borramentos) e caso seja criada uma nova técnica de falsificação que consiga ser similar a uma imagem de impressão real no quesito borramento, o sistema poderá ser burlado. Já a técnica proposta na presente invenção tem a capacidade de aprender automaticamente quais são as características relevantes com base nos dados de treinamento. Portanto, caso surja uma nova técnica de falsificação, basta treinar o sistema existente com imagens que usam a nova técnica e os filtros aprenderão quais são as características relevantes para discriminar o novo conjunto de dados. Além disso, a técnica proposta em [20] tem um poder de representação dos dados exponencialmente menor para uma mesma quantidade de filtros que a técnica das redes convolucionais (usadas nesta invenção), já que a primeira usa apenas uma única camada para extrair as características dos dados enquanto que a segunda utiliza múltiplas camadas, possibilitando uma representação hierárquica e, consequentemente, mais compacta dos dados. Thus, the authors argue that LPQ's effectiveness lies in its ability to represent the full spectrum of image characteristics in a very compact manner, which avoids redundant information. Because different orientations of a fingerprint can be captured by the sensor, they have adopted a version of LPQ that is invariant to rotation. The results show that PPI and LPQ have similar performances and preliminary experiments show that there is complementarity between the techniques, but more studies are needed. The disadvantages of the system proposed in the article by L. Ghiani et al .. [20] are similar to those of the system proposed in the article by X. Jia, [18]. The technique extracts a single type of feature (blurs) and if a new counterfeiting technique is created that can be similar to an actual print image on blur, the system can be circumvented. Already the technique proposed in the present invention has the ability to automatically learn which are the relevant characteristics based on the training data. So if a new counterfeiting technique comes up, just train the existing system with images that use the new technique and filters will learn what are the relevant characteristics to discriminate the new data set. Furthermore, the technique proposed in [20] has an exponentially lower data representation power for the same number of filters as the convolutional network technique (used in this invention), since the first uses only a single layer to extract the characteristics. while the second uses multiple layers, allowing a hierarchical and, consequently, more compact representation of the data.
[0019] O artigo L. Ghiani, H. A., G. L Marcialis and F. Roli. "Fingerprint liveness detection using Binarized Statistical image Features." In Bíometrics: Theory, Applications and Systems (BTAS), 2013 iEEE Sixth International Conference on, pp. 1-6, September 2013, [21], tenta combinar as vantagens de ambos LBP e LPQ através de um descritor local chamado Binarized Statistical Image Feature (BSIF). A ideia consiste em aprender automaticamente um conjunto de filtros através de um pequeno conjunto de imagens naturais, ao invés de usar filtros manualmente escolhidos tais como LBP e LPQ. Para caracterizar propriedades de textura, cada região da impressão digital são usados histogramas dos valores obtidos com BSIF. O valor de cada elemento (isto é, os bits) na string dos códigos binários BSIF é computado através da binarização da resposta de um filtro linear com limiar em zero. Cada bit é associado com um filtro diferente, e o tamanho da string usada determina o número de filtros usados. O conjunto de filtros é aprendido através da Análise de Componentes Independentes (Independent Component Analysis), que maximiza a independência estatística das respostas dos filtros. Os resultados são promissores, mas, como os experimentos foram feitos usando-se filtros previamente aprendidos com apenas 13 imagens naturais, o desempenho poderia certamente ser melhorado se fossem usadas mais imagens de treinamento e capturadas a partir de um sensor especifico. Na presente invenção, os filtros podem combinados na forma de várias camadas, o que possibilita a representação hierárquica de estruturas. A vantagem das técnicas de múltiplas camadas, como as redes convolucionais usadas na presente invenção, com relação a técnicas que usam apenas uma única camada, como no artigo de L. Ghiani et ai., [21], é que aquelas necessitam um número exponencialmente menor de filtros para se representar uma mesma estrutura. Visto de outra forma, as técnicas de múltiplas camadas oferecem maior poder de representação de estruturas para uma mesma quantidade de filtros que as técnicas de uma única camada. Adicionalmente, os filtros mencionados no artigo de L Ghiani, [21]. possuem valores binários enquanto que os filtros convolucionais possuem valores reais, o que possibilita representações mais detalhadas. [0019] Article L. Ghiani, HA, G.L Marcialis and F. Roli. "Fingerprint liveness detection using Binarized Statistical image Features." In Biometrics: Theory, Applications and Systems (BTAS), 2013 1-6, September 2013, [21] attempts to combine the advantages of both LBP and LPQ through a local descriptor called Binarized Statistical Image Feature (BSIF). The idea is to automatically learn a filter set from a small set of natural images, rather than using manually chosen filters such as LBP and LPQ. To characterize texture properties, each region of the fingerprint is used to histogram the values obtained with BSIF. The value of each element (ie the bits) in the BSIF binary code string is computed by binarizing the response of a zero-threshold linear filter. Each bit is associated with a different filter, and the length of the string used determines the number of filters used. The filter set is learned through Independent Component Analysis, which maximizes the statistical independence of filter responses. The results are promising, but as the experiments were Made using filters previously learned with only 13 natural images, performance could certainly be improved if more training images were used and captured from a specific sensor. In the present invention, the filters may be combined in the form of several layers, which enables hierarchical representation of structures. The advantage of multilayer techniques, such as the convolutional networks used in the present invention, over techniques using only a single layer, as in the article by L. Ghiani et al., [21] is that they require an exponentially number. smaller filters to represent the same structure. In other words, multilayer techniques offer greater structure representation power for the same number of filters than single layer techniques. Additionally, the filters mentioned in L Ghiani's article, [21]. have binary values while convolutional filters have real values, which allows more detailed representations.
[0020] Em US20130294663 são descritos sistemas e métodos para detecção de vivacidade em impressões digitais através de análise de textura multi-resoiucional. A tecnologia descrita na patente se assemelha à presente invenção pelo fato de compreender um método de detecção de vivacidade em impressões digitais que utiliza, dentre as técnicas citadas, um método que compreende o translado de uma pluralidade de imagens para a referida aplicação (característica semelhante à utilização de dados aumentados compreendida na tecnologia). Contudo, o documento apenas menciona que o sistema recebe como entrada múltiplas imagens, sem citar como a captura de múltiplas imagens é realizada. Além disso o método relatado em US20130294663 requer como entrada pelo menos duas imagens de uma mesma impressão digital enquanto que a presente invenção, diferentemente, cria uma pluralidade de imagens a partir da captura de apenas uma imagem. {0021} A tecnologia descrita em US5825907 refere-se a sistema de redes neurais para classificação de impressões digitais. A presente invenção assemelha-se à tecnologia descrita na patente americana pelo fato de compreender a utilização de um tipo de rede neural. No entanto, diferencia-se peio fato de que a metodologia apresentada em US5825907 compreende uma aplicação para classificação de uma impressão digitai em 5 classes distintas. As referidas classes podem então ser utilizadas para reduzir o número de impressões digitais a serem procuradas em uma pesquisa de identificação. No que se refere ao presente invento, o método é utilizado para detecção de vivacidade, cuja aplicação não é mencionada na patente citada. Outra diferença reside no fato de utilizar redes convolucionais, que são um tipo de rede neural mas cuja implementação utilizada difere das implementações de uma rede neural clássica. Nesse sentido as redes convolucionais apresentam melhor escalabilidade e desempenho (acurácia) em diversos problemas de visão computacional. [0020] US20130294663 describes systems and methods for detecting vividness in fingerprints by multi-resonational texture analysis. The technology described in the patent resembles the present invention in that it comprises a method for detecting fingerprint vivacity which utilizes, among the aforementioned techniques, a method comprising the transfer of a plurality of images to said application (feature similar to increased data usage comprised in technology). However, the document only mentions that the system receives multiple images as input, not to mention how multiple image capture is performed. In addition the method reported in US20130294663 requires as input at least two images of the same fingerprint while the present invention, in contrast, creates a plurality of images from capturing only one image. {0021} The technology described in US5825907 refers to the neural network system for fingerprint classification. The present invention resembles the technology described in the US patent in that it comprises the use of a type of neural network. However, it differs from the fact that the methodology presented in US5825907 comprises an application for classifying a fingerprint into 5 distinct classes. These classes can then be used to reduce the number of fingerprints to be searched in an identification search. With respect to the present invention, the method is used for detection of vividness, the application of which is not mentioned in the cited patent. Another difference is that it uses convolutional networks, which are a type of neural network but whose implementation differs from the implementations of a classical neural network. In this sense, convolutional networks present better scalability and performance (accuracy) in several computer vision problems.
(0022) Em US7095880 é revelado um método e aparato para captura de impressões digitais. A tecnologia descrita se assemelha à presente invenção peio fato de compreender um método de translado de uma pluralidade de imagens de impressão digital para a referida aplicação No entanto, a invenção proposta difere-se da tecnologia mencionada no documento principalmente peio fato de criar artificialmente múltiplas imagens, sendo necessária apenas uma única imagem a ser capturada pelo sensor A tecnologia citada requer que o sensor capture múltiplas imagens para processamento, sendo necessário, ainda, manter o dedo do usuário pressionado no sensor até que as múltiplas imagens sejam capturadas. Esse requerimento pode causar uma lentidão indesejável ao usuário. Outra desvantagem é que a tecnologia americana é restrita a sensores que sejam capazes de capturar múltiplas imagens US7095880 discloses a method and apparatus for fingerprint capture. The described technology resembles the present invention in that it comprises a method of transferring a plurality of fingerprint images to said application. However, the proposed invention differs from the technology mentioned in the document in that it artificially creates multiple images. , requiring only a single image to be captured by the sensor The technology cited requires that the sensor capture multiple images for processing, It is also necessary to hold the user's finger on the sensor until multiple images are captured. This requirement may cause undesired slowness to the user. Another disadvantage is that US technology is restricted to sensors that are capable of capturing multiple images.
BREVE DESCRIÇÃO OA INVENÇÃO BRIEF DESCRIPTION THE INVENTION
[0023] A presente invenção refere-se a um método de detecção de vivacidade de impressões digitais que usa as redes convolucionais que compreende as seguintes etapas principais:  The present invention relates to a fingerprint vivacity detection method using convolutional networks comprising the following main steps:
a) Aumento artificial de dados da imagem.  a) Artificial increase of image data.
b) Pré-processamento da imagem;  b) Image preprocessing;
c) Extraçâo das características da imagem por redes convolucionais;  (c) Extraction of image characteristics by convolutional networks;
d) Redução da dimensionalidade; e normalização dos dados;  d) reduction of dimensionality; and data normalization;
e) Classificação das amostras (convoluidas e reduzidas) em verdadeira ou falsa utiiizando-se um classificador binário;  e) Classification of samples (convoluted and reduced) to true or false using a binary classifier;
[0024) 0 método é executado em duas fases: a primeira de treinamento e a segunda de classificação.  The method is performed in two phases: the first of training and the second of classification.
(0025) No método apresentado a etapa c é utilizada pelo menos uma vez para treinamento do sistema.  In the method presented step c is used at least once for system training.
[0026] Adicionalmente, no método apresentado acima as etapas c e e são obrigatórias.  Additionally, in the method presented above, steps c and e are required.
(0027] O método proposto na presente invenção pode ser executado em computadores na nuvem, servidores locais, computadores desktops, notebooks.  (0027) The method proposed in the present invention can be performed on cloud computers, local servers, desktop computers, notebooks.
BREVE DESCRIÇÃO DAS FIGURAS  BRIEF DESCRIPTION OF THE FIGURES
f0028] Figura 1 - Visão Geral do fluxo de processos 10029] Figura 2 - Imagem Original (esquerda), filtrada com um filtro passa-baixas (meio) e filtrada com um filtro passa-altas (direita). f0028] Figure 1 - Process flow overview 10029] Figure 2 - Original image (left), filtered with a low-pass filter (middle) and filtered with a high-pass filter (right).
[0030] Figura 3 - Sequência de etapas para extraçâo da região de interesse de uma imagem de impressão digital.  [0030] Figure 3 - Sequence of steps for extracting the region of interest from a fingerprint image.
[0031] Figura 4 - Imagens originais (esquerda) e com CLAHE aplicado [0031] Figure 4 - Original images (left) and with CLAHE applied
(direita). (right).
[0032] Figura 5 - ilustração de uma sequência de operações de uma rede convolucional de uma única camada aplicadas em uma imagem de uma impressão digitai.  [0032] Figure 5 - Illustration of a sequence of single layer convolutional network operations applied to an image of a fingerprint.
[0033] Figura 6 - Ilustração de uma sequência de operações realizadas por uma rede convolucional de duas camadas.  [0033] Figure 6 - Illustration of a sequence of operations performed by a two-layer convolutional network.
[0034] Figura 7 - Imagens originais (esquerda) e com normalização divisiva (direita). [0034] Figure 7 - Original images (left) and divisive normalization (right).
[0035] Figura 8 - ilustração de três tipos de transformações de aumento artificiai de dados: reflexões horizontais, rotações e translações.  Figure 8 - Illustration of three types of artificially increasing data transformations: horizontal reflections, rotations, and translations.
DESCRIÇÃO DETALHADA DA INVENÇÃO  DETAILED DESCRIPTION OF THE INVENTION
[0036] A presente invenção refere-se a um método de detecção de vivacidade de impressões digitais que usa as redes convolucionaís. compreendendo as seguintes etapas principais:  The present invention relates to a method of fingerprint vivacity detection using convolutional networks. comprising the following main steps:
a) Aumento artificial de dados da imagem.  a) Artificial increase of image data.
b) Pré-processamento da imagem:  b) Image preprocessing:
b1) Redução da imagem por meio de interpolação bi-iinear;  b1) Image reduction by bi-linear interpolation;
b2)Filtragem em frequência compreendendo um filtro passa-baixas ou um filtro passa-altas;  b2) Frequency filtering comprising a low pass filter or a high pass filter;
b3) Determinação da região de interesse (ROI) da imagem; b3,1) Aplicação da abertura morfológica para realçar a região onde a impressão digitai se encontra; b3) Determination of the region of interest (ROI) of the image; b3,1) Application of the morphological opening to highlight the region where the fingerprint is located;
b3.2) Cálculo do centro de massa e dos desvios-padrão da altura e largura da imagem obtida na etapa b3,1;  b3.2) Calculation of the center of mass and standard deviations of the height and width of the image obtained in step b3,1;
b3.3) Determinação do retângulo que conterá a região de interesse:  b3.3) Determination of the rectangle that will contain the region of interest:
b4) Equalizaçáo de contraste da imagem;  b4) Image contrast equalization;
c) Extração das características da imagem por redes convolucionais;  c) Extraction of image characteristics by convolutional networks;
d) Redução da dimensionalidade da imagem; e normalização dos dados; e  d) Reduction of image dimensionality; and data normalization; and
e) Classificação das imagens (convoluídas e reduzidas) em verdadeiras ou falsas utilízando-se um classificador binário.  e) Classification of images (convoluted and reduced) into true or false using a binary classifier.
(0037] O método é executado em duas fases: a primeira de treinamento; e a segunda de classificação.  (0037] The method is performed in two phases: the first of training and the second of classification.
[0038] A fase de treinamento compreende, ainda, uma sub etapa de validação que pode ser realizada da seguinte forma: The training phase further comprises a validation sub-step which can be performed as follows:
1.Criação de conjuntos de valores dos hiper parâmetros e de combinações de execução ou não cada uma das etapas opcionais;  1.Creation of hyper parameter value sets and combinations of execution or not each of the optional steps;
2. Dentre os conjuntos criados em 1, escolha um e aplique as configurações nos módulos das etapas de a a e,  2. From the sets created in 1, choose one and apply the settings to the modules in steps a through e,
3. Divisão do conjunto de treinamento em dois blocos, A e B; 3. Division of the training set into two blocks, A and B;
4. O sistema compreendido pelas etapas de a a e com a configuração escolhida no passo 2 é treinado usando se o conjunto de dados A e validado usando-se o conjunto de dados4. The system comprised of steps aae with the configuration chosen in step 2 is trained using the dataset A and validated using the dataset
B; B;
5. O sistema compreendido peias etapas de a a e com a configuração escolhida no passo 2 é treinado usando-se o conjunto de dados B e validado usando-se o conjunto de dados 5. The system comprised of steps a through and with the configuration chosen in step 2 is trained using dataset B and validated using dataset
A; THE;
6. Repetição dos passos 3. 4 e 5 pelo menos cinco vezes, sendo que em cada iteração é utilizado uma divisão diferente para se criar os blocos A e B;  6. Repeat steps 3. 4 and 5 at least five times, each time using a different division to create blocks A and B;
7. Computação da acurácia fazendo a média de pelo menos 10 validações.  7. Accuracy computation averaging at least 10 validations.
8. Os passos de 2 a 7 sâo repetidos para cada conjunto de hiper parâmetros criado na etapa 1.9. Escolha dos valores para hiper-parametros de cada etapa e quais etapas irão compor o sistema finai, baseando-se na melhor acurácia computada em 7; Na presente invenção, as escolhas de híper-parâmetros e a escolha das etapas de processamento que irão compor o sistema foram feitas usando-se o esquema de validação cruzada 5x2-Fold.  8. Steps 2 through 7 are repeated for each set of hyper parameters created in step 1.9. Choose the values for hyperparameters of each step and which steps will compose the fini system, based on the best accuracy computed in 7; In the present invention, the hyper-parameter choices and the choice of processing steps that will make up the system were made using the 5x2-Fold cross-validation scheme.
[0039] Na fase de treinamento a etapa c é realizada peio menos uma vez para treinamento do sistema.  In the training phase, step c is performed at least once for system training.
[0040] As etapas c e e sâo obrigatórias para as duas fases (treinamento e classificação).  Steps c and e are required for both phases (training and classification).
[0041] As etapas a. b1. b2, b3, b4 e d são realizadas opcionalmente nas duas fases (treinamento e classificação).  [0041] The steps a. b1. b2, b3, b4 and d are optionally performed in both phases (training and classification).
[0042] O método proposto na presente invenção pode ser executado em computadores de alto desempenho na nuvem visando diminuir os tempos de treinamento. O método também pode ser executado em servidores locais, computadores desktops, notebooks, dispositivos móveis, CLPs ou Fietd Programmable Gate Arrays (FPGA) que tenham memória suficiente (preferencialmente maior que 1GB). [0042] The method proposed in the present invention can be performed on high performance cloud computers to shorten training times. The method can also be performed on local servers, desktops, laptops, devices Programmable Gate Arrays (FPGA) that have sufficient memory (preferably larger than 1GB).
(0043) A execução ou não de cada uma dessas etapas pode ser melhor compreendida analisando-se a Figura 1 , e o modelo final é decidido na sub etapa de validação, que é uma sub etapa da fase de treinamento e que consiste em escolher os hiper-parâmetros do sistema, tais como fator de redimensionamento das imagens, número de componentes do PCA e dimensões dos filtros das redes convolucionais. Entretanto, a presente invenção apresenta uma extensão dos métodos tradicionais de validação ao incluir a escolha de quais etapas irão compor o sistema final. Em outras palavras, além da escolha dos melhores valores para hiper-parametros de cada etapa, a escolha de executar (ou nâo) cada uma das etapas também é feita na fase de validação. A combinação de etapas que teve a melhor acurácia durante a fase de validação será o modelo final. Mais especificamente, foram executados os seguintes passos: (0043) The execution or not of each of these steps can be better understood by analyzing Figure 1, and the final model is decided in the validation sub-step, which is a sub-step of the training phase, which consists in choosing the system hyper-parameters such as image resizing factor, number of PCA components and filter dimensions of convolutional networks. However, the present invention provides an extension of traditional validation methods by including choosing which steps will make up the final system. In other words, besides choosing the best values for hyperparameters of each step, the choice to execute (or not) each step is also made in the validation phase. The combination of steps that had the best accuracy during the validation phase will be the final model. More specifically, the following steps were performed:
(1) - Cada uma das etapas é vista como se fosse um parâmetro booieano. Caso o parâmetro tiver valor verdadeiro, a etapa será executada, caso contrário, não.  (1) - Each step is seen as a Booiean parameter. If the parameter has true value, the step will be executed, otherwise not.
(2) - São feitas todas as combinações possíveis desses parâmetros. Um exemplo destas combinações seria: executar a etapa a, executar a etapa bl nâo executar a etapa b2, executar a etapa b3 e não executar a etapa b4, não executar a etapa d. Como as etapas c e e são sempre executadas, existem seis etapas (a. bl b2. b3 b4 e d) que podem ou não serem executadas. Portanto, temos um total de 2S=64 combinações possíveis. (2) - All possible combinations of these parameters are made. An example of these combinations would be: perform step a, perform step bl do not perform step b2, perform step b3 and do not perform step b4, do not perform step d. Because c and c are always performed, there are six steps (a. Bl b2. B3 b4 ed) that may or may not be performed. Therefore, we have a total of 2 S = 64 possible combinations.
(3) - Para cada uma das combinações, a acurácia do sistema é avaliada utiltzando-se o conjunto de dados de validação, que pode consistir em algumas dezenas, preferencialmente centenas, de imagens verdadeiras ou falsas. (3) - For each of the combinations, the accuracy of the system is evaluated using the validation data set, which can be consist of a few tens, preferably hundreds, of true or false images.
(Ay A combinação que obteve a melhor acurácia no conjunto de validação será escolhida para compor o sistema final.  (Ay The combination that obtained the best accuracy in the validation set will be chosen to compose the final system.
[0044] Abaixo tem-se a descrição detalhada de cada etapa envolvida relacionada ao método proposto.  Below is a detailed description of each step involved related to the proposed method.
Etapa a - Aumento de dados  Step a - Data Increase
[0045) Aumento de dados é uma técnica que consiste em artificialmente criar amostras ligeiramente modificadas a partir das amostras originais. As técnicas de aumento de dados da presente invenção compreendem o grupo de técnicas de aumento de dados seiecionadas dentre as rotações, translações, reflexões horizontais, mudanças de escala, alteração local de intensidades dos pixels, adição de ruídos ou criação de amostras a partir de modelos 3D do objeto a ser categorizado, preferencialmente translações e reflexões horizontais, para a criação artificial de amostras ligeiramente modificadas a partir das amostras originais. Ao se usar um conjunto de dados aumentado durante o treinamento é esperado que o classificador torne-se mais robusto contra pequenas variações que podem estar presente nos dados, forçando-o a aprender estruturar mais complexas (e possivelmente mais importantes). É usado com sucesso em diversas aplicações de visão computacional [15], (16] e  Data augmentation is a technique of artificially creating slightly modified samples from the original samples. The data augmentation techniques of the present invention comprise the group of data augmentation techniques selected from rotations, translations, horizontal reflections, scaling, local alteration of pixel intensities, noise addition or sample creation from models. 3D of the object to be categorized, preferably horizontal translations and reflections, for artificially creating slightly modified samples from the original samples. By using an augmented data set during training, the classifier is expected to become more robust against small variations that may be present in the data, forcing it to learn more complex (and possibly more important) structures. It is successfully used in many computer vision applications [15], (16] and
[17]. Na técnica de aumento de dados são realizadas reflexões horizontais e translações como sendo os dois tipos de transformações de aumento artificial de dados. [17] In the data augmentation technique, horizontal reflections and translations are performed as the two types of artificial data augmentation transformations.
Etapa b - Pré-processamento: Step b - Preprocessing:
(G046]Quatro operações de pré-processamento podem ser utilizadas na presente invenção: redução das imagens (etapa b1), filtragem em frequência (etapa b2). extração da região de interesse (ROi) (etapa b3) e equalização de contraste (etapa b4). (G046] Four preprocessing operations can be used in the present invention: image reduction (step b1), filtering on frequency (step b2). extraction of the region of interest (ROi) (step b3) and contrast equalization (step b4).
Etapa bi - Redução da imagem: Step Bi - Image Reduction:
[0047]As imagens podem ter seu tamanho reduzido para diminuir os tempos de treino. Em geral, o tempo de treinamento é linearmente proporcional ao tamanho da imagem. Logo, se a imagem for diminuída para metade de seu tamanho original, espera-se que o tempo de processamento seja reduzido quase peia metade. Nesta invenção a redução de imagem é feita usando interpolação bt-linear e as imagens podem ser redimensionadas entre 100% (sem redução) a 25% do seu tamanho original, preferencialmente 100% (sem redução).  [0047] Images may be reduced in size to shorten training times. In general, training time is linearly proportional to image size. Therefore, if the image is reduced to half its original size, processing time is expected to be reduced by almost half. In this invention image reduction is done using bt-linear interpolation and images can be scaled from 100% (no reduction) to 25% of their original size, preferably 100% (no reduction).
Etapa b2 - Filtragem em frequência:  Step b2 - Frequency Filtering:
[0048] É possível que a remoção de ruídos através da filtragem passa-baixas possa aumentar o desempenho do classificador. Também é possível que as informações relevantes para diferenciar as impressões digitais falsas das verdadeiras esteja nos componentes de afta frequência, e por isso uma filtragem passa-altas pode melhorar a acurácia do sistema. O filtro passa-baixas é preferencialmente implementado como a convolução de uma imagem por um filtro gaussiano e o filtro passa-altas é preferencialmente implementado como a subtração da imagem originai peia imagem filtrada com o filtro passa-baixas. Os filtros utilizados na filtragem em frequência apresentam desvio padrão igual a 3 e janela com tamanhos entre 7x7 e 21x21 pixels, preferencialmente 13x13 pixels. A Figura 2 mostra o efeito desses filtros em algumas imagens de impressão digital.  It is possible that noise removal through low pass filtering may increase classifier performance. It is also possible that the information relevant to differentiating false from true fingerprints may be in the low frequency components, so high pass filtering can improve the accuracy of the system. The low pass filter is preferably implemented as the convolution of an image by a Gaussian filter and the high pass filter is preferably implemented as the subtraction of the original image filtered by the low pass filter. The filters used in frequency filtering have a standard deviation of 3 and window size between 7x7 and 21x21 pixels, preferably 13x13 pixels. Figure 2 shows the effect of these filters on some fingerprint images.
Etapa b3 «~ Região de interesse (Region ofinterest - ROI): [0049]Muitas impressões digitais de alguns sensores não são centralizadas na imagem e/ou o fundo corresponde à grande parte da imagem. Para que o sistema classificador receba amostras que tenham a maior relação impressão digital/fundo possível, foi criada uma simples técnica de extração da região de interesse através das seguintes etapas: Step b3 ' ~ Region of Interest - ROI: Many fingerprints of some sensors are not centered on the image and / or the background corresponds to much of the image. For the classifier system to receive samples that have the highest fingerprint / background ratio possible, a simple technique for extracting the region of interest was created through the following steps:
Etapa b3.1 - Abertura morfológica  Step b3.1 - Morphological Opening
(0050]Aplica-se a abertura morfológica para realçar a região onde a impressão digital se encontra. O elemento estruturante deve ser maior que a máxima distância entre papilas compreendendo faixa de tamanho entre 10 e 35 pixels para imagens de resolução 640x480 pixets, preferencialmente 21 pixels, assegurando que impressão digitai se tornará uma região continua depois da operação.  (0050] The morphological aperture is applied to highlight the region where the fingerprint is in. The structuring element should be greater than the maximum distance between papillae comprising size range of 10 to 35 pixels for 640x480 pixel resolution images, preferably 21. pixels, ensuring that digital printing will become a continuous region after the operation.
Etapa b3.2 - Cálculo do centro de massa e dos desvios-padrão (0051 }Caícula-se o centro de massa e os desvios-padrão da altura e largura da imagem obtida na etapa b3.1 Step b3.2 - Calculation of the center of mass and standard deviations (0051) The center of mass and the standard deviations of the height and width of the image obtained in step b3.1 are plotted.
Etapa b3.3 - Determinação do retângulo que conterá a região de interesse  Step b3.3 - Determining the rectangle that will contain the region of interest
(G052]Encontra-se a região de interesse, que será o retângulo centrado no centro de massa cujas dimensões de altura e largura são três vezes os desvios-padrão calculados no passo anterior.  (G052] There is the region of interest, which will be the center-centered rectangle whose dimensions of height and width are three times the standard deviations calculated in the previous step.
(0053) A sequência de etapas para extracão da região de interesse de uma imagem de impressão digital pode ser visualizada na Figura 3. The sequence of steps for extracting the region of interest from a fingerprint image can be seen in Figure 3.
Etapa b4 - Equaltzação de Contraste:  Step b4 - Contrast Equalization:
[0054]Para a equaltzação de contraste são utilizadas técnicas selecionadas dentre o grupo de técnicas de equalização de histograma, preferencialmente a técnica chamada de Contrast Limited Adaptive Histogram Equalízatíon (CLAHE) [1] para equalização de contraste, que é uma variante da técnica Adaptive Htstogram Equatization (AHE) |2J. AHE computa vários histogramas, cada um correspondendo a uma seção distinta da imagem e usa~os para redistribuir as intensidades dos pixeis da imagem, É, portanto, adequado para melhorar o contraste locai de imagens. Entretanto, AHE tem a tendência de amplificar ruídos em regiões relativamente homogéneas da imagem. CLAHE evita isto através da limitação da amplificação usando limites superiores para os valores do histograma antes de computar a função de distribuição cumulativa da vizinhança. Para o cálculo do histograma, utiliza-se vizinhança com disco de diâmetros entre 5 e 60 pixeis, preferencialmente 30 pixeis. A Figura 4 compara imagens originais e filtradas com CLAHE. For contrast equalization, techniques selected from the group of histogram equalization techniques are used, preferably the technique called Contrast Limited Adaptive Histogram Equalization (CLAHE) [1] for contrast equalization, which is a variant of the Adaptive Htstogram Equatization (AHE) | 2J technique. The HE computes several histograms, each corresponding to a distinct section of the image and uses them to redistribute the image pixel intensities. It is therefore suitable for improving the local contrast of images. However, AHE has a tendency to amplify noise in relatively homogeneous regions of the image. CLAHE avoids this by limiting amplification by using upper limits for histogram values before computing the cumulative neighborhood distribution function. For the calculation of the histogram, a neighborhood with a disc diameter between 5 and 60 pixels, preferably 30 pixels, is used. Figure 4 compares original and CLAHE filtered images.
Etapa c - Redes Convoiucionats: Step c - Convoiucionats Networks:
[0055J Uma rede convolucionai clássica é composta por camadas alternadas de convoluções e pooling locai (isto é, sub-amostragem) [39]. O objetivo da primeira camada de convolução é extrair padrões encontrados dentro de regiões focais da imagem de entrada que são comuns ao longo do conjunto de amostras, isto é feito através da convolução de um filtro pela imagem de entrada e a saída resultante é um mapa de características c para cada filtro da camada.  A classical convolutional network is composed of alternating layers of convolutions and local pooling (ie, sub-sampling) [39]. The objective of the first convolution layer is to extract patterns found within focal regions of the input image that are common throughout the sample set, this is done by convolution of a filter by the input image and the resulting output is a map of c characteristics for each layer filter.
[0056] As ativações resultantes de f(c) são então passadas para a camada de pooling, que agrega a informação dentro de pequenas regiões locais, R, produzindo um mapa de características agrupado s (normalmente de tamanho menor que c) como saída. Denotando a função de agregação como pool(), para todos os mapas de características c. temos:
Figure imgf000022_0001
10057] onde Rj é a região de pooling ] no mapa de características c e i é o índice de cada elemento dentro dele. Dentre os vários tipos de pooling, dois são comumente usados: average e max. Average- pooling retorna a média (ou a soma) das unidades de ativação de uma vizinhança R,
Figure imgf000023_0001
The resulting activations of f (c) are then passed to the pooling layer, which aggregates the information into small local regions, R, producing a grouped feature map s (usually smaller than c) as output. Denoting the aggregate function as pool () for all feature maps c. we have:
Figure imgf000022_0001
10057] where Rj is the pooling region] in the feature map c and c is the index of each element within it. Among the various types of pooling, two are commonly used: average and max. Average pooling returns the average (or the sum) of the activation units of a neighborhood R,
Figure imgf000023_0001
l0058)Já o max-pooting seleciona o valor máximo dentro de uma , região R,
Figure imgf000023_0002
l0058) Max-pooting selects the maximum value within an R region,
Figure imgf000023_0002
[0059]A motivação para se usar pooling vem do fato de que as ativações do mapa s são menos sensitivas a localizações exatas das estruturas da imagem do que o mapa de características original c. Em um modelo muiti-camadas. as camadas convoluctonais, que tomam entradas as saídas das camadas de pooling, podem então extrair características que são crescentemente invariantes a transformações locais da imagem de entrada [3] [4]. Isso é importante para a classificação, já que essas transformações podem ocultar a identidade do objeto. Portanto, o pooling tenta obter invariância a mudanças na posição e condições de iluminação, robustez a ruído e representação compacta.  The motivation for using pooling comes from the fact that map activations are less sensitive to exact locations of image structures than the original feature map c. In a multi-layered model. Convoluctonal layers, which take in and out of pooling layers, can then extract features that are increasingly invariant to local transformations of the input image [3] [4]. This is important for classification, as these transformations can hide the identity of the object. Therefore, pooling attempts to obtain invariance to changes in position and lighting conditions, robustness to noise, and compact representation.
(oo$0)Na presente invenção as operações de pooling possíveis são selecíonadas do grupo de operações average pooling, max-pooting, $tocha$tic pooling, multi-scale/spatial pyramidal pooling, preferencialmente max~pooling.  (oo $ 0) In the present invention possible pooling operations are selected from the average pooling, max-pooting, $ torch $ tic pooling, multi-scale / spatial pyramidal pooling, preferably max ~ pooling operations group.
[0061] As redes convolucionais podem ter várias camadas de convolução e pooling. O objetivo de empilhar essas camadas é criar um sistema que seja capaz de capturar estruturas mais complexas nas amostras, pois os padrões de características obtidos em uma camada são utilizados como entrada para a camada seguinte, permitindo assim uma representação hierárquica das estruturas encontradas, obtendo assim estruturas mais complexas conforme se sobe na hierarquia. Convolutional networks can have multiple convolution and pooling layers. The purpose of stacking these layers is to create a system that is able to capture more complex structures in the samples, because the characteristic patterns obtained in one layer are used as input to the next layer, thus allowing a hierarchical representation of the found structures, thus obtaining more complex structures as one rises in the hierarchy. .
(0062] Como a convolução é uma operação linear e a combinação de duas ou mais operações lineares é equivalente a uma única operação linear, o esforço de se construir uma rede múltiplas camadas seria em vão se empilhássemos apenas camadas convolucionais. Para evitar isso, uma função não linear é aplicada em cada elemento de cada mapa de características c: a = f(c), resultando em uma rede compostas por múltiplas camadas não lineares. Várias funções podem ser usadas para f(c), sendo que tanh(c) e funções logísticas são escolhas populares. Nesta invenção usamos f(c) - max(c), como uma função não linear. De maneira geral, tem sido mostrado que esta função tem melhor desempenho sobre as demais [5].  Since convolution is a linear operation and the combination of two or more linear operations is equivalent to a single linear operation, the effort to build a multilayer network would be in vain if we stacked only convolutional layers. nonlinear function is applied to each element of each feature map c: a = f (c), resulting in a network composed of multiple nonlinear layers.Famous functions can be used for f (c), where tanh (c) and logistic functions are popular choices.In this invention we use f (c) - max (c) as a nonlinear function.Generally speaking, this function has been shown to perform better than others [5].
(0063] A Figura 5 ilustra uma sequência de operações realizadas por uma rede convolucional de uma única camada. A imagem de entrada é convolucionada com três filtros aleatórios de tamanhos entre 5x5 e 15x15, preferencialmente 5x5 (aumentados para facilitar a visualização), gerando três imagens convolucionadas. Uma função não linear max(x,0) é então aplicada nas imagens, seguido de uma operação de max-poolmg e sub-amostragem por um fator de 2.  (0063] Figure 5 illustrates a sequence of operations performed by a single-layer convolutional network.The input image is convoluted with three random filters of size between 5x5 and 15x15, preferably 5x5 (enlarged for easy viewing), generating three A nonlinear max (x, 0) function is then applied to the images, followed by a max-poolmg operation and sub-sampling by a factor of 2.
Í0064]A Figura 6 ilustra uma sequência de operações de uma rede convolucional de duas camadas (as camadas de não-linearidade e max-poolmg não são mostradas para simplificar a ilustração). As imagens de saída da primeira camada são usadas como entrada para a segunda camada. Elas são convolucionadas com nove filtros aleatórios e passam pelas operações de max-pooling e sub- amostragem. As imagens resultantes são normalmente rasterizadas e concatenadas, formando um vetor unidimensional que é então usado como entrada para um classificador binário compreendido na etapa e [0064] Figure 6 illustrates a sequence of operations of a two-layer convolutional network (the nonlinearity and max-poolmg layers are not shown to simplify the illustration). First layer output images are used as input to the second layer. They are convoluted with nine random filters and go through max-pooling and sub-sampling operations. The resulting images are usually rasterized and concatenated, forming a one-dimensional vector that is then used as input to a binary classifier comprised in step e.
(0065]Os pesos dos filtros convolucionais podem ser aleatórios ou podem ser aprendidos (6j. A primeira abordagem é mais fácil de ser implementada e possui tempo de treinamento do sistema ê mais rápido, obviamente. Entretanto, redes convolucionais cujos filtros foram aprendidos possuem uma acurácia melhor que redes cujos filtros são aleatórios [7] [8] [9].  (0065) Convolutional filter weights may be random or learned (6j. The first approach is easier to implement and has system training time and is obviously faster. However, convolutional networks whose filters have been learned have a accuracy better than networks whose filters are random [7] [8] [9].
[0066]Podem também serem usadas diversas variações da arquitetura apresentada acima. Uma abordagem comum é adicionar uma camada que realiza a operação de normalização de contraste local (não confundir com a equalização de contraste descrita na etapa de pré-processamento) entre as camadas de convolução e poolíng. O objettvo desta camada é normalizar as intensidades dos pixels baseando-se em suas vizinhanças. Dois tipos de normalização de contraste locai são comumente usadas: normalização subtrativa e normalização divisiva. A operação de normalização subtrativa em uma imagem pode ser definida como: Several variations of the architecture presented above may also be used. A common approach is to add a layer that performs the local contrast normalization operation (not to be confused with the contrast equalization described in the preprocessing step) between the convolution and pooling layers. The object of this layer is to normalize the intensities of the pixels based on their surroundings. Two types of local contrast normalization are commonly used: subtractive normalization and divisive normalization. The subtractive normalization operation on an image can be defined as:
Figure imgf000025_0003
Figure imgf000025_0001
Figure imgf000025_0003
Figure imgf000025_0001
[0067]Onde wpq é uma janela de pesos gaussianos de maneira que Where w pq is a window of gaussian weights so that
Figure imgf000025_0002
[0068londe i se refere ao índice da terceira dimensão da imagem, j e k se referem as duas primeiras dimensões da imagem (altura e largura), p e q se referem a região de vizinhança definida por j e k.
Figure imgf000025_0002
Where i refers to the index of the third dimension of the image, j and k refer to the first two dimensions of the image (height and width), and q refer to the neighborhood region defined by j and k.
[0069]Já a normalização divisiva é calculada como: [0069] Divisive normalization is calculated as:
Figure imgf000026_0001
Figure imgf000026_0001
Í00701A Figura 7 mostra a normalização divisiva usando filtros de tamanho 9x9 aplicados em algumas imagens de impressões digitais. Etapa d - Redução da dimensionalidade usando o método da Análise de Componentes Principais (ou em inglês Principal Componente Anafysis - PCA) e normalização usando a técnica de Whitening:  Figure 7 shows divisive normalization using 9x9 size filters applied to some fingerprint images. Step d - Dimensionality reduction using the Principal Component Analysis (PCA) method and normalization using the Whitening technique:
[0071] Após a de extração das características usando as redes convolucionass, cada dimensão das amostras do conjunto de dados é independentemente normalizada para média zero e variância unitária. Isto é normalmente necessário, pois as funções objetivas de muitos métodos de aprendizado de máquina (tal como o Support Vector Machine que utiliza kemel Gaussiano) assumem que todas as dimensões estão centradas em zero e possuem variância da mesma ordem. Se uma dimensão tem uma variância que é muito maior que as demais, ela poderá dominar a função objetiva e fazer com que o estimador fique incapaz de utilizar as outras dimensões para aprender, como seria o esperado.  After feature extraction using convolutions, each data set sample size is independently normalized to zero mean and unit variance. This is usually necessary because the objective functions of many machine learning methods (such as the Support Vector Machine using kemel Gaussian) assume that all dimensions are zero-centered and have variance of the same order. If one dimension has a variance that is much larger than the others, it may dominate the objective function and render the estimator unable to use the other dimensions to learn as expected.
f0072|Os dados normalizados são então sujeitos a redução da dimensionalidade através de técnicas compreendidas do grupo de técnicas de Análise de Componentes Principais (ou em inglês Principal Componente Anaíysis - PCA), Kemel PCA. Linear Discriminant Anaiysis (LDA), Independent Component Anafysis (ICA), ou duto-encoders, preferencialmente PCA. A análise de Componentes Principais è um procedimento estatístico que usa transformações ortogonais para converter um conjunto de observações de variáveis possivelmente correlacionadas em um conjunto de variáveis cujos valores são linearmente descorreiacionados, chamados de componentes principais [10]. O número de componentes principais é menor ou igual ao número original de variáveis compreendendo entre 30 a 1300 componentes principais. Esta transformação é definida de maneira que o primeiro componente principal tenha a maior variância possível (isto é. que leve em consideração a maior possível quantidade de variabilidade dos dados), e que cada componente sucessor tenha a maior variância possível dentro da restrição de que ele precisa ser ortogonal (isto é, descorreíacionado) aos seus componentes predecessores. f0072 | Normalized data is then subjected to dimensionality reduction by techniques comprised of the Principal Component Analysis technique group. Principal Component Analysis - PCA), Kemel PCA. Linear Discriminant Analysis (LDA), Independent Component Anafysis (ICA), or duct-encoders, preferably PCA. Principal Component Analysis is a statistical procedure that uses orthogonal transformations to convert a set of possibly correlated observations of variables into a set of variables whose values are linearly uncorrelated, called principal components [10]. The number of major components is less than or equal to the original number of variables comprising 30 to 1300 major components. This transformation is defined so that the first major component has the largest possible variance (ie that takes into account the largest possible amount of data variability), and that each successor component has the largest possible variance within the constraint that it it must be orthogonal (that is, uncorrelated) to its predecessor components.
[0073]Depois do PCA, a técnica de Whiteniny [11] [12], também conhecida como Sphering, é aplicada para normalizar as variâncias dos componentes principais, isto tem se mostrado bastante eficaz em aplicações de visão computacional [13]. A técnica divide os componentes principais pelos seus desvios padrão, o que resulta em uma matriz de covariância que é a identidade. Denotando os componentes principais rotacionados porvj, isso significa que é computado
Figure imgf000027_0001
After PCA, Whiteniny's technique [11] [12], also known as Sphering, is applied to normalize the variances of the main components, this has been shown to be quite effective in computer vision applications [13]. The technique divides the main components by their standard deviations, which results in a covariance matrix that is identity. Denoting the main components rotated by vj, this means that it is computed
Figure imgf000027_0001
[0074] Para se obter os componentes normalizados s, . Tal procedimento é útil em modelos de classificação que fazem suposições sobre a isotropia do sinal, que é o caso dos classificadores SVM que usam kemel Gaussiano. To obtain the standard components s,. Such a procedure is useful in classification models that make assumptions about signal isotropy, which is the case with SVM classifiers that use Gaussian kemel.
[0075] Dentre as técnicas de normalização de dados, podem ser utilizadas normalização por característica/dimensão (whitening) ou normalização por amostra, preferencialmente o whitening. Among the data normalization techniques, whitening or sample normalization, preferably whitening, may be used.
Etapa e - Classificação de imagens: Step e - Image Classification:
l<x>76}As amostras que tiveram suas características extraídas pelas redes convolucionais e foram dimensionalmente reduzidas por PCA (a execução desta etapa é opcional) servirão de entrada para o classificador. Por ser um problema de classificação binário, ou seja, as amostras deverão ser classificadas em apenas duas classes, verdadeiras ou falsas, qualquer classificador binário pode ser usado, tais como: K-Vizinhos-Mals-Próximos. Linear Discriminant Analysis (LDA), Naive Bay es, Regressão Logística, Árvores de Decisão, Redes Neurais (com uma função Softmax na última camada), dentre outros. Nesta invenção foi preferencialmente utilizado um classificador $upport Vector Machines (SVM). que é adequado ao problema por ser um classificador inerentemente binário e que é amplamente usado em problemas de aprendizado de máquina [14]. 76 Samples that had their characteristics extracted by convolutional networks and were dimensionally reduced by PCA (performing this step is optional) will serve as input to the classifier. Because it is a binary classification problem, ie samples should be classified into only two classes, true or false, any binary classifier can be used, such as: K-Neighbors-Mals-Nearby. Linear Discriminant Analysis (LDA), Naive Bay es, Logistic Regression, Decision Trees, Neural Networks (with a Softmax function in the last layer), among others. In this invention a $ upport Vector Machines (SVM) classifier was preferably used. which is suited to the problem because it is an inherently binary classifier and is widely used in machine learning problems [14].
[0077] Abaixo são descritas as configurações preferenciais para cada uma das cinco etapas principais da presente invenção: aumento de dados, pré-processamento, extração de características usando redes convolucionais. redução da dimensionaiidade, classificação.  The following are preferred configurations for each of the five main steps of the present invention: data augmentation, preprocessing, feature extraction using convolutional networks. reduced size, classification.
Aumento de dados: Data Increase:
Pré-processamento: Preprocessing:
(0078] Na etapa de pré-processamento pode-se executar a sequência de operações descrita abaixo. Na configuração preferencial da invenção, nenhuma operação de processamento é utilizada: uma vez que elas trazem pouco ou nenhum ganho na acurácia e aumentam o tempo de processamento. In the preprocessing step the sequence of operations described below can be performed In the preferred embodiment of the invention no processing operation is used : once that they bring little or no accuracy gain and increase processing time.
1. Extração da região de interesse: para a operação de abertura é preferencialmente utilizada uma caixa como elemento estruturante de tamanho 21x21 pixels. O retângulo que demarca a região de interesse tem como tamanho três vezes o desvio padrão da imagem 1. Extraction of the region of interest: For the opening operation, a box is preferably used as a structuring element of 21x21 pixels. The rectangle that marks the region of interest is three times the standard deviation of the image.
2. Redução das dimensões imagem: preferencialmente a imagem é reduzida para 250x250 pixels. Entretanto, é possível utilizar diferentes resoluções, sendo que a melhor pode ser escolhida na etapa de validação do modelo. 2. Image Dimension Reduction: Preferably the image is reduced to 250x250 pixels. However, it is possible to use different resolutions, and the best one can be chosen in the model validation step.
3. Aplicação de um filtro passa baixas ou passa altas: são utilizados preferencialmente filtros com pesos gaussianos com desvio padrão igual a 3 e janela com tamanho 13x13 pixels.  3. Application of a low pass or high pass filter: Gaussian weights with standard deviation of 3 and window size 13x13 pixels are preferably used.
4. Equalizaçâo de contraste: preferencialmente é utilizada uma vizinhança com disco de diâmetro de 30 pixels para se calcular o histograma.  4. Contrast Equalization: A 30-disc diameter neighborhood is preferably used to calculate the histogram.
Extração de características usando redes convolucionais:  Feature extraction using convolutional networks:
[0079]A arquitetura da rede é escolhida durante a fase de validação. Preferencialmente, a melhor quantidade de camadas é entre duas a cinco camadas. Experimentalmente foi notado que arquíteturas com mais de cinco camadas aumentam o tempo de processamento sem ganhos de acurácia notáveis. Já arquíteturas com uma única camada tem acurácia inferior na maioria dos casos.  The network architecture is chosen during the validation phase. Preferably, the best amount of layers is between two to five layers. It has been experimentally noted that architectures with more than five layers increase processing time without noticeable accuracy gains. Already single layer architectures have lower accuracy in most cases.
[OoeojPreferencíaimente. max-pooling é utilizado como operação de pooiing. Entretanto, a invenção pode ser utilizada com outros tipos de pooiing, tais como average, estocástico ou piramidal. [Ooeoj Preferred. max-pooling is used as a pooiing operation. However, the invention may be used with other types of pooing, such as average, stochastic or pyramidal.
[0081] A camada de normalização de contraste locai não é utilizada na configuração preferencial da invenção devido ao aumento no custo computacional e aos pequenos ganhos na acuràcia que traz quando é utilizada. The local contrast normalization layer is not used in the preferred embodiment of the invention due to the increase in the computational cost and the small gains in accuracy it brings when it is used.
Redução da Dimensionalidade:  Dimensionality Reduction:
[0082jPreferencialmente, é utilizado PCA com Whitening para a redução das dimensões. O número de dimensões finais deve ser escolhido de maneira que as dimensões resultantes devem representar, no mínimo, 98% da variabilidade dos dados de treinamento.  Preferably, PCA with whitening is used for size reduction. The number of final dimensions should be chosen such that the resulting dimensions should represent at least 98% of the variability of training data.
{0083]Outras técnicas de redução de dimensionalidade também podem ser utilizadas, tais como PCA sem Whitening, Linear Discriminant Analysis (LDA) ou Independent Component Analysis (ICA).  Other dimensionality reduction techniques may also be used, such as PCA without Whitening, Linear Discriminant Analysis (LDA) or Independent Component Analysis (ICA).
[0084]Alèm disso, pode-se optar por não usar nenhuma técnica de redução de dimensionalidade, já que esta etapa é a maior responsável peio consumo de memoria (cerca de 90%) do sistema. Entretanto, se a etapa nâo for utilizada é esperada uma queda na acurácia entre 1% ou 2%.  In addition, one can choose not to use any dimensionality reduction technique, as this step is the largest responsible for the memory consumption (about 90%) of the system. However, if the step is not used, a fall in accuracy of between 1% and 2% is expected.
Classificadores: Classifiers:
[0085]Quando se trabalha com os classificadores SVM é necessário escolher o kernel. Foi utilizado nessa invenção o kernet Gaussiano. Outra opção dentre os vários tipos existentes de temeis seria o kemel linear, que resulta em tempos de treinamento mais rápidos que o kernel Gaussiano. apesar de ter uma acurácia inferior em alguns casos [18]. O parâmetro de regularização C e o coeficiente y são escolhidos durante a fase de validação.  When working with SVM classifiers it is necessary to choose the kernel. Gaussian kernet was used in this invention. Another option among the various types of fears would be the linear kemel, which results in faster training times than the Gaussian kernel. despite having a lower accuracy in some cases [18]. The smoothing parameter C and the coefficient y are chosen during the validation phase.
Fase de Validação: Validation Phase:
[0086jNa presente invenção, as escolhas de hiper-parâmetros e a escolha das etapas de processamento que irão compor o sistema foram feitas usando-se o esquema de validação cruzada 5x2-Fold [19), que funciona da seguinte maneira: In the present invention, the choice of hyper-parameters and the choice of processing steps that will make up the system were done using the 5x2-Fold cross-validation scheme [19], which works as follows:
1. Divide-se o conjunto de treinamento em dois blocos. A e B;  1. Divide the training set into two blocks. A and B;
2. Treina-se em A e valida-se em B;  2. Train in A and validate in B;
3. Treina-se em B e valida-se em A;  3. Train in B and validate in A;
4. Os passos 1, 2 e 3 sáo repetidos cinco vezes, sendo que em cada iteração é utilizado uma divisão diferente para se criar os blocos A e B.  4. Steps 1, 2 and 3 are repeated five times, with each iteration using a different division to create blocks A and B.
5. Computa-se a acurácia fazendo a média das 10 (5x2) validações.  5. Accuracy is computed by averaging 10 (5x2) validations.
[0087]Também é possível utilizar outros esquemas de validação cruzada, como o 10-Fold. Entretanto, notou-se durante os experimentos que ambos os esquemas trazem resultados semelhantes para a escolha dos hiper-parâmetros, mas 5x2-Foid é mais rápido, pois usa apenas 50% do conjunto de dados para treino ao invés dos 90% usados pelo esquema 10-Foíd (assume-se aqui que o treinamento é mais lento que a classificação e que ambos os métodos iteram 10 vezes sobre o conjunto de dados). Other cross validation schemes, such as 10-Fold, can also be used. However, it was noted during the experiments that both schemes bring similar results for the choice of hyper-parameters, but 5x2-Foid is faster because it uses only 50% of the training dataset instead of the 90% used by the scheme. 10-Foíd (it is assumed here that training is slower than classification and both methods iterate 10 times over the data set).
(0088]A Tabela 1 sumariza os parâmetros usados em cada módulo durante a fase de validação.  (0088] Table 1 summarizes the parameters used in each module during the validation phase.
(0089]Tabela 1 - Lista de hiper-parâmetros usados durante a fase de validação. (0089] Table 1 - List of hyper parameters used during the validation phase.
Hiper- Hyper-
Módulo Variações Variations Module
parâmetro  parameter
Fator de  Factor of
25% a 100% 25% to 100%
Pré- redução da j J pre-reduction
(tamanho processamento imagem (em i  (image processing size (in i
original) cada dimensão) Redes original) each dimension) Networks
convolucionatsconvolutions
Figure imgf000032_0001
Figure imgf000032_0001
Figure imgf000033_0001
Figure imgf000033_0001
[0090]Quando a técnica de aumento de dados for utilizada é importante tomar cuidado para não embaralhar as amostras entre conjunto de treino e conjunto de validação, isto é, as amostras que foram derivadas de uma mesma imagem não devem ser separadas em conjunto de treino e validação, pois, caso isto ocorra, a capacidade de generalização do classificador será prejudicada, já que amostras semelhantes ocorreram tanto na etapa de treinamento quanto na etapa de validação.  When the data augmentation technique is used it is important to be careful not to shuffle the samples between training set and validation set, ie samples that were derived from the same image should not be separated into training set. and validation, because if this occurs, the generalizer capacity of the classifier will be impaired, since similar samples occurred in both the training and validation stages.
Outros detalhes de Implementação:  Other Implementation Details:
Í0091]OS métodos foram escritos em Python e a maioria do código usa funções dos pacotes Numpy, Scipy, Scíkit-image e Scíkit-Leam, exceto para as redes convolucionais, para as quais foi usada uma implementação eficiente fornecida por [20]. Qualquer código que implemente uma rede convolucional clássica deverá trazer os mesmos resultados que tivemos.  [0091] The methods were written in Python and most code uses functions from the Numpy, Scipy, Scíkit-image, and Scíkit-Leam packages, except for convolutional networks, for which an efficient implementation provided by [20] was used. Any code that implements a classic convolutional network should have the same results as we had.
[0QB2)Numpy é um pacote para processamento vetoríai de propósito geral projetado para manipular grandes matrizes multidimensionaís. Apesar de Numpy ser uma extensão do Python, suas funções são escritas em C. Dessa forma, qualquer algoritmo que possa ser primariamente expresso na forma de vetores ou matrizes pode ser executado tão rápido quanto o seu equivalente em C. [0QB2) Numpy is a general purpose vector processing package designed to manipulate large multidimensional arrays. Although Numpy is an extension of Python, its functions are written in C. Thus, any algorithm that can be primarily expressed as vectors or arrays can be executed as fast as their C equivalent.
[0093]Um aspecto importante desta invenção é que os métodos foram executados em computadores na nuvem, em que o usuário pode alugar computadores virtuais e pagar apenas peias horas que as maquinas estiveram sendo utilizadas. Dentre as vantagens oferecidas por este tipo de serviço, é a possibilidade de alugar instancias prontas para uso (com pacotes de aprendizado de máquina, como o Scikit-Leam, já instalados, por exemplo), alta disponibilidade (comumente maior que 99%) e instancias otimizadas para alto poder de processamento, comumente utilizadas em servidores web, processamento sob demanda, análise distribuída e processamento de vídeos. Para a fase de treinamento do sistema foi utilizada a instancia mais rápida disponível, com 32 núcleos de processamento e 60 GB de memória RAM, que nos permitiu treinar modelos usando conjunto de dados aumentados e fazer uma busca exaustiva pelos melhores hiper-parâmetros em apenas algumas horas. Caso fossem usados computadores desktop ou notebooks comuns, os treinamentos levariam dias ou semanas. Vale ressaltar que, apesar dos tempos de treinamento do sistema serem grandes, os tempos de classificação/predição são menores que um meio segundo por imagem em um computador desktop ou notebook de baixo desempenho (com 2 núcleos e 2 GB de RAM). [0093] An important aspect of this invention is that the methods have been performed on cloud computers, where the user can rent virtual computers and pay only for the hours the machines have been in use. Among the advantages offered by this type of service is the ability to rent out-of-the-box instances (with machine learning packages such as Scikit-Leam already installed), high availability (often greater than 99%) and instances optimized for high processing power, commonly used on web servers, on-demand processing, distributed analysis and video processing. For the system training phase we used the fastest instance available, with 32 processing cores and 60 GB of RAM, which allowed us to train models using augmented data sets and exhaustively search for the best hyper parameters in just a few. hours If ordinary desktop computers or notebooks were used, the training would take days or weeks. It is noteworthy that while the system training times are long, the rating / prediction times are less than half a second per image on a low performance desktop or notebook computer (with 2 cores and 2 GB of RAM).
[0094]Na presente invenção, para cada tipo de sensor é treinado um classificador. Isso facilita o aprendizado dos classificadores, uma vez que cada um classificar aprenderá características de amostras que sâo similares entre si. Entretanto, também é possível treinar um único classificador para dois ou mais tipos de sensores. A vantagem desta abordagem é que o projeto do classificador (como a escolha de hiper- parâmetros) precisa ser feito apenas uma vez. Contudo, é necessário redimensionar as imagens para que todas tenham o mesmo tamanho, uma vez que o classificar aceita apenas amostras de mesmo tamanho. Preferencialmente, o tamanho das amostras será o menor tamanho dentre todas as amostras. In the present invention, for each sensor type a classifier is trained. This makes it easier for classifiers to learn since each classifier will learn sample characteristics that are similar to each other. However, it is also possible to train a single classifier for two or more sensor types. The advantage of this approach is that the classifier design (such as the choice of hyper- parameters) needs to be done only once. However, it is necessary to resize the images so that they are all the same size, since sorting accepts only samples of the same size. Preferably, the sample size will be the smallest size of all samples.
Bibliografia Bibliography
[1} A. Wiehe, T. Sondrol. Olsen, O. K. and F. Skarderud, "Attacking fingerprint sensors," Technicai report, NISLAB Authentication Laboratory, Gjúvik University Cotlege, 2004.  [1} A. Wiehe, T. Sondrol. Olsen, O. K. and F. Skarderud, "Attacking fingerprint sensors," Technical report, NISLAB Authentication Laboratory, Gjuvik University Cotlege, 2004.
[2] Y. Chen and A. Jain, "Fingerprint deformation for spoof detection." Proc. IEEE Biometric Symposium, pp. 19-21, 2005.  [2] Y. Chen and A. Jain, "Fingerprint deformation for spoof detection." Proc. IEEE Biometric Symposium, pp. 19-21, 2005.
[3} B. Tan and S. Schuckers, Xomparison of ridge-and intensity- based perspiratíon liveness detection methods in fingerprint scanners," Defense and Security Symposium International Society for Optícs and Photonics. 2006.  [3} B. Tan and S. Schuckers, Xomparison of ridge-and-intensity perspiration liveness detection methods in fingerprint scanners, "Defense and Security Symposium International Society for Optics and Photonics. 2006.
[4] P. Coii, G. L. Marciaíís and F. Roli, "Fingerprint siiicon replicas: static and dynamic features for vitality detection using an óptica! capture device." Internationa! Journal of tmage and Graphics 8.04, pp. 495-512, 2008.  [4] P. Coii, G. L. Marciais and F. Roli, "Fingerprint siiicon replies: static and dynamic features for vitality detection using an optics! Capture device." Internationa! Journal of Image and Graphics 8.04, pp. 495-512, 2008.
[5] P. Lapsley. J. Lee, D. Pare and N. Hoffman, "Anti-fraud biometric scanner that accurately detects blood fiow". US Patent 5,737,439, 1998.  [5] P. Lapsley. J. Lee, D. Stop and N. Hoffman, "Anti-fraud biometric scanner that accurately detects blood fiow". US Patent 5,737,439, 1998.
I6] M. R. Arneson, B. L. Blan. H. M. Carim e D. W. Osten, "Biometric. personal authentication system". U.S. Patente 5,719,950, 1998.  16] M.R. Arneson, B.L. Blan. H. M. Carim and D. W. Osten, "Biometric. Personal authentication system". U.S. Patent 5,719,950, 1998.
[7] D. Baldisserra, A. Franco, D. Maio and D. Maltoni, "Fake fingerprint detection by odor anaiysis." in Advances in Bhmetrics, Berlin Heidelberg, Springer, 2005, pp 265-272.  [7] D. Baldisserra, A. Franco, D. Maio and D. Maltoni, "Fake fingerprint detection by odor analysis." in Advances in Bhmetrics, Berlin Heidelberg, Springer, 2005, pp 265-272.
[8} R. Derakhshani, S. Schuckers, L. Homak e L 0'Gorman, "Determination of vitality from a non-invasive biomedical measurement for use in fingerprint scanners," Pattern Recognition, vol. 36, n. 2. pp. 383-396, 2003.  [8} R. Derakhshani, S. Schuckers, L. Homak and L. O'Gorman, "Determination of Vitality from Noninvasive Biomedical Measurement for Use in Fingerprint Scanners," Pattern Recognition, Vol. 36, no. 2. pp. 383-396, 2003.
[9} S. Parthasaradhi, R. Derakhshani, L. Hornak e S. Schuckers, Ttme-series detection of perspiratíon as a liveness test in fingerprint scanners," iEEE Transactions on Systems. Man, and Cybemetics-Part C: Applications and Reviews, vol. 35, n. 3, pp 335-343. 2005 [9} S. Parthasaradhi, R. Derakhshani, L. Hornak and S. Schuckers, Tme-series detection of perspiration as a liveness test in fingerprint scanners, "IEEE Transactions on Systems. Man, and Cybemetics-Part C: Applications and Reviews, Vol. 35, no. 3, pp 335-343. 2005
[10] S. Schuckers e A. Abhyankar, Detecting !iveness in fingerprint scanners using wavelets. resutts of the test dataset,* Proceedings of BioAWt pp. 100-110, 2004. [10] S. Schuckers and A. Abhyankar, Detecting! Iveness in fingerprint scanners using wavelets. resutts of the test dataset, * Proceedings of BioAW t pp. 100-110, 2004.
[11] A. Antonelli. R Cappelli, D. Maio and D. Maltoni, "Fake Finger Detection by Skin Distortíon Analysis/* Information Forensics and Security, pp. 360-373, 2006. [11] A. Antonelli. R Cappelli, D. May and D. Maltoni, "Fake Finger Detection by Skin Distortion Analysis / * Information Forensics and Security, pp. 360-373, 2006.
[12] O, G. Martinsen, S. Ciausen, J. B. Nysaather and S. Grimnes, "Utilizing characteristic eiectrical properties of the epidermai skin layers to detect fake fingers in biometric fingerprint systems— A pilot study," Biomedical Engineering, IEEE Transactions on, vol. 5, no. 54, pp. 891-894, 2007.  [12] O, G. Martinsen, S. Ciausen, JB Nysaather and S. Grimnes, "Utilizing eectric properties of the epidermal skin layers to detect fake fingers in biometric fingerprint systems— A pilot study," Biomedical Engineering, IEEE Transactions on , vol. 5, no. 54, pp. 891-894, 2007.
[13] J Galba!ly, F. Alonso-Femandez, J. Fierrez and J. Ortega- Garcia, "A high performance fingerprint liveness detection method based on quality related features," Future Generation Computer Systems, vol. 28, no. 1 , pp. 311-321, 2012.  [13] J Galba! Ly, F. Alonso-Femandez, J. Fierrez and J. Ortega-Garcia, "A high performance fingerprint detection method based on quality related features," Future Generation Computer Systems, Vol. 28, no. 1, pp. 311-321, 2012.
[14] A. K. Jain, Y. Chen and M, Demirku, "Pores and ridges: high- resolution fingerprint matching using levei 3 features," Pattem Anaiysis and Machine Intelligence, vol. 29, no. 1. pp. 15-27. 2007.  [14] A. K. Jain, Y. Chen and M, Demirku, "Pores and ridges: high-resolution fingerprint matching using led 3 features," Pattem Anaiysis and Machine Intelligence, vol. 29, no. 1. pp. 15-27. 2007
[15] P. Coli, G. S. Marciaiis e F. Roli, "Power spectrum-based fingerprint vitality detection," Proceedings of IEEE Workshop on Automatic Identification Advanced Technologies, pp. 169-173, 2007.  [15] P. Coli, G. S. Marciaiis and F. Roli, "Power spectrum-based fingerprint vitality detection," Proceedings of IEEE Workshop on Automatic Identification Advanced Technologies, pp. 169-173, 2007.
116] Y. S Moon, J. S. Chen, K. C. Chan, K. So and K. C Woo: 116] Y. S Moon, JS Chen, KC Chan, K. So and K. C Woo :
"Wavelet based fingerprint liveness detection," Electronics Letters, vol. 20, no. 41, pp. 1112-1113, 2005.  "Wavelet based fingerprint liveness detection," Electronics Letters, Vol. 20, no. 41, pp. 1112-1113, 2005.
[17] S. Nikam and S. Agarwal, "Locai binary pattem and wavelet- based spoof fingerprint detection." Int. J. Biometrics, vol. 1. no. 2. pp. 141-159. 2008.  [17] S. Nikam and S. Agarwal, "Locai binary pattem and wavelet-based spoof fingerprint detection." Int. J. Biometrics, vol. 1. no. 2. pp. 141-159. 2008
[18] X. Jía. X. Yang. K. Cao, Y. Zang, N. Zhang, R. Dai and J. Tian, "Multi-scale Locai Binary Pattern with Filters for Spoof Fingerprint Detectron/' Information Sciences, vol 268, pp. 91- 102, 2013. [19] T. Ojala, M. Piettkainen and T. Mãenpáà, "Multiresoiution gray scale and rotation invariant texture analysis with local binary patterns," IEEE Trans. Patiern Anal. Mach. Inteit, vol. 24, no. 7, pp 971-987. Jul 2002. [18] X. Jía. X. Yang. K. Cao, Y. Zang, N. Zhang, R. Dai and J. Tian, "Multi-scale Locai Binary Pattern with Filters for Spoof Fingerprint Detectron / 'Information Sciences, vol 268, pp. 91-102, 2013. [19] T. Ojala, M. Piettkainen and T. Mãenpáà, "Multiresoiution gray scale and rotation invariant texture analysis with local binary patterns," IEEE Trans. Patiern Anal. Mach Inteit, Vol. 24, no. 7, pp 971-987. Jul 2002
[20] L Ghiant, G. L. Marcialis and F. Roli, "Fingerprint Lrveness Detection by Local Phase Quantization," 21st International Conference on. IEEE, 2012.  [20] L. Ghiant, G.L. Marcialis and F. Roli, "Fingerprint Detection by Local Phase Quantization," 21st International Conference on. IEEE, 2012.
[21] L. Ghiani, H. A., G. L Marciaiis and F, Roli, Tingerprint liveness detection using Binarized Statistrcal Image Features," In Biometrics: Theory, Applications and Systems (BTAS), 2013 IEEE Sixth International Conference on. pp. 1-6, September 2013.  [21] L. Ghiani, HA, G. L Marciaiis and F, Roli, Tingerprint liveness detection using Binarized Statistrcal Image Features, "In Biometrics: Theory, Applications and Systems (BTAS), 2013 IEEE Sixth International Conference on. Pp. 1 -6, September 2013.
[22] A. Krizhevsky. I. Sutskever and G. E. Hinton, "ImageNet [22] A. Krizhevsky. I. Sutskever and G. E. Hinton, "ImageNet
Classification with Deep Convolutional Neural Networks," NIPS, vol. 1 , no. 2, 2012. Classification with Deep Convolutional Neural Networks, "NIPS, Vol. 1, No. 2, 2012.
[23] D, C. Ciresan. U. Meier, J. Masci. L M. Gambardella and J. [23] D, C. Ciresan. U. Meier, J. Masci. L.M. Gambardella and J.
Schmidhuber, "High-performance neural networks for visual objeci classiftcation," arXiv:1102.0183, 2011.  Schmidhuber, "High-Performance Neural Networks for Visual Objective Classification," arXiv: 1102.0183, 2011.
[24] D. Ciresan, U. Meier and J. Schmidhuber, "Multi-column Deep Neural Networks for Image Classification," Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on., pp. 3642-3649. June 2012  [24] D. Ciresan, U. Meier and J. Schmidhuber, "Multi-column Deep Neural Networks for Image Classification," Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on., Pp. 3642-3649. June 2012
[25] J. B. Zimmerman, S. M. Pizer, E. V. Staab, J. R. Perry, W.  [25] J. B. Zimmerman, S. M. Pizer, E. V. Staab, J. R. Perry, W.
McCartney and B. C. Brenton, "An evaluation of the effectiveness of adaptive histogram equaiization for contrast enhancement/, Medicai Imaging, IEEE Transactions, pp. 304- 312, 1988. McCartney and BC Brenton, "An Evaluation of the Effectiveness of Adaptive Histogram Equalization for Contrast Enhancement" , Medical Imaging, IEEE Transactions, pp. 304-312, 1988.
[26] S. M Pizer, E. P. Ambum, J. D. Austin, R. Cromartie, A.  [26] S. M Pizer, E. P. Ambum, J. D. Austin, R. Cromartie, A.
Geselowitz, T. Greer and K. Zuiderveld, "Adaptive histogram equalization and its variations," Computer vishn, graphics, and image processtng, pp. 355-368, 1987.  Geselowitz, T. Greer and K. Zuiderveld, "Adaptive Histogram Equalization and Its Variations," Computer vishn, graphics, and image processing, pp. 355-368, 1987.
[27] Y. L. Boureau, J. Ponce and Y. LeCun, "A theoretical analysis of feature pooling in visual recognition," Proceedings of the 27th International Conference on Machine Leamíng (ICML-10), 2010. [28] M, D. Zeíler and R. Fergus. "Stochastic pooling for regularization of deep convolutional neural networks," arXiv preprint arXiv;1301.3567, 2013. [27] YL Boureau, J. Ponce and Y. LeCun, "A theoretical analysis of feature pooling in visual recognition," Proceedings of the 27th International Conference on Machine Leaming (ICML-10), 2010. [28] M, D. Zeiler and R. Fergus. "Stochastic pooling for regularization of deep convolutional neural networks," arXiv preprint arXiv; 1301.3567, 2013.
(29] D Baldisserra! A. Franco, D. Maio and D. Maltoni, "Fake fingerprint detection by odor analysis," in Advances in(29] D Baldisserra ! A. Franco, D. May and D. Maltoni, "Fake fingerprint detection by odor analysis," in Advances in
8iometncst Berlin Heidelberg, Springer, 2005, pp. 265-272. 8iometncs t Berlin Heidelberg, Springer, 2005, pp. 265-272.
[30] G. E. Hinton, S. Osindero and Y.-W. Teh, "A fast leaming algorithm for deep belief nets,M Neural computation 18 7, pp.[30] GE Hinton, S. Osindero and Y.-W. Teh, "A fast leaming algorithm for deep belief nets, M. Neural computation 18 7, pp.
1527-1554. 2006. 1527-1554. 2006
[31} Y. LeCun, K. Kavukcuoglu and C. Farabet, "Convolutional networks and applications in vísíon," in Circuits and Systems[31} Y. LeCun, K. Kavukcuoglu and C. Farabet, "Convolutional Networks and Applications in Vision," in Circuits and Systems
(ISCAS). Proceedings of 2010 IEEE International Symposium on, pp. 253-256. May 2010. (Bait). Proceedings of 2010 IEEE International Symposium on, pp. 253-256. May 2010.
[32] K. Jarrett, K. Kavukcuoglu, M. Ranzato and Y. LeCun, "What is the best multi-stage architecture for object recognition? "[32] K. Jarrett, K. Kavukcuoglu, M. Ranzato and Y. LeCun, "What is the best multi-stage architecture for object recognition?"
Computer Vtsion, 2009 IEEE 12th International Conference on.Computer Vtsion, 2009 IEEE 12th International Conference on.
IEEE, pp. 2143-2153, 2009. IEEE, pp. 2143-2153, 2009.
[33] V. Nair and G. E. Hinton, "Rectified linear units improve restricted Boltzmann machines," Proceedings of the 27th International Conference on Machine Learning (ICML-10), 2010.  [33] V. Nair and G. E. Hinton, "Rectified linear units improve restricted Boltzmann machines," Proceedings of the 27th International Conference on Machine Learning (ICML-10), 2010.
[34] J. Jackson, A Usefs Guide to Principal Components, Wiley.  [34] J. Jackson, The Use Guide to Principal Components, Wiley.
1991.  1991
[35] A. Hyvârinen, J. Hurri and P. O. Hoyer. "Principal Components and Whitening/' in Natural Image Statistics, London, Springer, 2009, pp. 93-130  [35] A. Hyvärinen, J. Hurri and P. O. Hoyer. "Principal Components and Whitening / 'in Natural Image Statistics, London, Springer, 2009, pp. 93-130
[36] 'Whitening," [Online]. Available: http://ufldlstanford.edu/wiki/index.php/Whitening. [Accessed 08 03 2014].  [36] 'Whitening, "[Online]. Available: http://ufldlstanford.edu/wiki/index.php/Whitening. [Accessed 08 03 2014].
[37] A Coates, A. Y. Ng and H. Lee, "An analysis of single-layer networks in unsupervised feature leaming," International Conference on Artificial Inteliigence and Stati$tic$t 2011 [37] A Coates, AY Ng and H. Lee, "An Analysis of Single-Layer Networks in Unsurpassed Feature Leaming," International Conference on Artificial Intelligence and Statistics $ tic $ t 2011
[38] N. Cristianini and J. Shawe-Taylor, An introduction to support vector machines and other kernel-based learning methods., Cambridge university press, 2000. 139] C.-W. Hsu, C.-C. Chang and C.-J. Lin, "A practical guide to support vector classification.," 2003. [38] N. Cristianini and J. Shawe-Taylor, An introduction to support vector machines and other kernel-based learning methods., Cambridge university press, 2000. 139] C.-W. Hsu, C.-C. Chang and C.-J. Lin, "A Practical Guide to Support Vector Classification.," 2003.
[40] T, G. Dietterich, "Approximate statistical tests for comparing supervised classification leamíng algorithms," Neural Computation, vol. 10, n 7. pp. 1895-1923, 1998.  [40] T, G. Dietterich, "Approximate Statistical Tests for Comparing Supervised Classification Leaming Algorithms," Neural Computation, Vol. 10, no 7. pp. 1895-1923, 1998.
[41] G. Chiachía. [Online]. Available. https://github.corn/giovanichiachia/convnet-rfw. [Accessed 17 05 2014].  [41] G. Chiachía. [Online]. Available https: //github.corn/giovanichiachia/convnet-rfw. [Accessed 17 05 2014].
[42] L Wan, M. Zeíier, S. Zhang, Y. LeCun and R. Fergus, "Reguiarization of neural networks using dropconnect," Proceedings of the 30th internationai Conference on Machine Leamíng (iCML-13), pp. 1058-1066, 2013.  [42] L. Wan, M. Zeier, S. Zhang, Y. LeCun and R. Fergus, "Reguiarization of Neural Networks Using Dropconnect," Proceedings of the 30th International Conference on Machine Leaming (iCML-13), pp. 1058-1066, 2013.
[43] I. J. Goodfeliow, D. Warde-Fariey, M. Mirza, A Courviíle and Y.  [43] I. J. Goodfeliow, D. Warde-Fariey, M. Mirza, A Courviíle and Y.
Bengio, "Maxout networks/' arXiv preprint arXiv: 1302.4389, 2013.  Bengio, "Maxout networks /" arXiv preprint arXiv: 1302.4389, 2013.
[44] Y. LeCun e Y. Bengio. 'Oonvolutional networks for images, speech, and time series,* em The handbook ofbrain theory and neural networks, 1995, pp. 33-61. [44] Y. LeCun and Y. Bengio. 'The institutional networks for images, speech, and time series, * in The Handbook of Brain Theory and Neural Networks, 1995, pp. 33-61.
[45] K. Jarrett, K. Kavukcuoglu, M, Ranzato and Y. LeCun, "What is the best multi-stage architecture for object recognition?," Computer Vision, 2009 IEEE 12th Internationai Conference on, pp. 2146-2153, 2009.  [45] K. Jarrett, K. Kavukcuoglu, M, Ranzato and Y. LeCun, "What is the best multi-stage architecture for object recognition ?," Computer Vision, 2009 IEEE 12th International Conference on, pp. 2146-2153, 2009.
[46] J. Yang, K. Yu, Y. Gong and T. Huang, "Linear spatial pyramid matching using sparse coding for image classification," Computer Vision and Pattem Recognition, pp. 1794-1801 , 2009.  [46] J. Yang, K. Yu, Y. Gong and T. Huang, "Linear spatial pyramid matching using sparse coding for image classification," Computer Vision and Pattem Recognition, pp. 1794-1801, 2009.
[47] Y. L. Boureau, F. Bach, Y. LeCun and J. Ponce, "Leamíng mid- level íeatures for recognition." Computer Vision and Pattem Recognition (CVPR)t 2010 IEEE Conference on, pp. 2559-2566, 2010. [47] YL Boureau, F. Bach, Y. LeCun and J. Ponce, "Leaming mid-level features for recognition." Computer Vision and Pattem Recognition (CVPR) t 2010 IEEE Conference on, p. 2559-2566, 2010.

Claims

REVINDICAÇÕES
1. Método de detecção de vivacidade de impressões digitais caracterizado por compreender as seguintes etapas:  1. Fingerprint vivacity detection method comprising the following steps:
a) Aumento artificiai de dados da imagem.  a) Artificial increase of image data.
b) Pré-processamento da imagem;  b) Image preprocessing;
b1) Redução da imagem por meio de interpolação bi- linear;  b1) Image reduction through bi- linear interpolation;
b2) Filtragem em sequência compreendendo um filtro passa-baixas ou um filtro passa -altas;  b2) Sequence filtering comprising a low pass filter or a high pass filter;
bZ) Determinação da região de interesse (ROI) da imagem;  (b) determination of the region of interest (ROI) of the image;
b3.1) Aplicação da abertura morfológica para realçar a região onde a impressão digital se encontra;  b3.1) Application of the morphological aperture to highlight the region where the fingerprint is located;
b3.2) Cálculo do centro de massa e dos desvios- padrão da altura e largura da imagem obtida na etapa b3.1;  b3.2) Calculation of the center of mass and standard deviations of the height and width of the image obtained in step b3.1;
b3.3) Determinação da região de interesse;  b3.3) Determination of the region of interest;
b4) Equailização de contraste da imagem;  b4) Image contrast equalization;
c) Extração das características da imagem por redes convolucionais;  c) Extraction of image characteristics by convolutional networks;
d) Redução da dimensionalidade da imagem; e normalização dos dados;  d) Reduction of image dimensionality; and data normalization;
e) Classificação das imagens (convoluidas e reduzidas) em verdadeiras ou falsas utilizando-se um classificador binário; e) Classification of images (convoluted and reduced) into true or false using a binary classifier;
2. Método, de acordo com a reivindicação 1. caracterizado peio fato de a escolha das etapas de processamento que irão compor o sistema serem feitas usando-se o esquema de validação cruzada 5x2-Fold. Method according to claim 1, characterized in that the choice of processing steps that will compose the system is made using the 5x2-Fold cross-validation scheme.
3. Método, de acordo com a reivindicação 1, caracterizado pelo fato da etapa c ser opcionalmente utilizada pelo menos uma vez para treinamento do sistema. Method according to claim 1, characterized in that step c is optionally used at least once for system training.
4. Método, de acordo com a reivindicação 1, caracterizado peio fato de as etapas c e e serem obrigatórias.  Method according to claim 1, characterized in that steps c and e are required.
5. Método, de acordo com a reivindicação 1 , caracterizado peio fato as etapas a, b1 b2, b3 e b4 e d serem realizadas opcionalmente. Method according to claim 1, characterized in that steps a, b1 b2, b3 and b4 and d are optionally performed.
6. Método, de acordo com a reivindicação 1 , caracterizado pelo fato de na etapa a o aumento artificial de dados compreender técnicas selecionadas dentre as rotações, translações, reflexões horizontais, mudanças de escala, alteração bcai de intensidades dos pixels, adição de ruídos ou criação de amostras a partir de modelos 3D do objeto a ser categorizado, preferencialmente translações e reflexões horizontais, para a criação artificiai de amostras modificadas a partir das amostras originais. Method according to Claim 1, characterized in that in the step to artificially increasing data comprises techniques selected from rotations, translations, horizontal reflections, scaling, bcai alteration of pixel intensities, noise addition or creation. samples from 3D models of the object to be categorized, preferably horizontal translations and reflections, for the artificial creation of modified samples from the original samples.
7. Método, de acordo com a reivindicação 1, caracterizado peio fato de na etapa b1 as imagens serem redimensionadas entre 100 % (sem redução) a 25% do seu tamanho origina  Method according to claim 1, characterized in that in step b1 the images are scaled from 100% (without reduction) to 25% of their size.
8. Método, de acordo com a reivindicação 1, caracterizado peio fato de na etapa b2 o filtro passa-baixas ser preferencialmente implementado como a convolução de uma imagem por um filtro gaussiano; e o filtro passa-aitas ser preferencialmente implementado como a subtração da imagem originai peia imagem filtrada com o filtro passa-baixas.  Method according to Claim 1, characterized in that in step b2 the low-pass filter is preferably implemented as convolution of an image by a Gaussian filter; and the bypass filter is preferably implemented as the subtraction of the image from the low pass filter filtered image.
9. Método, de acordo com a reivindicação 8, caracterizado peio fato de os filtros apresentarem desvio padrão igual a 3 e janela com tamanhos entre 7x7 e 21x21 pixels. preferencialmente 13x13 pixels.  Method according to claim 8, characterized in that the filters have a standard deviation of 3 and a window size between 7x7 and 21x21 pixels. preferably 13x13 pixels.
10 Método, de acordo com a reivindicação 1, caracterizado pelo fato de na etapa b3.1 ser utilizado elemento estruturante compreendendo faixa de tamanho entre 11x11 e 35x35 pixels, preferencialmente 21x21 pixels, Method according to claim 1, characterized in that in step b3.1 a structuring element is used comprising size range between 11x11 and 35x35 pixels, preferably 21x21 pixels,
11. Método, de acordo com a reivindicação 1, caracterizado pelo fato de na etapa b4 ser utilizado um conjunto de técnicas selecionadas do grupo de técnicas de equalizaçâo de contraste, selecionado entre equalizaçâo de histograma, AHE e CLAME, preferencialmente CLAHE.  Method according to Claim 1, characterized in that in step b4 a set of techniques selected from the group of contrast equalization techniques selected from histogram equalization, AHE and CLAME, preferably CLAHE, is used.
12. Método, de acordo com a reivindicação 11, caracterizado pelo fato de ser utilizada vizinhança com disco de diâmetros entre 5 e 60 pixels, preferencialmente 30 pixels, para o cálculo do histograma. Method according to claim 11, characterized in that a disk neighborhood of diameters between 5 and 60 pixels, preferably 30 pixels, is used for the histogram calculation.
13. Método, de acordo com a reivindicação 1, caracterizado pelo fato de na etapa c as redes convolucionais compreenderem pelo menos uma camada típica. Method according to claim 1, characterized in that in step c the convolutional networks comprise at least one typical layer.
14. Método, de acordo com a reivindicação 13, caracterizado pelo fato de a camada típica compreender uma camada de convolução para a operação de convolução, uma operação de não linearidade, uma camada de pooling para realização de uma operação de pooiing e uma operação de sub amostragem.  Method according to claim 13, characterized in that the typical layer comprises a convolution layer for the convolution operation, a nonlinearity operation, a pooling layer for performing a pooing operation and a sub sampling.
15. Método, de acordo com a reivindicação 13, caracterizado peio fato de as imagens de saída da primeira camada típica serem usadas como entrada para a segunda camada ti pica;  Method according to claim 13, characterized in that the output images of the typical first layer are used as input to the second typical layer;
16. Método, de acordo com a reivindicação 13, caracterizado pelo fato de cada camada típica compreender peio menos 32 filtros convolucionais de tamanhos entre 3x3 e 15x15, preferencialmente 7x7.  Method according to claim 13, characterized in that each typical layer comprises at least 32 convolutional filters of sizes between 3x3 and 15x15, preferably 7x7.
17. Método, de acordo com a reivindicação 16, caracterizado peio fato de o peso dos filtros convolucionais serem aleatórios ou aprendidos, através do uso de um método de aprendizado como o método de backpropagation. Method according to claim 16, characterized in that the weight of the convolutional filters is random or learned by the use of a learning method as the backpropagation method.
18. Método, de acordo com a reivindicação 14, caracterizado pelo fato de a operação de pooling agregar a informação dentro de pequenas regiões locais, R, produzindo um mapa de características agrupado V através da equação 1, genérica; e ser selecionado dentre o grupo de operações average pooling, max-poofíng, stochastic pooling, muftí-scale pyramidal pooling, preferencialmente a operação de max-pooling. Method according to claim 14, characterized in that the pooling operation aggregates information within small local regions, R, producing a grouped feature map V through equation 1, generic; and be selected from the group of operations average pooling, max-poofing, stochastic pooling, multi-scale pyramidal pooling, preferably the max-pooling operation.
19. Método, de acordo com a reivindicação 18, caracterizado pelo fato de a operação max-poling selecionar o valor máximo das unidades de ativaçâo de uma região Rj através da equação 3; e a operação average poling retornar a média (ou a soma) das unidades de ativação de uma vizinhança Rj através da equação 2. Method according to claim 18, characterized in that the max-poling operation selects the maximum value of the activation units of a region Rj through equation 3; and the average poling operation returns the average (or the sum) of the activation units of a neighborhood R j through equation 2.
20. Método, de acordo com a reivindicação 1, caracterizado pelo fato de na etapa c as redes convolucionais opcionalmente utilizar uma camada adicionai entre as camadas de convolução e pooling para operação de normalização de contraste local.  Method according to claim 1, characterized in that in step c the convolutional networks optionally use an additional layer between the convolution and pooling layers for local contrast normalization operation.
21. Método, de acordo com a reivindicação 20. caracterizado peio fato de camada operação de normalização de contraste local normalizar as intensidades dos pixels através de normalização subtrativa utilizando-se a equação 4 e a equação 5; e normalização divisa utilizando-se as equações 6 e 7.  Method according to claim 20, characterized in that the local contrast normalization operation layer normalizes the pixel intensities by subtractive normalization using equation 4 and equation 5; and currency normalization using equations 6 and 7.
22. Método, de acordo com a reivindicação 1, caracterizado pelo fato de as imagens resultantes da etapa c serem rasterízadas e concatenadas para a formação um vetor unidimensional usado como entrada para um classificador binário compreendido na etapa e.  Method according to claim 1, characterized in that the images resulting from step c are rasterized and concatenated for forming a one-dimensional vector used as input to a binary classifier comprised in step e.
23. Método, de acordo com a reivindicação 1, caracterizado pelo fato de na etapa d a redução da dimensionalidade ser realizada através de técnicas compreendidas do grupo de técnicas de PCA. Kernel PCA, LDA, ICA, auto-encoders, preferencialmente PCA. e a normalização posterior dos dados ser realizada através de métodos compreendidos do grupo de técnicas de normalização de dados, tais como normalização por característica (whitening) ou normalização por amostra, preferencialmente o whitening. A execução desta etapa d é opcional. Method according to Claim 1, characterized in that the dimensionality reduction step is carried out by techniques comprised of the PCA technique group. Kernel PCA, LDA, ICA, auto-encoders, preferably PCA. and the Further data normalization shall be performed by methods comprised of the group of data normalization techniques, such as whitening or sample normalization, preferably whitening. Performing this step d is optional.
24. Método, de acordo com a reivindicação 23, caracterizado pelo fato de o número de componentes principais do PCA compreender entre 30 e 1300 componentes principais.  Method according to claim 23, characterized in that the number of principal components of the PCA comprises between 30 and 1300 principal components.
25. Método, de acordo com a reivindicação 23 ou 24, caracterizado peio fato de a técnica Whitening dividir os componentes principais pelos seus desvios padrão, resultando em uma matriz de covaríància (identidade), e denotar os componentes principais rotacionados através da equação 8.  A method according to claim 23 or 24, characterized in that the Whitening technique divides the principal components by their standard deviations, resulting in a covariance matrix (identity), and denotes the principal components rotated through equation 8.
26. Método, de acordo com a reivindicação 1. caracterizado pelo fato de na etapa e o classificador binário compreender classificadores binários compreendidos do grupo de classificadores binários K- Viztnhos-Mais-Próximos, LDA, Naive Bayes Regressão Logística, Árvores de Decisão, Redes Neurais (com uma função Softmax na última camada) e SVM, preferencialmente o SVM.  Method according to claim 1, characterized in that in step and the binary classifier comprises binary classifiers comprised of the K-Viztnhos-Closest binary classifiers group, LDA, Naive Bayes Logistic Regression, Decision Trees, Networks Neural (with a Softmax function in the last layer) and SVM, preferably SVM.
27. Método, de acordo com a reivindicação 1 , caracterizado pelo fato de na etapa a ser utilizada técnicas seilcionadas de aumento artificiai de dados, como rotações, translações, reflexões horizontais, mudanças de escala, alteração local de intensidades, adição de ruídos ou criação de amostras a partir de modelos 3D do objeto a ser categorizado, sendo preferencialmente utilizadas translações e reflexões horizontais, para a criação artificial de amostras ligeiramente modificadas a partir das amostras originais  Method according to Claim 1, characterized in that in the step to be used selected techniques of artificially increasing data, such as rotations, translations, horizontal reflections, scaling, local change in intensities, noise addition or creation. samples from 3D models of the object to be categorized, preferably using horizontal translations and reflections, for artificially creating slightly modified samples from the original samples
28. Método, de acordo com as reivindicações de 1 a 27, caracterizado pelo fato de ser executado em computadores na nuvem, em servidores locais, computadores desktop ou notebooks comums, dispositivos móveis. CLPs ou Field Programmable Gate Arrays (FPGA). Method according to claims 1 to 27, characterized in that it is performed on computers in the cloud, on local servers, desktop computers or standard notebooks, mobile devices. PLCs or Field Programmable Gate Arrays (FPGA).
PCT/BR2015/000131 2014-12-09 2015-08-28 Method for detecting the brightness of fingerprints using convolutional networks WO2016090439A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
BRBR1020140308326 2014-12-09
BR102014030832-6A BR102014030832B1 (en) 2014-12-09 2014-12-09 Fingerprint liveness detection method using convolutional networks

Publications (1)

Publication Number Publication Date
WO2016090439A1 true WO2016090439A1 (en) 2016-06-16

Family

ID=56106323

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/BR2015/000131 WO2016090439A1 (en) 2014-12-09 2015-08-28 Method for detecting the brightness of fingerprints using convolutional networks

Country Status (2)

Country Link
BR (1) BR102014030832B1 (en)
WO (1) WO2016090439A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778785A (en) * 2016-12-23 2017-05-31 东软集团股份有限公司 Build the method for image characteristics extraction model and method, the device of image recognition
CN110647862A (en) * 2018-10-08 2020-01-03 深圳市汇顶科技股份有限公司 Fingerprint detection device and method and electronic equipment
CN113254925A (en) * 2021-02-01 2021-08-13 中国人民解放军海军工程大学 Network intrusion detection system based on PCA and SVM
CN116595409A (en) * 2023-04-17 2023-08-15 中煤科工集团上海有限公司 Coal rock identification method based on principal component analysis, electronic equipment and medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564040B (en) * 2018-04-17 2021-06-25 杭州景联文科技有限公司 Fingerprint activity detection method based on deep convolution characteristics
CN113286306A (en) * 2021-05-26 2021-08-20 中国人民解放军火箭军工程大学 Wireless channel fingerprint filtering method and system based on channel equalization

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825907A (en) * 1994-12-28 1998-10-20 Lucent Technologies Inc. Neural network system for classifying fingerprints
US20130294663A1 (en) * 2006-10-10 2013-11-07 West Virginia University Multi-resolutional texture analysis fingerprint liveness systems and methods

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825907A (en) * 1994-12-28 1998-10-20 Lucent Technologies Inc. Neural network system for classifying fingerprints
US20130294663A1 (en) * 2006-10-10 2013-11-07 West Virginia University Multi-resolutional texture analysis fingerprint liveness systems and methods

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ANTONELLI, A. ET AL.: "Fake finger detection by skin distortion analysis", INFORMATION FORENSICS AND SECURITY, IEEE TRANSACTIONS, vol. 1, no. Issue: 3, September 2006 (2006-09-01), pages 360 - 373, XP055007996, DOI: doi:10.1109/TIFS.2006.879289 *
GALBALLY, J. ET AL.: "Fingerprint liveness detection based on quality measures", BIOMETRICS, IDENTITY AND SECURITY (BIDS), 2009 INTERNATIONAL CONFERENCE, 22 September 2009 (2009-09-22), Tampa, FL, US, pages 1 - 8, XP031707241 *
GHIANI, L. ET AL.: "Fingerprint Liveness Detection using Binarized Statistical Image Features", BIOMETRICS: THEORY, APPLICATIONS AND SYSTEMS (BTAS), 2013 IEEE SIXTH INTERNATIONAL CONFERENCE, 29 September 2013 (2013-09-29), pages 1 - 6, XP032551069, DOI: doi:10.1109/BTAS.2013.6712708 *
NOGUEIRA, R. F.: "Software based fingerprint liveness detection", DISSERTAÇÃO DE MESTRADO, UNICAMP, 31 July 2014 (2014-07-31) *
NOGUEIRA, R.F. ET AL.: "Evaluating software-based fingerprint liveness detection using Convolutional Networks and Local Binary Patterns", 2014 IEEE WORKSHOP ON BIOMETRIC MEASUREMENTS AND SYSTEMS FOR SECURITY AND MEDICAL APPLICATIONS (BIOMS) PROCEEDINGS, 17 October 2014 (2014-10-17), Rome, Italy, pages 22 - 29, XP032682124, DOI: doi:10.1109/BIOMS.2014.6951531 *
PEREIRA, L.F.A ET AL., NEURAL NETWORKS (IJCNN), THE 2012 INTERNATIONAL JOINT CONFERENCE, 10 June 2012 (2012-06-10), Brisbane, Austrália, pages 1 - 7 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778785A (en) * 2016-12-23 2017-05-31 东软集团股份有限公司 Build the method for image characteristics extraction model and method, the device of image recognition
CN106778785B (en) * 2016-12-23 2019-09-17 东软集团股份有限公司 Construct the method for image Feature Selection Model and the method, apparatus of image recognition
CN110647862A (en) * 2018-10-08 2020-01-03 深圳市汇顶科技股份有限公司 Fingerprint detection device and method and electronic equipment
CN110647862B (en) * 2018-10-08 2020-08-25 深圳市汇顶科技股份有限公司 Fingerprint detection device and method and electronic equipment
US10776599B2 (en) 2018-10-08 2020-09-15 Shenzhen GOODIX Technology Co., Ltd. Fingerprint detection device and method and electronic device
US11062112B2 (en) 2018-10-08 2021-07-13 Shenzhen GOODIX Technology Co., Ltd. Fingerprint detection device and method and electronic device
CN113254925A (en) * 2021-02-01 2021-08-13 中国人民解放军海军工程大学 Network intrusion detection system based on PCA and SVM
CN113254925B (en) * 2021-02-01 2022-11-15 中国人民解放军海军工程大学 Network intrusion detection system based on PCA and SVM
CN116595409A (en) * 2023-04-17 2023-08-15 中煤科工集团上海有限公司 Coal rock identification method based on principal component analysis, electronic equipment and medium
CN116595409B (en) * 2023-04-17 2024-01-09 中煤科工集团上海有限公司 Coal rock identification method based on principal component analysis, electronic equipment and medium

Also Published As

Publication number Publication date
BR102014030832A2 (en) 2016-06-14
BR102014030832B1 (en) 2022-04-12

Similar Documents

Publication Publication Date Title
Nogueira et al. Evaluating software-based fingerprint liveness detection using convolutional networks and local binary patterns
Rida et al. Palmprint identification using an ensemble of sparse representations
Umer et al. Iris recognition using multiscale morphologic features
WO2016090439A1 (en) Method for detecting the brightness of fingerprints using convolutional networks
Liao et al. Learning invariant representations and applications to face verification
Chen et al. Robust local features for remote face recognition
Kasban et al. An efficient approach for forgery detection in digital images using Hilbert–Huang​ transform
Minaee et al. Fingerprint recognition using translation invariant scattering network
Alaslni et al. Transfer learning with convolutional neural networks for iris recognition
Muqeet et al. Local appearance-based face recognition using adaptive directional wavelet transform
Holle et al. Local line binary pattern and Fuzzy K-NN for palm vein recognition
Sarangi et al. Multimodal biometric recognition using human ear and profile face
Dahea et al. Finger vein recognition system based on Multi-algorithm of fusion of Gabor filter and local binary pattern
Singh et al. Integrating global zernike and local discriminative HOG features for face recognition
Salem et al. Rotation invariant texture classification using support vector machines
Hong-Ying et al. An iris recognition method based on multi-orientation features and Non-symmetrical SVM
Mohamed-Abdul-Cader et al. HOS-FingerCode: Bispectral invariants based contactless multi-finger recognition system using ridge orientation and feature fusion
Shekar et al. Steerable riesz wavelet based approach for iris recognition
Rezaei et al. A robust fingerprint recognition system based on hybrid DCT and DWT
Kabacinski et al. Human Vein Pattern Correlation-A Comparison of Segmentation Methods.
Poonia et al. Palm-print recognition based on quality estimation and feature dimension
Kumar et al. A Critical Review of Finger Vein Recognition Techniques for Human Identification
Emadi Improving Human's Finger Knuckle Identification using High Order Zernike Moments.
El-Tarhouni Finger Knuckle Print and Palmprint for efficient person recognition
Murukesh et al. Multi-algorithmic palmprint authentication system based on score level fusion

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15868378

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15868378

Country of ref document: EP

Kind code of ref document: A1