WO2001093053A1 - Systeme d'authentification d'un corps humain vivant - Google Patents

Systeme d'authentification d'un corps humain vivant Download PDF

Info

Publication number
WO2001093053A1
WO2001093053A1 PCT/JP2001/004405 JP0104405W WO0193053A1 WO 2001093053 A1 WO2001093053 A1 WO 2001093053A1 JP 0104405 W JP0104405 W JP 0104405W WO 0193053 A1 WO0193053 A1 WO 0193053A1
Authority
WO
WIPO (PCT)
Prior art keywords
fingerprint
information
image
card
writer
Prior art date
Application number
PCT/JP2001/004405
Other languages
English (en)
French (fr)
Inventor
Masahiro Mimura
Yoichi Seto
Takuo Ishizuka
Original Assignee
Hitachi, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi, Ltd. filed Critical Hitachi, Ltd.
Priority to US09/937,004 priority Critical patent/US7162058B2/en
Priority to DE60139784T priority patent/DE60139784D1/de
Priority to KR1020017011933A priority patent/KR100785961B1/ko
Priority to EP01934353A priority patent/EP1313026B1/en
Publication of WO2001093053A1 publication Critical patent/WO2001093053A1/ja
Priority to US11/606,139 priority patent/US7457442B2/en

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F7/00Mechanisms actuated by objects other than coins to free or to actuate vending, hiring, coin or paper currency dispensing or refunding apparatus
    • G07F7/08Mechanisms actuated by objects other than coins to free or to actuate vending, hiring, coin or paper currency dispensing or refunding apparatus by coded identity card or credit card or other personal identification means
    • G07F7/10Mechanisms actuated by objects other than coins to free or to actuate vending, hiring, coin or paper currency dispensing or refunding apparatus by coded identity card or credit card or other personal identification means together with a coded signal, e.g. in the form of personal identification information, like personal identification number [PIN] or biometric data
    • G07F7/1008Active credit-cards provided with means to personalise their use, e.g. with PIN-introduction/comparison system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/34Payment architectures, schemes or protocols characterised by the use of specific devices or networks using cards, e.g. integrated circuit [IC] cards or magnetic cards
    • G06Q20/341Active cards, i.e. cards including their own processing means, e.g. including an IC or chip
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4014Identity check for transactions
    • G06Q20/40145Biometric identity checks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/22Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
    • G07C9/25Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
    • G07C9/257Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition electronically
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/29Individual registration on entry or exit involving the use of a pass the pass containing active electronic elements, e.g. smartcards

Definitions

  • the present invention relates to biometric information collation technology used for entry / exit management and access control of information systems in important facilities, and particularly to fingerprint collation technology.
  • biometric information collation technology used for entry / exit management and access control of information systems in important facilities, and particularly to fingerprint collation technology.
  • access control technologies that allow only users to enter and leave facilities and use information systems. Examples of such access control technology include the following.
  • Reference 1 Japanese Patent Application Laid-Open No. 09-19895 (hereinafter referred to as Reference 1) discloses a biometric information of a user recorded in advance in a door management device and a biometric information input at the time of entrance and exit. It describes what prevents unauthorized intrusion into a controlled area by collating it with information.
  • Reference 2 Japanese Patent Application Laid-Open No. H10-124648 discloses that a server has a biometric information file of a user, and that a server inputs a biometric information file.
  • the document describes a system that verifies a user's biometric information on a server to prevent unauthorized access to a computer system.
  • Document 3 Japanese Patent Application Laid-Open No. H10-1044946 (hereinafter referred to as Document 3) records a user's biometric information in a portable recording device such as an IC card, and newly introduces the device.
  • the document describes that the client checks the biometric information of the user entered in the above to prevent unauthorized access to computer systems.
  • the door management device is realized by a device that does not have tamper resistance, the user is not authenticated by falsifying, falsifying, or stealing the user's fingerprint information or collation result.
  • Impersonation impersonation impersonation There is a problem that is possible.
  • the server centrally manages biometric information, which is user-specific information, and performs fingerprint matching. Forgery, falsification, plagiarism, etc. of information and verification results are difficult.
  • the centralized management of personal information such as fingerprints may increase the psychological resistance of the user, may result in a large number of biometric information being stolen at one time, or may require management of a large number of users.
  • problems such as an increase in cost for managing a file for recording biometric information.
  • the present invention provides a fingerprint collation system that is highly secure and can reduce cost.
  • a biometric authentication system includes a tamper-resistant portable storage device with an arithmetic function, and a tamper-resistant reader / writer that reads and writes information from and to the portable storage device.
  • the reader / writer is a biological information input device for inputting biological information. And performs pre-processing of the biological information input by the biological information input device, and transmits the pre-processed intermediate information to the portable storage device.
  • the portable storage device includes a biometric information template and a secret key used for electronic authentication, performs collation between the intermediate information and the template, and when the collation matches, the secret key is used. Make it available. If the biometric information is fingerprint information, the reader / writer sequentially transmits fingerprint image information necessary for fingerprint collation to the portable storage device, and the portable storage device sequentially processes the fingerprint image information Thus, fingerprint matching may be performed.
  • information for correcting a positional deviation between the registered fingerprint recorded in the template and the newly input fingerprint is calculated using the core position of the fingerprint, and a small area around the characteristic point of the registered fingerprint is calculated.
  • the image may be searched for by matching around the coordinates of the input fingerprint whose position has been corrected on the image, and the identity of the template and the fingerprint image may be determined based on the number of matching small images.
  • a perpendicular vector of the ridge may be searched, and a position where the perpendicular vector greatly changes may be determined as the fingerprint core.
  • FIG. 1 is a diagram for explaining an outline of an access processing system according to the present invention.
  • FIG. 2 is a diagram showing the structure of an IC card according to the present invention.
  • FIG. 3 is a diagram showing a configuration example of the fingerprint information 243.
  • FIG. 4 is a diagram showing the structure of the reader / writer according to the present invention.
  • FIG. 5 is a diagram showing a schematic flow of fingerprint collation.
  • FIG. 6 is a diagram showing an example of a fingerprint core and feature points.
  • FIG. 7 is a diagram showing a schematic flow of the preprocessing.
  • FIG. 8 is a conceptual diagram for explaining a core position detecting process.
  • FIG. 9 is a diagram showing a detailed flow of the core search processing.
  • FIG. 10 is a diagram showing a configuration example of a candidate point calculation table in the core search processing.
  • FIG. 11 is a diagram showing a configuration example of a core search result table in the core search processing.
  • FIG. 12 is a conceptual diagram of a ridge direction calculating method.
  • FIG. 13 is a diagram showing a detailed flow of the ridge direction calculation processing.
  • FIG. 14 is a diagram showing a schematic flow of the collation processing.
  • FIG. 15 is a diagram illustrating an example of an APDU that calls a correction vector calculation process.
  • FIG. 16 is a diagram illustrating an example of a response APDU from the correction vector calculation process.
  • FIG. 17 is a diagram showing an example of an APDU for calling a chip position calculation process.
  • FIG. 18 is a diagram illustrating an example of a response APDU from the chip position calculation process.
  • FIG. 19 is a diagram showing an example of an APDU that calls the chip matching process.
  • FIG. 20 is a diagram showing an example of a response AP DU from the chip matching process.
  • FIG. 21 is a diagram showing a detailed flow of a correction vector calculation process.
  • FIG. 22 is a diagram showing a detailed flow of the chip position calculating process.
  • FIG. 23 is a diagram showing a detailed flow of the chip matching process.
  • FIG. 24 is a diagram showing the concept of the chip matching process.
  • FIG. 25 is a diagram showing a configuration example of a mismatch bit number search table.
  • FIG. 26 is a diagram showing a detailed flow of the matching process.
  • FIG. 27 is a diagram illustrating an example of an APDU for calling the second correction vector calculation process.
  • FIG. 28 is a diagram showing a detailed flow of the second correction vector calculation process.
  • FIG. 29 is a diagram showing an example of a feature point map.
  • FIG. 30 is a diagram showing a processing flow when the correction vector is calculated by the reader / writer 110.
  • FIG. 31 is a diagram showing an example of an APDU requesting transmission of the coordinates of a feature point of a registered fingerprint.
  • FIG. 32 is a diagram showing an example of a response APDU from the special point position transmission processing.
  • FIG. 1 is a diagram for explaining an outline of an access management system according to the present invention. As shown in FIG. n
  • a terminal 120 a reader / writer 110, and an IC card 100.
  • the host computer 130 is for performing a banking operation, and an application 1331 for an employee to perform a banking operation is being executed.
  • Abbreviations 1 3 1 will be available after the staff confirms that they are the correct registered user (identification).
  • the terminal 120 is a terminal for using the application 131, and is connected to the host computer 130 by a network 140.
  • the terminal 120 also relays when the host computer 130, the reader / writer 110, and the IC card 100 exchange information required for personal authentication.
  • the reader / writer 110 is a device for reading and writing data from and to the IC card 100, and is connected to the terminal 120.
  • the reader / writer 110 includes an interface 111, a fingerprint input unit 113, and a preprocessing unit 112.
  • the interface 111 transmits information to / from the terminal 120 and the IC card 100.
  • the fingerprint input unit 1 13 reads fingerprints from staff fingers.
  • the preprocessing unit 112 performs preprocessing of the read fingerprint image, and exchanges information necessary for fingerprint collation with the IC card 100.
  • the IC 100 is a portable storage device with a calculation function that each employee has.
  • the IC card 100 includes an interface 101, a fingerprint matching processing unit 102, an electronic authentication processing unit 103, fingerprint information 104, and authentication information 105.
  • the interface 101 transmits information to and from the reader / writer 110.
  • the fingerprint matching processing unit 102 compares the fingerprint information recorded in the fingerprint information 104 with the newly input fingerprint.
  • the electronic authentication processing unit 103 performs electronic authentication with the host computer 130 using the authentication information 105.
  • the staff has an IC card 100 on which their fingerprint information 104 is recorded in advance, and when accessing the application 131, the IC card 100 is connected to the reader / writer 110 and the reader / writer is connected. A fingerprint is newly input using the fingerprint input unit 113 of 110.
  • the pre-processing unit 112 When a fingerprint is input, the pre-processing unit 112 performs pre-processing for fingerprint collation, and the pre-processing unit 112 and the fingerprint collation processing unit 102 exchange information necessary for collation. Then, it is determined whether the newly input fingerprint matches the fingerprint information 104 or not.
  • the terminal 130 can access the application 130, and the staff can use the application 131.
  • the IC card 100 includes an I / O port 210, a CPU 220, a RAM 230, an EPP ROM 240, and a ROM 250. Each component of the IC card 100 is connected to the bus 260 and exchanges data via the bus 260.
  • the I / O port 210 is a port for exchanging data with the reader / writer 110.
  • the CPU 220 is an arithmetic processing unit that performs four arithmetic operations and bit operations.
  • the RAM 230 is a rewritable memory used for temporary storage of data when the CPU 220 performs an operation.
  • ROM 250 is a read-only memory, and the fingerprint collation program 2 5 1 and electronic certification programs 2 5 2 and other programs and data are recorded.
  • the EEPROM 240 is an electrically rewritable non-volatile memory, and includes an electronic certificate 241 for certifying the validity of the IC card 100 ′ and an IC card 100 ′.
  • the secret key 2 4 2 and fingerprint information 2 4 3 to prove that the employee has the correct IC card are recorded.
  • the fingerprint information 243 consists of the coordinates of the core of the fingerprint used for registration, the coordinates of a predetermined number of feature points, and small images (chip images) around each feature point.
  • the number of feature points included in the fingerprint information 24 3 is 30 will be described in the present embodiment.
  • FIG. 3 is a diagram showing a configuration example of the fingerprint information 2 43.
  • the fingerprint information 243 has the number of chips (images), the XY coordinates of the core, the XY coordinates of the chip image, and the image data (binary data) of the chip image. How to use each information will be described later.
  • the IC card 100 has tamper resistance to prevent unauthorized data access from outside or data analysis due to equipment rupture, and refers to data and programs stored inside by unauthorized means. Designed to be incapable. In addition, it has an access control function to the data stored inside, and in order to access the data inside the IC card 100, it is necessary to perform authentication using a common key or the like. Permission is required. When the power of the IC card 100 is turned on, the private key 242 of the IC card 100 is set to be not permitted to be accessed, and cannot be accessed from an external or internal program.
  • the reader / writer 110 includes a 10 port 310, a CPU 320, a RAM 330, a fingerprint sensor 340, and a ROM 350. Each component of the reader / writer 100 is connected to the bus 360 and exchanges data via the bus 360.
  • the I / O port 310 is a port for exchanging data with the IC card 110 and terminal 120.
  • the CPU 320 is an arithmetic processing unit that performs arithmetic operations required for the reader / writer 110, such as four arithmetic operations and bit operations.
  • the RAM 330 is a memory for storing data temporarily used by the CPU 320 when performing calculations.
  • the fingerprint sensor 340 electronically reads a fingerprint.
  • the ROM 350 is a read-only memory that performs pre-processing of fingerprint images, etc., and performs pre-processing programs 3501 and fingerprint reading that perform fingerprint verification while communicating with the IC card 100. Fingerprint reading program to control 3 5
  • the reader / writer 110 has tamper resistance and is designed so that data and programs stored in the reader / writer cannot be externally referred to by an unauthorized method.
  • the application 13 1 requests the terminal 12 0 to verify the employee's fingerprint, and the terminal 12 0 sends the reader / writer 11 10
  • a fingerprint collation request is issued to the user (S400).
  • the reader / writer 110 which has received the fingerprint collation request from the terminal 120, executes the fingerprint reading program 352, and acquires the staff fingerprint from the fingerprint sensor 340 (S405).
  • the read fingerprint is recorded in the RAM 330 as a fingerprint image having, for example, 8 bits of light and shade per pixel.Reading the fingerprint by the c fingerprint sensor 340 is performed by a commonly used method, for example, the above-mentioned document. This is performed using the method described in 2.
  • the pre-processing program 351 pre-processes the fingerprint image, extracts intermediate fingerprint information as information necessary for collation, and records it in the RAM 330 (S410). Details of the pre-processing will be described later.
  • the fingerprint collation program 251 collates the intermediate fingerprint information with the staff's fingerprint information 243 previously recorded on the IC card 100 (S415). Details of the matching process will be described later.
  • the electronic authentication program 252 performs electronic authentication with the application 131, using the activated secret key 242 (S425).
  • mutual authentication between the IC card 100 and the application 1311 is performed by the method described in ANSITUITX.509.
  • the preprocessing the coordinates of the fingerprint core and feature points are calculated, and a binary image of the fingerprint is created, and these are recorded in the RAM 330 as intermediate fingerprint information after the preprocessing.
  • FIG. 6 is a diagram showing an example of a fingerprint core and feature points.
  • the fingerprint core refers to the characteristic structure of the fingerprint as shown in the figure.
  • feature points refer to the end points and branch points of ridges (a series of convex portions) that form a fingerprint. Normal, _ _
  • Each finger has one fingerprint core and multiple feature points.
  • FIG. 7 is a diagram showing a schematic flow of the preprocessing.
  • the input fingerprint image is subjected to ridge enhancement and noise removal processing, and the processed 8-bit gray-scale fingerprint image is recorded in the RAM 330 (S600).
  • This processing is performed by using a commonly used method, for example, a method described in Japanese Patent Application Laid-Open No. H11-134498.
  • the core which is a characteristic structure of the fingerprint is detected, and its coordinates are recorded in the intermediate fingerprint information (S605). Details of this processing will be described later.
  • the 8-bit grayscale fingerprint image that has been subjected to ridge emphasis and other processing is binarized, converted to a monochrome image with 1 bit per pixel, and recorded in the intermediate fingerprint information (S610).
  • This process is performed by using a commonly used method, for example, the method described in Reference 2 described above.
  • the binarized fingerprint image is thinned to obtain a thinned image (S615).
  • the thinned image is temporarily recorded in the RAM 330.
  • the thinning process is performed by using a commonly used method, for example, a method described in Reference 2.
  • an effective area 810 for calculating a candidate point is set.
  • the valid area 8100 is set in the fingerprint image and is assumed to include a core.
  • FIG. 9 is a diagram showing a detailed flow of the core position detection processing S605.
  • a counter i indicating the number of searches is initialized to "1" (S700)
  • a counter j indicating an index of a candidate point in one search is initialized to "1" (S705).
  • the initial position of the candidate point is set according to the count i indicating the number of searches (S710).
  • the initial position is set to be different for each search.
  • an initial position 800 is set.
  • the X and Y coordinates of the initial position are recorded at the corresponding positions in the candidate point calculation table provided in the RAM 330.
  • FIG. 10 is a diagram showing a configuration example of a candidate point calculation table.
  • the candidate point calculation table has a “candidate point index”, “coordinates” of the candidate points, and “curvature” at each candidate point.
  • the figure shows the coordinates and curvature of seven candidate points in one search.
  • the coordinates of the candidate point at index 1 are 25 for the X coordinate and 25 for the Y coordinate.
  • the vector 805 in the perpendicular direction of the ridge at the initial position 800 is calculated (S715). A specific calculation method will be described later.
  • the perpendicular direction vector is normalized to have a preset length.
  • a new candidate point is calculated from the current position of the candidate point and the vector in the perpendicular direction (S720). Specifically, a new candidate point is obtained by adding the vector in the vertical direction to the position coordinates of the current candidate point, and the X and Y coordinates of the candidate point are stored in the corresponding index of the candidate point calculation table. Record ( Next, the perpendicular direction vector of the ridge at the new candidate point is calculated (S725).
  • FIG. 11 is a diagram showing a configuration example of a core search result table. As shown in the figure, the core search result table has “index of the number of searches”, “coordinates of points having the maximum curvature”, and “maximum curvature” in each search.
  • FIG. 10 shows the result of ending the search 10 times.
  • the curvature may be obtained by any method.
  • the cosine of the angle formed is defined as the curvature.
  • the curvature of the fourth candidate point 820 shown in FIG. 8 is calculated by the cosine of the angle 830.
  • the curvatures of all the candidate points are calculated, and the coordinates of the candidate point having the largest curvature are recorded at the corresponding positions in the core search result table.
  • the curvature-0.3 is the maximum, the coordinates and the curvature of the fourth candidate point are recorded at the position corresponding to the index 1 in FIG.
  • FIG. 12 is a diagram showing a concept of a ridge direction calculating method according to the present embodiment. This figure shows a part of the fingerprint image, and the ridges are shown by solid lines.
  • the ridge direction at point 2505 on a pixel of the fingerprint image can be calculated as follows. First, a plurality of points 2501 0 on a straight line passing through the point 2505 are set. Next, all the absolute values of the difference between the luminance of the point 2505 and the luminance of each point 25010 are added. This operation is performed in multiple directions, and it is determined that the direction with the smallest value matches the direction of the ridge.
  • FIG. 13 is a diagram depicting a processing flow of a ridge direction calculation processing
  • the angle is initialized to 0 degrees (S2600).
  • S2600 0 degrees
  • processing is performed for each angle from 0 degree to 160 degrees every 20 degrees.
  • the value of the evaluation value for each angle is initialized to 0.
  • the position of the reference point is initialized and its coordinates are calculated (S2655). Specifically, the ridge direction is to be calculated as shown by the point 2505 in FIG. A point on a straight line passing through a point (hereinafter referred to as a reference point).
  • a reference point a point on a straight line passing through a point
  • the fourth point is used as a reference point.
  • the absolute value of the difference between the luminance of the reference point and the luminance of the reference point is calculated and added to the evaluation value assigned to the corresponding angle (S2610).
  • step S2620 it is determined whether or not processing has been completed for all reference points (S2620), and as a result, if processing has not been completed for all reference points (S2620: NO), Returning to step S2610, the above-described processing is repeated.
  • the core position detection processing when a core is detected, a perpendicular direction vector of a ridge is searched, and a position where the perpendicular direction vector greatly changes is determined as a core by majority decision.
  • the core position can be detected with a small amount of calculation.
  • FIG. 14 is a diagram showing a schematic flow of the matching processing in the present embodiment. This process is performed while the reader / writer 110 and the IC card 100 communicate with each other.Therefore, the process of the reader / writer 110 is shown on the left side of the diagram, and the process of the IC card 100 is shown on the right side of the figure. are doing.
  • the processing performed by the IC card 100 includes a correction vector calculation processing S 1 190, a chip position calculation processing S 1 19 1, and a chip matching processing S 1 19 Each is implemented in the IC card 100 as a command defined in ISO 786 16-4 or the like.
  • the reader / writer 110 calls the correction vector calculation processing S110 of the IC card 100 (S110).
  • the coordinates of the core of the input fingerprint recorded in the intermediate fingerprint information are passed as parameters.
  • the process is called by transmitting an APDU (Application Protocol Data Unit) described in the ISO 7816-4 to the IC card 100.
  • APDU Application Protocol Data Unit
  • FIG. 15 is a diagram showing an example of an APDU for calling the correction vector calculation process.
  • the command ID of the correction vector calculation process is assigned to the INS field of AP DU 1500
  • the X and Y coordinates of the core are assigned to the data field
  • the Lc field is assigned. To the coordinate data Yunaga has been assigned.
  • the IC card 100 Upon receiving the APDU 1500 from the reader / writer 110, the IC card 100 activates a correction vector calculation process (S119).
  • the correction vector calculation process calculates the difference vector between the coordinates of the core of the input fingerprint received from the reader / writer '110 and the core position of the registered fingerprint recorded in advance on the IC card 100, and displaces the two. Is calculated as a correction vector representing the above, and recorded in the RAM 230 of the IC card 100. After that, it responds to the reader / writer 110. Specifically, a response is output by outputting a response APDU (Response Application Protocol Data Unit) described in the ISO 7816-4 to the reader / writer 110.
  • APDU Response Application Protocol Data Unit
  • FIG. 16 is a diagram showing an example of the response AP DU of the correction vector calculation processing S119.
  • the response APDU 15010 contains the status of the command in the SW1 field, and substitutes a code indicating normal or abnormal termination as the command processing result.
  • the details of the correction vector calculation process S1190 will be described later.
  • the reader / writer 110 When the reader / writer 110 receives the response APDU 150 from the IC card 100 (S110), the reader / writer checks the status of the response APDU 150 (S111). ). As a result, if an error has occurred (S111: YES), the processing ends.
  • the chip position calculation processing is called to obtain coordinates for cutting out a partial image of the input fingerprint for chip matching (S111).
  • FIG. 17 is a diagram showing an example of an APDU transmitted to the IC card 100 to call the chip position calculation processing. As shown in the figure, the command ID of the chip position calculation processing is assigned to the INS field of the APD U15020, and the data length of the coordinate to be the return value is substituted for the Le field. Is entered.
  • the IC card 100 Upon receiving the APDU 152 from the reader / writer 110, the IC card 100 activates the chip position calculation process (S1191).
  • the chip position calculation process the coordinates of the characteristic points in the input fingerprint are calculated from the coordinates of the characteristic points of the registered fingerprint recorded in advance and the correction vector calculated in step S119.
  • the coordinates of the feature points in the input fingerprint are calculated by adding a correction vector to the coordinates of the feature points in the registered fingerprint. After that, it responds to the reader / writer 110 using the response APDU.
  • FIG. 18 is a diagram showing an example of a response APDU of the chip position calculation processing S1191. As shown in the figure, the coordinates of the feature point are assigned to the data field of the response APDU 1503, and the status of the command is assigned to the SW1 field. The details of the chip position calculation processing S11191 will be described later.
  • the reader / writer 110 Upon receipt of the response APDU 150 (S111), the reader / writer 110 analyzes the contents of the response APDU 150, and determines whether or not the processing has ended abnormally, and whether the specified feature point has been detected. It is checked whether the position is incorrect (S111). As a result, if the position of the specified feature point is invalid (S111: YES), the process returns to step S111 to call the chip position calculation process for another chip image. If abnormal termination has occurred (S1111.7: Abnormal termination), the processing is terminated.
  • the partial image is an image slightly larger than the chip image, and its size and shape are predetermined.
  • step S111 the chip matching process of the IC card 100 is called (S112).
  • the partial image extracted in step S111 Send The specific calling method is the same as that in step S110.
  • FIG. 19 is a diagram showing an example of an AP DU for calling a chip matching process.
  • the command ID of the chip matching process is assigned to the INS field of the APDU 1540
  • the data length of the partial image is assigned to the Lc field
  • the data field is assigned. Is substituted with the partial image.
  • the IC card 100 Upon receiving the APDU 1540 from the reader / writer 110, the IC card 100 activates a chip matching process (S1192). In the chip matching processing, chip matching and chipping processing are performed between the received partial image of the input fingerprint and the chip image recorded in the IC card 100 in advance, and if they match, the number of matching chips is incremented. When matching has been completed for all feature points, a status indicating fingerprint match or mismatch is returned. Otherwise, a status for matching the next feature point is returned.
  • FIG. 20 is a diagram showing an example of a response AP DU of the chip matching process. As shown in the figure, the status of the command is assigned to the SW1 field of the response APDU 550. Specifically, a code indicating fingerprint match, mismatch, or continuation of processing is substituted as the command processing result. The details of the chip matching process S11192 will be described later.
  • the reader / writer 110 Upon receiving the response AP DU 155 of the chip matching process, the reader / writer 110 analyzes the status of the response AP DU 550 and determines whether or not to end the process (S 1 1 3 5). As a result, if a fingerprint match or mismatch result is obtained (S1135: YE S), the process ends. On the other hand, in other cases, the process returns to step S111, and matching is performed on the remaining feature points.
  • the above-described correction vector calculation processing S110 will be described with reference to FIG.
  • the IC card 100 Upon receiving the APDU 150 from the reader / writer 110, the IC card 100 stores the X and Y coordinates indicating the core position of the collation image contained in the AP DU 150 into the RAM 2 It is recorded in 30 (S1900).
  • the index (chip image index) k of the chip image to be subjected to chip matching is initialized to 0 (S1905), and the variable M indicating the number of matching chips is initialized to 0 (S190) 7).
  • the correction vector is calculated using the core position of the collation image sent from the reader / writer 110 and the coordinates of the core of the fingerprint information (FIG. 3) recorded in the IC card 100 in advance. It is calculated (S 1910). Specifically, the correction vector is calculated by subtracting the coordinates of the fingerprint information core from the coordinates of the core of the collation image.
  • FIG. 22 is a diagram showing a detailed flow of the chip position calculation processing S1191.
  • the IC card 100 activates the chip position calculation processing S 1 191 AP
  • the chip image index k is incremented (S2002), and the chip image index k of the chip recorded in the fingerprint information is obtained. It is determined whether or not the number is equal to or less than (30) (S205). As a result, if k is greater than the number of chips recorded in the fingerprint information (S205: NO), a code indicating abnormal termination is substituted into the status of the response APDU (S2004), and Answer A
  • the PDU is transmitted to the reader / writer 110 (S2035), and the process ends.
  • the chip image index k is less than or equal to the number of chip images recorded in the fingerprint information (S205: YE S)
  • the coordinates of the k-th chip image recorded in the fingerprint information are corrected ( S2 0 10). 'Specifically, correction is performed by adding a correction vector to the coordinates of the k-th chip image.
  • the corrected coordinates of the chip are included in the collation image (S201: YE S)
  • the corrected coordinates of the chip are substituted into the data field of the response APDU (S2025).
  • a code indicating a normal end is substituted for the status of the response AP DU (S203)
  • the response APDU is transmitted to the reader / writer 110 (S203), and the process is terminated.
  • the chip position calculation processing S1191 is performed.
  • the index k is equal to or less than the number of chip images (S2105: YES)
  • chip matching matching between the partial image and the k-th chip image (chip matching) is performed, and whether or not the partial image matches the chip image is determined. Is output (S2110). The specific method of this matching will be described later.
  • the AP DU is transmitted to the reader / writer 110 (S2140).
  • a mismatch bit number search table is prepared in advance in the ROM 250 or the EEPROM 240, and when counting the number of unmatched bits when comparing the chip image and the partial image, the mismatch bit number is determined. Use bit number search table.
  • a table of 256 elements from 0 to 255 is prepared corresponding to the comparison between the chip image and the partial image in 8-bit units.
  • FIG. 26 is a diagram showing a detailed flow of the matching process S2110.
  • a matching position on a partial image is initialized (S2200). For example, a position where the chip image comes to the center of the partial image is set as the first collation position.
  • an image having the same size as the chip image is cut out from the partial image in accordance with the collation position, and copied to the collation image buffer secured in the RAM 230 (S225). For example, if the chip image is 16 pixels square, one pixel corresponds to one bit, so the required matching image buffer is 256 bits, or 32 bytes. In this case, the chip image also has an area of 32 bytes and is stored in the EEPROM 240 as a part of the fingerprint information.
  • the number of mismatch bits indicating the number of bits that do not match between the chip image and the matching image buffer is initialized to 0 (S2210), and the offset indicating the comparison target position between the chip image and the matching image buffer is initialized. Is initialized to 0 (S2 2 1 5). .
  • the exclusive OR of the data of the offset position of the chip image and the image buffer for collation is calculated, and the result is stored in the RAM 23'0 (S2220).
  • exclusive OR is taken in units of one byte.
  • the result of the exclusive OR is used as an index to refer to the mismatch bit number search table, and the obtained number is added to the mismatch bit number (S2230) o
  • step S2235 If the number of mismatched bits is equal to or greater than the predetermined threshold value as a result of the determination in step S2235 (S2235: YES), it is determined whether the matching has been performed over the entire partial image. It is checked whether or not there is a collation position that has not been collated yet (S2237: NO), the collation position is moved (S2238), and step S2 is performed. Returning to 205, the above processing is repeated.
  • the chip matching process is performed as described above.
  • the correction vector is calculated using the position of the fingerprint core.
  • the correction vector may be calculated by another method.
  • the IC card 1 0 0 will be described for calculating the correct base vector in the case and Lee Daraita 1 1 0 for calculating a correction base-vector in the IC card 1 0 0, when calculating a correction vector Is explained.
  • step S110 in FIG. 14 the APDU transmitted by the reader / writer 110 to the ⁇ C card 100 and the correction called by the AP DU are This is only the contents of the vector calculation process S1190.
  • FIG. 27 shows the AP transmitted by the reader / writer 110 to the IC card 100 in order to call the correction vector calculation processing S110 in step S110 shown in FIG. It is a figure showing the example of DU. As shown in the figure, the corresponding command ID is assigned to the INS field of AP DU2700, and the coordinates of all the feature points of the input fingerprint extracted in the preprocessing are assigned to the data field. You.
  • FIG. 28 is a diagram showing a detailed flow of the correction vector calculating process S1190 called by the APDU2700.
  • the IC card 100 Upon receiving the AP DU2700 (S2800), the IC card 100 generates a feature point map of the input fingerprint by using the coordinates of the feature point of the input fingerprint that has been sent (S280). S2805).
  • the feature point map is an image having a specific luminance distribution around the coordinates of each feature point.
  • FIG. 29 is a diagram showing an example of a feature point map. As for the shape and size of the luminance distribution around the feature point coordinates, appropriate ones are selected according to the mounting conditions.
  • a feature point map is similarly generated from the coordinates of the feature points of the registered fingerprint recorded in the fingerprint information (S2801).
  • a feature point map of the input fingerprint and the registered fingerprint is regarded as a two-dimensional signal, and a normalized cross-correlation is calculated (S2815).
  • the calculation of the cross-correlation is performed using a commonly used method, for example, the method described on page 306 of “Digital Image Processing” (Rosenfeld et al., Modern Science Co., 1987). .
  • steps S110, S110, and S1105 shown in FIG. 14 are replaced with the processing shown in FIG.
  • the reader / writer 110 changes the AP DU requesting the transmission of the coordinates of the characteristic point of the registered fingerprint to the IC force 100. Transmit (S30000).
  • FIG. 31 is a diagram showing an example of an APDU requesting transmission of the coordinates of the feature points of a registered fingerprint. As shown in the figure, an appropriate command ID is assigned to the INS field of the APDU2701, and the length of the coordinate data of the feature point returned from the IC card 100 is inserted into the Le field. Is stored.
  • the IC card 100 Upon receiving the APDU 270, the IC card 100 stores the coordinates of the feature points recorded in the fingerprint information of the IC card 100 in the data field of the response APDU as shown in FIG. Is transmitted to the reader / writer 110 (S 390).
  • the reader / writer 110 When the reader / writer 110 receives the response AP DU 2720 from the IC card 100 (S3005), it generates a feature point map in the same way as the method shown in FIG. 28. , A correction vector is calculated and recorded in the RAM 320 of the reader / writer 110 (S310).
  • the reader / writer 110 issues a command to cause the IC card 100 to record the correction vector (S310). Specifically, an AP DU having the same format as the AP DU 150 shown in FIG. 15 is transmitted to the IC card 100.
  • the IC card J When the IC card receives the AP DU, the IC card J
  • the correction vector is recorded in the RAM 230 of the IC card 100, and a response A PDU as shown in FIG. 16 is transmitted to the reader / writer 110 (S3095).
  • the reader / writer 110 Upon receiving the response A PDU (S320), the reader / writer 110 proceeds to processing S11007 for checking the status of the response APDU.
  • the correction vector is obtained using the feature point map instead of the core position, the correction is performed faster than when matching is performed on the entire fingerprint image (or a part of it).
  • the vector can be obtained. Furthermore, by adjusting the size of the luminance distribution provided around the feature point, accurate position correction can be performed even if the fingerprint is distorted or rotated.
  • the personal authentication system of the present invention since the user-specific information is individually managed by the IC card, it is more acceptable to the user than in the case where the information is centrally managed by a superuser or the like. Performance can be improved. In addition, the possibility that many pieces of biometric information are stolen at one time can be reduced, and the cost of recording and managing biometric information can be reduced.
  • fingerprint information and fingerprint collation functions are implemented inside the IC card, and external access to fingerprint information and fingerprint collation functions is prohibited, thereby forging, falsifying, and stealing fingerprint information and collation results of users. Makes it difficult to prevent spoofing.
  • fingerprint collation can be performed with a CPU of a general IC card.
  • the fingerprint collation function is implemented separately for the IC card and reader / writer, it is difficult to analyze the collation processing.
  • the coordinates of the core which is a characteristic structure of the fingerprint
  • the coordinates of the core are recorded in the fingerprint information of the IC card, and the coordinates of the core are obtained from the fingerprint image newly input by the preprocessing.
  • the coordinates of the feature points recorded in the fingerprint information are corrected, the chip image recorded in the fingerprint information is searched by the chip matching around the corrected coordinates on the fingerprint image, and the matching chip image is searched.
  • the number of mismatched bits is calculated using a mismatch bit number search table in which the number of mismatched bits is recorded in advance, and the number of bits is set in advance. If the threshold value is exceeded, chip matching is terminated and the process proceeds to the next step, so that fingerprint matching can be performed using an IC card with a low operation speed.
  • biometric information In the above embodiment, the case where a fingerprint is used as the biometric information has been described. However, other biometric information can be used.
  • the reader / writer 110 in FIG. 1 includes an iris information input unit for inputting iris information instead of the fingerprint input unit 113, and a preprocessing unit. 1 1 and 2 perform preprocessing of the input iris image and calculate an iris code required for iris collation.
  • the calculation of the iris code is performed, for example, by the method described in the literature: IEEE Transactions on pattern analysis and macine intelligence, Vol. 15, No. 11, Nov. 1993, pp. 1148-1161 (hereinafter referred to as reference 4). Perform using
  • the iris code calculated in this way is transmitted to the IC card 100. It should be noted that the transmission of the iris code to the IC card 100 may be performed only once.
  • an iris code is recorded as a biometric information template instead of the fingerprint information 104.
  • the iris verification The program compares the iris code transmitted from the reader / writer 110 with the iris code recorded in the EEPROM or the like in the IC card 100.
  • the collation is performed, for example, by calculating the hamming distance of the iris code by a method described in Reference 4, and determining whether the calculated octing distance is equal to or less than a predetermined threshold value.
  • the calculated Hamming distance is equal to or less than the threshold value, it is determined that the iris code has been matched, and the authentication information 105 of the electronic authentication processing unit 103 is transferred to the authentication information 105 as in the case of the fingerprint. Access is permitted, and electronic authentication is performed between the application 13 1 and the electronic authentication unit 10 3.
  • the psychological resistance of the user can be reduced.
  • the possibility that many pieces of biometric information are stolen at one time can be reduced, and the cost of record management of biometric information can be reduced.
  • biometric information can be collated with a CPU such as an IC card, which is a general-purpose portable storage device with an arithmetic function, and system cost can be reduced.
  • a CPU such as an IC card

Description

生体認証システム
背景技術
本発明は、 重要施設における入退室の管理や情報システムのアクセス 管理に使われる生体情報照合技術に関し、 特に、 指紋照合技術に関する, 従来から、 指紋等の生体情報を使って、 あらかじめ登録した特定の利 用者に対してのみ、 施設への入退室や情報システムの利用を許可するァ クセスコントロール技術が知られている。 このようなアクセスコント ロール技術としては、 例えば、 以下のようなものがある。
( 1 ) クライアント認証型装置 特開平 0 9— 1 9 8 5 0 1号公報 (以下、 文献 1という) には、 あらかじめドア管理装置に記録した利用 者の生体情報と、 入退出時に入力した生体情報とを照合することで管理 区域への不正な侵入を防止するものが記載されている。
( 2 ) サーバ認証型指紋照合装置 特開平 1 0— 1 2 4 6 6 8号公報 (以下、 文献 2という) には、 サーバが利用者の生体情報ファイルをも ち、 クライアントにおいて入力された利用者の生体情報をサーバで照合 することで、 コンピュータシステムへの不正なアクセスを防止するもの が記載されている。
( 3 ) 携帯型指紋照合装置 特開平 1 0— 1 4 9 4 4 6号公報 (以下、 文献 3という) には、 I Cカードなどの携帯型記録装置に利用者の生体 情報を記録し、 新たに入力した利用者の生体情報をクライアントで照合 することにより、 コンピュータシステムなどへの不正なアクセスを防止 するものが記載されている。
前述した文献 1に記載された方法では、 ドア管理装置が耐タンパ性を 有しない装置で実現されている場合、 利用者の指紋情報や照合結果の偽 造、 改ざん、 盗用等により、 正しい利用者になりすます不正 (なりすま し) が可能になるという問題がある。
これに対して、 前述した文献 2に記載された方法では、 サーバで利用 者固有の情報である生体情報を集中管理し、 指紋照合を行うため、 文献 1に記載された方法で問題となる指紋情報や照合結果の偽造、 改ざん、 盗用等は困難となる。 しかし、 指紋等の個人情報が集中管理されること に対して、 利用者の心理^抵抗が大きかったり、 一度に多数の生体情報 が盗難される恐れがあったり、 多数の利用者管理のために、 生体情報を 記録するファイルの管理にかかるコストが増大する等といった問題があ る。
一方、 文献 3に記載された方法では、 I Cカードなどの耐タンパ性を 有する携帯型記憶装置に生体情報を記録するため、 文献 2に記載された 方法で問題となる利用者の心理的抵抗、 大量の生体情報の盗難、 および 生体情報の管理にかかるコストの問題を解決できる。 しかも I Cカード に実装された指紋入力装置および C P Uによって指紋の入力と照合を行 うため、 文献 1に記載された方法で問題となる指紋情報や照合結果の偽 造、 改ざん、 盗用等を防止でき、 安全性が高いといえる。 しかし、 I C カードに生体情報の入力機能および生体情報の照合機能を実装する必要 があり、 装置のコストが高くなるという問題がある。 発明の開示
本発明は、 安全性が高く、 かつ、 コストを低減することができる指紋 照合システムを提供する。
本発明に係る.生体認証システムは、 耐タンパ性を有した演算機能付き 携帯型記憶装置と、 前記携帯型記憶装置に対して情報の読み書きを行う 耐タンパ性を有したリーダライタとを備える。
そして、 前記リーダライタは、 生体情報を入力する生体情報入力装置 を備え、 当該生体情報入力装置で入力した生体情報の前処理を行い、 当 該前処理を行った中間情報を前記携帯型記憶装置に送信する。
また、 前記携帯型記憶装置は、 生体情報のテンプレートと、 電子認証 に使われる秘密鍵とを備え、 前記中間情報と前記テンプレートとの照合 を行い、 当該照合が一致したときに、 前記秘密鍵を使用可能にする。 前記生体情報が指紋情報の場合は、 前記リーダライタは、 指紋照合に 必要な指紋画像情報を前記携帯型記憶装置に順次送信し、 前記携帯型記 憶装置は、 前記指紋画像情報を順次処理することで、 指紋照合を行うよ うにしてもよい。
また、 前記テンプレートに記録された登録指紋と、 あらたに入力され た入力指紋との位置ずれを補正するための情報を、 指紋のコア位置を 使って算出し、 前記登録指紋の特徴点周辺の小画像を、 前記入力指紋の 画像上の位置ずれ補正した座標周辺でマッチングすることによって探索 し、 一致した小画像の個数をもって、 前記テンプレートと前記指紋画像 の同一性を判定するようにしてもよい。 また、 指紋のコア位置を算出す る際、 隆線の垂線ベクトルを探索し、 当該垂線ベクトルが大きく変化す る位置を、 指紋のコアと決定するようにしてもよい。
また、 前記テンプレートに記録された登録指紋と、 あらたに入力され た入力指紋との位置ずれを補正するための情報を、 入力指紋および登録 指紋のそれぞれについて、 各特徴点の周辺に特定の輝度分布を持つ画像 を作成し、 当該画像の相互相関により算出するようにしてもよい。 図面の簡単な説明
第 1図は、 本発明によるアクセス詧理システムの概略を説明するため の図である。
第 2図は、 本発明による I Cカードの構造を示す図である。 第 3図は、 指紋情報 243の構成例を示す図である。
第 4図は、 本発明によるリーダライタの構造を示す図である。
第 5図は、 指紋照合の概略フロ一を示す図である。
第 6図は、 指紋のコアおよび特徴点の例を示す図である。
第 7図は、 前処理の概略フローを示す図である。
第 8図は、 コア位置検出処理を説明するための概念図である。 · 第 9図は、 コア探索処理の詳細フローを示す図である。
第 1 0図は、 コア探索処理における候補点算出テ一ブルの構成例を示 す図である。
第 1 1図は、 コア探索処理におけるコア探索結果テ一ブルの構成例を 示す図である。
第 1 2図は、 隆線方向算出方法の概念図である。
第 1 3図は、 隆線方向算出処理の詳細フローを示す図である。
第 1 4図は、 照合処理の概略フローを示す図である。
第 1 5図は、 補正ベクトル算出処理を呼び出す APDUの例を示す図 である。
第 1 6図は、 補正べクトル算出処理からの応答 APDUの例を示す図 である。
.第 1 7図は、 チップ位置算出処理を呼び出す APDUの例を示す図で ある。
第 1 8図は、 チップ位置算出処理からの応答 APDUの例を示す図で ある。
第 1 9図は、 チップマッチング処理を呼び出す APDUの例を示す図 である。
第 2 0図は、 チップマッチング処理からの応答 A P DUの例を示す図 である。 第 2 1図は、 補正べクトル算出処理の詳細フローを示す図である。 第 2 2図は、 チップ位置算出処理の詳細フロ一を示す図である。 第 2 3図は、 チップマッチング処理の詳細フローを示す図である。 第 2 4図は、 チップマッチング処理の概念を示す図である。
第 2 5図は、 不一致ビット数検索テーブルの構成例を示す図である。 第 2 6図は、 マッチング処理の詳細フローを示す図である。
第 2 7図は、 第 2の補正べクトル算出処理を呼び出す A P D Uの例を 示す図である。
第 2 8図は、 第 2の補正べクトル算出処理の詳細フローを示す図であ る。
第 2 9図は、 特徴点マップの例を示す図である。
第 3 0図は、 リーダライ夕 1 1 0で補正べクトルを算出する場合の処 理フローを示す図である。
第 3 1図は、 登録指紋の特徴点の座標の送信を要求する A P D Uの例 を示す図である。
第 3 2図は、 特徵点位置送出処理からの応答 A P D Uの例を示す図で ある。 発明を実施するための最良の形態
ここでは、 高いセキュリティが必要とされる銀行の事務システムを例 に、 携帯型記録装置として I Cカードを用い、 ホストコンピュータで稼 働している銀行業務用アプリケーションに対するアクセス管理を行う場 合について説明する。 また、 生体情報としては、 指紋を用いる場合につ いて説明する。
第 1図は、 本発明によるアクセス管理システムの概略を説明するため の図である。 同図に示すように、 本システムは、 ホストコンピュータ 1 n
6
3 0と、 端末 1 2 0と、 リ一ダライタ 1 1 0と、 I C力一ド 1 0 0とを 備える。
ホストコンピュータ 1 3 0は、 銀行業務を行うためのもので、 職員が 銀行業務を行うためのアプリケーシヨン 1 3 1が実行されている。 アブ リケーシヨン 1 3 1は、 職員があらかじめ登録された正しい利用者であ ることを確認 (本人認証) した後に利用可能となるものである。
端末 1 2 0は、 アプリケーション 1 3 1を利用するための端末であり、 ホストコンピュータ 1 3 0とネットワーク 1 4 0によって接続されてい る。 端末 1 2 0は、 ホストコンピュータ 1 3 0とリーダライタ 1 1 0お よび I Cカード 1 0 0とが本人認証に必要な情報を交換する際の中継を 行うものでもある。
リーダライ夕 1 1 0は、 I Cカード 1 0 0に対するデータの読み書き をするための装置で、 端末 1 2 0に接続されている。 リーダライ夕 1 1 0は、 ィンターフェース 1 1 1と、 指紋入力部 1 1 3と、 前処理部 1 1 2とを備える。 インターフェース 1 1 1は、 端末 1 2 0や I Cカード 1 0 0との間で情報を伝達する。 指紋入力部 1 1 3は、 職員の指から指紋 を読み取る。 前処理部 1 1 2は、 読み取った指紋画像の前処理を行い、 指紋照合に必要となる情報を I Cカード 1 0 0と交換する。
I C力一ド 1 0 0は、 おのおのの職員が持つ演算機能付き携帯型記憶 琴置である。 I Cカード 1 0 0は、 インタ一フェース 1 0 1と、 指紋照 合処理部 1 0 2と、 電子認証処理部 1 0 3と、 指紋情報 1 0 4と、 認証 情報 1 0 5とを備える。 ィンターフェース 1 0 1は、 リーダライ夕 1 1 0との間で情報を伝達する。 指紋照合処理部 1 0 2は、 指紋情報 1 0 4 . に記録された指紋情報と、 新たに入力した指紋とを照合する。 電子認証 処理部 1 0 3は、 認証情報 1 0 5を使って、 ホストコンピュータ 1 3 0 と電子認証を行う。 次に、 本システムにおけるアプリケーション 1 3 1に対するアクセス 管理の概要について説明する。
職員はあらかじめ自分の指紋情報 1 04が記録された I Cカード 1 0 0を持っており、 アプリケーション 1 3 1へアクセスする際、 I Cカー ド 1 0 0をリーダライタ 1 1 0に接続し、 リーダライタ 1 1 0の指紋入 力部 1 1 3を用いてあらたに指紋を入力する。
指紋が入力されると、 前処理部 1 1 2で指紋照合のための前処理を 行った後に、 前処理部 1 1 2と指紋照合処理部 1 02とで照合に必要と なる情報を交換しながら、 新たに入力した指紋と指紋情報 1 04とが一 致しているか否かを判定する。
その結果、 一致していた場合には電子認証処理部 1 0 3の認証情報 1 0 5へのアクセスを許可し、 アプリケーション 1 3 1と電子認証処理部 1 0 3との間で電子認証を行う。 電子認証が行われると、 端末 1 2 0か らアプリケーション 1 3 0へのアクセスが可能となり、 職員はアプリ ケーシヨン 1 3 1を利用可能となる。
次に、 本システムの構成要素の詳細について説明する。
まず、 第 2囫を用いて I Cカード 1 0 0の構'造について説明する。 同図に示すように、 I Cカード 1 0 0は、 I /Oポート 2 1 0と、 C PU 2 2 0と、 RAM2 3 0と、 EE P ROM240と、 ROM 2 5 0 とを備える。 I Cカード 1 0 0の各構成要素は、 バス 2 6 0に接続され、 バス 2 6 0を介してデータ交換を行う。
I /0ポ一ト 2 1 0は、 リ一ダライタ 1 1 0との間でデータ交換を行 うためのポートである。 C PU 2 2 0は、 四則演算やビット演算などを 行う演算処理部である。 RAM 2 3 0は、 C PU.2 2 0が演算を行う際 に一時的なデータの格納等に用いる書き換え可能なメモリである。
ROM 2 5 0は、 読み出し専用メモリであり、 指紋照合プログラム 2 5 1や電子認証プログラム 2 5 2やその他のプログラムおよぴデ一夕が 記録されている。 E E P R O M 2 4 0は、 電気的に書き替え可能な不揮 発性メモリであり、 I Cカード 1 0 0 'の正当性を証明するための電子証 明書 2 4 1や、 I Cカード 1 0 0の秘密鍵 2 4 2や、 職員が正しい I C カードの持ち主であることを証明するための指紋情報 2 4 3などが記録 されている。
指紋情報 2 4 3は、 登録に使用した指紋のコアの座標、 所定数の特徴 点の座標及び各特徴点の周辺の小画像 (チップ画像) からなる。 以下、 本実施形態では、 指紋情報 2 4 3に含まれる特徴点の数が 3 0個の場合 について説明する。
第 3図は、 指紋情報 2 4 3の構成例を示す図である。 同図に示すよう に、 指紋情報 2 4 3は、 チップ (画像) の数と、 コアの X Y座標と、 チップ画像の X Y座標と、 チップ画像の画像データ (バイナリデ一夕) とを有する。 各情報の利用方法については、 後述する。
I C力一ド 1 0 0は、 外部からの不正なアクセスや装置の破壌による データ解析を防止する耐タンパ性を有しており、 内部に保持したデータ やプログラムを外部から不正な方法で参照できないよう設計されている。 また、 内部に保持したデ一夕へのアクセスコントロール機能を有してお り、 I Cカード 1 0 0内部のデータにアクセスするためには、 共通鍵な どによる認証を行う等、 C P U 2 2 0の許可が必要になる。 I Cカード 1 0 0の秘密鍵 2 4 2は、 I Cカード 1 0 0の電源投入時にはアクセス 不許可に設定されており、 外部あるいは内部のプログラムからアクセス することはできない。
ここでは、 I Cカード 1 0 0は、 職員を識別するため各職員に対して 1つだけ発行され、 各職員が 1枚だけ持つことのできるものとする。 なお、 本実施形態では、 指紋照合プログラム 2 5 1および電子認証プ ログラム 2 5 2を R OM 2 5 0に記録されるものとして説明するが、 こ れらのプログラムは、 E E P R OM 240に実装することも可能である, 次に、 第 4.図を用いてリーダライ夕 1 1 0の構造について説明する。 同図に示すように、 リーダライタ 1 1 0は、 1 0ポート 3 1 0と、 C PU 3 2 0と、 RAM3 3 0と、 指紋センサ 340と、 ROM3 5 0 とを備える。 リーダライ夕 1 0 0の各構成要素は、 バス 3 60に接続さ れ、 バス 3 6 0を介してデータ交換を行う。
Iノ0ポート 3 1 0は、 I Cカード 1 1 0や端末 1 2 0との間でデー 夕交換を行うためのポートである。 C PU 3 2 0は、 四則演算やビット 演算などリーダライ夕 1 1 0に必要な演算を行う演算処理部である。 R AM 3 3 0は、 C PU 3 2 0が演算する際に一時的に用いるデ一夕等を 格納するためのメモリである。 指紋センサ 340は、 指紋を電子的に読 み取るものである。
ROM 3 5 0は、 '読み出し専用メモリであり、 指紋画像の前処理など を行い、 I C力一ド 1 0 0と通信しながら指紋の照合を行う前処理プロ グラム 3 5 1や指紋の読み取りを制御する指紋読み取りプログラム 3 5
2やその他のプログラムおよびデー夕が記録されている。
リ一ダライタ 1 1 0は、 耐タンパ性を有しており、 内部に保持した データやプログラムを外部から不正な方法で参照できないよう設計され ている。
次に、 第 5図を用いて本実施形態における指紋照合の概要について説 明する。
まず、 職員がホストコンピュータ 1 3 0のアプリケ一ション 1 3 1を 利用する際、 アプリケーション 1 3 1は、 端末 1 2 0に職員の指紋照合 を要求し、 端末 1 2 0はリーダライタ 1 1 0に指紋照合要求を発行する (S 4 0 0 ) 。 端末 1 2 0から指紋照合要求を受け取ったリーダライタ 1 1 0は、 指 紋読み取りプログラム 3 5 2を実行し、 指紋センサ 340から職員の指 紋を取得する (S 40 5 ) 。 読み取られた指紋は、 例えば、 1 ピクセル あたり 8ビットの濃淡をもつ指紋画像として RAM 3 3 0に記録される c 指紋センサ 340による指紋の読み取りは、 通常用いられている方法、 例えば、 上述した文献 2の記載の方法を用いて行う。
次に、 前処理プログラム 3 5 1が指紋画像の前処理を行い、 照合に必 要な情報として中間指紋情報を抽出して RAM 3 3 0に記録する (S 4 1 0) 。 前処理の詳細については、 後述する。
次に、 中間指紋情報と、 あらかじめ I Cカード 1 0 0に記録してあつ た職員の指紋情報 243を指紋照合プログラム 2 5 1が照合する (S 4 1 5) 。 照合処理の詳細については、 後述する。
照合の結果、 両者が一致していなかった場合は (S 4 1 5 : NG) 、 処理を終了する。 一方、 両者が一致していた場合は (S 4 1 5 : OK) 、 I Cカード 1 0 0の秘密鍵 242を電子認証プログラム 2 5 2からァク セス "SJ能になるよう活性化する (S 42 0 ) 。
そして、 電子認証プログラム 2 5 2が、 活性化された秘密鍵 242を 用いて、 アプリケーション 1 3 1と電子認証を行う (S 42 5 ) 。 例え ば、 AN S I Z I TU X. 5 0 9に記載された方法などにより、 I C カード 1 0 0とアプリケーション 1 3 1間の相互認証を行う。
次に、 前述した前処理の詳細について説明する。 前処理では、 指紋の コアと特徴点の座標算出、 および指紋の 2値画像作成を行い、 これらを 前処理後の中間指紋情報として RAM 3 3 0に記録する。
第 6図は、 指紋のコアおよび特徴点の例を示す図である。 指紋のコア とは、 同図に示すように、 指紋の特徴的な構造を指す。 また、 特徴点と は、 指紋を形成する隆線 (凸部の連なり) の端点や分岐点を指す。 通常、 _ _
各指に、 指紋のコアは一個存在し、 特徴点は複数個存在する。
第 7図は、 前処理の概略フローを示す図である。
まず、 入力された指紋画像に、 隆線強調およびノイズ除去処理などを 施し、 処理後の 8ビット濃淡指紋画像を R A M 3 3 0に記録する (S 6 0 0 ) 。 本処理は、 通常用いられている方法、 例えば、 特開平 1 1一 1 3 4 4 9 8号公報に記載の方法を用いて行う。
次に、 指紋の特徴的な構造であるコアを検出し、 その座標を中間指紋 情報に記録する (S 6 0 5 ) 。 本処理の詳細は後述する。
次に、 隆線強調等の処理済の 8ビット濃淡指紋画像を 2値化して、 1 ピクセルあたり 1ビットのモノクロ画像に変換し、 中間指紋情報に記録 する (S 6 1 0 ) 。 本処理は、 通常用いられる方法、 例えば、 前述した 文献 2に記載の方法を用いて行う。
次に、 ' 2値化された指紋画像を細線化し、 細線化画像を得る (S 6 1 5 ) 。 細線化画像は R A M 3 3 0に一時的に記録される。 本細線化処理 は、 通常用いられている方法、 例えば、 文献 2に記載された方法を用い て行う。
次に、 細線化画像から隆線の端点や分岐点である特徴点を最大 3 0個 抽出し、 抽出した特徴点の座標を中間指紋情報に記録する (S 6 2 0 ) c 特徴点の抽出は、 通常用いられている方法、 例えば、 文献 2に記載の方 法を用いて行う。
次に、 第 8図を用いて前述したコア位置検出処理 S 6 0 5について説 明する。
同図に示すように、 コア位置検出処理 S 6 0 5では、 まず、 候補点を 算出する際の有効領域 8 1 0を設定する。 有効領域 8 1 0は、 指紋画像 内であり、 かつコアを含むと推定される領域に設定される。
次に、 有効領域 8 1 0内において、 適当な初期位置 8 0 0を設定し、 その初期位置における隆線の垂線方向ベクトル 8 0 5を求め、 求めた垂 線方向べクトル 8 0 5を初期位置に足した位置を次の候補点とし、 その 候補点における隆線の垂線方向べクトルを求め、 更に次の候補点を求め るといった処理を、 候補点の数があらかじめ定めた数以上になるか、 次 の候補点が有効領域 8 1 0外に出るまで繰り返す。 そして、 以上のよう にして求めた候補点のそれぞれについて、 曲率を計算し、 最大の曲率を もつ候補点をコアの位置と判定する。 そして、 初期位置を変えて、 上述 した処理を繰り返し、 求まった複数のコア位置を平均化処理することで、 最終的なコア位置を求める。
ここでは、 一回のコア探索において最大 2 0点の候補点を探索し、 そ のようなコアの探索を 1 0回行うものとする。
第 9図は、 コア位置検出処理 S 6 0 5の詳細フローを示す図である。 まず、 探索回数を示すカウンタ iを 「 1」 に初期化し (S 7 0 0 ) 、 一回の探索における候補点のインデックスを示すカウンタ j を 「 1」 に 初期化する (S 7 0 5 ) 。
次に、 探索回数を示すカウン夕 iに応じて、 候補点の初期位置を設定 する (S 7 1 0 ) 。 初期位置は、 各探索ごとに異なるように設定する。 第 8図の例では、 初期位置 8 0 0が設定されている。 初期位置の X座標 および Y座標は、 R A M 3 3 0に設けられた候補点算出テーブルの該当 する位置に記録される。
第 1 0図は、 候補点算出テーブルの構成例を示す図である。 同図に示 すように、 候補点算出テーブルは、 「候補点インデックス」 と、 候補点 の 「座標」 と、 各候補点での 「曲率」 とを有する。 同図は、 1回の探索 における 7つの候補点の座標と曲率を示している。 例えば、 インデック ス 1 (初期位置) の候補点の座標は、 X座標が 2 5、 Y座標が 2 5と なっている。 次に、 初期位置 8 0 0における隆線の垂線方向べクトル 8 0 5を算出 する (S 7 1 5) 。 具体的な算出方法は後述する。 垂線方向ベクトルは あらかじめ設定した長さになるよう正規化される。
次に、 現在の候補点の位置および垂線方向べクトルから新たな候補点 を算出する (S 7 2 0) 。 具体的には、 現在の候補点の位置座標に、 垂 線方向べクトルを加算することで新たな候補点を求め、 候補点算出テー ブルの該当するインデックスに候補点の X座標および Y座標を記録する ( 次に、 新たな候補点における隆線の垂線方向ベクトルを算出する (S 7 2 5 ) 。
次に、 新たな候補点があらかじめ設定した有効領域 (第 8図の領域 8 1 0) 内にあるか否かを調べる (S 7 3 0 ) 。 その結果、 候補点が有効 領域内にあれば (S 7 3 Q : OK) 、 候補点の数があらかじめ設定した 個数 (= 2 0) に達したか否かを調べる (S 740 ) 。 その結果、 達し ていなければ (S 740 : NO) 、 候補点を示すィンデックス j に 1を 加算し (S 743 ) 、 新たな候補点を算出する処理 S 7 20に戻り、 前 述した処理を繰り返す。
一方、 候補点の数があらかじめ設定した個数に達した場合 (S 74 0 : YE S) 、 又は、 新たな候補点があらかじめ設定した有効領域内に ない場合は (S 7 3 0 : NG) 、 ここまでで算出した各候補点の曲率を 求め、 最大の曲率を持つ候補点の座標および曲率を、 RAM 3 3 0に設 けられたコア探索結果テーブルの対応する位置に記録する (S 74 5) 第 1 1図は、 コア探索結果テーブルの構成例を示す図である。 同図に 示すように、 コア探索結果テーブルは、 「探索回数のインデックス」 と、 各探索において、 「最大曲率を持つ点の座標」 と、 「最大曲率」 とを有 する。 なお、 第 1 0図は、 1 0回の探索を終了した結果を示している。 曲率はどのような方法で求めてもよいが、 ここでは隣り合う候補点の なす角度の余弦を曲率として定義する。 例えば、 第 8図に示した 4番目 の候補点 8 2 0の曲率は角度 8 3 0の余弦で計算される。 このように全 ての候補点の曲率を計算し、 このうち最大の曲率を持つ候補点の座標を コア探索結果テーブルの対応する位置に記録する。 第 1 0図に示した例 では、 曲率一 0 . 3が最大であるため、 4番目の候補点の座標および曲 率を第 1 1図のィンデックス 1に対応する位置に記録する。
今回探索された候補点の最大曲率が求まると、 次に、 探索の回数 iが あらかじめ設定された回数 (= 1 0 ) を超えたか否かを判定する (S 7 5 0 ) 。 その結果、 越えていなければ、 探索回数 i に 1を加算し (S 7 5 3 ) 、 次の探索の初期位置を設定する処理 S 7 1 0に戻り、 前述した 処理を繰り返す。
一方、 探索の回数があらかじめ設定された回数 (= 1 0 ) を超えてい た場合は、 全ての探索結果から、 コアの座標を算出する (S 7 5 5 ) 。
コアの座標を算出するには、 全ての探索で求まったコアの候補の座標 を平均してコア位置とする方法や、 あらかじめ定めた最大曲率のしきい 値以上を持つ候補点だけを平均してコア位置とする方法などがある。 例 えば、 最大曲率のしきい値を— 0 . 5とし、 しきい値以下の最大曲率を もつ候補は無効とすると、 第 1 1図の例では、 1 0番目の探索による候 補点は最大曲率が一 0 . 8のため無効となり、 1番から 9番までを平均 してコアの位置を算出することになる。
次に、 前述した隆線の垂線方向べクトルの算出方法について説明する c ここでは、 まず、 候補点における隆線方向 (隆線と平行になる方向) を 算出し、 それに直交する方向を算出することで、 隆線の垂線方向べクト ルを算出する。
そこで、 隆線方法の算出方法について説明する。
第 1 2図は、 本実施形態の隆線方向の算出方法の概念を示す図である 同図は、 指紋画像の一部を示しており、 隆線を実線で表している。 指紋 画像のあるピクセル上の点 2 5 0 5における隆線方向は以下のように算 出することができる。 まず、 点 2 5 0 5を通る直線上の点 2 5 1 0を複 数設定する。 次に、 点 2 5 0 5の輝度と点 2 5 1 0の各々の輝度との差 の絶対値を全て加算する。 この作業を複数の方向について行い、 最も値 の小さい方向が隆線の方向と一致していると判断する。
第 1 3図は、 隆線方向算出処理の処理フローを示す図である。
まず、 角度を 0度に初期化する (S 2 6 0 0) 。 ここでは、 0度から 2 0度ごとに 1 6 0度までのそれぞれの角度について処理を行うものと する。 また、 角度ごとの評価値の値を 0に初期化する。
次に、 参照点の位置を初期化し、 その座標を算出する (S 2 6 0 5 ) 具体的には、 第 1 2図の点 2 5 0 5のように隆線方向を算出しようとし ている点 (以下、 基準点と呼ぶ) を通る直線上の点である。 ここでは、 第 1 2図に示すように、 4つめ点を参照点として使う。
次に、 参照点の輝度と基準点の輝度の差の絶対値を算出し、 対応する 角度に割り当てられた評価値に加算する (S 2 6 1 0) 。
次に、 参照点を移動し、 その座標を算出する (S 2 6 1 5) 。
次に、 全ての参照点について処理を終了したか否かを判別し (S 2 6 2 0) 、 その結果、 全ての参照点について処理が終わっていなければ (S 2 6 2 0 : NO) 、 ステップ S 2 6 1 0に戻り、 前述した処理を繰 り返す。
一方、 全ての参照点について処理を終了していれば (S 2 6 2 0 : Y E S) 、 角度に 2 0度を加算し (S 2 6 2 5 ) 、 角度が 1 8 0度に達し ているか否かを判別する (S 2 6 3 0 ) 。 その結果、 角度が 1 8 0度に 達していなければ (S 2 6 3 0 : NO) 、 ステップ S 2 6 0 5に戻って、 前述した処理を繰り返す。 一方、 角度が 1 8 0度に達していれば (S 2 6 3 0 : YE S) 、 各々 の角度に割り当てられた評価値のうち、 最小の値を持つ角度を算出する (S 2 6 3 5 ) 。 最小の値を持つ角度が基準点における隆線の方向とな る。
以上説明したように、 本実施形態におけるコア位置検出処理では、 コ ァを検出する際に隆線の垂線方向ベクトルを探索し、 垂線方向ベクトル が大きく変化する位置を多数決によってコアと決定することで、 少ない 計算量でコアの位置を検出ことができる。
次に、 本実施形態における照合処理について説明する。
第 14図は、 本実施形態における照合処理の概略フローを示す図であ る。 本処理は、 リーダライタ 1 1 0と I Cカード 1 0 0とが通信をしな がら行うため、 同図の左側にリーダライタ 1 1 0の処理を、 右側に I C カード 1 0 0の処理を記載している。
同図に示すように、 I Cカード 1 0 0で行われる処理には、 補正べク トル算出処理 S 1 1 9 0と、 チップ位置算出処理 S 1 1 9 1と、 チップ マッチング処理 S 1 1 9 2とがあり、 それぞれは、 I S O 7 8 1 6— 4 などで定義されるコマンドとして I Cカード 1 0 0に実装されている。 まず、 リーダライ夕 1 1 0が I Cカード 1 0 0の補正べクトル算出処 理 S 1 1 9 0を呼び出す (S 1 1 0 0) 。 この際、 中間指紋情報に記録 した入力指紋のコアの座標をパラメ一夕として渡す。 具体的には、 I S O 7 8 1 6 - 4に記載の A P DU (Application Protocol Data Unit) を I C力一ド 1 0 0に送信することで処理を呼び出す。
第 1 5図は、 補正べクトル算出処理を呼び出すための APDUの例を 示す図である。 同図に示すように、 AP DU 1 5 0 0の I N Sフィール ドに、 補正ベク トル算出処理のコマンド I Dを代入し、 データフィール ドに、 コアの X座標、 Y座標を代入し、 L cフィールドに、 座標のデー 夕長を代入している。
I Cカード 1 0 0は、 リーダライタ 1 1 0から APDU 1 5 00を受 信すると、 補正べクトル算出処理を起動する (S 1 1 9 0) 。 補正べク トル算出処理は、 リーダライタ' 1 1 0から受け取った入力指紋のコアの 座標と、 あらかじめ I Cカード 1 0 0に記録された登録指紋のコア位置 の差分べクトルを、 両者の位置ずれを表す補正べクトルとして算出し、 I Cカード 1 0 0の RAM 2 3 0に記録する。 その後、 リーダライタ 1 1 0に応答する。 具体的には、 I S O 7 8 1 6— 4に記載の応答 A P D U (Response Application Protocol Data Unit) をリー夕ライタ 1 1 0に出力することで応答する。
第 1 6図は、 補正べクトル算出処理 S 1 1 9 0の応答 AP DUの例を 示す図である。 同図に示すように、 応答 APDU 1 5 1 0は、 SW1 フィールドにコマンドのステ一タスを含み、 ごこにコマンドの処理結果 として、 正常終了あるいは異常終了を示すコードを代入する。 補正べク トル算出処理 S 1 1 9 0の詳細は後述する。
リーダライタ 1 1 0は、 I C力一ド 1 0 0からの応答 APDU 1 5 1 0を受けとると (S 1 1 0 5) 、 応答 APDU 1 5 1 0のステータスを チェックする (S 1 1 0 7) 。 その結果、 エラーであれば (S 1 1 0 7 : YE S) 、 処理を終了する。
一方、 エラ一でなければ (S 1 1 0 7 : NO) 、 チップマッチングを 行うための入力指紋の部分画像を切り出す座標を取得するため、 チップ 位置算出処理を呼び出す (S 1 1 1 0) 。
第 1 7図は、 チップ位置算出処理を呼び出すために I Cカード 1 0 0 に送信される A PDUの例を示す図である。 同図に示すように、 APD U 1 5 2 0の I NSフィ一ルドには、 チップ位置算出処理のコマンド I Dが代入され、 L eフィールドには、 戻り値となる座標のデータ長が代 入される。
I Cカード 1 0 0は、 APDU 1 5 2 0をリーダライタ 1 1 0から受 信すると、 チップ位置算出処理を起動する (S 1 1 9 1 ) 。 チップ位置 算出処理は、 あらかじめ記録された登録指紋の特徴点の座標と、 ステツ プ S 1 1 9 0で算出した補正べクトルから、 入力指紋における特徴点の 座標を算出する。 具体的には、 登録指紋の特徴点の座標に補正ベクトル を加えることで、 入力指紋での特徴点の座標を算出する。 その後、 応答 APDUを使ってリーダライタ 1 1 0に応答する。
第 1 8図は、 チップ位置算出処理 S 1 1 9 1の応答 APDUの例を示 す図である。 同図に示すように、 応答 APDU 1 5 3 0のデータフィ一 ルドには、 特徴点の座標が代入され、 SW1フィールドには、 コマンド のステータスが代入される。 チップ位置算出処理 S 1 1 9 1の詳細は後 述する。
リーダライ夕 1 1 0は、 応答 APDU 1 5 3 0を受信すると (S 1 1 1 5) 、 応答 APDU 1 5 3 0の内容を解析し、 異常終了したか否かや, 指定された特徴点の位置が不正か否かを調べる (S 1 1 1 7) 。 その結 果、 指定された特徴点の位置が不正な場合は (S 1 1 1 7 : YE S) 、 ステップ S 1 1 1 0に戻り、 別のチップ画像について、 チップ位置算出 処理を呼び出す。 また、 異常終了していた場合は (S 1 1 1 7 :異常終 了) 、 処理を終了する。
一方、 適当な特徴点の位置が得られた場合は (S 1 1 1 7 : NO) 、 チップ位置算出処理によって指定された座標周辺の部分画像を切り取る (S 1 1 2 0) 。 部分画像は、 チップ画像よりやや大きめの画像であり、 その大きさや形状はあらかじめ決められている。
次に、 I Cカード 1 0 0のチップマッチング処理を呼び出す (S 1 1 2 5 ) 。 この際、 デ一夕としてステップ S 1 1 2 0で抽出した部分画像 を送信する。 具体的な呼び出しの方法は、 ステップ S 1 1 0 0と同様で ある。
第 1 9図は、 チップマッチング処理を呼び出すための AP DUの例を 示す図である。 同図に示すように、 APDU 1 540の I NSフィール ドには、 チップマッチング処理のコマンド I Dが代入され、 L cフィー ルドには、 部分画像のデ一夕長が代入され、 データフィ一ルドには、 部 分画像が代入される。
I Cカード 1 00は、 リーダライタ 1 1 0から APDU 1 540を受 信すると、 チップマッチング処理を起動する (S 1 1 9 2) 。 チップ マッチング処理は、 受信した入力指紋の部分画像と、 あらかじめ I C カード 1 0 0に記録されたチップ画像とのチップマツ,チング処理を行い、 一致していればチップの一致数をインクリメントする。 そして、 全ての 特徴点についてマッチングが終了した場合は、 指紋の一致又は不一致を あらわすステータスを応答し、 それ以外は、 次の特徴点をマッチングす るためのステータスを応答する。
第 2 0図は、 チップマッチング処理の応答 AP DUの例を示す図であ る。 同図に示すように、 応答 APDU 1 5 5 0の SW1フィ一ルドに、 コマンドのステータスを代入する。 具体的には、 コマンドの処理結果と して、 指紋の一致、 不一致、 あるいは処理継続を示すコードを代入する。 チップマッチング処理 S 1 1 9 2の詳細は後述する。
リ一ダライタ 1 1 0は、 チップマッチング処理の応答 AP DU 1 5 5 0を受信すると、 応答 AP DU 1 5 5 0のステ一タスを解析し、 処理を 終了するか否かを判別する (S 1 1 3 5) 。 その結果、 指紋の一致ある いは不一致の結果が得られていれば (S 1 1 3 5 : YE S) 、 処理を終 了する。 一方、 それ以外は、 ステップ S 1 1 1 0に戻り、 残りの特徴点 についてのマッチングを行う。 次に、 第 2 1図を用いて前述した補正べクトル算出処理 S 1 1 9 0に ついて説明する。
I Cカード 1 0 0は、 リーダライタ 1 1 0から APDU 1 5 0 0を受 け取ると、 A P DU 1 5 0 0に含まれた照合画像のコア位置を示す X座 標および Y座標を RAM 2 3 0に記録する (S 1 9 0 0 ) 。
次に、 チップマッチングを行うチップ画像のインデックス (チップ画 像インデックス) kを 0に初期化し (S 1 9 0 5 ) 、 一致チップ数を示 す変数 Mを 0に初期化する (S 1 9 0 7 ) 。
次に、 リーダライタ 1 1 0から送られてきた照合画像のコア位置およ びあらかじめ I Cカード 1 0 0に記録された指紋情報 (第 3図) のコア の座檫を用いて補正べクトルを算出する (S 1 9 1 0) 。 具体的には、 照合画像のコアの座標から指紋情報のコアの座標を引くことで、 補正べ クトルを算出する。
次に、 算出した補正ベクトルの大きさなどの正当性を検証する (S 1 9 1 5) 。 その結果、 適当な補正べクトルが得られた場合は (S 1 9 1 5 : YE S) 、 応答 APDUのステータスに正常終了を示すコードを代 入し (S 1 9 2 0 ) 、 その応答 A PDUをリーダライタ 1 1 0に送信す る (S 1 9 2 5 ) 。 一方、 不正な補正べクトルが得られた場合は (S 1 9 1 5 : NO) 、 応答 AP DUのステータスに異常終了を示すコードを 代入し (S 1 9 1 7) 、 その応答 A PDUをリーダライタ 1 1 0に送信 する (S 1 9 2 5 ) 。
以上のようにして、 補正べクトル算出処理 S 1 1.9 0が行われる。 次に、 前述したチップ位置算出処理 S 1 1 9 1について説明する。 第 22図は、 チップ位置算出処理 S 1 1 9 1の詳細フローを示す図で ある。
I Cカード 1 0 0は、 チップ位置算出処理 S 1 1 9 1を起動する A P DU 1 5 2 0をリ一ダライタ 1 1 0から受信すると (S 20 0 0 ) 、 チップ画像ィンデックス kをインクリメントし (S 2 0 0 2) 、 チップ 画像インデックス kが指紋情報に記録されたチップの数 (= 3 0) 以下 か否かを判定する (S 2 0 0 5) 。 その結果、 kが指紋情報に記録され たチップの数より大きい場合には (S 2 0 0 5 : NO) 、 応答 APDU のステータスに異常終了を示すコードを代入し (S 2 045) 、 その応 答 A PDUをリーダライタ 1 1 0に送信し (S 20 3 5 ) 、 処理を終了 する。
一方、 チップ画像ィンデックス kが指紋情報に記録されたチップ画像 の数以下の場合には (S 2 0 0 5 : YE S) 、 指紋情報に記録された k 番目のチップ画像の座標を補正する (S 2 0 1 0) 。' 具体的には、 k番 目のチップ画像の座標に補正べクトルを足すことで補正する。
次に、 補正後のチップの座標が、 照合画像に含まれているか否かを検 証する (S 2 0 1 5) 。 その結果、 含まれていない場合は (S 2 0 1 5 : NO) 、 応答 A P DUのステータスに特徴点の位置不正を示すコー ドを代入し (S 2 040 ) 、 その応答 A P DUをリーダライタ 1 1 0に 送信し (S 2 0 3 5 ) 、 処理を終了する。
一方、 補正後のチップの座標が照合画像に含まれている場合は (S 2 0 1 5 : Y.E S) 、 応答 APDUのデータフィールドに補正後のチップ の座標を代入する (S 2 0 2 5 ) 。 更に、 応答 AP DUのステータスに 正常終了を示すコードを代入し (S 2 0 3 0 ) 、 その応答 APDUを リーダライタ 1 1 0に送信し (S 2 0 3 5 ) 、 処理を終了する。
以上のようにして、 チップ位置算出処理 S 1 1 9 1が行われる。
次に、 第 2 3図を用いて前述したチップマッチング処理 S 1 1 9 2に ついて説明する。 乙 乙
I Cカード 1 0 0は、 リ一ダライタ 1 1 0からチップマツチング処理 S 1 1 9 2を起動する APDU 1 540を受信すると、 データフィール ドに記録された部分画像を RAM 2 3 0に記録する (S 2 1 0 0) 。 次に、 チップ画像インデックス kが、 あらかじめ指紋情報に記録され たチップの数 (= 3 0) 以下か否かを検証する (S 2 1 0 5) 。 その結 果、 ィンデックス kがチップの数より大きい場合 (S 2 1 0 5 : NO) , 応答 APDUのステータスに指紋が不一致であることを示すコードを代 入し (S 2 1 5 0) 、 その応答 APDUをリーダライタ 1 1 0に送信す る (S 2 1 40 ) 。
一方、 インデックス kがチップ画像数以下の場合は (S 2 1 0 5 : Y E S) 、 部分画像と k番目のチップ画像のマッチング (チップマツチン グ) を行い、 部分画像においてチップ画像と一致したか否かを示すコー ドを出力する (S 2 1 1 0) 。 このマッチングの具体的な方法は後述す る。
次に、 チップ画像と部分画像が一致したか否かを調べ (S 2 1 1 5) 、 一致しなかった場合は (S 2 1 1 5 : NO) 、 応答 APDUのステ一夕 スに照合を継続することを示すコードを代入し (S 2 1 45) 、 その応 答 APDUをリーダライ夕 1 1 0に送信する (S 2 140) 。
一方、 チップ画像と部分画像が一致した場合は (S 2 1 1 5 : YE S) 、 一致チップ数 Mをィンクリメントし (S 2 1 20) 、 一致チップ 数 Mがあらかじめ定めたしきい値 (= 2 0) より大きいか否かを判定す る (S 2 1 2 5 ) 。 その結果、 Mがしきい値以下である場合は (S 2 1 2 5 : NO) 、 応答 APDUのステータスに照合を継続することを示す コ一ドを代入し (S 2 14 5) 、 その応答 A P DUをリーダライタ 1 1 0に送信する (S 2 1 4 0 ) 。
一方、 Mがしきい値より大きい場合は (S 2 1 2 5 : YE S) 、 照合 Δ S
画像とあらかじめ I Cカード 1 0 0に記録された指紋情報が一致したと 判断し、 I Cカード 1 00が相互認証を行うための秘密鍵 242を使用 可能にする ( S 2 I 3 0 ) 。
次に、 応答 APDUのステータスに指紋が一致したことを示すコ一ド を代入し (S 2 1 3 5 ) 、 その応答 A P DUをリ一ダライタ 1 1 0に送 信して (S 2 1 40) 、 処理を終了する。
次に、 前述したチップマッチング処理 S 1 1 9 2で行われるマツチン グ処理 S 2 1 1 0の詳細について説明する。
本処理では、 第 24図に示すように、 部分画像上をらせん状の軌道に 従って移動しつつ、 部分画像の一部とチップ 像とが一致しているか否 かを判定する。'なお、 軌道はらせん状でなくともよい。
また、 本実施形態では、 不一致ビット数検索テーブルを ROM 2 5 0 または E E P ROM 240にあらかじめ用意しておき、 チップ画像と部 分画像を比較したときの一致しないビットの数を数える際、 その不一致 ビット数検索テーブルを利用する。
第 2 5図は、 不一致ビット数検索テーブルの構成例を示す図である。 同図に示すように、 本テーブルは、 インデックスを 2進数で表現したと きの 1の数を記録したものである。 例えば、 インデックス 3 (= 1 1 b) に対しては、 2が記録され、 インデックス 4 (= 1 0 O b) に対し ては、 1が記録される。 ここでは、 チップ画像と部分画像とを 8ビット 単位で比較することに対応して、 0から 2 5 5までの 2 5 6要素のテ一 ブルを用意する。
第 2 6図は、 マッチング処理 S 2 1 1 0の詳細フローを示す図である まず、 部分画像上の照合位置を初期化する (S 2 2 0 0 ) 。 例えば、 チップ画像が部分画像の中央部にくるような位置を最初の照合位置とす る。 次に、 照合位置に従つて部分画像からチップ画像と同じ大きさの画像 を切り出し、 RAM 2 3 0上に確保された照合用画像バッファにコピー する (S 2 2 0 5 ) ,。 例えば、 チヅプ画像が 1 6ピクセル四方であると すると、 1ピクセルあたりが 1ビットに対応するので必要となる照合用 画像バッファは 2 5 6ビット、 すなわち 3 2バイ卜となる。 この場合、 チップ画像も同様に 3 2バイトの領域を持ち指紋情報の一部として E E P R OM 240に格納されている。
次に、 チップ画像と照合用画像バッファとの間で一致しないビット数 を示す不一致ビット数を 0に初期化し (S 2 2 1 0) 、 チップ画像と照 合用画像バッファの比較対象位置を示すオフセットを 0に初期化する (S 2 2 1 5 ) 。 .
次に、 チップ画像および照合用画像バッファのオフセット位置のデー 夕の排他的論理和をとり、 結果を RAM 2 3'0に保存する (S 2 2 2 0) 。 ここでは、 1バイ ト単位で、 排他的論理和をとるものとする。 次に、 排他的論理和の結果をインデックスとして、 不一致ビット数検 索テ一ブルを参照し、 得られた数を、 不一致ビット数に加算する (S 2 2 3 0 ) o
次に、 不一致ビッ ト数があらかじめ定めたしきい値 (= 3 0) 以上で あるか否かを判別する (S 2 2 3 5 ) 。 その結果、 不一致ビッ 卜数があ らかじめ定めたしきい値未満である場合は (S 2 2 3 5 : NO) 、 チッ プ画像および照合用画像パッファの全てのデータについて計算を行い、 オフセットが最後まで達したかどうかを調べ (S 2 240 ) 、 最後まで 達していなければ (S 2 240 : NO) 、 オフセットに 1を加算し (S 2 2 43) 、 オフセットの示すチップ画像および照合用画像バッファの 排他的論理和をとる処理 S 2 2 2 0に戻り、 前述した処理を繰り返す。 一方、 オフセッ卜が最後まで達していた場合は (S 2 240 : YE S) 、 チップ画像が部分画像と一致したことを示すコードを出力し (S 2 24 5) 、 処理を終了する。
また、 ステップ S 2 2 3 5における判別の結果、 不一致ビット数があ らかじめ定めたしきい値以上であった場合は (S 2 2 3 5 : YE S) 、 部分画像全体にわたって照合したか否かを調べ (S 2 2 3 7 ) 、 まだ照 合していない照合位置がある場合は (S 2 2 3 7 : NO) 、 照合位置を 移動させ (S 2 2 3 8) 、 ステップ S 2 2 0 5に戻って、 前述した処理 を繰り返す。
一方、 最後まで照合していれば (S 2 2 3 7 : YE S) 、 チップが部 分画像と一致しなかったことを示すコードを出力し (S 2 2 3 9 ) 、 処 理を終了する。
以上のようにして、 チップマッチング処理が行われる。
以上の説明では、 照合処理において、 指紋のコアの位置を使って補正 べクトルの算出を行っていたが、 他の方法で補正べクトルを算出するよ うにしてもよい。
次に、 特徴点の分布の相互相関を使って、 補正ベクトルを算出する方 法について説明する。 この場合、 前述した前処理等において、 コア位置 の検出等を行う必要がなくなる。
以下、 I Cカード 1 0 0において補正べク トルを算出する場合とリー ダライタ 1 1 0において補正べクトルを算出する場合について説明する t まず、 I Cカード 1 0 0において、 補正ベク トルを算出する場合につい て説明する。
この場合、 前述した照合処理と異なる部分は、 第 14図のステップ S 1 1 0 0において、 リ一ダライタ 1 1 0が Γ Cカード 1 0 0に送信する APDUと、 その AP DUによって呼び出される補正ベクトル算出処理 S 1 1 9 0の内容のみである。 第 2 7図は、 第 14図に示したステップ S 1 1 0 0において、 補正べ クトル算出処理 S 1 1 9 0を呼び出すためにリ一ダライタ 1 1 0が I C カード 1 0 0に送信する AP DUの例を示す図である。 同図に示すよう に、 AP DU 2 7 0 0の I N Sフィールドには、 対応するコマンド I D が代入され、 データフィールドには、 前処理で抽出した入力指紋のすべ ての特徴点の座標が代入される。
第 2 8図は、 APDU 2 7 0 0によって呼び出される補正べクトル算 出処理 S 1 1 9 0の詳細フローを示す図である。
I Cカード 1 0 0は、 AP DU 2 7 0 0を受信すると (S 2 8 0 0 ) 、 送られてきた入力指紋の特徴点の座標を使って、 入力指紋の特徴点マツ プを生成する (S 2 8 0 5 ) 。 特徴点マップとは、 各特徴点の座標の周 辺に特定の輝度分布を持った画像をいう。 第 2 9図は、 特徴点マップの 例を示す図である。 特徴点座標の周辺の輝度分布の形状や大きさ等につ いては、 実装条件に応じて、 適当なものが選択される。
入力指紋について特徴点マップを生成すると、 次に、 指紋情報に記録 された登録指紋の特徴点の座標から、 同様に特徴点マップを生成する ( S 2 8 1 0 ) 。
そして、 入力指紋と登録指紋の特徴点マップを二次元信号とみなして 正規化された相互相関を算出する (S 2 8 1 5) 。 相互相関の算出は、 通常用いられている方法、 例えば、 「ディジタル画像処理」 (ローゼン フェルド他、 近代科学社、 1 9 7 8年発行) 3 0 6頁に記載されている 方法を用いて行う。
次に、 正規化された相互相関値の最も大きい位置を検出し、 このとき の位置ずれを、 補正べクトルとして I Cカード 1 0 0の RAM 2 3 0に 記録する ( S 2 8 2 0 ) 。
そして、 第 1 6図に示した応答 A P DU 1 5 1 0に、 適当なステ一タ スを代人し、 リーダライタ 1 1 0に送信する (S 2 8 2 5 ) 。
次に、 リーダライタ 1 1 0で補正べクトルを算出する場合について説 明する。 .
この場合、 第 1 4図に示したステップ S 1 1 0 0、 S 1 1 9 0、 S 1 1 0 5を第 3 0図に示すような処理で置き換える。
第 3 0図に示した処理において、 照合処理が開始されると、 まず、 リーダライタ 1 1 0は、 登録指紋の特徴点の座標の送信を要求する AP DUを I C力一ド 1 0 0に送信する (S 3 0 0 0) 。
第 3 1図は、 登録指紋の特徴点の座標の送信を要求する APDUの例 を示す図である。 同図にしめすように、 APDU2 7 1 0の I NS フィールドには、 適当なコマンド I Dが代入され、 L eフィールドには, I Cカード 1 0 0から返信される特徴点の座標デ一夕の長さが格納され る。
I Cカード 1 0 0は、 APDU2 7 1 0を受信すると、 I Cカード 1 0 0の指紋情報に記録された特徴点の座標を、 第 3 2図に示すような応 答 APDUのデータフィールドに格納し、 リーダライタ 1 1 0に送信す る (S 3 0 9 0 ) 。
リーダライ夕 1 1 0は、 I Cカード 1 0 0から応答 A P DU 2 7 2 0 を受信すると (S 3 0 0 5) 、 第 2 8図に示した方法と同様に、 特徴点 マップを生成することにより、 補正ベクトルを算出し、 リーダライタ 1 1 0の RAM 3 2 0に記録する (S 3 0 1 0 ) 。
次に、 リ一ダライタ 1 1 0は、 I Cカード 1 0 0に補正ベクトルを記 録させるためのコマンドを発行する (S 3 0 1 5) 。 具体的には、 第 1 5図に示す AP DU 1 5 0 0と同形式の AP DUを I Cカード 1 0 0に 送信する。
I Cカードは、 その AP DUを受信すると、 AP DUに格納されてい J
' 28
る補正べクトルを I Cカード 1 0 0の RAM 2 3 0に記録し、 第 1 6図 に示すような応答 A PDUをリーダライタ 1 1 0に送信する (S 3 0 9 5) 。
リーダライタ 1 1 0は、 応答 A PDUを受け取ると (S 3 0 2 0 ) 、 応答 APDUのステータスをチェックする処理 S 1 1 0 7に進む。
以上のように、 コアの位置ではなく、 特徴点マップにより補正べク ト ルを求める場合であっても、 指紋画像全体 (又は、 その一部) について マッチングをする場合に比べて、 高速に補正べクトルを求めることがで きる。 更に、 特徴点の周辺に持たせる輝度分布の大きさを調整すること で、 指紋に歪みや回転が生じていても正確な位置補正を行うことができ る。
以上詳細に説明したように、 本発明による本人認証システムによれば、 利用者固有の情報を I Cカードにより個人管理するので、 サ一パ等で集 中管理する場合に比べて、 利用者め受容性を改善することができる。 ま た、 一度に多数の生体情報が盗難される可能性を軽減し、 生体情報の記 録管理にかかるコストを低減することができる。
また、 指紋情報および指紋照合機能を、 I Cカードの内部に実装し、 外部からの指紋情報および指紋照合機能へのアクセスを禁止することで、 利用者の指紋情報および照合結果の偽造、 改ざん、 盗用を困難にし、 な りすましを防ぐことができる。
また、 指紋入力機能および指紋照合の前処理機能をリーダライタに実 装することで、 一般的な I Cカードの C PUで指紋照合を行える。
更に、 指紋照合機能を、 I Cカードとリーダライタとに分けて実装し ているので、 照合処理が解析されづらくなる。
また、 指紋の特徴的な構造であるコアの座標を I Cカードの指紋情報 に記録し、 前処理によってあらたに入力した指紋画像からコアの座標を 検出することで、 指紋情報に記録された特徴点の座標を補正し、 指紋情 報に記録したチップ画像を、 指紋画像上の補正された座標周辺でチップ マッチングによって探索し、 一致したチップ画像の個数をもって指紋情 報と指紋画像の同一性を判定することで、 RAM容量の小さい I Cカー ドでも指紋照合を行える。
また、 チップマッチングの際に、 不一致のビットの数をあらかじめ記 録した不一致ビッ ト数検索テーブルを用いて、 チップマッチングで不一 致となったビット数を算出し、 ビット数があらかじめ設定したしきい値 を越えた場合にはチップマッチングを終了して次の処理に移行すること で、 演算速度の遅い I Cカードを用いて指紋照合を行える。
なお、 上記実施形態では、 生体情報として指紋を用いる場合について 説明したが、 他の生体情報を用いることも可能である。
例えば、 生体情報として虹彩を用いる場合は、 第 1図のリーダライタ 1 1 0は、 指紋入力部 1 1 3のかわりに、 虹彩情報を入力するための虹 彩情報入力部を備え、 前処理部 1 1 2は、 入力された虹彩画像の前処理 を行い、 虹彩照合に必要なアイリスコードを算出する。 アイリスコード の算出は、 例えば、 文献: IEEE Transactions on pattern analysis and mac ine intelligence, Vol.15, No.11, Nov.1993, pp.1148-1161 (以下、 文献 4という) に記載されている方法を使って 行う。
このようにして算出されたアイリスコードは、 I Cカード 1 0 0に送 信される。 なお、 アイリスコードの I Cカード 1 0 0への送信は、 一度 の送信で行うようにすればよい。
第 1図の I Cカード 1 0 0には、 指紋情報 1 04のかわりに生体情報 のテンプレートとしてアイリスコードが記録される。 リーダライ夕 1 1 0からアイリスコードを受信すると、 I Cカード 1 0 0内の虹彩照合プ ログラムは、 リーダライ夕 1 1 0から送信されたアイリスコードと、 I Cカード 1 0 0内の E E P R O M等に記録されているアイリスコードと の照合を行う。 当該照合は、 例えば、 文献 4に記載された方法で、 アイ リスコードのハミング距離を算出し、 算出した八ミング距離が所定のし きい値以下であるか否かによって行う。 そして、 算出したハミング距離 がしきい値以下であった場合は、 アイリスコードがー致したと判断し、 指紋の場合と同様に、 電子認証処理部 1 0 3の認証情報 1 0 5へのァク セスを許可し、 アプリケ一ション 1 3 1 と電子認証部 1 0 3との間で電 子認証を行う。 産業上の利用可能性
以上説明したように、 本発明によれば、 利用者の心理的抵抗を減らす ことができる。 また、 一度に多数の生体情報が盗難される可能性を軽減 し、 生体情報の記録管理にかかるコストを低減することができる。
また、 利用者の生体情報および照合結果の偽造、 改ざん、 盗用を困難 にしなりすましを防ぐことができる。
また、 一般的な演算機能付き携帯型記憶装置である I Cカード等の C P Uで生体情報照合を行え、 システムのコストを低減することができる。

Claims

請 求 の 範 囲 耐タンパ性を有した演算機能付き携帯型記憶装置と、
前記携帯型記憶装置に対して情報の読み書きを行う耐タンパ性を有し たリーダライタとを備えた生体認証システムであって、 '
前記リーダライタは、
生体情報を入力する生体情報入力装置を備え、
当該生体情報入力装置で入力した生体情報の前処理を行い、 前記前処理を行った中間情報を前記携帯型記憶装置に送信し、 前記携帯型記憶装置は、
生体情報のテンプレートと、 電子認証に使われる秘密鍵とを備え、 前記中間情報と前記テンプレー卜との照合を行い、
当該照合が一致したときに、 前記秘密鍵を使用可能にすることを特 徵とする生体認証システム。
2 .
前記生体情報は、 指紋情報であり、
前記リーダライタは、 指紋照合に必要な指紋画像情報を前記携帯型記 憶装置に順次送信し、
前記携帯型記憶装置は、 前記指紋画像情報を順次処理することで、 指 紋照合を行うことを特徴とする請求項 1に記載の生体認証システム。
3 ·
前記生体情報は、 指紋情報であり、
前記テンプレートに記録された登録指紋と、 あらたに入力された入力 指紋との位置ずれを補正するための情報を、 指紋のコア位置を使って算 出し、
前記登録指紋の特徴点周辺の小画像を、 前記入力指紋の画像上の位置 ずれ補正した座標周辺でマッチングすることによって探索し、
一致した小画像の個数をもって、 前記テンプレートと前記指紋画像の 同一性を判定することを特徴とする請求項 1に記載の生体認証システム
4 .
隆線の垂線べクトルを探索し、
当該垂線べクトルが大きく変化する位置を、 指紋のコアと決定するこ とを特徴とする請求項 3に記載の生体認証システム。
5 .
前記生体情報は、 指紋情報であり、
前記テンプレートに記録された登録指紋と、 あらたに入力された入力 指紋との位置ずれを補正するための情報を、 入力指紋および登録指紋の それぞれについて、 各特徴点の周辺に特定の輝度分布を持つ画像を作成 し、 当該画像の相互相関により算出し、
前記登録指紋の特徴点周辺の小画像を、 前記入力指紋の画像上の位置 ずれ補正した座標周辺でマッチングすることによって探索し、
一致した小画像の個数をもって、 前記テンプレートと前記指紋画像の 同一性を判定することを特徴とする請求項 1に記載の生体認証システム <
PCT/JP2001/004405 2000-05-31 2001-05-25 Systeme d'authentification d'un corps humain vivant WO2001093053A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US09/937,004 US7162058B2 (en) 2000-05-31 2001-05-25 Authentication system by fingerprint
DE60139784T DE60139784D1 (de) 2000-05-31 2001-05-25 Authentifizierungssystem für lebende körper
KR1020017011933A KR100785961B1 (ko) 2000-05-31 2001-05-25 생체 인증 시스템, 생체 리더라이터, 및 휴대형 기억 장치
EP01934353A EP1313026B1 (en) 2000-05-31 2001-05-25 Living body authentication system
US11/606,139 US7457442B2 (en) 2000-05-31 2006-11-30 Authentication system by fingerprint

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000162517A JP2001344213A (ja) 2000-05-31 2000-05-31 生体認証システム
JP2000-162517 2000-05-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/606,139 Continuation US7457442B2 (en) 2000-05-31 2006-11-30 Authentication system by fingerprint

Publications (1)

Publication Number Publication Date
WO2001093053A1 true WO2001093053A1 (fr) 2001-12-06

Family

ID=18666405

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/004405 WO2001093053A1 (fr) 2000-05-31 2001-05-25 Systeme d'authentification d'un corps humain vivant

Country Status (6)

Country Link
US (2) US7162058B2 (ja)
EP (1) EP1313026B1 (ja)
JP (1) JP2001344213A (ja)
KR (1) KR100785961B1 (ja)
DE (1) DE60139784D1 (ja)
WO (1) WO2001093053A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228154A (zh) * 2016-08-31 2016-12-14 四川金投金融电子服务股份有限公司 基于押运交接身份电子认证系统的押运员身份认证系统
US11246493B2 (en) 2016-09-30 2022-02-15 Samsung Electronics Co., Ltd. Wrist temperature rhythm acquisition apparatus and method, core temperature rhythm acquisition apparatus and method, and wearable device

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344213A (ja) * 2000-05-31 2001-12-14 Hitachi Ltd 生体認証システム
DE10126369A1 (de) * 2001-05-30 2002-12-05 Giesecke & Devrient Gmbh Verfahren zum Prüfen eines Fingerabdrucks
EP1403761B1 (en) * 2001-06-27 2008-06-04 Sony Corporation Integrated circuit device, information processing device, information recording device memory management method, mobile terminal device, semiconductor integrated circuit device, and communication method using mobile terminal device
KR100453220B1 (ko) * 2001-12-05 2004-10-15 한국전자통신연구원 지문 특징점을 이용한 사용자 인증 장치 및 방법
KR100452324B1 (ko) * 2001-12-17 2004-10-12 한국전자통신연구원 저전력을 사용하는 개인장치용 지문 인식 방법
JP2003303177A (ja) * 2002-04-09 2003-10-24 Oki Electric Ind Co Ltd 生体照合システム
DE10249801B3 (de) 2002-10-24 2004-05-06 Giesecke & Devrient Gmbh Verfahren zum Ausführen einer gesicherten elektronischen Transaktion unter Verwendung eines tragbaren Datenträgers
US9262876B2 (en) * 2003-04-08 2016-02-16 Richard Glee Wood Method for controlling fraud and enhancing security and privacy by using personal hybrid card
MY142175A (en) * 2003-08-01 2010-10-15 Multimedia Glory Sdn Bhd Process of storage of biometric features
JP4294434B2 (ja) * 2003-10-17 2009-07-15 株式会社日立製作所 ユニークコード生成装置および方法、ならびにプログラム、記録媒体
US7356170B2 (en) * 2004-02-12 2008-04-08 Lenovo (Singapore) Pte. Ltd. Fingerprint matching method and system
GB2446912B (en) * 2004-02-27 2008-10-01 Bqt Solutions An access control system
US20050232471A1 (en) * 2004-04-20 2005-10-20 Richard Baer Biometric data card and authentication method
JP4554290B2 (ja) * 2004-07-09 2010-09-29 Kddi株式会社 データ変換装置およびデータ変換方法、生体認証システム
JP2006059282A (ja) * 2004-08-24 2006-03-02 Fujitsu Ltd 生体特徴情報に基づく認証方法
CN100369045C (zh) * 2004-12-31 2008-02-13 中国科学院自动化研究所 基于生物护照的快速通关方法
KR100747446B1 (ko) * 2005-03-07 2007-08-09 엘지전자 주식회사 휴대단말기의 지문인식 장치 및 방법
KR100704185B1 (ko) * 2005-03-11 2007-04-06 한국조폐공사 Match-on-card방식의 생체여권을 이용한출입국 통제시스템 및 그 통제 방법
US20060256070A1 (en) * 2005-05-13 2006-11-16 Research In Motion Limited Communications system including units with LCD optical transmitters/receivers and related methods
JP4845462B2 (ja) * 2005-09-20 2011-12-28 株式会社日立製作所 認証装置、icカード、及び生体情報認証システム
JP4634924B2 (ja) * 2005-12-16 2011-02-16 株式会社日立情報制御ソリューションズ 認証方法、認証プログラム、認証システムおよびメモリカード
JP2007213106A (ja) * 2006-02-07 2007-08-23 Dainippon Printing Co Ltd 備品利用管理システム
JP4961214B2 (ja) * 2006-03-29 2012-06-27 株式会社日立情報制御ソリューションズ 生体認証方法およびシステム
KR100759348B1 (ko) * 2006-06-01 2007-09-17 주식회사 디젠트 스마트카드를 이용한 생체인증 시스템 및 그 방법
JP4868947B2 (ja) 2006-06-05 2012-02-01 株式会社日立製作所 生体認証装置と生体認証システム及びicカード並びに生体認証方法
JP5205380B2 (ja) * 2006-08-22 2013-06-05 インターデイジタル テクノロジー コーポレーション アプリケーションおよびインターネットベースのサービスに対する信頼されるシングル・サインオン・アクセスを提供するための方法および装置
US8417960B2 (en) * 2006-09-06 2013-04-09 Hitachi, Ltd. Method for generating an encryption key using biometrics authentication and restoring the encryption key and personal authentication system
JP2008176435A (ja) * 2007-01-17 2008-07-31 Hitachi Ltd 決済端末およびicカード
JP2008181295A (ja) * 2007-01-24 2008-08-07 Sony Corp 認証システム、情報処理装置および方法、プログラム、並びに記録媒体
JP2008191809A (ja) * 2007-02-02 2008-08-21 Hitachi Omron Terminal Solutions Corp 自動取引装置およびic媒体リーダライタ
EP1956523B1 (en) * 2007-02-02 2013-05-29 Semiconductor Energy Laboratory Co., Ltd. Wireless identification system, semiconductor device, and communication device
US8009050B2 (en) * 2007-02-02 2011-08-30 Semiconductor Energy Laboratory Co., Ltd. Wireless system, semiconductor device, and communication device
US8908934B2 (en) * 2007-03-14 2014-12-09 Ivi Holdings Ltd. Fingerprint recognition for low computing power applications
JP4389971B2 (ja) * 2007-06-19 2009-12-24 ミツミ電機株式会社 指紋画像形成装置及びこれに用いる指移動量推定方法
US8181031B2 (en) * 2007-08-01 2012-05-15 International Business Machines Corporation Biometric authentication device and system
US20090037742A1 (en) * 2007-07-31 2009-02-05 International Business Machines Corporation Biometric authentication device, system and method of biometric authentication
US8838989B2 (en) * 2008-01-24 2014-09-16 Blackberry Limited Optimized biometric authentication method and system
EP2282284A3 (en) * 2009-07-30 2012-08-15 Universität Duisburg-Essen Encoding of biometric information
CN102032868B (zh) * 2009-09-28 2013-10-02 株式会社名南制作所 原木的年轮中心检测装置以及方法
JP5603493B2 (ja) 2010-08-17 2014-10-08 エンパイア テクノロジー ディベロップメント エルエルシー リモートディスプレイ制御
FR2976387B1 (fr) * 2011-06-09 2018-11-09 Mbda France Procede et dispositif pour determiner automatiquement des lignes de crete d'une zone a hauteur variable.
CN102880955B (zh) * 2012-08-03 2016-01-20 毛德操 一种高度安全的凭指纹支付方法
JP6152892B2 (ja) * 2013-08-21 2017-06-28 日本電気株式会社 指紋照合用指紋コア抽出装置、指紋照合システム、指紋コア抽出方法、及びそのプログラム
CN103679895A (zh) * 2013-12-13 2014-03-26 苏州市峰之火数码科技有限公司 指纹柜锁系统
US9536131B1 (en) * 2014-09-18 2017-01-03 Egis Technology Inc. Fingerprint recognition methods and electronic device
US9584489B2 (en) * 2015-01-29 2017-02-28 Google Inc. Controlling access to resource functions at a control point of the resource via a user device
CN105975837B (zh) * 2016-06-12 2019-04-30 北京集创北方科技股份有限公司 计算设备、生物特征识别方法和模板注册方法
KR20180086087A (ko) * 2017-01-20 2018-07-30 삼성전자주식회사 지문 정보 처리 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06301768A (ja) * 1993-04-13 1994-10-28 Fujitsu Ltd 指紋照合装置
JPH11143833A (ja) * 1997-11-14 1999-05-28 Toshiba Corp 生体データによるユーザ確認システム及びicカード並びに記録媒体

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5067162A (en) * 1986-06-30 1991-11-19 Identix Incorporated Method and apparatus for verifying identity using image correlation
EP0339527B1 (en) * 1988-04-23 1997-07-09 Nec Corporation Fingerprint processing system capable of detecting a core of a fingerprint image by curvature parameters
GB2219887B (en) * 1988-06-15 1992-07-08 Tanashin Denki Co Tape recorder
JPH03202973A (ja) * 1989-12-28 1991-09-04 Toshiba Corp 個人認証装置
US5140642A (en) * 1991-04-23 1992-08-18 Wen Hsing Hsu Method and device for allocating core points of finger prints
JPH06309440A (ja) * 1993-04-21 1994-11-04 Fujitsu Ltd 画像照合装置の画像取り込み方式
DE4432002A1 (de) * 1994-09-08 1996-03-14 Siemens Nixdorf Inf Syst Verfahren zur Rekonstruktion von in Rasterform vorliegenden Linienstrukturen
JP2964222B2 (ja) 1996-01-16 1999-10-18 富士通電装株式会社 指紋照合入退室管理システム
JP2735098B2 (ja) * 1995-10-16 1998-04-02 日本電気株式会社 指紋特異点検出方法及び指紋特異点検出装置
JP2737734B2 (ja) * 1995-12-13 1998-04-08 日本電気株式会社 指紋分類装置
US5841888A (en) * 1996-01-23 1998-11-24 Harris Corporation Method for fingerprint indexing and searching
JPH10124668A (ja) 1996-10-16 1998-05-15 Fujitsu Ltd 指紋照合方式、及びネットワーク認証装置
JPH10149446A (ja) 1996-11-20 1998-06-02 Mitsubishi Electric Corp 指紋照合装置、指紋照合システム及び指紋照合方法
US5915035A (en) * 1997-01-27 1999-06-22 Aetex Biometric Corporation Method for extracting high-level features for fingerprint recognition
JP3925975B2 (ja) 1997-02-13 2007-06-06 大日本印刷株式会社 ネットワークシステムにおけるicカード処理方法
EP0864996A3 (en) * 1997-03-13 1999-09-15 Hitachi, Ltd. Portable electronic device and method for personal identification
US6134340A (en) 1997-12-22 2000-10-17 Trw Inc. Fingerprint feature correlator
DE19811332A1 (de) * 1998-03-16 1999-09-23 Giesecke & Devrient Gmbh Verfahren und Vorrichtung zur Prüfung eines biometrischen Merkmals
US6241288B1 (en) * 1998-04-02 2001-06-05 Precise Biometrics Ab Fingerprint identification/verification system
JPH11306301A (ja) 1998-04-21 1999-11-05 Dainippon Printing Co Ltd 期限つきセキュリティステータスを有するicカード
JP3825917B2 (ja) 1998-05-29 2006-09-27 東京エレクトロンデバイス株式会社 アクセス制御装置
US6681034B1 (en) * 1999-07-15 2004-01-20 Precise Biometrics Method and system for fingerprint template matching
CA2382042A1 (en) 1999-08-06 2001-02-15 Precise Biometrics Ab Checking of right to access
US6719200B1 (en) * 1999-08-06 2004-04-13 Precise Biometrics Ab Checking of right to access
DE60125759T2 (de) 2000-04-28 2007-10-31 Precise Biometrics Ab Biometrische identitätsprüfung
JP2001344213A (ja) * 2000-05-31 2001-12-14 Hitachi Ltd 生体認証システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06301768A (ja) * 1993-04-13 1994-10-28 Fujitsu Ltd 指紋照合装置
JPH11143833A (ja) * 1997-11-14 1999-05-28 Toshiba Corp 生体データによるユーザ確認システム及びicカード並びに記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1313026A1 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228154A (zh) * 2016-08-31 2016-12-14 四川金投金融电子服务股份有限公司 基于押运交接身份电子认证系统的押运员身份认证系统
US11246493B2 (en) 2016-09-30 2022-02-15 Samsung Electronics Co., Ltd. Wrist temperature rhythm acquisition apparatus and method, core temperature rhythm acquisition apparatus and method, and wearable device

Also Published As

Publication number Publication date
US20070076925A1 (en) 2007-04-05
EP1313026A1 (en) 2003-05-21
DE60139784D1 (de) 2009-10-15
EP1313026B1 (en) 2009-09-02
KR20030004981A (ko) 2003-01-15
US7457442B2 (en) 2008-11-25
JP2001344213A (ja) 2001-12-14
KR100785961B1 (ko) 2007-12-14
US7162058B2 (en) 2007-01-09
EP1313026A4 (en) 2007-04-25
US20020150283A1 (en) 2002-10-17

Similar Documents

Publication Publication Date Title
WO2001093053A1 (fr) Systeme d&#39;authentification d&#39;un corps humain vivant
EP1865442B1 (en) Method, system and program for authenticating a user by biometric information
US7391891B2 (en) Method and apparatus for supporting a biometric registration performed on an authentication server
US8417960B2 (en) Method for generating an encryption key using biometrics authentication and restoring the encryption key and personal authentication system
US6799275B1 (en) Method and apparatus for securing a secure processor
US7274804B2 (en) Method and apparatus for hashing data
JP4104621B2 (ja) 生体認証システム
JP2000293643A (ja) Icカード、icカード情報登録/照合方法及びシステム
JP4586055B2 (ja) 生体認証システム
Mimura et al. Fingerprint verification system on smart card
CA2350055A1 (en) Biometric identification using pore prints
KR20080109118A (ko) 스마트카드를 이용한 지문정보 인증방법 및 그 시스템
Rikin et al. A fingerprint matching using minutia ridge shape for low cost match-on-card systems
JP2003308302A (ja) 生体認証システム
JP2872176B2 (ja) 個人認証装置
KR102138659B1 (ko) 지문인식 스마트 신용카드 및 결제 시스템
Gil et al. Fingerprint verification system involving smart card
US20220343672A1 (en) Fingerprint recognition device and smart card
Cucinotta et al. Hybrid fingerprint matching on programmable smart cards
JP4244409B2 (ja) 指紋照合装置と指紋照合方法
JP2600680B2 (ja) 個人照合装置
JP2019061462A (ja) 生体認証システムおよび生体認証方法
JP2002304378A (ja) 個人認証システム
KR20220146996A (ko) 지문 인식 장치 및 스마트 카드
Moon et al. Secure and Fast Fingerprint Authentication on Smart Card

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 1020017011933

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2001934353

Country of ref document: EP

AK Designated states

Kind code of ref document: A1

Designated state(s): KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 09937004

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: IN/PCT/2002/1499/KOL

Country of ref document: IN

WWP Wipo information: published in national office

Ref document number: 2001934353

Country of ref document: EP