WO2013099038A1 - 画像検索システム、画像検索方法、画像検索装置、プログラム、及び情報記憶媒体 - Google Patents

画像検索システム、画像検索方法、画像検索装置、プログラム、及び情報記憶媒体 Download PDF

Info

Publication number
WO2013099038A1
WO2013099038A1 PCT/JP2011/080535 JP2011080535W WO2013099038A1 WO 2013099038 A1 WO2013099038 A1 WO 2013099038A1 JP 2011080535 W JP2011080535 W JP 2011080535W WO 2013099038 A1 WO2013099038 A1 WO 2013099038A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
search
original image
feature information
processed
Prior art date
Application number
PCT/JP2011/080535
Other languages
English (en)
French (fr)
Inventor
小池 宏幸
Original Assignee
楽天株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 楽天株式会社 filed Critical 楽天株式会社
Priority to JP2013551170A priority Critical patent/JP5788996B2/ja
Priority to US14/369,205 priority patent/US9600495B2/en
Priority to PCT/JP2011/080535 priority patent/WO2013099038A1/ja
Priority to TW101145043A priority patent/TWI533149B/zh
Publication of WO2013099038A1 publication Critical patent/WO2013099038A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship

Definitions

  • the present invention relates to an image search system, an image search method, an image search device, a program, and an information storage medium.
  • An image search system for searching for an image similar to the original image is known (for example, Patent Document 1).
  • an image search system for searching for a clothing image similar to a clothing image is known.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide an image search system, an image search method, an image search device, a program, and an image search system that can search for images with different specific parts of the original image.
  • An object is to provide an information storage medium.
  • an image search system includes an original image acquisition unit that acquires an original image, a designation of a partial area to be processed in the original image, and the partial area.
  • a plurality of types related to a region other than the partial region of the original image, or a processed image obtained by processing the processed content on the partial region of the original image Image search based on the feature information of at least one of the plurality of types of feature information regarding the processed image or the partial region of the original image, and at least one feature information selected based on the processing content
  • an output control means for causing the output means to output a search result of the search means.
  • the image search method includes an original image acquisition step of acquiring an original image, designation of a partial area to be processed in the original image, and processing contents for the partial area.
  • a receiving step for accepting, a processed image in which the processing of the processing content is performed on the partial region of the original image, or a plurality of types of feature information on a region other than the partial region of the original image;
  • a search step for performing an image search based on at least one feature information selected based on the processing content among the plurality of types of feature information regarding the partial region of the processed image, and the search step And an output control step for causing the output means to output the search result.
  • the image search device is a means for obtaining processing content for a partial region of the original image, and a processed image obtained by processing the processing content on the partial region of the original image, or Selection based on the processing content of a plurality of types of feature information related to a region other than the partial region of the original image and the plurality of types of feature information related to the processed image or the partial region of the original image And a search condition setting means for setting a search condition for image search based on the at least one feature information.
  • the program according to the present invention includes means for obtaining processing content for a partial area of an original image, and the part of the processed image obtained by processing the processing content on the partial area of the original image. Based on a plurality of types of feature information related to a region other than a region, and at least one feature information selected based on the processing content among the plurality of types of feature information related to the partial region of the processed image.
  • the information storage medium includes a means for acquiring the processing content for a partial area of the original image, and the processing image of the processing image formed by processing the processing content on the partial area of the original image.
  • a computer-readable information storage medium storing a program for causing a computer to function as search condition setting means for setting a search condition for image search based on the above.
  • the output control unit may prevent the output unit from outputting the original image as a search result of the search unit when the search result of the search unit includes the original image. May be.
  • the output control unit may set an output order of the images searched by the search unit based on a similarity between the image searched by the search unit and the original image.
  • Output order setting means and means for causing the output means to output the image searched by the search means according to the output order, wherein the output order setting means outputs an image having a low similarity to the original image
  • the order may be set higher than the output order of images having high similarity to the original image.
  • the search unit includes a determination unit that determines whether or not the target image is the same or similar to the processed image, and searches for the same or similar image as the processed image.
  • the determination means corresponds to the plurality of types of feature information related to the region other than the partial region of the processed image or the original image, and the target corresponding to the region other than the partial region of the processed image.
  • a second degree of similarity indicating a degree of similarity between the at least one feature information relating to and the at least one feature information relating to the region of the target image corresponding to the partial region of the processed image First standard Means for determining whether or not it is equal to or higher than a second reference similarity lower than the similarity, and the first similarity is determined to be higher than or equal to the first reference similarity and the second similarity
  • the target image may be determined to be the same or similar image as the processed image.
  • the search unit includes a determination unit that determines whether the target image is an image similar to the original image, searches for an image similar to the original image, and performs the determination.
  • the means includes the plurality of types of feature information regarding the region other than the partial region of the original image, and the plurality of types of the region of the target image corresponding to the region other than the partial region of the original image.
  • FIG. 1 is a diagram illustrating an example of an overall configuration of an image search system according to an embodiment of the present invention. It is a figure which shows an example of the screen transition in the case of performing an image search. It is a figure which shows an example of a process screen. It is a figure for demonstrating an example of the process with respect to an original image. It is a figure for demonstrating another example of the process with respect to an original image. It is a figure for demonstrating another example of the process with respect to an original image. It is a figure which shows an example of a search result screen. It is a functional block diagram of an image search system. It is a figure for demonstrating a process area
  • FIG. 1 shows an example of the overall configuration of an image search system 1 according to an embodiment of the present invention.
  • the image search system 1 according to the present embodiment includes a server 10, a database 16, and a user terminal 20.
  • the server 10 and the user terminal 20 are connected to a communication network 2 including, for example, the Internet, and data communication between the server 10 and the user terminal 20 is possible.
  • the server 10 includes a control unit 11, a main storage unit 12, an auxiliary storage unit 13, a communication unit 14, and an optical disc drive unit 15.
  • the control unit 11 includes, for example, one or a plurality of CPUs, and executes information processing according to an operation system or a program stored in the auxiliary storage unit 13.
  • the main storage unit 12 is, for example, a RAM
  • the auxiliary storage unit 13 is, for example, a hard disk or a solid state drive.
  • the communication unit 14 is for performing data communication via the communication network 2.
  • the optical disk drive unit 15 is for reading a program and data recorded on an optical disk (information storage medium).
  • the program and data are supplied to the auxiliary storage unit 13 via an optical disc (information storage medium). That is, the program and data stored on the optical disc are read by the optical disc drive unit 15 and stored in the auxiliary storage unit 13.
  • the server 10 may include a component for reading a program or data stored in an information storage medium (for example, a memory card) other than the optical disk. Then, a program or data may be supplied to the auxiliary storage unit 13 via an information storage medium (for example, a memory card) other than the optical disk. Further, the program and data may be supplied to the auxiliary storage unit 13 via the communication network 2.
  • the server 10 can access the database 16.
  • the database 16 stores a large number of images to be searched for images.
  • the database 16 may be constructed in the server 10 or may be constructed in a server different from the server 10.
  • the user terminal 20 is an information processing device used by a user.
  • the user terminal 20 includes a control unit 21, a main storage unit 22, an auxiliary storage unit 23, a communication unit 24, a display unit 25, an audio output unit 26, and an operation unit 27.
  • the control unit 21, main storage unit 22, auxiliary storage unit 23, and communication unit 24 are the same as the control unit 11, main storage unit 12, auxiliary storage unit 13, and communication unit 14 of the server 10.
  • the program and data are supplied to the auxiliary storage unit 23 via the communication network 2.
  • the user terminal 20 may include an optical disk drive unit.
  • the program and data may be supplied to the auxiliary storage unit 23 via an optical disk (information storage medium).
  • the user terminal 20 may include a component for reading a program or data stored in an information storage medium (for example, a memory card) other than the optical disk. Then, a program and data may be supplied to the auxiliary storage unit 23 via an information storage medium (for example, a memory card) other than the optical disk.
  • the display unit 25 is a liquid crystal display or an organic EL display, for example, and displays various screens.
  • the audio output unit 26 is a speaker or a headphone terminal, for example, and outputs various sounds.
  • the operation unit 27 is used by the user for operation.
  • a pointing device for the user to specify a position in the screen displayed on the display unit 25 is provided as the operation unit 27.
  • the user terminal 20 includes a touch panel provided on the display unit 25 so as to overlap the display unit 25. Note that, for example, a mouse or a stick may be provided in the user terminal 20 instead of the touch panel.
  • the image search system 1 can search for images with different specific parts of the original image.
  • the image search function will be described below. In the following description, an example in which an image having a different specific part of a clothing image is searched will be described.
  • FIG. 2 is a diagram for explaining an example of transition of a screen displayed on the display unit 25 of the user terminal 20 when performing an image search.
  • an original image selection screen is first displayed on the display unit 25 as shown in FIG. 2 (S101).
  • the original image selection screen is a screen for selecting an original image used for image search from images stored in the database 16.
  • the processing screen is a screen for processing the original image.
  • FIG. 3 shows an example of the processing screen.
  • the original image 32 selected on the original image selection screen is displayed.
  • An image of a long sleeve cut-and-sew is displayed as an original image 32 on the processing screen 30 shown in FIG.
  • FIG. 3 shows the processing screen 30 in the initial state.
  • An original image 32 in an unprocessed state is displayed on the processing screen 30 in the initial state.
  • the background portion (portion other than clothes) of the original image 32 is removed. The removal of the background portion may be executed when the original image 32 is displayed on the processing screen 30, or an image from which the background portion has been removed in advance may be stored in the database 16.
  • the processing screen 30 displays a menu 34 (pull-down menu) for specifying the processing content.
  • a menu 34 pulse-down menu
  • radio buttons optional buttons for specifying processing contents may be displayed.
  • the user After the user specifies the processing content for the original image 32 in the menu 34, the user performs a processing operation corresponding to the processing content. For example, in the menu 34, the following processing contents can be designated. (1) Color deletion (color removal) (2) Color change (3) Pattern deletion (4) Pattern change (5) Deformation
  • processing image obtained by processing the original image 32 is displayed.
  • FIG. 4 shows a case where the color of the sleeve portion of the original image 32 is deleted.
  • the user selects “Delete Color” in the menu 34. Thereafter, the user deletes the color of the sleeve portion by pointing to the pixel of the sleeve portion (that is, the pixel whose color is to be deleted). For example, the user performs processing as shown in FIG. 4 when emphasizing a portion other than the sleeve and not emphasizing the color of the sleeve portion.
  • the user when the user wants to search for an image of a long-sleeved cut-and-sew in which the color of the sleeve portion of the long-sleeved cut-and-sew shown in the original image 32 is changed to a desired color, the user performs the above processing.
  • the user when deleting the pattern of the sleeve portion in the original image 32, first, the user selects “Delete pattern” in the menu 34. Thereafter, the user deletes the pattern of the sleeve portion by pointing to the pixel of the sleeve portion (that is, the pixel from which the pattern is to be deleted). For example, the user performs the above-described processing when the portion other than the sleeve is emphasized and the design of the sleeve portion is not important.
  • FIG. 5 shows a case where the pattern of the sleeve portion of the original image 32 is changed.
  • the user first selects “change pattern” in the menu 34.
  • “change pattern” is selected, a menu for changing the pattern is displayed, and the user changes the pattern on the sleeve portion to a desired pattern.
  • the user wants to search for an image of a long-sleeved cut-and-sew in which the pattern of the sleeve portion of the long-sleeved cut-and-sew shown in the original image 32 is changed to a desired pattern, the user performs processing as shown in FIG.
  • FIG. 6 shows a case where the sleeve portion of the original image 32 is deformed.
  • the sleeve portion is deformed so as to shrink upward.
  • the user first selects “deform” in the menu 34. Thereafter, the user designates a region surrounding the sleeve portion (that is, a portion to be deformed), and deforms the sleeve portion by deforming the region so that the region is contracted upward, for example. For example, when searching for a short-sleeved cut-and-sew that has the same color and pattern as the long-sleeved cut-and-sew shown in the original image 32, the user performs the processing shown in FIG.
  • FIG. 7 shows an example of the search result screen.
  • FIG. 7 shows a search result screen 40 when the image search is executed based on the processed image 36 (see FIG. 4) obtained by deleting the color of the sleeve portion of the original image 32.
  • the search result screen 40 shown in FIG. 7 indicates that eight images 42A, 42B, 42C, 42D, 42E, 42F, 42G, and 42H are found as images similar to the processed image 36. In FIG. 7, the images 42D, 42E, 42F, and 42G are omitted.
  • the images 42A to 42H obtained as search results are displayed according to the output order.
  • images are displayed in order from the highest output order. Therefore, the image 42A is the image with the highest output order, and the image 42H is the image with the lowest output order.
  • the image 42H is the original image 32 (that is, the image before being processed). That is, the output order of the original image 32 is set to the lowest.
  • the output order of the images 42A to 42H is set so that the lower the similarity to the original image 32 (that is, the image before being processed), the higher the output order. It is like that.
  • the original image 32 is not the image that the user wants to find, and the user wants to find an image having a high degree of similarity to the original image 32. The image is not likely to be.
  • the output order is set as described above, so that the original image 32 itself or an image having a high similarity to the original image 32 is not preferentially displayed. .
  • a product screen showing the detailed information of the product (clothes) shown in the image is displayed (S104). For example, a product can be purchased on the product screen.
  • FIG. 8 is a functional block diagram showing functions realized in the image search system 1.
  • the image search system 1 includes an original image acquisition unit 50, a reception unit 52, a search condition setting unit 54, a search unit 56, and an output control unit 58.
  • these functional blocks are realized in the server 10 or the user terminal 20.
  • the original image acquisition unit 50, the reception unit 52, and the search condition setting unit 54 are realized in the user terminal 20, and the search unit 56 and the output control unit 58 are realized in the server 10. That is, when the control unit 21 of the user terminal 20 executes processing according to the program, the control unit 21 functions as the original image acquisition unit 50, the reception unit 52, and the search condition setting unit 54. Further, when the control unit 11 of the server 10 executes the process according to the program, the control unit 11 functions as the search unit 56 and the output control unit 58.
  • the original image acquisition unit 50 acquires an original image 32 to be used for image search.
  • the original image acquisition unit 50 acquires the original image 32 selected by the user on the original image selection screen.
  • the accepting unit 52 accepts designation of a partial area to be processed in the original image 32 and processing contents for the partial area.
  • the accepting unit 52 accepts processing for a partial region of the original image 32 by displaying the processing screen 30 on the display unit 25. That is, the accepting unit 52 accepts processing for a partial area of the original image 32, thereby accepting designation of a partial area to be processed in the original image 32 and processing content for the partial area. .
  • the user has actually processed the original image 32 to receive designation of a partial area to be processed and processing details for the partial area.
  • the accepting unit 52 may accept the designation of a partial area to be processed and the processing content for the partial area without causing the user to actually process the original image 32.
  • the search condition setting unit 54 includes a plurality of types of feature information regarding the non-processed area of the processed image 36 obtained by processing the processing content specified by the user on a partial area of the original image 32, and the processed area of the processed image 36. Search for searching for an image that is the same as or similar to the processed image 36 based on at least one feature information selected based on the processing content applied to the processing area from among a plurality of types of feature information Set conditions.
  • the “processing region” is a region including a portion designated as a processing target (that is, a portion subjected to processing).
  • the “non-processed area” is an area other than the processed area.
  • FIG. 9 is a diagram for explaining the processing region and the non-processing region.
  • FIG. 9 shows a processed region and a non-processed region when the sleeve portion is designated as a processing target (that is, when the sleeve portion is processed).
  • a rectangular region including the sleeve portion is set as the processing region 60.
  • An area other than the machining area 60 is set as the non-machining area 62.
  • the search condition setting unit 54 acquires a plurality of types of feature information related to the non-processed area 62 of the processed image 36.
  • the “plurality of types of feature information” is, for example, the following feature information.
  • a known method can be adopted as a method for extracting the feature information. (1) Feature information about color (feature value) (2) Feature information on patterns (feature values) (3) Feature information about the shape (feature value)
  • the search condition setting unit 54 acquires at least one feature information selected based on the processing content applied to the processing region 60 from among a plurality of types of feature information regarding the processing region 60 of the processing image 36.
  • “Multiple types of feature information” in this case is also feature information such as (1) to (3) above.
  • the search condition setting unit 54 selects the feature information used for the image search from the feature information (1) to (3) related to the processing region 60 of the processing image 36 based on the processing content for the processing region 60.
  • FIG. 10 shows an example of a correspondence relationship between the processing content for the processing area 60 and the feature information of the processing area 60 used for image search.
  • a circle in the “processing content for the processing region” column in FIG. 10 indicates the processing content specified as the processing content for the processing region 60 (that is, the processing content applied to the processing region 60). Further, in the “feature information of processing area used for image search” column in FIG. 10, a circle indicates that feature information is used for image search, and a blank indicates that feature information is not used for image search. ing.
  • a circle is added to the “color-deletion” column in the “processing contents for the processing region” column.
  • the “pattern” column and the “shape” column are circled in the “feature information of processing area used for image search” column, and the “color” column is blank. It has become. This indicates that the feature information related to the pattern and shape of the processed region 60 is used for image search, and the feature information related to the color of the processed region 60 is not used for image search.
  • the color of the sleeve portion is deleted as shown in FIG. 4, only the feature information on the pattern and shape is used for the image search among the feature information on the processing region 60 (1) to (3).
  • the feature information about the color is not used for the image search.
  • the case where the user deletes the color of the sleeve portion is a case where the user does not specify the color of the sleeve portion.
  • the feature information regarding the color of the processing region 60 is not used for image retrieval.
  • the user wants to search for clothes having a sleeve portion with the same or similar pattern as the sleeve portion copied in the original image 32.
  • the case where the user has not deformed the sleeve portion is a case where the user wants to search for clothes having a sleeve portion having the same or similar shape as the sleeve portion shown in the original image 32. .
  • the feature information regarding the pattern and shape of the processing region 60 is used for image retrieval.
  • FIG. 10B shows a case where “color deletion” and “deformation” are designated as the processing contents for the processing region 60.
  • the “pattern” column and the “shape” column are circled in the “feature information of processing region used for image search” column, and the “color” column is blank. ing. This indicates that the feature information related to the pattern and shape of the processed region 60 is used for image search, and the feature information related to the color of the processed region 60 is not used for image search.
  • the case where the user deletes the color of the sleeve portion and deforms the sleeve portion is when the user does not specify the color of the sleeve portion and the shape of the sleeve portion is specified. For this reason, the feature information related to the color of the processed region 60 is not used for image search, while the feature information related to the shape of the processed region 60 is used for image search.
  • the user does not delete or change the pattern of the sleeve portion the user wants to search for clothes having a sleeve portion with the same or similar pattern as the sleeve portion copied in the original image 32. This is the case. For this reason, the feature information regarding the pattern of the processing area 60 is used for image search.
  • a circle is added to the “pattern-deletion” column in the “processing content for the processing region” column.
  • the “feature information of processing area used for image search” column the “color” column and the “shape” column are circled, and the “pattern” column is blank. ing. This indicates that the feature information regarding the color and shape of the processing region 60 is used for image search, and the feature information regarding the pattern of the processing region 60 is not used for image search.
  • the case where the user has deleted the sleeve part pattern is when the user has not designated the sleeve part pattern. For this reason, the feature information regarding the pattern of the processing region 60 is not used for the image search.
  • the user does not delete or change the color of the sleeve portion the user wants to search for clothes having a sleeve portion having the same or similar color as the sleeve portion copied in the original image 32. This is the case.
  • the case where the user does not deform the sleeve portion is a case where the user wants to search for clothes having a sleeve portion having the same or similar shape as the sleeve portion shown in the original image 32. . For this reason, the feature information regarding the color and shape of the processing region 60 is used for image retrieval.
  • a circle is added to the “pattern-deletion” column and the “deformation” column in the “processing contents for the processing region” column.
  • the “characteristic information of the processing area used for image search” column the “color” column and the “shape” column are circled, and the “pattern” column is blank. ing. This indicates that the feature information regarding the color and shape of the processing region 60 is used for image search, and the feature information regarding the pattern of the processing region 60 is not used for image search.
  • the case where the user deletes the pattern of the sleeve portion and deforms the sleeve portion is a case where the user does not specify the pattern of the sleeve portion and the shape of the sleeve portion is specified. For this reason, the feature information related to the pattern of the processed region 60 is not used for the image search, while the feature information related to the shape of the processed region 60 is used for the image search.
  • the user does not delete or change the color of the sleeve portion
  • a circle is added to the “color-deletion” column and the “pattern-deletion” column in the “processing contents for the processing area” column.
  • the “shape” column is circled, and the “color” and “pattern” columns are blank. This indicates that only feature information related to the shape of the processed region 60 is used for image search, and feature information related to the color and pattern of the processed region 60 is not used for image search.
  • the case where the user deletes the color and pattern of the sleeve portion is a case where the user does not specify the color and pattern of the sleeve portion. For this reason, the feature information regarding the color and pattern of the processing region 60 is not used for the image search.
  • the case where the user has not deformed the sleeve portion is a case where the user wants to search for clothes having a sleeve portion having the same or similar shape as the sleeve portion shown in the original image 32. For this reason, the feature information regarding the shape of the processing region 60 is used for image retrieval.
  • FIG. 10F circles are added to the “color-deletion” column, the “pattern-deletion” column, and the “deformation” column in the “processing contents for the processing region” column.
  • a circle is added to the “shape” column in the “feature information of processing area used for image search” column, and the “color” and “pattern” columns are blank. Yes. This indicates that the feature information regarding the shape of the processing region 60 is used for image search, and the feature information regarding the color and pattern of the processing region 60 is not used for image search.
  • the case where the user deletes the color and pattern of the sleeve portion and the sleeve portion is deformed is when the user does not specify the color and pattern of the sleeve portion and the shape of the sleeve portion is specified. Is the case. For this reason, the feature information regarding the color and the pattern of the processing region 60 is not used for the image search, while the feature information regarding the shape of the processing region 60 is used for the image search.
  • a circle is added to the “color-change” column in the “processing content for the processing area” column.
  • circles are added to the “color” column, the “pattern” column, and the “shape” column in the “feature area feature information used for image search” column.
  • the case where the user changes the sleeve color is when the user positively specifies the sleeve color. For this reason, the feature information regarding the color of the processing region 60 is used for image retrieval.
  • the user when the user does not delete or change the pattern of the sleeve portion, the user wants to search for clothes having a sleeve portion with the same or similar pattern as the sleeve portion copied in the original image 32. This is the case. For this reason, the characteristic information regarding the pattern of the processing region 60 is also used for the image search.
  • the case where the user has not deformed the sleeve portion is a case where the user wants to search for clothes having a sleeve portion having the same or similar shape as the sleeve portion shown in the original image 32. .
  • feature information related to the shape of the processing region 60 is also used for image retrieval.
  • a circle is added to the “pattern-change” column in the “processing content for the processing area” column.
  • This shows a case where “change of pattern” is designated as the processing content for the processing area 60.
  • the “feature area feature information used for image search” column the “color” column, the “pattern” column, and the “shape” column are circled.
  • the pattern of the sleeve portion is changed as shown in FIG. 5, all of the feature information (1) to (3) related to the processing region 60 is used for the image search.
  • the case where the user changes the pattern of the sleeve portion is a case where the user positively specifies the pattern of the sleeve portion.
  • the feature information regarding the pattern of the processing area 60 is used for image search.
  • the user wants to search for clothes having a sleeve portion having the same or similar color as the sleeve portion copied in the original image 32. This is the case.
  • feature information relating to the color of the processing region 60 is also used for image retrieval.
  • the case where the user has not deformed the sleeve portion is a case where the user wants to search for clothes having a sleeve portion having the same or similar shape as the sleeve portion shown in the original image 32. .
  • feature information related to the shape of the processing region 60 is also used for image retrieval.
  • a “deformation” column is marked with a circle in the “processing content for the processing region” column. This shows a case where “deformation” is designated as the machining content for the machining area 60.
  • the “color” column, the “pattern” column, and the “shape” column are marked with circles.
  • the sleeve portion is deformed as shown in FIG. 6, for example, all of the feature information (1) to (3) related to the processing region 60 is used for the image search.
  • the case where the user deforms the sleeve portion is a case where the user positively specifies the shape of the sleeve portion.
  • the feature information regarding the shape of the processing region 60 is used for image retrieval.
  • the case where the user has not deleted or changed the color and pattern of the sleeve portion means that the user has clothes having a sleeve portion having the same or similar color and pattern as the sleeve portion copied in the original image 32. This is when the user wants to search. For this reason, feature information regarding the color and pattern of the processing region 60 is also used for image retrieval.
  • the search unit 56 searches for the same or similar image as the processed image 36 based on the search condition set by the search condition setting unit 54. Details will be described later (see FIG. 12).
  • the output control unit 58 outputs the search result of the search unit 56 to the output unit.
  • the output control unit 58 causes the display unit 25 to display the search result screen 40.
  • the output control unit 58 determines the similarity between the image searched by the search unit 56 and the original image 32 (that is, the original image that has not been processed). Based on the above, the output order of the images searched by the search unit 56 is set. Then, the output control unit 58 causes the output unit to output the images searched by the search unit 56 according to the output order.
  • the output control unit 58 sets the output order of images having a low similarity to the original image 32 higher than the output order of images having a high similarity to the original image 32.
  • the first image and the second image are included in the image searched by the search unit 56, and the similarity between the original image 32 and the first image is determined between the original image 32 and the second image.
  • the output control unit 58 sets the output order of the first image higher than the output order of the second image. In other words, the output control unit 58 lowers the output order of the second image from the output order of the first image.
  • FIG. 11 is a flowchart illustrating an example of processing executed when processing on the original image 32 is completed on the processing screen 30 and a search instruction operation is performed by the user.
  • the control unit 21 of the user terminal 20 executes the process shown in FIG. 11 according to the program
  • the control unit 11 functions as the search condition setting unit 54.
  • the control unit 11 of the server 10 executes the process shown in FIG. 11 according to the program
  • the control unit 11 functions as the search unit 56 and the output control unit 58.
  • the control unit 21 of the user terminal 20 changes the processing content performed on the processing screen 30 as shown in FIG. Based on the processed image 36, the processed region 60 and the non-processed region 62 are specified (S201).
  • control unit 21 acquires feature information related to the non-processed area 62 of the processed image 36 (S202). For example, the control unit 21 acquires feature information related to the color, pattern, and shape of the non-processed area 62.
  • control unit 21 acquires feature information related to the processing area 60 of the processed image 36 (S203). For example, the control unit 21 determines at least one of the feature information related to the color, pattern, and shape of the processing region 60 based on the processing content applied to the processing region 60 and the correspondence relationship illustrated in FIG. Get one.
  • control unit 21 requests the server 10 to execute an image search (S204). For example, the control unit 21 transmits information as shown below to the server 10. Identification information of the original image 32 Information indicating the processing area 60 and the non-processing area 62 Feature information regarding the processing area 60 Feature information regarding the non-processing area 62
  • control unit 11 of the server 10 executes an image search based on the information received from the user terminal 20 (S205).
  • each image stored in the database 16 is set as a comparison target with the processed image 36, and for example, a process as shown in FIG. 12 is executed.
  • the background portion (portion other than clothing) of the comparison target image is removed.
  • an image from which the background portion has been removed in advance is stored in the database 16.
  • the control unit 11 acquires feature information of the non-processed area 62 of the image (comparison target image) set as the comparison target with the processed image 36 (S301).
  • the “non-processed region 62 of the comparison target image” means a region of the comparison target image corresponding to the non-processed region 62 of the processed image 36.
  • the control unit 11 calculates the similarity (first similarity) between the feature information of the non-processed region 62 of the processed image 36 and the feature information of the non-processed region 62 of the comparison target image (S302). That is, the control unit 11 compares the feature information regarding the color, pattern, and shape of the non-processed region 62 of the processed image 36 with the feature information about the color, pattern, and shape of the non-processed region 62 of the comparison target image. To calculate the above similarity.
  • control part 11 determines whether the similarity calculated by step S302 is more than a threshold value (1st reference
  • a threshold value (1st reference
  • the control unit 11 acquires feature information of the processed region 60 of the comparison target image (S304).
  • the processed region 60 of the comparison target image means a region of the comparison target image corresponding to the processed region 60 of the processed image 36.
  • control unit 11 calculates the similarity (second similarity) between the feature information of the processed region 60 of the processed image 36 and the feature information of the processed region 60 of the comparison target image (S305).
  • the processed image 36 is an image obtained by performing “color deletion” processing on the processed region 60 of the original image 32, as shown in FIG.
  • the feature information about the pattern and shape of the processed region 60 is used, and the feature information about the color of the processed region 60 of the processed image 36 is not used. Therefore, the similarity is calculated by comparing the feature information regarding the pattern and shape of the processed region 60 of the processed image 36 with the feature information regarding the pattern and shape of the processed region 60 of the comparison target image.
  • the processed image 36 is an image obtained by performing the processing of “deletion of pattern” on the processed area 60 of the original image 32, as shown in FIG.
  • Feature information regarding the color and shape of the 36 processed regions 60 is used, and feature information regarding the pattern of the processed region 60 of the processed image 36 is not used. Therefore, the similarity is calculated by comparing the feature information related to the color and shape of the processed region 60 of the processed image 36 with the feature information related to the color and shape of the processed region 60 of the comparison target image.
  • the processing image 36 is an image obtained by performing the processing of “color deletion” and “pattern deletion” on the processing area 60 of the original image 32
  • the processing image 36 is shown in FIG.
  • the similarity is calculated by comparing the feature information related to the shape of the processed region 60 of the processed image 36 with the feature information related to the shape of the processed region 60 of the comparison target image.
  • the processed image 36 is an image obtained by performing only the “pattern change” processing on the processing area 60 of the original image 32, as shown in FIG. Characteristic information regarding the color, pattern, and shape of the processing region 60 of the image 36 is used. For this reason, the similarity is obtained by comparing the feature information on the color, pattern, and shape of the processed region 60 of the processed image 36 with the feature information on the color, pattern, and shape of the processed region 60 of the comparison target image. Calculated.
  • the processed image 36 is an image obtained by performing “deformation” processing on the processed region 60 of the original image 32, as shown in FIG.
  • Feature information regarding the color, pattern, and shape of the processing region 60 is used.
  • the similarity is obtained by comparing the feature information on the color, pattern, and shape of the processed region 60 of the processed image 36 with the feature information on the color, pattern, and shape of the processed region 60 of the comparison target image. Calculated.
  • step S305 determines whether or not the similarity calculated in step S305 is greater than or equal to a threshold (second reference similarity) (S306).
  • a threshold second reference similarity
  • step S306 is set lower than the threshold value (first reference similarity) in step S303. That is, for the machining area 60, a search that is looser than the non-machining area 62 is executed. In other words, a relatively loose search is performed on the part that the user has intentionally processed, and as many search results as possible can be presented to the user.
  • step S305 determines that the comparison target image and the processed image 36 are not similar.
  • the control unit 11 determines that the comparison target image and the processed image 36 are similar (S307). Further, in this case, the control unit 11 acquires the degree of similarity between the comparison target image and the original image 32 (that is, the original image that has not been processed) (S308). For example, the control unit 11 calculates the similarity by comparing the feature information of the comparison target image with the feature information of the original image 32. The similarity calculated in step S308 is used to determine the output order when the comparison target image is displayed on the search result screen 40.
  • the control unit 11 transmits the search result to the user terminal 20 (S206). That is, the control unit 11 transmits the data indicating the list of the images searched in step S205 (that is, the images determined to be similar to the processed image 36 in step S307) to the user terminal 20, whereby the search result screen is displayed. It is displayed on the display unit 25 of the user terminal 20.
  • the control unit 11 sets the output order of the images searched in step S205 based on the similarity acquired in step S308. That is, the lower the similarity obtained in step S308, the higher the output order is set.
  • the control unit 21 of the user terminal 20 displays a search result screen on the display unit 25 (S207). This is the end of the description of the processing illustrated in FIG.
  • the image search system 1 it is possible to search for an image in which a specific part of the original image 32 is different. For example, it becomes possible to search for a clothing image in which at least one of the color, pattern, and shape of the sleeve portion of the clothing image (original image 32) is different.
  • the original image 32 is not the image that the user wants to find.
  • images that are not required by the user are not displayed on the search result screen 40.
  • the original image 32 is obtained.
  • the feature information of the non-processed area 62 may be acquired.
  • the accepting unit 52 may determine that “Delete Sleeve Color” has been specified. .
  • the reception unit 52 determines that “deletion of the pattern of the sleeve portion” is specified. May be.
  • the search condition setting unit 54 processes the processed region 60 among the plurality of types of feature information regarding the non-processed region 62 of the original image 32 and the plurality of types of feature information regarding the processed region 60 of the original image 32.
  • a search condition for searching for an image similar to the original image 32 may be set based on at least one feature information selected based on the content.
  • the search condition setting unit 54 includes the feature information regarding the color, pattern, and shape of the non-processed area 62 of the original image 32 and the original image 32.
  • a search condition for searching for an image similar to the original image 32 may be set on the basis of the pattern and shape feature information of the processing region 60.
  • step S202 of FIG. 11 the control unit 21 acquires feature information regarding the non-processed area 62 of the original image 32.
  • the control unit 21 acquires feature information regarding the color, pattern, and shape of the non-processed region 62 of the original image 32.
  • step S ⁇ b> 203 the control unit 21 acquires feature information regarding the processing area 60 of the original image 32.
  • the control unit 21 performs feature information regarding the color, pattern, and shape of the processing region 60 of the original image 32 based on the processing content specified as the processing content for the processing region 60 and the correspondence shown in FIG. Get at least one of them. For example, if “color deletion” is designated as the processing content for the sleeve portion ((A) in FIG. 10), the control unit 21 displays feature information regarding the pattern and shape of the processing region 60 of the original image 32. get.
  • step S302 of FIG. 12 the control unit 11 calculates the similarity (first similarity) between the feature information of the non-processed area 62 of the original image 32 and the feature information of the non-processed area 62 of the comparison target image. To do.
  • step S305 the control unit 11 calculates the similarity (second similarity) between the feature information of the processed region 60 of the original image 32 and the feature information of the processed region 60 of the comparison target image. For example, if “color deletion” is designated as the processing content for the sleeve portion ((A) in FIG. 10), the control unit 11 includes feature information regarding the pattern and shape of the processing region 60 of the original image 32. The degree of similarity with the feature information related to the pattern and shape of the processing region 60 of the comparison target image is calculated.
  • step S203 the control unit 21 determines the color and the color of the processing area 60 of the original image 32. You may make it acquire the characteristic information regarding a shape.
  • step S305 the control unit 11 calculates the similarity between the feature information related to the color and shape of the processed region 60 of the original image 32 and the feature information related to the color and shape of the processed region 60 of the comparison target image. May be. Even in this case, for example, there is a body part having the same or similar color, pattern, and shape as the body part (parts other than the sleeve) of the clothes image (original image 32), and the clothes image (original image 32). It is possible to search for a clothing image having a sleeve portion having the same or similar color and shape as the sleeve portion.
  • the control unit 21 processes the original image 32 in step S203. Only feature information related to the shape of the region 60 may be acquired.
  • the control unit 11 may calculate the similarity between the feature information related to the shape of the processed region 60 of the original image 32 and the feature information related to the shape of the processed region 60 of the comparison target image. Even in this case, for example, there is a body part having the same or similar color, pattern, and shape as the body part (parts other than the sleeve) of the clothes image (original image 32), and the clothes image (original image 32). It is possible to search for a clothing image having a sleeve portion having the same or similar shape as the sleeve portion.
  • the feature information of the non-processed area 62 of the original image 32 is acquired in the modification [4] described above. Instead, the feature information of the non-processed area 62 of the processed image 36 may be acquired.
  • the search unit 56 and the output control unit 58 may be realized in the user terminal 20. That is, the user terminal 20 may directly access the database 16.
  • the search condition setting unit 54 may be realized in the server 10.
  • an image stored in the database 16 may be divided into fine blocks, and feature information calculated in advance for each block may be stored in the database 16. Then, in steps S301 and S304 of FIG. 12, the feature information of the comparison target image may be acquired based on the feature information for each block stored in the database 16. By doing so, the processing load may be reduced.
  • 1 image search system 2 communication network, 10 server, 11, 21 control unit, 12, 22 main storage unit, 13, 23 auxiliary storage unit, 14, 24 communication unit, 15 optical disc drive unit, 20 user terminal, 25 display unit , 26 audio output unit, 27 operation unit, 30 processed screen, 32 original image, 34 menu, 36 processed image, 40 search result screen, 42A, 42B, 42C, 42D, 42E, 42F, 42G, 42H image, 50 original image Acquisition unit, 52 reception unit, 54 search condition setting unit, 56 search unit, 58 output control unit, 60 machining area, 62 non-machining area.

Abstract

 原画像の特定部分が異なるような画像を検索できるようになる画像検索システムを提供すること。 原画像取得部50は原画像を取得する。受付部52は、原画像のうち加工の対象となる一部領域の指定と、当該一部領域に対する加工内容と、を受け付ける。検索部56は、加工内容の加工が原画像の上記一部領域に施されてなる加工画像又は原画像の上記一部領域以外の領域に関する複数種類の特徴情報と、加工画像又は原画像の上記一部領域に関する複数種類の特徴情報のうちの、上記加工内容に基づいて選択される少なくとも一つの特徴情報と、に基づいて、加工画像と同一又は類似の画像を検索する。出力制御部58は検索部56の検索結果を出力部に出力させる。

Description

画像検索システム、画像検索方法、画像検索装置、プログラム、及び情報記憶媒体
 本発明は画像検索システム、画像検索方法、画像検索装置、プログラム、及び情報記憶媒体に関する。
 原画像に類似する画像を検索するための画像検索システムが知られている(例えば特許文献1)。例えば、衣服画像に類似する衣服画像を検索するための画像検索システムが知られている。
特開2011-138420号公報
 従来の画像検索システムでは、原画像の特定部分が異なるような画像を検索することが困難であった。例えば、衣服画像(原画像)に基づいて画像検索を行うような場合、袖部分の柄(模様)のみが異なるような衣服画像を検索することは困難であった。
 本発明は上記課題に鑑みてなされたものであって、その目的は、原画像の特定部分が異なるような画像を検索できるようになる画像検索システム、画像検索方法、画像検索装置、プログラム、及び情報記憶媒体を提供することにある。
 上記課題を解決するために、本発明に係る画像検索システムは、原画像を取得する原画像取得手段と、前記原画像のうちの加工の対象となる一部領域の指定と、当該一部領域に対する加工内容と、を受け付ける受付手段と、前記加工内容の加工が前記原画像の前記一部領域に施されてなる加工画像、又は、前記原画像、の前記一部領域以外の領域に関する複数種類の特徴情報と、前記加工画像又は前記原画像の前記一部領域に関する前記複数種類の特徴情報のうちの、前記加工内容に基づいて選択される少なくとも一つの特徴情報と、に基づいて、画像検索を実行する検索手段と、前記検索手段の検索結果を出力手段に出力させる出力制御手段と、を含むことを特徴とする。
 また、本発明に係る画像検索方法は、原画像を取得する原画像取得ステップと、前記原画像のうちの加工の対象となる一部領域の指定と、当該一部領域に対する加工内容と、を受け付ける受付ステップと、前記加工内容の加工が前記原画像の前記一部領域に施されてなる加工画像、又は、前記原画像、の前記一部領域以外の領域に関する複数種類の特徴情報と、前記加工画像の前記一部領域に関する前記複数種類の特徴情報のうちの、前記加工内容に基づいて選択される少なくとも一つの特徴情報と、に基づいて、画像検索を実行する検索ステップと、前記検索ステップの検索結果を出力手段に出力させる出力制御ステップと、を含むことを特徴とする。
 また、本発明に係る画像検索装置は、原画像の一部領域に対する加工内容を取得する手段と、前記加工内容の加工が前記原画像の前記一部領域に施されてなる加工画像、又は、前記原画像、の前記一部領域以外の領域に関する複数種類の特徴情報と、前記加工画像又は前記原画像の前記一部領域に関する前記複数種類の特徴情報のうちの、前記加工内容に基づいて選択される少なくとも一つの特徴情報と、に基づいて、画像検索のための検索条件を設定する検索条件設定手段と、を含むことを特徴とする。
 また、本発明に係るプログラムは、原画像の一部領域に対する加工内容を取得する手段、及び、前記加工内容の加工が前記原画像の前記一部領域に施されてなる加工画像の前記一部領域以外の領域に関する複数種類の特徴情報と、前記加工画像の前記一部領域に関する前記複数種類の特徴情報のうちの、前記加工内容に基づいて選択される少なくとも一つの特徴情報と、に基づいて、画像検索のための検索条件を設定する検索条件設定手段、としてコンピュータを機能させるためのプログラムである。
 また、本発明に係る情報記憶媒体は、原画像の一部領域に対する加工内容を取得する手段、及び、前記加工内容の加工が前記原画像の前記一部領域に施されてなる加工画像の前記一部領域以外の領域に関する複数種類の特徴情報と、前記加工画像の前記一部領域に関する前記複数種類の特徴情報のうちの、前記加工内容に基づいて選択される少なくとも一つの特徴情報と、に基づいて、画像検索のための検索条件を設定する検索条件設定手段、としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。
 また、本発明の一態様では、前記出力制御手段は、前記検索手段の検索結果に前記原画像が含まれる場合において、前記原画像を前記検索手段の検索結果として前記出力手段に出力させないようにしてもよい。
 また、本発明の一態様では、前記出力制御手段は、前記検索手段によって検索された画像と、前記原画像と、の類似度に基づいて、前記検索手段によって検索された画像の出力順序を設定する出力順序設定手段と、前記検索手段によって検索された画像を前記出力順序に従って出力手段に出力させる手段と、を含み、前記出力順序設定手段は、前記原画像との類似度が低い画像の出力順序を、前記原画像との類似度が高い画像の出力順序よりも高く設定するようにしてもよい。
 また、本発明の一態様では、前記検索手段は、対象画像が前記加工画像と同一又は類似の画像であるか否かを判定する判定手段を含み、前記加工画像と同一又は類似の画像を検索し、前記判定手段は、前記加工画像又は前記原画像の前記一部領域以外の前記領域に関する前記複数種類の特徴情報と、前記加工画像の前記一部領域以外の前記領域に対応する、前記対象画像の領域に関する前記複数種類の特徴情報と、の間の類似の程度を示す第1類似度が第1基準類似度以上であるか否かを判定する手段と、前記加工画像の前記一部領域に関する前記少なくとも一つの特徴情報と、前記加工画像の前記一部領域に対応する、前記対象画像の領域に関する前記少なくとも一つの特徴情報と、の間の類似の程度を示す第2類似度が、前記第1基準類似度よりも低い第2基準類似度以上であるか否かを判定する手段と、を含み、前記第1類似度が前記第1基準類似度以上であると判定され、かつ、前記第2類似度が前記第2基準類似度以上であると判定された場合に、前記対象画像が前記加工画像と同一又は類似の画像であると判定するようにしてもよい。
 また、本発明の一態様では、前記検索手段は、対象画像が前記原画像と類似の画像であるか否かを判定する判定手段を含み、前記原画像と類似の画像を検索し、前記判定手段は、前記原画像の前記一部領域以外の前記領域に関する前記複数種類の特徴情報と、前記原画像の前記一部領域以外の前記領域に対応する、前記対象画像の領域に関する前記複数種類の特徴情報と、の間の類似の程度を示す第1類似度が第1基準類似度以上であるか否かを判定する手段と、前記原画像の前記一部領域に関する前記少なくとも一つの特徴情報と、前記原画像の前記一部領域に対応する、前記対象画像の領域に関する前記少なくとも一つの特徴情報と、の間の類似の程度を示す第2類似度が、前記第1基準類似度よりも低い第2基準類似度以上であるか否かを判定する手段と、を含み、前記第1類似度が前記第1基準類似度以上であると判定され、かつ、前記第2類似度が前記第2基準類似度以上であると判定された場合に、前記対象画像が前記原画像と類似の画像であると判定するようにしてもよい。
 本発明によれば、原画像の特定部分が異なるような画像を検索できるようになる。
本発明の実施形態に係る画像検索システムの全体構成の一例を示す図である。 画像検索を行う場合の画面遷移の一例を示す図である。 加工画面の一例を示す図である。 原画像に対する加工の一例について説明するための図である。 原画像に対する加工の他の一例について説明するための図である。 原画像に対する加工の他の一例について説明するための図である。 検索結果画面の一例を示す図である。 画像検索システムの機能ブロック図である。 加工領域及び非加工領域について説明するための図である。 加工領域に対する加工内容と、画像検索に用いる加工領域の特徴情報と、の対応関係の一例を示す図である。 画像検索システムで実行される処理の一例を示すフロー図である。 画像検索システムで実行される処理の一例を示すフロー図である。
 以下、本発明の実施形態の例について図面に基づき詳細に説明する。
 図1は、本発明の実施形態に係る画像検索システム1の全体構成の一例を示す。図1に示すように、本実施形態に係る画像検索システム1はサーバ10、データベース16、及びユーザ端末20を含む。サーバ10及びユーザ端末20は、例えばインターネット等を含んで構成される通信ネットワーク2に接続されており、サーバ10とユーザ端末20との間で相互にデータ通信が可能である。
 サーバ10は制御部11、主記憶部12、補助記憶部13、通信部14、及び光ディスクドライブ部15を含む。制御部11は例えば1又は複数のCPUを含み、補助記憶部13に記憶されたオペレーションシステム又はプログラムに従って情報処理を実行する。主記憶部12は例えばRAMであり、補助記憶部13は例えばハードディスク又はソリッドステートドライブである。通信部14は通信ネットワーク2を介してデータ通信を行うためのものである。光ディスクドライブ部15は、光ディスク(情報記憶媒体)に記録されたプログラムやデータを読み出すためのものである。
 例えば、プログラムやデータは光ディスク(情報記憶媒体)を介して補助記憶部13に供給される。すなわち、光ディスクに記憶されたプログラムやデータが光ディスクドライブ部15によって読み出され、補助記憶部13に記憶される。なお、サーバ10は、光ディスク以外の情報記憶媒体(例えばメモリカード)に記憶されたプログラム又はデータを読み出すための構成要素を含むようにしてもよい。そして、光ディスク以外の情報記憶媒体(例えばメモリカード)を介してプログラムやデータが補助記憶部13に供給されるようにしてもよい。また、プログラム及びデータは通信ネットワーク2を介して補助記憶部13に供給されるようにしてもよい。
 サーバ10はデータベース16にアクセスできるようになっている。データベース16には画像検索の対象となる多数の画像が記憶されている。なお、データベース16はサーバ10内に構築されるようにしてもよいし、サーバ10とは別のサーバ内に構築されるようにしてもよい。
 ユーザ端末20はユーザによって使用される情報処理装置である。ユーザ端末20は制御部21、主記憶部22、補助記憶部23、通信部24、表示部25、音声出力部26、及び操作部27を含む。制御部21、主記憶部22、補助記憶部23、及び通信部24はサーバ10の制御部11、主記憶部12、補助記憶部13、及び通信部14と同様である。
 例えば、プログラム及びデータは通信ネットワーク2を介して補助記憶部23に供給される。なお、ユーザ端末20は光ディスクドライブ部を備えるようにしてもよい。そして、プログラムやデータが光ディスク(情報記憶媒体)を介して補助記憶部23に供給されるようにしてもよい。また、ユーザ端末20は、光ディスク以外の情報記憶媒体(例えばメモリカード)に記憶されたプログラム又はデータを読み出すための構成要素を含むようにしてもよい。そして、光ディスク以外の情報記憶媒体(例えばメモリカード)を介してプログラムやデータが補助記憶部23に供給されるようにしてもよい。
 表示部25は例えば液晶ディスプレイ又は有機ELディスプレイ等であり、各種画面を表示する。音声出力部26は例えばスピーカ又はヘッドホン端子等であり、各種音声を出力する。
 操作部27はユーザが操作を行うためのものである。例えば、表示部25に表示される画面内の位置をユーザが指示するためのポインティングデバイスが操作部27として備えられる。例えば、表示部25の上に重ねて設けられるタッチパネルがユーザ端末20に備えられる。なお、タッチパネルの代わりに、例えばマウス又はスティック等がユーザ端末20に備えられるようにしてもよい。
 本実施形態に係る画像検索システム1は、原画像の特定部分が異なるような画像を検索できるようになっている。以下、この画像検索機能について説明する。なお以下では、衣服画像の特定部分が異なるような画像を検索する場合を例として説明する。
 図2は、画像検索を行う場合にユーザ端末20の表示部25に表示される画面の遷移の一例を説明するための図である。
 画像検索を行う場合、図2に示すように、まず原画像選択画面が表示部25に表示される(S101)。原画像選択画面は、画像検索に用いる原画像をデータベース16に記憶される画像のうちから選択するための画面である。
 原画像選択画面において原画像が選択されると、加工画面が表示部25に表示される(S102)。加工画面は原画像を加工するための画面である。
 図3は加工画面の一例を示す。加工画面30には、原画像選択画面において選択された原画像32が表示される。図3に示す加工画面30には長袖カットソーの画像が原画像32として表示されている。なお、図3は初期状態の加工画面30を示している。初期状態の加工画面30には、加工されていない状態の原画像32が表示される。なお、本実施形態の場合、原画像32の背景部分(衣服以外の部分)は除去されている。背景部分の除去は、原画像32が加工画面30に表示される際に実行されるようにしてもよいし、あらかじめ背景部分が除去された画像がデータベース16に保存されていてもよい。
 また、加工画面30には、加工内容を指定するためのメニュー34(プルダウンメニュー)が表示されている。なお、メニュー34の代わりに、加工内容を指定するためのラジオボタン(オプションボタン)等が表示されるようにしてもよい。
 ユーザは、原画像32に対する加工内容をメニュー34において指定した後、その加工内容に対応する加工操作を行う。例えば、メニュー34では下記のような加工内容を指定できるようになっている。
(1)色の削除(色抜き)
(2)色の変更
(3)柄の削除
(4)柄の変更
(5)変形
 以下、上記の加工内容について説明する。図4~図6は、原画像32に対して加工が施された場合の加工画面30の例について示している。図4~図6に示す加工画面30には、原画像32に対して加工が施されてなる画像(以下「加工画像」と呼ぶ。)36が表示されている。
 「色の削除」について説明する。図4は、原画像32のうちの袖部分の色が削除された場合について示している。袖部分の色を削除する場合、まず、ユーザはメニュー34において「色の削除」を選択する。その後、ユーザは袖部分の画素(すなわち、色を削除したい画素)を指し示すことによって、袖部分の色を削除する。例えば、袖以外の部分を重視し、袖部分の色を重視しないような場合にユーザは図4に示すような加工を行う。
 「色の変更」について説明する。例えば、原画像32のうちの袖部分の色を変更する場合、まず、ユーザはメニュー34において「色の変更」を選択する。「色の変更」が選択されると、所望の色を選択するためのメニューが表示されるため、ユーザは所望の色を指定する。その後、ユーザは袖部分の画素(すなわち、色を変更したい画素)を指し示すことによって、袖部分の色を上記の所望の色に変更する。例えば、原画像32に写されている長袖カットソーの袖部分の色を所望の色に変えたような長袖カットソーの画像を検索したい場合にユーザは上記のような加工を行う。
 「柄の削除」について説明する。例えば、原画像32のうちの袖部分の柄を削除する場合、まず、ユーザはメニュー34において「柄の削除」を選択する。その後、ユーザは袖部分の画素(すなわち、柄を削除したい画素)を指し示すことによって、袖部分の柄を削除する。例えば、袖以外の部分を重視し、袖部分の柄を重視しないような場合にユーザは上記のような加工を行う。
 「柄の変更」について説明する。図5は、原画像32のうちの袖部分の柄が変更された場合について示している。袖部分の柄を変更する場合、まず、ユーザはメニュー34において「柄の変更」を選択する。「柄の変更」が選択されると、柄を変更するためのメニューが表示され、ユーザは袖部分の柄を所望の柄に変更する。例えば、原画像32に写されている長袖カットソーの袖部分の柄を所望の柄に変えたような長袖カットソーの画像を検索したい場合にユーザは図5に示すような加工を行う。
 「変形」について説明する。図6は、原画像32のうちの袖部分を変形した場合について示している。図6に示す加工画面30では、袖部分が上方向に縮ませるようにして変形されている。袖部分を変形する場合、まず、ユーザはメニュー34において「変形」を選択する。その後、ユーザは袖部分(すなわち、変形したい部分)を囲むような領域を指定し、該領域を例えば上方向に縮ませるようにして該領域を変形させることによって、袖部分を変形させる。例えば、原画像32に写されている長袖カットソーと同様の色及び柄を有するような半袖カットソーを検索したい場合にユーザは図6に示すような加工を行う。
 なお、加工画面30では、以上に説明した加工内容のいずれか一つしか行えないわけではなく、以上に説明した加工内容のうちの複数を行うことが可能である。例えば、「変形」を行った後に「色の削除」を行うことも可能である。
 加工画面30においてユーザが加工を完了し、検索指示操作を行うと、加工画像36と類似する画像が検索される。そして、検索結果画面が表示部25に表示される(S103)。
 図7は検索結果画面の一例を示す。なお、図7は、原画像32の袖部分の色が削除されてなる加工画像36(図4参照)に基づいて画像検索が実行された場合の検索結果画面40を示している。
 図7に示す検索結果画面40は、加工画像36と類似する画像として8個の画像42A,42B,42C,42D,42E,42F,42G,42Hが見つかったことを示している。なお、図7では画像42D,42E,42F,42Gを省略している。
 検索結果画面40では、検索結果として得られた画像42A~42Hが出力順序に従って表示される。検索結果画面40では出力順序の高い画像から順に表示されるようになっている。このため、画像42Aは出力順序が最も高い画像であり、画像42Hは出力順序が最も低い画像である。なお、画像42Hは原画像32(すなわち、加工が施される前の画像)である。すなわち、原画像32の出力順序が最も低く設定されている。
 画像検索システム1では、原画像32(すなわち、加工が施される前の画像)との類似度が低い画像ほど、出力順序が高くなるようにして、画像42A~42Hの出力順序が設定されるようになっている。ユーザが原画像32をあえて加工して画像検索を行った場合、原画像32はユーザが見つけたいと思っている画像ではなく、また、原画像32との類似度が高い画像もユーザが見つけたいと思っている画像ではない可能性が高い。この点、画像検索システム1では以上のようにして出力順序が設定されていることによって、原画像32自体や、原画像32との類似度が高い画像が優先的に表示されないようになっている。
 検索結果画面40に表示される画像42A~42Hのうちのいずれかをユーザが選択すると、その画像に写されている商品(衣服)の詳細情報を示す商品画面が表示される(S104)。例えば商品画面では商品を購入することができるようになっている。
 ここで、以上に説明したような画像検索機能を実現するための構成について説明する。図8は、画像検索システム1において実現される機能を示す機能ブロック図である。図8に示すように、画像検索システム1は、原画像取得部50、受付部52、検索条件設定部54、検索部56、及び出力制御部58を含む。
 例えば、これらの機能ブロックはサーバ10又はユーザ端末20において実現される。例えば、原画像取得部50、受付部52、及び検索条件設定部54はユーザ端末20において実現され、検索部56及び出力制御部58はサーバ10において実現される。すなわち、ユーザ端末20の制御部21がプログラムに従って処理を実行することによって、制御部21が原画像取得部50、受付部52、及び検索条件設定部54として機能するようになる。また、サーバ10の制御部11がプログラムに従って処理を実行することによって、制御部11が検索部56及び出力制御部58として機能するようになる。
 原画像取得部50は、画像検索に用いるための原画像32を取得する。本実施形態の場合、原画像取得部50は、原画像選択画面においてユーザによって選択された原画像32を取得する。
 受付部52は、原画像32のうちの加工の対象となる一部領域の指定と、当該一部領域に対する加工内容と、を受け付ける。本実施形態の場合、受付部52は加工画面30を表示部25に表示することによって、原画像32の一部領域に対する加工を受け付ける。すなわち、受付部52は、原画像32の一部領域に対する加工を受け付けることによって、原画像32のうちの加工の対象となる一部領域の指定と、当該一部領域に対する加工内容と、を受け付ける。
 なお、加工画面30では、ユーザに原画像32を実際に加工させることによって、加工の対象となる一部領域の指定と、当該一部領域に対する加工内容と、を受け付けるようになっていたが、受付部52は、ユーザに原画像32を実際に加工させることなく、加工の対象となる一部領域の指定と、当該一部領域に対する加工内容と、を受け付けるようにしてもよい。
 検索条件設定部54は、ユーザによって指定された加工内容の加工が原画像32の一部領域に施されてなる加工画像36の非加工領域に関する複数種類の特徴情報と、加工画像36の加工領域に関する複数種類の特徴情報のうちの、加工領域に施された加工内容に基づいて選択される少なくとも一つの特徴情報と、に基づいて、加工画像36と同一又は類似の画像を検索するための検索条件を設定する。
 ここで、「加工領域」とは、加工の対象として指定された部分(すなわち、加工が施された部分)を含む領域である。また、「非加工領域」とは加工領域以外の領域である。図9は加工領域及び非加工領域について説明するための図である。図9は、袖部分が加工の対象として指定された場合(すなわち、袖部分に対して加工が施された場合)の加工領域及び非加工領域について示している。図9に示すように、袖部分が加工の対象として指定された場合には、袖部分を含む矩形領域が加工領域60として設定される。また、加工領域60以外の領域が非加工領域62として設定される。
 検索条件設定部54は、加工画像36の非加工領域62に関する複数種類の特徴情報を取得する。ここで、「複数種類の特徴情報」とは、例えば下記のような特徴情報である。なお、これらの特徴情報を抽出する方法としては公知の方法を採用することができる。
(1)色に関する特徴情報(特徴値)
(2)柄に関する特徴情報(特徴値)
(3)形状に関する特徴情報(特徴値)
 また検索条件設定部54は、加工画像36の加工領域60に関する複数種類の特徴情報のうちの、加工領域60に施された加工内容に基づいて選択される少なくとも一つの特徴情報を取得する。
 この場合の「複数種類の特徴情報」も、例えば上記(1)~(3)のような特徴情報である。検索条件設定部54は、加工画像36の加工領域60に関する上記(1)~(3)の特徴情報のうちから、画像検索に用いる特徴情報を、加工領域60に対する加工内容に基づいて選択する。
 図10は、加工領域60に対する加工内容と、画像検索に用いる加工領域60の特徴情報と、の対応関係の一例を示している。
 なお、図10の「加工領域に対する加工内容」欄における丸印は、加工領域60に対する加工内容として指定された加工内容(すなわち、加工領域60に施された加工内容)を示している。また、図10の「画像検索に用いる加工領域の特徴情報」欄において、丸印は特徴情報が画像検索に用いられることを示しており、空欄は特徴情報が画像検索に用いられないことを示している。
 例えば、図10の(A)の場合、「加工領域に対する加工内容」欄において「色-削除」欄に丸印が付されている。これは、加工領域60に対する加工内容として「色の削除」が指定された場合を示している。また、図10の(A)の場合、「画像検索に用いる加工領域の特徴情報」欄において、「柄」欄及び「形状」欄に丸印が付されており、「色」欄は空欄になっている。これは、加工領域60の柄及び形状に関する特徴情報が画像検索に用いられ、加工領域60の色に関する特徴情報は画像検索に用いられないことを示している。
 その結果、例えば図4に示すように袖部分の色が削除された場合、加工領域60に関する上記(1)~(3)の特徴情報のうち、柄及び形状に関する特徴情報のみを画像検索に用い、色に関する特徴情報を画像検索に用いないようになっている。例えば、ユーザが袖部分の色を削除した場合とはユーザが袖部分の色を指定していない場合である。このため、加工領域60の色に関する特徴情報を画像検索に用いないようになっている。また、ユーザが袖部分の柄を削除したり、変更したりしなかった場合とは、原画像32に写されている袖部分と同一又は類似の柄の袖部分を有する衣服をユーザが検索したいと考えている場合である。同様に、ユーザが袖部分を変形しなかった場合とは、原画像32に写されている袖部分と同一又は類似の形状の袖部分を有する衣服をユーザが検索したいと考えている場合である。このため、加工領域60の柄及び形状に関する特徴情報を画像検索に用いるようになっている。
 また例えば、図10の(B)の場合、「加工領域に対する加工内容」欄において「色-削除」欄及び「形状」欄に丸印が付されている。このため、図10の(B)は、加工領域60に対する加工内容として「色の削除」及び「変形」が指定された場合を示している。また図10の(B)の場合、「画像検索に用いる加工領域の特徴情報」欄において、「柄」欄及び「形状」欄に丸印が付されており、「色」欄は空欄になっている。これは、加工領域60の柄及び形状に関する特徴情報が画像検索に用いられ、加工領域60の色に関する特徴情報は画像検索に用いられないことを示している。
 ユーザが袖部分の色を削除し、かつ、袖部分を変形した場合とは、ユーザが袖部分の色を指定していない場合であって、かつ、袖部分の形状を指定した場合である。このため、加工領域60の色に関する特徴情報を画像検索に用いないようになっており、一方、加工領域60の形状に関する特徴情報を画像検索に用いるようになっている。また、ユーザが袖部分の柄を削除したり、変更したりしなかった場合とは、原画像32に写されている袖部分と同一又は類似の柄の袖部分を有する衣服をユーザが検索したいと考えている場合である。このため、加工領域60の柄に関する特徴情報を画像検索に用いるようになっている。
 また例えば、図10の(C)の場合、「加工領域に対する加工内容」欄において「柄-削除」欄に丸印が付されている。これは、加工領域60に対する加工内容として「柄の削除」が指定された場合を示している。また図10の(C)の場合、「画像検索に用いる加工領域の特徴情報」欄において、「色」欄及び「形状」欄に丸印が付されており、「柄」欄は空欄になっている。これは、加工領域60の色及び形状に関する特徴情報が画像検索に用いられ、加工領域60の柄に関する特徴情報は画像検索に用いられないことを示している。
 ユーザが袖部分の柄を削除した場合とはユーザが袖部分の柄を指定していない場合である。このため、加工領域60の柄に関する特徴情報を画像検索に用いないようになっている。また、ユーザが袖部分の色を削除したり、変更したりしなかった場合とは、ユーザが原画像32に写されている袖部分と同一又は類似の色の袖部分を有する衣服を検索したいと考えている場合である。同様に、ユーザが袖部分を変形しなかった場合とは、ユーザが原画像32に写されている袖部分と同一又は類似の形状の袖部分を有する衣服を検索したいと考えている場合である。このため、加工領域60の色及び形状に関する特徴情報を画像検索に用いるようになっている。
 また例えば、図10の(D)の場合、「加工領域に対する加工内容」欄において「柄-削除」欄及び「変形」欄に丸印が付されている。これは、加工領域60に対する加工内容として「柄の削除」及び「変形」が指定された場合を示している。また図10の(D)の場合、「画像検索に用いる加工領域の特徴情報」欄において、「色」欄及び「形状」欄に丸印が付されており、「柄」欄は空欄になっている。これは、加工領域60の色及び形状に関する特徴情報が画像検索に用いられ、加工領域60の柄に関する特徴情報は画像検索に用いられないことを示している。
 ユーザが袖部分の柄を削除し、かつ、袖部分を変形した場合とは、ユーザが袖部分の柄を指定していない場合であって、かつ、袖部分の形状を指定した場合である。このため、加工領域60の柄に関する特徴情報を画像検索に用いないようになっており、一方、加工領域60の形状に関する特徴情報を画像検索に用いるようになっている。また、ユーザが袖部分の色を削除したり、変更したりしなかった場合とは、原画像32に写されている袖部分と同一又は類似の色の袖部分を有する衣服をユーザが検索したいと考えている場合である。このため、加工領域60の色に関する特徴情報を画像検索に用いるようになっている。
 また例えば、図10の(E)の場合、「加工領域に対する加工内容」欄において「色-削除」欄と「柄-削除」欄に丸印が付されている。これは、加工領域60に対する加工内容として「色の削除」及び「柄の削除」が指定された場合を示している。また図10の(E)の場合、「形状」欄のみに丸印が付されており、「色」及び「柄」欄は空欄になっている。これは、加工領域60の形状に関する特徴情報のみが画像検索に用いられ、加工領域60の色及び柄に関する特徴情報が画像検索に用いられないことを示している。
 ユーザが袖部分の色及び柄を削除した場合とは、ユーザが袖部分の色及び柄を指定していない場合である。このため、加工領域60の色及び柄に関する特徴情報を画像検索に用いないようになっている。また、ユーザが袖部分を変形しなかった場合とは、原画像32に写されている袖部分と同一又は類似の形状の袖部分を有する衣服をユーザが検索したいと考えている場合である。このため、加工領域60の形状に関する特徴情報を画像検索に用いるようになっている。
 また例えば、図10の(F)の場合、「加工領域に対する加工内容」欄において「色-削除」欄、「柄-削除」、及び「変形」欄に丸印が付されている。これは、加工領域60に対する加工内容として「色の削除」、「柄の削除」、及び「変形」が指定された場合を示している。また図10の(F)の場合、「画像検索に用いる加工領域の特徴情報」欄において、「形状」欄に丸印が付されており、「色」及び「柄」欄は空欄になっている。これは、加工領域60の形状に関する特徴情報が画像検索に用いられ、加工領域60の色及び柄に関する特徴情報が画像検索に用いられないことを示している。
 ユーザが袖部分の色及び柄を削除し、かつ、袖部分を変形した場合とは、ユーザが袖部分の色及び柄を指定していない場合であって、かつ、袖部分の形状を指定した場合である。このため、加工領域60の色及び柄に関する特徴情報を画像検索に用いないようになっており、一方、加工領域60の形状に関する特徴情報を画像検索に用いるようになっている。
 なお、図10に示す対応関係では、以上に説明した場合以外の場合((G)~(M))には、加工領域60の色、柄、及び形状に関する特徴情報が画像検索に用いられるようになっている。
 例えば、図10の(G)の場合、「加工領域に対する加工内容」欄において「色-変更」欄に丸印が付されている。これは、加工領域60に対する加工内容として「色の変更」が指定された場合を示している。また図10の(G)の場合、「画像検索に用いる加工領域の特徴情報」欄において、「色」欄、「柄」欄、及び「形状」欄に丸印が付されている。
 ユーザが袖部分の色を変更した場合とはユーザが袖部分の色を積極的に指定した場合である。このため、加工領域60の色に関する特徴情報を画像検索に用いるようになっている。また、ユーザが袖部分の柄を削除したり、変更したりしなかった場合とは、原画像32に写されている袖部分と同一又は類似の柄の袖部分を有する衣服をユーザが検索したいと考えている場合である。このため、加工領域60の柄に関する特徴情報も画像検索に用いるようになっている。同様に、ユーザが袖部分を変形しなかった場合とは、原画像32に写されている袖部分と同一又は類似の形状の袖部分を有する衣服をユーザが検索したいと考えている場合である。このため、加工領域60の形状に関する特徴情報も画像検索に用いるようになっている。
 また例えば、図10の(H)の場合、「加工領域に対する加工内容」欄において「柄-変更」欄に丸印が付されている。これは、加工領域60に対する加工内容として「柄の変更」が指定された場合を示している。また図10の(H)の場合、「画像検索に用いる加工領域の特徴情報」欄において、「色」欄、「柄」欄、及び「形状」欄に丸印が付されている。
 その結果、例えば図5に示すように袖部分の柄が変更された場合、加工領域60に関する上記(1)~(3)の特徴情報のすべてを画像検索に用いるようになっている。例えば、ユーザが袖部分の柄を変更した場合とはユーザが袖部分の柄を積極的に指定した場合である。このため、加工領域60の柄に関する特徴情報を画像検索に用いるようになっている。また、ユーザが袖部分の色を削除したり、変更したりしなかった場合とは、原画像32に写されている袖部分と同一又は類似の色の袖部分を有する衣服をユーザが検索したいと考えている場合である。このため、加工領域60の色に関する特徴情報も画像検索に用いるようになっている。同様に、ユーザが袖部分を変形しなかった場合とは、原画像32に写されている袖部分と同一又は類似の形状の袖部分を有する衣服をユーザが検索したいと考えている場合である。このため、加工領域60の形状に関する特徴情報も画像検索に用いるようになっている。
 さらに例えば、図10の(I)の場合、「加工領域に対する加工内容」欄において「変形」欄に丸印が付されている。これは、加工領域60に対する加工内容として「変形」が指定された場合を示している。また図10の(I)の場合、「画像検索に用いる加工領域の特徴情報」欄において、「色」欄、「柄」欄、及び「形状」欄に丸印が付されている。
 その結果、例えば図6に示すように袖部分を変形させた場合には、加工領域60に関する上記(1)~(3)の特徴情報のすべてを画像検索に用いるようになっている。例えば、ユーザが袖部分を変形した場合とはユーザが袖部分の形状を積極的に指定した場合である。このため、加工領域60の形状に関する特徴情報を画像検索に用いるようになっている。また、ユーザが袖部分の色及び柄を削除したり、変更したりしなかった場合とは、原画像32に写されている袖部分と同一又は類似の色及び柄の袖部分を有する衣服をユーザが検索したいと考えている場合である。このため、加工領域60の色及び柄に関する特徴情報も画像検索に用いるようになっている。
 なお、図10の(J)~(M)の場合も、図10の(G)~(I)と同様の理由により、加工領域60に関する上記(1)~(3)の特徴情報のすべてを画像検索に用いるようになっている。
 ところで、加工領域60に対する加工内容として「色の削除」が指定された場合、ユーザは色だけでなく柄も指定するつもりがないと考えることができる場合もある。このため、加工領域60に対する加工内容として「色の削除」が指定された場合(例えば図10の(A)及び(B))には、加工領域60の色に関する特徴情報だけでなく、加工領域60の柄に関する特徴情報も画像検索に用いないようにしてもよい。
 検索部56は、検索条件設定部54によって設定された検索条件に基づいて、加工画像36と同一又は類似の画像を検索する。詳細については後述する(図12参照)。
 出力制御部58は、検索部56の検索結果を出力部に出力させる。本実施形態の場合、出力制御部58は検索結果画面40を表示部25に表示させる。
 また本実施形態の場合、出力制御部58(出力順序設定手段)は、検索部56によって検索された画像と、原画像32(すなわち、加工が施されていない元々の画像)と、の類似度に基づいて、検索部56によって検索された画像の出力順序を設定する。そして、出力制御部58は、検索部56によって検索された画像を該出力順序に従って出力部に出力させる。
 例えば、出力制御部58(出力順序設定手段)は、原画像32との類似度が低い画像の出力順序を、原画像32との類似度が高い画像の出力順序よりも高く設定する。
 例えば、検索部56によって検索された画像に第1の画像と第2の画像が含まれ、かつ、原画像32と第1の画像との類似度が、原画像32と第2の画像との類似度よりも低い場合、出力制御部58は、第1の画像の出力順序を第2の画像の出力順序よりも高く設定する。言い換えれば、出力制御部58は、第2の画像の出力順序を第1の画像の出力順序よりも下げる。
 次に、画像検索システム1で実行される処理について説明する。図11は、加工画面30において原画像32に対する加工が完了され、ユーザによって検索指示操作が行われた場合に実行される処理の一例を示すフロー図である。ユーザ端末20の制御部21がプログラムに従って図11に示す処理を実行することによって、制御部11が検索条件設定部54として機能するようになる。また、サーバ10の制御部11がプログラムに従って図11に示す処理を実行することによって、制御部11が検索部56及び出力制御部58として機能するようになる。
 加工画面30において原画像32に対する加工が完了され、ユーザによって検索指示操作が行われた場合、図11に示すように、ユーザ端末20の制御部21は、加工画面30において行われた加工内容に基づいて、加工画像36の加工領域60及び非加工領域62を特定する(S201)。
 その後、制御部21は加工画像36の非加工領域62に関する特徴情報を取得する(S202)。例えば、制御部21は、非加工領域62の色、柄、及び形状に関する特徴情報を取得する。
 また、制御部21は加工画像36の加工領域60に関する特徴情報を取得する(S203)。例えば、制御部21は、加工領域60に対して施された加工内容と、図10に示す対応関係と、に基づいて、加工領域60の色、柄、及び形状に関する特徴情報のうちの少なくとも一つを取得する。
 その後、制御部21はサーバ10に画像検索の実行を要求する(S204)。例えば、制御部21は下記に示すような情報をサーバ10に送信する。
・原画像32の識別情報
・加工領域60及び非加工領域62を示す情報
・加工領域60に関する特徴情報
・非加工領域62に関する特徴情報
 上記の要求がサーバ10で受け付けられた場合、サーバ10の制御部11は、ユーザ端末20から受信した情報に基づいて画像検索を実行する(S205)。
 ステップS205では、データベース16に記憶された各画像が加工画像36との比較対象として設定され、例えば図12に示すような処理が実行される。なお、本実施形態の場合、図12に示す処理を実行する際に、比較対象画像の背景部分(衣服以外の部分)は除去される。あるいは、あらかじめ背景部分が除去された画像がデータベース16に保存されている。
 すなわち、制御部11は、加工画像36との比較対象として設定された画像(比較対象画像)の非加工領域62の特徴情報を取得する(S301)。なお、ここで、「比較対象画像の非加工領域62」とは、加工画像36の非加工領域62に対応する、比較対象画像の領域のことを意味している。
 その後、制御部11は、加工画像36の非加工領域62の特徴情報と、比較対象画像の非加工領域62の特徴情報との類似度(第1類似度)を算出する(S302)。すなわち、制御部11は、加工画像36の非加工領域62の色、柄、及び形状に関する特徴情報と、比較対象画像の非加工領域62の色、柄、及び形状に関する特徴情報とを比較することによって上記の類似度を算出する。
 そして、制御部11は、ステップS302で算出された類似度が閾値(第1基準類似度)以上であるか否かを判定する(S303)。類似度が閾値以上でない場合、制御部11は比較対象画像と加工画像36とは類似しないと判定する。
 ステップS302で算出された類似度が閾値以上である場合、制御部11は、比較対象画像の加工領域60の特徴情報を取得する(S304)。なお、ここで、「比較対象画像の加工領域60」とは、加工画像36の加工領域60に対応する、比較対象画像の領域のことを意味している。
 その後、制御部11は、加工画像36の加工領域60の特徴情報と、比較対象画像の加工領域60の特徴情報との類似度(第2類似度)を算出する(S305)。
 例えば、加工画像36が、原画像32の加工領域60に対して「色の削除」の加工を施してなる画像である場合には、図10の(A)に示したように、加工画像36の加工領域60の柄及び形状に関する特徴情報が用いられ、加工画像36の加工領域60の色に関する特徴情報が用いられない。このため、加工画像36の加工領域60の柄及び形状に関する特徴情報と、比較対象画像の加工領域60の柄及び形状に関する特徴情報とを比較することによって上記の類似度が算出される。
 また例えば、加工画像36が、原画像32の加工領域60に対して「柄の削除」の加工を施してなる画像である場合には、図10の(C)に示したように、加工画像36の加工領域60の色及び形状に関する特徴情報が用いられ、加工画像36の加工領域60の柄に関する特徴情報が用いられない。このため、加工画像36の加工領域60の色及び形状に関する特徴情報と、比較対象画像の加工領域60の色及び形状に関する特徴情報とを比較することによって上記の類似度が算出される。
 また例えば、加工画像36が、原画像32の加工領域60に対して「色の削除」及び「柄の削除」の加工を施してなる画像である場合には、図10の(E)に示したように、加工画像36の加工領域60の形状に関する特徴情報のみが用いられ、加工画像36の加工領域60の色及び柄に関する特徴情報が用いられない。このため、加工画像36の加工領域60の形状に関する特徴情報と、比較対象画像の加工領域60の形状に関する特徴情報とを比較することによって上記の類似度が算出される。
 また例えば、加工画像36が、原画像32の加工領域60に対して「柄の変更」の加工のみを施してなる画像である場合には、図10の(H)に示したように、加工画像36の加工領域60の色、柄、及び形状に関する特徴情報が用いられる。このため、加工画像36の加工領域60の色、柄、及び形状に関する特徴情報と、比較対象画像の加工領域60の色、柄、及び形状に関する特徴情報とを比較することによって上記の類似度が算出される。
 また例えば、加工画像36が、原画像32の加工領域60に対して「変形」の加工を施してなる画像である場合には、図10の(I)に示したように、加工画像36の加工領域60の色、柄、及び形状に関する特徴情報が用いられる。このため、加工画像36の加工領域60の色、柄、及び形状に関する特徴情報と、比較対象画像の加工領域60の色、柄、及び形状に関する特徴情報とを比較することによって上記の類似度が算出される。
 ステップS305の処理が実行された後、制御部11は、ステップS305で算出された類似度が閾値(第2基準類似度)以上であるか否かを判定する(S306)。なお、このステップS306における閾値(第2基準類似度)はステップS303における閾値(第1基準類似度)よりも低く設定される。すなわち、加工領域60に関しては非加工領域62に比べて緩めの検索が実行される。つまり、ユーザがあえて加工した部分に関しては比較的緩めの検索が実行され、なるべく多くの検索結果をユーザに提示できるようになっている。
 ステップS305で算出された類似度が閾値以上でない場合、制御部11は比較対象画像と加工画像36とは類似しないと判定する。
 一方、ステップS305で算出された類似度が閾値以上である場合、制御部11は比較対象画像と加工画像36とが類似すると判定する(S307)。また、この場合、制御部11は、比較対象画像と、原画像32(すなわち、加工が施されていない元々の画像)と、の類似度を取得する(S308)。例えば、制御部11は、比較対象画像の特徴情報と、原画像32の特徴情報とを比較することによって上記の類似度を算出する。このステップS308で算出された類似度は、比較対象画像を検索結果画面40に表示する場合の出力順序を決定するために用いられる。
 図11に示すように、画像検索(ステップS205)が実行された後、制御部11は検索結果をユーザ端末20に送信する(S206)。すなわち、制御部11は、ステップS205において検索された画像(すなわち、ステップS307において加工画像36と類似すると判定された画像)のリストを示すデータをユーザ端末20に送信することによって、検索結果画面をユーザ端末20の表示部25に表示させる。なお、この場合、制御部11は、ステップS205において検索された画像の出力順序を、ステップS308において取得された類似度に基づいて設定する。すなわち、ステップS308において取得された類似度が低い画像ほど、出力順序が高く設定される。
 検索結果がユーザ端末20で受信された場合、ユーザ端末20の制御部21は検索結果画面を表示部25に表示する(S207)。以上で図11に示す処理の説明を終了する。
 以上説明した画像検索システム1によれば、原画像32の特定部分が異なるような画像を検索できるようになる。例えば、衣服画像(原画像32)の袖部分の色、柄、及び形状の少なくとも一つが異なるような衣服画像を検索できるようになる。
 なお、本発明は以上に説明した実施形態に限定されるものではない。
 [1]例えば、原画像32(すなわち、加工が施されていない元々の画像)が検索部56の検索結果に含まれる場合であっても、原画像32を検索結果画面40に表示しないようにしてもよい。
 ユーザが原画像32をあえて加工して画像検索を行った場合、原画像32はユーザが見つけたいと思っている画像ではない。この点、以上のようにすれば、ユーザによって必要でない画像が検索結果画面40に表示されないようになる。
 [2]また例えば、加工画像36の非加工領域62と原画像32の非加工領域62とは同一であるため、加工画像36の非加工領域62の特徴情報を取得する代わりに、原画像32の非加工領域62の特徴情報を取得するようにしてもよい。
 [3]加工画面30では、ユーザに原画像32を実際に加工させることによって、原画像32のうちの加工の対象とする一部領域の指定と、当該一部領域に対する加工内容と、を受け付けるようになっていたが、受付部52は、ユーザに原画像32を実際に加工させることなく、原画像32のうちの加工の対象とする一部領域の指定と、当該一部領域に対する加工内容と、を受け付けるようにしてもよい。
 例えば、ユーザがメニュー34から「色の削除」を選択し、さらに、袖部分の領域を指定したら、受付部52は、「袖部分の色の削除」が指定されたと判断するようにしてもよい。同様に、例えば、ユーザがメニュー34から「柄の削除」を選択し、さらに、袖部分の領域を指定したら、受付部52は、「袖部分の柄の削除」が指定されたと判断するようにしてもよい。
 [4]例えば、検索条件設定部54は、原画像32の非加工領域62に関する複数種類の特徴情報と、原画像32の加工領域60に関する複数種類の特徴情報のうちの、加工領域60に対する加工内容に基づいて選択される少なくとも一つの特徴情報と、に基づいて、原画像32と類似の画像を検索するための検索条件を設定するようにしてもよい。
 例えば、袖部分に対する加工内容として「色の削除」が指定された場合、検索条件設定部54は、原画像32の非加工領域62の色、柄、及び形状に関する特徴情報と、原画像32の加工領域60の柄、及び形状に関する特徴情報と、に基づいて、原画像32と類似の画像を検索するための検索条件を設定するようにしてもよい。
 この場合、図11のステップS202において、制御部21は原画像32の非加工領域62に関する特徴情報を取得する。例えば、制御部21は、原画像32の非加工領域62の色、柄、及び形状に関する特徴情報を取得する。また、ステップS203において、制御部21は原画像32の加工領域60に関する特徴情報を取得する。例えば、制御部21は、加工領域60に対する加工内容として指定された加工内容と、図10に示す対応関係と、に基づいて、原画像32の加工領域60の色、柄、及び形状に関する特徴情報のうちの少なくとも一つを取得する。例えば、袖部分に対する加工内容として「色の削除」が指定された場合(図10の(A))であれば、制御部21は、原画像32の加工領域60の柄及び形状に関する特徴情報を取得する。
 また、図12のステップS302において、制御部11は、原画像32の非加工領域62の特徴情報と、比較対象画像の非加工領域62の特徴情報との類似度(第1類似度)を算出する。また、ステップS305において、制御部11は、原画像32の加工領域60の特徴情報と、比較対象画像の加工領域60の特徴情報との類似度(第2類似度)を算出する。例えば、袖部分に対する加工内容として「色の削除」が指定された場合(図10の(A))であれば、制御部11は、原画像32の加工領域60の柄及び形状に関する特徴情報と、比較対象画像の加工領域60の柄及び形状に関する特徴情報との類似度を算出する。
 このようにしても、例えば、衣服画像(原画像32)の胴体部分(袖以外の部分)と同一又は類似の色、柄、及び形状の胴体部分を有し、かつ、衣服画像(原画像32)の袖部分と同一又は類似の柄及び形状の袖部分を有するような衣服画像を検索できるようになる。
 同様に、袖部分に対する加工内容として「柄の削除」が指定された場合(図10の(C))であれば、ステップS203において、制御部21は、原画像32の加工領域60の色及び形状に関する特徴情報を取得するようにしてもよい。また、ステップS305において、制御部11は、原画像32の加工領域60の色及び形状に関する特徴情報と、比較対象画像の加工領域60の色及び形状に関する特徴情報との類似度を算出するようにしてもよい。このようにしても、例えば、衣服画像(原画像32)の胴体部分(袖以外の部分)と同一又は類似の色、柄、及び形状の胴体部分を有し、かつ、衣服画像(原画像32)の袖部分と同一又は類似の色及び形状の袖部分を有するような衣服画像を検索できるようになる。
 さらに、袖部分に対する加工内容として「色の削除」及び「柄の削除」が指定された場合(図10の(E))であれば、ステップS203において、制御部21は、原画像32の加工領域60の形状に関する特徴情報のみを取得するようにしてもよい。また、ステップS305において、制御部11は、原画像32の加工領域60の形状に関する特徴情報と、比較対象画像の加工領域60の形状に関する特徴情報との類似度を算出するようにしてもよい。このようにしても、例えば、衣服画像(原画像32)の胴体部分(袖以外の部分)と同一又は類似の色、柄、及び形状の胴体部分を有し、かつ、衣服画像(原画像32)の袖部分と同一又は類似の形状の袖部分を有するような衣服画像を検索できるようになる。
 なお、加工画像36の非加工領域62と原画像32の非加工領域62とは同一であるため、以上に説明した変形例[4]では、原画像32の非加工領域62の特徴情報を取得する代わりに、加工画像36の非加工領域62の特徴情報を取得するようにしてもよい。
 [5]また例えば、検索部56及び出力制御部58はユーザ端末20において実現されるようにしてもよい。すなわち、ユーザ端末20がデータベース16に直接アクセスするようにしてもよい。また、検索条件設定部54はサーバ10において実現されるようにしてもよい。
 [6]また例えば、データベース16に記憶される画像を細かいブロックに分割し、各ブロックごとに予め算出された特徴情報をデータベース16に記憶しておくようにしてもよい。そして、図12のステップS301,S304では、データベース16に記憶されたブロックごとの特徴情報に基づいて、比較対象画像の特徴情報が取得されるようにしてもよい。こうすることによって処理負荷を軽減するようにしてもよい。
 [7]以上では、衣服画像を検索する場合を例として説明したが、本発明は、衣服画像以外の画像を検索する場合にも適用することができる。例えば、料理画像を検索する場合にも適用することができる。
 1 画像検索システム、2 通信ネットワーク、10 サーバ、11,21 制御部、12,22 主記憶部、13,23 補助記憶部、14,24 通信部、15 光ディスクドライブ部、20 ユーザ端末、25 表示部、26 音声出力部、27 操作部、30 加工画面、32 原画像、34 メニュー、36 加工画像、40 検索結果画面、42A,42B,42C,42D,42E,42F,42G,42H 画像、50 原画像取得部、52 受付部、54 検索条件設定部、56 検索部、58 出力制御部、60 加工領域、62 非加工領域。

Claims (9)

  1.  原画像を取得する原画像取得手段と、
     前記原画像のうちの加工の対象となる一部領域の指定と、当該一部領域に対する加工内容と、を受け付ける受付手段と、
     前記加工内容の加工が前記原画像の前記一部領域に施されてなる加工画像、又は、前記原画像、の前記一部領域以外の領域に関する複数種類の特徴情報と、前記加工画像又は前記原画像の前記一部領域に関する前記複数種類の特徴情報のうちの、前記加工内容に基づいて選択される少なくとも一つの特徴情報と、に基づいて、画像検索を実行する検索手段と、
     前記検索手段の検索結果を出力手段に出力させる出力制御手段と、
     を含むことを特徴とする画像検索システム。
  2.  請求項1に記載の画像検索システムにおいて、
     前記出力制御手段は、前記検索手段の検索結果に前記原画像が含まれる場合において、前記原画像を前記検索手段の検索結果として前記出力手段に出力させないことを特徴とする画像検索システム。
  3.  請求項1に記載の画像検索システムにおいて、
     前記出力制御手段は、
     前記検索手段によって検索された画像と、前記原画像と、の類似度に基づいて、前記検索手段によって検索された画像の出力順序を設定する出力順序設定手段と、
     前記検索手段によって検索された画像を前記出力順序に従って出力手段に出力させる手段と、を含み、
     前記出力順序設定手段は、前記原画像との類似度が低い画像の出力順序を、前記原画像との類似度が高い画像の出力順序よりも高く設定する、
     ことを特徴とする画像検索システム。
  4.  請求項1に記載の画像検索システムにおいて、
     前記検索手段は、対象画像が前記加工画像と同一又は類似の画像であるか否かを判定する判定手段を含み、前記加工画像と同一又は類似の画像を検索し、
     前記判定手段は、
     前記加工画像又は前記原画像の前記一部領域以外の前記領域に関する前記複数種類の特徴情報と、前記加工画像の前記一部領域以外の前記領域に対応する、前記対象画像の領域に関する前記複数種類の特徴情報と、の間の類似の程度を示す第1類似度が第1基準類似度以上であるか否かを判定する手段と、
     前記加工画像の前記一部領域に関する前記少なくとも一つの特徴情報と、前記加工画像の前記一部領域に対応する、前記対象画像の領域に関する前記少なくとも一つの特徴情報と、の間の類似の程度を示す第2類似度が、前記第1基準類似度よりも低い第2基準類似度以上であるか否かを判定する手段と、を含み、
     前記第1類似度が前記第1基準類似度以上であると判定され、かつ、前記第2類似度が前記第2基準類似度以上であると判定された場合に、前記対象画像が前記加工画像と同一又は類似の画像であると判定する、
     ことを特徴とする画像検索システム。
  5.  請求項1に記載の画像検索システムにおいて、
     前記検索手段は、対象画像が前記原画像と類似の画像であるか否かを判定する判定手段を含み、前記原画像と類似の画像を検索し、
     前記判定手段は、
     前記原画像の前記一部領域以外の前記領域に関する前記複数種類の特徴情報と、前記原画像の前記一部領域以外の前記領域に対応する、前記対象画像の領域に関する前記複数種類の特徴情報と、の間の類似の程度を示す第1類似度が第1基準類似度以上であるか否かを判定する手段と、
     前記原画像の前記一部領域に関する前記少なくとも一つの特徴情報と、前記原画像の前記一部領域に対応する、前記対象画像の領域に関する前記少なくとも一つの特徴情報と、の間の類似の程度を示す第2類似度が、前記第1基準類似度よりも低い第2基準類似度以上であるか否かを判定する手段と、を含み、
     前記第1類似度が前記第1基準類似度以上であると判定され、かつ、前記第2類似度が前記第2基準類似度以上であると判定された場合に、前記対象画像が前記原画像と類似の画像であると判定する、
     ことを特徴とする画像検索システム。
  6.  原画像を取得する原画像取得ステップと、
     前記原画像のうちの加工の対象となる一部領域の指定と、当該一部領域に対する加工内容と、を受け付ける受付ステップと、
     前記加工内容の加工が前記原画像の前記一部領域に施されてなる加工画像、又は、前記原画像、の前記一部領域以外の領域に関する複数種類の特徴情報と、前記加工画像の前記一部領域に関する前記複数種類の特徴情報のうちの、前記加工内容に基づいて選択される少なくとも一つの特徴情報と、に基づいて、画像検索を実行する検索ステップと、
     前記検索ステップの検索結果を出力手段に出力させる出力制御ステップと、
     を含むことを特徴とする画像検索方法。
  7.  原画像の一部領域に対する加工内容を取得する手段と、
     前記加工内容の加工が前記原画像の前記一部領域に施されてなる加工画像、又は、前記原画像、の前記一部領域以外の領域に関する複数種類の特徴情報と、前記加工画像又は前記原画像の前記一部領域に関する前記複数種類の特徴情報のうちの、前記加工内容に基づいて選択される少なくとも一つの特徴情報と、に基づいて、画像検索のための検索条件を設定する検索条件設定手段と、
     を含むことを特徴とする画像検索装置。
  8.  原画像の一部領域に対する加工内容を取得する手段、及び、
     前記加工内容の加工が前記原画像の前記一部領域に施されてなる加工画像の前記一部領域以外の領域に関する複数種類の特徴情報と、前記加工画像の前記一部領域に関する前記複数種類の特徴情報のうちの、前記加工内容に基づいて選択される少なくとも一つの特徴情報と、に基づいて、画像検索のための検索条件を設定する検索条件設定手段、
     としてコンピュータを機能させるためのプログラム。
  9.  原画像の一部領域に対する加工内容を取得する手段、及び、
     前記加工内容の加工が前記原画像の前記一部領域に施されてなる加工画像の前記一部領域以外の領域に関する複数種類の特徴情報と、前記加工画像の前記一部領域に関する前記複数種類の特徴情報のうちの、前記加工内容に基づいて選択される少なくとも一つの特徴情報と、に基づいて、画像検索のための検索条件を設定する検索条件設定手段、
     としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な情報記憶媒体。
PCT/JP2011/080535 2011-12-29 2011-12-29 画像検索システム、画像検索方法、画像検索装置、プログラム、及び情報記憶媒体 WO2013099038A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013551170A JP5788996B2 (ja) 2011-12-29 2011-12-29 画像検索システム、画像検索方法、画像検索装置、プログラム、及び情報記憶媒体
US14/369,205 US9600495B2 (en) 2011-12-29 2011-12-29 Image search system, image search method, image search device, program, and information recording medium
PCT/JP2011/080535 WO2013099038A1 (ja) 2011-12-29 2011-12-29 画像検索システム、画像検索方法、画像検索装置、プログラム、及び情報記憶媒体
TW101145043A TWI533149B (zh) 2011-12-29 2012-11-30 Image retrieval device, image retrieval method, computer program product, and information memory media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/080535 WO2013099038A1 (ja) 2011-12-29 2011-12-29 画像検索システム、画像検索方法、画像検索装置、プログラム、及び情報記憶媒体

Publications (1)

Publication Number Publication Date
WO2013099038A1 true WO2013099038A1 (ja) 2013-07-04

Family

ID=48696596

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/080535 WO2013099038A1 (ja) 2011-12-29 2011-12-29 画像検索システム、画像検索方法、画像検索装置、プログラム、及び情報記憶媒体

Country Status (4)

Country Link
US (1) US9600495B2 (ja)
JP (1) JP5788996B2 (ja)
TW (1) TWI533149B (ja)
WO (1) WO2013099038A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016085706A (ja) * 2014-10-29 2016-05-19 株式会社フィール 情報提供システム、および情報公開装置
JP2016103235A (ja) * 2014-11-28 2016-06-02 日本電信電話株式会社 画像検索装置、画像登録装置、画像特徴選択装置、方法、及びプログラム
JP2018142074A (ja) * 2017-02-27 2018-09-13 三菱重工業株式会社 特徴量算出装置、画像類似度判定装置、画像検索装置、特徴量算出方法及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11003659B2 (en) * 2013-10-25 2021-05-11 Rakuten, Inc. Search system, search criteria setting device, control method for search criteria setting device, program, and information storage medium
CN110674837A (zh) * 2019-08-15 2020-01-10 深圳壹账通智能科技有限公司 视频相似度获取方法、装置、计算机设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08329135A (ja) * 1995-05-30 1996-12-13 Minolta Co Ltd デザイン設計支援システム
JPH11212990A (ja) * 1998-01-26 1999-08-06 Toray Ind Inc 画像の検索装置および画像の検索表示方法ならびに物品の製造方法
JP2005293129A (ja) * 2004-03-31 2005-10-20 Toto Ltd 物品特定システム及び方法
JP2006155588A (ja) * 2004-11-05 2006-06-15 Fuji Xerox Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP2009288928A (ja) * 2008-05-28 2009-12-10 Fujifilm Corp 服飾検索方法及び装置、服飾検索プログラム、並びに服飾登録装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6002798A (en) * 1993-01-19 1999-12-14 Canon Kabushiki Kaisha Method and apparatus for creating, indexing and viewing abstracted documents
US6101000A (en) * 1998-01-30 2000-08-08 Eastman Kodak Company Photographic processing apparatus and method
JP2000163576A (ja) 1998-11-25 2000-06-16 Hitachi Ltd 画像検索方法及びその実施装置並びにその処理プログラムを記録した媒体
JP4245872B2 (ja) * 2002-08-28 2009-04-02 富士フイルム株式会社 類似度判定方法および装置並びにプログラム
JP2004206689A (ja) * 2002-12-11 2004-07-22 Fuji Photo Film Co Ltd 画像修正装置および画像修正プログラム
JP4266784B2 (ja) * 2003-11-14 2009-05-20 キヤノン株式会社 画像処理システム及び画像処理方法
JP2006018551A (ja) * 2004-07-01 2006-01-19 Sony Corp 情報処理装置および方法、並びにプログラム
JP4747828B2 (ja) * 2005-12-21 2011-08-17 富士ゼロックス株式会社 履歴管理装置
WO2007101114A2 (en) 2006-02-23 2007-09-07 Imaginestics Llc Method of enabling a user to draw a component part as input for searching component parts in a database
US20080240572A1 (en) * 2007-03-26 2008-10-02 Seiko Epson Corporation Image Search Apparatus and Image Search Method
US20090202179A1 (en) * 2008-02-13 2009-08-13 General Electric Company method and system for providing region based image modification
JP5412169B2 (ja) * 2008-04-23 2014-02-12 株式会社日立ハイテクノロジーズ 欠陥観察方法及び欠陥観察装置
JP5298831B2 (ja) * 2008-12-19 2013-09-25 富士ゼロックス株式会社 画像処理装置及びプログラム
EP2199952A1 (en) * 2008-12-22 2010-06-23 Nederlandse Organisatie voor toegepast-natuurwetenschappelijk Onderzoek TNO Method and apparatus for identifying combinations of matching regions in images.
JP5226553B2 (ja) * 2009-02-06 2013-07-03 キヤノン株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2011054081A (ja) * 2009-09-04 2011-03-17 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011138420A (ja) 2009-12-29 2011-07-14 Rakuten Inc 検索システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08329135A (ja) * 1995-05-30 1996-12-13 Minolta Co Ltd デザイン設計支援システム
JPH11212990A (ja) * 1998-01-26 1999-08-06 Toray Ind Inc 画像の検索装置および画像の検索表示方法ならびに物品の製造方法
JP2005293129A (ja) * 2004-03-31 2005-10-20 Toto Ltd 物品特定システム及び方法
JP2006155588A (ja) * 2004-11-05 2006-06-15 Fuji Xerox Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP2009288928A (ja) * 2008-05-28 2009-12-10 Fujifilm Corp 服飾検索方法及び装置、服飾検索プログラム、並びに服飾登録装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TAKATOSHI KAWADA ET AL.: "Cloth Region Detection Using Shape Information from Image for Similar Cloth Image Retrieval", PROCEEDINGS OF THE 2008 IEICE GENERAL CONFERENCE JOHO SYSTEM 2, 5 March 2008 (2008-03-05), pages 180 *
TSUTOMU HORIKOSHI ET AL.: "3D Modeling Using Rough Sketches and 3D Shape Retrieval System", TRANSACTIONS OF INFORMATION PROCESSING SOCIETY OF JAPAN, vol. 35, no. 9, 15 September 1994 (1994-09-15), pages 1750 - 1758 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016085706A (ja) * 2014-10-29 2016-05-19 株式会社フィール 情報提供システム、および情報公開装置
JP2016103235A (ja) * 2014-11-28 2016-06-02 日本電信電話株式会社 画像検索装置、画像登録装置、画像特徴選択装置、方法、及びプログラム
JP2018142074A (ja) * 2017-02-27 2018-09-13 三菱重工業株式会社 特徴量算出装置、画像類似度判定装置、画像検索装置、特徴量算出方法及びプログラム

Also Published As

Publication number Publication date
TWI533149B (zh) 2016-05-11
JP5788996B2 (ja) 2015-10-07
US20140369610A1 (en) 2014-12-18
TW201331773A (zh) 2013-08-01
JPWO2013099038A1 (ja) 2015-04-30
US9600495B2 (en) 2017-03-21

Similar Documents

Publication Publication Date Title
JP5788996B2 (ja) 画像検索システム、画像検索方法、画像検索装置、プログラム、及び情報記憶媒体
US20080275850A1 (en) Image tag designating apparatus, image search apparatus, methods of controlling operation of same, and programs for controlling computers of same
CN104281259A (zh) 信息处理装置、信息处理方法和程序
US20110093478A1 (en) Filter hints for result sets
JP2008108200A (ja) 情報抽出装置及び方法、並びにプログラム及び記憶媒体
JP2006331418A (ja) ソートしたコンテキスト内のリンク情報を表示するシステム及び方法
JP2008217117A (ja) 画像検索方法及び画像検索システム
US20110125731A1 (en) Information processing apparatus, information processing method, program, and information processing system
JP2007047864A (ja) データを編集する画面の表示を制御するシステム、およびその方法
WO2013081835A2 (en) Temporal visualization of query results
KR101483611B1 (ko) 이미지에서 객체를 추출하기 위한 방법 및 단말기
CN106648338B (zh) 编辑数据的方法和装置
US10318610B2 (en) Display method and electronic device
KR102035766B1 (ko) 클리어런스 체크 프로그램, 클리어런스 체크 방법, 및 클리어런스 체크 장치
CN104156666A (zh) 文件扩展名加入颜色属性来区分文件类型的方法及装置
JP4693167B2 (ja) 帳票検索装置、帳票検索方法、プログラム及びコンピュータ読み取り可能な記憶媒体
JP4830763B2 (ja) 画像処理システムおよび画像処理プログラム
JP6031566B1 (ja) 特徴抽出装置、画像検索装置、方法、及びプログラム
JP6409294B2 (ja) 情報処理装置、システム、方法及びプログラム
US20180181279A1 (en) Display device and method therefor
CN113490051B (zh) 一种视频抽帧方法、装置、电子设备及存储介质
JP2018085093A (ja) 情報処理装置、制御方法、プログラム
US8768060B2 (en) Image processing apparatus, image processing method and computer-readable medium
JP2008083898A (ja) 情報処理システムおよび情報処理プログラム
JP2000066650A (ja) 色指定装置、色指定方法、およびコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11878819

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013551170

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14369205

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 11878819

Country of ref document: EP

Kind code of ref document: A1