WO2000049523A1 - Translating method and translating device - Google Patents

Translating method and translating device Download PDF

Info

Publication number
WO2000049523A1
WO2000049523A1 PCT/JP2000/000907 JP0000907W WO0049523A1 WO 2000049523 A1 WO2000049523 A1 WO 2000049523A1 JP 0000907 W JP0000907 W JP 0000907W WO 0049523 A1 WO0049523 A1 WO 0049523A1
Authority
WO
WIPO (PCT)
Prior art keywords
sentence
information
source language
input
translation
Prior art date
Application number
PCT/JP2000/000907
Other languages
French (fr)
Japanese (ja)
Inventor
Masato Shimakawa
Masanori Omote
Naoto Iwahashi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Publication of WO2000049523A1 publication Critical patent/WO2000049523A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/45Example-based machine translation; Alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/47Machine-assisted translation, e.g. using translation memory

Definitions

  • the present invention relates to a translation processing method and a translation processing device for translating an input source language sentence into a target language sentence.
  • BACKGROUND ART In recent years, translation systems for translating an input arbitrary language sentence into a different language sentence have been put to practical use. Improving the translation accuracy and the quality of the translated sentence is currently regarded as important in this translation system, and various research and development are being carried out for that purpose.
  • a so-called syntactic transfer type translation system focuses on the syntactical correspondence between the original sentence and the translated sentence, and performs translation based on a large number of manually described rules.
  • syntactic transfer-type translation system describing the syntactic partial correspondence in detail does not necessarily lead to an improvement in the translation accuracy of the entire original sentence.
  • the entire translation is generated using information selected based on partial syntactical relationships instead of syntactical relationships that take into account the entire original sentence. It is difficult to get a natural translation.
  • the so-called knowledge-based translation system expresses the meaning of the original sentence explicitly when translating the original sentence, efficiently organizes the knowledge of a relatively limited range of target fields, and then converts this concept system. Perform the inference used and translate.
  • This knowledge-based translation system realizes high-quality translation by performing inference using a concept system, thereby eliminating ambiguity associated with analysis and generation.
  • the so-called example-based translation system enables the translation accuracy to be improved by collecting and using a large amount of corpus, and it is possible to generate a natural translation in comparison with other translation methods. It is said that there is.
  • this example-based translation system generally, in order to determine the similarity to the example, a distance is determined in a conceptual space using a thesaurus, or the syntax structure is analyzed after parsing. Judgment criteria are unique throughout the translation system, such as performing similarity judgment. Therefore, in the example-based translation system, if the number of corpora is not sufficient, the translation accuracy is significantly reduced. Therefore, the example-based translation system requires a huge amount of time and effort to maintain the corpus, except for specific uses such as compound word analysis, and is sufficient to construct a practical system. is not.
  • the translation example is abstracted. If the input sentence cannot be composed as a combination of these patterns, translation is performed using a set of less restrictive patterns, or the above-mentioned syntax transformer is used. There is a technique for performing the translation of the web-form. By doing so, this method enables natural translation of only specific expressions while maintaining the maintainability of the translation system as a whole.
  • the present invention has been made in view of the above circumstances, and has a problem in a conventional translation system that presumes that an input original text is completely automatically translated and output in any case. It is an object of the present invention to provide a translation processing method and a translation processing apparatus that can obtain a high-accuracy and high-quality translation result according to a user's intention that has been impossible in the past.
  • the translation processing method that achieves the above-described object includes a sentence or a part of a sentence in an input arbitrary source language and a sentence or a part of a sentence in an arbitrary target language different from the source language. Based on the bilingual information in which the sentence is matched, the matching or similarity between the sentence or part of the sentence in the source language and the sentence composed of the combination of the translated information is determined, and the sentence or the sentence in the source language is determined.
  • the bilingual information includes a sentence or part of the sentence in the source language and a part of this sentence or part of the sentence. It is characterized by a sentence or part of a sentence in the target language that is a parallel translation, and a sentence or part of the sentence in the source language and related information related to the sentence or part of the sentence in the target language. I have.
  • Such a translation processing method includes a sentence or part of a sentence in the source language, a sentence or part of the sentence in the target language, and a sentence or part of the sentence in the source language and the purpose.
  • Translates a sentence or part of a sentence into a target language or part of a sentence in a target language using bilingual information that describes relevant information related to a sentence or part of a sentence in a language
  • a translation processing apparatus that achieves the above-described object includes: input means for inputting a sentence or a part of a sentence in an arbitrary source language; Sentence or part of a sentence, and a sentence or part of a sentence in an arbitrary target language different from the source language, which is a translation of this sentence or part of the sentence, are described in association with each other.
  • a storage means for storing bilingual information in which a sentence or a part of a sentence and related information related to the sentence or a part of the sentence in the target language are written; a sentence or a part of the sentence in the source language based on the translated information; Analysis means for analyzing a sentence or a part of the sentence in the source language to generate a translation result candidate by judging the coincidence or similarity with the sentence composed of the bilingual information; Target language sentence generating means for generating a sentence or part of a sentence in the target language which is a translation of a sentence or a part of the sentence according to the target language, and a sentence or part of the sentence in the target language generated by the target language sentence generating means Output means for outputting It is characterized by a door.
  • Such a translation processing device can provide a sentence or a part of a sentence in the source language, a sentence or a part of the sentence in the target language, a sentence or a part of the sentence in the source language, and an object.
  • the bilingual information in which relevant information related to a sentence or a part of the sentence in the language is described is stored in the storage unit, and the sentence or a part of the sentence in the source language is converted into the target language using the translated information.
  • FIG. 2 is a diagram for explaining an example of the bilingual information held by the translation apparatus, and is a diagram for explaining the bilingual information in which link information is described.
  • FIG. 3 is a diagram illustrating an example of the bilingual information held by the translation apparatus, and is a diagram illustrating the bilingual information in which field information and field limited information are described.
  • FIG. 4 is a block diagram illustrating a configuration of a bidirectional translation apparatus which is an application example configured by combining the translation apparatuses.
  • FIG. 5 is a diagram for explaining an example of the bilingual information held by the bidirectional translation device, and is a diagram for explaining the bilingual information in which response prediction information is described.
  • FIG. 6 is a plan view illustrating the appearance of a speech translator that more specifically configures the bidirectional translation device.
  • FIG. 7 is a block diagram illustrating the configuration of the speech translator.
  • FIG. 8 is a flowchart illustrating a series of processing steps in the speech translator.
  • FIG. 9 is a diagram illustrating a series of processing steps in the speech translator, and is a flowchart illustrating a processing step performed subsequent to the processing step illustrated in FIG.
  • FIG. 10 is a diagram for explaining an example of the bilingual information held by the speech translator.
  • Figure 11 is a diagram illustrating a specific example of bilingual information held by the speech translator:
  • FIG. 12 is a diagram illustrating an example of user confirmation information generated by the speech translator, and is a diagram illustrating a state when the user confirmation information is output from a liquid crystal unit.
  • FIG. 13 is a diagram for explaining another example of the user confirmation information generated by the speech translator.
  • FIG. 6 is a diagram for explaining a state when output is performed by a speed and speed.
  • Fig. 14 is a diagram for explaining an example of the target language sentence and the response prediction information generated by the speech translator, when the target language sentence and the response prediction information are output by the liquid crystal unit and the speed.
  • FIG. 14 is a diagram for explaining an example of the target language sentence and the response prediction information generated by the speech translator, when the target language sentence and the response prediction information are output by the liquid crystal unit and the speed.
  • FIG. 15 is a diagram for explaining another example of the target language sentence and the response prediction information generated by the speech translator.
  • the target language sentence and the response prediction information are output from the liquid crystal unit and the speaker. It is a figure explaining the situation at the time.
  • BEST MODE FOR CARRYING OUT THE INVENTION hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
  • a translation device 10 shown in FIG. 1 as an embodiment to which the present invention is applied is intended to ensure the quality of a target language sentence that is a translation corresponding to a source language sentence.
  • a target language sentence that is a translation corresponding to a source language sentence.
  • example-based translation, pattern-based translation As with the translation method called template-based translation, the combination of the source language sentence or a part of it and the corresponding target language sentence or part of it is part of the basic information (translation information) in the translation process.
  • the translation processing is performed by describing information related to the source language sentence in the bilingual information, and performing a match determination or a similarity determination with a sentence formed by the combination of the bilingual information.
  • the translator 10 is capable of translating not only sentences in the source language, but also units constituting sentences such as arbitrary phrases and words. It is. Therefore, in the following description, these sentences, phrases, words, and the like to be translated are collectively used as sentences.
  • the source language sentence indicates a sentence, phrase, word, or the like in the source language
  • the target language sentence indicates a sentence, phrase, word, or the like in the target language.
  • the translation device 10 includes, as shown in FIG. 1, a sentence input unit 11 which is an input means for inputting a source language sentence such as a voice or a character and converting the sentence into data that can be analyzed, and a bilingual information database described later.
  • a sentence input unit 11 which is an input means for inputting a source language sentence such as a voice or a character and converting the sentence into data that can be analyzed, and a bilingual information database described later.
  • Sentence analysis unit 12 which is an analysis means for judging the similarity or similarity between the sentence composed of the bilingual information in 18 and the source language sentence, and the translation result for the source language sentence
  • Constraint judging unit 13 which is an application constraint judging means for judging whether or not the candidate satisfies the application constraint given to the bilingual information, and user confirmation information generation for generating confirmation information to be presented to a user Unit 14, a user confirmation unit 15 for presenting the confirmation information generated by the user confirmation information generation unit 14 to the user, and a target language sentence which is a target language sentence generating means for generating a target language sentence.
  • Generation unit 16 and generation of this target language sentence It has a translation result output unit 17 which is an output means for outputting the target language sentence generated by 16 as, for example, voice or characters, and a bilingual information database 18 which is a storage means for holding various types of bilingual information. .
  • Such a translation device 10 first performs, for example, digitization processing on the input source language sentence by the sentence input unit 11.
  • the translation device 10 inputs the source language sentence processed to the sentence analysis unit 12, and the sentence analysis unit 12 causes the input source language sentence and the bilingual information database 18 Judgment of similarity or similarity with a sentence composed of a combination of bilingual information is performed. This allows the translation
  • the device 10 generates, as a candidate, an expression similar to the syntax of the original language sentence, regardless of the context or the user's intention in the source language sentence.
  • the translation device 10 determines, by the application constraint determination unit 13, whether or not the plurality of generated candidates satisfies all the application constraints individually assigned to each piece of translation information. Do for That is, the translation device 10 describes the application constraint for each piece of parallel translation information instead of using a unique criterion indicating the applicability of each piece of translation information: As a result of this determination processing, when it is recognized that there is an expression that does not satisfy all of the application constraints among a plurality of candidates, this expression is removed from the candidates. As a result, the translation device 10 can perform high-accuracy translation without having a huge number of corpora.
  • this determination process may be performed by the sentence analyzer 12. Also, in the translation apparatus 10, as in the example-based translation system, it is possible to use a unique applicability determination criterion such as a distance in a conceptual space using a thesaurus. The accuracy of matching or similarity judgment between the source language sentence and the sentence composed of the bilingual information is slightly reduced.
  • the translation apparatus 10 recognizes that no candidate exists at this point, the translation apparatus 10 notifies the user that the source language sentence cannot be translated, for example, by voice or text, and expresses another expression. Ask the user to re-enter the source language sentence in. In this way, the translator 10 does not translate any input source language sentence, but handles it by performing applicability determination processing. You can reject source language sentences that cannot be done.
  • the translation device 10 generates information to be presented to the user by the user confirmation information generation unit 14 based on the information given to the respective translation information constituting each selected candidate.
  • the generated information is presented to the user by the confirmation unit 15. c
  • the user selects a candidate that best matches the context and intention.
  • the translator 10 if the source language sentence can be interpreted multiple times depending on the context and the user's intention, and the corresponding target language sentence can be generated multiple times, the final target language sentence can be obtained. Generates the information needed to confirm with the user to determine
  • the “information required for confirmation to the user” is a source language sentence for user confirmation, which is a sentence in the source language in which the expression has been added or changed so that the meaning matches the target language sentence, or ,
  • a situation description sentence that explains the situation where the expression of the user confirmation source language sentence is used, a situation explanation image that is also an image related to the situation where the expression is used, and a situation where the expression is also used This refers to the situation explanation sound, which is the sound related to.
  • the source language sentence for user confirmation is a sentence in the source language in which the expression relating to the context or the user's intention is added or changed based on the target language sentence for the input source language sentence.
  • This is a sentence in which the paraphrased sentence is expressed in the source language.
  • a situation explanation is a sentence that explains a situation that can be considered from the context or the user's intention, in addition to the expression in the source language sentence.
  • the situation explanation image and the situation explanation sound are not limited to the expression in the source language sentence, but the content of the target language sentence is appropriate in relation to the context or the user's intention. Image and sound. It should be noted that the situation description image is not limited to a still image or a moving image.
  • the translation device 10 can generate a translation result that more accurately reflects the context or the intention of the user. Also, the translation device 10 can use the situation description, the situation description image or the situation description sound, and the source language sentence at the time of user confirmation, and can translate the context or the user's intention. Results can be generated. Note that if the input source language sentence and the input source language sentence for user confirmation to be described in the bilingual information corresponding to the source language sentence are the same, the translator 10 checks the user in the bilingual information. Description of source language sentence is omitted.
  • the translation device 10 determines which of these candidates should be output as the final translation result.
  • the user is asked for confirmation and is selected, and the meaning of the final target language sentence is determined accordingly. Therefore, the user does not recognize at the time of input that there are multiple interpretations in the source language sentence with a specific context or intention, but the translation result from the translation device 10 is not recognized.
  • an appropriate one can be selected from among them.
  • the translation device 10 can generate a correct translation result even when the context of the source language sentence or the user's intention cannot be determined by inference or the like, and can improve translation accuracy.
  • the translation device 10 causes the target language sentence generation unit 16 to execute bilingual information related to the candidate selected by the user. Based on the report, a target language sentence is generated, and the generated target language sentence is output by the translation result output unit 17 using, for example, voice or characters, and a series of processing is completed.
  • the translation device 10 can independently process the translation process for each input source language sentence. Also, the translator 10 changes the contents of the bilingual information, so that each translation process is not independent, and the translation process for one source language sentence affects the translation process of the next input source language sentence. You can also translate. In other words, the source language sentence input after the source language sentence for a certain topic is likely to be about the same topic. In order to use this property, the translator 10 adds information for limiting the next source language sentence to the bilingual information, as shown in Figs. 2 and 3. I do.
  • the “information for limiting the source language sentence to be input next” refers to link information to bilingual information, field information, field-limited information, and the like.
  • the link information shown in Fig. 2 is provided to limit the target bilingual information to a very small number when analyzing the sentence of the next input source language sentence.
  • This is the information associated with the bilingual information that should be used in.
  • the bilingual information includes, in addition to the link information, the bilingual information that is always used even if the source language sentence is input after any source language sentence.
  • the common information flag for indicating is described in c.
  • the link information in a certain bilingual information A a is linked to the bilingual information B
  • link information b is linked to the bilingual information C
  • link information 1 is linked to the bilingual information N.
  • the translator 10 uses the link destinations from the link information a, b,..., N when analyzing the sentence of the next input source language sentence. It is only necessary to use the bilingual information B, C, ...
  • the field information and the field limitation information shown in FIG. 3 are information provided for limiting the target field when the sentence analysis of the next input source language sentence is performed.
  • the field information describes information indicating the field in which the bilingual information is used.
  • the field-limited information describes information indicating the field to which the bilingual information to be used after translation of the source language sentence using the bilingual information belongs. In the translation device 10, a plurality of these pieces of information may be described in one piece of bilingual information.
  • the translator 10 uses the link information, the field information, and the field-specific information to translate relatively typical conversational content, such as travel conversations. Candidates generated during translation of source language sentence can be limited, and the burden of asking the user for selection can be reduced.
  • a translation device capable of bidirectional translation can also be configured-that is, as shown in FIG. 4, the translation device 10 has the same configuration as the translation device 10 described above.
  • the translation device 10a that translates the input language A as the source language into the target language B, and also has the same configuration as the translation device 10; the source language and the object in the translation device 10a A translation device that replaces the language and translates the input language B as the source language into the target language A.
  • a bidirectional translator 20 that combines 10 b with 10 b.
  • bidirectional translator 20 In such a bidirectional translator 20, there is a case where the other user inputs a response sentence in response to a result of translating and outputting an input from one user. Therefore, in the bidirectional translator 20, information for limiting the sentence to be input next by the other party in the bilingual information for one translation, that is, information for associating with the other bilingual information for translation is used. To achieve more accurate translation.
  • the bidirectional translator 20 adds the bilingual information in the bilingual information databases 18a and 18b to, for example, link information to bilingual information in bidirectional translation, and field information and field-limited information in bidirectional translation. Is described.
  • the link information is provided, for example, to limit the translation information used when responding to the source language sentence input to one of the translators 10a from the other translator 10b to a very small number.
  • the bidirectional translator 20 may describe a plurality of pieces of link information in one piece of bilingual information.
  • the link information a, b, and c in certain translation information in one translation device 10a are respectively different from each other in the other translation device 10b.
  • the link information a, b, and c in certain bilingual information in the translator 10b are respectively linked to different bilingual information in the translator 10a. Shall be Then, at the time of the sentence analysis of the source language sentence in the language A input to one of the translators 10a.
  • the bidirectional translator 20 Next, to the language B input to the translation device 10 b
  • the translation information in the translation information database 18 b which is the link destination from each of the link information a, b, and c in the translation information database 18 a It is sufficient to use only
  • the bidirectional translator 20 when analyzing the source language sentence input to the translator 10a, the link destinations from the link information a, b, and c in the bilingual information in the bilingual information database 18b It is sufficient to use only the bilingual information in the bilingual information database 18a.
  • field information and field-limited information are, for example, sentence analysis of a source language sentence input to the other translator 10b in response to a source language sentence input to one translator 10a. This information is sometimes provided to limit the target field.
  • the bidirectional translator 20 uses these link information, field information, and field-limited information to translate relatively typical conversation contents such as travel conversations.
  • the translation information to be used can be limited and the candidates generated during translation can be limited, resulting in high accuracy and high quality Can be translated
  • the bidirectional translator 20 can also be used as a dialogue-assisted translator that translates with real time and supports dialogue.
  • a prediction example regarding a response to the source language sentence input to the translation device 10a is described in the bilingual information as response prediction information such as a response sentence, a response image, and a response voice.
  • the bidirectional translator 20 outputs the translation result, and may respond to the user of the translator 10a by the dialogue partner of the translator 10b with what kind of response. Is illustrated.
  • the response image may be a still image or a moving image. C By doing so, the bidirectional translator 20 can make the user's conversation smooth. Becomes possible.
  • FIG. 1 A dialogue-assisted speech translator 30 as shown in FIG.
  • the speech translator 30 is used in a form in which a user and a conversation partner with this user face each other with the speech translator 30 interposed therebetween.
  • the speech translator 30 is used as a shared part between the user and the conversation partner by providing information necessary for the conversation, such as translation results, by using characters, images, etc. in a direction suitable for the user and the conversation partner.
  • It has a liquid crystal display 31 for display and a speaker 32 for outputting information necessary for dialogue by voice.
  • 35b, and microphones 36a, 36b for the user and the conversation partner to input voice, respectively.
  • the speech translator 30 The voice input unit 41a, which is an input unit for inputting and digitizing the source language sentence by voice from the step 36a, and the source language sentence digitized by the voice input unit 41a
  • a speech recognition unit 42 a that is a speech recognition unit that performs continuous word recognition based on acoustic processing and a statistical language model
  • a sentence analysis unit 43 that is an analysis unit that analyzes the output from the speech recognition unit 42 a.
  • an application constraint judging unit which is an application constraint judging unit for judging whether or not the translation result candidate for the source language sentence satisfies the application constraint given to the bilingual information held in the bilingual information database 49 a described later.
  • the user confirmation section 4 6 a that outputs to the speaker 3 2
  • Target language sentence generation unit 47 a which is a target language sentence generation means for generating a target language sentence
  • the translation result output unit 48a which is an output means for outputting the translation information
  • the translation information database 49a which is a storage means for holding various translation information, and the output from the speech recognition unit 42a.
  • Speech recognition target limiting unit 50 a which is a speech recognition target limiting unit that holds the limiting conditions to be applied, and a bilingual information selection unit 5 1 that holds the translation information selection conditions used for the input source language sentence.
  • a response prediction unit 52 a that is a response prediction unit that generates response prediction information
  • a response prediction presentation unit that is a response prediction presentation unit that outputs the response prediction information generated by the response prediction unit 52 a 5 3 and a a,:
  • the speech translator 30 is a speech input unit 41b as a second input unit, a speech recognition unit 42b, and a second analysis unit on the conversation partner side, similarly to the user side.
  • a translation result output unit 48b a bilingual information database 49b as a second storage means, a speech recognition target limiting unit 50b, a bilingual information selection unit 51b, and a response prediction unit 5 2b and a response prediction presentation section 53b.
  • Such a speech translator 30 performs a series of processes as shown in FIGS. 8 and 9, and performs bidirectional translation while supporting a dialog between a user and a conversation partner.
  • a case will be described in which the source language sentence in Japanese issued by the user is translated into the target language sentence in English which the conversation partner can understand.
  • the speech translator 30 uses the speech recognition unit 42 a for the source language sentence digitized by the speech input unit 41 a based on the acoustic processing and the statistical language model in step S2.
  • Perform continuous word recognition For this continuous word recognition process, various methods such as generally used HMM-based recognition technology can be applied.
  • the speech translator 30 generates a wordgraph by this continuous word recognition process: Then, the speech translator 30 determines in step S3 that the limiting condition applied to the generated wordgraph is a speech recognition target. It is determined whether or not it is held in the limiting part 50a. This limiting condition is to limit the range that the speech recognition unit 42a should target in order to improve the accuracy of speech recognition.
  • the limiting condition there can be various kinds of information such as, for example, field information of the source language sentence described in the bilingual information, but here, as will be described later, processing of the source language sentence previously input is performed. It is a set of related independent words generated from the bilingual information associated with the bilingual information used in (1).
  • the speech translator 30 determines that the limitation condition is not held in the speech recognition object limitation unit 50a, the speech translator 30 shifts the processing to step S5.
  • the voice translator 30 shifts to the processing in step S5.
  • the speech translator 30 determines in step S4 the restriction condition for the generated code graph.
  • the size of the code graph is reduced to limit the recognition vocabulary: That is, the speech translator 30 generates, in the generated word graph, nodes that include independent words that are not included in the set of independent words described above. If it does, c to reduce the size of the entire Wa one Dogurafu by removing that part
  • step S5 the speech translator 30 determines whether the size of the word graph exceeds a predetermined size.
  • the speech translator 30 shifts to the processing in step S7, and on the other hand, after the processing in step S4, the speech translator 30. If the size is large, the speech translator 30 performs the marking once by the so-called N-Best search in step S6, and leaves nodes related to those having a high probability of appearing. Reduce the size of the word graph by removing nodes not included in the path so that the size of the word graph does not exceed a certain size.
  • the speech translator 30 analyzes the word graph output from the speech recognition unit 42a by the sentence analysis unit 43a, and applies The constraint judging unit 44a performs the application constraint judging process.
  • the speech translator 30 has a grammatical allowance for each example such as part of speech. By describing the category of This eliminates errors in similarity judgment. In addition, the speech translator 30 performs a similarity determination regarding the meaning of the word as a second change. In other words, in the case of a normal example-based translation system, the similarity is determined by defining the distance between words in the concept space using a thesaurus and confirming that the distance is equal to or less than a certain value. The speech translator 30 eliminates errors in similarity determination by describing a semantic category including the maximum number of words within an allowable range for each example.
  • the speech translator 30 can avoid a decrease in accuracy by describing further information in each bilingual information on a portion that may decrease the accuracy.
  • the description of the grammatical category as a non-terminal symbol, it is possible to handle each piece of bilingual information as a generally widely used context-free grammar rule.
  • a specific example of the translation information in the speech translator 30 is as shown in FIG.
  • the meaning of each item used in the figure is as shown in Table 1.
  • speech translator 3 in speech translator 3 0, as shown in FIG. 1 1, for example, ": S @ 1" and terms as used "Train:: ⁇ : Transportation @ 1" like in parallel translation information, the right side and the left side Both are ⁇ notation>: ⁇ grammar category>: ⁇ ieature>: ⁇ semantic category> @ ⁇ link number>, and unnecessary items and delimiters can be omitted.
  • the grammar category> corresponds to the first change described above
  • the semantic category> corresponds to the second change.
  • the ring number> indicates the link information number to which the part described in each sentence is related. If the same number is assigned to each sentence, the link information is related to the same link information. It indicates that
  • the ⁇ feature> is the conjugation form of the verb and auxiliary verb, It is used for describing various other constraints.
  • the translation information number is a file name that guarantees that the translation information is unique. This translation information number may make it difficult to maintain the translation information if it is written as it is, but the speech translator 30 uses a separate translation information authoring system. When writing these information, we do not use direct human resources to avoid the difficulty of maintaining bilingual information.
  • Such a speech translator 30 transmits the source language sentence of the bilingual information selected in step S7 in FIG. 8 based on the bilingual information selection condition described later held in the bilingual information selecting section 51a. Based on only the part, the sentence analyzing unit 43a determines which combination of the bilingual information the input source sentence can be composed.
  • the speech translator 30 considers, for example, the source language sentence part of the bilingual information as a context-free grammar rule, and performs analysis using a so-called chart parser inputting a code graph: For example, as described in “Hozumi Tanaka,“ Basics of Natural Language Analysis ”, Sangyo Tosho, 1989”. This is a method generally used as a parsing method. Then, the explanation is omitted.
  • step S8 the speech translator 30 generates a plurality of sentence candidates configured as a set of bilingual information from the word graph of the speech recognition result by performing the analysis using the charter.
  • the speech translator 30 outputs the same bilingual translation among the plurality of generated candidates. If there is more than one combination consisting of information, in step S9, similar to the ordinary example-based translation system, based on the similarity calculation, other than the best candidates are deleted, and If the information describes the application constraint, the application constraint judging unit 44a performs the application constraint judgment, and deletes candidates that do not satisfy the conditions.
  • the speech translator 30 By performing such processing, the speech translator 30 generates an optimal candidate for the source language sentence.
  • the speech translator 30 holds the bilingual information shown in FIG. 11, for example, the user inputs, "How much does a train via Futakotamagawaen take?" If the speech recognition is performed correctly, the sentence analysis section 43a causes the sentence to ask for the time using a combination of the bilingual information 120 and the bilingual information 283 and the bilingual information 130 and the bilingual information. then c generates a statement "asking cost in combination with the multi-address 2 8 3 as a candidate, the speech translation device 3 0, as shown in FIG. 9, whether Oite, candidate exists in step S 1 0 Is determined.
  • step S 20 displays characters and images on the liquid crystal unit 31, and outputs speech to the speaker 3.
  • step S 20 displays characters and images on the liquid crystal unit 31, and outputs speech to the speaker 3.
  • the speech translator 30 generates user confirmation information by the user confirmation information generation unit 45a based on the generated candidate in step S11. That is, the speech translator 30 generates a user confirmation source language sentence based on the user confirmation source language sentence described in each piece of bilingual information and the link information described therein. In the speech translator 30, this user confirmation In some cases, the source language sentence is described for each piece of bilingual information, and sometimes it is not written for each piece of bilingual information. For example, in the case of the speech translator 30, if the input source language sentence and the source language sentence for user confirmation to be described in the bilingual information corresponding to this source language sentence are the same, the The description of the source language sentence for user confirmation is omitted. If the translation information is not described for each piece of bilingual information, the speech translator 30 uses the source language sentence as it is instead.
  • the speech translator 30 uses the combination of the bilingual information 1 20 and the bilingual information 2 8 3 shown in Fig. 11 to say, ⁇ How long does it take for a train to travel through Futako Tamagawaen. Is generated, and the combination of the bilingual information 130 and the bilingual information 283 is used to determine how much money is required for a train traveling through Futako Tamagawaen. Generate an approved source language sentence.
  • the speech translator 30 can also generate a situation description-a situation description image and a situation description voice as user confirmation information.
  • the status description, the status description image, and the status description sound explain the bilingual information independently of the source language text. Therefore, the speech translator 30 uses these situation explanations, situation explanation images when the situation explanations, situation explanation images, and situation explanation speech are described in the bilingual information related to the source language sentence. Instead of combining the situation explanation voices into one like the source language sentence for user confirmation, they are simply generated as a set of information.
  • the speech translation device 3 in response to the generated each candidate, the user confirmation information corresponding to the meaning possessed by the candidate to generate c Subsequently, the speech translator 30 displays the generated user confirmation information on the liquid crystal unit 31 via the user confirmation unit 46a in step S12 in FIG. By outputting it, it is presented to the user.
  • the speech translator 30 allows the user to select, from the user confirmation information, the most appropriate candidate along the context of the source language sentence and the user's intention. Selected. Specifically, for example, as shown in FIG. 12, the speech translator 30 generates the “Futako Tamagawaen” generated from the combination of the bilingual information 120 and the bilingual information 283 shown in FIG. The time required for a train via Futako-Tamagawaen to be generated from a combination of a source language sentence for user confirmation that a train via Is displayed on the liquid crystal unit 31. In addition, as shown in FIG.
  • the speech translator 30 uses a source language sentence for user confirmation of “Sorry” in the erroneous situation generated earlier from the bilingual information 457 shown in FIG.
  • the source language sentence for user confirmation “Sorry,” in the thank-you situation generated from the information 458, is displayed on the LCD unit 31 and an image explaining the situation is displayed on the LCD unit 31.
  • a sound explaining the situation is output from the speaker 32.
  • the speech translator 30 allows the user to operate the direction button 33 a to select a candidate to be selected, and the selection button 34 a Press to confirm.
  • the speech translator 30 uses the source language sentence for user confirmation, the situation description, the situation description image, and the situation description voice to translate the speech.
  • the meaning of the target language sentence can be correctly conveyed to the user from various angles, and when the user makes a selection based on these, the interpretation is ambiguous due to the intention of the contextual user.
  • Language sentences can be translated correctly.
  • the speech translator 30 After the selection by the user, the speech translator 30 generates the target language sentence by the target language sentence generation unit 47a in step S14 in FIG. Further, when the response sentence, the response image, and the response speech are described in the bilingual information, the speech translator 30 uses the response prediction unit 52 , And the response voice is also generated.
  • the speech translator 30 When the link information is described for the response sentence (source language and target language) in the bilingual information, the speech translator 30 is described in each bilingual information in the same manner as the user confirmation source language sentence. A response sentence is generated based on the response sentence and the link information described therein.
  • the speech translator 30 When the link information is not described for the response sentence (source language and target language) in the bilingual information, the speech translator 30 combines the response sentence into one like the response sentence, just like the situation explanation.
  • a response sentence is generated by assembling the sentence as it is without performing the combining process. Further, the speech translator 30 generates a response image and a response voice by assembling the response image and the response voice as they are, similarly to the situation description image and the situation description voice. Specifically, the speech translator 30 responds to the source language sentence “How long does a train from Futakotamagawa Sono take on the train?” “How long wi1 1 the train which via ru akoTakot amaga aen t ake? ” ⁇ Generated as a T target language sentence. a Fut ak otamagawaen cos t? ”as the target language sentence.
  • voice translation If the machine 30 translates “Sorry,” in a situation where thank you as a source language sentence, it refers to the bilingual information 458 shown in Fig. 11 earlier and responds with “You are wel come In addition to predicting and generating a response sentence ",” it also predicts and generates a response sentence, "I am happy.”
  • the speech translator 30 sets bilingual information selection conditions in step S16 in FIG. That is, the speech translator 30 performs a process for limiting the bilingual information to be used for the next input source language sentence according to the current translation result.
  • the speech translator 30 is described in this way. Using only the bilingual information and general-purpose bilingual information used under any circumstances, the related bilingual information is translated so that the next input source language sentence can be processed. Record in the information selection section 51a. In this way, the speech translator 30 enters a state in which the translation information selection condition is set at the time of the translation processing of the next input source language sentence, and based on the translation information selection information, The processing is performed by limiting the target range at the time of selection. If the speech translator 30 cannot perform the process correctly using such a limiting condition, it removes the limiting condition and performs the process again. This By doing so, the speech translator 30 can flexibly cope with a situation change.
  • the speech translator 30 executes step S 17 in FIG.
  • the bilingual information selection condition in the reverse translation for translating the source language sentence input from the conversation partner is set and recorded in the bilingual information selection section 51a. .
  • the speech translator 30 sets a limitation condition for speech recognition based on the bilingual information selection condition, and records it in the speech recognition target limitation section 50a.
  • the speech translator 30 since the speech recognition unit 42a cannot use the bilingual information as it is, a list of independent words included in the related bilingual information recorded in the speech recognition target limiting unit 50a. Is generated and stored in the voice recognition target limiting unit 50a, and this list of independent words is used as a voice recognition limiting condition.
  • step S19 the speech translator 30 outputs the generated target language sentence and the response prediction information via the translation result output unit 48a and the response prediction presentation unit 53a, respectively.
  • a series of processes ends: Specifically, the speech translator 30 converts the generated target language sentence and the response prediction information into characters in a liquid crystal unit, for example, as shown in FIGS. 14 and 15. Displayed on 3 1 or output from voice 3 2 by voice: After such a series of processing, the voice translator 30 performs voice input button 35 b or voice input button depending on the conversation partner or the user. By pressing 3 a, the source language sentence is input, the translation process for this source language sentence is performed, and thereafter, these processes are repeated. In addition, although omitted, the speech translator 30 naturally has the same processing for the source language sentence input from the conversation partner as the above-described series of processing.
  • the translation device 10, the bidirectional translation device 20, and the speech translator 30 shown as the embodiments of the present invention are in accordance with the intention of the user, which was previously impossible. High-accuracy and high-quality translation results can be obtained, and a high-accuracy translation system is realized.
  • the speech translator 30 can support a smooth conversation and realize a highly accurate and easy-to-use speech translation system.
  • the configurations shown as the above-described embodiments are shown as examples embodied to realize the present invention, and the present invention is not limited to these configurations. Absent. For example, it goes without saying that the present invention can be easily applied not only when the source language sentence is input by voice but also when it is input by character.
  • the translation processing method according to the present invention is different from the input sentence or any part of the sentence in any source language. Based on the bilingual information that correlates the sentence or part of the sentence in any target language, the consistency or similarity between the sentence or part of the sentence in the source language and the sentence composed of the combination of the bilingual information is determined.
  • This is a translation processing method in which a sentence or part of the sentence in the source language is translated into a sentence or part of the sentence in the target language and output. Part, a sentence or part of a sentence in the target language which is a translation of this sentence or part of the sentence, and relevant information relating to the sentence or part of the sentence in the source language and the sentence or part of the sentence in the target language Is described.
  • the translation processing method provides the sentence or part of the sentence or source sentence in these source languages.
  • bilingual information in which relevant information related to a sentence or part of a sentence in a language is described, only the sentence or part of the sentence in the source language and the sentence or part of the sentence in the target language are described. It is more convenient than using bilingual information, and can provide high-accuracy and high-quality translation results in the source language or part of the context of the sentence or the user's intention, and facilitates dialogue. Can help.
  • the translation processing device comprises: an input means for inputting a sentence or a part of a sentence in an arbitrary source language; a sentence or a part of the sentence in the source language; Is described in association with a sentence or part of a sentence in any target language that is different from the source language, and a sentence or part of a sentence in the source language and a sentence or part of a sentence in the target language.
  • a storage means for storing bilingual information in which related information is described, and, based on the bilingual information, matching or similarity between a sentence or a part of the sentence in the source language and a sentence formed by combining the bilingual information
  • Determining gender Means for analyzing a sentence or part of a sentence in the source language to generate translation result candidates, and generating a sentence or part of the sentence in the target language that is a translation of the sentence or part of the sentence in the source language
  • a target language sentence generating means for outputting a sentence or a part of the sentence in the target language generated by the target language sentence generating means.
  • the translation processing device in addition to the sentence or part of the sentence in the source language, the sentence or part of the sentence in the target language, the translation processing device according to the present invention, the sentence or part of the sentence or source sentence in these source languages, By using bilingual information in which relevant information related to a sentence or part of a sentence in a language is described, only the sentence or part of the sentence in the source language and the sentence or part of the sentence in the target language are described. It is more user-friendly than translating using parallel translation information, and it is possible to obtain high-accuracy and high-quality translation results according to the context of the sentence or part of the sentence in the source language and the user's intention. When using it for dialogue, it is possible to support the progress and realize a smooth dialogue.

Abstract

A translating device (10) stores in a translation information database (18) in addition to an original language text and its object language text, a user confirmation original language text written in the original language and edited by making an addition or a change to or in the expression on the basis of the object language text, a situation describing text describing the situation where the expression of the user confirmation original language text is used, a situation describing image and a situation describing speech relating to the situation where the expression is used, and translation information including information concerning the original language text and the object language text, that is, the application limit applied to the candidates of the results of translation of the original language text. The original language text is translated into an object language text by using the translation information.

Description

明細書 翻訳処理方法及び翻訳処理装置 技術分野 本発明は、 入力された原言語文を目的言語文へと翻訳する翻訳処 理方法及び翻訳処理装置に関する。 背景技術 近年、 入力された任意の言語文を異なる言語文へと翻訳する翻訳 システムが実用化されてきている。 この翻訳システムにおいては、 翻訳精度と訳文品質とを向上させることが目下重要視されていると ころであり、 そのための様々な研究開発が行われている。  TECHNICAL FIELD The present invention relates to a translation processing method and a translation processing device for translating an input source language sentence into a target language sentence. BACKGROUND ART In recent years, translation systems for translating an input arbitrary language sentence into a different language sentence have been put to practical use. Improving the translation accuracy and the quality of the translated sentence is currently regarded as important in this translation system, and various research and development are being carried out for that purpose.
いわゆる構文トランスファ型の翻訳システムは、 原文と訳文との 構文上の対応関係に注目して人手により記述された多数の規則に基 づいて翻訳を行う。  A so-called syntactic transfer type translation system focuses on the syntactical correspondence between the original sentence and the translated sentence, and performs translation based on a large number of manually described rules.
しかしながら、 この構文トランスファ型の翻訳システムにおいて は、 構文上の部分的な対応関係を詳細に記述することが、 必ずしも 原文全体の翻訳精度の向上につながるわけではない。 また、 構文ト ランスファ型の翻訳システムにおいては、 原文全体を考慮した構文 上の対応関係ではなく、 構文上の部分的な対応関係によって選出さ れた情報を用いて訳文全体の生成を行うため、 自然な訳文を得るこ とが困難である。 また、 いわゆる知識ベース翻訳システムは、 原文を翻訳する際に 原文の意味を明示的に表現し、 比較的限定された範囲の対象分野の 知識を効率よく概念体系化した上で、 この概念体系を用いた推論を 行って翻訳する。 この知識ベース翻訳システムは、 概念体系を用い た推論を行うことによって、 解析 ·生成時にともなう曖昧性を解消 し、 高品質な翻訳を実現する。 However, in this syntactic transfer-type translation system, describing the syntactic partial correspondence in detail does not necessarily lead to an improvement in the translation accuracy of the entire original sentence. Also, in a syntactic transfer type translation system, the entire translation is generated using information selected based on partial syntactical relationships instead of syntactical relationships that take into account the entire original sentence. It is difficult to get a natural translation. In addition, the so-called knowledge-based translation system expresses the meaning of the original sentence explicitly when translating the original sentence, efficiently organizes the knowledge of a relatively limited range of target fields, and then converts this concept system. Perform the inference used and translate. This knowledge-based translation system realizes high-quality translation by performing inference using a concept system, thereby eliminating ambiguity associated with analysis and generation.
しかしながら、 知識ベース翻訳システムにおいては、 その規模の 拡大にともない概念体系の一貫性を保持することが困難となる。 ま た、 知識ベース翻訳システムにおいては、 原文の意味を明示的に記 述するために、 膨大な時間や労力を要するといった問題もある。  However, in a knowledge-based translation system, it is difficult to maintain the consistency of the conceptual system as its scale increases. Another problem with knowledge-based translation systems is that it takes an enormous amount of time and effort to explicitly describe the meaning of the original text.
さらに、 いわゆる用例べ一ス翻訳システムは、 大量のコーパスを 収集して利用することによって、 翻訳精度の向上を可能にしたもの であり、 他の翻訳方式に比べて自然な訳文の生成が可能であるとさ れている。  Furthermore, the so-called example-based translation system enables the translation accuracy to be improved by collecting and using a large amount of corpus, and it is possible to generate a natural translation in comparison with other translation methods. It is said that there is.
しかしながら、 この用例べ一ス翻訳システムにおいては、 一般に、 用例との類似性を判定するためにシソーラスを用いて概念空間にお ける距離判定を行ったり、 構文解析を行った上での構文構造の類似 性判定を行う といったように、 判定基準が翻訳システム全体で一意 である。 そのため、 用例ベース翻訳システムにおいては、 コーパス の数が十分でない場合に、 その翻訳精度が著しく低下する。 したが つて、 用例べ一ス翻訳システムにおいては、 複合語の解析といった 特定の用途を除いては、 コーパスの整備に膨大な時間や労力を必要 とし、 実用的なシステムを構築するのに足るものではない。  However, in this example-based translation system, generally, in order to determine the similarity to the example, a distance is determined in a conceptual space using a thesaurus, or the syntax structure is analyzed after parsing. Judgment criteria are unique throughout the translation system, such as performing similarity judgment. Therefore, in the example-based translation system, if the number of corpora is not sufficient, the translation accuracy is significantly reduced. Therefore, the example-based translation system requires a huge amount of time and effort to maintain the corpus, except for specific uses such as compound word analysis, and is sufficient to construct a practical system. is not.
さらにまた、 例えば特開平 5 - 2 9 0 0 8 2号公報ゃ特開平 1 0 - 1 1 4 4 7号公報等に記載されているように、 対訳用例を抽象化 した翻訳知識をパターンと して記述し、 入力した原文がこれらのパ ターンの組み合わせと して構成できない場合には、 より制約の弱い パターンの集合を利用して翻訳を行ったり、 上述した構文トランス ファ型の翻訳を行うようにする技術が存在する。 このようにするこ とによって、 この方法は、 翻訳システム全体としてのメインテナン ス性を保持した上で、 特定の表現についてのみ自然な翻訳を可能と する。 Furthermore, as described in, for example, Japanese Patent Application Laid-Open No. 5-29082 and Japanese Patent Application Laid-Open No. 110-14747, the translation example is abstracted. If the input sentence cannot be composed as a combination of these patterns, translation is performed using a set of less restrictive patterns, or the above-mentioned syntax transformer is used. There is a technique for performing the translation of the web-form. By doing so, this method enables natural translation of only specific expressions while maintaining the maintainability of the translation system as a whole.
しかしながら、 この方法においては、 パターンの組み合わせとし て原文が構成できない場合には、 その翻訳精度が低下するという問 題がある。 その上、 原文が文脈やユーザの意図により複数の意味で の解釈が可能な場合があることから、 この方法においては、 パター ンの組み合わせと適合する場合でも、 必ずしもユーザの意図した内 容と合致する訳文が得られるとは限らない。  However, in this method, if the original text cannot be composed as a combination of patterns, there is a problem that the translation accuracy is reduced. In addition, since the original text can be interpreted in multiple meanings depending on the context and the user's intention, this method does not always match the user's intended content even if it matches the pattern combination. Is not always available.
このよ うな従来の翻訳システムは、 入力された原文をいかなる場 合においても完全に自動的に翻訳して出力することを前提と してい る。 そのため、 従来の翻訳システムに付随する上述した問題点は、 この前提条件のもとで、 いかに翻訳精度や訳文品質を向上させるか という観点から研究開発が行われていることに起因するものである ところで、 従来の翻訳システムは、 言語データの整備等によって, その翻訳精度が徐々に向上しつつあるものの、 例えば訳文の言語で ある目的言語の知識を全く持ち合わせていないユーザが安心して利 用できるものではなく、 訳文品質も実用に耐え得るような高精度の  Such conventional translation systems are based on the premise that in any case, the input original text is completely automatically translated and output. For this reason, the above-mentioned problems associated with the conventional translation system stem from the fact that research and development are being conducted under these preconditions from the perspective of how to improve translation accuracy and translation quality. By the way, in conventional translation systems, although the translation accuracy is gradually improving due to the maintenance of language data, for example, users who do not have any knowledge of the target language, which is the language of the translated sentence, can use it with confidence. The translation quality is not
'つた。 発明の開示 本発明は、 このような実情に鑑みてなされたものであり、 入力さ れた原文をいかなる場合においても完全に自動的に翻訳して出力す ることを前提としていた従来の翻訳システムにおける問題点を解決 して、 従来では不可能とされたユーザの意図に沿った高精度かつ高 品質の翻訳結果を得る翻訳処理方法及び翻訳処理装置を提供するこ とを目的とするものである。 'Ivy. Disclosure of the invention The present invention has been made in view of the above circumstances, and has a problem in a conventional translation system that presumes that an input original text is completely automatically translated and output in any case. It is an object of the present invention to provide a translation processing method and a translation processing apparatus that can obtain a high-accuracy and high-quality translation result according to a user's intention that has been impossible in the past.
上述した目的を達成する本発明にかかる翻訳処理方法は、 入力さ れた任意の原言語による文又は文の一部と、 この原言語とは異なる 任意の目的言語による文又は文の一部とを対応付けた対訳情報に基 づき、 原言語による文又は文の一部と、 対訳情報の組み合わせによ つて構成される文との一致性或いは類似性を判定し、 原言語による 文又は文の一部を目的言語による文又は文の一部に翻訳して出力す る翻訳処理方法であって、 対訳情報には、 原言語による文又は文の 一部と、 この文又は文の一部の対訳である目的言語による文又は文 の一部と、 原言語による文又は文の一部及び目的言語による文又は 文の一部に関連する関連情報とが記述されていることを特徴と して いる。  The translation processing method according to the present invention that achieves the above-described object includes a sentence or a part of a sentence in an input arbitrary source language and a sentence or a part of a sentence in an arbitrary target language different from the source language. Based on the bilingual information in which the sentence is matched, the matching or similarity between the sentence or part of the sentence in the source language and the sentence composed of the combination of the translated information is determined, and the sentence or the sentence in the source language is determined. A translation processing method in which a part is translated into a sentence or part of a sentence in the target language and output. The bilingual information includes a sentence or part of the sentence in the source language and a part of this sentence or part of the sentence. It is characterized by a sentence or part of a sentence in the target language that is a parallel translation, and a sentence or part of the sentence in the source language and related information related to the sentence or part of the sentence in the target language. I have.
このような本発明にかかる翻訳処理方法は、 原言語による文又は 文の一部と、 目的言語による文又は文の一部との他に、 これらの原 言語による文又は文の一部及び目的言語による文又は文の一部に関 連する関連情報とが記述された対訳情報を用いて、 原言語による文 又は文の一部を、 目的言語による文又は文の一部に翻訳する = また、 上述した目的を達成する本発明にかかる翻訳処理装置は、 任意の原言語による文又は文の一部を入力する入力手段と、 原言語 による文又は文の一部と、 この文又は文の一部の対訳である原言語 とは異なる任意の目的言語による文又は文の一部とが対応付けられ て記述されるとともに、 原言語による文又は文の一部及び目的言語 による文又は文の一部に関連する関連情報が記述された対訳情報を 記憶する記憶手段と、 対訳情報に基づき、 原言語による文又は文の 一部と、 対訳情報の組み合わせによって構成される文との一致性或 いは類似性を判定することによって、 原言語による文又は文の一部 を解析して翻訳結果の候補を生成する解析手段と、 原言語による文 又は文の一部の対訳である目的言語による文又は文の一部を生成す る目的言語文生成手段と、 目的言語文生成手段により生成された目 的言語による文又は文の一部を出力する出力手段とを備えることを 特徴としている。 Such a translation processing method according to the present invention includes a sentence or part of a sentence in the source language, a sentence or part of the sentence in the target language, and a sentence or part of the sentence in the source language and the purpose. Translates a sentence or part of a sentence into a target language or part of a sentence in a target language using bilingual information that describes relevant information related to a sentence or part of a sentence in a language = A translation processing apparatus according to the present invention that achieves the above-described object includes: input means for inputting a sentence or a part of a sentence in an arbitrary source language; Sentence or part of a sentence, and a sentence or part of a sentence in an arbitrary target language different from the source language, which is a translation of this sentence or part of the sentence, are described in association with each other. A storage means for storing bilingual information in which a sentence or a part of a sentence and related information related to the sentence or a part of the sentence in the target language are written; a sentence or a part of the sentence in the source language based on the translated information; Analysis means for analyzing a sentence or a part of the sentence in the source language to generate a translation result candidate by judging the coincidence or similarity with the sentence composed of the bilingual information; Target language sentence generating means for generating a sentence or part of a sentence in the target language which is a translation of a sentence or a part of the sentence according to the target language, and a sentence or part of the sentence in the target language generated by the target language sentence generating means Output means for outputting It is characterized by a door.
このような本発明にかかる翻訳処理装置は、 原言語による文又は 文の一部と、 目的言語による文又は文の一部との他に、 これらの原 言語による文又は文の一部及び目的言語による文又は文の一部に関 連する関連情報とが記述された対訳情報を記憶手段に記憶し、 この 対訳情報を用いて、 原言語による文又は文の一部を、 目的言語によ る文又は文の一部に翻訳する。 図面の簡単な説明 図 1は、 本発明の実施の形態として示す翻訳装置の構成を説明す るブロック図である c Such a translation processing device according to the present invention can provide a sentence or a part of a sentence in the source language, a sentence or a part of the sentence in the target language, a sentence or a part of the sentence in the source language, and an object. The bilingual information in which relevant information related to a sentence or a part of the sentence in the language is described is stored in the storage unit, and the sentence or a part of the sentence in the source language is converted into the target language using the translated information. To a sentence or part of a sentence. BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a block diagram that describes the configuration of the translation apparatus shown as an embodiment of the present invention c
図 2は、 同翻訳装置が保持する対訳情報の一例を説明する図であ つて、 リンク情報が記述された対訳情報を説明する図である。 図 3は、 同翻訳装置が保持する対訳情報の一例を説明する図であ て、 分野情報及び分野限定情報が記述された対訳情報を説明する 図である。 FIG. 2 is a diagram for explaining an example of the bilingual information held by the translation apparatus, and is a diagram for explaining the bilingual information in which link information is described. FIG. 3 is a diagram illustrating an example of the bilingual information held by the translation apparatus, and is a diagram illustrating the bilingual information in which field information and field limited information are described.
図 4は、 同翻訳装置を組み合わせて構成した応用例である双方向 翻訳装置の構成を説明するプロック図である。  FIG. 4 is a block diagram illustrating a configuration of a bidirectional translation apparatus which is an application example configured by combining the translation apparatuses.
図 5は、 同双方向翻訳装置が保持する対訳情報の一例を説明する 図であって、 応答予測情報が記述された対訳情報を説明する図であ る。  FIG. 5 is a diagram for explaining an example of the bilingual information held by the bidirectional translation device, and is a diagram for explaining the bilingual information in which response prediction information is described.
図 6は、 同双方向翻訳装置をより具体的に構成した音声翻訳機の 外観を説明する平面図である。  FIG. 6 is a plan view illustrating the appearance of a speech translator that more specifically configures the bidirectional translation device.
図 7は、 同音声翻訳機の構成を説明するプロック図である。  FIG. 7 is a block diagram illustrating the configuration of the speech translator.
図 8は、 同音声翻訳機における一連の処理工程を説明するフロ一 チヤ一卜でめる。  FIG. 8 is a flowchart illustrating a series of processing steps in the speech translator.
図 9は、 同音声翻訳機における一連の処理工程を説明する図であ つて、 図 8に示した処理工程に続いて行われる処理工程を説明する フローチヤ一トである。  FIG. 9 is a diagram illustrating a series of processing steps in the speech translator, and is a flowchart illustrating a processing step performed subsequent to the processing step illustrated in FIG.
図 1 0は、 同音声翻訳機が保持する対訳情報の一例を説明する図 で fcる。  FIG. 10 is a diagram for explaining an example of the bilingual information held by the speech translator.
図 1 1は、 同音声翻訳機が保持する対訳情報の具体的な一例を説 明する図である:  Figure 11 is a diagram illustrating a specific example of bilingual information held by the speech translator:
図 1 2は、 同音声翻訳機において生成されたユーザ確認用情報の 一例を説明する図であって、 このユーザ確認用情報を液晶部により 出力したときの様子を説明する図である。  FIG. 12 is a diagram illustrating an example of user confirmation information generated by the speech translator, and is a diagram illustrating a state when the user confirmation information is output from a liquid crystal unit.
図 1 3は、 同音声翻訳機において生成されたユーザ確認用情報の 別の一例を説明する図であって、 このユーザ確認用情報を液晶部及 びスピ一力により出力したときの様子を説明する図である。 FIG. 13 is a diagram for explaining another example of the user confirmation information generated by the speech translator. FIG. 6 is a diagram for explaining a state when output is performed by a speed and speed.
図 1 4は、 同音声翻訳機において生成された目的言語文及び応答 予測情報の一例を説明する図であって、 これらの目的言語文及び応 答予測情報を液晶部及びスピー力により出力したときの様子を説明 する図である。  Fig. 14 is a diagram for explaining an example of the target language sentence and the response prediction information generated by the speech translator, when the target language sentence and the response prediction information are output by the liquid crystal unit and the speed. FIG.
図 1 5は、 同音声翻訳機において生成された目的言語文及び応答 予測情報の別の一例を説明する図であって、 これらの目的言語文及 び応答予測情報を液晶部及びスピーカにより出力したときの様子を 説明する図である。 発明を実施するための最良の形態 以下、 本発明を適用した具体的な実施の形態について図面を参照 しながら詳細に説明する。  FIG. 15 is a diagram for explaining another example of the target language sentence and the response prediction information generated by the speech translator.The target language sentence and the response prediction information are output from the liquid crystal unit and the speaker. It is a figure explaining the situation at the time. BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
本発明を適用した実施の形態として図 1 に示す翻訳装置 1 0は、 原言語文に対応する訳文である目的言語文の品質を確保するために. いわゆる用例べ一ス翻訳、 パターンベース翻訳、 テンプレートベー ス翻訳等と称される翻訳方法と同様に、 原言語文又はその一部と、 対応する目的言語文又はその一部との組みを翻訳処理における基本 情報 (対訳情報) の一部とし、 さらにこの対訳情報に原言語文に関 連する情報を記述して、 この対訳情報の組み合わせによって構成さ れる文との一致性判定若しくは類似性判定を行うことで翻訳処理を 行うものである。  A translation device 10 shown in FIG. 1 as an embodiment to which the present invention is applied is intended to ensure the quality of a target language sentence that is a translation corresponding to a source language sentence. So-called example-based translation, pattern-based translation, As with the translation method called template-based translation, the combination of the source language sentence or a part of it and the corresponding target language sentence or part of it is part of the basic information (translation information) in the translation process. Furthermore, the translation processing is performed by describing information related to the source language sentence in the bilingual information, and performing a match determination or a similarity determination with a sentence formed by the combination of the bilingual information.
なお、 翻訳装置 1 0は、 原言語による文章のみではなく、 任意の フレ一ズや単語といった文章を構成する単位をも翻訳可能とするも のである。 したがって、 以下の説明では、 これらの翻訳対象となる 文章、 フレーズ、 単語等を文と総称して用いるものとする。 すなわ ち、 原言語文とは、 原言語による文章、 フレーズ、 単語等を示し、 目的言語文とは、 目的言語による文章、 フレーズ、 単語等を示すも のである。 It should be noted that the translator 10 is capable of translating not only sentences in the source language, but also units constituting sentences such as arbitrary phrases and words. It is. Therefore, in the following description, these sentences, phrases, words, and the like to be translated are collectively used as sentences. In other words, the source language sentence indicates a sentence, phrase, word, or the like in the source language, and the target language sentence indicates a sentence, phrase, word, or the like in the target language.
翻訳装置 1 0は、 図 1に示すように、 例えば音声や文字等による 原言語文を入力して解析可能なデータへと変換する入力手段である 文入力部 1 1 と、 後述する対訳情報データベース 1 8の中の対訳情 報の組み合わせによって構成される文と原言語文との一致性判定或 いは類似性判定を行う解析手段である文解析部 1 2 と、 原言語文に 対する翻訳結果の候補が対訳情報に付与された適用制約を満たすか 否かを判定する適用制約判定手段である適用制約判定部 1 3 と、 ュ 一ザに提示する確認用情報を生成するユーザ確認用情報生成部 1 4 と、 このユーザ確認用情報生成部 1 4により生成された確認用情報 をユーザに提示するユーザ確認部 1 5 と、 目的言語文を生成する目 的言語文生成手段である目的言語文生成部 1 6 と、 この目的言語文 生成部 1 6により生成された目的言語文を例えば音声や文字等によ り出力する出力手段である翻訳結果出力部 1 7 と、 各種対訳情報を 保持する記憶手段である対訳情報データベース 1 8 とを備える。  As shown in FIG. 1, the translation device 10 includes, as shown in FIG. 1, a sentence input unit 11 which is an input means for inputting a source language sentence such as a voice or a character and converting the sentence into data that can be analyzed, and a bilingual information database described later. Sentence analysis unit 12 which is an analysis means for judging the similarity or similarity between the sentence composed of the bilingual information in 18 and the source language sentence, and the translation result for the source language sentence Constraint judging unit 13 which is an application constraint judging means for judging whether or not the candidate satisfies the application constraint given to the bilingual information, and user confirmation information generation for generating confirmation information to be presented to a user Unit 14, a user confirmation unit 15 for presenting the confirmation information generated by the user confirmation information generation unit 14 to the user, and a target language sentence which is a target language sentence generating means for generating a target language sentence. Generation unit 16 and generation of this target language sentence It has a translation result output unit 17 which is an output means for outputting the target language sentence generated by 16 as, for example, voice or characters, and a bilingual information database 18 which is a storage means for holding various types of bilingual information. .
このよ うな翻訳装置 1 0は、 まず文入力部 1 1 によって、 入力さ れた原言語文に対して例えばディジタル化等の処理を施す。 そして. 翻訳装置 1 0は、 文解析部 1 2に対して処理が施された原言語文を 入力し、 この文解析部 1 2によって、 入力した原言語文と対訳情報 データベース 1 8の中の対訳情報の組み合わせによって構成される 文との一致性判定或いは類似性判定を行う。 このことにより、 翻訳 装置 1 0は、 原言語文における文脈やユーザの意図を問わず、 原言 語文の構文に近い表現を候補と して生成する。 Such a translation device 10 first performs, for example, digitization processing on the input source language sentence by the sentence input unit 11. The translation device 10 inputs the source language sentence processed to the sentence analysis unit 12, and the sentence analysis unit 12 causes the input source language sentence and the bilingual information database 18 Judgment of similarity or similarity with a sentence composed of a combination of bilingual information is performed. This allows the translation The device 10 generates, as a candidate, an expression similar to the syntax of the original language sentence, regardless of the context or the user's intention in the source language sentence.
次に、 翻訳装置 1 0は、 適用制約判定部 1 3によって、 生成され た複数の候補が、 各対訳情報毎に個別に付与された適用制約を全て 満たすかの判定を、 全ての候補のそれぞれに対して行う。 すなわち、 翻訳装置 1 0は、 各対訳情報の適用可能性を示す判定基準を一意の ものを用いるのではなく、 各対訳情報毎に適用制約を記述している: そして、 翻訳装置 1 0は、 この判定処理の結果、 複数の候補のうち, 適用制約を全て満たさない表現が存在していることを認識した場合 には、 この表現を候補から除去する。 このことにより、 翻訳装置 1 0は、 膨大な数のコ ーパスを有さなく とも高精度の翻訳が可能とな る。  Next, the translation device 10 determines, by the application constraint determination unit 13, whether or not the plurality of generated candidates satisfies all the application constraints individually assigned to each piece of translation information. Do for That is, the translation device 10 describes the application constraint for each piece of parallel translation information instead of using a unique criterion indicating the applicability of each piece of translation information: As a result of this determination processing, when it is recognized that there is an expression that does not satisfy all of the application constraints among a plurality of candidates, this expression is removed from the candidates. As a result, the translation device 10 can perform high-accuracy translation without having a huge number of corpora.
なお、 翻訳装置 1 0においては、 この判定処理を文解析部 1 2に より行うようにしてもよい。 また、 翻訳装置 1 0においては、 用例 ベース翻訳システムと同様に、 シソーラスを用いた概念空間におけ る距離といった一意の適用可能性の判定基準を用いることも可能で あるが、 この場合、 入力された原言語文と対訳情報の組み合わせに よって構成される文との一致性判定或いは類似性判定の精度が多少 低下する。  In the translator 10, this determination process may be performed by the sentence analyzer 12. Also, in the translation apparatus 10, as in the example-based translation system, it is possible to use a unique applicability determination criterion such as a distance in a conceptual space using a thesaurus. The accuracy of matching or similarity judgment between the source language sentence and the sentence composed of the bilingual information is slightly reduced.
さらに、 翻訳装置 1 0は、 この時点で候補が全く存在しないこと を認識した場合には、 原言語文を翻訳不可能である旨を例えば音声 や文字等によりユーザに通知するとともに、 別の表現での原言語文 の入力を再度行うようにユーザに要求する。 このように、 翻訳装置 1 0においては、 入力された原言語文がいかなるものであっても翻 訳するのではなく、 適用可能性の判定処理を行う ことで、 扱うこと ができない原言語文を拒否することができる。 Further, if the translation apparatus 10 recognizes that no candidate exists at this point, the translation apparatus 10 notifies the user that the source language sentence cannot be translated, for example, by voice or text, and expresses another expression. Ask the user to re-enter the source language sentence in. In this way, the translator 10 does not translate any input source language sentence, but handles it by performing applicability determination processing. You can reject source language sentences that cannot be done.
次に、 翻訳装置 1 0は、 ユーザ確認用情報生成部 1 4によって、 選出された各候補を構成するそれぞれの対訳情報に付与されている 情報に基づき、 ユーザに提示する情報を生成し、 ユーザ確認部 1 5 によって、 生成された情報をユーザに提示する c これに応じて、 ュ 一ザは、 最も文脈、 意図に合致した候補を選択する。 すなわち、 翻 訳装置 1 0においては、 原言語文がその文脈やユーザの意図により 複数の解釈が可能であり、 対応する目的言語文が複数生成可能であ る場合に、 最終的な目的言語文を決定するために行うユーザへの確 認に必要となる情報を生成する。  Next, the translation device 10 generates information to be presented to the user by the user confirmation information generation unit 14 based on the information given to the respective translation information constituting each selected candidate. The generated information is presented to the user by the confirmation unit 15. c In response to this, the user selects a candidate that best matches the context and intention. In other words, in the translator 10, if the source language sentence can be interpreted multiple times depending on the context and the user's intention, and the corresponding target language sentence can be generated multiple times, the final target language sentence can be obtained. Generates the information needed to confirm with the user to determine
ここで、 この 「ユーザへの確認に必要となる情報」 とは、 目的言 語文に意味が合致するように表現に追加や変更がなされた原言語に よる文であるユーザ確認用原言語文や、 このユーザ確認用原言語文 の表現が用いられる状況を説明する文である状況説明文や、 同じく その表現が用いられる状況に関連する画像である状況説明画像や、 同じくその表現が用いられる状況に関連する音声である状況説明音 声のことを指す。  Here, the “information required for confirmation to the user” is a source language sentence for user confirmation, which is a sentence in the source language in which the expression has been added or changed so that the meaning matches the target language sentence, or , A situation description sentence that explains the situation where the expression of the user confirmation source language sentence is used, a situation explanation image that is also an image related to the situation where the expression is used, and a situation where the expression is also used This refers to the situation explanation sound, which is the sound related to.
すなわち、 ユーザ確認用原言語文とは、 入力された原言語文に対 する目的言語文に基づいて、 その文脈或いはユーザの意図に関する 表現が追加 · 変更された原言語による文であり、 目的言語文を言い 換えた文を原言語により表現した文である。 また、 状況説明文とは. 原言語文による表現とは別に、 その文脈或いはユーザの意図から考 えられる状況を説明する文である。 さらに、 状況説明画像及び状況 説明音声とは、 それぞれ、 原言語文による表現とは別に、 その文脈 或いはユーザの意図に関連して、 目的言語文が意味する内容を適切 に表現する画像及び音声である。 なお、 状況説明画像と しては、 静 止画像、 動画像といった画像の種類に限定はない。 In other words, the source language sentence for user confirmation is a sentence in the source language in which the expression relating to the context or the user's intention is added or changed based on the target language sentence for the input source language sentence. This is a sentence in which the paraphrased sentence is expressed in the source language. A situation explanation is a sentence that explains a situation that can be considered from the context or the user's intention, in addition to the expression in the source language sentence. In addition, the situation explanation image and the situation explanation sound are not limited to the expression in the source language sentence, but the content of the target language sentence is appropriate in relation to the context or the user's intention. Image and sound. It should be noted that the situation description image is not limited to a still image or a moving image.
翻訳装置 1 0は、 ユーザ確認の際に、 原言語文に代わってユーザ 確認用原言語文を用いることによって、 より正確に文脈或いはユー ザの意図を反映した翻訳結果を生成することができる。 また、 翻訳 装置 1 0は、 ユーザ確認の際に、 状況説明文、 状況説明画像或いは 状況説明音声と、 原言語文との双方を用いることによつても、 文脈 或いはユーザの意図を反映した翻訳結果を生成することができる。 なお、 翻訳装置 1 0は、 入力された原言語文と、 この原言語文に対 応する対訳情報に記述されるべきユーザ確認用原言語文とが同一で ある場合、 対訳情報へのユーザ確認用原言語文の記述を省略する。 このように、 翻訳装置 1 0は、 入力された原言語文に対応する目 的言語文が複数生成可能である場合に、 これらの候補のうち、 どの 候補を最終的な翻訳結果として出力すべきかをユーザに確認を求め て選択させ、 それに応じて、 最終的に得られる目的言語文の意味を 判断する。 そのため、 ユーザは、 特定の文脈や意図を持って入力し た原言語文に複数の解釈が存在することを、 入力の時点では意識す ることはないが、 翻訳装置 1 0からの翻訳結果の確認のために、 上 述した情報をともなつた複数の候補が提示されることで、 その中か ら適切なものを選択することができる。 その結果、 翻訳装置 1 0は. 原言語文の文脈やユーザの意図を推論等により決定できない場合に も、 正しい翻訳結果を生成することができ、 翻訳精度の向上を図る ことができる。  By using the source language sentence for user identification in place of the source language sentence at the time of user identification, the translation device 10 can generate a translation result that more accurately reflects the context or the intention of the user. Also, the translation device 10 can use the situation description, the situation description image or the situation description sound, and the source language sentence at the time of user confirmation, and can translate the context or the user's intention. Results can be generated. Note that if the input source language sentence and the input source language sentence for user confirmation to be described in the bilingual information corresponding to the source language sentence are the same, the translator 10 checks the user in the bilingual information. Description of source language sentence is omitted. As described above, when a plurality of target language sentences corresponding to the input source language sentence can be generated, the translation device 10 determines which of these candidates should be output as the final translation result. The user is asked for confirmation and is selected, and the meaning of the final target language sentence is determined accordingly. Therefore, the user does not recognize at the time of input that there are multiple interpretations in the source language sentence with a specific context or intention, but the translation result from the translation device 10 is not recognized. By presenting a plurality of candidates with the above information for confirmation, an appropriate one can be selected from among them. As a result, the translation device 10 can generate a correct translation result even when the context of the source language sentence or the user's intention cannot be determined by inference or the like, and can improve translation accuracy.
そして、 翻訳装置 1 0は、 ユーザによる確認及び選択後、 目的言 語文生成部 1 6によって、 ユーザが選択した候補に関連する対訳情 報に基づいて、 目的言語文を生成し、 翻訳結果出力部 1 7によって、 生成した目的言語文を例えば音声や文字等により出力して、 一連の 処理を終了する。 Then, after confirmation and selection by the user, the translation device 10 causes the target language sentence generation unit 16 to execute bilingual information related to the candidate selected by the user. Based on the report, a target language sentence is generated, and the generated target language sentence is output by the translation result output unit 17 using, for example, voice or characters, and a series of processing is completed.
このような一連の処理を行うことによって、 翻訳装置 1 0は、 入 力された原言語文毎の翻訳過程を独立に処理することができる。 また、 翻訳装置 1 0は、 対訳情報の内容を変えることで、 各翻訳 過程が独立ではなく、 ある原言語文に対する翻訳処理が次に入力さ れた原言語文の翻訳処理に影響を与えて翻訳を行うこともできる。 すなわち、 ある話題についての原言語文の次に入力された原言語 文は、 同じ話題に関するものである可能性が高い。 そこで、 翻訳装 置 1 0においては、 この特性を利用するために、 図 2及び図 3に示 すように、 対訳情報にさらに次に入力される原言語文を限定するた めの情報を追加する。  By performing such a series of processes, the translation device 10 can independently process the translation process for each input source language sentence. Also, the translator 10 changes the contents of the bilingual information, so that each translation process is not independent, and the translation process for one source language sentence affects the translation process of the next input source language sentence. You can also translate. In other words, the source language sentence input after the source language sentence for a certain topic is likely to be about the same topic. In order to use this property, the translator 10 adds information for limiting the next source language sentence to the bilingual information, as shown in Figs. 2 and 3. I do.
ここで、 この 「次に入力される原言語文を限定するための情報」 とは、 対訳情報へのリンク情報や分野情報及び分野限定情報等を指 す。  Here, the “information for limiting the source language sentence to be input next” refers to link information to bilingual information, field information, field-limited information, and the like.
すなわち、 図 2に示すリンク情報とは、 次に入力される原言語文 の文解析時に対象とする対訳情報をごく少数に限定するために設け られるものであり、 次に入力される原言語文で用いられるべき対訳 情報への関連付け情報である。 翻訳装置 1 0においては、 1つの対 訳情報に複数のリンク情報を記述してもよい。 なお、 翻訳装置 1 0 においては、 このリンク情報を用いる場合、 対訳情報にはリンク情 報の他に、 いかなる原言語文の後に入力される原言語文であっても 常に利用される対訳情報を示すための共通情報フラグが記述される c 具体的には、 図 2に示すように、 ある対訳情報 A中のリンク情報 aは、 対訳情報 Bに、 リンク情報 bは、 対訳情報 Cに、 リンク情報 一 nは、 対訳情報 Nに、 それぞれリンク しているものとすると、 入力 された原言語文を文解析した際に、 対訳情報 Aを用いた場合には、 翻訳装置 1 0は、 次に入力された原言語文を文解析する際には、 各 リンク情報 a, b, · · ·, nからのリ ンク先である対訳情報 B, C, · · ·, Nのみを用いればよいことになる。 In other words, the link information shown in Fig. 2 is provided to limit the target bilingual information to a very small number when analyzing the sentence of the next input source language sentence. This is the information associated with the bilingual information that should be used in. In the translation device 10, a plurality of link information may be described in one piece of translation information. When using this link information in the translator 10, the bilingual information includes, in addition to the link information, the bilingual information that is always used even if the source language sentence is input after any source language sentence. The common information flag for indicating is described in c. Specifically, as shown in Fig. 2, the link information in a certain bilingual information A a is linked to the bilingual information B, link information b is linked to the bilingual information C, and link information 1 is linked to the bilingual information N. When the bilingual information A is used, the translator 10 uses the link destinations from the link information a, b,..., N when analyzing the sentence of the next input source language sentence. It is only necessary to use the bilingual information B, C, ...
一方、 図 3に示す分野情報及び分野限定情報とは、 次に入力され る原言語文の文解析時に対象となる分野を限定するために設けられ る情報である。 分野情報は、 その対訳情報が用いられる分野を示す 情報が記述されたものである。 また、 分野限定情報は、 その対訳情 報を用いた原言語文の翻訳に引き続いて用いられるべき対訳情報が 属する分野を示す情報が記述されたものである。 翻訳装置 1 0にお いては、 これらの情報を 1つの対訳情報に複数記述してもよい。 翻訳装置 1 0においては、 これらのリンク情報や分野情報及び分 野限定情報を用いることにより、 例えば旅行会話のように比較的典 型的な会話内容を翻訳するような場合に、 2つ目の原言語文以降の 翻訳の際に生成される候補を限定することができ、 ユーザに選択を 求めることによる負担を軽減することができる-.  On the other hand, the field information and the field limitation information shown in FIG. 3 are information provided for limiting the target field when the sentence analysis of the next input source language sentence is performed. The field information describes information indicating the field in which the bilingual information is used. The field-limited information describes information indicating the field to which the bilingual information to be used after translation of the source language sentence using the bilingual information belongs. In the translation device 10, a plurality of these pieces of information may be described in one piece of bilingual information. The translator 10 uses the link information, the field information, and the field-specific information to translate relatively typical conversational content, such as travel conversations. Candidates generated during translation of source language sentence can be limited, and the burden of asking the user for selection can be reduced.
以上のような翻訳装置 1 0を 2つ組み合わせることによって、 双 方向翻訳が可能な翻訳装置を構成することもできる- すなわち、 図 4に示すように、 上述した翻訳装置 1 0 と同様の構成であり、 入力 した言語 Aを原言語として目的言語である言語 Bに翻訳するような 翻訳装置 1 0 a と、 同じく翻訳装置 1 0 と同様の構成であり、 翻訳 装置 1 0 aにおける原言語と目的言語とを入れ替え、 入力した言語 Bを原言語と して目的言語である言語 Aに翻訳するような翻訳装置 1 0 b とを組み合わせた双方向翻訳装置 2 0を考える。 By combining the two translation devices 10 as described above, a translation device capable of bidirectional translation can also be configured-that is, as shown in FIG. 4, the translation device 10 has the same configuration as the translation device 10 described above. Yes, the translation device 10a that translates the input language A as the source language into the target language B, and also has the same configuration as the translation device 10; the source language and the object in the translation device 10a A translation device that replaces the language and translates the input language B as the source language into the target language A. Consider a bidirectional translator 20 that combines 10 b with 10 b.
— このような双方向翻訳装置 2 0においては、 一方のユーザからの 入力を翻訳して出力した結果に対して、 その返答となる文を他方の ユーザが入力する場合がある。 そこで、 双方向翻訳装置 2 0におい ては、 一方の翻訳用の対訳情報に、 相手が次に入力する文を限定す る情報、 すなわち、 他方の翻訳用の対訳情報への関連付けのための 情報を付与して、 より精度のよい翻訳を実現する。 — In such a bidirectional translator 20, there is a case where the other user inputs a response sentence in response to a result of translating and outputting an input from one user. Therefore, in the bidirectional translator 20, information for limiting the sentence to be input next by the other party in the bilingual information for one translation, that is, information for associating with the other bilingual information for translation is used. To achieve more accurate translation.
双方向翻訳装置 2 0は、 対訳情報データベース 1 8 a, 1 8 b中 の各対訳情報に、 例えば、 双方向翻訳における対訳情報へのリ ンク 情報や双方向翻訳における分野情報及び分野限定情報等を記述して いる。  The bidirectional translator 20 adds the bilingual information in the bilingual information databases 18a and 18b to, for example, link information to bilingual information in bidirectional translation, and field information and field-limited information in bidirectional translation. Is described.
すなわち、 リンク情報とは、 例えば、 一方の翻訳装置 1 0 aに入 力された原言語文に対する他方の翻訳装置 1 0 bからの応答の際に 用いる対訳情報をごく少数に限定するために設けられるものである.: 勿論、 双方向翻訳装置 2 0においては、 1つの対訳情報に複数のリ ンク情報を記述してもよい。  That is, the link information is provided, for example, to limit the translation information used when responding to the source language sentence input to one of the translators 10a from the other translator 10b to a very small number. Of course, the bidirectional translator 20 may describe a plurality of pieces of link information in one piece of bilingual information.
ここで、 具体的に説明するために、 一方の翻訳装置 1 0 aにおけ るある対訳情報中のリンク情報 a, b , cは、 それぞれ、 他方の翻 訳装置 1 0 bにおいて互いに異なる対訳情報に、 それぞれリ ンク し ているものとし、 翻訳装置 1 0 bにおけるある対訳情報中のリンク 情報 a, b, cは、 それぞれ、 翻訳装置 1 0 aにおいて互いに異な る対訳情報に、 それぞれリンク しているものとする。 そして、 一方 の翻訳装置 1 0 aに入力された言語 Aによる原言語文の文解析時に. 対訳情報データベース 1 8 a中のある対訳情報を用いた場合には、 双方向翻訳装置 2 0は、 次に翻訳装置 1 0 bに入力された言語 Bに よる原言語文を文解析する際に、 対訳情報データベース 1 8 a中の 一ある対訳情報中の各リンク情報 a, b , cからのリンク先である対 訳情報データベース 1 8 b中の対訳情報のみを用いればよいことに なる。 また、 このときの応答として、 翻訳装置 1 0 bに入力された 原言語文の文解析時に、 対訳情報データベース 1 8 b中のある対訳 情報を用いた場合には、 双方向翻訳装置 2 0は、 次に翻訳装置 1 0 aに入力された原言語文を文解析する際に、 対訳情報データべ一ス 1 8 b中のある対訳情報中の各リンク情報 a , b , cからのリンク 先である対訳情報データベース 1 8 a中の対訳情報のみを用いれば よい。 Here, for the sake of specific explanation, the link information a, b, and c in certain translation information in one translation device 10a are respectively different from each other in the other translation device 10b. The link information a, b, and c in certain bilingual information in the translator 10b are respectively linked to different bilingual information in the translator 10a. Shall be Then, at the time of the sentence analysis of the source language sentence in the language A input to one of the translators 10a. When bilingual information in the bilingual information database 18a is used, the bidirectional translator 20 Next, to the language B input to the translation device 10 b When the source language sentence is analyzed, the translation information in the translation information database 18 b, which is the link destination from each of the link information a, b, and c in the translation information database 18 a It is sufficient to use only In addition, as a response at this time, when the bilingual information in the bilingual information database 18 b is used during the sentence analysis of the source language sentence input to the translator 10 b, the bidirectional translator 20 Next, when analyzing the source language sentence input to the translator 10a, the link destinations from the link information a, b, and c in the bilingual information in the bilingual information database 18b It is sufficient to use only the bilingual information in the bilingual information database 18a.
一方、 分野情報及び分野限定情報とは、 例えば、 一方の翻訳装置 1 0 aに入力された原言語文に対する応答と して、 他方の翻訳装置 1 0 bに入力される原言語文の文解析時に対象となる分野を限定す るために設けられる情報である。 双方向翻訳装置 2 0においては、 これらの情報を各翻訳装置 1 0 a, 1 0 bにおける 1つの対訳情報 に複数記述してもよい = On the other hand, field information and field-limited information are, for example, sentence analysis of a source language sentence input to the other translator 10b in response to a source language sentence input to one translator 10a. This information is sometimes provided to limit the target field. In the bidirectional translator 20, a plurality of such information may be described in one bilingual information in each translator 10 a, 10 b =
双方向翻訳装置 2 0においては、 これらのリンク情報や分野情報 及び分野限定情報を用いることにより、 例えば旅行会話のように比 較的典型的な会話内容を翻訳するような場合に、 各翻訳装置 1 0 a , 1 0 bに入力された原言語文のいずれに対しても、 利用する対訳情 報を限定して翻訳の際に生成される候補を限定することができ、 高 精度かつ高品質の翻訳が可能となる  The bidirectional translator 20 uses these link information, field information, and field-limited information to translate relatively typical conversation contents such as travel conversations. For any of the source language sentences input to 10a and 10b, the translation information to be used can be limited and the candidates generated during translation can be limited, resulting in high accuracy and high quality Can be translated
また、 双方向翻訳装置 2 0は、 実時間性をともなった翻訳を行い 対話を支援する対話支援型翻訳機として用いることもできる。 この 場合、 双方向翻訳装置 2 0は、 図 5に示すように、 例えば、 一方の 翻訳装置 1 0 aに入力した原言語文に対する応答に関する予測例を、 応答文、 応答画像、 応答音声等の応答予測情報と して対訳情報に記 述しておく。 そして、 双方向翻訳装置 2 0は、 翻訳結果の出力とと もに、 翻訳装置 1 0 a側のユーザに対して翻訳装置 1 0 b側の対話 相手がどのような応答をする可能性があるかを例示する。 なお、 応 答画像と しては、 静止画像であってもよく、 動画像であってもよい c このようにすることによって、 双方向翻訳装置 2 0は、 ユーザの 対話をスムーズに行わせることが可能となる。 The bidirectional translator 20 can also be used as a dialogue-assisted translator that translates with real time and supports dialogue. In this case, as shown in FIG. A prediction example regarding a response to the source language sentence input to the translation device 10a is described in the bilingual information as response prediction information such as a response sentence, a response image, and a response voice. Then, the bidirectional translator 20 outputs the translation result, and may respond to the user of the translator 10a by the dialogue partner of the translator 10b with what kind of response. Is illustrated. Note that the response image may be a still image or a moving image. C By doing so, the bidirectional translator 20 can make the user's conversation smooth. Becomes possible.
以上、 本発明の実施の形態を適用した翻訳装置 1 0及びその応用 例である双方向翻訳装置 2 0について説明したが、 これらをより具 体的に説明するために、 図 6に外観平面図を示すような対話支援型 の音声翻訳機 3 0について説明する。  The translator 10 to which the embodiment of the present invention is applied and the bidirectional translator 20 as an application of the translator have been described above. FIG. A dialogue-assisted speech translator 30 as shown in FIG.
音声翻訳機 3 0は、 図 6に示すように、 ユーザとこのュ一ザに対 する対話相手とが、 当該音声翻訳機 3 0を挟んで互いに向き合う形 態で利用するものである。 音声翻訳機 3 0は、 ユーザと対話相手と の間で共用する部分と して、 翻訳結果といった対話に必要な情報を ユーザと対話相手とのそれぞれに合わせた向きに文字や画像等によ り表示する液晶部 3 1 と、 対話に必要な情報を音声により出力する スピーカ 3 2 とを備え、 ユーザと対話相手とのそれぞれに専用の部 分として、 各種操作のための方向ボタン 3 3 a, 3 3 b と、 O KZ C AN C E L等を選択するための選択ボタン 3 4 a, 3 4 b と、 ュ 一ザと対話相手とがそれぞれ音声を入力する際に押す音声入力ボタ ン 3 5 a, 3 5 b と、 ユーザと対話相手とがそれぞれ音声を入力す るマイク 3 6 a, 3 6 b とを備える。  As shown in FIG. 6, the speech translator 30 is used in a form in which a user and a conversation partner with this user face each other with the speech translator 30 interposed therebetween. The speech translator 30 is used as a shared part between the user and the conversation partner by providing information necessary for the conversation, such as translation results, by using characters, images, etc. in a direction suitable for the user and the conversation partner. It has a liquid crystal display 31 for display and a speaker 32 for outputting information necessary for dialogue by voice. Direction buttons 3 3 a, 3 3 b, selection buttons 3 4 a, 3 4 b for selecting OKZ CAN CEL, etc., and voice input buttons 3 5 a pressed by the user and the conversation partner when inputting voice, respectively. , 35b, and microphones 36a, 36b for the user and the conversation partner to input voice, respectively.
音声翻訳機 3 0は、 図 7に示すように、 ユーザ側において、 マイ ク 3 6 aから音声による原言語文を入力してデジタル化する入力手 一段である音声入力部 4 1 a と、 この音声入力部 4 1 aによりデジタ ル化された原言語文に対して、 音響処理及び統計言語モデルに基づ いた連続単語認識を行う音声認識手段である音声認識部 4 2 a と、 この音声認識部 4 2 aからの出力を解析する解析手段である文解析 部 4 3 a と、 原言語文に対する翻訳結果の候補が後述する対訳情報 データベース 4 9 aに保持される対訳情報に付与された適用制約を 満たすか否かを判定する適用制約判定手段である適用制約判定部 4 4 a と、 ユーザに提示する確認用情報を生成するユーザ確認用情報 生成部 4 5 a と、 このユーザ確認用情報生成部 4 5 aにより生成さ れた確認用情報を液晶部 3 1やスピーカ 3 2へと出力するユーザ確 認部 4 6 a と、 目的言語文を生成する目的言語文生成手段である目 的言語文生成部 4 7 a と、 この目的言語文生成部 4 7 aにより生成 された目的言語文を液晶部 3 1やスピーカ 3 2へと出力する出力手 段である翻訳結果出力部 4 8 a と、 各種対訳情報を保持する記憶手 段である対訳情報データべ一ス 4 9 a と、 音声認識部 4 2 aからの 出力に対して適用する限定条件を保持する音声認識対象限定手段で ある音声認識対象限定部 5 0 a と、 入力された原言語文に対して使 用する対訳情報選択条件を保持する対訳情報選択部 5 1 a と、 応答 予測情報を生成する応答予測手段である応答予測部 5 2 a と、 この 応答予測部 5 2 aにより生成された応答予測情報を出力する応答予 測提示手段である応答予測提示部 5 3 a とを備える, : As shown in FIG. 7, the speech translator 30 The voice input unit 41a, which is an input unit for inputting and digitizing the source language sentence by voice from the step 36a, and the source language sentence digitized by the voice input unit 41a A speech recognition unit 42 a that is a speech recognition unit that performs continuous word recognition based on acoustic processing and a statistical language model, and a sentence analysis unit 43 that is an analysis unit that analyzes the output from the speech recognition unit 42 a. a, and an application constraint judging unit, which is an application constraint judging unit for judging whether or not the translation result candidate for the source language sentence satisfies the application constraint given to the bilingual information held in the bilingual information database 49 a described later. 44a, a user confirmation information generation unit 45a for generating confirmation information to be presented to the user, and the confirmation information generated by the user confirmation information generation unit 45a are transmitted to the liquid crystal unit 31 or the like. The user confirmation section 4 6 a that outputs to the speaker 3 2 Target language sentence generation unit 47 a, which is a target language sentence generation means for generating a target language sentence, and the target language sentence generated by the target language sentence generation unit 47 a to the liquid crystal unit 31 and speaker 32 The translation result output unit 48a, which is an output means for outputting the translation information, the translation information database 49a, which is a storage means for holding various translation information, and the output from the speech recognition unit 42a. Speech recognition target limiting unit 50 a, which is a speech recognition target limiting unit that holds the limiting conditions to be applied, and a bilingual information selection unit 5 1 that holds the translation information selection conditions used for the input source language sentence. a, a response prediction unit 52 a that is a response prediction unit that generates response prediction information, and a response prediction presentation unit that is a response prediction presentation unit that outputs the response prediction information generated by the response prediction unit 52 a 5 3 and a a,:
また、 音声翻訳機 3 0は、 対話相手側においてもユーザ側と同様 に、 第 2の入力手段である音声入力部 4 1 b と、 音声認識部 4 2 b と、 第 2の解析手段である文解析部 4 3 b と、 適用制約判定部 4 4 b と、 ュ一ザ確認用情報生成部 4 5 bと、 ユーザ確認部 4 6 b と、 一第 2の目的言語文生成手段である目的言語文生成部 4 7 b と、 第 2 の出力手段である翻訳結果出力部 4 8 b と、 第 2の記憶手段である 対訳情報データベース 4 9 b と、 音声認識対象限定部 5 0 b と、 対 訳情報選択部 5 1 b と、 応答予測部 5 2 b と、 応答予測提示部 5 3 b とを備える。 Also, the speech translator 30 is a speech input unit 41b as a second input unit, a speech recognition unit 42b, and a second analysis unit on the conversation partner side, similarly to the user side. Sentence analysis unit 4 3 b and application constraint determination unit 4 4 b, a user confirmation information generation unit 45b, a user confirmation unit 46b, a target language sentence generation unit 47b which is a second target language sentence generation unit, and a second output unit A translation result output unit 48b, a bilingual information database 49b as a second storage means, a speech recognition target limiting unit 50b, a bilingual information selection unit 51b, and a response prediction unit 5 2b and a response prediction presentation section 53b.
このような音声翻訳機 3 0は、 図 8及び図 9に示すような一連の 処理を行い、 ユーザと対話相手との間の対話を支援しながら双方向 翻訳を行う。 なお、 ここでは、 ユーザが発した日本語による原言語 文を対話相手が理解可能な英語による目的言語文へと翻訳する場合 について説明することにする。  Such a speech translator 30 performs a series of processes as shown in FIGS. 8 and 9, and performs bidirectional translation while supporting a dialog between a user and a conversation partner. Here, a case will be described in which the source language sentence in Japanese issued by the user is translated into the target language sentence in English which the conversation partner can understand.
まず、 音声翻訳機 3 0は、 図 8に示すように、 ステップ S 1 にお いて、 ュ一ザが音声入力ボタン 3 5 aを押しながらマイク 3 6 aに 向かって発話することにより入力された日本語による原言語文を、 音声入力部 4 1 aによって、 デジタル化する = First, as shown in FIG. 8, in step S1, the speech translator 30 is input by the user speaking into the microphone 36a while pressing the speech input button 35a. Digitizing the source language sentence in Japanese by the voice input unit 4 1a =
次に、 音声翻訳機 3 0は、 音声入力部 4 1 aによりデジタル化さ れた原言語文に対して、 ステップ S 2において、 音声認識部 4 2 a により音響処理及び統計言語モデルに基づいた連続単語認識を行う: この連続単語認識処理と しては、 一般に広く用いられている H M M ベースの認識技術等、 様々な方法を適用することができる。 音声翻 訳機 3 0は、 この連続単語認識処理によりヮ一ドグラフを生成する: そして、 音声翻訳機 3 0は、 ステップ S 3において、 生成したヮ ―ドグラフにう適用する限定条件が音声認識対象限定部 5 0 aに保 持されているか否かを判別する。 この限定条件とは、 音声認識の精 度を向上させるために、 音声認識部 4 2 aが対象とすべき範囲を限 定する情報であり、 ユーザが次に入力する原言語文を限定するため の情報や相手が次に入力する原言語文を限定するための情報等を指 す。 この限定条件と しては、 例えば、 対訳情報に記述された原言語 文の分野情報等、 様々なものが考えられるが、 ここでは、 後述する ように、 先行して入力した原言語文における処理に用いられた対訳 情報中に関連付けられた対訳情報から生成された関連する自立語の 集合とする。 Next, the speech translator 30 uses the speech recognition unit 42 a for the source language sentence digitized by the speech input unit 41 a based on the acoustic processing and the statistical language model in step S2. Perform continuous word recognition: For this continuous word recognition process, various methods such as generally used HMM-based recognition technology can be applied. The speech translator 30 generates a wordgraph by this continuous word recognition process: Then, the speech translator 30 determines in step S3 that the limiting condition applied to the generated wordgraph is a speech recognition target. It is determined whether or not it is held in the limiting part 50a. This limiting condition is to limit the range that the speech recognition unit 42a should target in order to improve the accuracy of speech recognition. This is information that limits the source language sentence that the user will enter next, or information that limits the source language sentence that the other party will enter next. As the limiting condition, there can be various kinds of information such as, for example, field information of the source language sentence described in the bilingual information, but here, as will be described later, processing of the source language sentence previously input is performed. It is a set of related independent words generated from the bilingual information associated with the bilingual information used in (1).
ここで、 音声翻訳機 3 0は、 限定条件が音声認識対象限定部 5 0 aに保持されていないと判別した場合には、 ステップ S 5へと処理 を移行する c すなわち、 原言語文を一番最初に入力した場合には、 音声認識対象限定部 5 0 aに限定条件が保持されていないため、 音 声翻訳機 3 0は、 ステップ S 5における処理へと移行する。  Here, if the speech translator 30 determines that the limitation condition is not held in the speech recognition object limitation unit 50a, the speech translator 30 shifts the processing to step S5. When the input is made at the beginning, since the limiting condition is not held in the voice recognition target limiting unit 50a, the voice translator 30 shifts to the processing in step S5.
一方、 音声翻訳機 3 0は、 限定条件が音声認識対象限定部 5 0 a に保持されていると半 I」別した場合には、 ステップ S 4において、 生 成したヮードグラフに対して限定条件を適用し、 ヮードグラフのサ ィズを縮小して認識語彙の限定を行う: すなわち、 音声翻訳機 3 0 は、 生成したワードグラフに、 上述した自立語の集合に含まれない 自立語を含むノードが含まれている場合には、 その部分を削除する ことでヮ一ドグラフ全体のサイズを縮小する c On the other hand, if the translator 30 determines that the restriction condition is held in the voice recognition target restriction unit 50a, the speech translator 30 determines in step S4 the restriction condition for the generated code graph. By applying this method, the size of the code graph is reduced to limit the recognition vocabulary: That is, the speech translator 30 generates, in the generated word graph, nodes that include independent words that are not included in the set of independent words described above. If it does, c to reduce the size of the entire Wa one Dogurafu by removing that part
さらに、 音声翻訳機 3 0は、 ステップ S 5において、 ワードグラ フのサイズが所定のサイズを超えているか否かを判別する。  Further, in step S5, the speech translator 30 determines whether the size of the word graph exceeds a predetermined size.
ここで、 ワードグラフのサイズが所定のサイズを超えていない場 合には、 音声翻訳機 3 0は、 ステップ S 7における処理へと移行す 一方、 ステップ S 4における処理後においてもヮードグラフのサ ィズが大きい場合には、 音声翻訳機 3 0は、 ステップ S 6において、 —一度いわゆる N— B e s t探索によるマーク付けを行い、 出現する 確率が高いものに関連するノ一ドを残し、 そのパス中に含まれない ノ一ドを削除することによって、 ヮードグラフのサイズを縮小し、 ワードグラフのサイズが一定の大きさを超えないようにする。 Here, if the size of the word graph does not exceed the predetermined size, the speech translator 30 shifts to the processing in step S7, and on the other hand, after the processing in step S4, the speech translator 30. If the size is large, the speech translator 30 performs the marking once by the so-called N-Best search in step S6, and leaves nodes related to those having a high probability of appearing. Reduce the size of the word graph by removing nodes not included in the path so that the size of the word graph does not exceed a certain size.
次に、 音声翻訳機 3 0は、 ステップ S 7乃至ステップ S 9におい て、 音声認識部 4 2 aから出力されたワードグラフに対して、 文解 析部 4 3 aにより解析を行う とともに、 適用制約判定部 4 4 aによ る適用制約判定処理を行う。 これらの処理を図 1 0及び図 1 1に示 す対訳情報を参照しながら詳細に説明する =  Next, in steps S7 to S9, the speech translator 30 analyzes the word graph output from the speech recognition unit 42a by the sentence analysis unit 43a, and applies The constraint judging unit 44a performs the application constraint judging process. These processes will be described in detail with reference to the bilingual information shown in FIGS. 10 and 11.
音声翻訳機 3 0は、 図 1 0に示すような対訳情報を対訳情報デ一 タベース 4 9 aに保持している。 なお、 実際には、 同図に記述され ている対訳情報中の各項目のうち、 原言語文及び目的言語文以外は、 必要に応じて記述される情報であり、 全ての対訳情報ェント リに対 して、 全ての項目が記述されているわけではないことを断っておく = 音声翻訳機 3 0は、 ここでは、 基本的に用例ベース翻訳システム を基準とした装置であり、 原言語文と対訳情報の組み合わせによつ て構成される文との類似性判定を行うことにより翻訳を行うが、 大 量の用例がなく とも正確な翻訳ができるように、 一般の類似性判定 処理に対して、 以下に示す 2点について変更を加えて処理を行う: まず、 音声翻訳機 3 0は、 第 1点目の変更点と して、 文の構造に 関する類似性判定を行う。 すなわち、 通常の用例ベース翻訳システ ムの場合は、 構文解析を別途行い、 その結果に基づいて類似性判定 を行う力 音声翻訳機 3 0は、 例えば品詞といった個々の用例に許 容される文法上のカテゴリを対訳情報に記述することによって、 類 似性判定の誤りをなく している。 また、 音声翻訳機 3 0は、 第 2点 目の変更点として、 単語の意味に関する類似性判定を行う。 すなわ ち、 通常の用例ベース翻訳システムの場合は、 シソーラスを用いて 概念空間における単語間の距離を定義し、 その距離が一定値以下で あることを確認することにより類似性判定を行うが、 音声翻訳機 3 0は、 個々の用例に対して、 許容される範囲で最大数の単語を含む 意味カテゴリを記述することによって、 類似性判定の誤りをなく し ている。 The speech translator 30 holds bilingual information as shown in FIG. 10 in a bilingual information database 49a. Actually, among the items in the bilingual information described in the figure, except for the source language sentence and the target language sentence, it is information that is described as necessary, and is included in all bilingual information entries. On the other hand, it should be noted that not all items are described = Speech translator 30 is basically a device based on the example-based translation system here. Translation is performed by determining the similarity with a sentence composed of bilingual information.However, in order to perform accurate translation without a large number of examples, general similarity determination processing is performed. First, the speech translator 30 performs a similarity determination on the structure of a sentence as a first change, as described below. In other words, in the case of an ordinary example-based translation system, the ability to separately perform syntactic analysis and determine the similarity based on the results The speech translator 30 has a grammatical allowance for each example such as part of speech. By describing the category of This eliminates errors in similarity judgment. In addition, the speech translator 30 performs a similarity determination regarding the meaning of the word as a second change. In other words, in the case of a normal example-based translation system, the similarity is determined by defining the distance between words in the concept space using a thesaurus and confirming that the distance is equal to or less than a certain value. The speech translator 30 eliminates errors in similarity determination by describing a semantic category including the maximum number of words within an allowable range for each example.
このような変更を処理に加えることによって、 音声翻訳機 3 0は, 各対訳情報に対して、 精度を低下させる可能性のある部分について さらに情報を記述することにより精度低下を回避することが可能と なるとともに、 文法上のカテゴリの記述を非終端記号とみなすこと により一般に広く用いられている文脈自由文法規則と して各対訳情 報を扱う ことを可能としている。  By making such a change to the processing, the speech translator 30 can avoid a decrease in accuracy by describing further information in each bilingual information on a portion that may decrease the accuracy. In addition, by treating the description of the grammatical category as a non-terminal symbol, it is possible to handle each piece of bilingual information as a generally widely used context-free grammar rule.
音声翻訳機 3 0における対訳情報の具体例は、 図 1 1に示すよう なものである。 なお、 同図において用いられている各項目の意味は. 表 1 に示すとおりである: A specific example of the translation information in the speech translator 30 is as shown in FIG. The meaning of each item used in the figure is as shown in Table 1.
SRC 原目 δ口入 SRC original eyes δ entrance
SRCCOND 適用制約 (原言語)  SRCCOND Restrictions (source language)
TGT 目的言語文  TGT target language sentence
TGTCOND 適用制約 (目的言語文)  TGTCOND application restriction (target language sentence)
UISRC ユーザ確認用原言語文  UISRC user confirmation source language sentence
STATUSMSG 状況説明文  STATUSMSG Status description
STATUSVIDEO 状況説明画像  STATUSVIDEO Status description image
STATUSAUDIO 状況説明音声  STATUSAUDIO Status description audio
LI匿 XT 次の文への関連付け情報  LI concealed XT Information related to next sentence
LINKRESP 次の応答文への関連付け情報  LINKRESP Information related to the next response statement
RESPSRC 応答文 (原言語) RESPSRC response sentence (source language)
ESPTGT 応答文 (目的言語) ESPTGT response statement (target language)
ESPVIDEO 応答画像  ESPVIDEO response image
RESPAUDIO 応答音声  RESPAUDIO response voice
音声翻訳機 3 0においては、 図 1 1に示すように、 例えば、 「: S @ 1」 や 「電車: ΝΡ : :乗り物 @ 1」 といった対訳情報で用い られている各項は、 右辺及び左辺ともに、 <表記 > : <文法カテゴ リ > : < i e a t u r e > : <意味カテゴリ >@<リンク番号〉と なっており、 必要のない項目及びデリ ミタは、 省略可能である。 ここで、 く文法カテゴリ >は、 上述した第 1点目の変更点に対応 し、 く意味カテゴリ >は、 第 2点目の変更点に対応している。 In speech translator 3 0, as shown in FIG. 1 1, for example, ": S @ 1" and terms as used "Train:: ΝΡ: Transportation @ 1" like in parallel translation information, the right side and the left side Both are <notation>: <grammar category>: <ieature>: <semantic category> @ <link number>, and unnecessary items and delimiters can be omitted. Here, the grammar category> corresponds to the first change described above, and the semantic category> corresponds to the second change.
くリング番号 >は、 それぞれの文に記述されている部分が関連し ているリンク情報の番号を示しており、 それぞれの文において同じ 番号が付されている場合には、 同じリンク情報に関連していること を示すものである。  The ring number> indicates the link information number to which the part described in each sentence is related.If the same number is assigned to each sentence, the link information is related to the same link information. It indicates that
また、 < f e a t u r e〉は、 用言及び助動詞の活用形や、 その 他の各種制約の記述に用いられるものである。 The <feature> is the conjugation form of the verb and auxiliary verb, It is used for describing various other constraints.
< L I N K N E X T > ^ < L I N K R E S P >等に記述されてい る番号は、 対訳情報番号であり、 それぞれの対訳情報の先頭の <LINK NEXT> ^ The number described in <LINKRESP> etc. is the bilingual information number.
「#」 で始まる行に記述されているものを指し示す。 すなわち、 対 訳情報番号は、 その対訳情報が一意であることを保証しているファ ィル名である。 この対訳情報番号は、 このままの記述では本来なら ば対訳情報の保守を困難にする可能性があるが、 音声翻訳機 3 0に おいては、 別途対訳情報ォ一サリングシステムを用いており、 これ らの情報を記述する際には、 直接人手を用いることはなく、 対訳情 報の保守の困難性を回避している。 Points to what is described on the line starting with "#". That is, the translation information number is a file name that guarantees that the translation information is unique. This translation information number may make it difficult to maintain the translation information if it is written as it is, but the speech translator 30 uses a separate translation information authoring system. When writing these information, we do not use direct human resources to avoid the difficulty of maintaining bilingual information.
このような音声翻訳機 3 0は、 対訳情報選択部 5 1 aに保持され ている後述する対訳情報選択条件に基づいて図 8中ステップ S 7に おいて選択された対訳情報の原言語文の部分のみに基づき、 文解析 部 4 3 aによって、 入力された原言語文がどの対訳情報の組み合わ せと して構成できるかを判定する。 音声翻訳機 3 0は、 例えば、 対 訳情報の原言語文の部分を文脈自由文法規則とみなして、 ヮードグ ラフを入力とするいわゆるチヤ一トパ一サによって解析を行う: なお、 このチャートパーザは、 例えば、 "田中穂積著, 「自然言 語解析の基礎」 , 産業図書, 1 9 8 9 " 等に解説されているように. 構文解析手法と して一般に用いられている手法であり、 ここでは、 その解説を省略する。  Such a speech translator 30 transmits the source language sentence of the bilingual information selected in step S7 in FIG. 8 based on the bilingual information selection condition described later held in the bilingual information selecting section 51a. Based on only the part, the sentence analyzing unit 43a determines which combination of the bilingual information the input source sentence can be composed. The speech translator 30 considers, for example, the source language sentence part of the bilingual information as a context-free grammar rule, and performs analysis using a so-called chart parser inputting a code graph: For example, as described in “Hozumi Tanaka,“ Basics of Natural Language Analysis ”, Sangyo Tosho, 1989”. This is a method generally used as a parsing method. Then, the explanation is omitted.
音声翻訳機 3 0は、 このチヤ一トバーサによる解析を行うことに よって、 ステップ S 8において、 音声認識結果のワードグラフから 対訳情報の組として構成した複数の文の候補を生成する。  In step S8, the speech translator 30 generates a plurality of sentence candidates configured as a set of bilingual information from the word graph of the speech recognition result by performing the analysis using the charter.
そして、 音声翻訳機 3 0は、 生成した複数の候補うち、 同じ対訳 情報の組み合わせから構成されるものが複数存在した場合には、 ス テツプ S 9において、 通常の用例べ一ス翻訳システムと同様に類似 度計算に基づいて、 最適な候補以外を削除するとともに、 対訳情報 に適用制約が記述されている場合には、 適用制約判定部 4 4 aによ り適用制約判定を行い、 条件を満たさない候補を削除する。 Then, the speech translator 30 outputs the same bilingual translation among the plurality of generated candidates. If there is more than one combination consisting of information, in step S9, similar to the ordinary example-based translation system, based on the similarity calculation, other than the best candidates are deleted, and If the information describes the application constraint, the application constraint judging unit 44a performs the application constraint judgment, and deletes candidates that do not satisfy the conditions.
このような処理を行うことによって、 音声翻訳機 3 0は、 原言語 文に対する最適な候補を生成する。  By performing such processing, the speech translator 30 generates an optimal candidate for the source language sentence.
具体的には、 音声翻訳機 3 0は、 図 1 1に示した対訳情報を保持 している場合、 例えば、 ユーザにより 「二子玉川園経由の電車はど のく らいかかるか」 と入力され、 音声認識が正しく行われた場合に は、 文解析部 4 3 aによって、 「対訳情報 1 2 0 と対訳情報 2 8 3 との組み合わせで時間を尋ねる文」 及び 「対訳情報 1 3 0と対訳情 報 2 8 3 との組み合わせで費用を尋ねる文」 を候補として生成する c 次に、 音声翻訳機 3 0は、 図 9に示すように、 ステップ S 1 0に おいて、 候補が存在するか否かを判別する。 Specifically, when the speech translator 30 holds the bilingual information shown in FIG. 11, for example, the user inputs, "How much does a train via Futakotamagawaen take?" If the speech recognition is performed correctly, the sentence analysis section 43a causes the sentence to ask for the time using a combination of the bilingual information 120 and the bilingual information 283 and the bilingual information 130 and the bilingual information. then c generates a statement "asking cost in combination with the multi-address 2 8 3 as a candidate, the speech translation device 3 0, as shown in FIG. 9, whether Oite, candidate exists in step S 1 0 Is determined.
ここで、 候捕が存在しない場合には、 音声翻訳機 3 0は、 ステツ プ S 2 0へと処理を移行し、 例えば文字や画像等を液晶部 3 1に表 示したり、 音声をスピーカ 3 2から出力することによって、 候補が 存在しない旨をユーザに提示し、 一連の処理を終了する。  Here, if there is no catch, the speech translator 30 shifts the processing to step S 20, for example, displays characters and images on the liquid crystal unit 31, and outputs speech to the speaker 3. By outputting from step 2, the user is informed that no candidate exists, and the series of processing ends.
一方、 候補が存在する場合には、 音声翻訳機 3 0は、 ステップ S 1 1 において、 生成された候補に基づき、 ユーザ確認用情報生成部 4 5 aによって、 ユーザ確認用情報の生成を行う。 すなわち、 音声 翻訳機 3 0は、 各対訳情報に記述されているユーザ確認用原言語文 と、 そこに記述されているリ ンク情報とに基づいて、 ユーザ確認用 原言語文を生成する。 音声翻訳機 3 0においては、 このユーザ確認 用原言語文が、 各対訳情報毎に記述されている場合と、 各対訳情報 毎に記述されていない場合とがある。 例えば、 音声翻訳機 3 0にお いては、 入力された原言語文と、 この原言語文に対応する対訳情報 に記述されるべきユーザ確認用原言語文とが同一である場合、 対訳 情報へのユーザ確認用原言語文の記述が省略される。 このように各 対訳情報毎に記述されていない場合には、 音声翻訳機 3 0において は、 その代わりに原言語文をそのまま用いるものとする On the other hand, if there is a candidate, the speech translator 30 generates user confirmation information by the user confirmation information generation unit 45a based on the generated candidate in step S11. That is, the speech translator 30 generates a user confirmation source language sentence based on the user confirmation source language sentence described in each piece of bilingual information and the link information described therein. In the speech translator 30, this user confirmation In some cases, the source language sentence is described for each piece of bilingual information, and sometimes it is not written for each piece of bilingual information. For example, in the case of the speech translator 30, if the input source language sentence and the source language sentence for user confirmation to be described in the bilingual information corresponding to this source language sentence are the same, the The description of the source language sentence for user confirmation is omitted. If the translation information is not described for each piece of bilingual information, the speech translator 30 uses the source language sentence as it is instead.
具体的には、 音声翻訳機 3 0は、 先に図 1 1に示した対訳情報 1 2 0 と対訳情報 2 8 3 との組み合わせから 「二子多摩川園経由の電 車はどのく らい時間がかかるか」 というユーザ確認用原言語文を生 成し、 対訳情報 1 3 0 と対訳情報 2 8 3 との組み合わせから 「二子 多摩川園経由の電車はどのく らいお金がかかるか」 というュ一ザ確 認用原言語文を生成する。  Specifically, the speech translator 30 uses the combination of the bilingual information 1 20 and the bilingual information 2 8 3 shown in Fig. 11 to say, `` How long does it take for a train to travel through Futako Tamagawaen. Is generated, and the combination of the bilingual information 130 and the bilingual information 283 is used to determine how much money is required for a train traveling through Futako Tamagawaen. Generate an approved source language sentence.
また、 音声翻訳機 3 0は、 ユーザ確認用情報として、 状況説明文- 状況説明画像、 状況説明音声を生成することもできる。 これらの状 況説明文、 状況説明画像、 状況説明音声は、 原言語文とは独立して その対訳情報を解説するものである。 そのため、 音声翻訳機 3 0は, これらの状況説明文、 状況説明画像、 状況説明音声が原言語文に関 する対訳情報に記述されている場合には、 これらの状況説明文、 状 況説明画像、 状況説明音声のそれぞれを、 ユーザ確認用原言語文の ように 1つにまとめる処理は行わず、 単純に組の情報として生成し. 出力時に順に生成するものとする。  In addition, the speech translator 30 can also generate a situation description-a situation description image and a situation description voice as user confirmation information. The status description, the status description image, and the status description sound explain the bilingual information independently of the source language text. Therefore, the speech translator 30 uses these situation explanations, situation explanation images when the situation explanations, situation explanation images, and situation explanation speech are described in the bilingual information related to the source language sentence. Instead of combining the situation explanation voices into one like the source language sentence for user confirmation, they are simply generated as a set of information.
このようにして、 音声翻訳機 3 0は、 生成されたそれぞれの候補 に応じて、 その候補が有する意味に対応したユーザ確認用情報を生 成する c 続いて、 音声翻訳機 3 0は、 図 9中ステップ S 1 2において、 生 成したユーザ確認用情報を、 ユーザ確認部 4 6 aを介して液晶部 3 1に表示したり、 スピーカ 3 2から出力することによって、 ュ一ザ に提示する。 In this way, the speech translation device 3 0, in response to the generated each candidate, the user confirmation information corresponding to the meaning possessed by the candidate to generate c Subsequently, the speech translator 30 displays the generated user confirmation information on the liquid crystal unit 31 via the user confirmation unit 46a in step S12 in FIG. By outputting it, it is presented to the user.
これに応じて、 音声翻訳機 3 0においては、 ステップ S 1 3にお いて、 ユーザにより、 このユーザ確認用情報のうち、 原言語文の文 脈やユーザの意図等に沿う最も適切な候補が選択される。 具体的には、 音声翻訳機 3 0は、 例えば図 1 2に示すように、 先 に図 1 1 に示した対訳情報 1 2 0と対訳情報 2 8 3 との組み合わせ から生成した 「二子多摩川園経由の電車はどのく らい時間がかかる カ というユーザ確認用原言語文と、 対訳情報 1 3 0 と対訳情報 2 8 3 との組み合わせから生成した 「二子多摩川園経由の電車はどの く らいお金がかかるか」 というユーザ確認用原言語文とを液晶部 3 1に表示する。 また、 音声翻訳機 3 0は、 例えば図 1 3に示すよう に、 先に図 1 1 に示した対訳情報 4 5 7から生成したあやまる状況 における 「すみません」 というユーザ確認用原言語文と、 対訳情報 4 5 8から生成したお礼をいう状況における 「すみません」 という ユーザ確認用原言語文とを液晶部 3 1 に表示するとともに、 それら の状況を説明する画像を液晶部 3 1に表示し、 それらの状況を説明 する音声をスピーカ 3 2から出力する。 これらのユーザ確認用情報 の出力に応じて、 音声翻訳機 3 0においては、 ユーザが、 方向ボタ ン 3 3 aを操作して選択する候補を選択可能な状態と し、 選択ボタ ン 3 4 aを押して決定する。  In response to this, in step S13, the speech translator 30 allows the user to select, from the user confirmation information, the most appropriate candidate along the context of the source language sentence and the user's intention. Selected. Specifically, for example, as shown in FIG. 12, the speech translator 30 generates the “Futako Tamagawaen” generated from the combination of the bilingual information 120 and the bilingual information 283 shown in FIG. The time required for a train via Futako-Tamagawaen to be generated from a combination of a source language sentence for user confirmation that a train via Is displayed on the liquid crystal unit 31. In addition, as shown in FIG. 13, for example, the speech translator 30 uses a source language sentence for user confirmation of “Sorry” in the erroneous situation generated earlier from the bilingual information 457 shown in FIG. The source language sentence for user confirmation “Sorry,” in the thank-you situation generated from the information 458, is displayed on the LCD unit 31 and an image explaining the situation is displayed on the LCD unit 31. A sound explaining the situation is output from the speaker 32. In response to the output of the user confirmation information, the speech translator 30 allows the user to operate the direction button 33 a to select a candidate to be selected, and the selection button 34 a Press to confirm.
このよ うに、 音声翻訳機 3 0は、 ユーザ確認用原言語文、 状況説 明文、 状況説明画像、 状況説明音声を用いることによって、 翻訳結 果の目的言語文が表す意味を様々な角度から正しくユーザに伝える ことができ、 これらをもとにユーザが選択することによって、 文脈 ゃュ一ザの意図によつて解釈が曖昧とされる原言語文についても正 しく翻訳することができる。 In this way, the speech translator 30 uses the source language sentence for user confirmation, the situation description, the situation description image, and the situation description voice to translate the speech. The meaning of the target language sentence can be correctly conveyed to the user from various angles, and when the user makes a selection based on these, the interpretation is ambiguous due to the intention of the contextual user. Language sentences can be translated correctly.
ュ一ザによる選択が行われた後、 音声翻訳機 3 0は、 図 9中ステ ップ S 1 4において、 目的言語文生成部 4 7 aにより 目的言語文を 生成する。 また、 音声翻訳機 3 0は、 対訳情報に応答文、 応答画像、 応答音声が記述されている場合には、 続くステップ S 1 5において、 応答予測部 5 2 aにより これらの応答文、 応答画像、 応答音声も合 わせて生成する。 音声翻訳機 3 0は、 対訳情報中の応答文 (原言語、 目的言語) についてリンク情報が記述されている場合には、 ユーザ 確認用原言語文と同様に、 各対訳情報に記述されている応答文と、 そこに記述されているリンク情報とに基づいて、 応答文を生成する。 また、 音声翻訳機 3 0は、 対訳情報中の応答文 (原言語、 目的言 語) についてリンク情報が記述されていない場合には、 状況説明文 と同様に、 応答文のように 1つにまとめる処理は行わず、 そのまま の文を組にすることで応答文を生成する。 さらに、 音声翻訳機 3 0 は、 状況説明画像及び状況説明音声と同様に、 応答画像及び応答音 声をそのまま組にすることで、 応答画像及び応答音声を生成する。 具体的には、 音声翻訳機 3 0は、 原言語文である 「二子玉川園経 由の電車はどのく らい時間がかかるカ に対して、 「How l ong wi l 1 the train whi ch v i a ru takot amaga aen t ake?」 ¾T目的言語文と して生成し、 「二子玉川園経由の電車はどのく らいお金がかかる 力 」 にメ して、 「How much w i l l the trai n wh i ch runs vi a Fut ak otamagawaen cos t?」 を目的言語文と して生成する。 また、 音声翻訳 機 3 0は、 原言語文としてお礼をいう状況における 「すみません」 を翻訳した場合には、 先に図 1 1に示した対訳情報 4 5 8を参照し て、 その応答として 「You are wel come」 という応答文を予測して生 成するとともに、 その意味である 「どういたしまして」 という応答 文を予測して生成する。 After the selection by the user, the speech translator 30 generates the target language sentence by the target language sentence generation unit 47a in step S14 in FIG. Further, when the response sentence, the response image, and the response speech are described in the bilingual information, the speech translator 30 uses the response prediction unit 52 , And the response voice is also generated. When the link information is described for the response sentence (source language and target language) in the bilingual information, the speech translator 30 is described in each bilingual information in the same manner as the user confirmation source language sentence. A response sentence is generated based on the response sentence and the link information described therein. When the link information is not described for the response sentence (source language and target language) in the bilingual information, the speech translator 30 combines the response sentence into one like the response sentence, just like the situation explanation. A response sentence is generated by assembling the sentence as it is without performing the combining process. Further, the speech translator 30 generates a response image and a response voice by assembling the response image and the response voice as they are, similarly to the situation description image and the situation description voice. Specifically, the speech translator 30 responds to the source language sentence “How long does a train from Futakotamagawa Sono take on the train?” “How long wi1 1 the train which via ru akoTakot amaga aen t ake? ”生成 Generated as a T target language sentence. a Fut ak otamagawaen cos t? ”as the target language sentence. Also, voice translation If the machine 30 translates “Sorry,” in a situation where thank you as a source language sentence, it refers to the bilingual information 458 shown in Fig. 11 earlier and responds with “You are wel come In addition to predicting and generating a response sentence "," it also predicts and generates a response sentence, "I am happy."
なお、 音声翻訳機 3 0においては、 これらの応答文、 応答画像、 応答音声等が、 各対訳情報について複数存在する可能性があるため、 これらの応答予測情報を生成する際には、 各対訳情報における応答 文、 応答画像、 応答音声を全てを扱う必要があることはいうまでも ない。  In the speech translator 30, since there is a possibility that a plurality of these response sentences, response images, response voices, and the like exist for each piece of translation information, when generating the response prediction information, Needless to say, it is necessary to handle all response sentences, response images, and response voices in information.
次に、 音声翻訳機 3 0は、 図 9中ステップ S 1 6において、 対訳 情報選択条件の設定を行う。 すなわち、 音声翻訳機 3 0は、 現在の 翻訳の結果によって、 次に入力される原言語文に対して用いる対訳 情報を限定するための処理を行う  Next, the speech translator 30 sets bilingual information selection conditions in step S16 in FIG. That is, the speech translator 30 performs a process for limiting the bilingual information to be used for the next input source language sentence according to the current translation result.
具体的には、 音声翻訳機 3 0は、 先に図 1 1に示した対訳情報 1 2 0のように、 < L I N K N E X T >に番号が記述されているよう な場合には、 このように記述された対訳情報と、 いかなる状況下に おいても用いられる汎用の対訳情報とだけを用いて、 次に入力され る原言語文に対して処理を行うことができるように、 関連する対訳 情報を対訳情報選択部 5 1 aに記録する。 このようにして、 音声翻 訳機 3 0は、 次に入力される原言語文の翻訳処理時において対訳情 報選択条件が設定された状態となり、 この対訳情報選択情報に基づ いて、 対訳情報の選択時の対象範囲を限定して処理を行う。 音声翻 訳機 3 0は、 このような限定条件を利用して処理を正しく行えなか つた場合には、 これらの限定条件を外して再度処理を行う。 このよ うにすることによって、 音声翻訳機 3 0は、 文脈が切り替わった場 合にも柔軟に対応することができる。 Specifically, when the number is described in <LINKNEXT>, as in the translation information 120 shown in FIG. 11 earlier, the speech translator 30 is described in this way. Using only the bilingual information and general-purpose bilingual information used under any circumstances, the related bilingual information is translated so that the next input source language sentence can be processed. Record in the information selection section 51a. In this way, the speech translator 30 enters a state in which the translation information selection condition is set at the time of the translation processing of the next input source language sentence, and based on the translation information selection information, The processing is performed by limiting the target range at the time of selection. If the speech translator 30 cannot perform the process correctly using such a limiting condition, it removes the limiting condition and performs the process again. This By doing so, the speech translator 30 can flexibly cope with a situation change.
また同様に、 音声翻訳機 3 0は、 図 1 1に示した対訳情報 1 2 0 のように、 < L I N K R E S P >に番号が記述されているような場 合には、 図 9中ステップ S 1 7に示すように、 このく L I N K R E S P >に記述された情報によって、 対話相手から入力された原言語 文を翻訳する逆方向翻訳における対訳情報選択条件を設定し、 対訳 情報選択部 5 1 aに記録する。  Similarly, when the number is described in <LINKRESP>, as in the bilingual information 120 shown in FIG. 11, the speech translator 30 executes step S 17 in FIG. As shown in the above, based on the information described in LINKRESP>, the bilingual information selection condition in the reverse translation for translating the source language sentence input from the conversation partner is set and recorded in the bilingual information selection section 51a. .
さらに、 音声翻訳機 3 0は、 続くステップ S 1 8において、 この 対訳情報選択条件に基づいて、 音声認識用の限定条件を設定し、 音 声認識対象限定部 5 0 aに記録する。 音声翻訳機 3 0においては、 音声認識部 4 2 aがこの対訳情報をそのまま用いることができない ため、 音声認識対象限定部 5 0 aに記録された関連する対訳情報に 含まれる自立語のリス トを生成して音声認識対象限定部 5 0 aに保 持し、 この自立語のリス トを音声認識用の限定条件とする。  Further, in the following step S18, the speech translator 30 sets a limitation condition for speech recognition based on the bilingual information selection condition, and records it in the speech recognition target limitation section 50a. In the speech translator 30, since the speech recognition unit 42a cannot use the bilingual information as it is, a list of independent words included in the related bilingual information recorded in the speech recognition target limiting unit 50a. Is generated and stored in the voice recognition target limiting unit 50a, and this list of independent words is used as a voice recognition limiting condition.
そして、 音声翻訳機 3 0は、 ステップ S 1 9において、 生成した 目的言語文と応答予測情報とを、 それぞれ、 翻訳結果出力部 4 8 a 及び応答予測提示部 5 3 aを介して出力し、 一連の処理を終了する: 具体的には、 音声翻訳機 3 0は、 例えば図 1 4及び図 1 5に示す ように、 生成した目的言語文と応答予測情報とを、 文字等により液 晶部 3 1 に表示したり、 音声によりスピー力 3 2から出力する: 音声翻訳機 3 0は、 このような一連の処理の後、 対話相手若しく はユーザにより音声入力ボタン 3 5 b若しくは音声入力ボタン 3 5 aを押されることによって、 原言語文を入力し、 この原言語文に対 する翻訳処理を行い、 以降これらの処理を繰り返す。 なお、 説明を 省略したが、 音声翻訳機 3 0は、 対話相手側から入力された原言語 文に対する処理も上述した一連の処理と同様の内容であることは勿 論である。 Then, in step S19, the speech translator 30 outputs the generated target language sentence and the response prediction information via the translation result output unit 48a and the response prediction presentation unit 53a, respectively. A series of processes ends: Specifically, the speech translator 30 converts the generated target language sentence and the response prediction information into characters in a liquid crystal unit, for example, as shown in FIGS. 14 and 15. Displayed on 3 1 or output from voice 3 2 by voice: After such a series of processing, the voice translator 30 performs voice input button 35 b or voice input button depending on the conversation partner or the user. By pressing 3 a, the source language sentence is input, the translation process for this source language sentence is performed, and thereafter, these processes are repeated. In addition, Although omitted, the speech translator 30 naturally has the same processing for the source language sentence input from the conversation partner as the above-described series of processing.
以上説明したように、 本発明の実施の形態として示した翻訳装置 1 0、 双方向翻訳装置 2 0、 音声翻訳機 3 0は、 それぞれ、 従来で は不可能とされたユーザの意図に沿った高精度かつ高品質の翻訳結 果を得ることが可能であり、 高精度の翻訳システムを実現するもの である。 特に、 音声翻訳機 3 0は、 スムーズな対話を支援可能であ り、 高精度で使いやすい音声翻訳システムを実現するものである。 なお、 上述した実施の形態と して示した構成は、 本発明を実現す るために具現化した一例として示したものであって、 本発明は、 こ れらの構成に限定されるものではない。 例えば、 本発明は、 原言語 文を音声により入力するばかりでなく、 文字により入力した場合に も容易に適用できることはいうに及ばない。  As described above, the translation device 10, the bidirectional translation device 20, and the speech translator 30 shown as the embodiments of the present invention are in accordance with the intention of the user, which was previously impossible. High-accuracy and high-quality translation results can be obtained, and a high-accuracy translation system is realized. In particular, the speech translator 30 can support a smooth conversation and realize a highly accurate and easy-to-use speech translation system. It should be noted that the configurations shown as the above-described embodiments are shown as examples embodied to realize the present invention, and the present invention is not limited to these configurations. Absent. For example, it goes without saying that the present invention can be easily applied not only when the source language sentence is input by voice but also when it is input by character.
また、 上述した実施の形態としては、 用例ベース翻訳システムを もとに構成した例を中心に説明したが、 本発明は、 例えばパターン ベース翻訳やテンプレートベース翻訳といった翻訳方法を適用して もよレヽことは勿論である。  In the above-described embodiment, an example in which the configuration is based on an example-based translation system has been mainly described. However, the present invention may be applied to a translation method such as a pattern-based translation or a template-based translation. Of course.
さらに、 その他、 本発明の趣旨を逸脱しない範囲で適宜変更が可 能であることはいうまでもない。 産業上の利用可能性 以上詳細に説明したように、 本発明にかかる翻訳処理方法は、 入 力された任意の原言語による文又は文の一部と、 この原言語とは異 なる任意の目的言語による文又は文の一部とを対応付けた対訳情報 に基づき、 原言語による文又は文の一部と、 対訳情報の組み合わせ によって構成される文との一致性或いは類似性を判定し、 原言語に よる文又は文の一部を目的言語による文又は文の一部に翻訳して出 力する翻訳処理方法であって、 対訳情報には、 原言語による文又は 文の一部と、 この文又は文の一部の対訳である目的言語による文又 は文の一部と、 原言語による文又は文の一部及び目的言語による文 又は文の一部に関連する関連情報とが記述されている。 Furthermore, it goes without saying that other modifications can be made as appropriate without departing from the spirit of the present invention. INDUSTRIAL APPLICABILITY As described in detail above, the translation processing method according to the present invention is different from the input sentence or any part of the sentence in any source language. Based on the bilingual information that correlates the sentence or part of the sentence in any target language, the consistency or similarity between the sentence or part of the sentence in the source language and the sentence composed of the combination of the bilingual information is determined. This is a translation processing method in which a sentence or part of the sentence in the source language is translated into a sentence or part of the sentence in the target language and output. Part, a sentence or part of a sentence in the target language which is a translation of this sentence or part of the sentence, and relevant information relating to the sentence or part of the sentence in the source language and the sentence or part of the sentence in the target language Is described.
したがって、 本発明にかかる翻訳処理方法は、 原言語による文又 は文の一部と、 目的言語による文又は文の一部との他に、 これらの 原言語による文又は文の一部及び目的言語による文又は文の一部に 関連する関連情報とが記述された対訳情報を用いることによって、 原言語による文又は文の一部と、 目的言語による文又は文の一部と だけが記述された対訳情報を用いる場合に比べ、 利便性がよく、 原 言語による文又は文の一部の文脈やユーザの意図に沿った高精度か つ高品質の翻訳結果を得ることができ、 円滑な対話を支援すること ができる。  Therefore, in addition to the sentence or part of the sentence in the source language and the sentence or part of the sentence in the target language, the translation processing method according to the present invention provides the sentence or part of the sentence or source sentence in these source languages. By using bilingual information in which relevant information related to a sentence or part of a sentence in a language is described, only the sentence or part of the sentence in the source language and the sentence or part of the sentence in the target language are described. It is more convenient than using bilingual information, and can provide high-accuracy and high-quality translation results in the source language or part of the context of the sentence or the user's intention, and facilitates dialogue. Can help.
また、 本発明にかかる翻訳処理装置は、 任意の原言語による文又 は文の一部を入力する入力手段と、 原言語による文又は文の一部と . この文又は文の一部の対訳である原言語とは異なる任意の目的言語 による文又は文の一部とが対応付けられて記述されるとともに、 原 言語による文又は文の一部及び目的言語による文又は文の一部に関 連する関連情報が記述された対訳情報を記憶する記憶手段と、 対訳 情報に基づき、 原言語による文又は文の一部と、 対訳情報の組み合 わせによって構成される文との一致性或いは類似性を判定すること によって、 原言語による文又は文の一部を解析して翻訳結果の候補 を生成する解析手段と、 原言語による文又は文の一部の対訳である 目的言語による文又は文の一部を生成する目的言語文生成手段と、 目的言語文生成手段により生成された目的言語による文又は文の一 部を出力する出力手段とを備える。 Further, the translation processing device according to the present invention comprises: an input means for inputting a sentence or a part of a sentence in an arbitrary source language; a sentence or a part of the sentence in the source language; Is described in association with a sentence or part of a sentence in any target language that is different from the source language, and a sentence or part of a sentence in the source language and a sentence or part of a sentence in the target language. A storage means for storing bilingual information in which related information is described, and, based on the bilingual information, matching or similarity between a sentence or a part of the sentence in the source language and a sentence formed by combining the bilingual information Determining gender Means for analyzing a sentence or part of a sentence in the source language to generate translation result candidates, and generating a sentence or part of the sentence in the target language that is a translation of the sentence or part of the sentence in the source language A target language sentence generating means for outputting a sentence or a part of the sentence in the target language generated by the target language sentence generating means.
したがって、 本発明にかかる翻訳処理装置は、 原言語による文又 は文の一部と、 目的言語による文又は文の一部との他に、 これらの 原言語による文又は文の一部及び目的言語による文又は文の一部に 関連する関連情報とが記述された対訳情報を用いることによって、 原言語による文又は文の一部と、 目的言語による文又は文の一部と だけが記述された対訳情報を用いて翻訳を行う場合よりも、 ユーザ の使い勝手がよく、 原言語による文又は文の一部の文脈やユーザの 意図に沿った高精度かつ高品質の翻訳結果を得ることが可能となり 対話に用いる際にもその進行を支援して円滑な対話を実現すること が可能となる。  Therefore, in addition to the sentence or part of the sentence in the source language, the sentence or part of the sentence in the target language, the translation processing device according to the present invention, the sentence or part of the sentence or source sentence in these source languages, By using bilingual information in which relevant information related to a sentence or part of a sentence in a language is described, only the sentence or part of the sentence in the source language and the sentence or part of the sentence in the target language are described. It is more user-friendly than translating using parallel translation information, and it is possible to obtain high-accuracy and high-quality translation results according to the context of the sentence or part of the sentence in the source language and the user's intention. When using it for dialogue, it is possible to support the progress and realize a smooth dialogue.

Claims

請求の範囲 The scope of the claims
1 . 入力された任意の原言語による文又は文の一部と、 上記原言語 とは異なる任意の目的言語による文又は文の一部とを対応付けた対 訳情報に基づき、 上記原言語による文又は文の一部と、 上記対訳情 報の組み合わせによって構成される文との一致性或いは類似性を判 定し、 上記原言語による文又は文の一部を上記目的言語による文又 は文の一部に翻訳して出力する翻訳処理方法であって、 1. Based on the translation information in which the input sentence or part of the sentence in any source language is correlated with the sentence or part of the sentence in any target language different from the above source language, Judge the consistency or similarity between the sentence or part of the sentence and the sentence composed of the above-mentioned translation information, and replace the sentence or part of the sentence in the source language with the sentence or sentence in the target language. A translation processing method for translating and outputting a part of
上記対訳情報には、 上記原言語による文又は文の一部と、 この文 又は文の一部の対訳である上記目的言語による文又は文の一部と、 上記原言語による文又は文の一部及び上記目的言語による文又は文 の一部に関連する関連情報とが記述されていること  The bilingual information includes a sentence or part of the sentence in the source language, a sentence or part of the sentence in the target language which is a translation of the sentence or part of the sentence, and a sentence or sentence in the source language. And the relevant information related to the sentence or part of the sentence in the target language described above.
を特徴とする翻訳処理方法。  A translation processing method characterized by the following.
2 . 上記関連情報は、 入力された上記原言語による文又は文の一部 の対訳である上記目的言語による文又は文の一部が有する意味の解 釈に支援となる情報であること 2. The relevant information must be information that assists in interpreting the meaning of the input sentence or part of the sentence in the target language, which is a translation of the sentence or part of the sentence in the source language.
を特徴とする請求の範囲第 1項記載の翻訳処理方法。  The translation processing method according to claim 1, wherein:
3 . 上記関連情報は、 入力された上記原言語による文又は文の一部 の対訳である上記目的言語による文又は文の一部の表現を言い換え た上記原言語による確認用原言語文を含むこと  3. The relevant information includes a confirmation source language sentence in the source language, in which the input sentence or a part of the sentence in the target language, which is a translation of the sentence or part of the sentence, is paraphrased. thing
を特徴とする請求の範囲第 2項記載の翻訳処理方法。  3. The translation processing method according to claim 2, wherein:
4 . 入力された上記原言語による文又は文の一部と、 この原言語に よる文又は文の一部に対応する対訳情報に記述されるべき確認用原 言語文とが同一である場合には、 上記対訳情報への上記確認用原言 語文の記述を省略すること を特徴とする請求の範囲第 3項記載の翻訳処理方法。 4. If the input sentence or part of the sentence in the source language is identical to the source language for confirmation to be described in the bilingual information corresponding to the sentence or part of the sentence in this source language. Must omit the description of the original language sentence for confirmation in the bilingual information. 4. The translation processing method according to claim 3, wherein:
5 . 上記関連情報は、 上記確認用原言語文の表現が用いられる状況 を説明する上記原言語による状況説明文、 上記確認用原言語文の表 現が用いられる状況に関連した状況説明画像又は上記確認用原言語 文の表現が用いられる状況に関連した状況説明音声の少なく ともい ずれか 1つであること 5. The relevant information may be a situation description in the source language that describes the situation in which the confirmation source language expression is used, a situation description image associated with the situation in which the confirmation source language expression is used, or At least one of the situational explanation sounds related to the situation where the above confirmation source language sentence expression is used
を特徴とする請求の範囲第 3項記載の翻訳処理方法。  4. The translation processing method according to claim 3, wherein:
6 . 上記関連情報は、 入力された上記原言語による文又は文の一部 の次に入力される可能性が高い上記原言語による文又は文の一部に 関連する対訳情報への関連付け情報であること  6. The relevant information is the link information to the bilingual information related to the sentence or part of the sentence in the source language, which is likely to be input next to the sentence or part of the sentence in the source language. There is
を特徴とする請求の範囲第 1項記載の翻訳処理方法。  The translation processing method according to claim 1, wherein:
7 . 上記関連情報は、 入力された上記原言語による文又は文の一部 の次に入力される可能性が高い上記原言語による文又は文の一部が 属する分野を限定するための分野情報であること  7. The related information is field information for limiting the field to which the sentence or part of the sentence in the source language that is likely to be input after the input sentence or part of the sentence in the source language belongs. Being
を特徴とする請求の範囲第 1項記載の翻訳処理方法。  The translation processing method according to claim 1, wherein:
8 . 上記関連情報は、 入力された上記原言語による文又は文の一部 に対する応答を予測した応答文、 入力された上記原言語による文又 は文の一部に対する応答を予測した応答画像又は入力された上記原 言語による文又は文の一部に対する応答を予測した応答音声の少な く ともいずれか 1つであること  8. The relevant information is a response sentence that predicts a response to the input sentence or part of the sentence in the source language, a response image that predicts a response to the input sentence or part of the sentence in the source language, or At least one of the response voices that predicts the response to the input sentence or part of the sentence in the source language
を特徴とする請求の範囲第 1項記載の翻訳処理方法。  The translation processing method according to claim 1, wherein:
9 . 上記関連情報は、 入力された上記原言語による文又は文の一部 とこの文又は文の一部の対訳である上記目的言語による文又は文の 一部とを対応付けた対訳情報に基づき、 上記原言語による文又は文 の一部と、 上記対訳情報の組み合わせによって構成される文との一 致性或いは類似性の判定に用いられる適用制約であること 9. The relevant information is bilingual information in which the input sentence or part of the sentence in the source language is associated with a sentence or part of the sentence in the target language that is a translation of this sentence or part of the sentence. Based on the sentence or part of the sentence in the source language described above, Applicable constraints used to determine lethality or similarity
を特徴とする請求の範囲第 1項記載の翻訳処理方法。  The translation processing method according to claim 1, wherein:
1 0 . 入力された上記原言語による文又は文の一部に対する翻訳結 果の候補が上記適用制約を満たすか否かを判定し、  10. Judge whether the input translation result candidate for the sentence or part of the sentence in the source language satisfies the application constraint,
上記適用制約を満たす候補が存在しない場合には、 上記原言語に よる文又は文の一部が翻訳不可能である旨を通知すること  If there is no candidate that satisfies the above application restrictions, notify that the sentence or part of the sentence in the above source language cannot be translated.
を特徴とする請求の範囲第 9項記載の翻訳処理方法。  10. The translation processing method according to claim 9, wherein:
1 1 . 上記目的言語による文又は文の一部を入力して上記原言語に よる文又は文の一部に翻訳すること  1 1. Inputting a sentence or part of a sentence in the above target language and translating it into a sentence or part of a sentence in the above source language
を特徴とする請求の範囲第 1項記載の翻訳処理方法。  The translation processing method according to claim 1, wherein:
1 2 . 上記関連情報は、 入力された上記原言語による文又は文の一 部に対する応答として次に入力される可能性が高い上記目的言語に よる文又は文の一部に関連する対訳情報への関連付け情報であるこ と  1 2. The relevant information is translated into the bilingual information related to the sentence or part of the sentence in the target language which is likely to be input next as a response to the input sentence or part of the sentence in the source language. Must be related information
を特徴とする請求の範囲第 1 1項記載の翻訳処理方法。  The translation processing method according to claim 11, wherein:
1 3 . 上記関連情報は、 入力された上記原言語による文又は文の一 部に対する応答として次に入力される可能性が高い上記目的言語に よる文又は文の一部が属する分野を限定するための分野情報である こと  13 3. The related information limits the field to which the sentence or part of the sentence in the target language which is likely to be input next as a response to the input sentence or part of the sentence in the source language belongs. Field information for
を特徴とする請求の範囲第 1 1項記載の翻訳処理方法。  The translation processing method according to claim 11, wherein:
1 4 . 音声にて上記原言語による文又は文の一部を入力して認識し. 生成した上記原言語による文又は文の一部の対訳である上記目的 言語による文又は文の一部を音声により出力すること  1 4. Sentence or part of sentence in the above source language is input and recognized by voice. Generated sentence or part of sentence in the above target language, which is a translation of the sentence or part of sentence in the above source language. Output by voice
を特徴とする請求の範囲第 1項記載の翻訳処理方法。  The translation processing method according to claim 1, wherein:
1 5 . 上記関連情報は、 入力された上記原言語による文又は文の一 部の次に入力される可能性が高い上記原言語による文又は文の一部 —に関連する対訳情報への関連付け情報であって、 15 5. The relevant information is a sentence or a sentence in the input source language. Part of the sentence or part of the sentence in the source language that is likely to be input next to the section,
上記関連付け情報に基づいて、 音声認識の対象とする上記原言語 による文又は文の一部を限定する情報を生成すること  Based on the association information, generate information that limits the sentence or part of the sentence in the source language to be subjected to speech recognition.
を特徴とする請求の範囲第 1 4項記載の翻訳処理方法。  15. The translation processing method according to claim 14, wherein:
1 6 . 入力された上記原言語による文又は文の一部に対する応答を 予測し、  16. Predict the response to the input sentence or part of the sentence in the source language,
予測して生成した応答予測情報を提示すること  Presenting response prediction information generated by prediction
を特徴とする請求の範囲第 1項記載の翻訳処理方法。  The translation processing method according to claim 1, wherein:
1 7 . 上記応答予測情報は、 入力された上記原言語による文又は文 の一部に対応する対訳情報に上記関連情報として記述された応答文、 入力された上記原言語による文又は文の一部に対応する対訳情報に 上記関連情報と して記述された応答画像又は入力された上記原言語 による文又は文の一部に対応する対訳情報に上記関連情報と して記 述された応答音声の少なく ともいずれか 1つであること  17. The response prediction information is a response sentence described as the related information in the bilingual information corresponding to the input sentence or a part of the sentence in the source language, and one of the input source sentence or sentence in the source language. The response image described as the related information in the bilingual information corresponding to the part, or the response voice described as the relevant information in the bilingual information corresponding to the input sentence or part of the sentence in the source language described above. At least one of
を特徴とする請求の範囲第 1 6項記載の翻訳処理方法:  The translation processing method according to claim 16, characterized by:
1 8 . 任意の原言語による文又は文の一部を入力する入力手段と、 上記原言語による文又は文の一部と、 この文又は文の一部の対訳 である上記原言語とは異なる任意の目的言語による文又は文の一部 とが対応付けられて記述されるとともに、 上記原言語による文又は 文の一部及び上記目的言語による文又は文の一部に関連する関連情 報が記述された対訳情報を記憶する記憶手段と、  18. Input means for inputting a sentence or part of a sentence in an arbitrary source language, and a sentence or part of a sentence in the above source language and the source language which is a translation of this sentence or part of a sentence are different A sentence or a part of a sentence in an arbitrary target language is described in association with the sentence or a part of the sentence in the source language and related information related to a sentence or a part of the sentence in the target language. Storage means for storing the described bilingual information;
上記対訳情報に基づき、 上記原言語による文又は文の一部と、 上 記対訳情報の組み合わせによって構成される文との一致性或いは類 似性を判定することによって、 上記原言語による文又は文の一部を 解析して翻訳結果の候補を生成する解析手段と、 Based on the bilingual information, a sentence or a sentence in the source language is determined by determining the consistency or similarity between the sentence or a part of the sentence in the source language and the sentence composed of the combination of the bilingual information. Part of Analysis means for analyzing and generating translation result candidates;
上記原言語による文又は文の一部の対訳である上記目的言語によ る文又は文の一部を生成する目的言語文生成手段と、  A target language sentence generating means for generating a sentence or part of a sentence in the target language which is a translation of a sentence or part of the sentence in the source language;
上記目的言語文生成手段により生成された上記目的言語による文 又は文の一部を出力する出力手段とを備えること  Output means for outputting a sentence or a part of the sentence in the target language generated by the target language sentence generating means.
を特徴とする翻訳処理装置。  A translation processing device characterized by the above-mentioned.
1 9 . 上記関連情報は、 上記入力手段により入力された上記原言語 による文又は文の一部の対訳である上記目的言語による文又は文の 一部が有する意味の解釈に支援となる情報であること  19. The relevant information is information that is input by the input means and that assists in interpreting the meaning of the sentence or part of the sentence in the target language, which is a translation of the sentence or part of the sentence in the source language. There is
を特徴とする請求の範囲第 1 8項記載の翻訳処理装置。  19. The translation processing device according to claim 18, wherein:
2 0 . 上記関連情報は、 上記入力手段により入力された上記原言語 による文又は文の一部の対訳である上記目的言語による文又は文の 一部の表現を言い換えた上記原言語による確認用原言語文を含むこ と  20. The above-mentioned related information is for confirmation in the above-mentioned source language in which a sentence in the above-mentioned target language which is a bilingual sentence or a part of a sentence in the above-mentioned source language inputted by the above-mentioned input means is reworded. Include source language sentences
を特徴とする請求の範囲第 1 9項記載の翻訳処理装置。  10. The translation processing device according to claim 19, wherein the translation processing device is characterized in that:
2 1 . 上記入力手段により入力された上記原言語による文又は文の 一部と、 この原言語による文又は文の一部に対応する対訳情報に記 述されるべき確認用原言語文とが同一である場合には、 上記対訳情 報への上記確認用原言語文の記述を省略すること  2 1. The sentence or part of the sentence in the source language input by the input means and the source language sentence for confirmation to be described in the bilingual information corresponding to the sentence or part of the sentence in the source language. If they are the same, omit the description of the confirmation source language sentence in the bilingual information.
を特徴とする請求の範囲第 2 0項記載の翻訳処理装置。  20. The translation processing device according to claim 20, wherein:
2 2 . 上記関連情報は、 上記確認用原言語文の表現が用いられる状 況を説明する上記原言語による状況説明文、 上記確認用原言語文の 表現が用いられる状況に関連した状況説明画像又は上記確認用原言 語文の表現が用いられる状況に関連した状況説明音声の少なく とも いずれか 1つであること を特徴とする請求の範囲第 2 0項記載の翻訳処理装置。 2 2. The related information is a situation description sentence in the source language that explains the situation in which the expression of the confirmation source language sentence is used, and a situation explanation image related to the situation in which the expression of the confirmation source language sentence is used. Or, at least one of the situation explanation sounds related to the situation where the expression of the confirmation original language sentence is used 20. The translation processing device according to claim 20, wherein:
一 2 3 . 上記関連情報は、 上記入力手段により入力された上記原言語 による文又は文の一部の次に入力される可能性が高い上記原言語に よる文又は文の一部に関連する対訳情報への関連付け情報であるこ と 23. The relevant information is related to a sentence or part of a sentence in the source language which is likely to be input next to a sentence or part of the sentence in the source language input by the input means. The information must be related to the bilingual information
を特徴とする請求の範囲第 1 8項記載の翻訳処理装置。  19. The translation processing device according to claim 18, wherein:
2 4 . 上記関連情報は、 上記入力手段により入力された上記原言語 による文又は文の一部の次に入力される可能性が高い上記原言語に よる文又は文の一部が属する分野を限定するための分野情報である こと  24. The related information indicates the field to which the sentence or part of the sentence in the source language that is likely to be input next to the sentence or part of the sentence in the source language input by the input means belongs. Field information to limit
を特徴とする請求の範囲第 1 8項記載の翻訳処理装置。  19. The translation processing device according to claim 18, wherein:
2 5 . 上記関連情報は、 上記入力手段により入力された上記原言語 による文又は文の一部に対する応答を予測した応答文、 上記入力手 段により入力された上記原言語による文又は文の一部に対する応答 を予測した応答画像又は上記入力手段により入力された上記原言語 による文又は文の一部に対する応答を予測した応答音声の少なく と もいずれか 1つであること  25. The related information is a response sentence that predicts a response to the sentence or part of the sentence in the source language input by the input means, or one of the sentence or sentence in the source language input by the input means. At least one of the response image that predicted the response to the part or the response voice that predicted the response to the sentence or part of the sentence in the source language input by the input means
を特徴とする請求の範囲第 1 8項記載の翻訳処理装置。  19. The translation processing device according to claim 18, wherein:
2 6 . 上記関連情報は、 上記入力手段により入力された上記原言語 による文又は文の一部とこの文又は文の一部の対訳である上記目的 言語による文又は文の一部とを対応付けた対訳情報に基づき、 上記 原言語による文又は文の一部と、 上記対訳情報の組み合わせによつ て構成される文との一致性或いは類似性の判定に用いられる適用制 約であること  26. The related information corresponds to the sentence or part of the sentence in the source language input by the input means and the sentence or part of the sentence in the target language which is a translation of the sentence or part of the sentence. Based on the attached bilingual information, it must be an applicable restriction used to determine the consistency or similarity between a sentence or part of the sentence in the source language and a sentence composed of a combination of the above-mentioned translated information.
を特徴とする請求の範囲第 1 8項記載の翻訳処理装置。 19. The translation processing device according to claim 18, wherein:
2 7 . 上記入力手段により入力された上記原言語による文又は文の 一部に対する翻訳結果の候補が上記適用制約を満たすか否かを判定 する適用制約判定手段をさらに備え、 27. The apparatus further comprises an application constraint determination unit configured to determine whether a translation result candidate for the sentence or part of the sentence in the source language input by the input unit satisfies the application constraint,
上記適用制約判定手段による判定の結果、 上記適用制約を満たす 候補が存在しない場合には、 上記原言語による文又は文の一部が翻 訳不可能である旨の情報を出力すること  If there is no candidate that satisfies the application constraint as a result of the determination by the application constraint determination means, information indicating that the sentence or part of the sentence in the source language cannot be translated is output.
を特徴とする請求の範囲第 2 6項記載の翻訳処理装置。  27. The translation processing apparatus according to claim 26, wherein:
2 8 . 上記目的言語による文又は文の一部を入力する第 2の入力手 段と、 28. A second input means for inputting a sentence or a part of a sentence in the target language,
上記目的言語による文又は文の一部と、 この文又は文の一部の対 訳である上記原言語による文又は文の一部とが対応付けられて記述 されるとともに、 上記目的言語による文又は文の一部及び上記原言 語による文又は文の一部に関連する関連情報が記述された対訳情報 を記憶する第 2の記憶手段と、  A sentence or part of a sentence in the target language described above is associated with a sentence or part of the sentence in the source language, which is a translation of the sentence or part of the sentence, and a sentence in the target language is written. Or a second storage means for storing bilingual information in which a part of a sentence and a sentence in the original language or related information related to the part of the sentence are described;
上記第 2の記憶手段に記憶された対訳情報に基づき、 上記目的言 語による文又は文の一部と、 上記対訳情報の組み合わせによって構 成される文との一致性或いは類似性を判定することによって、 上記 目的言語による文又は文の一部を解析して翻訳結果の候補を生成す る第 2の解析手段と、  Determining, based on the bilingual information stored in the second storage means, a match or similarity between a sentence or a part of the sentence in the target language and a sentence composed of a combination of the translated information. A second analysis means for analyzing a sentence or a part of the sentence in the target language to generate a translation result candidate,
上記目的言語による文又は文の一部の対訳である上記原言語によ る文又は文の一部を生成する第 2の目的言語文生成手段と、 上記第 2の目的言語文生成手段により生成された上記原言語によ る文又は文の一部を出力する第 2の出力手段とをさらに備えること を特徴とする請求の範囲第 1 8項記載の翻訳処理装置。  A second target language sentence generating means for generating a sentence or part of a sentence in the source language which is a translation of a sentence or a part of the sentence in the target language, and a second target language sentence generating means 19. The translation processing apparatus according to claim 18, further comprising: a second output unit that outputs a sentence or a part of the sentence in the source language.
2 9 . 上記関連情報は、 上記入力手段により入力された上記原言語 による文又は文の一部に対する応答と して次に上記第 2の入力手段2 9. The relevant information is the source language input by the input means. Then, the response to the sentence or part of the sentence
—により入力される可能性が高い上記目的言語による文又は文の一部 に関連する対訳情報への関連付け情報であること -It should be the information that is likely to be input by the target language and the bilingual information related to the sentence or part of the sentence.
を特徴とする請求の範囲第 2 8項記載の翻訳処理装置。  29. The translation processing apparatus according to claim 28, wherein:
3 0 . 上記関連情報は、 上記入力手段により入力された上記原言語 による文又は文の一部に対する応答と して次に上記第 2の入力手段 により入力される可能性が高い上記目的言語による文又は文の一部 が属する分野を限定するための分野情報であること  30. The relevant information is a response to the sentence or part of the sentence in the source language input by the input means, which is likely to be input next by the second input means in the target language. Field information to limit the field to which the sentence or part of the sentence belongs
を特徴とする請求の範囲第 2 8項記載の翻訳処理装置 = The translation processing device according to claim 28, characterized by the following :
3 1 . 音声にて上記入力手段により入力された上記原言語による文 又は文の一部を認識する音声認識手段をさらに備え、  31. Speech recognition means for recognizing a sentence or a part of the sentence in the source language input by the input means by voice,
上記出力手段は、 生成された上記原言語による文又は文の一部の 対訳である上記目的言語による文又は文の一部を音声により出力す ること  The output means outputs a generated sentence or a part of the sentence in the target language, which is a bilingual sentence or a part of the sentence in the source language.
を特徴とする請求の範囲第 1 8項記載の翻訳処理装置 c The translation processing device c according to claim 18, characterized in that:
3 2 . 上記関連情報は、 上記入力手段により入力された上記原言語 による文又は文の一部の次に入力される可能性が高い上記原言語に よる文又は文の一部に関連する対訳情報への関連付け情報であって、 上記関連付け情報に基づいて生成され、 上記音声認識手段が対象 とする上記原言語による文又は文の一部を限定する情報を記憶する 音声認識対象限定手段をさらに備えること  3 2. The relevant information is a bilingual translation related to a sentence or part of a sentence in the source language that is likely to be input next to a sentence or part of the sentence in the source language input by the input means. A voice recognition target limiting unit configured to store information for limiting a sentence or a part of a sentence in the source language to be generated by the voice recognition unit, the information being generated based on the association information. To prepare
を特徴とする請求の範囲第 3 1項記載の翻訳処理装置 c The translation processing device c according to claim 31, wherein
3 3 . 上記入力手段により入力された上記原言語による文又は文の 一部に対する応答を予測する応答予測手段と、  33. Response prediction means for predicting a response to a sentence or a part of a sentence in the source language input by the input means,
この応答予測手段により予測して生成した応答予測情報を提示す る応答予測提示手段とをさらに備えること The response prediction information predicted and generated by the response prediction means is presented. Response prediction presenting means
― を特徴とする請求の範囲第 1 8項記載の翻訳処理装置。 19. The translation processing device according to claim 18, wherein:
3 4 . 上記応答予測情報は、 上記入力手段により入力された上記原 言語による文又は文の一部に対応する対訳情報に上記関連情報とし て記述された応答文、 上記入力手段により入力された上記原言語に よる文又は文の一部に対応する対訳情報に上記関連情報として記述 された応答画像又は上記入力手段により入力された上記原言語によ る文又は文の一部に対応する対訳情報に上記関連情報として記述さ れた応答音声の少なく ともいずれか 1つであること  34. The response prediction information is a response sentence described as the related information in the bilingual information corresponding to the sentence or part of the sentence in the source language input by the input means, and is input by the input means. A response image described as the related information in the bilingual information corresponding to a sentence or part of the sentence in the source language, or a bilingual sentence or part of the sentence in the source language input by the input means. At least one of the response voices described as related information in the information
を特徴とする請求の範囲第 3 3項記載の翻訳処理装置:  The translation processing device according to claim 33, characterized by:
PCT/JP2000/000907 1999-02-18 2000-02-17 Translating method and translating device WO2000049523A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP11040282A JP2000242642A (en) 1999-02-18 1999-02-18 Method and device for translation processing
JP11/40282 1999-02-18

Publications (1)

Publication Number Publication Date
WO2000049523A1 true WO2000049523A1 (en) 2000-08-24

Family

ID=12576268

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/000907 WO2000049523A1 (en) 1999-02-18 2000-02-17 Translating method and translating device

Country Status (2)

Country Link
JP (1) JP2000242642A (en)
WO (1) WO2000049523A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1231544A3 (en) * 2001-02-09 2004-12-08 Riken Everyday language-based computing system and method
US7562006B2 (en) 2005-07-06 2009-07-14 Panasonic Corporation Dialog supporting device
US11170180B2 (en) 2016-05-02 2021-11-09 Sony Corporation Control device and control method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8463611B2 (en) * 2004-10-13 2013-06-11 Hewlett-Packard Development Company, L.P. Method and system for improving the fidelity of a dialog system
CN101052965A (en) 2005-07-13 2007-10-10 松下电器产业株式会社 Dialog supporting device

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03244077A (en) * 1990-02-21 1991-10-30 Nec Corp Translation assisting device
JPH04310182A (en) * 1991-04-09 1992-11-02 Nec Corp Machine translation device
JPH05204968A (en) * 1992-01-13 1993-08-13 Nec Corp Translated word selector
JPH07271794A (en) * 1995-01-04 1995-10-20 Hitachi Ltd Conversation translating device
JPH08328585A (en) * 1995-05-31 1996-12-13 Sony Corp Method and device for natural language processing and method and device for voice recognition
JPH0916599A (en) * 1995-06-26 1997-01-17 Sharp Corp Electronic dictionary device
JPH09319750A (en) * 1996-05-27 1997-12-12 Sharp Corp Interpretation device
JPH1097538A (en) * 1996-09-25 1998-04-14 Sharp Corp Machine translation device
JPH10228474A (en) * 1997-02-14 1998-08-25 Technos Japan:Kk Portable voice interpreter by which bidirectional conversation is available
JPH10293761A (en) * 1997-04-18 1998-11-04 Matsushita Electric Ind Co Ltd Machine translation device, machine translation method and recording medium recording machine translation program
JPH10320397A (en) * 1997-05-22 1998-12-04 Hitachi Ltd Portable voice translation terminal
US5854997A (en) * 1994-09-07 1998-12-29 Hitachi, Ltd. Electronic interpreter utilizing linked sets of sentences

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03244077A (en) * 1990-02-21 1991-10-30 Nec Corp Translation assisting device
JPH04310182A (en) * 1991-04-09 1992-11-02 Nec Corp Machine translation device
JPH05204968A (en) * 1992-01-13 1993-08-13 Nec Corp Translated word selector
US5854997A (en) * 1994-09-07 1998-12-29 Hitachi, Ltd. Electronic interpreter utilizing linked sets of sentences
JPH07271794A (en) * 1995-01-04 1995-10-20 Hitachi Ltd Conversation translating device
JPH08328585A (en) * 1995-05-31 1996-12-13 Sony Corp Method and device for natural language processing and method and device for voice recognition
JPH0916599A (en) * 1995-06-26 1997-01-17 Sharp Corp Electronic dictionary device
JPH09319750A (en) * 1996-05-27 1997-12-12 Sharp Corp Interpretation device
JPH1097538A (en) * 1996-09-25 1998-04-14 Sharp Corp Machine translation device
JPH10228474A (en) * 1997-02-14 1998-08-25 Technos Japan:Kk Portable voice interpreter by which bidirectional conversation is available
JPH10293761A (en) * 1997-04-18 1998-11-04 Matsushita Electric Ind Co Ltd Machine translation device, machine translation method and recording medium recording machine translation program
JPH10320397A (en) * 1997-05-22 1998-12-04 Hitachi Ltd Portable voice translation terminal

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Hideharu HATTORI, "A Method of Japanese-English Translation Support System by the Example Retrieval Using the 5P-6 Semantic Attribute" (in Japanese), Information Processing Society of Japan (the second half year of 1993) Lecture Journal of 47th National Meeting(3), Information Processing Society of Japan Corp., (27.09.93), Japan, Pages 3-185/3-186. *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1231544A3 (en) * 2001-02-09 2004-12-08 Riken Everyday language-based computing system and method
US7562006B2 (en) 2005-07-06 2009-07-14 Panasonic Corporation Dialog supporting device
US11170180B2 (en) 2016-05-02 2021-11-09 Sony Corporation Control device and control method

Also Published As

Publication number Publication date
JP2000242642A (en) 2000-09-08

Similar Documents

Publication Publication Date Title
US6374224B1 (en) Method and apparatus for style control in natural language generation
US6952665B1 (en) Translating apparatus and method, and recording medium used therewith
JP4267081B2 (en) Pattern recognition registration in distributed systems
Wahlster Mobile speech-to-speech translation of spontaneous dialogs: An overview of the final Verbmobil system
JP2001100781A (en) Method and device for voice processing and recording medium
Kumar et al. A comprehensive review of recent automatic speech summarization and keyword identification techniques
KR20150065523A (en) Method and apparatus for providing counseling dialogue using counseling information
Dyriv et al. The user's psychological state identification based on Big Data analysis for person's electronic diary
US11615787B2 (en) Dialogue system and method of controlling the same
WO2000049523A1 (en) Translating method and translating device
KR20210051523A (en) Dialogue system by automatic domain classfication
KR100400220B1 (en) Automatic interpretation apparatus and method using dialogue model
JPH07261793A (en) Interactive processor
JP3441400B2 (en) Language conversion rule creation device and program recording medium
Dahl Natural language processing: past, present and future
CN114254649A (en) Language model training method and device, storage medium and equipment
Wahlster Robust translation of spontaneous speech: a multi-engine approach
JPH11259089A (en) Natural language understanding device and system therefor
JP2001117752A (en) Information processor, information processing method and recording medium
Dhawan Speech to speech translation: Challenges and future
Munk et al. Shallow statistical parsing for machine translation
Garg et al. Conversion of Native Speech into Indian Sign Language to Facilitate Hearing Impairment
Öktem Incorporating prosody into neural speech processing pipelines: Applications on automatic speech transcription and spoken language machine translation
US20220215834A1 (en) System and method for speech to text conversion
JP2001100788A (en) Speech processor, speech processing method and recording medium

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA US

WWE Wipo information: entry into national phase

Ref document number: 09673440

Country of ref document: US