EP1093109A1 - Method for recognizing and selecting a note sequence, in particular a musical piece - Google Patents
Method for recognizing and selecting a note sequence, in particular a musical piece Download PDFInfo
- Publication number
- EP1093109A1 EP1093109A1 EP00120872A EP00120872A EP1093109A1 EP 1093109 A1 EP1093109 A1 EP 1093109A1 EP 00120872 A EP00120872 A EP 00120872A EP 00120872 A EP00120872 A EP 00120872A EP 1093109 A1 EP1093109 A1 EP 1093109A1
- Authority
- EP
- European Patent Office
- Prior art keywords
- tone
- sequence
- note
- sequences
- notes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
Definitions
- the invention relates to both a method for recognizing and Select a tone sequence, in particular a piece of music.
- the user In order to get a certain music title, the user needs the name or enter the name of the piece of music and send it to the corresponding Service providers transferred.
- the service provider's music database is then searched for the requested piece of music around this, if it is available in the database, to the requesting user transferred to.
- the object of the invention is a method for recognizing and selecting a tone sequence, in particular one To provide piece of music that allow a user to Find a sequence of tones or a piece of music and select its name he doesn't know.
- the first step is to recognize a tone sequence Tones of the tone sequence to be recognized converted into a note sequence, then becomes the search for the sequence of notes to be recognized one after the other with corresponding sequences of notes from a variety of tone sequences are compared and then names of the tone sequence or sequences output, whose note sequence or sequences with the note sequence of the to be recognized Tone sequence matches or match in a predetermined manner.
- the method according to the invention for selecting a tone sequence uses this recognition process and is characterized in that at least one a section of the tone sequence to be selected at least partially appropriate tone sequence is entered, the tones of the entered Tone sequence can be converted into a sequence of notes to search for the one to be selected Tone sequence whose sequence of notes one after the other with corresponding note sequences a variety of tones are compared to labels determine one or more tone sequences, their note sequence or sequences with the note sequence of the tone sequence to be selected in a predetermined manner matches, and the determined designations are output as a list so that a user can use the list of designations to find the desired one Can select tone sequence.
- Tone sequence as presented acoustically to and by the user can be reproduced more or less precisely, first in a sequence of notes, So it is converted into a representation, such as, for example is also used to write down pieces of music, and this Representation of the desired tone sequence with corresponding note sequences, the individual pieces of music in a database of a service provider are assigned to compare, so that the degree of agreement between the entered tone sequence and the pieces of music can be determined, then the names of the tone sequence or sequences output, with the desired or selected tone sequence match in a predetermined manner.
- the invention thus enables a user to also tone sequences, in particular Pieces of music, video clips and possibly films about them Request a soundtrack if he only knows the melody.
- the method according to the invention thus enables an intuitive search in Databases of pieces of music or the like, and thus facilitates their use.
- the User terminal entered the tone sequence to be selected Tone sequence is transmitted to a database station in which the list of names of one or more of the ones to be selected Tone sequence similar tone sequences is determined, and the label list is transmitted to the user terminal for output.
- the transmission path is advantageous if the in a user terminal Entered tone sequence corresponding to the tone sequence to be selected in User terminal is converted into a sequence of notes, the sequence of notes into one Database station is transmitted in the list of names one or more tone sequences similar to the tone sequence to be selected is determined and the label list for output to the user terminal is transmitted.
- a piece of music the title of which he Not knowing at all, being able to choose is particularly advantageous Embodiment of the invention provided that together with everyone Designation a short characteristic of the respective tone sequence Excerpt of the tone sequence for output to the user terminal becomes.
- the user is therefore not only the name of the respective Tone sequence is the title or titles of the recognized piece of music or questionable of upcoming music pieces, but it will also enable him a short characteristic excerpt from the piece of music, for Example listening to the basic topic or the chorus so that it is due make his selection based on the characteristic tone sequence reproduced can.
- the tone sequence sung by the user for input into the user terminal becomes.
- a particularly advantageous embodiment of the method according to the invention is characterized in that for converting a tone sequence into a note sequence, the pitch frequency f p 'and the tone duration d is determined for each tone of the tone sequence, and for each tone a musical note corresponding to its pitch frequency f p and a musically quantized note duration d is assigned to the tone sequence according to a tone duration distribution.
- the duration of the notes first the median of the duration of the sound is determined, and the duration of the sound of the median is equated with the duration of a 1/4 grade, as well as each note by comparing its note duration with the determined note duration a 1/4 note a corresponding musical quantized Grade duration is assigned.
- the temporal course of the pitch frequency thus becomes the respective musical tone or note, for example C, D, E, F, G, A, H and the note duration d determined.
- the duration d is not absolutely measurable, the median and the note duration are determined from the tone duration distribution equated to a 1/4 note. Based on this, tone duration intervals can then be set specify to whom the other common note durations, So in particular 1/32, 1/16, 1/8, 1/2 and 1 can be assigned can.
- each tone sequence is represented by a pitch vector h , which is composed of the individual notes or musical tones, and a tone duration vector d , which is composed of the musical quantized note durations d of the individual tones.
- + ⁇ l 0 N -1
- the names of the tone sequences to be output accordingly a degree of agreement between the associated stored Tone sequences and the entered tone sequence are sorted and that the output begins with the name, the tone sequence of which is entered Tone sequence is most similar, with only names of such tone sequences are output whose degree of conformity is greater than a predefined one Is worth.
- a particularly advantageous embodiment of the invention is characterized by this from that the note sequences of the multitude of tone sequences together with corresponding names of the tone sequences in a database file are saved, along with those stored in the database file Sequences of notes short characteristic sections of each Tone sequences are saved.
- a special database file in which the note sequences of those available in a database Pieces of music together with corresponding names, i.e. with the Titles of the pieces of music are stored so that when comparing the sequence of notes the sequence of notes of the pieces of music does not match the tone sequence entered must be generated each time so that the search for the desired Piece of music can be significantly simplified and accelerated can.
- this particular Database file also a short characteristic of each note sequence Extract of the respective piece of music can be assigned, for example in MIDI format, so that on the database file, in the pieces of music as such are stored, need only be accessed when the user decided on a specific piece of music.
- Figure 1 shows, for example, a communication system in which a user with the help of a user terminal, for example as a mobile phone 10 is formed, via a transmission link 11 with a database station 12 of a service provider that has a tune database 13 includes, can communicate to pieces of music, video clips and where appropriate To get films or the like delivered.
- a user terminal for example as a mobile phone 10
- a database station 12 of a service provider that has a tune database 13 includes
- the mobile phone 10 has in the usual way a microphone 14 for voice and Sound input, the output of which is via an analog / digital converter 15 is applied to a central processing circuit 16.
- the central processing circuit 16 which is designed, for example, as a microprocessor admits to the service provider database station 12 transmitted data to a transmitting and receiving unit 17, to the one Transmitting and receiving antenna 18 is connected to information to send over the transmission link 11 and to receive from this.
- the database station 12 of the service provider has a transmission and Receiving unit 19 with a transmitting and receiving antenna 20 to Receive or send data from or via the transmission link 11 to be able to.
- the transmitting and receiving unit 19 is with a central processing circuit 21 connected to the music track database 13 can access a requested piece of music to the cell phone 10 transferred to.
- a database file 22 is provided for the recognition of pieces of music, in the along with the names or titles of each Music pieces in the music piece database 13 corresponding to the music pieces Notes are saved. Along with the labels and note sequences of the pieces of music can still be characteristic Excerpts from the music pieces can be saved.
- the mobile phone points to the acoustic and optical output of information 10 a loudspeaker 23 and a display device 24 which via corresponding driver circuits 25 and 26 with the central processing circuit 16 are connected.
- the user To request a particular piece of music from a service provider, the user first gives a section of the item to be selected or desired piece of music in which he simply the melody known to him sings into the microphone 14.
- the human recorded by the microphone Voice is digitized via the analog / digital converter 15 and on the central processing circuit 16, which thus digitized Frequency response of the human voice receives.
- the digitized frequency response of the human voice becomes using a pitch detector in the central processing circuit 16 the time course of the pitch frequency in the microphone 14 sung tone sequence determined. It serves as a pitch detector, for example the so-called SIFT (Simplified inverse filter tracking) algorithm, which is particularly well suited for relatively high female voices, or the so-called cepstrum pitch estimation (cepstrum pitch estimation) which is suitable for relatively deep male voices.
- SIFT Simple inverse filter tracking
- cepstrum pitch estimation cepstrum pitch estimation
- the determined course of the pitch frequency f p is then smoothed using a suitable filter.
- a suitable filter is used in which a filter window glides over the pitch frequency curve to be smoothed, in order to replace the value in the center of the window with the median of all values in the window.
- Such median filtering is also known and is explained in the textbook mentioned above.
- FIG. 3 shows, for example, five different tones with different tone durations, each of which can be assigned a specific musical tone or a note as well as a specific tone duration.
- the entered, sung tone sequence into a certain number N of single tones disassemble.
- Each of these single tones corresponds to a musical tone assigned to the musical scale.
- everyone owns the Single tones a certain tone duration, from which a corresponding note duration can be determined.
- Each tone is thus characterized by two sizes, namely by the pitch or pitch frequency, which is denoted by the corresponding musical tone or the corresponding note, and by the tone duration, which is quantized according to the musical note duration in a manner to be described.
- the values h 1 can simply be whole numbers which represent the respective musical tones or notes according to the following table. grade A ' Ais' H' C ' Cis' D ' Dis' E ' F ' Fis' G' Gis' A '' Ais '' H'' number 0 1 2 3rd 4th 5 6 7 8th 9 10 11 12th 13 14
- each note duration 1/32, 1/16, 1/8, 1/4, 1/2, 1 a corresponding number can be assigned, being more appropriate
- the duration 1 is set for the shortest note. Receives a 1/4 note then the duration 8, a 1/2 note the duration 16 and the whole grade the duration 32.
- the median of the sound duration distribution is determined and equal with a 1/4 note. Time intervals are then based on the median fixed, which correspond to the individual note durations.
- the conversion of the tone sequence into the vectors describing the note sequence can in the central processing circuit 21 of the database station 12 of the service provider.
- the corresponding This implementation will block transmission channels as little as possible already in the mobile phone 10 from the central processing circuit 16 made so that only the pitch vector and the note duration vector to be transmitted to the database station 12 of the service provider need.
- the index i denotes the respective piece of music and M the number of tones or notes.
- a function f i (x) is calculated, the course of which shows how the note sequence of the entered tone sequence corresponds to the individual sections.
- + ⁇ l 0 N -1
- ⁇ and ⁇ weighting factors that describe the influence of the melody or the rhythm on the matching factor.
- m hi (x) and m di (x) each denote the median of the pitches or tone durations in the interval from h i (x) to H i (x + N - 1) or d i (x) to d i (x + N - 1)
- h (l) and d (l) denote the pitch or duration of the lth tone in the vector h and d, respectively.
- m h and m d denote the median of the pitches or tone durations in the vector h and in the vector d, respectively.
- the function f i (x) After the function f i (x) has been calculated for all values x, i.e. if the note sequence of the input tone sequence has been compared with all possible sections of the note sequence of a piece of music in the manner described by the above equation, the smallest value of the function f i ( x) found.
- the associated value x 1 thus describes the section of the note sequence which (possibly) corresponds to the section of the piece of music sung by the user.
- the names or titles of the pieces of music are sorted according to the determined match factors F i, l , starting with the smallest match factor which indicates the highest match.
- the music pieces in the determined order to present are from the database station 12 to Mobile phone 10 transmitted where the title is displayed on the tagging device 24 become characteristic cutouts of the pieces of music can be output via the loudspeaker 23.
- the limitation can be achieved by that only, depending on the display and storage capacity of the mobile phone limited fixed number of titles of the music pieces is transmitted. It is however, it is also possible to limit the deviation factor make so that only tracks from pieces of music to the mobile phone transferred and displayed to the user, their deviation factor does not exceed a predetermined threshold.
- Such one Threshold can be defined generally or according to the deviation factor distribution be determined.
- the present invention thus enables the recognition of pieces of music in the database station of a service provider, where a user only sings a part of a desired piece of music if the Title of this song or piece of music is not known. After detection of the piece of music, or a number of possible pieces of music the title (s) will be, if necessary, together with characteristic ones Transfer sections of the music pieces to the user, so that he can select the desired piece of music from it. After The entire piece of music is then selected via electronic communication channels (Internet, cellular mobile phone network as described in Embodiment, or the like) and the user the piece of music can be stored permanently on a suitable storage medium Save and play (CD, memory module, magnetic tape, etc.).
- a suitable storage medium Save and play CD, memory module, magnetic tape, etc.
- Pieces of music in the database station of the service provider is in the database station 12 separate database file 22 is provided in which the titles or designations of the individual pieces of music with the assigned note sequences are so that finding the desired pieces of music is essential facilitated and the detection is accelerated.
Abstract
Description
Die Erfindung betrifft sowohl ein Verfahren zum Erkennen als auch zum Auswählen einer Tonfolge, insbesondere eines Musikstücks.The invention relates to both a method for recognizing and Select a tone sequence, in particular a piece of music.
Die heutigen Multimediadienste ermöglichen es ihren Benutzern, Musikstücke, Videoclips und auch graphische Informationen auf entsprechende Anforderung aus entsprechenden Datenbanken abzurufen, um die gewünschten Musikstücke oder dergleichen wiedergeben und/oder speichern zu können. Bei weitersteigenden Datenübertragungsgeschwindigkeiten und sinkenden Speicherplatzkosten werden in Zukunft auch Filme von entsprechenden Anbietern abrufbar sein.Today's multimedia services allow their users to play music, Video clips and also graphic information on appropriate Retrieve request from appropriate databases to find the one you want Play and / or save music or the like to be able to. With increasing data transmission speeds and falling storage space costs will also be films in the future be available from relevant providers.
Beispielsweise ist es derzeit im Internet möglich, daß ein Benutzer sich von einem entsprechenden Anbieter Musiktitel oder dergleichen übertragen läßt, die dann entweder in einer benutzerseitigen Datenbank gespeichert oder zum Herstellen einer CD verwendet werden. Eine derartige Anforderung von Musikstücken oder dergleichen ist jedoch auch über Mobilfunkdienste möglich.For example, it is currently possible on the Internet for a user to opt out a music provider or the like leaves, which are then either stored in a user database or used to make a CD. Such a requirement of pieces of music or the like is also via cellular services possible.
Um einen bestimmten Musiktitel zu erhalten, muß der Benutzer den Namen oder die Bezeichnung des Musikstücks eingeben und an den entsprechenden Diensteanbieter übertragen. Die Musiktiteldatenbank des Diensteanbieters wird dann auf das angeforderte Musikstück hin durchsucht um dieses, falls es in der Datenbank verfügbar ist, zum anfordernden Benutzer zu übertragen.In order to get a certain music title, the user needs the name or enter the name of the piece of music and send it to the corresponding Service providers transferred. The service provider's music database is then searched for the requested piece of music around this, if it is available in the database, to the requesting user transferred to.
Um einem Benutzer auch dann einen gewünschten Musiktitel liefern zu können, wenn dieser die Bezeichnung des Musikstücks nicht ganz genau kennt, werden bei der Suche in der Datenbank des Diensteanbieters auch assoziative Suchalgorithmen verwendet, die trotz geringer Abweichungen der eingegebenen Bezeichnung vom tatsächlichen Namen des Musikstücks dieses identifizieren können oder zumindest eine Auswahl von mehreren Musikstücken mit ähnlichen Bezeichnungen anbieten.To deliver a desired music title to a user if the name of the piece of music is not exactly accurate knows, when searching in the database of the service provider too associative search algorithms used despite small deviations the name entered from the actual name of the piece of music can identify this or at least a selection of offer several pieces of music with similar names.
Möchte jedoch ein Benutzer ein Musikstück anfordern, das ihm sehr gut gefällt, dessen Titel er jedoch nicht oder allenfalls nur sehr vage kennt, so ist es für ihn derzeit praktisch unmöglich dieses Musikstück anzufordern.However, a user wants to request a piece of music that suits him very well likes, the title of which, however, he does not know or only knows very vaguely, so it is currently practically impossible for him to request this piece of music.
Davon ausgehend liegt der Erfindung die Aufgabe zugrunde, Verfahren zum Erkennen und zum Auswählen einer Tonfolge, insbesondere eines Musikstückes bereitzustellen, die es einem Benutzer ermöglichen, eine Tonfolge oder ein Musikstück aufzufinden und auszuwählen, dessen Bezeichnung er nicht kennt.Proceeding from this, the object of the invention is a method for recognizing and selecting a tone sequence, in particular one To provide piece of music that allow a user to Find a sequence of tones or a piece of music and select its name he doesn't know.
Diese Aufgabe wird hinsichtlich des Erkennens einer Tonfolge durch das Verfahren nach Anspruch 1 und hinsichtlich des Auswählens einer Tonfolge durch das Verfahren nach Anspruch 2 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung sind in den Unteransprüchen beschrieben.This task is carried out with regard to the recognition of a tone sequence by the Method according to claim 1 and with regard to the selection of a tone sequence solved by the method according to claim 2. Advantageous configurations and developments of the invention are in the subclaims described.
Erfindungsgemäß werden also zum Erkennen einer Tonfolge zunächst die Töne der zu erkennenden Tonfolge in eine Notenfolge umgesetzt, anschließend wird zum Suchen der zu erkennenden Tonfolge deren Notenfolge nacheinander mit entsprechenden Notenfolgen einer Vielzahl von Tonfolgen verglichen und dann werden Bezeichnungen der Tonfolge oder -folgen ausgegeben, deren Notenfolge bzw. -folgen mit der Notenfolge der zu erkennenden Tonfolge in vorbestimmter Weise übereinstimmt bzw. übereinstimmen.According to the invention, the first step is to recognize a tone sequence Tones of the tone sequence to be recognized converted into a note sequence, then becomes the search for the sequence of notes to be recognized one after the other with corresponding sequences of notes from a variety of tone sequences are compared and then names of the tone sequence or sequences output, whose note sequence or sequences with the note sequence of the to be recognized Tone sequence matches or match in a predetermined manner.
Das erfindungsgemäße Verfahren zum Auswählen einer Tonfolge nutzt dieses Erkennungsverfahren und zeichnet sich dadurch aus, daß eine zumindest einem Abschnitt der auszuwählenden Tonfolge zumindest teilweise entsprechende Tonfolge eingegeben wird, die Töne der eingegebenen Tonfolge in eine Notenfolge umgesetzt werden, zum Suchen der auszuwählenden Tonfolge deren Notenfolge nacheinander mit entsprechenden Notenfolgen einer Vielzahl von Tonfolgen verglichen wird, um Bezeichnungen einer oder mehrerer Tonfolgen zu ermitteln, deren Notenfolge oder -folgen mit der Notenfolge der auszuwählenden Tonfolge in vorbestimmter Weise übereinstimmt, und die ermittelten Bezeichnungen als Liste ausgegeben werden, so daß ein Benutzer anhand der Bezeichnungsliste die gewünschte Tonfolge auswählen kann.The method according to the invention for selecting a tone sequence uses this recognition process and is characterized in that at least one a section of the tone sequence to be selected at least partially appropriate tone sequence is entered, the tones of the entered Tone sequence can be converted into a sequence of notes to search for the one to be selected Tone sequence whose sequence of notes one after the other with corresponding note sequences a variety of tones are compared to labels determine one or more tone sequences, their note sequence or sequences with the note sequence of the tone sequence to be selected in a predetermined manner matches, and the determined designations are output as a list so that a user can use the list of designations to find the desired one Can select tone sequence.
Der Grundgedanke der vorliegenden Erfindung liegt also darin, daß eine Tonfolge, wie sie sich akustisch dem Benutzer darbietet und von diesem mehr oder weniger genau reproduziert werden kann, zunächst in eine Notenfolge, also in eine Darstellung umgesetzt wird, wie sie beispielsweise auch zum Niederschreiben von Musikstücken verwendet wird, und diese Darstellung der gewünschten Tonfolge mit entsprechenden Notenfolgen, die einzelnen Musikstücken in einer Datenbank eines Diensteanbieters zugeordnet sind, zu vergleichen, so daß der Grad der Übereinstimmung zwischen der eingegebenen, gewünschten Tonfolge und den Musikstücken ermittelt werden kann, um dann die Bezeichnungen der Tonfolge oder -folgen auszugeben, die mit der gewünschten oder auszuwählenden Tonfolge in vorbestimmter Weise übereinstimmen.The basic idea of the present invention is therefore that a Tone sequence as presented acoustically to and by the user can be reproduced more or less precisely, first in a sequence of notes, So it is converted into a representation, such as, for example is also used to write down pieces of music, and this Representation of the desired tone sequence with corresponding note sequences, the individual pieces of music in a database of a service provider are assigned to compare, so that the degree of agreement between the entered tone sequence and the pieces of music can be determined, then the names of the tone sequence or sequences output, with the desired or selected tone sequence match in a predetermined manner.
Die Erfindung ermöglicht es somit einem Benutzer, auch Tonfolgen, insbesondere Musikstücke, Videoclips und gegebenenfalls auch Filme über deren Soundtrack anzufordern, wenn ihm nur deren Melodie bekannt ist. Das erfindungsgemäße Verfahren ermöglicht somit eine intuitive Suche in Datenbanken von Musikstücken oder dergleichen, und erleichtert damit deren Nutzung.The invention thus enables a user to also tone sequences, in particular Pieces of music, video clips and possibly films about them Request a soundtrack if he only knows the melody. The method according to the invention thus enables an intuitive search in Databases of pieces of music or the like, and thus facilitates their use.
Bei einer ersten Ausgestaltung der Erfindung ist vorgesehen, daß die in einem Benutzerendgerät eingegebene der auszuwählenden Tonfolge entsprechende Tonfolge zu einer Datenbankstation übertragen wird, in der die Liste der Bezeichnungen einer oder mehrerer der auszuwählenden Tonfolge ähnlichen Tonfolgen ermittelt wird, und die Bezeichnungsliste zur Ausgabe an das Benutzerendgerät übertragen wird.In a first embodiment of the invention it is provided that the User terminal entered the tone sequence to be selected Tone sequence is transmitted to a database station in which the list of names of one or more of the ones to be selected Tone sequence similar tone sequences is determined, and the label list is transmitted to the user terminal for output.
Wird als Benutzerendgerät beispielsweise ein Mobiltelefon benutzt, um über Funkkanäle ein bestimmtes Musikstück bei einem Diensteanbieter auszuwählen, so ist es insbesondere im Hinblick auf eine gute Ausnutzung der Übertragungsstrecke vorteilhaft, wenn die in ein Benutzerendgerät eingegebene, der auszuwählenden Tonfolge entsprechende Tonfolge im Benutzerendgerät in eine Notenfolge umgesetzt wird, die Notenfolge zu einer Datenbankstation übertragen wird, in der die Liste der Bezeichnungen einer oder mehrerer der auszuwählenden Tonfolge ähnlichen Tonfolgen ermittelt wird, und die Bezeichnungsliste zur Ausgabe an das Benutzerendgerät übertragen wird.For example, if a mobile phone is used as the user terminal a specific piece of music at a service provider via radio channels to choose, so it is particularly with a view to good utilization the transmission path is advantageous if the in a user terminal Entered tone sequence corresponding to the tone sequence to be selected in User terminal is converted into a sequence of notes, the sequence of notes into one Database station is transmitted in the list of names one or more tone sequences similar to the tone sequence to be selected is determined and the label list for output to the user terminal is transmitted.
Um es dem Benutzer zu ermöglichen, auch ein Musikstück, dessen Titel er überhaupt nicht kennt, auswählen zu können, ist bei einer besonders vorteilhaften Ausgestaltung der Erfindung vorgesehen, daß zusammen mit jeder Bezeichnung ein für die jeweilige Tonfolge charakteristischer kurzer Ausschnitt der Tonfolge zur Ausgabe an das Benutzerendgerät übertragen wird. Dem Benutzer wird somit nicht nur die Bezeichnung der jeweiligen Tonfolge also der oder die Titel des erkannten Musikstücks oder in Frage kommender Musikstücke angeboten, sondern es wird ihm auch ermöglicht, einen kurzen charakteristischen Auszug aus dem Musikstück, zum Beispiel das Grundthema oder den Refrain abzuhören, so daß er aufgrund der wiedergegebenen charakteristischen Tonfolge seine Auswahl treffen kann.In order to enable the user, a piece of music, the title of which he Not knowing at all, being able to choose is particularly advantageous Embodiment of the invention provided that together with everyone Designation a short characteristic of the respective tone sequence Excerpt of the tone sequence for output to the user terminal becomes. The user is therefore not only the name of the respective Tone sequence is the title or titles of the recognized piece of music or questionable of upcoming music pieces, but it will also enable him a short characteristic excerpt from the piece of music, for Example listening to the basic topic or the chorus so that it is due make his selection based on the characteristic tone sequence reproduced can.
Besonders zweckmäßig ist es, wenn bei dem erfindungsgemäßen Verfahren die Tonfolge zur Eingabe in das Benutzerendgerät vom Benutzer gesungen wird.It is particularly useful if in the method according to the invention the tone sequence sung by the user for input into the user terminal becomes.
Eine besonders vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens zeichnet sich dadurch aus, daß zum Umsetzen einer Tonfolge in eine Notenfolge für jeden Ton der Tonfolge die Tonhöhenfrequenz fp' und die Tondauer d'ermittelt wird, und jedem Ton eine musikalische Note entsprechend seiner Tonhöhenfrequenz fp und eine musikalisch quantisierte Notendauer d entsprechend einer Tondauerverteilung der Tonfolge zugeordnet wird.A particularly advantageous embodiment of the method according to the invention is characterized in that for converting a tone sequence into a note sequence, the pitch frequency f p 'and the tone duration d is determined for each tone of the tone sequence, and for each tone a musical note corresponding to its pitch frequency f p and a musically quantized note duration d is assigned to the tone sequence according to a tone duration distribution.
Hierbei ist es zweckmäßig, wenn zur Festlegung der Notendauer der Töne zunächst der Median der Tondauerverteilung ermittelt wird, und die Tondauer des Medians mit der Notendauer einer 1/4-Note gleichgesetzt wird, sowie jedem Ton durch Vergleich seiner Tondauer mit der ermittelten Notendauer einer 1/4-Note eine entsprechende musikalische quantisierte Notendauer zugeordnet wird.It is useful if to determine the duration of the notes first the median of the duration of the sound is determined, and the duration of the sound of the median is equated with the duration of a 1/4 grade, as well as each note by comparing its note duration with the determined note duration a 1/4 note a corresponding musical quantized Grade duration is assigned.
Erfindungsgemäß wird also aus dem zeitlichen Verlauf der Tonhöhenfrequenz der jeweilige musikalische Ton bzw. die Note, also beispielsweise C, D, E, F, G, A, H und die Notendauer d ermittelt. Da insbesondere beim Singen der gewünschten Tonfolge die Notendauer d nicht absolut meßbar ist, wird aus der Tondauerverteilung der Median ermittelt und der Notendauer einer 1/4-Note gleichgesetzt. Davon ausgehend lassen sich dann Tondauerintervalle angeben, denen dann die anderen gebräuchlichen Notendauern, also Insbesondere 1/32, 1/16, 1/8, 1/2 und 1 zugeordnet werden können.According to the invention, the temporal course of the pitch frequency thus becomes the respective musical tone or note, for example C, D, E, F, G, A, H and the note duration d determined. Because especially when singing the desired tone sequence, the duration d is not absolutely measurable, the median and the note duration are determined from the tone duration distribution equated to a 1/4 note. Based on this, tone duration intervals can then be set specify to whom the other common note durations, So in particular 1/32, 1/16, 1/8, 1/2 and 1 can be assigned can.
Für die Durchführung des Vergleichs zur Feststellung eines Übereinstimmungsgrades in einer Datenverarbeitungsanlage ist es besonders zweckmäßig, wenn jede Tonfolge durch einen Tonhöhenvektor h, der sich aus den einzelnen Noten oder musikalischen Tönen zusammensetzt, und einen Tondauervektor d dargestellt wird, der sich aus den musikalischen quantitierten Notendauern d der einzelnen Töne zusammensetzt.To carry out the comparison to determine a degree of conformity in a data processing system, it is particularly expedient if each tone sequence is represented by a pitch vector h , which is composed of the individual notes or musical tones, and a tone duration vector d , which is composed of the musical quantized note durations d of the individual tones.
Um die Notenfolge einer eingegebenen Tonfolge auch dann erfolgreich mit den Notenfolgen der gespeicherten Musikstücke vergleichen zu können, wenn die eingegebene Tonfolge bewußt oder unbewußt in eine andere Stimmlage transponiert wurde, ist bei einer zweckmäßigen Weiterbildung der Erfindung vorgesehen, daß zum Feststellen eines Übereinstimmungsfaktors Fi,l zwischen einer eingegebenen und einer gespeicherten Tonfolge die Differenz der Tonhöhen h und Tondauern d der jeweiligen Notenfolgen miteinander verglichen werden.In order to be able to successfully compare the note sequence of an inputted tone sequence with the note sequences of the stored pieces of music even if the inputted tone sequence was consciously or unconsciously transposed into a different vocal range, in an expedient development of the invention it is provided that to determine a correspondence factor F i, l the difference between the pitches h and tone durations d of the respective note sequences are compared with one another between an entered and a stored tone sequence.
Eine praktische Ausgestaltung der Erfindung zeichnet sich dadurch aus,
daß beim Vergleich der Notenfolgen einer eingegebenen und einer gespeicherten
Tonfolge die Notenfolge der eingegebenen Tonfolge nacheinander
mit entsprechenden Teil-Notenfolgen der gespeicherten Tonfolgen verglichen
wird, um jeweils einen Übereinstimmungsfaktor fi (x) zu ermitteln
und daß der den höchsten Übereinstimmungsgrad anzeigenden Übereinstimmungsfaktor
Für die Durchführung der Erfindung mittels Datenverarbeitungsanlagen
ist es besonders zweckmäßig, wenn als Übereinstimmungsfaktor der
kleinste Wert einer Funktion fi (x) ermittelt wird, die durch die folgende
Gleichung gegeben ist:
Um dem Benutzer die Auswahl des gesuchten Musikstücks weiter zu erleichterten, ist bei einer zweckmäßigen Weiterbildung der Erfindung vorgesehen, daß die auszugebenden Bezeichnungen der Tonfolgen entsprechend einem Übereinstimmungsgrad zwischen den zugehörigen gespeicherten Tonfolgen und der eingegebenen Tonfolge sortiert werden und daß die Ausgabe mit der Bezeichnung beginnt, deren Tonfolge der eingegebenen Tonfolge am ähnlichsten ist, wobei nur Bezeichnungen solcher Tonfolgen ausgegeben werden, deren Übereinstimmungsgrad größer als ein vorgegebener Wert ist.To make it easier for the user to select the piece of music they are looking for, is provided in an expedient development of the invention, that the names of the tone sequences to be output accordingly a degree of agreement between the associated stored Tone sequences and the entered tone sequence are sorted and that the output begins with the name, the tone sequence of which is entered Tone sequence is most similar, with only names of such tone sequences are output whose degree of conformity is greater than a predefined one Is worth.
Eine besonders vorteilhafte Ausgestaltung der Erfindung zeichnet sich dadurch aus, daß die Notenfolgen der Vielzahl von Tonfolgen zusammen mit entsprechenden Bezeichnungen der Tonfolgen in einer Datenbankdatei gespeichert sind, wobei zusammen mit den in der Datenbankdatei gespeicherten Notenfolgen kurze charakteristische Ausschnitte der jeweiligen Tonfolgen gespeichert sind.A particularly advantageous embodiment of the invention is characterized by this from that the note sequences of the multitude of tone sequences together with corresponding names of the tone sequences in a database file are saved, along with those stored in the database file Sequences of notes short characteristic sections of each Tone sequences are saved.
Erfindungsgemäß wird also eine besondere Datenbankdatei bereitgestellt, in der die Notenfolgen der in einer Datenbank zur Verfügung stehenden Musikstücke zusammen mit entsprechenden Bezeichnungen, also mit den Titeln der Musikstücke, gespeichert sind, so daß bei dem Vergleich der Notenfolge der eingegebenen Tonfolge die Notenfolgen der Musikstücke nicht jedesmal neu erzeugt werden müssen, so daß die Suche nach dem gewünschten Musikstück wesentlich vereinfacht und beschleunigt werden kann. Neben der Bezeichnung des Musikstücks kann in dieser besonderen Datenbankdatei auch jeder Notenfolge noch ein kurzer charakteristischer Ausschnitt des jeweiligen Musikstücks zugeordnet sein, zum Beispiel im MIDI-Format, so daß auf die Datenbankdatei, in der Musikstücke als solche gespeichert sind, erst zugegriffen zu werden braucht, wenn der Benutzer sich für ein konkretes Musikstück entschieden hat.According to the invention, a special database file is therefore provided, in which the note sequences of those available in a database Pieces of music together with corresponding names, i.e. with the Titles of the pieces of music are stored so that when comparing the sequence of notes the sequence of notes of the pieces of music does not match the tone sequence entered must be generated each time so that the search for the desired Piece of music can be significantly simplified and accelerated can. In addition to the name of the piece of music, this particular Database file also a short characteristic of each note sequence Extract of the respective piece of music can be assigned, for example in MIDI format, so that on the database file, in the pieces of music as such are stored, need only be accessed when the user decided on a specific piece of music.
Die Erfindung wird im folgenden beispielsweise unter Bezugnahme auf die
Zeichnung näher erläutert. Es zeigen:
Figur 1 zeigt beispielsweise ein Kommunikationssystem, bei dem ein Benutzer
mit Hilfe eines Benutzerendgeräts, das beispielsweise als Mobiltelefon
10 ausgebildet ist, über eine Übertragungsstrecke 11 mit einer Datenbankstation
12 eines Diensteanbieters, die eine Musikstückdatenbank
13 umfaßt, kommunizieren kann, um Musikstücke, Videoclips und gegebenenfalls
Filme oder dergleichen geliefert zu bekommen.Figure 1 shows, for example, a communication system in which a user
with the help of a user terminal, for example as a
Das Mobiltelefon 10 besitzt in üblicher Weise ein Mikrofon 14 zur Sprach- und
Toneingabe, dessen Ausgang über einen Analog/Digital-Wandler 15
an eine zentrale Verarbeitungsschaltung 16 angelegt ist. Die zentrale Verarbeitungsschaltung
16, die beispielsweise als Mikroprozessor ausgebildet
sein kann, gibt an die Datenbankstation 12 des Diensteanbieters zu
übertragende Daten an eine Sende- und Empfangseinheit 17 aus, an die eine
Sende- und Empfangsantenne 18 angeschlossen ist, um Informationen
über die Übertragungsstrecke 11 zu senden und von dieser zu empfangen.The
Die Datenbankstation 12 des Diensteanbieters weist eine Sende- und
Empfangseinheit 19 mit einer Sende- und Empfangsantenne 20 auf, um
Daten von bzw. über die Übertragungsstrecke 11 empfangen bzw. senden
zu können. Die Sende- und Empfangs einheit 19 ist mit einer zentralen Verarbeitungsschaltung
21 verbunden, die auf die Musikstückdatenbank 13
zugreifen kann, um ein angefordertes Musikstück zu dem Mobiltelefon 10
zu übertragen.The
Für die Erkennung von Musikstücken ist eine Datenbankdatei 22 vorgesehen,
in der zusammen mit den Bezeichnungen oder Titeln der einzelnen
Musikstücke in der Musikstückdatenbank 13 den Musikstücken entsprechende
Notenfolgen gespeichert sind. Zusammen mit den Bezeichnungen
und Notenfolgen der Musikstücke können dabei noch charakteristische
Ausschnitte aus den Musikstücken gespeichert sein.A
Zur akustischen und optischen Ausgabe von Information weist das Mobiltelefon
10 einen Lautsprecher 23 und eine Anzeigevorrichtung 24 auf, die
über entsprechende Treiberschaltungen 25 bzw. 26 mit der zentralen Verarbeitungsschaltung
16 verbunden sind.The mobile phone points to the acoustic and optical output of information
10 a loudspeaker 23 and a
Um ein bestimmtes Musikstück von einem Diensteanbieter anzufordern,
gibt der Benutzer zunächst einen Ausschnitt des auszuwählenden bzw.
gewünschten Musikstücks ein, in dem er einfach die ihm bekannte Melodie
in das Mikrofon 14 singt. Die vom Mikrofon aufgezeichnete menschliche
Stimme wird über den Analog/Digital-Wandler 15 digitalisiert und an
die zentrale Verarbeitungsschaltung 16 geliefert, die somit den digitalisierten
Frequenzverlauf der menschlichen Stimme empfängt.To request a particular piece of music from a service provider,
the user first gives a section of the item to be selected or
desired piece of music in which he simply the melody known to him
sings into the
Aus dem digitalisierten Frequenzverlauf der menschlichen Stimme wird
mit Hilfe eines Tonhöhendetektors in der zentralen Verarbeitungsschaltung
16 der zeitliche Verlauf der Tonhöhenfrequenz der in das Mikrofon 14
gesungenen Tonfolge ermittelt. Als Tonhöhendetektor dient dabei beispielsweise
der sogenannte SIFT (Simplified inverse filter tracking) Algorithmus,
der besonders gut für relativ hohe Frauenstimmen geeignet ist,
oder die sogenannte Cepstrum Tonhöhenabschätzung (Cepstrum pitch
estimation) die sich für relativ tiefe männliche Stimmen eignet. Diese Verfahren
sind dem zuständigen Fachmann vertraut und beispielsweise in
dem Lehrbuch "Voice and Speech Processing", Thomas W. Parsons, New
York, 1986, McGraw-Hill Book Company, erläutert.The digitized frequency response of the human voice becomes
using a pitch detector in the
Der ermittelte Verlauf der Tonhöhenfrequenz fp wird dann mit Hilfe eines geeignete Filters geglättet. Hierbei wird insbesondere ein Medianfilter verwendet, bei dem ein Filterfenster über die zu glättende Tonhöhenfrequenzkurve gleitet, um jeweils den Wert im Zentrum des Fensters durch den Median aller Werte im Fenster zu ersetzen. Eine derartige Medianfilterung ist ebenfalls bekannt und in dem obengenannten Lehrbuch erläutert.The determined course of the pitch frequency f p is then smoothed using a suitable filter. Here, in particular, a median filter is used in which a filter window glides over the pitch frequency curve to be smoothed, in order to replace the value in the center of the window with the median of all values in the window. Such median filtering is also known and is explained in the textbook mentioned above.
Nach dem Glätten ergibt sich ein Verlauf der Tonhöhenfrequenz fp, wie er in Figur 2 rein schematisch angedeutet ist. Somit liegt also ein geglätteter Verlauf der Tonhöhenfrequenzen der gesungenen Tonfolge über der Zeit vor, die im Idealfall mit dem Verlauf der Melodie im Frequenzbereich koinzidiert.After smoothing, there is a profile of the pitch frequency f p , as indicated purely schematically in FIG. 2. Thus there is a smoothed course of the pitch frequencies of the sung tone sequence over time, which ideally coincides with the course of the melody in the frequency domain.
Da jedoch durch bewußtes und unbewußtes Transponieren der Melodie beim Singen durch den Benutzer sowie durch Rythmus- und Tempounterschiede Fehler oder Abweichungen der gesungenen Melodie von der gewünschten Melodie auftreten, wird der in Figur 2 gezeigte Verlauf der Tonhöhenfrequenzen entsprechend den Frequenzen der musikalischen Töne oder Noten quantisiert, so daß sich der in Figur 3 gezeigte quantisierte Verlauf der Tonhöhenfrequenzen fp über der Zeit ergibt. Figur 3 zeigt dabei beispielsweise fünf verschiedene Töne mit unterschiedlichen Tondauern, denen jeweils ein bestimmter musikalischer Ton oder eine Note sowie eine bestimmte Tondauer zugeordnet werden können.However, since errors or deviations of the sung melody from the desired melody occur due to conscious and unconscious transposition of the melody by the user while singing, as well as due to rhythm and tempo differences, the course of the pitch frequencies shown in FIG. 2 is quantized according to the frequencies of the musical tones or notes , so that the quantized course of the pitch frequencies f p over time is shown in FIG. 3. FIG. 3 shows, for example, five different tones with different tone durations, each of which can be assigned a specific musical tone or a note as well as a specific tone duration.
Nach der Quantisierung des Verlaufs der Tonhöhenfrequenz läßt sich die eingegebene, gesungene Tonfolge in eine bestimmte Anzahl N von Einzeltönen zerlegen. Jedem dieser Einzeltöne ist dabei ein musikalischer Ton entsprechend der musikalischen Skala zugeordnet. Ferner besitzt jeder der Einzeltöne eine bestimmte Tondauer, aus der sich eine entsprechende Notendauer ermitteln läßt.After quantizing the course of the pitch frequency, the entered, sung tone sequence into a certain number N of single tones disassemble. Each of these single tones corresponds to a musical tone assigned to the musical scale. Furthermore, everyone owns the Single tones a certain tone duration, from which a corresponding note duration can be determined.
Jeder Ton zeichnet sich also durch zwei Größen aus, nämlich durch die
Tonhöhe oder Tonhöhenfrequenz, die durch den entsprechenden musikalischen
Ton bzw. die entsprechende Note bezeichnet wird, und durch die
Tondauer, die in noch zu beschreibender Weise entsprechend der musikalischen
Notendauer quantisiert wird. Damit läßt sich jede Tonfolge aus N
Tönen durch einen Tonhöhenvektor
und durch einen
Tondauervektor
beschreiben. Die Werte h1 können dabei
einfach ganze Zahlen sein, die entsprechend der folgenden Tabelle die
jeweiligen musikalischen Töne oder Noten repräsentieren.
In entsprechender Weise kann jeder Notendauer 1/32, 1/16, 1/8, 1/4,
1/2, 1 eine entsprechende Zahl zugeordnet werden, wobei zweckmäßiger
Weise für die kürzeste Note die Dauer 1 gesetzt wird. Eine 1/4-Note erhält
dann die Dauer 8, eine 1/2-Note die Dauer 16 und die ganze Note die Dauer
32. Um den einzelnen Tondauern eine musikalische Notendauer zuordnen
zu können, wird der Median der Tondauerverteilung ermittelt und gleich
einer 1/4-Note gesetzt. Ausgehend von dem Median werden dann Zeitintervalle
festgelegt, die den einzelnen Notendauern entsprechen.Correspondingly, each note duration 1/32, 1/16, 1/8, 1/4,
1/2, 1 a corresponding number can be assigned, being more appropriate
The duration 1 is set for the shortest note. Receives a 1/4 note
then the duration 8, a 1/2 note the
Die gesungene Tonfolge liegt nunmehr als Notenfolge vor, die sich durch zwei äußerst einfache Vektoren beschreiben lassen.The sung sequence of tones is now available as a sequence of notes that can be heard let describe two extremely simple vectors.
Die Umsetzung der Tonfolge in die die Notenfolge beschreibenden Vektoren
kann dabei in der zentralen Verarbeitungsschaltung 21 der Datenbankstation
12 des Diensteanbieters durchgeführt werden. Um jedoch die
Übertragungsstrecke 11 möglichst wenig zu belasten, um also die entsprechenden
Sendekanäle möglichst wenig zu blockieren, wird diese Umsetzung
bereits im Mobiltelefon 10 von der zentralen Verarbeitungsschaltung
16 vorgenommen, so daß nur der Tonhöhenvektor und der Notendauervektor
zur Datenbankstation 12 des Diensteanbieters übertragen zu werden
brauchen.The conversion of the tone sequence into the vectors describing the note sequence
can in the
In der Datenbankstation 12 sind in der Datenbankdatei 22 die Musikstücke
als Notenfolgen gespeichert, die ebenfalls durch einen entsprechenden
Tonhöhenvektor h i = (hi1, hi2, ... hix, ... hiM) und Tondauervektoren
d i = (di1, di2, ... dix, ... diM) beschrieben werden. Der Index i bezeichnet
dabei das jeweilige Musikstück und M die Anzahl der Töne oder Noten.In the
Um auch bewußt oder unbewußt transponierte eingegebene Tonfolgen mit den Musikstücken vergleichen zu können, werden nicht die jeweiligen Notenfolgen unmittelbar miteinander verglichen, sondern nur der Relativverlauf innerhalb der beiden Notenfolgen. Hierzu werden jeweils die Differenzen zwischen den einzelnen Tonhöhen miteinander verglichen. Es wird also für jede Notenfolge der Median festgestellt, um den Abstand der einzelnen Töne vom Median zu ermitteln und mit dem Abstand des entsprechenden anderen Tons der anderen Notenfolge von deren Median zu vergleichen. Da die Notenfolge des Musikstücks typischerweise wesentlich länger ist, als die Notenfolge, die beispielsweise durch Singen eingegeben wurde, wird für die Notenfolge des Musikstücks jeweils der Median eines entsprechenden Teilabschnitts dieser Notenfolge verwendet.To include consciously or unconsciously transposed input sound sequences To be able to compare the pieces of music will not be the respective note sequences compared directly with each other, but only the relative course within the two sequences of notes. For this, the differences compared between the individual pitches. It will that is, for each note sequence the median was determined by the distance of the individual To determine tones from the median and with the distance of the corresponding to compare other notes of the other sequence of notes by their median. Since the musical note sequence is typically essential is longer than the sequence of notes entered, for example, by singing , the median of the note sequence of the piece of music becomes one corresponding section of this sequence of notes used.
Beim praktischen Vergleich der Notenfolge einer eingegebenen Tonfolge
mit den Notenfolgen der Musikstücke wird eine Funktion fi (x) berechnet,
deren Verlauf anzeigt, wie die Notenfolge der eingegebenen Tonfolge mit
den einzelnen Abschnitten übereinstimmt. Diese Abweichungsfunktion
errechnet sich nach der folgenden Gleichung:
Hierbei sind α und β Gewichtsfaktoren, die den Einfluß der Melodie bzw.
des Rhythmus auf den Übereinstimmungsfaktor beschreiben. Für α und β
gilt dabei: 0 < α, β;
Sowohl für die Tonhöhen als auch für die Tondauern wird jeweils die Summe der Differenzen zwischen den jeweiligen Abständen zum entsprechenden Median berechnet, die im Idealfall, wenn also die Notenfolgen exakt übereinander passen, gleich 0 wird.The sum of both the pitches and the duration of the notes the differences between the respective distances to the corresponding Median calculates that, ideally, if the note sequences are exact fit on top of each other, becomes 0.
Nachdem die Funktion fi (x) für alle Werte x berechnet wurde, wenn also
die Notenfolge der eingegebenen Tonfolge mit sämtlichen möglichen Abschnitten
der Notenfolge eines Musikstücks in der durch die obige Gleichung
beschriebene Weise verglichen wurde, wird der kleinste Wert der
Funktion fi (x) festgestellt. Der zugehörige Wert xl beschreibt somit den
Abschnitt der Notenfolge der den vom Benutzer gesungenen Abschnitt des
Musikstücks (möglicherweise) entspricht. Der zugehörige Wert der Funktion
fi (x) wird dann als Abweichungsfaktor
Sobald die Notenfolge der eingegebenen Tonfolge mit sämtlichen Notenfolgen der einzelnen Musikstücke verglichen wurde, werden die Bezeichnungen oder Titel der Musikstücke entsprechend den ermittelten Übereinstimmungsfaktoren Fi,l sortiert, wobei mit dem die höchste Übereinstimmung bezeichnenden kleinsten Abweichungsfaktor begonnen wird.As soon as the note sequence of the input tone sequence has been compared with all the note sequences of the individual pieces of music, the names or titles of the pieces of music are sorted according to the determined match factors F i, l , starting with the smallest match factor which indicates the highest match.
Um anschließend dem Benutzer die Musikstücke in der ermittelten Reihenfolge
zu präsentieren, werden diese von der Datenbankstation 12 zum
Mobiltelefon 10 übertragen, wo die Titel auf der Anzelgevorrichtung 24 angezeigt
werden während charakteristische Ausschnitte der Musikstücke
über den Lautsprecher 23 ausgegeben werden können. Hierbei wird
zweckmäßigerweise die Anzahl der übertragenen Bezeichnungen begrenzt.
Die Begrenzung kann dabei im einfachsten Falle dadurch erfolgen,
daß nur, je nach Anzeige- und Speicherkapazität dem Mobiltelefon eine
begrenzte feste Anzahl von Titeln der Musikstücke übertragen wird. Es ist
jedoch auch möglich, die Begrenzung im Hinblick auf den Abweichungsfaktor
vorzunehmen, so daß nur Titel von Musikstücken zum Mobiltelefon
übertragen und dem Benutzer angezeigt werden, deren Abweichungsfaktor
einen vorbestimmten Schwellwert nicht übersteigt. Ein derartiger
Schwellwert kann allgemein festgelegt oder entsprechend der Abweichungsfaktorverteilung
ermittelt werden.To then the user the music pieces in the determined order
to present, these are from the
Die vorliegende Erfindung ermöglicht somit die Erkennung von Musikstücken in der Datenbankstation eines Diensteanbieters, wobei ein Benutzer nur einen Teil eines gewünschten Musikstücks singt, wenn ihm der Titel dieses Liedes oder Musikstücks nicht bekannt ist. Nach der Erkennung des Musikstücks, oder einer Reihe von möglichen Musikstücken wird oder werden der bzw. die Titel gegebenenfalls zusammen mit charakteristischen Ausschnitten der Musikstücke zum Benutzer übertragen, so daß dieser daraus das gewünschte Musikstück auswählen kann. Nach der Auswahl wird dann das komplette Musikstück über elektronische Kommunikationswege (Internet, zellulares Mobiltelefonnetz, wie im beschriebenen Ausführungsbeispiel, oder ähnliches) zugesandt und der Benutzer kann sich das Musikstück dauerhaft auf einem geeigneten Speichermedium (CD, Speicherbaustein, Magnetband usw.) abspeichern und abspielen.The present invention thus enables the recognition of pieces of music in the database station of a service provider, where a user only sings a part of a desired piece of music if the Title of this song or piece of music is not known. After detection of the piece of music, or a number of possible pieces of music the title (s) will be, if necessary, together with characteristic ones Transfer sections of the music pieces to the user, so that he can select the desired piece of music from it. After The entire piece of music is then selected via electronic communication channels (Internet, cellular mobile phone network as described in Embodiment, or the like) and the user the piece of music can be stored permanently on a suitable storage medium Save and play (CD, memory module, magnetic tape, etc.).
Für den Vergleich der eingegebenen Tonfolge, also eines gesungenen Abschnitts
des gewünschten Musikstücks mit den. Musikstücken in der Datenbankstation
des Dienstanbieters ist in der Datenbankstation 12 eine
gesonderte Datenbankdatei 22 vorgesehen, in der die Titel bzw. Bezeichnungen
der einzelnen Musikstücke mit den zugeordneten Notenfolgen gespeichert
sind, so daß das Auffinden der gewünschten Musikstücke wesentlich
erleichtert und die Erkennung beschleunigt ist.For comparison of the entered tone sequence, i.e. a section sung
of the desired piece of music with the. Pieces of music in the database station
of the service provider is in the
Claims (16)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19948974 | 1999-10-11 | ||
DE19948974A DE19948974A1 (en) | 1999-10-11 | 1999-10-11 | Method for recognizing and selecting a tone sequence, in particular a piece of music |
Publications (1)
Publication Number | Publication Date |
---|---|
EP1093109A1 true EP1093109A1 (en) | 2001-04-18 |
Family
ID=7925254
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP00120872A Withdrawn EP1093109A1 (en) | 1999-10-11 | 2000-09-25 | Method for recognizing and selecting a note sequence, in particular a musical piece |
Country Status (3)
Country | Link |
---|---|
US (1) | US6437227B1 (en) |
EP (1) | EP1093109A1 (en) |
DE (1) | DE19948974A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004049240A1 (en) * | 2002-11-28 | 2004-06-10 | Nokia Corporation | Method and device for determining and outputting the similarity between two data strings |
EP1522064A2 (en) * | 2001-07-13 | 2005-04-13 | Iceberg Industries LLC. | Audio identification system and method |
US7277852B2 (en) | 2000-10-23 | 2007-10-02 | Ntt Communications Corporation | Method, system and storage medium for commercial and musical composition recognition and storage |
Families Citing this family (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8412377B2 (en) | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US8788092B2 (en) | 2000-01-24 | 2014-07-22 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US6956348B2 (en) | 2004-01-28 | 2005-10-18 | Irobot Corporation | Debris sensor for cleaning apparatus |
US20020072982A1 (en) * | 2000-12-12 | 2002-06-13 | Shazam Entertainment Ltd. | Method and system for interacting with a user in an experiential environment |
US6690134B1 (en) | 2001-01-24 | 2004-02-10 | Irobot Corporation | Method and system for robot localization and confinement |
US7571511B2 (en) | 2002-01-03 | 2009-08-11 | Irobot Corporation | Autonomous floor-cleaning robot |
DE10117871C1 (en) * | 2001-04-10 | 2002-07-04 | Fraunhofer Ges Forschung | Signal identification extraction method for identification of audio data uses coordinate points provided by frequency values and their occurence points |
US8396592B2 (en) | 2001-06-12 | 2013-03-12 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US7429843B2 (en) | 2001-06-12 | 2008-09-30 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
DE10133333C1 (en) * | 2001-07-10 | 2002-12-05 | Fraunhofer Ges Forschung | Producing fingerprint of audio signal involves setting first predefined fingerprint mode from number of modes and computing a fingerprint in accordance with set predefined mode |
US7027983B2 (en) * | 2001-12-31 | 2006-04-11 | Nellymoser, Inc. | System and method for generating an identification signal for electronic devices |
US9128486B2 (en) | 2002-01-24 | 2015-09-08 | Irobot Corporation | Navigational control system for a robotic device |
DE60302651T2 (en) * | 2002-02-06 | 2006-08-10 | Koninklijke Philips Electronics N.V. | FAST HASH-BASED METADATA RETRIEVAL FOR MULTIMEDIA OBJECTS |
US6967275B2 (en) * | 2002-06-25 | 2005-11-22 | Irobot Corporation | Song-matching system and method |
DE10232916B4 (en) * | 2002-07-19 | 2008-08-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for characterizing an information signal |
US8386081B2 (en) | 2002-09-13 | 2013-02-26 | Irobot Corporation | Navigational control system for a robotic device |
US8428778B2 (en) | 2002-09-13 | 2013-04-23 | Irobot Corporation | Navigational control system for a robotic device |
US7222071B2 (en) * | 2002-09-27 | 2007-05-22 | Arbitron Inc. | Audio data receipt/exposure measurement with code monitoring and signature extraction |
US7619155B2 (en) * | 2002-10-11 | 2009-11-17 | Panasonic Corporation | Method and apparatus for determining musical notes from sounds |
US20040154461A1 (en) * | 2003-02-07 | 2004-08-12 | Nokia Corporation | Methods and apparatus providing group playing ability for creating a shared sound environment with MIDI-enabled mobile stations |
US8615157B1 (en) | 2003-11-17 | 2013-12-24 | David C. Isaacson | System and method for on-demand storage of randomly selected data |
US8588582B2 (en) * | 2003-11-17 | 2013-11-19 | Diana Lynn Fitzgerald | System and method for on-demand storage of randomly selected data |
US7332890B2 (en) | 2004-01-21 | 2008-02-19 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
KR20050087368A (en) * | 2004-02-26 | 2005-08-31 | 엘지전자 주식회사 | Transaction apparatus of bell sound for wireless terminal |
EP1571647A1 (en) * | 2004-02-26 | 2005-09-07 | Lg Electronics Inc. | Apparatus and method for processing bell sound |
KR100636906B1 (en) * | 2004-03-22 | 2006-10-19 | 엘지전자 주식회사 | MIDI playback equipment and method thereof |
DE112005000738T5 (en) | 2004-03-29 | 2007-04-26 | Evolution Robotics, Inc., Pasadena | Method and device for determining position using reflected light sources |
US7325013B2 (en) * | 2004-04-15 | 2008-01-29 | Id3Man, Inc. | Database with efficient fuzzy matching |
US9008835B2 (en) | 2004-06-24 | 2015-04-14 | Irobot Corporation | Remote control scheduler and method for autonomous robotic device |
US7706917B1 (en) | 2004-07-07 | 2010-04-27 | Irobot Corporation | Celestial navigation system for an autonomous robot |
US8972052B2 (en) | 2004-07-07 | 2015-03-03 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
ATE523132T1 (en) | 2005-02-18 | 2011-09-15 | Irobot Corp | SELF-DRIVEN SURFACE CLEANING ROBOT FOR WET AND DRY CLEANING |
US8392021B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
US7620476B2 (en) | 2005-02-18 | 2009-11-17 | Irobot Corporation | Autonomous surface cleaning robot for dry cleaning |
US8930023B2 (en) | 2009-11-06 | 2015-01-06 | Irobot Corporation | Localization by learning of wave-signal distributions |
EP1969438B1 (en) | 2005-12-02 | 2009-09-09 | iRobot Corporation | Modular robot |
ES2706729T3 (en) | 2005-12-02 | 2019-04-01 | Irobot Corp | Robot system |
EP2251757B1 (en) * | 2005-12-02 | 2011-11-23 | iRobot Corporation | Coverage robot mobility |
EP2816434A3 (en) | 2005-12-02 | 2015-01-28 | iRobot Corporation | Autonomous coverage robot |
US8374721B2 (en) | 2005-12-02 | 2013-02-12 | Irobot Corporation | Robot system |
DE102005062677A1 (en) * | 2005-12-23 | 2007-06-28 | Kramer, Tobias | Managing music data involves comparing recorded music data for a piece of music or part thereof or data derived from it with data records associated with several different pieces of music stored in database |
US7459624B2 (en) | 2006-03-29 | 2008-12-02 | Harmonix Music Systems, Inc. | Game controller simulating a musical instrument |
US8087117B2 (en) | 2006-05-19 | 2012-01-03 | Irobot Corporation | Cleaning robot roller processing |
US8417383B2 (en) | 2006-05-31 | 2013-04-09 | Irobot Corporation | Detecting robot stasis |
KR101393196B1 (en) | 2007-05-09 | 2014-05-08 | 아이로보트 코퍼레이션 | Compact autonomous coverage robot |
US8678896B2 (en) | 2007-06-14 | 2014-03-25 | Harmonix Music Systems, Inc. | Systems and methods for asynchronous band interaction in a rhythm action game |
EP2206539A1 (en) | 2007-06-14 | 2010-07-14 | Harmonix Music Systems, Inc. | Systems and methods for simulating a rock band experience |
US7982114B2 (en) * | 2009-05-29 | 2011-07-19 | Harmonix Music Systems, Inc. | Displaying an input at multiple octaves |
US8080722B2 (en) * | 2009-05-29 | 2011-12-20 | Harmonix Music Systems, Inc. | Preventing an unintentional deploy of a bonus in a video game |
US8017854B2 (en) * | 2009-05-29 | 2011-09-13 | Harmonix Music Systems, Inc. | Dynamic musical part determination |
US7923620B2 (en) * | 2009-05-29 | 2011-04-12 | Harmonix Music Systems, Inc. | Practice mode for multiple musical parts |
US7935880B2 (en) | 2009-05-29 | 2011-05-03 | Harmonix Music Systems, Inc. | Dynamically displaying a pitch range |
US8465366B2 (en) | 2009-05-29 | 2013-06-18 | Harmonix Music Systems, Inc. | Biasing a musical performance input to a part |
US20100304810A1 (en) * | 2009-05-29 | 2010-12-02 | Harmonix Music Systems, Inc. | Displaying A Harmonically Relevant Pitch Guide |
US8026435B2 (en) * | 2009-05-29 | 2011-09-27 | Harmonix Music Systems, Inc. | Selectively displaying song lyrics |
US20100304811A1 (en) * | 2009-05-29 | 2010-12-02 | Harmonix Music Systems, Inc. | Scoring a Musical Performance Involving Multiple Parts |
US8076564B2 (en) * | 2009-05-29 | 2011-12-13 | Harmonix Music Systems, Inc. | Scoring a musical performance after a period of ambiguity |
US8449360B2 (en) | 2009-05-29 | 2013-05-28 | Harmonix Music Systems, Inc. | Displaying song lyrics and vocal cues |
US8702485B2 (en) | 2010-06-11 | 2014-04-22 | Harmonix Music Systems, Inc. | Dance game and tutorial |
WO2011056657A2 (en) | 2009-10-27 | 2011-05-12 | Harmonix Music Systems, Inc. | Gesture-based user interface |
US9981193B2 (en) | 2009-10-27 | 2018-05-29 | Harmonix Music Systems, Inc. | Movement based recognition and evaluation |
KR101497197B1 (en) | 2010-02-16 | 2015-02-27 | 아이로보트 코퍼레이션 | Vacuum brush |
US8636572B2 (en) | 2010-03-16 | 2014-01-28 | Harmonix Music Systems, Inc. | Simulating musical instruments |
CA2798072C (en) * | 2010-05-04 | 2017-02-14 | Shazam Entertainment Ltd. | Methods and systems for synchronizing media |
US9358456B1 (en) | 2010-06-11 | 2016-06-07 | Harmonix Music Systems, Inc. | Dance competition game |
US8562403B2 (en) | 2010-06-11 | 2013-10-22 | Harmonix Music Systems, Inc. | Prompting a player of a dance game |
US9024166B2 (en) | 2010-09-09 | 2015-05-05 | Harmonix Music Systems, Inc. | Preventing subtractive track separation |
JP5728888B2 (en) * | 2010-10-29 | 2015-06-03 | ソニー株式会社 | Signal processing apparatus and method, and program |
US8716584B1 (en) | 2010-11-01 | 2014-05-06 | James W. Wieder | Using recognition-segments to find and play a composition containing sound |
US9153217B2 (en) | 2010-11-01 | 2015-10-06 | James W. Wieder | Simultaneously playing sound-segments to find and act-upon a composition |
US9117426B2 (en) | 2010-11-01 | 2015-08-25 | James W. Wieder | Using sound-segments in a multi-dimensional ordering to find and act-upon a composition |
JP2014010275A (en) * | 2012-06-29 | 2014-01-20 | Sony Corp | Information processing device, information processing method, and program |
CN107229629B (en) * | 2016-03-24 | 2021-03-19 | 腾讯科技(深圳)有限公司 | Audio recognition method and device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5739451A (en) * | 1996-12-27 | 1998-04-14 | Franklin Electronic Publishers, Incorporated | Hand held electronic music encyclopedia with text and note structure search |
DE19652225A1 (en) * | 1996-12-16 | 1998-06-25 | Harald Rieck | Process for automatic identification of melodies |
US5874686A (en) * | 1995-10-31 | 1999-02-23 | Ghias; Asif U. | Apparatus and method for searching a melody |
EP0944033A1 (en) * | 1998-03-19 | 1999-09-22 | Tomonari Sonoda | Melody retrieval system and method |
US5963957A (en) * | 1997-04-28 | 1999-10-05 | Philips Electronics North America Corporation | Bibliographic music data base with normalized musical themes |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4354418A (en) * | 1980-08-25 | 1982-10-19 | Nuvatec, Inc. | Automatic note analyzer |
US4463650A (en) * | 1981-11-19 | 1984-08-07 | Rupert Robert E | System for converting oral music to instrumental music |
JPH06110945A (en) * | 1992-09-29 | 1994-04-22 | Fujitsu Ltd | Music data base preparing device and retrieving device for the same |
US5616876A (en) * | 1995-04-19 | 1997-04-01 | Microsoft Corporation | System and methods for selecting music on the basis of subjective content |
DE19526333A1 (en) * | 1995-07-17 | 1997-01-23 | Gehrer Eugen Dr | Music generation method |
US5728960A (en) * | 1996-07-10 | 1998-03-17 | Sitrick; David H. | Multi-dimensional transformation systems and display communication architecture for musical compositions |
US5995928A (en) * | 1996-10-02 | 1999-11-30 | Speechworks International, Inc. | Method and apparatus for continuous spelling speech recognition with early identification |
US5808225A (en) * | 1996-12-31 | 1998-09-15 | Intel Corporation | Compressing music into a digital format |
KR100277105B1 (en) * | 1998-02-27 | 2001-01-15 | 윤종용 | Apparatus and method for determining speech recognition data |
US6246672B1 (en) * | 1998-04-28 | 2001-06-12 | International Business Machines Corp. | Singlecast interactive radio system |
-
1999
- 1999-10-11 DE DE19948974A patent/DE19948974A1/en not_active Withdrawn
-
2000
- 2000-09-25 EP EP00120872A patent/EP1093109A1/en not_active Withdrawn
- 2000-10-11 US US09/686,425 patent/US6437227B1/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5874686A (en) * | 1995-10-31 | 1999-02-23 | Ghias; Asif U. | Apparatus and method for searching a melody |
DE19652225A1 (en) * | 1996-12-16 | 1998-06-25 | Harald Rieck | Process for automatic identification of melodies |
US5739451A (en) * | 1996-12-27 | 1998-04-14 | Franklin Electronic Publishers, Incorporated | Hand held electronic music encyclopedia with text and note structure search |
US5963957A (en) * | 1997-04-28 | 1999-10-05 | Philips Electronics North America Corporation | Bibliographic music data base with normalized musical themes |
EP0944033A1 (en) * | 1998-03-19 | 1999-09-22 | Tomonari Sonoda | Melody retrieval system and method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7277852B2 (en) | 2000-10-23 | 2007-10-02 | Ntt Communications Corporation | Method, system and storage medium for commercial and musical composition recognition and storage |
EP1522064A2 (en) * | 2001-07-13 | 2005-04-13 | Iceberg Industries LLC. | Audio identification system and method |
EP1522064A4 (en) * | 2001-07-13 | 2005-08-31 | Iceberg Ind Llc | Audio identification system and method |
WO2004049240A1 (en) * | 2002-11-28 | 2004-06-10 | Nokia Corporation | Method and device for determining and outputting the similarity between two data strings |
US7689638B2 (en) | 2002-11-28 | 2010-03-30 | Nokia Corporation | Method and device for determining and outputting the similarity between two data strings |
Also Published As
Publication number | Publication date |
---|---|
DE19948974A1 (en) | 2001-04-12 |
US6437227B1 (en) | 2002-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1093109A1 (en) | Method for recognizing and selecting a note sequence, in particular a musical piece | |
DE69908226T2 (en) | Device and method for finding melodies | |
DE60320414T2 (en) | Apparatus and method for the automatic extraction of important events in audio signals | |
DE69909107T2 (en) | METHOD AND DEVICE FOR AUTOMATIC COMPOSITION | |
DE10054583C2 (en) | Method and apparatus for recording, searching and playing back notes | |
Maher | Evaluation of a method for separating digitized duet signals | |
DE4313175C2 (en) | Method and apparatus for recording audio signals in a direct access memory | |
DE602004011305T2 (en) | Apparatus and method for automatic classification of musical compositions | |
EP1217603A1 (en) | Method for identifying musical pieces | |
DE60038535T2 (en) | METHOD AND DEVICE, STORAGE METHOD AND APPARATUS FOR INFORMATION CREATION AND PROCESSING | |
DE60302420T2 (en) | Music searching device and method | |
DE3517818C2 (en) | ||
DE60025748T2 (en) | VOICE RECOGNITION | |
EP1368805A2 (en) | Method and device for characterising a signal and method and device for producing an indexed signal | |
Nerbonne et al. | Introducing computational techniques in dialectometry | |
EP1984910B1 (en) | Method and system for preparing speech dialogue applications | |
DE10117870A1 (en) | Method and device for converting a music signal into a note-based description and method and device for referencing a music signal in a database | |
DE602004002312T2 (en) | Method and apparatus for determining formants using a residual signal model | |
DE60128372T2 (en) | METHOD AND SYSTEM FOR IMPROVING ACCURACY IN A LANGUAGE IDENTIFICATION SYSTEM | |
DE69908723T2 (en) | Method and device for speech synthesis, and storage medium | |
DE60319710T2 (en) | Method and apparatus for automatic dissection segmented audio signals | |
DE10022586A1 (en) | Generating speech database for target vocabulary involves concatenating training text segments with target vocabulary words according to phonetic description | |
DE19816933A1 (en) | Method for controlling an electronic device, in particular a mobile station of a mobile radio network | |
DE102004033829B4 (en) | Method and apparatus for generating a polyphonic melody | |
Miller et al. | Investigation of the glottal waveshape by automatic inverse filtering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): DE FR GB IT |
|
AX | Request for extension of the european patent |
Free format text: AL;LT;LV;MK;RO;SI |
|
17P | Request for examination filed |
Effective date: 20010913 |
|
AKX | Designation fees paid |
Free format text: DE FR GB IT |
|
RAP1 | Party data changed (applicant data changed or rights of an application transferred) |
Owner name: NOKIA CORPORATION |
|
17Q | First examination report despatched |
Effective date: 20041028 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN |
|
18D | Application deemed to be withdrawn |
Effective date: 20051007 |