DE4403497B4 - Verfahren und Vorrichtung zur Verarbeitung von Antworten zu Testfragen - Google Patents

Verfahren und Vorrichtung zur Verarbeitung von Antworten zu Testfragen Download PDF

Info

Publication number
DE4403497B4
DE4403497B4 DE4403497A DE4403497A DE4403497B4 DE 4403497 B4 DE4403497 B4 DE 4403497B4 DE 4403497 A DE4403497 A DE 4403497A DE 4403497 A DE4403497 A DE 4403497A DE 4403497 B4 DE4403497 B4 DE 4403497B4
Authority
DE
Germany
Prior art keywords
evaluator
evaluation
test
evaluation results
electronically
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE4403497A
Other languages
English (en)
Other versions
DE4403497A1 (de
Inventor
Jay V. Clark
William L. Jun. Bramlett
Judith Moyer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NAT COMP SYSTEMS Inc
National Computer Systems Inc
Original Assignee
NAT COMP SYSTEMS Inc
National Computer Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=21763965&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE4403497(B4) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by NAT COMP SYSTEMS Inc, National Computer Systems Inc filed Critical NAT COMP SYSTEMS Inc
Publication of DE4403497A1 publication Critical patent/DE4403497A1/de
Application granted granted Critical
Publication of DE4403497B4 publication Critical patent/DE4403497B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/06Electrically-operated teaching apparatus or devices working with questions and answers of the multiple-choice answer-type, i.e. where a given question is provided with a series of answers and a choice has to be made from the answers
    • G09B7/066Electrically-operated teaching apparatus or devices working with questions and answers of the multiple-choice answer-type, i.e. where a given question is provided with a series of answers and a choice has to be made from the answers with answer indicating cards, blocks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S706/00Data processing: artificial intelligence
    • Y10S706/902Application using ai with detail of the ai system
    • Y10S706/927Education or instruction

Abstract

Verfahren zur Überprüfung von Bewertungen von in Form von Datenelementen vorliegenden Testantworten von zwei oder mehr Bewertern, wobei das Verfahren die Schritte umfasst:
a) dass ein als Antwort auf eine Frage erzeugtes Datenelement über ein verteiltes Computernetzwerk (10) einem Server (27) elektronisch zugeführt wird (64);
b) dass das Datenelement von dem Server (27) über das verteilte Computernetzwerk (10) elektronisch an erste und zweite Bewerter-Arbeitsplätze übertragen wird (88, 91), so dass es durch erste und zweite Bewerter bewertet werden kann;
c) dass erste und zweite Bewertungsergebnisse, die von den ersten und zweiten Bewertern für die Datenelemente ermittelt wurden, von den ersten und zweiten Bewerter-Arbeitsplätzen über das verteilte Computernetzwerk (10) elektronisch an den Server (27) verschickt werden; und
d) dass die ersten und zweiten Bewertungsergebnisse elektronisch verglichen werden (97) und ein mit den ersten und zweiten Bewertungsergebnissen in Verbindung stehender Wert aufgezeichnet wird (46), wenn die ersten und...

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Verarbeitung von Antworten zu Testfragen.
  • Hintergrund der Erfindung
  • Das Bewerten von Testantwortbögen bringt komplexe Probleme mit sich. Diese Testantwortbögen schließen typischerweise eine Reihe von Antwortpositionen ein, wie beispielsweise "Blasen", Ovale oder Rechtecke. Eine an einem Test teilnehmende Person streicht beispielsweise ein passendes Oval mit einem Stift an, um eine Multiple-Choice-Frage zu beantworten. Diese Testantwortbögen können auch handgeschriebene Antworten einschließen, wie Aufsatz- oder Kurzantwortfragen. Systeme zum Abtasten und Bewerten der Blasen auf derartigen Testantwortbögen sind in Fachkreisen bekannt. Erhöhte Schwierigkeiten werden jedoch aufgeworfen, wenn derartige Antwortbögen entweder andere Arten von Antworten einschließen, wie handgeschriebene Antworten, oder nicht maschinell eingestuft werden können. Falls beispielsweise der Student vergessen hat, seinen Namen auf dem Testantwortbogen einzutragen, kann das System unfähig sein, die Testantwort maschinell zu bewerten.
  • Die Ziele beim Bewerten von Testantworten, die nicht maschinell bewertet werden können, schließen Effizienz und Konsistenz ein. Die Testantwortbögen werden typischerweise bewertet durch Testauflöser, indem entweder der physikalische Testantwortbogen manuell bewertet wird oder eine elektronische Darstellung des Testantwortbogens an einem Computer be wertet wird. Idealerweise sollten die durch die verschiedenen Testauflöser für eine besondere Testfrage versehenen Bewertungen konsistent sein, da die Bewertungen beim Leistungsvergleich der Studenten untereinander verwendet werden. Zusätzlich sollte ein Testauflöser idealerweise effizient arbeiten, um konsistent hohe Bewertungsraten aufrechtzuerhalten. Der Testauflöser sollte nicht eine so hohe Bewertungsrate aufweisen, daß die Konsistenz oder Qualität der Bewertung signifikant abnimmt; ebenso sollte der Testauflöser nicht eine so niedrige Bewertungsrate aufweisen, daß zu wenig Antwortbögen bewertet werden. Dieses manuelle Bewerten von Testantwortbögen macht es jedoch schwierig, die Bewertungskonsistenz unter den verschiedenen Testauflösern zu überwachen.
  • In vielen Situationen reisen Testauflöser tatsächlich an einen besonderen Ort, so daß alle Testauflöser gleichzeitig Testantwortbögen bewerten können. Von den Testauflösern zu verlangen, an einen gegebenen Ort zu reisen, ist unbequem für die Auflöser und kostspielig für diejenigen, welche die Tests verwalten. Darüber hinaus kann das Verfolgen der Leistung von Testauflösern gegenüber sowohl ihrer eigenen Leistung als auch der Leistung anderer Auflöser sehr schwierig sein mit einer manuellen Bewertungsumgebung.
  • Der Prozeß des Auflösens von Testfragen wird gegenwärtig manuell durchgeführt, und dies bringt Probleme mit sich. Einem Auflöser werden die tatsächlichen Testantwortbögen zur Bewertung manuell vorgelegt. Dieses Verfahren ist relativ uneffizient, da die Auflöser die Antwortbögen einzeln und in der Reihenfolge, in der sie vorgelegt werden, bewerten müssen. Auch besitzen manuelle Bewertungssysteme nicht die Fähigkeit, die Testantworten zur nachfolgenden Analyse effizient zu sammeln und zu kategorisieren. Daher ist es mit einem manuellen System sehr schwierig zu bestimmen, wie Lehrme thoden geändert werden sollten, um beispielsweise die Anzahl von falschen Antworten zu senken.
  • Die US 5 134 669 offenbart eine automatisierte Symbolerkennung zum Sammeln von Daten. Dabei steht das automatisierte Sammeln von Daten in Verbindung mit OMR und OCR im Vordergrund. Dazu werden Dokumente eingescannt und in einem Computer mittels OMR wie auch OCR bearbeitet und entsprechend abgespeichert. Bei einem Auftreten von Fehlern bei der OCR- bzw. OMR-Bearbeitung werden betroffene Dokumente anschließend automatisch zu Korrekturzwecken an Workstations weitergeleitet, wo manuell ergänzende Eingaben bzw. Korrekturen gemacht werden können.
  • Die US 5 011 413 betrifft ein Testsystem zur automatischen Bestimmung und Bewertung von handschriftlich eingetragenen Antworten in mit Diagrammen oder Zeichnungen vorbereiteten Prüfungsblättern. Aufgrund eines unterschiedlichen Reflexionsvermögens von vorab aufgebrachter Zeichnung und den nachträglichen handschriftlichen Eintragungen auf den Prüfungsblättern werden beim Scanprozess lediglich die nachträglichen Eintragungen erfasst und die erhaltenen Daten durch Vergleich mit gespeicherten Werten bewertet.
  • Die WO 90/05970 betrifft ein Datensammel-Analyse- und Antwortsystem, um automatisch anwenderspezifische Empfehlungen zu einem vorbestimmten Thema zu geben. Dabei wird ein ausgefülltes Datenerhebungsformular automatisiert eingescannt, die Daten mit bestimmten Kriterien verglichen und basierend darauf automatisch eine passende aus abgespeicherten Empfehlungen ausgewählt und diese anwenderspezifische Empfehlung in Form eines gedruckten Berichts ausgegeben.
  • Es gibt somit eine Notwendigkeit für ein System, das Konsistenz und Effizienz beim Bewerten oder Auflösen von Tests fördert und erzielt.
  • Zusammenfassung der Erfindung
  • Erfindungsgemäß wird diese Aufgabe durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch eine Vorrichtung mit den Merkmalen des Anspruchs 14 gelöst.
  • Das vorliegende Testauflösermanagementsystem erleichtert konsistentes, genaues und hochqualitatives Bewerten von Testanworten. Ein Zusammenarbeitsbewertungsuntersystem erlaubt zwei Testauflösern, die gleiche Testanwort zu bewerten, und löst potentielle Diskrepanzen in den durch die Auflöser gelieferten Bewertungen auf.
  • Das System besitzt außerdem die Fähigkeit, Qualitätsposten zu verwenden, um eine Bewertungsleistung eines Auflösers zu überwachen. Das System überträgt einen Qualitätskontrolltestposten mit einer bekannten Bewertung zu einem Testauflöser. Nach Empfang einer Bewertung vom Auflöser vergleicht das System die bekannte Bewertung mit der Bewertung des Auflösers und kann ein Qualitätsprofil für den Auflöser erzeugen.
  • Das System schafft außerdem Leistungsrückkopplung zu Testauflösern, indem die Bewertungsraten der Auflöser überwacht werden. Falls eine Bewertungsrate eines Auflösers im Vergleich zu einer anderen Bewertungsrate eine Diskrepanz enthält, kann das System über die Diskrepanz berichten. Das System kann außerdem einem Auflöser Unterbrechungen empfehlen oder einen Auflöser mit Zerstreuungsaktivitäten versehen, und zwar in Abhängigkeit von einer Diskrepanz in Bewertungsraten. Das System besitzt ferner die Fähigkeit, Testantworten zu Auflösern zu leiten, und zwar gestützt auf Klassifikationen von Auflösern und Personen, welche die Testantworten erzeugten. Überwachen und Auswählen von Auflösern gestützt auf Klassifikationen fördert faires und konsistentes Bewerten von Testantworten.
  • Schließlich schafft das System einen Online-Bewertungsführer, um dynamisch einen Testauflöser mit Bewertungsregeln für eine dem Auflöser dargestellte Testanwort zu versehen.
  • Kurze Beschreibung der Zeichnung
  • Die Erfindung wird im folgenden beispielhaft anhand der Zeichnung beschrieben; in dieser zeigt:
  • 1 ein Diagramm eines Netzwerks, das die vorliegende Erfindung einschließt,
  • 2 ein Blockdiagramm eines Teils des in 1 gezeigten Netzwerks,
  • 3 ein Blockdiagramm der Abtastkonfiguration im Netzwerk von 1,
  • 4 ein Blockdiagramm des Servers im Netzwerk von 1,
  • 5 ein Flußdiagramm des Empfangens und Verarbeitens von Testposten,
  • 6 ein Flußdiagramm des Mehrfachpostenbewertens,
  • 7 ein Flußdiagramm des Berichtens über einen kategorisierten (speziellen) Posten,
  • 810 ein Flußdiagramm des Zusammenarbeitsbewertens,
  • 11 ein Flußdiagramm eines Qualitätspostenverarbeitens,
  • 12 ein Flußdiagramm zur Auflöserüberwachung und -rückkopplung,
  • 13 ein Flußdiagramm eines Online-Bewertungsführungssystems, und
  • 14 ein Beispiel einer Benutzerschnittstelle zur Verwendung mit einer Mehrfachpostenbewertung.
  • Ausführliche Beschreibung der bevorzugten Ausführungsform
  • In der folgenden ausführlichen Beschreibung der bevorzugten Ausführungsform wird auf die begleitende Zeichnung Bezug genommen, die einen Teil hiervon bildet und in der veranschaulichend eine spezifische Ausführungsform gezeigt ist, in der die Erfindung praktiziert werden kann. Diese Ausführungsform wird ausreichend ausführlich beschrieben, um Fachleute in die Lage zu versetzen, die Erfindung zu praktizieren, und andere Ausführungsformen können benutzt und strukturelle oder logische Änderungen durchgeführt werden, ohne vom Rahmen der vorliegenden Erfindung abzuweichen. Die folgende ausführliche Beschreibung ist daher nicht in einem begrenzenden Sinn zu verstehen, und der Rahmen der vorliegenden Erfindung ist durch die beigefügten Ansprüche definiert.
  • HARDWARE-KONFIGURATION
  • 1 zeigt ein Beispiel einer Hardware-Konfiguration für ein Netzwerk, das die vorliegende Erfindung einschließt. Diese Konfiguration ist lediglich als ein Beispiel gezeigt; viele verschiedene Hardware-Konfigurationen sind verfügbar, wie von einem Fachmann bemerkt, um die unten beschriebenen Softwareverarbeitungsfunktionen auszuführen. Das gezeigte Netzwerk umfaßt einen Mainframe-Computer 20, der durch einen Haupt-Tokenring mit einer Vielzahl von RISC-Servern 11, 12 und 13 über eine Schnittstelle verbunden ist. Jeder RISC-Server ist mit einem Tokenring über eine Schnittstelle verbunden, der Workstations und Abtastvorrichtungen enthält. Der RISC-Server 1 ist in Tokenring 1 mit Abtastvorrichtungen 14 und Workstations 19 verbunden. Der RISC-Server 12 ist in Tokenring 2 mit einer Abtastvorrichtung 15 und Workstations 18 verbunden. Der RISC-Server 13 ist in Tokenring 3 mit Abtastvorrichtungen 16 und Workstations 17 verbunden. Der Mainframe-Computer 20 ist außerdem mit einem Drucker hoher Kapazität 22 und einem Drucker niedriger Kapazität 21 verbunden, um Berichte gespeicherter Daten innerhalb des Systems zu drucken.
  • Das System verwendet die Abtastvorrichtungen, um Testantwortbögen einzulesen. Diese Testantwortbögen können zum Beispiel Testvordrucke mit "Blasen" oder Ovalen umfassen, die mögliche Antworten, handgeschriebene Aufsätze oder andere verschiedene Arten geschriebener oder gedruckter Informationen repräsentieren. Nach Empfang der abgetasteten Testdaten kann das System innerhalb der RISC-Server diese abgetasteten Testantwortbögen verarbeiten, um Testposten von Interesse von den Antwortbögen zu erzeugen. Ein Testposten ist daher eine elektronische Darstellung wenigstens eines Teils eines Testantwortbogens. Das System kann diese Testposten an die Workstations zur Online-Bewertung verteilen. Ein Testbewer ter an einer Workstation kann dann den Testposten bewerten und eine Testbewertung eingeben. Das System empfängt die Testbewertungen über das Netzwerk und die RISC-Server und verteilt die Bewertungen an geeignete Computer zum nachfolgenden Drucken und Berichten; der geeignete Computer kann zum Beispiel den Mainframe-Computer 20 oder einen Server einschließen. Das System kann auch die Testbewertungen zu beispielsweise einer Platte oder Telefonleitung übertragen.
  • 2 ist ein ausführlicheres Blockdiagramm eines Teils des in 1 gezeigten Netzwerks. Wie in 2 gezeigt, umfassen die in 1 gezeigten Abtasteinheiten typischerweise eine Abtastvorrichtung 25, die mit einem Computer 24 und Personal-Computer (PC) 26 über eine Schnittstelle verbunden ist. 3 zeigt ein ausführlicheres Blockdiagramm einer Abtasteinheit. Die Abtastvorrichtung 25 enthält eine Kamera 31, um optisch einen Testantwortbogen einzulesen, und enthält ferner Logik 32 für optische Zeichenerkennung (OMR) zur Verarbeitung der von der Kamera 31 empfangenen abgetasteten Daten. Der PC 26, vorzugsweise ausgeführt als ein Hochleistungs-486-Niveau-PC, enthält einen Rahmenpuffer 23, der die abgetasteten Bilddaten von der Abtastvorrichtung 25 empfängt.
  • Der Computer 24, bevorzugt ausgeführt als ein HP 1000, ist mit der Abtastvorrichtung 25 und dem PC 26 über eine Schnittstelle verbunden, um den Betrieb der Abtasteinheit zu steuern. Der Computer 24 ist optional; das System kann alternativ so konfiguriert sein, daß sich die gesamte Funktionalität des Computers 24 innerhalb des PC's 26 befindet. Der Computer 24 steuert die Abtastvorrichtung über die OMR-Logik 32 und steuert somit, wann Bilddaten eingetastet und nachfolgend zum PC 26 übertragen werden. Der PC 26 wirkt im wesentlichen als ein Puffer zum Halten der Bilddaten. Der Computer 24 steuert ferner, wann der PC 26 die Bilddaten zur Übertra gung zu einem Server 27 zur nachfolgenden Verarbeitung und Bewertung abfragt. Der PC 26 kann außerdem einen Bereich von Interesse von den Bilddaten, der wenigstens einen Teil der abgetasteten Testantwortbögen repräsentiert, entfernen oder "ausschneiden".
  • Beispiele von zwei Systemen zum Speichern und Extrahieren von Informationen von abgetasteten Bildern von Testantwortbögen sind in den US-Patentschriften No. 5 134 669 und No. 5 103 490 gezeigt, die durch Bezugnahme in die vorliegende Anmeldung einbezogen sind, als ob vollständig dargelegt. Der Server 27 empfängt die Bilddaten, die Testposten einschließen, und sorgt für Verarbeitung und Steuerung der Bilddaten. Dieser Teil, der ein Testposten sein kann, wird dann an die Workstations 28, 29 und 30 zur nachfolgenden Bewertung verteilt. Ein Testauflöser (Bewerter) an der Workstation empfängt typischerweise den Testposten, führt das Bewerten durch und überträgt die Bewertung zum Empfangscomputer.
  • 4 ist ein Blockdiagramm der Hardware- und Software-Funktionen in einem Server im Netzwerk von 1. Ein Abtaststeuerungsmodul 31 ist mit dem Abtastvorrichtungs-PC 26 über eine Schnittstelle verbunden und empfängt die Bilddaten. Die Bilddaten werden in einer Rohpostendatenbank 36 gespeichert. Die zentrale Anwendungsablage (CAR) 33 speichert typischerweise Dokumentdefinitionen und Handhabungskriterien. Die Dokumentprozeßwarteschlange 37 wirkt als ein Puffer hinein in ein Hauptverarbeitungsmodul 45 in Server 27.
  • Das Hauptverarbeitungsmodul 45 steuert die Verarbeitung von Testposten. Es steuert die Übertragung von Testposten zu den Workstations zur Bewertung und Übertragung von Bewertungen zum Mainframe-Computer 20. Das Hauptverarbeitungsmodul 45 überwacht auch die Leistung der Testauflöser, um konsistentes und effizientes Auflösen von Testposten, wie es unten er klärt ist, aufrechtzuerhalten.
  • Das Hauptverarbeitungsmodul 45 enthält typischerweise die folgenden grundlegenden Funktionen, die durch ein Systemmanagementmodul 32 gesteuert werden. Ein Arbeitsflußmodul 38 empfängt Bilddaten von der Datenbank 36 und steuert den Datenfluß hinein in ein Editierprozeßmodul 39. Das Editierprozeßmodul 39 kann maschinelles Bewerten der Testposten durchführen. Für diejenigen Testposten, die nicht maschinell bewertet werden können, oder möglicherweise für andere Testposten überträgt das System derartige Testposten zur Auftragsaufbaufunktion 40. Die Auftragsaufbaufunktion 40 bestimmt, welcher Typ nachfolgender Bewertung erforderlich ist für den Testposten und, zum Beispiel, welche Workstation den Testposten empfängt. Ein Auftragssendemodul 41 empfängt den Testposten und überträgt ihn zu einer Leitvorrichtung 42, die ihrerseits den Testposten zu einem Sende/Empfangs-Kommunikationsmodul 43 überträgt. Ein Editierarbeitsmodul 34 und Editierservermodul 35 steuern den Fluß von Testposten in den Server 27 hinein und aus diesem heraus. Ankommende Daten, wie Testantworten von der Workstation, werden durch die Module 34 und 35 zu einem Auftragsempfangsmodul 44 übertragen. Das Auftragsempfangsmodul überträgt die Daten zum Editierprozeßmodul 39 zur nachfolgenden Speicherung innerhalb der Datenbank 36.
  • SOFTWARE-VERARBEITUNG
  • 5 ist ein Flußdiagramm eines typischen Abtastens und Verarbeitens von Test- und Antwortbögen. Das Dokumentverarbeitungssystem empfängt die Testantwortbögen, oder anderen Dokumente, bei Schritt 50 und führt eine Anfangsschreibvorbereitung der Dokumente (Schritt 51) zur Abtastung bei Schritt 52 durch. Das System tastet bei Schritt 52 die Dokumente für OMR und andere Bilddaten ab. Das System kann dann die OMR-Blasen bei Schritt 53 verarbeiten und die Daten im Arbeit-im-Ablauf-Speicher (WIP) bei Schritt 54 speichern. Das System kann bei Schritt 56 Bereiche von Interesse vom abgetasteten Bild "ausschneiden". Der Schritt des "Ausschneidens" bezieht mit ein, daß elektronisch, typischerweise in Software, ein Teil des Testpostens oder des abgetasteten Bilds entfernt wird. Diese "ausgeschnittenen" Bereiche können irgendeinen Teil eines Testantwortbogens umfassen; zum Beispiel einen handgeschriebenen Aufsatz oder ausgewählte Antwortpositionen. Das System kann auch Bilddaten direkt von fremden Quellen empfangen, magnetisch oder elektronisch, und die Daten in der Rohpostendatenbank 36 speichern. Nachfolgende Vorgänge auf den Daten sind die gleichen, ungeachtet der Quelle der Daten. Nach dem "Ausschneiden" von Bereichen von Interesse vom Bild speichert das System die Testposten bei Schritt 57 im Arbeit-im-Ablauf-Speicher 55.
  • Das System wartet bei Schritt 55 bis es feststellt, daß ein Testposten bereit ist, aufgelöst oder bewertet zu werden. Falls Mehrfachauflösungsposten innerhalb der Bilddaten vorliegen, wie bei Schritt 59 festgestellt, sendet das System dann den Testposten zu einer Mehrfachpostenverarbeitung bei Schritt 63. Andernfalls führt das System andere Auflösungs- prozesse auf den Daten bei Schritt 60 durch und speichert das Resultat im Arbeit-im-Ablauf-Speicher 55 bei Schritt 61. Andere Auflösungsprozesse können beispielsweise maschinelles Bewerten, Rohtasteneingabe und analytisches Auflösen einschließen.
  • Analytisches Auflösen oder Bewerten kann zum Beispiel Bildvergleiche wie bit-abgebildete Vergleiche zwischen zwei Testposten einschließen. Die Abbildungsvergleiche erlauben einem Testauflöser, zum Beispiel die Antworten eines Beantworters über die Zeit zu vergleichen, um den Fortschritt des Beant worters zu verfolgen. Zum Beispiel kann das analytische Bewerten einbeziehen, daß zwei handgezeichnete Kreise von dem Beantworter verglichen werden, um festzustellen, ob sich die Genauigkeit des Beantworters beim Zeichnen von Kreisen über die Zeit verbessert hat. Analytisches Bewerten kann auch zum Beispiel einschließen, daß falsch buchstabierte Wörter und Interpunktionsfehler in einer Antwort wie einem Aufsatz eingekreist oder elektronisch angezeigt werden.
  • Mehrfachpostenbewerten
  • 6 ist ein Flußdiagramm eines typischen Mehrfachpostenverarbeitens. Bei Schritt 64 holt sich das System typischerweise zuerst ein Mehrfachpostenbild vom Arbeit-im-Ablauf-Speicher. Das Bild wird gespeichert in einem Mehrfachpostendarstellungsspeicher 65 und einem Mehrfachpostendarstellungsspeicher 69 zur nachfolgenden Darstellung zu einem Auflöser. Das System fährt fort Mehrfachposten zu empfangen, bis entweder die Postendarstellung voll ist, wie bei Schritt 66 bestimmt, oder keine Mehrfachposten mehr vorliegen, wie bei Schritt 68 bestimmt. Solange die Darstellung nicht voll ist und zusätzliche Mehrfachposten vorhanden sind, tastet das System bevorzugt den Arbeit-im-Ablauf-Speicher bei Schritt 67 für zusätzliche Posten ab. Wenn die Mehrfachpostendarstellung voll ist oder keine Mehrfachposten mehr vorliegen, sendet das System die zusammengestellten Mehrfachposten zu einem Auflöser bei Schritt 70 und stellt die Mehrfachtestposten auf der Auflöserdarstellung 71 dar.
  • Das System überträgt typischerweise Testposten zu einem speziellen Auflöser gestützt auf die Auflösungsexpertise des Auflösers. Zum Beispiel kann ein besonderer Auflöser angewiesen sein, all die Testposten zu bewerten, die sich auf Wissenschaftsfragen beziehen. Auflösungsexpertisen können auch zum Beispiel Mathematik, Englisch, Geschichte, Geographie, Fremdsprachen oder andere Themen umfassen.
  • Ein Beispiel einer Schnittstelle auf der Auflöserdarstellung ist in 14 gezeigt. Die Schnittstelle umfaßt typischerweise eine Vielzahl von Zellen 74, wobei jede Zelle einen aufzulösenden Posten enthält. Nach Darstellen der Mehrfachposten in den Zellen der Auflöserdarstellung erlaubt das System dem Auflöser bei Schritt 72, die Mehrfachposten zu bewerten. Ein Testauflöser zeigt typischerweise die Bewertung der Antworten an durch Verwendung einer "Maus", eines Lichtstifts, eines Berührungsschirms, einer Spracheingabe oder einer anderen Art von Cursorsteuerung oder Eingabevorrichtung.
  • Im in 14 gezeigten Beispiel ist die richtige Antwort "vier" und die falschen Antworten sind durch Schattierung angedeutet. Alternativ könnte ein Auflöser die richtigen Antworten bezeichnen. Der Vorteil des Mehrfachpostensystems rührt her von der gleichzeitigen Darstellung von Testposten in den Zellen 74, die einem Testauflöser erlaubt, schnell viele Testposten zu bewerten und somit eine schnellere Antwortzeit im Vergleich zur Darstellung und Bewertung von lediglich einem einzelnen Testposten zu einem Zeitpunkt zu erzielen. Sogar die gleichzeitige Darstellung von zwei Posten erhöht die Antwortzeit. Wenn die Matrix von Zellen größer wird, erzielt die gleichzeitige Darstellung von Testposten eine signifikante Erhöhung in Antwortzeit und Auflöseraufmerksamkeit und -fokussierung.
  • Nach dem Bewerten oder Auflösen empfängt das System die Resultate bei Schritt 73 zur nachfolgenden Speicherung im Arbeit-im-Ablauf-Speicher 55. Ein Testauflöser überträgt typischerweise die Resultate des Auflösens aller dargestellten Testposten in den Zellen als eine einzige Einheit zur Stapelverarbeitung.
  • Bericht über kategorisierten Posten
  • 7 ist ein typisches Flußdiagramm eines Berichts über einen kategorisierten (speziellen) Posten. Berichten über einen kategorisierten Posten erlaubt dem System, sowohl Antworten gemäß vordefinierten Kategorien zu gruppieren, als auch Prozesse zu überwachen, die von den Studenten oder Testteilnehmern beim Erreichen einer gegebenen Antwort verwendet werden. Die Kategorien, in welche Testantworten gruppiert werden können, schließen zum Beispiel falsche Antworten und richtige Antworten innerhalb einer Lehrgangseinheit innerhalb einer Unterrichtsgruppierung und angeforderter Zeitrahmen ein; zum Beispiel alle falschen Mathematikantworten in einer besonderen Klasse eines Lehrers während des vorigen Schuljahrs. Andere Gruppierungen sind möglich in Abhängigkeit von den Bedürfnissen der Testauflöser und Lehrer, die das Material unterrichten, auf welches sich der Test bezieht.
  • Zusätzlich kann das System ein Bild eines Testpostens mit der entsprechenden Bewertung vermengen. Um ein Unterrichten von Material, auf welches sich der Test bezieht, zu erleichtern, vermengt das System typischerweise einen eine falsche Antwort darstellenden Testposten mit der entsprechenden Bewertung. Durch Berichten über den vorliegenden Testposten kann ein Lehrer Einsicht gewinnen in einen Denkprozeß, der vom Studenten beim Erreichen der falschen Antwort verwendet wird. Dadurch kann ein Lehrer dadurch, daß er etwas Kenntnis darüber besitzt, warum ein Schüler eine Testfrage falsch beantwortete, Maßnahmen ergreifen, um Unterrichtsstrategien zu ändern oder zu modifizieren und somit die Situation zu verbessern.
  • Der Bericht über einen kategorisierten Posten umfaßt normalerweise die folgenden Funktionen. Das System tastet bei Schritt 75 den Arbeit-im-Ablauf-Speicher für Posten ab, die dazu bereit sind, daß über sie berichtet wird. Falls Testposten zum Berichten bereit sind, wie bei Schritt 76 bestimmt, verarbeitet das System die Daten bei Schritt 77 zur Erzeugung eines geeigneten Berichts über die Daten. Bei Schritt 78 tastet das System die zentrale Anwendungsablage für Definitionen kategorisierter (spezieller) Posten ab. Wenn spezielle Posten zum Berichten erhältlich sind, wie bei Schritt 79 bestimmt, erlangt das System die speziellen Posten wieder bei Schritt 80 und kann sie bei Schritt 81 mit anderen Berichtsinformationen, wie die entsprechenden Testposten, wie oben erklärt vermengen. Das System verteilt dann einen Bericht bei Schritt 82, der einen gedruckten Bericht darstellen kann.
  • Zusammenarbeitsbewerten
  • Die 811 sind ein Flußdiagramm eines typischen Zusammenarbeitsbewertungssystems. Das Zusammenarbeitsbewertungssystem schafft Funktionen, um Fairness und Objektivität beim Auflösen von Testposten zu erzielen. Die Zusammenarbeitsbewertung erlaubt zum Beispiel zwei Auflösern, den gleichen Posten zu bewerten, und, falls die Antworten nicht innerhalb eines besonderen vordefinierten Bereichs liegen, sorgt für nachfolgendes Verarbeiten, um die Diskrepanz aufzulösen.
  • Bei den Schritten 83 und 84 stellt das System fest, ob Posten zur Bewertung verfügbar sind. Bei Schritt 85 empfängt das System Zusammenarbeitsbewertungsanforderungen von der Datenbank und stellt bei Schritt 86 fest, ob Zusammenarbeitsbewertung erforderlich ist. Beispiele von Zusammenarbeitsbewertungsanforderung sind unten dargestellt. Falls Zusammenarbeitsbewertung spezifiziert worden ist, erlangt das System den zu bewertenden Posten wieder von der Ar beit-im-Ablauf-Datenbank bei Schritt 87 und sendet den Posten zu Auflösern 1 und 2 bei den Schritten 88 und 91.
  • Das System ist ferner in der Lage, Auflöser gemäß Auswahlkriterien bei den Schritten 89 und 90 auszuwählen. Die Auswahlkriterien der Auflöser zur Bewertung von Antworten können zum Beispiel Rasse, Geschlecht oder geographische Lage einschließen. Die Fähigkeit des Systems, Testauflöser anzuweisen, besondere Testposten zu bewerten, schafft die Grundlage für erhöhte Fairness und Konsistenz bei der Bewertung von Tests. Zum Beispiel kann das System Testauflösern Testposten zuweisen, und zwar gestützt auf die gleiche Rassenklassifikation, was bedeutet, daß der Testauflöser die gleiche Rassenklassifikation wie der Student oder Beantworter besitzt, dessen Test der Auflöser bewertet. Das System kann außerdem Testauflösern Testposten zuweisen, und zwar gestützt auf eine unterschiedliche, verstärkt unterschiedliche oder bevorzugte Mischung von Klassifikationen. Das System überwacht die Konsistenz beim Bewerten gestützt auf die Auswahlkriterien und kann, was wichtiger ist, die Auswahlkriterien ändern, um konsistentes und faires Bewerten von Testposten sicherzustellen.
  • 9 ist ein Flußdiagramm, das zusätzliche typische Funktionen der Zusammenarbeitsbewertung zeigt. Bei den Schritten 92 und 93 stellt das System die Posten den Auflösern 1 und 2 zur Bewertung dar. Das System kann ferner die Durchschnittsbewertungen von Auflösern verfolgen und den gleichen Testposten nicht zu zwei Auflösern senden, die Durchschnittsbewertungen innerhalb eines vordefinierten Bereiches geliefert haben. Dies hilft ebenfalls dabei, Konsistenz beim Bewerten zu erzielen. Falls beispielsweise zwei Bewerter jeweils hohe Durchschnittsbewertungen in der Vergangenheit geliefert haben, wie durch das System bestimmt, sollten diese zwei Bewerter bevorzugt nicht zusammenarbeitend die gleichen Testposten bewerten, da es "aufgeblähte" Bewertungen für besondere Testposten ergeben könnte.
  • Das System zeichnet die Bewertungen von den Auflösern 1 bzw. 2 bei den Schritten 94 bzw. 95 auf und speichert derartige Bewertungen in einem temporären Speicher 96. Bei Schritt 97 vergleicht das System die Bewertungen gemäß Kriterien, die in der zentralen Anwendungsablage spezifiziert sind. Derartige Kriterien können zum Beispiel einschließen, daß gefordert wird, daß die Bewertungen innerhalb eines vordefinierten Prozentsatzes voneinander liegen. Falls die Bewertungen die Kriterien erfüllen, wie bei Schritt 98 festgestellt, zeichnet das System die Bewertung in der Arbeit-im-Ablauf-Datenbank bei Schritt 46 auf. Andernfalls, falls die Bewertungen nicht die Kriterien erfüllen, stellt das System bei Schritt 99 fest, ob die Bewertungen der Auflöser übereinstimmen müssen. Falls die ersten zwei Auflöserbewertungen nicht übereinstimmen müssen, überträgt das System dann bevorzugt den Testposten zu einem dritten Auflöser, um die Diskrepanz in den ersten zwei Bewertungen zu "heilen". Bei Schritt 100 stellt das System fest, ob der dritte Auflöser die ersten Bewertungen sehen soll.
  • 10 zeigt zusätzliches typisches Verarbeiten der Zusammenarbeitsbewertung. Falls die ursprünglichen Auflöser 1 und 2 bei einer Bewertung übereinstimmen müssen, führt das System dann die Schritte 101105 aus. Das System stellt dann typischerweise zuerst jedem Auflöser die Bewertung des anderen Auflösers bei den Schritten 101 und 102 dar, so daß jeder Auflöser die durch den anderen Auflöser bestimmte Bewertung sehen kann. Bei Schritt 103 schafft das System eine Kommunikation zwischen den zwei Auflösern. Eine derartige Kommunikationsverbindung kann zum Beispiel eine Elektronische-Post-Verbindung sein, so daß die Bewerter Informationen hinsichtlich der Gründe hinter der geschaffenen Bewertung austauschen können. Bei Schritt 104 arbeiten die Auflöser zusammen, um eine einzelne vereinbarte Bewertung für den Testposten zu bestimmen. Das System kann die Auflöser 1 und 2 daran hindern, einen weiteren Testposten zu empfangen, bis sie eine vereinbarte Bewertung für den vorhergehenden Testposten eingegeben haben. Schließlich, bei Schritt 105, speichert das System die vereinbarte Bewertung in der Arbeit-im-Ablauf-Datenbank.
  • Anstatt den Auflösern zu erlauben, zusammenzuarbeiten, um eine vereinbarte Bewertung aufzuzeichnen, kann das System optional entweder einen größeren Wert der ersten und zweiten Testbewertungen, einen niedrigeren Wert der ersten und zweiten Testbewertungen oder einen Durchschnittswert der ersten und zweiten Testbewertungen aufzeichnen.
  • Falls die Zusammenarbeitsbewertungskriterien spezifizieren, daß der dritte Auflöser die Diskrepanz durch Schiedsspruch entscheiden und eine Bewertung bestimmen soll, stellt das System dann Bewertungen dar von den Auflösern 1 und 2 bei Schritt 106 für Auflöser 3. Der dritte Auflöser (Auflöser 3) gibt dann typischerweise eine Bewertung für den Testposten bei Schritt 107 ein, und das System zeichnet die Bewertung in der Arbeit-im-Ablauf-Datenbank bei Schritt 108 auf.
  • Falls die Zusammenarbeitsbewertungsanforderung spezifiziert, daß der dritte Auflöser die zwei ersten Bewertungen nicht sehen soll, führt das System dann die Schritte 109111 aus.
  • Bei Schritt 109 stellt das System den Testposten für den dritten Auflöser dar. Der dritte Auflöser gibt dann typischerweise eine Bewertung bei Schritt 110 ein, und das System zeichnet die Bewertung in der Arbeit-im-Ablauf-Datenbank bei Schritt 111 auf.
  • Qualitätsposten
  • 11 ist ein typisches Flußdiagramm der Verwendung von Qualitätsposten im Bewertungsprozeß. Das System kann Qualitätsposten verwenden, um die Genauigkeit des Bewertens für ausgewählte Testauflöser zu prüfen und zu überwachen und somit konsistentes und hochqualitatives Bewerten von Testposten aufrechtzuerhalten. Bei Schritt 112 bestimmt oder empfängt das System die Qualitätskriterien. Die Qualtitätskriterien können zum Beispiel einen vorbestimmten Testposten mit einer bekannten "richtigen" Bewertung darstellen.
  • Das System wartet dann für eine festgelegte Qualitätsprüfung bei Schritt 113. Bei der Qualitätsprüfung sendet das System, bei Schritt 114, den bekannten Qualitätsposten zum festgelegten Auflöser. Bei Schritt 116 aktualisiert das System das Qualitätsprofil des Auflösers gestützt auf die Auswertung bei Schritt 115. Falls der Auflöser ein Qualitätsergebnis empfangen soll, wie bei Schritt 117 bestimmt, stellt das System das Qualitätsprofil dem Auflöser bei Schritt 118 dar. Bei Schritt 119 sendet das System das Qualitätsprofil zu einem Manager zur nachfolgenden Durchsicht. Bei Schritt 120 unternimmt das System Schritte, die erforderlich sind, um Bewertungsgenauigkeit zu gewährleisten.
  • Auflöserüberwachung und -rückkopplung
  • 12 ist ein Flußdiagramm einer typischen Auflöserüberwachung und -rückkopplung. Die primären Faktoren bei der Überwachungsleistung schließen typischerweise ein: (1) Gültigkeit; (2) Zuverlässigkeit und (3) Geschwindigkeit. Beim Überwachen dieser Faktoren fördert das System Bewertungswiederholbarkeit. Diese Faktoren können überwacht werden, indem eine Leistung eines Auflösers gegenüber vergangener Leistung des Auflösers oder gegenüber einem bekannten Ziel ver folgt wird.
  • Gültigkeit wird typischerweise gemessen, indem festgestellt wird, ob ein besonderer Auflöser den Bewertungsschlüssel richtig auf Testposten anwendet oder, mit anderen Worten, Testposten bewertet, wie ein Experte die gleichen Posten bewerten würde. Zuverlässigkeit wird typischerweise gemessen, indem festgestellt wird, ob ein Besonderer den gleichen Testposten auf die gleiche Weise über die Zeit (Schaffen von konsistenter Bewertung) auflöst. Geschwindigkeit wird typischerweise gemessen, indem eine Bewertungsrate eines Auflösers mit vergangenen Bewertungsraten des Auflösers oder anderen Bewertungsraten, wie Durchschnittsbewertungsraten oder Festpunktbewertungsraten, verglichen wird.
  • Bei Schritt 121 überwacht das System typischerweise kontinuierlich die Leistung eines Auflösers und aktualisiert die Leistung. Überwachen der Leistung des Auflösers kann einschließen, wie oben erklärt, daß die Gültigkeit, Zuverlässigkeit und Geschwindigkeit beim Auflösen von Testposten des Auflösers überwacht werden. Das System führt periodisch, gemäß vordefinierten Kriterien, Leistungsprüfungen der Testauflöser durch. Vordefinierte Kriterien können beispielsweise einschließen: eine Zeitperiode; Rückfragen (wie oft ein Auflöser seine eigene Arbeit auswertet); Erbitten von Hilfe; die Anzahl von Übereinstimmungen unter mehreren Auflösern; das Ausmaß von Abweichung zwischen der Bewertung eines Auflösers und einer bekannten Bewertung, die bestimmt werden kann unter Verwendung von Qualitätsposten; die Frequenz dieser Abweichungen; die Geschwindigkeit, mit welcher ein Auflöser eine Antwort während des Auflösens von Testposten eingibt; die Zeitlänge zwischen von einem Testauflöser eingegebenen Bewertungen; eine vorhergehende Bewertungsrate eines Testauflösers, eine Durchschnittsbewertungsrate eines Testauflösers; Durchschnittsbewertungsraten anderer Testauflöser; oder eine vorbestimmte Festpunktbewertungsrate.
  • Bei Schritt 122 stellt das System fest, ob es Zeit ist für eine festgelegte Leistungsprüfung gemäß den vorbestimmten Kriterien. Falls es Zeit ist für eine Leistungsprüfung, vergleicht das System bei Schritt 123 die gegenwärtige Leistung eines Auflösers, wie bei Schritt 121 bestimmt, mit den gespeicherten Leistungskriterien. Bei Schritt 124 stellt das System fest, ob es eine Diskrepanz in der Leistung des Auflösers gemäß den vorbestimmten Kriterien gibt. Zum Beispiel kann das System feststellen, ob die gegenwärtige Bewertungsrate des Auflösers innerhalb eines vorbestimmten Prozentsatzes der Durchschnittsbewertungsrate liegt, um effizientes Bewerten durch den Testauflöser sicherzustellen. Falls es keine Diskrepanz gibt, kehrt das System zum Überwachen der Leistung des Auflösers zurück. Zusätzlich kann das System die gegenwärtigen Leistungswerte des Auflösers zur späteren Verarbeitung speichern. Andernfalls berichtet das System über die Diskrepanz bei Schritt 125.
  • Bei Schritt 126 stellt das System fest, ob es dem Auflöser eine Unterbrechung beim Bewerten empfehlen soll. Falls gemäß vorbestimmten Leistungskriterien das System eine Unterbrechung beim Bewerten empfehlen soll, signalisiert dann das System dem Auflöser bei Schritt 128, das Bewerten anzuhalten. Vordefinierte Leistungskriterien können zum Beispiel Abweichungen in der Gültigkeit, Zuverlässigkeit oder Geschwindigkeit des Auflösens von Testposten des Auflösers einschließen. Beispiele vordefinierter Leistungskriterien werden oben bezüglich des Überwachens der Leistung des Auflösers geliefert.
  • Wenn der Auflöser das Bewerten stoppt, kann das System dem Auflöser die Option liefern, Zerstreuungsaktivitäten zu er bitten. Zerstreuungsaktivitäten sind dazu gedacht, dem Testauflöser eine Ruheperiode und "Unterbrechung" vom Bewerten zu verschaffen, um die Effizienz zu erhöhen. Beispiele von Zerstreuungsaktivitäten schließen Computerspiele und Kreuzworträtsel ein. Falls der Auflöser derartige Zerstreuungsaktivitäten erbeten hat, wie bei Schritt 129 bestimmt, überträgt das System dann eine Zerstreuungsaktivität zum Auflöser bei Schritt 130. Andernfalls kehrt das System zum Überwachen der Bewertungsrate des Auflösers zurück, wenn der Auflöser das Bewerten wieder aufnimmt.
  • Falls das System bei Schritt 126 nicht eine Unterbrechung beim Bewerten, gestützt auf die Diskrepanz, empfiehlt, kann das System dann optional dem Auflöser Zerstreuungsaktivitäten, wie bei Schritt 127 bestimmt, verschaffen. Falls der Auflöser die Zerstreuungsaktivitäten empfangen soll, sendet das System dann derartige Aktivitäten zum Auflöser bei Schritt 130. Andernfalls kehrt das System zum Überwachen der Bewertungsrate des Auflösers zurück.
  • Online-Bewertungsführer
  • 13 ist ein Flußdiagramm eines typischen Online-Bewertungsführungssystems. Der Online-Bewertungsführer erhöht die Bewertungseffizienz, indem dem Auflöser erlaubt wird, Bewertungsregeln zu erbitten, um beim Bewerten eines besonderen Testpostens zu helfen. In Erwiderung auf die Bitte stellt das System Bewertungsregeln dar entsprechend einer Testfrage für den gegenwärtig dem Auflöser dargestellten Testposten. Einem Auflöser können so schnell spezifische Bewertungsregeln online zur Verfügung stehen, während Testposten bewertet werden. Dies fördert Bewertungseffizienz und reduziert unnötige Unterbrechungszeiten, die sich daraus ergeben, daß bestimmt wird, wie ein besonderer Testposten zu bewerten ist.
  • Bei Schritt 131 sendet das System einen Testposten zu einem Auflöser zur Bewertung und stellt den Testposten bei Schritt 132 dar. Falls der Auflöser Bewertungsregeln erbeten hat, wie bei Schritt 133 bestimmt, fragt das System dann einen gespeicherten Bewertungsführer ab, um Bewertungsregeln ausfindig zu machen, die einer Testfrage für den gegenwärtig dem Auflöser dargestellten Testposten entsprechen. Das System erlangt diese besonderen Bewertungsregeln wieder bei Schritt 135 und stellt sie dem Auflöser bei Schritt 136 dar. Das System verwendet bevorzugt eine Mehrprogramm-Umgebung, um gleichzeitig die Bewertungsregeln und den Testposten darzustellen. Bei Schritt 134 wartet das System darauf, daß der Auflöser den Testposten bewertet. Bei Schritt 137 speichert das System die Testbewertung eingegeben durch den Auflöser hinein in den Arbeit-im-Ablauf-Speicher.
  • Wie oben beschrieben, ist die vorliegende Erfindung ein System, das Testposten verarbeitet. Die verschiedenen Funktionen, die beim Verarbeiten der Testposten verwendet werden, fördern effizientes, hochqualitatives und konsistentes Bewerten von Testposten.

Claims (26)

  1. Verfahren zur Überprüfung von Bewertungen von in Form von Datenelementen vorliegenden Testantworten von zwei oder mehr Bewertern, wobei das Verfahren die Schritte umfasst: a) dass ein als Antwort auf eine Frage erzeugtes Datenelement über ein verteiltes Computernetzwerk (10) einem Server (27) elektronisch zugeführt wird (64); b) dass das Datenelement von dem Server (27) über das verteilte Computernetzwerk (10) elektronisch an erste und zweite Bewerter-Arbeitsplätze übertragen wird (88, 91), so dass es durch erste und zweite Bewerter bewertet werden kann; c) dass erste und zweite Bewertungsergebnisse, die von den ersten und zweiten Bewertern für die Datenelemente ermittelt wurden, von den ersten und zweiten Bewerter-Arbeitsplätzen über das verteilte Computernetzwerk (10) elektronisch an den Server (27) verschickt werden; und d) dass die ersten und zweiten Bewertungsergebnisse elektronisch verglichen werden (97) und ein mit den ersten und zweiten Bewertungsergebnissen in Verbindung stehender Wert aufgezeichnet wird (46), wenn die ersten und zweiten Bewer tungsergebnisse entsprechend vordefinierter Kriterien übereinstimmen.
  2. Verfahren nach Anspruch 1, ferner mit dem Schritt, dass die Frage ersten und zweiten Bewertern an den ersten und zweiten Bewerter-Arbeitsplätzen elektronisch angezeigt wird.
  3. Verfahren nach Anspruch 1, wobei der Schritt zum elektronischen Vergleich der ersten und zweiten Bewertungsergebnisse ferner die Schritte umfasst, dass: a) eine elektronische Kommunikationsverbindung über das verteilte Computernetzwerk (10) zwischen den ersten und zweiten Bewerter-Arbeitsplätzen vorgesehen wird (103), und, wenn sich die ersten und zweiten Bewertungsergebnisse auf Grundlage von vordefinierten Kriterien unterscheiden, den ersten und zweiten Bewertern signalisiert wird, ein gemeinsames Bewertungsergebnis unter Verwendung der elektronischen Kommunikationsverbindung interaktiv zu bestimmen und einzugeben; und b) das gemeinsame Bewertungsergebnis aufgezeichnet wird (105).
  4. Verfahren nach Anspruch 3, ferner mit dem Schritt, dass Bewertungsergebnisse der ersten und zweiten Bewerter nachverfolgt werden und verhindert wird, dass die ersten und zweiten Bewerter ein gleiches Datenelement bewerten, wenn die ersten und zweiten Be werter jeweils durchschnittliche Bewertungsergebnisse innerhalb vordefinierter Bewertungskriterien haben.
  5. Verfahren nach Anspruch 3, wobei der Schritt zum elektronischen Vergleich der ersten und zweiten Bewertungsergebnisse ferner den Schritt umfasst, dass die ersten und zweiten Bewerter-Arbeitsplätze solange daran gehindert werden, ein anderes Datenelement zur Bewertung aufzunehmen, bis die ersten und zweiten Bewerter das gemeinsame Bewertungsergebnis eingegeben haben.
  6. Verfahren nach Anspruch 4, wobei der Schritt zum elektronischen Vergleich der ersten und zweiten Bewertungsergebnisse ferner den Schritt umfasst, dass das Datenelement an einen dritten Bewerter-Arbeitsplatz zur Bewertung durch einen dritten Bewerter über das verteilte Netzwerk übertragen wird (106, 109), wenn die ersten und zweiten Bewerter das gemeinsame Bewertungsergebnis innerhalb einer vorbestimmten Zeitperiode nicht eingeben.
  7. Verfahren nach Anspruch 1, wobei der Schritt zum elektronischen Vergleich der ersten und zweiten Bewertungsergebnisse ferner die Schritte umfasst, dass: a) das Datenelement an einen dritten Bewerter-Arbeitsplatz zur Bewertung durch einen dritten Bewerter über das verteilte Computernetzwerk (10) übertragen wird (106, 109), wenn sich die ersten und zweiten Bewertungsergebnisse auf Grundlage von vordefinierten Kriterien unterscheiden; und b) ein drittes Bewertungsergebnis, das von dem dritten Bewerter ermittelt wurde, aufgezeichnet wird (108, 111), das von dem dritten Bewerter-Arbeitsplatz über das verteilte Computernetzwerk (10) verschickt wird.
  8. Verfahren nach Anspruch 1, wobei der Schritt zur Übertragung des Datenelements an einen dritten Bewerter-Arbeitsplatz über das verteilte Computernetzwerk (10) ferner den Schritt umfasst, dass der dritte Bewerter-Arbeitsplatz mit den ersten und zweiten Bewertungsergebnissen beliefert wird (106).
  9. Verfahren nach Anspruch 1, wobei der Schritt zur Übertragung des Datenelements an einen dritten Bewerter-Arbeitsplatz über das verteilte Computernetzwerk (10) ferner den Schritt umfasst, dass verhindert wird, dass der dritte Bewerter die ersten und zweiten Bewertungsergebnisse an dem dritten Bewerter-Arbeitsplatz betrachten kann, bevor der dritte Bewerter das dritte Bewertungsergebnis aufzeichnet.
  10. Verfahren nach Anspruch 1, wobei der Schritt zum elektronischen Vergleich der ersten und zweiten Bewertungsergebnisse ferner den Schritt umfasst, dass die ersten und zweiten Bewerter-Arbeitsplätze über das verteilte Computernetzwerk (10) elektronisch verbunden werden (103), wenn die ersten und zweiten Bewerter an verschiedenen geographischen Orten angeordnet sind.
  11. Verfahren nach Anspruch 1, wobei der Schritt zum elektronischen Vergleich der ersten und zweiten Bewertungsergebnisse den Schritt umfasst, dass zumindest eines aus einem größeren der ersten und zweiten Bewertungsergebnisse, einem niedrigeren der ersten und zweiten Bewertungsergebnisse und einem Durchschnitt der ersten und zweiten Bewertungsergebnisse als der Wert selektiv aufgezeichnet wird.
  12. Verfahren nach Anspruch 1, wobei der Schritt zum elektronischen Empfang eines als Antwort auf ein Frage erzeugten Datenelements über ein verteiltes Computernetzwerk (10) umfasst, dass ein als Antwort auf eine Frage erzeugtes Testelement über ein verteiltes Computernetzwerk (10) elektronisch empfangen wird.
  13. Verfahren nach Anspruch 12, wobei der Schritt zum elektronischen Empfang eines als Antwort auf eine Frage erzeugten Testelements über ein verteiltes Computernetzwerk (10) umfasst, dass eine elektronische Darstellung zumindest eines als Antwort auf eine Frage erzeugten Anteils eines Testantwortbogens über ein verteiltes Computernetzwerk (10) elektronisch empfangen wird.
  14. Vorrichtung zur überprüfenden Bewertung von in Form von Datenelementen vorliegenden Testantworten von zwei oder mehr Bewertern, wobei die Vorrichtung umfasst: a) eine Empfangsuntervorrichtung, die ein als Antwort auf eine Frage erzeugtes Datenelement elektronisch empfängt (64); b) eine Übertragungsuntervorrichtung, die das Datenelement elektronisch an erste und zweite Bewerter-Arbeitsplätze über trägt (88, 91), so dass es durch erste und zweite Bewerter bewertet werden kann; c) eine Bewertungsergebnisuntervorrichtung, die erste und zweite Bewertungsergebnisse, die von den ersten und zweiten Bewertern für die Datenelemente vergeben wurden, von den ersten und zweiten Bewerter-Arbeitsplätzen elektronisch verschickt; und d) eine Vergleichsuntervorrichtung, die die ersten und zweiten Bewertungsergebnisse elektronisch vergleicht (97) und einen mit den ersten und zweiten Bewertungsergebnissen in Verbindung stehenden Wert aufzeichnet (46), wenn die ersten und zweiten Bewertungsergebnisse entsprechend vordefinierter Kriterien übereinstimmen.
  15. Vorrichtung nach Anspruch 14, wobei die Empfangsuntervorrichtung ferner den ersten und zweiten Bewertern an den ersten und zweiten Bewerter-Arbeitsplätzen die Frage elektronisch anzeigt.
  16. Vorrichtung nach Anspruch 14, wobei die Vergleichsuntervorrichtung: a) eine elektronische Kommunikationsverbindung zwischen den ersten und zweiten Bewerter-Arbeitsplätzen vorsieht (103) und, wenn sich die ersten und zweiten Bewertungsergebnisse auf Grundlage der vordefinierten Kriterien unterscheiden; b) den ersten und zweiten Bewertern signalisiert, ein gemeinsames Bewertungsergebnis unter Verwendung der elektronischen Kommunikationsverbindung interaktiv zu bestimmen und einzugeben; und c) das gemeinsame Bewertungsergebnis aufzeichnet (105).
  17. Vorrichtung nach Anspruch 16, wobei die Vergleichsuntervorrichtung ferner Durchschnittsbewertungsergebnisse der ersten und zweiten Bewerter verfolgt und verhindert, dass die ersten und zweiten Bewerter ein gleiches Datenelement bewerten, wenn die ersten und zweiten Bewerter jeweils durchschnittliche Bewertungsergebnisse innerhalb vordefinierter Bewertungskriterien haben.
  18. Vorrichtung nach Anspruch 16, wobei die Vergleichsuntervorrichtung ferner die ersten und zweiten Bewerter-Arbeitsplätze solange daran hindert, ein anderes Datenelement zur Bewertung aufzunehmen, bis die ersten und zweiten Bewerter das gemeinsame Bewertungsergebnis eingegeben haben.
  19. Vorrichtung nach Anspruch 16, wobei die Vergleichsuntervorrichtung ferner das Datenelement an einen dritten Bewerter-Arbeitsplatz zur Bewertung durch einen dritten Bewerter überträgt (106, 109), wenn die ersten und zweiten Bewerter das gemeinsame Bewertungsergebnis innerhalb einer vorbestimmten Zeitperiode nicht eingeben.
  20. Vorrichtung nach Anspruch 14, wobei die Vergleichsuntervorrichtung ferner: a) das Datenelement an einen dritten Bewerter-Arbeitsplatz zur Bewertung durch einen dritten Bewerter überträgt (106, 109), wenn sich die ersten und zweiten Bewertungsergebnisse auf Grundlage der vordefinierten Kriterien unterscheiden; und b) ein drittes Bewertungsergebnis, wie durch den dritten Bewerter bestimmt, aufzeichnet (108, 111), das von dem dritten Bewerter-Arbeitsplatz verschickt wird.
  21. Vorrichtung nach Anspruch 14, wobei die Übertragung des Datenelements an einen dritten Bewerter-Arbeitsplatz durch die Vergleichsuntervorrichtung ferner umfasst, dass der dritte Bewerter-Arbeitsplatz mit den ersten und zweiten Bewertungsergebnissen beliefert wird (106).
  22. Vorrichtung nach Anspruch 14, wobei die Übertragung des Datenelements an einen dritten Bewerter-Arbeitsplatz durch die Vergleichsuntervorrichtung ferner umfasst, dass verhindert wird, dass der dritte Bewerter die ersten und zweiten Bewertungsergebnisse an dem dritten Bewerter-Arbeitsplatz betrachten kann, bevor der dritte Bewerter das dritte Bewertungsergebnis aufzeichnet.
  23. Vorrichtung nach Anspruch 14, wobei die Vergleichsuntervorrichtung ferner die ersten und zweiten Bewerter-Arbeitsplätze elektronisch verbindet (103), wenn die ersten und zweiten Bewerter an unterschiedlichen geographischen Orten angeordnet sind.
  24. Vorrichtung nach Anspruch 14, wobei die Vergleichsuntervorrichtung ferner zumindest eines aus einem größeren der ersten und zweiten Bewertungsergebnisse, einem niedrigeren der ersten und zweiten Bewertungsergebnisse und einem Durchschnitt der ersten und zweiten Bewertungsergebnisse als das gemeinsame Bewertungsergebnis selektiv aufzeichnet.
  25. Vorrichtung nach Anspruch 14, wobei das Datenelement ein Testelement umfasst.
  26. Vorrichtung nach Anspruch 25, wobei das Testelement eine elektronische Darstellung zumindest eines Abschnittes eines Testantwortbogens umfasst.
DE4403497A 1993-02-05 1994-02-04 Verfahren und Vorrichtung zur Verarbeitung von Antworten zu Testfragen Expired - Lifetime DE4403497B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/014,176 US5437554A (en) 1993-02-05 1993-02-05 System for providing performance feedback to test resolvers
US08/014,176 1993-02-05

Publications (2)

Publication Number Publication Date
DE4403497A1 DE4403497A1 (de) 1994-09-01
DE4403497B4 true DE4403497B4 (de) 2006-11-23

Family

ID=21763965

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4403497A Expired - Lifetime DE4403497B4 (de) 1993-02-05 1994-02-04 Verfahren und Vorrichtung zur Verarbeitung von Antworten zu Testfragen

Country Status (5)

Country Link
US (21) US5437554A (de)
CA (1) CA2107412C (de)
DE (1) DE4403497B4 (de)
GB (1) GB2275121B (de)
HK (3) HK1002467A1 (de)

Families Citing this family (161)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5987149A (en) 1992-07-08 1999-11-16 Uniscore Incorporated Method for scoring and control of scoring open-ended assessments using scorers in diverse locations
US5672060A (en) * 1992-07-08 1997-09-30 Meadowbrook Industries, Ltd. Apparatus and method for scoring nonobjective assessment materials through the application and use of captured images
US5437554A (en) 1993-02-05 1995-08-01 National Computer Systems, Inc. System for providing performance feedback to test resolvers
US5772213A (en) * 1995-06-07 1998-06-30 Mcglew; John James Game based on data base of characters of different geographic regions
US5618043A (en) * 1995-06-07 1997-04-08 Mcglew; John J. Game based on data base of characters of different geographic regions
US6041311A (en) * 1995-06-30 2000-03-21 Microsoft Corporation Method and apparatus for item recommendation using automated collaborative filtering
US5905865A (en) 1995-10-30 1999-05-18 Web Pager, Inc. Apparatus and method of automatically accessing on-line services in response to broadcast of on-line addresses
US7483670B2 (en) 1996-05-09 2009-01-27 Walker Digital, Llc Method and apparatus for educational testing
US6014134A (en) * 1996-08-23 2000-01-11 U S West, Inc. Network-based intelligent tutoring system
US5855011A (en) * 1996-09-13 1998-12-29 Tatsuoka; Curtis M. Method for classifying test subjects in knowledge and functionality states
US5909589A (en) * 1996-11-12 1999-06-01 Lance T. Parker Internet based training
EP0951706A4 (de) * 1996-12-03 2000-02-23 Ergolight Ltd Komputerisierte vorrichtung und verfahren zur identifizierung von brauchbarkeitsproblemen eines komputierisierten systems
IL119746A (en) * 1996-12-03 2000-06-01 Ergolight Ltd Computerized apparatus and methods for identifying usability problems of a computerized system
CA2284912C (en) * 1997-03-21 2009-02-24 Educational Testing Service System and method for on-line essay evaluation
US6295439B1 (en) 1997-03-21 2001-09-25 Educational Testing Service Methods and systems for presentation and evaluation of constructed responses assessed by human evaluators
WO1998043222A1 (en) * 1997-03-21 1998-10-01 Educational Testing Service System and method for evaluating raters of scoring constructed responses to test questions
US5991595A (en) * 1997-03-21 1999-11-23 Educational Testing Service Computerized system for scoring constructed responses and methods for training, monitoring, and evaluating human rater's scoring of constructed responses
US6259890B1 (en) * 1997-03-27 2001-07-10 Educational Testing Service System and method for computer based test creation
US6250930B1 (en) * 1997-05-30 2001-06-26 Picante Communications Corporation Multi-functional communication and aggregation platform
US6120299A (en) * 1997-06-06 2000-09-19 Educational Testing Service System and method for interactive scoring of standardized test responses
US6175841B1 (en) * 1997-07-17 2001-01-16 Bookette Software Company Computerized systems for producing on-line instructional materials
US7546346B2 (en) 1997-07-28 2009-06-09 Juniper Networks, Inc. Workflow systems and methods for project management and information management
US5978836A (en) 1997-07-28 1999-11-02 Solectron Corporation Workflow systems and methods
US6311040B1 (en) * 1997-07-31 2001-10-30 The Psychological Corporation System and method for scoring test answer sheets having open-ended questions
US6173154B1 (en) 1997-07-31 2001-01-09 The Psychological Corporation System and method for imaging test answer sheets having open-ended questions
US6347943B1 (en) 1997-10-20 2002-02-19 Vuepoint Corporation Method and system for creating an individualized course of instruction for each user
US6267601B1 (en) * 1997-12-05 2001-07-31 The Psychological Corporation Computerized system and method for teaching and assessing the holistic scoring of open-ended questions
US5957699A (en) * 1997-12-22 1999-09-28 Scientific Learning Corporation Remote computer-assisted professionally supervised teaching system
US6120298A (en) * 1998-01-23 2000-09-19 Scientific Learning Corp. Uniform motivation for multiple computer-assisted training systems
US6293801B1 (en) 1998-01-23 2001-09-25 Scientific Learning Corp. Adaptive motivation for computer-assisted training system
US6067638A (en) * 1998-04-22 2000-05-23 Scientific Learning Corp. Simulated play of interactive multimedia applications for error detection
US6113645A (en) * 1998-04-22 2000-09-05 Scientific Learning Corp. Simulated play of interactive multimedia applications for error detection
US6042384A (en) * 1998-06-30 2000-03-28 Bookette Software Company Computerized systems for optically scanning and electronically scoring and reporting test results
US6471521B1 (en) 1998-07-31 2002-10-29 Athenium, L.L.C. System for implementing collaborative training and online learning over a computer network and related techniques
US6604131B1 (en) * 1999-04-22 2003-08-05 Net Shepherd, Inc. Method and system for distributing a work process over an information network
US6288753B1 (en) 1999-07-07 2001-09-11 Corrugated Services Corp. System and method for live interactive distance learning
US6654748B1 (en) 1999-12-07 2003-11-25 Rwd Technologies, Inc. Dynamic application browser and database for use therewith
US6452679B1 (en) 1999-12-29 2002-09-17 Kimberly-Clark Worldwide, Inc. Method and apparatus for controlling the manufacturing quality of a moving web
US7526440B2 (en) * 2000-06-12 2009-04-28 Walker Digital, Llc Method, computer product, and apparatus for facilitating the provision of opinions to a shopper from a panel of peers
WO2002013065A1 (en) * 2000-08-03 2002-02-14 Epstein Bruce A Information collaboration and reliability assessment
US7573616B2 (en) * 2000-08-11 2009-08-11 Ctb/Mcgraw-Hill Llc Enhanced data capture from imaged documents
JP3580497B2 (ja) * 2000-09-22 2004-10-20 インターナショナル・ビジネス・マシーンズ・コーポレーション 企業診断システム、企業診断方法、企業診断用サーバ、および記録媒体
US6547568B1 (en) * 2000-10-12 2003-04-15 Kiyokazu Yamano Education intermediary system and method
US6461166B1 (en) * 2000-10-17 2002-10-08 Dennis Ray Berman Learning system with learner-constructed response based testing methodology
US6704741B1 (en) 2000-11-02 2004-03-09 The Psychological Corporation Test item creation and manipulation system and method
US7409700B1 (en) * 2000-11-03 2008-08-05 The Walt Disney Company System and method for enhanced broadcasting and interactive
US6551107B1 (en) 2000-11-03 2003-04-22 Cardioconcepts, Inc. Systems and methods for web-based learning
EP2631856A3 (de) 2000-11-10 2013-10-30 Affinnova, Inc. Verfahren und Vorrichtung für dynamische Echtzeit-Marktsegmentierung
US6988895B1 (en) 2001-01-12 2006-01-24 Ncs Pearson, Inc. Electronic test item display as an image with overlay controls
MXPA03006566A (es) * 2001-01-23 2004-10-15 Educational Testing Service Metodo para el analisis automatico de examenes.
US20060014129A1 (en) * 2001-02-09 2006-01-19 Grow.Net, Inc. System and method for processing test reports
US6577846B2 (en) * 2001-02-12 2003-06-10 Ctb-Mcgraw Hill, Llc Methods for range finding of open-ended assessments
US6961482B2 (en) * 2001-03-05 2005-11-01 Ncs Pearson, Inc. System for archiving electronic images of test question responses
US6751351B2 (en) 2001-03-05 2004-06-15 Nsc Pearson, Inc. Test question response verification system
US6810232B2 (en) 2001-03-05 2004-10-26 Ncs Pearson, Inc. Test processing workflow tracking system
US6675133B2 (en) 2001-03-05 2004-01-06 Ncs Pearsons, Inc. Pre-data-collection applications test processing system
US6688889B2 (en) 2001-03-08 2004-02-10 Boostmyscore.Com Computerized test preparation system employing individually tailored diagnostics and remediation
US6928260B2 (en) * 2001-04-10 2005-08-09 Childcare Education Institute, Llc Online education system and method
US7074128B2 (en) 2001-08-03 2006-07-11 Drb Lit Ltd. Method and system for enhancing memorization by using a mnemonic display
US7922494B2 (en) 2001-08-28 2011-04-12 International Business Machines Corporation Method for improved administering of tests using customized user alerts
US20030064354A1 (en) * 2001-09-28 2003-04-03 Lewis Daniel M. System and method for linking content standards, curriculum, instructions and assessment
US10347145B1 (en) 2001-10-05 2019-07-09 Vision Works Ip Corporation Method and apparatus for periodically questioning a user using a computer system or other device to facilitate memorization and learning of information
WO2003032274A1 (en) 2001-10-05 2003-04-17 Vision Works Llc A method and apparatus for periodically questioning a user using a computer system or other device to facilitate memorization and learning of information
US20030086116A1 (en) * 2001-11-05 2003-05-08 Hall John M. Method to automatically evaluate a hard copy response and immediately generate commentary based thereon
US7321858B2 (en) * 2001-11-30 2008-01-22 United Negro College Fund, Inc. Selection of individuals from a pool of candidates in a competition system
US6690913B2 (en) * 2001-12-20 2004-02-10 Kabushiki Kaisha Toshiba Correction support apparatus, correction support method, correction support program, and correction support system
US7127208B2 (en) * 2002-01-23 2006-10-24 Educational Testing Service Automated annotation
US7162198B2 (en) * 2002-01-23 2007-01-09 Educational Testing Service Consolidated Online Assessment System
US20030180703A1 (en) * 2002-01-28 2003-09-25 Edusoft Student assessment system
US8374540B2 (en) 2002-03-15 2013-02-12 Educational Testing Service Consolidated on-line assessment system
US20030232317A1 (en) * 2002-04-22 2003-12-18 Patz Richard J. Method of presenting an assessment
US20030207246A1 (en) * 2002-05-01 2003-11-06 Scott Moulthrop Assessment and monitoring system and method for scoring holistic questions
US8892895B1 (en) 2002-05-07 2014-11-18 Data Recognition Corporation Integrated system for electronic tracking and control of documents
US6772081B1 (en) * 2002-05-21 2004-08-03 Data Recognition Corporation Priority system and method for processing standardized tests
US7088949B2 (en) * 2002-06-24 2006-08-08 Educational Testing Service Automated essay scoring
US7149468B2 (en) * 2002-07-25 2006-12-12 The Mcgraw-Hill Companies, Inc. Methods for improving certainty of test-taker performance determinations for assessments with open-ended items
US8128414B1 (en) 2002-08-20 2012-03-06 Ctb/Mcgraw-Hill System and method for the development of instructional and testing materials
US20040064472A1 (en) * 2002-09-27 2004-04-01 Oetringer Eugen H. Method and system for information management
US7062536B2 (en) * 2002-10-10 2006-06-13 International Business Machines Corporation Grouping electronic reply messages
DE10258953A1 (de) * 2002-12-16 2004-07-22 S&C Polymer Silicon- und Composite-Spezialitäten GmbH Abgabevorrichtung für fluide Substanzen
US8385811B1 (en) 2003-02-11 2013-02-26 Data Recognition Corporation System and method for processing forms using color
US20040202987A1 (en) * 2003-02-14 2004-10-14 Scheuring Sylvia Tidwell System and method for creating, assessing, modifying, and using a learning map
US6993818B2 (en) * 2003-03-17 2006-02-07 Memx, Inc. Multi-fixture assembly of cutting tools
US20040223648A1 (en) * 2003-05-05 2004-11-11 Keith Hoene Determining differences between documents
US7357640B2 (en) * 2003-07-02 2008-04-15 Drb Lit Ltd. Lock-In Training system
US6876098B1 (en) * 2003-09-25 2005-04-05 The United States Of America As Represented By The Administrator Of The Environmental Protection Agency Methods of operating a series hybrid vehicle
TWM249950U (en) * 2004-01-02 2004-11-11 Cvc Technologies Inc Cap tightening machine capable of controlling tightening torque
US20050196742A1 (en) * 2004-03-04 2005-09-08 Harber Jonathan D. System and method for data analysis and presentation
US7364432B2 (en) * 2004-03-31 2008-04-29 Drb Lit Ltd. Methods of selecting Lock-In Training courses and sessions
US8155578B2 (en) * 2004-05-14 2012-04-10 Educational Testing Service Method and system for generating and processing an assessment examination
US7980855B1 (en) 2004-05-21 2011-07-19 Ctb/Mcgraw-Hill Student reporting systems and methods
US7657220B2 (en) * 2004-05-21 2010-02-02 Ordinate Corporation Adaptive scoring of responses to constructed response questions
US20060004621A1 (en) * 2004-06-30 2006-01-05 Malek Kamal M Real-time selection of survey candidates
US20060003306A1 (en) * 2004-07-02 2006-01-05 Mcginley Michael P Unified web-based system for the delivery, scoring, and reporting of on-line and paper-based assessments
US7606421B2 (en) * 2004-12-08 2009-10-20 Ctb/Mcgraw-Hill Llc Data extraction from temporal image data
JP4872214B2 (ja) * 2005-01-19 2012-02-08 富士ゼロックス株式会社 自動採点装置
US8041347B2 (en) 2005-01-21 2011-10-18 Responsive Innovations, Llc Transmitter controlled communication links
US7330716B2 (en) 2005-01-21 2008-02-12 Responsive Innovations, Llc Wireless communication system
US8202098B2 (en) 2005-02-28 2012-06-19 Educational Testing Service Method of model scaling for an automated essay scoring system
US20060252023A1 (en) * 2005-05-03 2006-11-09 Lexmark International, Inc. Methods for automatically identifying user selected answers on a test sheet
US7791756B2 (en) * 2005-05-03 2010-09-07 Lexmark International, Inc. Methods for identifying marks using a digital master document and scanned image enhancement
US20070042335A1 (en) * 2005-05-11 2007-02-22 Ctb Mcgraw-Hill System and method for assessment or survey response collection using a remote, digitally recording user input device
US8170466B2 (en) * 2005-05-27 2012-05-01 Ctb/Mcgraw-Hill System and method for automated assessment of constrained constructed responses
US20060286537A1 (en) * 2005-05-31 2006-12-21 Mandella George V System and method for improving performance using practice tests
US20070031801A1 (en) * 2005-06-16 2007-02-08 Ctb Mcgraw Hill Patterned response system and method
US7761843B2 (en) * 2005-07-01 2010-07-20 Ronald Ortscheid Computer source code generator
JP2009503563A (ja) * 2005-07-20 2009-01-29 オーディネイト・コーポレイション 話し言葉のコンピュータによる習熟度評価
US20070048723A1 (en) * 2005-08-19 2007-03-01 Caveon, Llc Securely administering computerized tests over a network
US20070111182A1 (en) * 2005-10-26 2007-05-17 International Business Machines Corporation Method and system for distributing answers
US20070218450A1 (en) * 2006-03-02 2007-09-20 Vantage Technologies Knowledge Assessment, L.L.C. System for obtaining and integrating essay scoring from multiple sources
JP2007239511A (ja) * 2006-03-06 2007-09-20 Denso Corp 車両の駆動制御装置
US8608477B2 (en) * 2006-04-06 2013-12-17 Vantage Technologies Knowledge Assessment, L.L.C. Selective writing assessment with tutoring
US20070292835A1 (en) * 2006-06-06 2007-12-20 Clement Edwin Hartman Method for reporting student relevant data
US20080108298A1 (en) * 2006-11-07 2008-05-08 Selen Mats A Certified two way source initiated transfer
US7831195B2 (en) * 2006-12-11 2010-11-09 Sharp Laboratories Of America, Inc. Integrated paper and computer-based testing administration system
US20080227080A1 (en) * 2007-03-14 2008-09-18 Gekl Technologies, Inc. Student assessment system
US20080227075A1 (en) 2007-03-15 2008-09-18 Ctb/Mcgraw-Hill, Llc Method and system for redundant data capture from scanned documents
US20080280280A1 (en) * 2007-05-11 2008-11-13 Aplia, Inc. Method of capturing workflow
US20090015875A1 (en) * 2007-06-20 2009-01-15 Ctb/Mcgraw-Hill Companies, Inc. Image manipulation of digitized images of documents
US9311581B2 (en) * 2007-10-19 2016-04-12 Daniel W. Shinn System and method for tracking the fulfillment status of requirements for completing an objective
US8649601B1 (en) 2007-10-22 2014-02-11 Data Recognition Corporation Method and apparatus for verifying answer document images
US9195875B1 (en) 2007-10-22 2015-11-24 Data Recognition Corporation Method and apparatus for defining fields in standardized test imaging
US8526055B1 (en) 2007-10-22 2013-09-03 Data Recognition Corporation Standardized test and survey imaging system
US8738659B1 (en) * 2007-10-22 2014-05-27 Data Recognition Corporation Method and apparatus for managing priority in standardized test and survey imaging
US8488220B1 (en) 2007-10-22 2013-07-16 Data Recognition Corporation Method and apparatus for calibrating imaging equipment
US8526766B2 (en) 2007-10-31 2013-09-03 Ctb/Mcgraw-Hill Llc Use of composite bitmapped images in conjunction with display of captured data
KR101578743B1 (ko) * 2007-12-27 2015-12-18 제임스 쥐. 막스 워크 플로우 프로세싱을 위한 시스템 및 방법
US20090198504A1 (en) * 2008-02-05 2009-08-06 Medavante, Inc. Rater resource allocation systems and methods
US8376755B2 (en) * 2008-05-09 2013-02-19 Location Inc. Group Corporation System for the normalization of school performance statistics
GB0809159D0 (en) * 2008-05-20 2008-06-25 Chalkface Project Ltd Education tool
GB2462612A (en) * 2008-08-12 2010-02-17 Tag Learning Ltd A method of facilitating assessment of a coursework answer
US20100042422A1 (en) * 2008-08-15 2010-02-18 Adam Summers System and method for computing and displaying a score with an associated visual quality indicator
US20100257832A1 (en) * 2009-04-14 2010-10-14 Smith Robert L Mower Blade
US8782063B2 (en) 2009-10-20 2014-07-15 Universal Research Solutions, Llc Generation and data management of a medical study using instruments in an integrated media and medical system
US8498881B2 (en) 2009-10-20 2013-07-30 Universal Research Solutions, Llc Generation and data management of a medical study using instruments in an integrated media and medical system
EP2362180B1 (de) * 2010-02-05 2016-01-27 Poly-clip System GmbH & Co. KG Verfahren zur Messung eines Abstellrahmens
US8200675B2 (en) * 2010-03-10 2012-06-12 Michael & Susan Dell Foundation Virtual reader for scoring applications
US8774704B2 (en) * 2010-03-10 2014-07-08 Michael & Susan Dell Foundation Virtual reader for processing applications
US20110269110A1 (en) * 2010-05-03 2011-11-03 Mcclellan Catherine Computer-Implemented Systems and Methods for Distributing Constructed Responses to Scorers
US8521077B2 (en) * 2010-07-21 2013-08-27 Xerox Corporation System and method for detecting unauthorized collaboration on educational assessments
US20120053967A1 (en) * 2010-09-01 2012-03-01 American Express Travel Related Services Company, Inc. System and Method for Account Reconciliation
US9679256B2 (en) 2010-10-06 2017-06-13 The Chancellor, Masters And Scholars Of The University Of Cambridge Automated assessment of examination scripts
US8761658B2 (en) 2011-01-31 2014-06-24 FastTrack Technologies Inc. System and method for a computerized learning system
US9218614B2 (en) 2011-03-08 2015-12-22 The Nielsen Company (Us), Llc System and method for concept development
US9208132B2 (en) 2011-03-08 2015-12-08 The Nielsen Company (Us), Llc System and method for concept development with content aware text editor
US20120259676A1 (en) 2011-04-07 2012-10-11 Wagner John G Methods and apparatus to model consumer choice sourcing
US20130171594A1 (en) * 2011-12-30 2013-07-04 Pepper Technology LLC Systems and methods for providing training and collaborative activities through a group-based training and evaluation platform
US9311383B1 (en) 2012-01-13 2016-04-12 The Nielsen Company (Us), Llc Optimal solution identification system and method
WO2014104620A1 (ko) * 2012-12-24 2014-07-03 주식회사 테라클 학습 컨텐츠 관리 방법 및 장치
US9483954B2 (en) 2013-03-12 2016-11-01 Pearson Education, Inc. Educational network based intervention
US10516691B2 (en) 2013-03-12 2019-12-24 Pearson Education, Inc. Network based intervention
US9928383B2 (en) 2014-10-30 2018-03-27 Pearson Education, Inc. Methods and systems for network-based analysis, intervention, and anonymization
US9799041B2 (en) 2013-03-15 2017-10-24 The Nielsen Company (Us), Llc Method and apparatus for interactive evolutionary optimization of concepts
WO2014152010A1 (en) 2013-03-15 2014-09-25 Affinnova, Inc. Method and apparatus for interactive evolutionary algorithms with respondent directed breeding
WO2014169288A1 (en) 2013-04-12 2014-10-16 Pearson Education, Inc. Evaluation control
US10147108B2 (en) 2015-04-02 2018-12-04 The Nielsen Company (Us), Llc Methods and apparatus to identify affinity between segment attributes and product characteristics
US10129131B2 (en) * 2015-06-30 2018-11-13 Dell Products, Lp System and method for device optimization in a network of devices with embedded electronics
US10471594B2 (en) * 2015-12-01 2019-11-12 Kindred Systems Inc. Systems, devices, and methods for the distribution and collection of multimodal data associated with robots
RU171340U1 (ru) * 2016-11-18 2017-05-29 Федеральное государственное бюджетное учреждение "4 Центральный научно-исследовательский институт" Министерства обороны Российской Федерации Устройство для тестирования обучаемых
US10984196B2 (en) 2018-01-11 2021-04-20 International Business Machines Corporation Distributed system for evaluation and feedback of digital text-based content
US11563576B2 (en) 2019-01-23 2023-01-24 International Business Machines Corporation Distributed anonymous scoring technique

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1990005970A1 (en) * 1988-11-10 1990-05-31 Response Technologies, Inc. Expert data collection, analysis, and response system and method
US5011413A (en) * 1989-07-19 1991-04-30 Educational Testing Service Machine-interpretable figural response testing
US5103490A (en) * 1990-06-13 1992-04-07 National Computer Systems, Inc. Method and apparatus for storing and merging multiple optically scanned images
US5134669A (en) * 1990-06-13 1992-07-28 National Computer Systems Image processing system for documentary data

Family Cites Families (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US34476A (en) * 1862-02-25 Improvement in hose-couplings
US3405457A (en) * 1965-10-23 1968-10-15 Univ Illinois Versatile display teaching system
US3538626A (en) * 1968-02-16 1970-11-10 Response Systems Corp Student-responder apparatus
US3762072A (en) * 1971-07-16 1973-10-02 Lerali Sa Apparatus for the individual and automatic monitoring of replies given under examination
JPS5147091B2 (de) * 1971-09-30 1976-12-13
US3932948A (en) 1973-04-18 1976-01-20 Eastman Kodak Company Audio-visual learning system
US3981087A (en) * 1973-10-11 1976-09-21 Sachs Thomas D Teaching machine
US4205780A (en) 1977-03-21 1980-06-03 Teknekron, Inc. Document processing system and method
US4151659A (en) * 1978-06-07 1979-05-01 Eric F. Burtis Machine for teaching reading
DE3009211C2 (de) * 1980-03-11 1983-08-18 Volker Prof. Dr. 6905 Schriesheim Hepp Mobiler Ereignis-Modul
US4358277A (en) 1981-06-26 1982-11-09 Sunbelt Communications, Ltd. Method and apparatus for conducting an opinion survey
US4518361A (en) * 1982-08-05 1985-05-21 Conway Malcolm J Method and apparatus for effecting and evaluating action upon visual imaging
US4798543A (en) * 1983-03-31 1989-01-17 Bell & Howell Company Interactive training method and system
US4553261A (en) 1983-05-31 1985-11-12 Horst Froessl Document and data handling and retrieval system
US4478584A (en) 1983-08-26 1984-10-23 Kathryn Kaney Method for recording uncoded scores or ratings by multiple evaluators on a single automatic machine scannable document
US4705479A (en) 1984-07-09 1987-11-10 Maron Melvin J Process of teaching
US4899276A (en) * 1984-08-14 1990-02-06 International Business Machines Corporation Field-directed screen help technique
DE3529301A1 (de) 1984-08-28 1986-03-27 Jost von Dr. Grüningen Fellenberg Psychotechnisches verfahren und einrichtung zur durchfuehrung des verfahrens
US4694352A (en) 1984-09-21 1987-09-15 Canon Kabushiki Kaisha Image information processing system
US4789543A (en) 1984-11-30 1988-12-06 E. I. Du Pont De Nemours And Company Neutral technetium 99-m complexes useful as radiodiagnostic agents
US4715818A (en) 1984-12-04 1987-12-29 Ronald Lewis Shapiro Computer training system
US4648062A (en) * 1985-02-01 1987-03-03 International Business Machines Corporation Method for providing an on line help facility for interactive information handling systems
US4708503A (en) 1985-03-21 1987-11-24 Meadowbrook Industries, Inc. Work carrier for use in computer printing
US4845739A (en) * 1985-07-10 1989-07-04 Fdr Interactive Technologies Telephonic-interface statistical analysis system
US4908759A (en) * 1985-08-29 1990-03-13 Bell Communications Research, Inc. Hierarchical database conversion with conditional write
JPS6275578A (ja) 1985-09-30 1987-04-07 株式会社東芝 採点装置
US4671772A (en) * 1985-10-22 1987-06-09 Keilty, Goldsmith & Boone Performance appraisal and training system and method of utilizing same
US4741047A (en) 1986-03-20 1988-04-26 Computer Entry Systems Corporation Information storage, retrieval and display system
US4764120A (en) 1986-05-27 1988-08-16 Mcdonald's Corporation Student response system
US4930077A (en) * 1987-04-06 1990-05-29 Fan David P Information processing expert system for text analysis and predicting public opinion based information available to the public
US4760246A (en) 1987-04-20 1988-07-26 Cognitronics Corporation Mark-reading apparatus for use with answer sheets
US4785472A (en) 1987-05-11 1988-11-15 The Trustees Of The Stevens Institute Of Technology Remote teaching system
US4867685A (en) * 1987-09-24 1989-09-19 The Trustees Of The College Of Aeronautics Audio visual instructional system
US4996642A (en) * 1987-10-01 1991-02-26 Neonics, Inc. System and method for recommending items
US4895518A (en) * 1987-11-02 1990-01-23 The University Of Michigan Computerized diagnostic reasoning evaluation system
US4878175A (en) * 1987-11-03 1989-10-31 Emtek Health Care Systems Method for generating patient-specific flowsheets by adding/deleting parameters
US5147205A (en) * 1988-01-29 1992-09-15 Gross Theodore D Tachistoscope and method of use thereof for teaching, particularly of reading and spelling
US4937439A (en) * 1988-05-13 1990-06-26 National Computer Systems, Inc. Method and system for creating and scanning a customized survey form
US5058185A (en) 1988-06-27 1991-10-15 International Business Machines Corporation Object management and delivery system having multiple object-resolution capability
US5228116A (en) * 1988-07-15 1993-07-13 Aicorp., Inc. Knowledge base management system
US5100329A (en) * 1990-06-22 1992-03-31 Deesen Kenneth C Computer assisted coaching method
US5054096A (en) 1988-10-24 1991-10-01 Empire Blue Cross/Blue Shield Method and apparatus for converting documents into electronic data for transaction processing
FR2638415B1 (fr) * 1988-11-02 1991-01-11 Sebarro Mottas Engineering Sa Vehicule motorise ou tracte muni d'une roue directrice a deux roulements
US5072383A (en) * 1988-11-19 1991-12-10 Emtek Health Care Systems, Inc. Medical information system with automatic updating of task list in response to entering orders and charting interventions on associated forms
US4958284A (en) * 1988-12-06 1990-09-18 Npd Group, Inc. Open ended question analysis system and method
US5003613A (en) * 1988-12-21 1991-03-26 Recognition Equipment Incorporated Document processing system and method
US5105354A (en) * 1989-01-23 1992-04-14 Nippon Kayaku Kabushiki Kaisha Method and apparatus for correlating respiration and heartbeat variability
US5086385A (en) 1989-01-31 1992-02-04 Custom Command Systems Expandable home automation system
US5140650A (en) 1989-02-02 1992-08-18 International Business Machines Corporation Computer-implemented method for automatic extraction of data from printed forms
US5002491A (en) * 1989-04-28 1991-03-26 Comtek Electronic classroom system enabling interactive self-paced learning
JPH031709A (ja) 1989-05-30 1991-01-08 Toyo Commun Equip Co Ltd 可変抵抗回路および可変利得増幅器
US4975865A (en) * 1989-05-31 1990-12-04 Mitech Corporation Method and apparatus for real-time control
US4978305A (en) * 1989-06-06 1990-12-18 Educational Testing Service Free response test grading method
US5211564A (en) 1989-07-19 1993-05-18 Educational Testing Service Computerized figural response testing system and method
US5035625A (en) 1989-07-24 1991-07-30 Munson Electronics, Inc. Computer game teaching method and system
CA1321026C (en) * 1989-09-28 1993-08-03 Arny I. Sokoloff Method and apparatus for optically reading pre-printed survey pages
US5059127A (en) * 1989-10-26 1991-10-22 Educational Testing Service Computerized mastery testing system, a computer administered variable length sequential testing system for making pass/fail decisions
US5204812A (en) * 1989-11-02 1993-04-20 International Business Machines Corp. User access of multiple documents based on document relationship classification
US5318450A (en) 1989-11-22 1994-06-07 Gte California Incorporated Multimedia distribution system for instructional materials
US5344132A (en) 1990-01-16 1994-09-06 Digital Image Systems Image based document processing and information management system and apparatus
US5038392A (en) 1990-02-12 1991-08-06 International Business Machines Corporation Method and apparatus for adaptive image processing by recognizing a characterizing indicium in a captured image of a document
US5023435A (en) 1990-03-06 1991-06-11 Deniger David B Response form processing system
US5119433A (en) 1990-03-12 1992-06-02 International Business Machines Corporation Method and system for locating the amount field on a document
US5151948A (en) 1990-03-12 1992-09-29 International Business Machines Corporation System and method for processing documents having amounts recorded thereon
US5176520A (en) 1990-04-17 1993-01-05 Hamilton Eric R Computer assisted instructional delivery system and method
JPH0414788A (ja) * 1990-05-07 1992-01-20 Toshiba Lighting & Technol Corp 赤外線ヒータおよびその製造方法
USRE34476E (en) 1990-05-14 1993-12-14 Norwood Donald D Hybrid information management system for handwriting and text
US5204813A (en) * 1990-06-08 1993-04-20 Assessment Systems, Inc. Computer-controlled testing process and device for administering an examination
US5195033A (en) * 1990-06-08 1993-03-16 Assessment Systems, Inc. Testing system including removable storage means for transfer of test related data and means for issuing a certification upon successful completion of the test
JPH04147288A (ja) 1990-10-11 1992-05-20 Brother Ind Ltd 添削教材配信装置
US5180309A (en) * 1990-12-04 1993-01-19 United States Of America As Represented By The Secretary Of The Navy Automated answer evaluation and scoring system and method
JPH04241381A (ja) * 1991-01-16 1992-08-28 Brother Ind Ltd 電子学習機
JPH04246791A (ja) * 1991-02-01 1992-09-02 Hitachi Ltd アンケートデータ収集・分析システム
US5258855A (en) * 1991-03-20 1993-11-02 System X, L. P. Information processing methodology
US5437555A (en) 1991-05-02 1995-08-01 Discourse Technologies, Inc. Remote teaching system
US5634101A (en) * 1991-05-31 1997-05-27 R. Alan Blau & Associates, Co. Method and apparatus for obtaining consumer information
US5195813A (en) * 1991-09-03 1993-03-23 Kc Hilites, Inc. Wireless control for auxiliary lighting
US5452379A (en) 1991-09-13 1995-09-19 Meadowbrook Industries, Ltd. Image capture and storage techniques in association with optical mark reading
JP2979772B2 (ja) 1991-09-13 1999-11-15 松下電器産業株式会社 ダイボンディング装置
US5259766A (en) * 1991-12-13 1993-11-09 Educational Testing Service Method and system for interactive computer science testing, anaylsis and feedback
DE4141920A1 (de) 1991-12-19 1993-06-24 Mathias Zirm Verfahren zum erlernen von mikrochirurgischen operationstechniken und vorrichtung zur ausuebung des verfahrens
US5294229A (en) * 1992-01-27 1994-03-15 Jonathan Hartzell Teacher and parent interactive communication system incorporating pocket sized portable audio numeric terminals
US5379213A (en) 1992-01-28 1995-01-03 Fleetwood Furniture Company, Inc. Test scoring system and method
US5267865A (en) 1992-02-11 1993-12-07 John R. Lee Interactive computer aided natural learning method and apparatus
US5418865A (en) * 1992-03-20 1995-05-23 Xerox Corporation Mark sensing on a form
US5302132A (en) * 1992-04-01 1994-04-12 Corder Paul R Instructional system and method for improving communication skills
US5310349A (en) 1992-04-30 1994-05-10 Jostens Learning Corporation Instructional management system
US5987149A (en) 1992-07-08 1999-11-16 Uniscore Incorporated Method for scoring and control of scoring open-ended assessments using scorers in diverse locations
US5672060A (en) * 1992-07-08 1997-09-30 Meadowbrook Industries, Ltd. Apparatus and method for scoring nonobjective assessment materials through the application and use of captured images
US5999908A (en) * 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5565316A (en) 1992-10-09 1996-10-15 Educational Testing Service System and method for computer based testing
US5416312A (en) 1992-11-20 1995-05-16 Cherloc Document bearing an image or a text and provided with an indexing frame, and associated document analysis system
WO1994015272A1 (en) 1992-12-22 1994-07-07 Morgan Michael W Pen-based electronic teaching system
US5321611A (en) * 1993-02-05 1994-06-14 National Computer Systems, Inc. Multiple test scoring system
US5437554A (en) 1993-02-05 1995-08-01 National Computer Systems, Inc. System for providing performance feedback to test resolvers
US5433615A (en) 1993-02-05 1995-07-18 National Computer Systems, Inc. Categorized test item reporting system
US5544255A (en) 1994-08-31 1996-08-06 Peripheral Vision Limited Method and system for the capture, storage, transport and authentication of handwritten signatures
US5848393A (en) * 1995-12-15 1998-12-08 Ncr Corporation "What if . . . " function for simulating operations within a task workflow management system
US5691895A (en) * 1995-12-18 1997-11-25 International Business Machines Corporation Mechanism and architecture for manufacturing control and optimization
US6157921A (en) * 1998-05-01 2000-12-05 Barnhill Technologies, Llc Enhancing knowledge discovery using support vector machines in a distributed network environment
US5991595A (en) 1997-03-21 1999-11-23 Educational Testing Service Computerized system for scoring constructed responses and methods for training, monitoring, and evaluating human rater's scoring of constructed responses
CA2284912C (en) 1997-03-21 2009-02-24 Educational Testing Service System and method for on-line essay evaluation
US6311040B1 (en) 1997-07-31 2001-10-30 The Psychological Corporation System and method for scoring test answer sheets having open-ended questions
US6042384A (en) * 1998-06-30 2000-03-28 Bookette Software Company Computerized systems for optically scanning and electronically scoring and reporting test results
KR20000057105A (ko) * 1998-12-28 2000-09-15 오오자와 슈지로 수용성 윤활유제의 살균장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1990005970A1 (en) * 1988-11-10 1990-05-31 Response Technologies, Inc. Expert data collection, analysis, and response system and method
US5011413A (en) * 1989-07-19 1991-04-30 Educational Testing Service Machine-interpretable figural response testing
US5103490A (en) * 1990-06-13 1992-04-07 National Computer Systems, Inc. Method and apparatus for storing and merging multiple optically scanned images
US5134669A (en) * 1990-06-13 1992-07-28 National Computer Systems Image processing system for documentary data

Also Published As

Publication number Publication date
US5437554A (en) 1995-08-01
US6558166B1 (en) 2003-05-06
US5709551A (en) 1998-01-20
CA2107412A1 (en) 1994-08-06
US5558521A (en) 1996-09-24
US5458493A (en) 1995-10-17
US5690497A (en) 1997-11-25
US6976847B2 (en) 2005-12-20
US6183260B1 (en) 2001-02-06
HK1002467A1 (en) 1998-08-28
US5466159A (en) 1995-11-14
US5735694A (en) 1998-04-07
US20030198933A1 (en) 2003-10-23
US5718591A (en) 1998-02-17
US20040202991A1 (en) 2004-10-14
US5752836A (en) 1998-05-19
US6168440B1 (en) 2001-01-02
US6155839A (en) 2000-12-05
GB2275121B (en) 1997-11-26
US6183261B1 (en) 2001-02-06
US6159018A (en) 2000-12-12
HK1003280A1 (en) 1998-10-23
US20040086841A1 (en) 2004-05-06
CA2107412C (en) 2004-01-20
HK1003496A1 (en) 1998-10-30
US6193521B1 (en) 2001-02-27
US20040063087A1 (en) 2004-04-01
US6749435B2 (en) 2004-06-15
US5716213A (en) 1998-02-10
GB9402185D0 (en) 1994-03-30
DE4403497A1 (de) 1994-09-01
GB2275121A (en) 1994-08-17
US6918772B2 (en) 2005-07-19
US7044743B2 (en) 2006-05-16

Similar Documents

Publication Publication Date Title
DE4403497B4 (de) Verfahren und Vorrichtung zur Verarbeitung von Antworten zu Testfragen
DE4403496B4 (de) Verfahren und Vorrichtung zur Verarbeitung von Antworten zu Testfragen
DE4403495B4 (de) Verfahren und Vorrichtung zur Verarbeitung von Antworten zu Testfragen
EP1574983A2 (de) Verfahren und System zum Erfassen der Ergebnisse eines psychologischen Tests
DE202022104194U1 (de) Ein System zur Organisation einer Jobmesse, um Studenten bei der Suche nach einem Arbeitsplatz zu unterstützen
DE202023100393U1 (de) Ein System zur Bewertung und Förderung der Kompetenzen im Bereich der digitalen Medien bei verschiedenen Akteuren in Hochschuleinrichtungen
WO2001058234A2 (de) Computersystem zur wahrnehmung mehrerer arten voneinander unabhängiger ausbildungs-, schulungs- und verwaltungsaufgaben in einer virtuellen lernwelt
DE202023100409U1 (de) Ein System zur Bewertung und Förderung von Massive-Open-Online-Kursen für Lehramtsstudenten und Pädagogen
GB2310518A (en) Displaying scoring rules to test marker
CN117314362A (zh) 一种教学质量监测管理系统

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8364 No opposition during term of opposition
R071 Expiry of right
R071 Expiry of right