FESTSTELLEN UND WIEDERHERSTELLEN VON AUSSERHALB DES WORTSCHATZES LIEGENDEN WÖRTERN IN SPRACHE-ZU-TEXT-TRANSKRIPTIONSSYSTEMEN

    公开(公告)号:DE112020004348T5

    公开(公告)日:2022-05-25

    申请号:DE112020004348

    申请日:2020-09-10

    Applicant: IBM

    Abstract: Aspekte der vorliegenden Offenbarung beschreiben Methoden zum Identifizieren und Wiederherstellen von außerhalb des Wortschatzes liegenden Wörtern in Transkripten einer Sprachdatenaufzeichnung unter Verwendung von Spracherkennungsmodellen und Wortteileinheiten-Erkennungsmodellen. Ein Beispielverfahren enthält im Allgemeinen ein Empfangen einer Sprachdatenaufzeichnung für eine Transkription in eine Textdarstellung der Sprachdatenaufzeichnung. Die Sprachdatenaufzeichnung wird unter Verwendung eines Worterkennungsmodells in die Textdarstellung transkribiert. Ein unbekanntes Wort wird in der Textdarstellung identifiziert, und das unbekannte Wort wird auf Grundlage einer Erkennung von Teileinheiten des unbekannten Wortes rekonstruiert, die durch ein Teileinheiten-Erkennungsmodell erzeugt werden. Die Textdarstellung der Sprachdatenaufzeichnung wird modifiziert, indem das unbekannte Wort durch die Rekonstruktion des unbekannten Wortes ersetzt wird, und die modifizierte Textdarstellung wird ausgegeben.

    Training of model for processing sequence data

    公开(公告)号:AU2021246985A1

    公开(公告)日:2022-08-18

    申请号:AU2021246985

    申请日:2021-03-19

    Applicant: IBM

    Abstract: A technique for training a model is disclosed. A training sample including an input sequence of observations and a target sequence of symbols having length different from the input sequence of observations is obtained. The input sequence of observations is fed into the model to obtain a sequence of predictions. The sequence of predictions is shifted by an amount with respect to the input sequence of observations. The model is updated based on a loss using a shifted sequence of predictions and the target sequence of the symbols.

    SOFT-FORGETTING FÜR AUTOMATISCHE SPRACHERKENNUNG AUF DER GRUNDLAGE VON KONNEKTIONISTISCHER ZEITLICHER EINORDNUNG

    公开(公告)号:DE112020003449T5

    公开(公告)日:2022-04-07

    申请号:DE112020003449

    申请日:2020-08-17

    Applicant: IBM

    Abstract: In einem Ansatz zum Soft-Forgetting-Training trainieren ein oder mehrere Computerprozessoren ein erstes Modell unter Verwendung eines oder mehrerer Trainingsstapel, wobei jeder Trainingsstapel des einen oder mehrerer Trainingsstapel einen oder mehrere Informationsblöcke aufweist. Der eine oder mehrere Computerprozessoren lösen als Reaktion auf ein erfolgtes Ausführen des Trainierens des ersten Modells ein Trainieren eines zweiten Modells aus unter Verwendung des einen oder mehrerer Trainingsstapel. Der eine oder mehrere Computerprozessoren jittern eine zufällige Blockgröße für jeden Informationsblock für jeden der ein oder mehreren Trainingsstapel für das zweite Modell. Der eine oder mehrere Computerprozessoren rollen das zweite Modell über einen oder mehrere sich nicht überlappende, zusammenhängende, gejitterte Informationsblöcke aus. Der eine oder mehrere Computerprozessoren reduzieren als Reaktion auf das Ausrollen des zweiten Modells eine Überanpassung des zweiten Modells durch Durchführen einer Zwillingsregularisierung.

Patent Agency Ranking