[go: up one dir, main page]

Principal investigator (ÚFAL): 
Provider: 
Grant id: 
LK11221
ÚFAL budget: 
12478 tis. Kč
Duration: 
2012-2016

VYSTADIAL

Development of statistical methods for spoken dialogue systems

The goals of the project is to study and improve statistical methods for learning of statistical models used in complex dialogue systems. The project will focus on development of robust learning techniques which will not be sensitive to the data sparsity problem. The data sparsity problem is especially typical in languages with rich morphology and syntax such as Czech. In addition, the project will target development of the advanced learning methods for statistical dialogue systems, including off-policy reinforcement learning methods. 

 
Start:         1.4.2012
Duration:   5 year
Sponsor:    MSMT LK11221
 
VYSTADIAL: Vývoj metod pro návrh statistických mluvených dialogových systémů
Cílem tohoto projektu je vývoj statistických metod, které umožní návrh komplexních dialogových systémů včetně optimalizace jednotlivých statistických modelů z dat. Projekt bude usilovat o vývoj robustních technik umožňujících trénovat spolehlivé statistické modely, které nebudou citlivé na problém s „řídkostí“ dat, který je typický pro jazyky s bohatou morfologií a syntaxí jako je čeština. Navíc se projekt zaměří na samotný způsob trénování těchto modelů. Budou vyvíjeny metody, které umožňují optimalizaci strategie řízení z již dříve pořízených dat (korpusu) nebo přímo z interakce s reálnými uživateli.
 
Zahájení projektu:         1.4.2012
Doba trvání proketu:     5 let
Sponzor:                       MSMT LK11221

Abstract (česky)

Hlasové dialogové systémy mají široké možnosti uplatnění, kterými jsou například automatizace hlasových kontaktních center nebo pomoc hendikepovaným. Přestože se tyto systémy začínají čím dál víc uplatňovat v praxi, tak tyto systémy stále neumožňují plynulou konverzaci, zejména proto, že metody řízení dialogu využívají deterministických algoritmů, které jsou pouze manuálně optimalizovány.
 
Zkušenosti z vývoje statistických metod pro zpracování přirozeného jazyka naznačují, že učení z dat a optimální rozhodování významně zlepšuje kvalitu a usnadňuje nasazení takových technologií.  Proto budou v rámci tohoto projektu hlasové dialogové systémy modelovány jako tzv. částečně pozorovatelný Markovův proces (POMDP) a trénování takových systémů bude založeno na statistických metodách.  
 
Cílem tohoto projektu je vývoj statistických metod, které umožní návrh komplexních dialogových systémů včetně optimalizace jednotlivých statistických modelů z dat. Projekt bude usilovat o vývoj robustních technik umožňujících trénovat spolehlivé statistické modely, které nebudou citlivé na problém s „řídkostí“ dat, který je typický pro jazyky s bohatou morfologií a syntaxí jako je čeština. Navíc se projekt zaměří na samotný způsob trénování těchto modelů. Budou vyvíjeny metody, které umožňují optimalizaci strategie řízení z již dříve pořízených dat (korpusu) nebo přímo z interakce s reálnými uživateli.
 
Ačkoliv se projekt bude zabývat především vývojem statistických metod pro popis a poznání zákonitostí dialogu v přirozeném jazyce, a tedy bude převážně výzkumem základním, hmatatelným výsledkem projektu bude prototyp dialogového systému a metody pro jeho trénování z dat. Vývoj a popis těchto technologií následně povede ke zvýšení robustnosti a přirozenosti dialogových systémů za současného snížení nákladů na jejich uvedení do provozu.

Main goals of the project

  1. To study and improve methods for learning of statistical models used in dialogue systems. 
  2. To create software infrastructure for remote training and evaluation.
  3. Release the developed dialogue system as an open-source.
  4. Create publicly available corpus of audio recording, transcriptions and semantic annotations for training dialogue systems.

Results

All software under the support of this grant is available at https://github.com/UFAL-DSG/. This also includes the main contribution Alex Dialogue Systems Framwork.

The data collected under the support of this grant is available at: