Visão geral do produto¶
O ASR foi construído seguindo o paradigma cliente/servidor (Fig. 4), com uma camada que oferece as interfaces WebSocket e REST, que permitem que as aplicações do cliente tenham acesso aos recursos de reconhecimento de fala. Para aplicações de telefonia com URA, também pode ser usada a interface padronizada MRCP.

Fig. 4 Integração com ASR.¶

Fig. 5 Integração ASR Cloud.¶
Para facilitar o desenvolvimento de aplicações, são disponibilizadas algumas bibliotecas cliente que simplificam o processo de integração com o ASR.
O modelo acústico deve ser escolhido no ASR de acordo com o idioma e a taxa de amostragem do áudio de entrada.
As gramáticas específicas para a aplicação podem ser criadas pelo próprio desenvolvedor, com a ajuda de ferramentas oferecidas pelo ASR. Se a aplicação utiliza as gramáticas builtin definidas na especificação, elas podem ser instaladas e usadas no reconhecimento. Veja mais sobre o uso de gramáticas em Guia do Usuário.
Se a aplicação precisa reconhecer fala espontânea, um modelo para fala livre deve ser usado de acordo com o idioma adotado. Normalmente, o modelo usado é de contexto geral, podendo ser usado em qualquer aplicação.