{"id":59545,"date":"2020-11-25T09:19:05","date_gmt":"2020-11-25T08:19:05","guid":{"rendered":"https:\/\/mancomun.gal\/noticia_hemeroteca\/deepspeech-0-91-reconocimiento-de-voz-de-mozilla\/"},"modified":"2020-11-25T09:19:05","modified_gmt":"2020-11-25T08:19:05","slug":"deepspeech-0-91-reconocimiento-de-voz-de-mozilla","status":"publish","type":"noticia_hemeroteca","link":"https:\/\/mancomun.gal\/es\/noticia_hemeroteca\/deepspeech-0-91-reconocimiento-de-voz-de-mozilla\/","title":{"rendered":"DeepSpeech 0.91, reconocimiento de voz de Mozilla"},"content":{"rendered":"<p>Nueva actualizaci\u00f3n del motor de reconocimiento de voz <a href=\"https:\/\/github.com\/mozilla\/DeepSpeech\">DeepSpeech<\/a> 0.91 desarrollado por Mozilla.<\/p>\n<p><strong>DeepSpeech es un motor de software libre de habla a texto<\/strong>, que utiliza un modelo entrenado por t\u00e9cnicas de machine learning basadas en el trabajo de investigaci\u00f3n de Deep Speech de Baidu. El proyecto DeepSpeech utiliza TensorFlow de Google para facilitar la implementaci\u00f3n. Se distribuye bajo la licencia gratuita MPL 2.0.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter wp-image-25535 size-full\" src=\"https:\/\/www.mancomun.gal\/wp-content\/uploads\/2020\/11\/CV-Dataset-static-graphic-2x-1200x770.jpg\" alt=\"\" width=\"485\" height=\"600\" \/><\/p>\n<p><strong>Novedades destacadas:<\/strong><br \/>\n&#8211; Esta versi\u00f3n no es completamente compatible con versiones anteriores, es una versi\u00f3n de correcci\u00f3n de errores y mantiene la compatibilidad con los modelos 0.9.0.<br \/>\n&#8211; Nuevos modelos ac\u00fasticos experimentales de chino mandar\u00edn entrenados en un corpus interno compuesto de 2000 h de discurso le\u00eddo.<br \/>\n&#8211; Los archivos de modelo con la extensi\u00f3n \u00ab.pbmm\u00bb est\u00e1n mapeados en la memoria y por tanto son eficientes y r\u00e1pidos de cargar. Los archivos de modelo con la extensi\u00f3n \u00ab.tflite\u00bb son convertidos para usar TensorFlow Lite y son m\u00e1s adecuados para entornos con recursos limitados.<br \/>\n&#8211; Los modelos ac\u00fasticos fueron entrenados en ingl\u00e9s americano con un aumento de ruido sint\u00e9tico y el modelo .pbmm alcanza una tasa de error de palabras del 7,06% en el corpus de pruebas limpias de LibriSpeech.<br \/>\n&#8211; El modelo actualmente se desempe\u00f1a mejor en ambientes de bajo ruido con grabaciones claras y tiene un rumbo hacia los acentos masculinos de los Estados Unidos.<\/p>\n<p><a href=\"https:\/\/github.com\/mozilla\/DeepSpeech\/releases\/tag\/v0.9.1\">M\u00e1s informaci\u00f3n en la nota oficial de lanzamiento<\/a><\/p>\n","protected":false},"featured_media":0,"template":"","class_list":["post-59545","noticia_hemeroteca","type-noticia_hemeroteca","status-publish","hentry"],"acf":[],"_links":{"self":[{"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/noticia_hemeroteca\/59545","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/noticia_hemeroteca"}],"about":[{"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/types\/noticia_hemeroteca"}],"wp:attachment":[{"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/media?parent=59545"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}