Call Center Atención Telefónica - Guía De Inicio Consejos Y Ventajas 2021

Aus Penexchange Wiki
Wechseln zu: Navigation, Suche

Como las diferencias entre Sabiduría Artificial, Machine Learning y Deep Learning. O las que existen entre NLP, NLU y NLG. Si desea tratar alguna duda acerca de opinion app para telemarketing contactos, debería citarse con nosotros en este sitio de internet. Hoy toca charlar de ASR.

En este último charlábamos del potencial de estas técnicas en los contact centers, detallando los entornos de herramientas y técnicas que acompañan el NLP. En estos entornos se ubican los sistemas de Speech Technologies, que son 2:

1. Sistemas de reconocimiento del charla (ASR) 2. Sistemas de síntesis del charla (Text-To-Speech) Estos sistemas hacen de plataforma de trabajo entre la gente y los sistemas NLP. Estas tecnologías son el canal que permite la comunicación entre humanos y máquinas. Para el caso del ASR permite la comunicación de un emisor humano y un receptor máquina permitiendo que módulos NLP reciban una transcripción de artículo. Y los sistemas Text-To-Speech establecen una comunicación donde la máquina es el emisor y el humano el receptor convirtiendo el texto en discurso hablado.

Hoy vamos a reforzar en los sistemas de reconocimiento del charla (ASR - Automatic Speech Recognition). Estos sistemas están totalmente integrados en nuestro día a día. Como tecnología, está validada ya que son sistemas en los que se apoyan los ayudantes de tu operador (de Apple, Google plus o Amazon) o aplicaciones de mensajería (para dictados, por poner un ejemplo).

¿De qué manera marchan los sistemas de ASR? En corto: el audio que entra se convierte en texto. Para transformarlo, entre medias, el audio tiene que transformarse a un archivo que logre ser leído por la máquina. Esto quiere decir que la herramienta trabaja con modelos acústicos y del lenguaje.

Los modelos acústicos poseen una representación estadística de un sonido o fonema. Se crea utilizando muchos datos acústicos. El modelo de lenguaje representa estadísticamente la posibilidad en las que podrían acontecer o suceder las palabras. Esto es, estos modelos estiman la posibilidad de que aparezcan algunos fonemas que significan algunas expresiones.

El objetivo del modelo acústico es crear un conjunto de posibilidades que representen todos los sonidos del lenguaje que se tienen que admitir. Para crear los modelos acústicos se tiene que determinar antes qué sonidos se desean representar o qué modelo probabilístico se usará.

Esos modelos determinan la relación que hay entre las señales de audio y los fonemas del lenguaje. Hasta entonces, el modelo concluye qué sonidos encajan con qué palabras y frases.

En pasos:
1. Le charlas a un software. 3. El fichero es limpiado por el software de ruidos. 4. El fichero de divide en fonemas. 2. El dispositivo crea archivos de texto. 5. El sistema ASR, por posibilidad fundamentada en el modelo de lenguaje, une los fonemas y transcribe el audio original a texto. Y responder con sentido. Ahora que lo ha entendido, el sistema ASR puede responder provocando una transcripción entendiendo tu contexto. Eso es lo primordial, y mucho más aplicado al ambiente de análisis en el que una importante empresa o contact center. Convertir datos no estructurados en información estructurada, para analizarla, es diferencial para el negocio.

En este sentido, asimismo es importante destacar que un sistema ASR es capaz de, con la suite de tecnología correcta, interpretar jergas, usos del lenguaje particulares o acentos. Este es un enfoque con el que hoy día trabajamos en Upbe, porque entendemos que hay mucha sabiduría de negocio en interpretar apropiadamente esta información.

¿Qué aplicaciones tienen los sistemas de reconocimiento del charla? Las apps de los sistemas ASR (Automatic Speech Recognition) son muy diversas. Como afirmábamos al principio, es una tecnología absolutamente dentro en nuestro día a día. Aquí puedes observar varios ejemplos:

- Telefonía: sistemas de dictado, activación de interfaces personales, transcripciones de mensajes, buscas por tu operador o traducciones automáticas son algo común basado en sistemas de reconocimiento del charla. - Automoción: cualquier instrucción de tu operador que un vehículo es capaz de comprender y gestionar, como realizar llamadas, poner la radio o aun abrir una aplicación específica. Aquí están tanto Alexa como Google+ Home. O cualquier instrucción para apagar o prender luces o regular el termostato. - Domótica: todo tipo de hardware que recibe instrucciones y tiene una reacción a órdenes específicas. - Aplicaciones en el campo militar. Para poder tener autonomía Tu operador independencia durante el vuelo, existe mucha tecnología basada en sistemas ASR para mudar frecuencias de transmisión, iniciar métodos de coche-vuelo o desplegar parametros para establecer coordenadas de vuelo. - Audiovisual: es común emplear tecnologías de Speech Recognition para subtitular programas, tanto en directo como on-demand. - Ámbito judicial: hay iniciativas bien interesantes para mejorar la transcripción de información tan precisa en el sector o para búsqueda de archivos. - Y considerablemente más, como sistemas de IVR, robótica, aplicacions en la industria del vídeo juego, traducciones automáticas, etc. - Call Center: centrado en el análisis de tu operador de cliente, en la automatización de controles de calidad y compliance, o en la optimización de efectividad en campañas de venta. ¿Por qué son tan relevantes los sistemas de ASR? Viendo este listado, que puede ampliarse mucho más, de las aplicaciones de los sistemas ASR, se comprende su importancia. Toda esta información, la que podemos pasar de un audio a texto, es muy habitual y compleja. Tanto que sus apps, en el caso del contact center, suponen revolucionar por completo una industria o ámbito.

Semeja simple transcribir un audio dictado, pero esto por lo general no sucede en las llamadas de tu call center. Hay muchas interferencias que los sistemas ASR tienen la capacidad de dividir y investigar. Hay contextos de mucha complejidad, con grabaciones de audio muy comprimidas, con solapamientos de voces o ruidos de fondo que distorsionan lo que hay en los audios.

Además de esto, en la mayoría de los casos, los interlocutores hablan a diferentes velocidades, con diversidad de conmuevas Tu operador incluso de acentos o jerga. Esto es lo que provoca que el proceso sea complejo y necesite la tecnología a su predisposición.

¿De qué forma entendemos que el sistema ASR funciona? Existen dos métricas para evaluar si nuestro sistema marcha apropiadamente:

- Word fallo rate, que mide el porcentaje de caracteres equivocados. - Sentence fallo rate, que mide el porcentaje de oraciones intervenidas en un texto. Por lo general, la mucho más válida o usada es el WER (word fallo rate). Lo realiza analizando el número se expresiones borradas, sustituidas o insertadas que debemos intervenir para conseguir la frase real transcrita. ¿Cómo se calcula? Para calcular el WER debemos calcular el número de expresiones sustituidas, insertadas o eliminadas entre la versión adecuada del artículo y la versión que sale del sistema ASR tal cual. En este caso hicimos la prueba con la funcionalidad de dictado de una marca estándar de telefonía móvil:

En un ejemplo en el que las palabras subrayadas en amarillo están mal (y las amarillas son la opción adecuada), el WER es del 9,4%.