15.8 C
Córdoba
lunes 6 de mayo de 2024
spot_img
InicioTecnologíaPor qué los chatbots se están poniendo más inteligentes.

Por qué los chatbots se están poniendo más inteligentes.

Los asistentes de atención al cliente se están volviendo menos robóticos y están en proceso de mejorar de manera significativa durante los próximos años.

Un aparato doméstico tiene una falla y necesitas ayuda. O tienes una duda sobre la logística de un viaje o la cobertura de tu seguro. Te metes en el sitio web de la compañía y un ser digital brota en una pequeña ventana de texto. “¿Cómo puedo ayudarte?”, pregunta. O llamas a un número de servicio a clientes y un autómata alegre formula la misma pregunta.

El Times  Una selección semanal de historias en español que no encontrarás en ningún otro sitio, con eñes y acentos. 

Te armas de valentía y decides continuar, ya sea que teclees o le digas de viva voz al chatbot (o bot conversacional o de charla) lo que deseas. Sus respuestas programadas no cubren tus necesidades. En realidad, no te entiende. Después de varios minutos de un intercambio lingüístico incómodo, te desesperas y te rindes.

Credit…Ilustración por Juan Carlos Pagan. Animación por Xiaoyu Xue — Sunday Afternoon.

Esa experiencia es tan común que los expertos en atención al cliente tienen un término para ello: la espiral del sufrimiento.

Pero hay buenas noticias. Los chatbots de atención al cliente se están volviendo menos robóticos. Además, según investigadores, analistas y ejecutivos de la industria, están en proceso de mejorar de manera significativa durante los próximos años, debido a los avances en inteligencia artificial. Serán más inteligentes, más conversacionales, más parecidos a los humanos y, lo más importante, podrán brindar una mejor atención.

“Incluso ahora, hay ocasiones en las que casi ni te das cuenta de que no es un humano”, afirmó Bern Elliot, un analista en Gartner, una firma de investigación tecnológica. “No son tan buenos como quisieras que fueran, pero avanzan en esa dirección. Y la innovación está ocurriendo a un ritmo veloz”.

En los proyectos de investigación, la inteligencia artificial ha logrado hazañas asombrosas respecto a la comprensión y la producción de lenguaje, conocidas como procesamiento del lenguaje natural. El software de inteligencia artificial puede escribir historias y poemas, responder a preguntas de trivia, traducir decenas de idiomas e incluso ha creado programas de computadora. Estos proyectos habitualmente tienen un poder computacional ilimitado y son capaces de aprovechar volúmenes ilimitados de datos ya disponibles en toda la web.

El software de los asistentes digitales para consumidores, como Siri de Apple y Alexa de Amazon, también deambula por la web abierta para responder a preguntas.

No obstante, para la mayoría de las compañías, todo está más restringido. La información de sus clientes, necesaria para responder preguntas, no se encuentra en la web, sino al interior de los centros de datos corporativos. En comparación con los gigantes de internet, tienen menos datos, que han ido acumulando a través de los años y están almacenados en formatos diferentes y en diversos lugares. (Los algoritmos de inteligencia artificial batallan si no disponen de una gran cantidad de datos). Es más una excavación geológica que un escaneo en internet.

La solución de ese problema se ha convertido en un mercado emergente y cada vez más saturado, llamado inteligencia artificial conversacional. Las grandes corporaciones tecnológicas como Microsoft, Amazon, Google y Oracle tienen propuestas, al igual que compañías más pequeñas y empresas emergentes como Kore.ai, Omilia, Rasa, Senseforth.ai, Verint y Yellow.ai.

Los proveedores suministran herramientas de software que las compañías después personalizan y al que le incorporan sus propios datos.

Este año, el mercado de negocios para los asistentes virtuales —también conocidos como chatbots— crecerá un 15 por ciento para llegar a más de 7000 millones de dólares, según un pronóstico de Gartner. Algunos de estos bots están diseñados para asistir a los empleados, pero la mayoría se destinan a atención al cliente.

Ninguna compañía ha recorrido un camino más aleccionador e instructivo para su tecnología de chatbots que IBM. Después de que su supercomputadora Watson triunfó y venció a campeones humanos en el programa televisivo de concursos Jeopardy! hace una década, IBM decidió aplicar el procesamiento del lenguaje natural de Watson a otros campos. Uno de los primeros enfoques fue el diagnóstico y el tratamiento del cáncer e IBM calificó el área del cuidado de la salud como su “objetivo utópico”.

En enero, tras batallar durante varios años, IBM anunció que vendería su división de negocio de Salud Watson a una firma de capital privado. Algunos días después, Gartner calificó al Asistente Watson de IBM como un “líder” en inteligencia artificial conversacional para negocios. Watson ha pasado de ser una quimera para tratar el cáncer a chatbots de atención al cliente.

En la actualidad, el Asistente Watson es un caso de éxito para IBM entre sus productos restantes de inteligencia artificial, los cuales incluyen software para explorar datos y automatizar tareas de negocio. El Asistente Watson ha evolucionado con el paso de los años, ya que ha sido refinado y mejorado. IBM aprendió bastante pronto que un enfoque de pregunta-respuesta rígido, aunque resultaba ideal para un programa de concursos, era demasiado limitado e inflexible para una situación de atención a clientes.

El punto de partida para la mejora, dijo Soffer, ha sido una comprensión más profunda de lo que ocurre en los centros de llamadas, al trabajar con otras empresas para extraer y analizar muchos miles de charlas entre clientes y agentes humanos. En los diálogos, por ejemplo, dijo que se rastreó qué preguntas y qué seguimientos llevaban a resolver el problema de un cliente, y cuáles eran las señales reveladoras de “conversaciones que terminaban mal”.

Los primeros chatbots se programaban con un conjunto predeterminado de preguntas y respuestas. Pero eso llevaba a callejones sin salida si el software no entendía las preguntas. Hoy en día, dijo Soffer, gran parte de la innovación reciente radica en “enseñar al sistema a entender y descifrar la intención de una persona”.

Image

Credit…Ilustración por Juan Carlos Pagan. Animación por Xiaoyu Xue — Sunday Afternoon. 

Crear un software que pueda determinar la esencia de la solicitud de una persona es un gran desafío. “Asumes que solo hay cierta cantidad de maneras en la que una persona puede decir algo, pero descubres que eso en realidad no es verdad”, afirmó Bob Beatty, director de experiencia en la división de Servicios Financieros de General Motors (GM).

Al principio, el departamento de Servicios Financieros de GM tenía un chatbot rudimentario que simplemente pronunciaba respuestas programadas conforme a una lista de preguntas. Sin embargo, comenzó a trabajar con IBM en 2019 para desarrollar un chatbot interactivo. Los Servicios Financieros de GM tenían un plan de dos años para desarrollar e implementar su chatbot, impulsado por el Asistente Watson.

Los confinamientos por la pandemia de coronavirus en marzo de 2020 supusieron una aceleración sorpresiva de ese calendario. Beatty envió a trabajar desde casa a cerca de 700 agentes que laboraban en los centros de atención telefónica de la compañía en Arlington, Texas, y Chandler, Arizona. Mientras se apresuraban a equipar a los agentes de atención telefónica para el trabajo remoto, Servicios Financieros de GM redirigió a los clientes hacia su incipiente chatbot en lugar de hacia el teléfono a través de correos electrónicos y un aviso en su sitio web.

El chatbot enfrentó problemas al principio. Sin embargo, los desarrolladores de Servicios Financieros de GM y los ingenieros de IBM programaron en los bots la capacidad de responder a cada vez más preguntas —sin importar cómo se formaban las frases—, como “¿Cuál es mi monto de pago?” o “¿Recibieron mi pago de marzo?”.

No obstante, incluso las preguntas sencillas requieren respuestas personalizadas que el software debe buscar en la base de datos de una compañía. Cuando comenzó, el chatbot llamado Nanci (su nombre es parte de la palabra “fiNANCIeros”) resolvía menos del diez por ciento de las peticiones de los clientes. Sin embargo, dos meses después, la tasa de éxito se elevó al 50 por ciento (y ahora alcanzó el 60 por ciento), según Servicios Financieros de GM.

Hasta ahora, Nanci ha sido un chatbot solo de texto, pero la empresa está añadiendo una versión de voz. Y está trabajando con IBM para automatizar tareas más complejas, como la modificación de las fechas de pago y vencimiento.

El objetivo principal de la tecnología chatbot, según Beatty, es mejorar la experiencia del cliente y fomentar la fidelidad a la marca de su empresa matriz, General Motors. Pero la consulta media en un centro de llamadas dura seis minutos y cuesta 16 dólares, según las estimaciones del sector. En Servicios Financieros de GM, muchas de las preguntas de los clientes se responden ahora con el chatbot. En enero, Beatty estimó que la empresa ahorró un total de 935.000 dólares.

Hasta el momento, el personal del centro de atención telefónica no ha sido recortado. Beatty aseguró que la tecnología permitirá a los agentes pasar más tiempo en problemas difíciles (por ejemplo, hablar con un cliente que perdió su trabajo y necesita un préstamo o extender el arrendamiento de su vehículo).

“Eso es algo que un miembro de equipo capacitado y empático puede hacer de una manera que la inteligencia artificial no puede lograrlo”, señaló.

En el caso de la mayoría de los negocios, un obstáculo para lograr un avance con la inteligencia artificial es no tener suficientes datos para entrenarla. El software moderno de inteligencia artificial requiere grandes cantidades de datos que se debe examinar de forma detallada con el fin de mejorar su precisión (es decir, para que aprenda a su manera). Cierta tecnología nueva de inteligencia artificial podría superar ese obstáculo generando en automático más datos para entrenamiento o para aprender de menores cantidades de datos.

Anthem, una de las principales aseguradoras de salud, cubre a más de 45 millones de personas, tiene bastantes datos y además cuenta con un personal de tecnología de algunos miles de empleados que incluyen a científicos de datos, expertos en inteligencia artificial y desarrolladores de aplicaciones. El Asistente Watson de IBM es una de las muchas herramientas que Anthem usa.

Anthem muestra lo que está ocurriendo en la actualidad con los chatbots que operan con ayuda de la inteligencia artificial, pero también lo que sería posible dentro de algunos años. Su tecnología actual, incluyendo su aplicación móvil, se llama Sydney y, según la compañía, es 90 por ciento precisa al responder a preguntas sobre copagos (“Me someteré a una operación de remplazo de rodilla. ¿Cuánto cubre mi seguro?”) y medicamentos (“¿Mi receta tiene alguna interacción con otros fármacos?”).

No obstante, la meta a largo plazo, indicó Rajeev Ronanki, presidente de plataformas digitales en Anthem, es utilizar la inteligencia artificial para examinar con cuidado todas sus solicitudes y datos clínicos a fin de brindar asesoría de salud personalizada. Y otros tipos de datos: Sydney puede incluso tomar en cuenta la información de los monitores de acondicionamiento físico.

Por ejemplo, existen más de 380 opciones de cuidados y tratamientos para personas con diabetes, señaló Ronanki. ¿Cuáles han sido los regímenes de dieta, ejercicio y medicación que han producido los mejores resultados para pacientes similares (por edad, sexo, otras enfermedades e historial médico)?

Esa información podría ser proporcionada como recomendaciones de tratamiento a un médico y como consejos de salud a un individuo a través de un chatbot cada vez más inteligente y conversacional.

Ronanki dijo que la inteligencia artificial puede “ayudarnos a pasar de cuidado reactivo de enfermos a una atención de salud proactiva, predictiva y personalizada”.

Compartir en:

ARTÍCULOS RELACIONADOS
- Advertisment -spot_img

Post más vistos