Microsoft dio un paso importante en la evolución de su asistente de inteligencia artificial, Copilot, pues la compañía introdujo características que permiten interacciones más naturales y fluidas con los usuarios.
Mustafa Suleyman, director ejecutivo de Microsoft AI, explicó que la incorporación de voz y la capacidad de entender emociones transformará la manera en que las personas interactúan con las máquinas.
“Estas máquinas ahora entienden nuestra voz. Pueden transcribir perfectamente lo que hemos dicho. Pueden reaccionar a nuestra entonación. Está en un nivel tan bueno que puedes tener una conversación fluida, relajada e informal, donde capta la inteligencia emocional de tu discurso y se siente como si estuvieras teniendo una conversación normal”, destacó el también cofundador de Google DeepMind.
El asistente ahora puede captar la entonación y responder de manera coherente a las conversaciones, brindando una experiencia similar a la de interactuar con una persona.
Nuevas funciones avanzadas de Copilot
Además de las interacciones por voz, Microsoft lanzó la función Copilot Vision, que permite al asistente analizar el contenido visual y textual de las páginas web.
Esta herramienta puede ayudar a los usuarios en tareas cotidianas, como organizar viajes o elegir películas, al ofrecer recomendaciones basadas en preferencias y opiniones disponibles en línea.
Aunque esta función aún está en desarrollo y no está disponible en todos los sitios web, Microsoft espera que en el futuro se amplíen sus capacidades.
Otro lanzamiento destacado es Copilot Daily, que proporciona resúmenes en audio de noticias y pronósticos del tiempo. Este formato, similar a un pódcast, permitirá a los usuarios mantenerse informados de manera rápida y conveniente.
A medida que Microsoft continúa desarrollando estas funciones, la compañía planea expandir la disponibilidad de Copilot Voice a más idiomas y regiones en el futuro, reflejando su compromiso con la creación de una experiencia de usuario más enriquecedora y personalizada.