Hace literalmente solo dos semanas, El Fary y Núñez Feijóo circularon por los chats de España hablando un inglés admirable con su propia voz. Ahora, hace un par de días, Spotify ha anunciado que episodios completos de podcasts en inglés van a estar disponibles doblados en español, francés, alemán. De momento solo hay unos pocos ejemplos de prueba. El escritor israelí Yuval Noah Harari habla un español latino extremadamente fluido. De repente ya hay, para los interesados, una entrevista de 3 horas en español con Harari. Es una prueba que irá a más. Hay un detalle curioso: los capítulos traducidos al español son entre 10 y 30 minutos más largos que el original. Quizá sea por la inteligencia artificial (IA), quizá por la estructura de la lengua.
Por: El País
La novedad de Spotify ya merecía que nos centráramos en el impacto que tendrá en nuestro futuro lingüístico y en el consumo cultural. Pero en los últimos días Amazon, Meta, OpenAI (y pronto Google) también han anunciado o sugerido cambios extraordinarios en cómo viviremos.
Podcasters – what if I told you could offer your pod to any listener around the world, in their own local language but still keep it in your own voice? That’s the pilot we’re launching @Spotify!
It’s called Voice Translation and using AI, translates podcasts episodes into… pic.twitter.com/kYq0bgxJYq
— Daniel Ek (@eldsjal) September 25, 2023
La IA venía a por nuestros trabajos, pero acabará cambiando parte de nuestras vidas. Estos son solo algunos anuncios de estos días (algunos no son novedades absolutas, sino mejoras): se podrá charlar con ChatGPT, que no será solo un avance respecto a Alexa o Siri, sino que hay quien lo ha probado como terapia (¿o amiga?) para descargar emociones después de un día de trabajo. En el chat de WhatsApp del colegio podrá invocarse la inteligencia artificial para que resuma cientos de mensajes o pedirle un sticker de una bicicleta con las ruedas en forma de corazón y una marmota al manillar para nuestra pareja. Podrá hacerse una foto a las sumas del libro de mates y dará los resultados. Podrán retocarse fotos en el móvil con un nivel hasta ahora reservado a los expertos en Photoshop, y será tan sencillo que lo difícil será encontrarse con fotos originales. También explicará memes o secuencias de imágenes que no son evidentes a ojos humanos. Dentro de WhatsApp podrá tenerse una conversación con preguntas que hasta ahora se las hacíamos a Google: para ello, Meta ha creado incluso chats con famosos que ponen su cara a las IA expertas en recetas, videojuegos, deportes o bromas; parece hasta cursi para esta época.
Son solo algunos ejemplos improvisados. Pero hay más. Meta anunció unas nuevas RayBan con cámaras que podrán mirar un grifo averiado y sugerir cómo repararlo con un vídeo que veremos en las propias gafas. Y, por supuesto, podremos pasear por El Cairo o Shanghai, mirar los carteles de las calles o las cartas de restaurantes y leerlos en español en las gafas. No quedará tanto ya para que esas mismas gafas traduzcan lo que oigan en chino al español en nuestras orejas. Esta semana se ha sabido también que OpenAI está hablando con Jony Ive, célebre colaborador de Steve Jobs en Apple y hoy fuera de la compañía, para crear “el iPhone de la IA”. Y es que el teléfono móvil quizá ya no es el dispositivo con el tamaño y formato más conveniente para este arsenal de opciones nuevas.
Puedes leer la nota completa en El País