Según los informes, el muy publicitado proyecto de hardware de inteligencia artificial entre Sam Altman y el diseñador Jony Ive se enfrenta a un retraso significativo y ahora se espera su lanzamiento después de 2026, según Windows Central.
El compañero de voz sin pantalla y siempre activo estaba destinado a redefinir la interacción entre humanos y la IA, pero las preocupaciones por la privacidad, las demandas informáticas e incluso cómo darle una “personalidad” han ralentizado el desarrollo.
Detrás de escena, las ambiciones de OpenAI de hacer que la voz se sienta verdaderamente humana chocan con limitaciones técnicas y éticas.
El dispositivo, que se rumorea que fusiona la calidez del diseño de la era Apple de Jony Ive con la destreza conversacional de OpenAI, se ha topado con la misma tensión que otros han encontrado en este espacio.
Por ejemplo, la versión beta de Claude Voice de Anthropic ya está probando un territorio similar, experimentando con empatía en el tono pero aún luchando por evitar respuestas extrañas.
Sam Altman ha dicho que quiere que el asistente “se sienta como una presencia, no como una herramienta”, pero eso es complicado cuando las voces de la IA son cada vez más difíciles de distinguir de las humanas.
Un informe reciente de Live Science encontró que las personas identificaron erróneamente voces clonadas en el 58% de los ensayos, esencialmente al lanzar una moneda al aire.
Imagínese cómo eso complica la privacidad de un dispositivo diseñado para vivir en su hogar, escuchando constantemente.
Mientras OpenAI resuelve los desafíos informáticos y de personajes, otros gigantes tecnológicos están avanzando.
Los últimos modelos Echo de Amazon acaban de lanzarse con nuevas voces adaptativas de IA que cambian de tono según el estado de ánimo del usuario.
Mientras tanto, el equipo DeepMind de Google está impulsando WaveFit 2, un modelo de voz de próxima generación que puede clonar acentos con entonación y ritmo exactos. El listón del realismo sigue aumentando, al igual que lo que está en juego.
Personalmente, creo que este retraso podría ser una bendición disfrazada. Ya hemos visto lo que sucede cuando la tecnología de voz se lanza a medias: cambios de tono incómodos, percances en la privacidad, el temor existencial ocasional cuando su asistente comienza a sonar demasiado sensible.
Si OpenAI realmente quiere crear un compañero, no simplemente otro cilindro parlante, primero deberá resolver el rompecabezas de la empatía. No puedes fingir calidez para siempre.
Hasta entonces, este esquivo dispositivo de IA sigue siendo un fantasma en el laboratorio de diseño: un susurro en la era del habla sintética, esperando encontrar su voz.