Episode Transcript
[00:00:00] Speaker A: ¿Hoy en Tecnocasters, Juan Guevara desde Taipei nos trae toda la información de Computex 2025.
Sabe usted qué son los lentes Ray Ban Meta? Le explicamos. ¿Y también por qué podrían volverse más peligrosos de lo que ya son?
¿Qué es la cúpula dorada que propone Donald Trump? Le explicamos. Y todo lo que sucedió en el Google i O. Yo soy Montse Simó y a nombre de mi compañero Juan Guevara le doy la bienvenida a Tecnocast.
[00:00:31] Speaker B: Desde los estudios de Now Media Networks y Heraldo USA en la ciudad de Houston, les presentamos el mejor programa de tecnología en español conducido por Juan Guevara y Monse Simó. Esto es Tecnocasters, tu tecnología para tu vida diaria.
[00:00:51] Speaker A: Bienvenidos sean todos ustedes a Tecnocasters. Hoy se sábado, hace muchísimo calor en la ciudad de México, es lo que estábamos platicando antes de comenzar. Qué bárbaro, qué bruto, cómo hace calor. Y si usted extraña la voz de mi compañero Juan Guevara, que extrañamos mucho aquí, que yo extraño personalmente, bueno, pues es porque como nos había comentado el programa pasado, él está ahorita ya está volando de regreso de Taipei, pero se fue hasta allá porque se llevó a cabo Computex 2025 y pues nos tenía que traer toda la información desde allá. Un poco más adelante en el programa nos mandó información muy importante que estaremos metiendo por aquí para que ustedes puedan escuchar su voz, para que no lo extrañen tanto y para que sepan qué es lo que se encontró él del otro lado del mundo. Porque déjeme decirles, ya nos contará él la semana que entra más a profundidad, pero se aventó un vuelo de 19 h de Houston a San Francisco y luego de San Francisco a Taipei y son vuelos pesados. Además, la semana pasada Juan nos dijo que él no tiene dependencia a su celular, eso nos dijo, pero cuando llegó allá me dijo no tuve Internet todo el vuelo. ¿Y yo ah, verdad que se siente?
Porque si recuerdan, la semana pasada yo estuve en Berlín en un evento de lanzamiento de Huawei y me tocó que el avión que me llevó, que fue de México a París, no tuviera Internet y me fui de día.
O sea, imagínese usted, yo despegué a las 10:00 a.m. ciudad de México y estuve 11 h, 10 h en el avión y no tuve Internet y fue durante un día laboral. Entonces estábamos comentando varios periodistas que íbamos ahí saludos a Padrino Texas, saludos a Mister Milésimo 10.º Tech, que por ahí andábamos chismeando y decíamos es que es todo un día laboral, es diferente que cuando vuelas por la noche y no tienes como tantos pendientes. Entonces cuando aterrizamos y activamos nuestros nuestros datos y todo y empezaron a llover los WhatsApp, los WhatsApp de todo el día laboral y que teníamos que contestar, pero aquí en México y eran las 11:00 p.m. entonces no podíamos contestar.
Fue una situación simpática. Pero bueno, a lo que voy es a que mi querido Juan dice que no tiene dependencia al celular, yo creo que tiene más de la que quiere aceptar con nosotros. Pero bueno, vámonos a la primera noticia del día que les quiero platicar. Si el día jueves 22 de mayo de este año ustedes tuvieron algún problema con la red X, conocida antes como Twitter, pues no fueron ustedes, sino que fue que X experimentó una caída global que afectó a millones de usuarios en todo el mundo. Hay una página que yo les quiero recomendar mucho que se llama Down Detector, cuando no sepan si son ustedes o su celular o su ex que no les contesta, métanse a Down Detector y ahí pueden ver qué es lo que está pasando. Entonces como si usted tiene esta duda, métase a Down Detector porque ahí puede encontrar qué aplicaciones están fallando, en qué parte del mundo y de qué hora a qué hora.
Refiriéndonos a esta red X, los principales problemas que se registraron incluyeron dificultades para poder acceder al servidor, que quiere decir que había fallas en la aplicación para el celular y que había muchas cargas para muchos retrasos, perdón, muchas demoras para poder cargar el contenido de la plataforma. Entonces esto pasó en varias regiones del mundo. Los que se vieron afectados fue algunas regiones de Europa, EE.UU. y América Latina que pasaba esto cuando trataban de meterse a x, la actividad era muy baja, había muy pocas publicaciones y se tardaba mucho en cargar y de repente se cerraba o permanecía en blanco o en negro, dependiendo si usted tiene su celular en modo oscuro o modo nocturno como lo tengo yo todo el tiempo.
Tardaron bastante tiempo en dar un comunicado de a qué se debían las causas de la interrupción de servicio. Hubo mucha incertidumbre entre los usuarios, pero pues al final dijeron que fue una carga muy grande de accesos a x, lo que se me hace raro porque no quiere decir esto que que no están capacitados para eso o estaban haciendo alguna especie de upgrade o algo, porque es muy extraño que falle de esta manera una plataforma como SX que tiene un gran flujo de usuarios.
Este incidente se suma a una serie de fallas técnicas que x ha experimentado durante los últimos meses. En marzo, hace un par de meses apenas, sufrió una caída global que afectó a millones de usuarios en todo el mundo. Ante estas interrupciones, perdón, muchos usuarios están buscando alternativas a X.
Saben ustedes que yo no soy muy fanática de Threads, la red social de meta, para empezar porque es de meta y para seguir porque cuando se lanzó esta red social no nos advirtieron cómo iba a ser la situación con Instagram, de que todos la bajamos y dijimos vamos a ver cómo hay, no hay tanto flujo de gente, no le está yendo tan bien y además para borrar tu cuenta de Threads tienes que borrar tu cuenta de Instagram, están ligadas. Entonces que hagan este tipo como de trampas o de malas jugadas a mí no me encanta. Pero bueno, mucha gente se está yendo, se fue a Threads ante esta caída de X o también sabemos que está Blue Sky, que lo hablamos aquí en Tecnocasters hace varios programas, que es una de las opciones que hay. Si lo que está escuchando es usted, por ahí es un perro que se está colando en la grabación, pero bueno, no está usted alucinando, no es el perro del vecino, es el perro de Montse. Pero bueno, si se acuerda usted, hace algunas semanas también platicamos de Blue Sky, de hecho yo activé mi cuenta aquí en vivo en Tecnocasters para platicarles un poquito cómo era esta red social. Pero bueno, en resumen, la caída del 22 de mayo lo que hizo fue dejar a millones de usuarios sin acceso a la plataforma, generó mucha frustración, hubo mucha incertidumbre, pero no pasó a más. X la verdad es que es una plataforma que no, que no provoca que haya un desequilibrio, que haya una falta de información, no es como si se cayeran otras plataformas que ha sucedido que son mucho más importantes, como cuando se cayó zoom, por ejemplo, que muchas personas dejaron de poder tener acceso a juntas de trabajo, a cosas que son como de mayor importancia que simplemente meterse uno a x a ver qué está pasando en el momento. Para eso hay muchas otras páginas, pero bueno, si a usted le afectó la caída de x, lo invito a que nos escriba a nuestras redes sociales y nos platique qué pasó el 22 de mayo en su cuenta 510.º cuando usted trató de acceder y no lo logró. Y ahora vamos con la siguiente información que a ver, la semana pasada les íbamos a platicar sobre los lentes y los lentes inteligentes de Ray Ban meta.
Ya salieron varias generaciones de estos lentes, entonces quiero enseñarles los míos que tengo aquí para los que nos están escuchando en radio, pueden después buscar en YouTube el vídeo y si no se los voy a ir describiendo. Esta fue la primera generación de Ray Ban, yo aquí le pegué, esta estampa fue mía, el estuche funciona como cargador, tiene aquí atrás entrada USB C, que es como se carga. Aquí adentro están los lentes y entonces aquí va a ver usted que de este lado tiene estos como pequeños imanes y de este lado, ah no, solamente es de este lado que se ponen aquí en el estuche y entonces se pueden cargar los lentes cuando están conectados a la corriente. Los lentes son muy sencillos, aquí pueden ver que tienen las dos cámaras, de hecho cuando yo compré estos eran los facebook Bray Ban facebook porque fue antes de meta. Aquí están las dos cámaras y aquí por dentro tenemos el botón para encenderlos y apagarlos. Cuando están encendidos se les pone aquí un foquito y cuando está uno grabando se pone el foquito en rojo. Es de este lado, discúlpeme, es del lado superior izquierdo de los lentes se pone el foquito. ¿Esto por qué? Bueno, pues es por seguridad, se supone que se prende el foquito para que la gente sepa que uno los está grabando o que está. Que está.
Pues sí, eso, que los está grabando.
Pero la segunda generación o la tercera de estos lentes ya podía uno streamear en vivo. Ah, se me olvidó decirles también en la parte de acá tenemos como unas pequeñas bocinas, aquí están a través de este pequeño hoyito, creo que, creo que apenas si se alcanza a ver igual de este lado y entonces podemos escuchar, puedes escuchar música, puedes contestar llamadas telefónicas y les decía que los de unas generaciones, no sé si fue la segunda o la tercera, que ya se convirtieron en Ray Ban Meta, ya podías streamear tú en tiempo real. Eso también lo hablamos aquí en tecnocasters, que Juan decía Imagínense que uno se mete al vapor con los lentes y empieza a streamear en tiempo real. Estos lentes, que bueno, los hizo Ray Ban en colaboración con Meta, tienen como les decía, la cámara, el micrófono, los altavoces y permiten que los usuarios graben o tomen fotos o realicen llamadas o incluso yo le diga oye Siri, oye Meta, porque tienen meta ahí, los más nuevos sobre todo.
Y estos también cuentan con una función de traducción en tiempo real y pueden transmitir en vivo a plataformas como Instagram. Lo que les decía que pueden streamear y se supone que ahora Meta está desarrollando una nueva función para la siguiente versión de estos lentes o no sé si llegue a los que ya los tenemos con una actualización que se va a llamar Super Sensing. Esta tecnología lo que va a hacer es que con inteligencia artificial va uno a poder a través de los lentes identificar rostros y asociarlos con información personal de la persona que tengamos enfrente. Haga de cuenta que se para Juan en frente de mí, los lentes lo van a reconocer con inteligencia artificial y me va a aparecer su nombre, la ocupación, a qué se dedica y su ubicación.
Esta función todavía no está disponible, pero se espera que la pueda activar manualmente el usuario y que pueda funcionar durante varias horas en un futuro muy próximo.
A mí esto me suena como sacado ya de película de ciencia ficción, que claro que nos estamos aproximando cada vez más a ese momento, pero en un experimento que hicieron los estudiantes de la universidad de Harvard demostraron como estos lentes, los Ray Ban meta, pueden ser utilizados para identificar personas en la vía pública y obtener información personal sensible. Esto como les decía, con la cámara y con herramientas de reconocimiento facial. Entonces estos estudiantes con estas gafas pudieron acceder a datos como nombres, direcciones, redes sociales de desconocidos y saber sus ocupaciones. A esta práctica se le conoce como doxeo. ¿Y entonces pues obviamente nos hace preguntarnos sobre la seguridad y sobre la privacidad de los que vivimos en el planeta Tierra, no? Porque una persona puede tenerlo si tú ni siquiera te enteras. Yo cuando compré los míos, que estoy hablándoles de 2023, parece que no fue hace mucho, pero sí ya fue hace bastantito.
Yo los busqué, un compañero me había dicho que los había comprado él en EE.UU. yo tuve un viaje a la Unión Europea y fui a varias tiendas a tratar de comprarlos y me dijeron que estaban prohibidos en la Unión Europea por temas de privacidad.
Luego ya pasó el tiempo, la vida siguió, yo me los compré en las Vegas, en la Ciudad del Pecado, encontré estos lentes, que diría mi querido Juan Guevara si estuviera aquí presente sobre sobre esta coincidencia y ya salieron más versiones y ahora que pude estar en Berlín, un colega se compró la nueva versión, los que acaban de salir en Alemania, lo que quiere decir que ya no están prohibidos por la Unión Europea. Ya lo comprobamos, lo habíamos leído, pero bueno, ya lo comprobé yo de primera mano. Pero ante esto del Reconocimiento Fac, yo creo que Meta se va a enfrentar como a varias restricciones de varios países por el tema de la privacidad, sobre todo con los niños, porque no se ha dicho nada sobre si estas gafas van a tener algún tipo de protección para los menores, como se ofrece en Instagram cuando uno publica a manera de publicidad fotos de los menores, que podemos recibir una penalización o una restricción por parte de la plataforma. Entonces lo que sí sabemos que Meta ha comentado de las funciones que van a servir para cuidar la privacidad de los usuarios es lo que les decía, que los lentes tienen esta lucecita del lado superior izquierdo y hacen un sonido cuando están grabando, esto para que para que la gente que está cerca se entere, pero yo le cuento que tengo unos amigos por ahí que tienen estos lentes que le taparon esta lucecita a los lentes porque no les gustaba cuando de repente estaban en un concierto o en algún lugar o así y grababan que se prendiera la luz.
Eso, si usted tiene estos lentes, yo recomiendo que no lo haga porque es una manera de cuidar a los que están alrededor y que sepan que están grabando.
Claro que no todo el mundo piensa como yo. Otro de las medidas de privacidad que según ofrece Meta es el comando de voz, porque tienes que decir hola Meta y entonces se activa el sistema de inteligencia artificial y entonces la gente puede saber que lo estás grabando porque lo haces con la voz. Eso no me parece que sea algo de privacidad por parte de Meta, me parece que es una función que tiene que están aprovechando para decir sirve para cuidarte. Y la otra es que las grabaciones se van a subir manualmente a la nube, no se van a subir de manera inmediata. Insisto, esto me parece que es más una medida de meta para proteger que para que para proteger a los que estamos alrededor.
Algo que es importante mencionarles es que cuando arrancaron estos lentes, los vídeos que se podían grabar eran únicamente de 20 s, después ya se podían hacer grabaciones desde hasta 45 s, 1 min, no recuerdo, pero ahora con los que ya se puede streamear, pues ya es mucho más tiempo. Entonces, pues bueno, aunque estos son unos lentes que ofrecen innovaciones tecnológicas muy importantes, es fundamental que estemos conscientes, creo yo, de las implicaciones de privacidad que conlleva el uso de funciones como el reconocimiento facial en las manos de cualquier persona. No por nada el reconocimiento facial es algo que se usa en los gobiernos como una medida para identificar a las personas, como para cuidarlas. Entonces yo creo que hay que tener mucho cuidado con esto que nos está ofreciendo o que nos está proponiendo Mark Zuckerberg o que va a proponer a futuro porque lo están trabajando, pero están en ello. Entonces con esta información me gustaría mandarlos o compartirles lo que nos mandó mi querido Juan desde Taipei, desde el Computex, porque nos va a platicar sobre unas gafas que se encontró él allá en Computex. Entonces vamos a escuchar la siguiente información.
[00:14:52] Speaker C: ¿Qué tal? ¿Cómo les va? Les saludo desde Taipei, la capital de Taiwán, aquí en Asia. Y bueno, nos encontramos en Computex 2025, la exposición tecnológica más grande del Mundo, en donde se dan cita los grandes tecnológicos para presentar sus prototipos, para presentar las tendencias tecnológicas que vendrán en los próximos años, iniciando en este 2025 y sobre todo se dan cita grandes empresas tecnológicas y medios de comunicación para hablar de lo que viene en la cuestión de tecnología en donde, bueno, en este Computex 2025 el efecto es la integración de sistemas de inteligencia artificial a todos los dispositivos a los que estaremos usando no solamente ya, sino en el futuro. ¿Y a qué me refiero? La integración de sistemas de inteligencia artificial a las casas, a las computadoras, a los dispositivos inteligentes, a las tabletas. Esto es un lanzamiento muy importante, es un gran paso de la inteligencia artificial y la integración a los dispositivos que manejamos todos nosotros.
Tenemos aquí con nosotros el asus Airvision M, que son unos lentes de realidad aumentada, como ustedes los pueden ver aquí. Y esencialmente lo que son, son lentes que ahora tienen una integración con sistemas de inteligencia artificial, pero con un componente que añade una capa de realidad aumentada a todo lo que vemos. Entonces estos lentes se comunican directamente de manera inalámbrica y al tenerlo aquí lo pueden conectar a su computadora, a su dispositivo. Pero además, la ventaja que tiene estos lentes es que ayudan a la gente que tiene ciertos grados de ceguera, esto les ayuda a poder ver mejor, les ayuda a poder ver monitores, por ejemplo, en lugar de tener un monitor, ahora esto puede ser un monitor para todos ellos. Este es un simple ejemplo de lo que estamos viendo, de cómo asus está integrando los sistemas de inteligencia artificial a dispositivos tan sencillos como unos Venus.
Algo que no podría faltar era la integración de sistemas de inteligencia artificial a las consolas de juegos de vídeo. ¿Y a qué me refiero? Empresas como Asus, de la mano de Nvidia y de Intel, lo que están haciendo es crear consolas de juegos de video de uso generación con integración a sistemas de inteligencia artificial. ¿Y esto qué significa? Bueno, significan dos cosas. Primero, que ahora los juegos de vídeo van a ser más realistas, más inmersivos, pero sobre todo el sistema de inteligencia artificial va a analizar la actividad del usuario, va a poder interactuar con el usuario en tiempo real y va a poder ir adaptando los retos y el propio juego de vídeo directamente y en tiempo real, de manera que la experiencia del usuario sea muy diferente a los juegos de vídeo que hemos visto hasta el momento. Asus lanza y anuncia un nuevo sistema de juegos de vídeo que ahora va a ser mucho más interactivo, mucho más inmersivo y sobre todo promete cambiar la experiencia de cómo los usuarios no solamente interactúan con el juego de video directamente, sino también cómo interactúan con otros usuarios en tiempo real. Lo que tenemos aquí atrás de nosotros son un avance tecnológico muy importante. Y a qué me refiero a la integración de sistemas de inteligencia artificial a los dispositivos médicos. ¿Y a qué me refiero? Ahora los sistemas de inteligencia artificial expertos en analizar imágenes han sido integrados a dispositivos portátiles como ultrasonidos, o sistemas de endoscopía y esto da un diagnóstico hasta un 97 % efectivo, de manera que esto revoluciona de manera constante la salud. Empresas como asus están diseñando estos dispositivos médicos que además son portátiles y se pueden utilizar de una manera muy sencilla con sistemas expertos de inteligencia artificial para poder de alguna manera diagnosticar con una efectividad casi casi del 100. %.
Estas laptops que tenemos aquí, que son ultramodernas, son sistemas de inteligencia artificial prácticamente con esteroides. Este tipo de laptop lo que están haciendo ahora es integrar sistemas como Copilot con chips ultra rápidos a través de Intel y a través de Nvidia para poder crear una incompleta interacción con el usuario. ¿Esto qué significa? Que ahora van a poder interactuar a través de su propia laptop con sistemas de inteligencia artificial sin necesidad de conectarse al Internet y sin necesidad de conectarse a la nube. Esto es un gran avance, prometen no solamente evolucionar las tareas cotidianas, sino además automatizar muchos de los procesos que tenemos todos los días con nuestras tareas cotidianas.
Desde Taipei, en la capital de Taiwán, les saludas su experto en tecnología, Juan Guevara, y regresamos con ustedes al estudio.
[00:20:36] Speaker A: Me parece increíble lo que está viviendo Juan en Computex, que me recuerda un poco como si fuera al CES, pero en Taipei. Entonces me muero de envidia, me muero de envidia. Si ustedes quieren ver lo que acaba de platicarnos ahorita Juan, recuerden que se pueden meter al sitio de Naomi o descargar nuestra aplicación de Naomi y ahí pueden ver Tecnocasters on Demand para que vean eso y también vean los Ray Ban Meta que les enseñé yo, que insisto, es la primera generación, son muy diferentes también, pero para que tengan una idea de cómo se ven. Y estos, los Ray Ban meta los puede uno graduar. No sé si recuerden también que vi unos en el Cs que ya podíamos ver aquí la información o podíamos ver como subtítulos cuando nos hablaban. Entonces, sin duda los lentes están dando mucho de qué hablar. Ahora que regresemos de comerciales, les voy a platicar un poquito sobre el Google i O, que es este evento que hace Google para anunciar las novedades que vienen, que evidentemente también hablaron de unos lentes. Entonces, vámonos a comerciales y regresamos. Están ustedes en Tecnocasters.
[00:21:36] Speaker B: Quédate conectado. Regresamos después de esta pausa a TecnoCasters, tu tecnología para tu vida diaria.
Descarga Tecnocasters en tu plataforma de podcasts favoritas y llévanos contigo a todas partes. Continuamos con Juan Guevara y Montse Simó aquí en TecnoCasters tu tecnología.
[00:22:03] Speaker A: Y estamos de regreso en Tecnocasters. Recuerde que si usted está agarrando apenas la señal de el Heraldo Radio y quiere saber de qué hablamos en la primera parte del programa, pues se puede meter a su plataforma de Spotify en cuanto acabe el programa y ahí busca tecno casters o puede descargar la aplicación de Naomi día y ahí encuentra el programa y lo puede escuchar las veces que ustedes quiera. ¿Y antes de ir a comercial fuimos a esta nota que nos mandó mi querido Juan Guevara desde Taipei, desde el Computex 2025 para que no extrañe su voz porque yo sé que de repente yo hablo muy rápido y hace falta esa paz que nos transmite Juan cuando dice hola cómo están? Y empieza a hacer su voz de locutor de radio. Pero bueno, les quiero platicar sobre una cosa que está proponiendo el presidente Donald Trump, el presidente de los EE.UU. que se llama Cúpula dorada. Esta es una idea muy ambiciosa de una especie de defensa que quiere poner él, que es una especie también como decirlo, es un sistema antimisiles que según Beijing podría ser un riesgo de militarización del espacio. Se supone que este proyecto va a estar finalizado antes de que el presidente Donald Trump finalice su mandato. En español dicen cúpula dorada pero en inglés lo denominaron como Golden Dome y lo anunció el presidente Donald Trump el 20 de mayo y se supone que el Pentágono lleva al menos algunas semanas trabajando en varios proyectos después de que Donald Trump les exigió que hiciera una investigación sobre la tecnología antivisiles antimisiles con la que cuentan y propuso esta esta cosa, este nuevo sistema va a bloquear, va a funcionar como un escudo. Haga de cuenta, no sé si usted vio la serie de The Dome o si leyó el libro de Dome, si no es una gran serie, yo la disfruté mucho. Se supone que es una población que vive adentro de un domo, bueno esto sería como esta especie de domo escudo, no físico utilizando satélites y sensores en el espacio, no se imagina que es como literalmente como de Dom físicamente, pero sí como el efecto que tendría y se supone que está esta cúpula sería capaz de detectar y bloquear ataques antes de que lleguen al territorio de los EE.UU. la idea que tiene Donald Trump es que este sistema sea capaz no únicamente de bloquear los ataques antes de que lleguen sino también de detectarlos y de proteger no sólo a EE.UU. sino también a sus aliados. Por eso dice que de ahí viene el nombre de cúpula, porque es como si fuera un domo protector del planeta.
¿Ahora bien, esta propuesta genera muchísima preocupación a nivel internacional por qué? Bueno pues porque al llevar la competencia militar al espacio.
¿Nos lo imaginábamos, no sé si el presidente Trump no se lo imaginaba o lo hizo a propósito, pues que países como Rusia y China pues saltaron, dijeron a ver, pero por qué tú estás empezando a meter una competencia militar al espacio? Entonces podrían responder China y Rusia desarrollando sus propios sistemas ofensivos espaciales, lo que aumentaría la tensión global que de por sí ya hay y haría mucho más probable un conflicto armado en un terreno que hasta ahora ha sido neutral. Estamos hablando del espacio, se ha mantenido neutral hasta ahorita. Sabemos todo el tema que ha habido con lo de pisar la luna, con todo lo que está haciendo Elon Musk, pero bueno, por lo pronto, al día de hoy, el espacio es un espacio neutral.
Hay expertos que señalan que además el sistema no solamente sería muy caro, se estima que costaría más de $25000 millones, sino también que no se sabe a ciencia cierta aún qué tan efectivo y seguro pueda ser. No hay una tecnología hasta el día de hoy que garantice una defensa que sea infalible desde el espacio y crearla podría llevar muchos años. A ver, a Donald Trump entró este año a su gobierno, lo comenzó, dura cuatro años su gobierno. Yo dudo mucho que puedan tener algo que sea 100 % efectivo, 100 % perfecto y perfeccionado en tan sólo cuatro años.
Pero bueno, esta es la propuesta que hace el presidente Donald Trump. Es una revolución en la defensa tecnológica global, pero pues claro que conlleva riesgos políticos y éticos enormes, porque bueno, llevar las armas al espacio puede sonar como pues como una película, pero si avanza, pues yo creo que puede tener repercusiones muy importantes.
Pero bueno, vamos a un tema un poco más agradable. Vámonos con OpenAI.
¿Agradable? Me imagina Juan levantando la ceja. Bueno, pues OpenAI, que para los que no sepan es la empresa que está detrás de chat GPT, anunció la compra de IO. IO es una compañía que fue fundada por Johnny Ive, que fue el diseñador responsable de nada más y nada menos que el iPhone y otros productos también que son súper icónicos de Apple.
Esta compra, que fue valorada en $6500 millones aproximadamente, es lo que les costó esta adquisición y la compraron con el objetivo de crear dispositivos físicos que integren la inteligencia artificial de manera innovadora.
Johnny Hybe, con algunos colaboradores antiguos de Apple, fundó IO en 2024 con la visión de diseñar productos que combinen tecnología avanzada y diseño centrado en el usuario. Entonces, con esta unión lo que está buscando OpenAI es desarrollar un dispositivo completamente nuevo que se supone que será lanzado para 2026. Yo siento que es muy pronto, pero bueno, algo tendrán por ahí ya avanzado ellos y este dispositivo no pretende reemplazar los celulares, sino ofrecerle al usuario una alternativa diferente a la interacción con la tecnología.
En IO. El equipo es de 55 personas, son 55 expertos en hardware y software que se integran a OpenAI para trabajar en este nuevo proyecto. Y también esta colaboración incluye a Loveform, que es una compañía de diseño de Aiff, que va a ser la parte creativa de esta nueva como de esta unión que se hizo.
A mí personalmente me parece que es una unión muy interesante.
Creo que combina lo más interesante de la inteligencia artificial con el diseño.
[00:28:35] Speaker B: Y.
[00:28:36] Speaker A: Con una nueva manera de hacer las cosas. No sé, llámenme loca, pero yo me imagino que así como antes no nos imaginábamos tener un celular en la mano y todo lo que se podía tener al alcance de nuestras manos, yo siento que si esto se hace bien, con el poder que tiene OpenAI y con lo que me estoy imaginando que podrían hacer, creo que podríamos estar ante una revolución como lo que fue tener un celular en la mano. Eso me imagino yo. Pero va a ser como una especie de asistente con inteligencia artificial, que sabemos que Apple Intelligence es todo menos inteligente.
Entonces siento que si lo hacen por otro lado, podría ser muy interesante. Pero hay que esperarnos a ver con qué nos sorprende OpenAI en su alianza con IO. Y les decía al principio del programa sobre el evento de Google IO 2025.
En este evento lo que hace Google es que presenta sus innovaciones y en esta ocasión fueron centradas en la inteligencia artificial, que es el tema que está ahorita más en boga. Y destacaron como los avances significativos en generación de contenido multimedia y asistentes inteligentes. Entonces, primero Vo, que es la generación de video con audio integrado.
Esto es lo que hace Vo, es un modelo más avanzado de generación de video mediante inteligencia artificial que permite crear clips realistas a partir de descripciones textuales, incorporando elementos visuales detallados y audio sincronizado.
Incluye diálogos, efectos sonoros. Ya está disponible para los suscriptores del plan Google Ai Ultra en EE.UU. yo no he podido probarlo, espero que para la próxima semana Juan lo pueda probar y nos platique cómo se siente este programa. Y para complementar el Vo, desarrollaron Flow, que es una herramienta de creación audiovisual profesional.
Entonces, para complementar a Veo, como les decía, Google presentó esto, que es una plataforma que combina las capacidades de Veo, imagen, imagen y Gemini para facilitar la creación de contenido audiovisual de alta calidad.
¿Este está dirigido a profesionales, por qué? Porque permite generar escenas detalladas a partir de simples descripciones, lo que hace que se optimice el proceso creativo de una manera muy interesante.
Yo me imagino que estarán pensando ahorita las grandes productoras cinematográficas de Hollywood. ¿Qué estará pensando Fox, que estará pensando Disney sobre estas tecnologías? Porque si bien, por ejemplo, en Disney, en el Mandalorian vimos toda esta tecnología que tienen de las pantallas para poder hacer las escenas, vimos que no es spoiler, espero que ya la hayan visto, pero al final que podemos ver a Luke, cómo lo rejuvenecieron o como lo hicieron con inteligencia artificial y con deepfakes y todo esto. Y luego vimos en Google un chico que lo hizo desde su casa y lo hizo mejor que Disney. Entonces, pensando que ahora estas herramientas van a estar a la mano de la gente, yo si fuera una de estas grandes compañeras compañías, me pondría a pensar cómo usarla a nuestro favor sin perder la pureza del cine, pero sin que la gente nos pueda humillar, entre comillas, haciendo mejores cosas que las que estamos haciendo aquí con todo el dinero y con todo el presupuesto del mundo, cómo pasó aquí en Mandalorian. Pero esa es simplemente mi idea.
Luego también presentaron Imagen Cuatro, que lo que hace es que mejora la generación de imágenes generadas con inteligencia artificial o normales. Lo que hace es que te ofrece mayor realismo y mayor detalle en elementos como por ejemplo el agua, las texturas, que esto siempre es complicado en las imágenes. Entonces aquí esto te ayuda a que sean mucho más definidas las imágenes. Y luego por último Gemini Live, que Google anunció en Gemini Live, que es una función que permite interacciones en tiempo real mediante la cámara y pantalla compartida, que está disponible para Android y también para iOS. Y se introdujeron dos planes de suscripción que son Google Pro y Google Ultra, que ofrecen acceso a herramientas diferentes de las que les acabo de comentar.
Esto es lo que nos presentó Google. Por ahí presentaron también algunos lentes, estuvo muy interesante lo que presentaron los lentes que anunciaron ellos. También es como una idea de hacer lo que les decía que vimos en el CES, que tengan algunos textos y cosas por el estilo. Entonces estos lentes que presentó Google son sus lentes que la gente que asistió pudo hacer una demostración en tiempo real. Funcionan estos lentes con Android XR y apuestan por experiencias en tiempo real. Lo que les decía al principio que vimos en el CES de que pueden traducir en tiempo real, bueno, pues esto lo presentó ahora Google.
Este proyecto recupera un nombre que ya no sabíamos que el proyecto, pero bueno, también son los Google Glass.
Y en esta demostración que hicieron se supone que fue sin trucos ni sin retoques. Aquí veíamos a dos personas de YouTube, que diga de Google, que le lanzaban una pregunta al público que estaba en un vídeo de YouTube y decían quién se apunta a ver una demostración anticipada de las gafas Android XR. Y entonces pues ya salió Nishtavatia, que es parte del equipo, y les empezó a explicar a todos cómo funcionaban las gafas. Y entonces pues ahí sí vimos cómo era la interfaz en tiempo real sobre el entorno, cómo funciona la cámara integrada y lo que les decía un poquito de lo que pretende hacer meta. A ver, cada vez que una empresa saca una cosa, la otra empieza a pelearse para ver quién lo hace mejor. Pero bueno, aquí la traducción en vivo la hicieron en el escenario, hubo un pequeño error, pero después ya se arregló todo. Entonces, bueno, esto es lo que pasó en el evento de Google i O.
Siguiendo con los temas de inteligencia artificial y ahora que hablábamos de OpenAI, bueno, pues Netflix inició pruebas de una función de búsqueda impulsada por inteligencia artificial desarrollada en colaboración de, adivinen quién, pues de OpenAI. Esta herramienta lo que hace es que le permite a los usuarios encontrar contenido utilizando lenguaje natural y expresiones relacionadas con su estado de ánimo. Por ejemplo, puedes decir quiero ver algo divertido, quiero ver algo optimista, enséñame una película que me anime.
Entonces me parece que esto es más interesante que buscar simplemente comedia o esto.
Esta función apenas está en la fase beta para usuarios de iOS en Australia y Nueva Zelanda y se espera que llegue a EE.UU. pronto para que la podamos usar. Aquí en México espero que también llegue pronto. Y la implementación es opcional, tú puedes decidir si quieres activar esta función o si no quieres activarla. Y bueno, pues esta iniciativa representa un avance significativo en la forma en la que los usuarios interactúan con la plataforma, ofreciendo una experiencia de descubrimiento de contenido más intuitiva y adaptada a las preferencias audiovisuales. Entonces yo siento que Netflix está creciendo mucho todavía, a pesar de que ha tenido varias altas y bajas, creo que está tratando de integrar tecnologías avanzadas para mejorar la experiencia del usuario y mantenerse en vanguardia en el sector del entretenimiento digital. Y antes de terminar el programa, quiero platicarles sobre Super Mario Run, que es un juego para celulares en el que tú controlas a Mario y tu misión es correr y saltar por diferentes niveles, recogiendo monedas y evitando obstáculos. Super Mario Run salió originalmente para iOS, pero ahora ya está disponible para Android. Entonces está padre cuando este tipo de aplicaciones salen para Android y para iOS para que entonces todos podamos tenerlas todos. We are all gamers, dirían los de Hyperx. Entonces, si lo quieren descargar, ya está disponible en la Google Store para que lo puedan jugar. Y también quiero recordarles que hoy empezó la Mega xp, si nos están escuchando sábado en la noche, mañana domingo todavía sigue la Mega xp, que es una feria que se hace en la ciudad de México este año es en el World Trade Center, donde se venden juegos de mesa, puedes jugar juegos de mesa, hay torneos, a mí me encanta, la verdad es que me la paso increíble. Entonces yo voy a andar por ahí el domingo para que se den una vuelta. Y con esto los dejo para que vayan a escuchar a mi querido Juan Guevara con la siguiente información que tiene desde Computex.
[00:36:18] Speaker C: Taipei, mi querida Monse, pues nos encontramos aquí en el booth de Intel en Computex 2025. Y bueno, realmente lo que está pasando es que Intel hace un debut muy importante de todos los chips que están trabajando para integrarlo en las nuevas computadoras Windows para poder tener una integración total con la inteligencia artificial. Y bueno, como podemos ver aquí, todos los nuevos chips de Intel, sobre todo los Intel Core Ultra, están diseñados para poder integrar completa y todo totalmente copilot en cada una de las computadoras que ya traen Windows 11. Y la verdad es que ahora lo que está haciendo Intel es que está diseñando nuevos sistemas o nuevos chips para laptops como las de asus, para laptops de otro tipo, de manera que sean ultra portátiles, que esto es muy importante, pero que tengan ya un sistema de inteligencia artificial integrado completo y totalmente a la laptop, sin la necesidad de que lo hagan a través de la nube. Intel pues avisa de estos lanzamientos aquí en Computex 2025 y la realidad de las cosas es que la velocidad y la capacidad que ha logrado Intel con todos estos procesadores es una manera impresionante.
Pues seguimos aquí en Computex, mi querida Monse. ¿Y bueno, qué sucede? Nos encontramos en el booth de Gigabyte. Gigabyte es uno de los productores de tarjetas madre, las famosas motherboards en todas las computadoras. Una tarjeta madre, imagínense que son todos los circuitos integrados en donde se conecta el procesador, se conecta la tarjeta de vídeo, se conecta la tarjeta de red, en fin, es el alma de las computadoras. Y bueno, lo que estamos viendo ahora en esta época es que las tarjetas madres son esenciales para el buen funcionamiento de los nuevos computadores. Y lo que estamos viendo aquí en gigabyte es, primero, tarjeta madre, tarjetas madres que están diseñadas para la era de la inteligencia artificial.
Inclusive parte de las tarjetas madres que están anunciando gigabyte, pues están enfriadas de manera líquida, están enfriadas por aire, están enfriadas por hidrógeno, de manera que hace la computadora ultra eficiente, súper silenciosa, pero además tiene la capacidad de que se le integren chips, por ejemplo, de Intel o chips de Nvidia específicamente diseñados para sistemas de raciocinio basados en inteligencia artificial.
Esto es un adelanto muy importante en lo que estamos viendo en la nueva generación de computadores de escritorio, servidores.
Es muy importante que la tarjeta madre esté diseñada para aceptar el tráfico interno que reciben los chips de sistemas de inteligencia artificial de tarjetas gráficas, para que entonces el sistema realmente pueda razonar sin necesidad de que se atore o sea le la computadora.
Seguimos aquí en Computex, mi Monse, regreso contigo al estudio.
Nos encontramos con Sasha Sun, quien es el director global de mercadotecnia para Asus. Sasha, gracias por estar con nosotros. Gracias. ¿Por qué Computex es tan importante para Asus?
[00:39:52] Speaker B: Creo que es la mayor feria de tecnología del mundo.
Principalmente porque la mayor parte de la tecnología se fabrica aquí y la fabrican empresas de Taiwán, a pesar de que tal vez se fabrica en otro lugar de Asia. Pero esas empresas tienen sus raíces aquí, empezaron aquí, están aquí y nosotros también. Quiero decir, no quiero presumir, pero somos uno de los más grandes, tal vez el más grande, tal vez el más importante, algunos. Así que es nuestro partido en casa, básicamente. Así es. Así que siempre tratamos de hacer todo lo posible para dar un buen espectáculo con todas las cosas interesantes que tenemos. Y también se alinea con el ciclo de actualización y cuando ciertos nuevos chips salen, cuando ciertos nuevos productos pueden ser lanzados y anunciados. Así que creo que eso es mucho lo que es. Esa es la razón.
[00:40:41] Speaker C: Asus, como una compañía global, seguramente se preocupa por todo lo que está pasando en el mundo, específicamente con los aranceles. Cuál es la posición de Asus en relación a los aranceles que estamos viendo.
[00:40:56] Speaker B: En los EE.UU.
quiero decir que realmente no queremos involucrarnos en nada de esto. Obviamente nos preocupamos por nuestros clientes en todo el mundo y tratamos de hacer todo lo posible para asegurarnos de que nuestros clientes, no importa donde estén, tengan todas las opciones que quieran y que necesitan. Y recuerdo que dijo que tiene capacidad de fabricación en varios países y también estamos abiertos a la fabricación en los ya tenemos líneas de montaje en EE.UU. para fabricar algunos productos. Creo que somos una empresa muy dinámica, siempre lo hemos sido. Siempre hemos sido muy ágiles y muy rápidos. Solemos ser los primeros en sacar un nuevo producto al mercado, la nueva plataforma, los nuevos chips. Así que somos muy rápidos, muy flexibles, rápidos para adaptarnos a lo que está cambiando en el mundo. Así que creo que va a ser lo mismo para esto también.
[00:41:50] Speaker C: Y la última pregunta los padres están a veces preocupados por la integración de la inteligencia artificial en los dispositivos porque piensan que puede ser un problema contra la privacidad, sobre todo de los niños en las escuelas.
Qué piensa Asus al respecto.
[00:42:10] Speaker B: Yo también tengo un hijo, así que me identifico totalmente.
Y creo que los padres que se preocupan por esto son grandes padres. Es realmente bueno que se preocupen por esto y que les importe. Y creo que la Ia es lo mismo que con todo tipo de soluciones. Ya sabes, la Ia es solo otra tecnología. La Ia no es intrínsecamente buena o mala.
Y creo que cada vez hay más aplicaciones e infraestructuras en desarrollo donde puedes ejecutar tu Ia local y no tienes que depender de algo que se ejecuta en la nube.
Solo sabes lo que está pasando allí, dónde envían los datos, qué hacen con ellos, para que puedas mantenerlos localmente. Así que sí, creo que es bueno preocuparse por ello y creo que es bueno educarse al respecto. Pero, ya sabes, espero que la gente no se deje llevar por el pánico y piense que todo lo relacionado con la ia es algo malo. Creo que la Ia es muy poderosa y muy importante. Y creo que es muy importante enseñar a nuestros hijos cómo utilizar la ia, porque creo que no va a desaparecer. Llegó para quedarse. ¿Y cuánto? Cuanto antes se aprenda a utilizarla y cómo utilizarla a nuestro favor, nos dará ventaja sobre todos los demás.
[00:43:21] Speaker C: Sasha muchísimas gracias. Vielen dank.
[00:43:25] Speaker A: Y bueno, con esta información el programa se nos fue como agua. Entonces terminamos por el día de hoy. Tecnocasters. Ya saben que pueden encontrar a Juan como en todas sus redes sociales. Ahí he estado subiendo historias, entrevistas de todo lo que hizo. Además, en Taipei hizo muchísimas cosas increíbles. ¿A mí me encuentran como oncecira, les recuerdo, es 89, no? Monsecir 89, porque sigue activa la cuenta de por ahí alguien que dice que está vendiendo contenido sensual mío. No tengo ninguna cuenta alternativa. Si la tuviera, les diría para yo estar sacando las ganancias de ahí, no que lo haga cualquier otra persona. Pero bueno, eso es todo por el día de hoy. Nos vemos el lunes 3:30 p.m. por el canal ocho de Heraldo Televisión en Hic. Y nos escuchamos el próximo sábado 8:00, p.m. aquí en Heraldoradio. Soy monsésimo y adiós.
[00:44:16] Speaker B: Quédate conectado. Regresamos después de esta pausa a Tecnocasters, tu tecnología para tu vida diaria.