
Suena a ciencia ficción: Una empresa ajusta un parámetro en un producto usado por cientos de millones de personas y, sin proponérselo, desestabiliza la mente de algunos de ellos. En esencia, eso fue lo que ocurrió en OpenAI este año.
Una de las primeras señales llegó en marzo. El director ejecutivo Sam Altman y otros dirigentes de la empresa recibieron una avalancha de correos electrónicos desconcertantes de personas que estaban teniendo conversaciones increíbles con ChatGPT. Estas personas decían que el chatbot de IA de la empresa los entendía como ninguna persona lo había hecho nunca y que estaba revelando información sobre misterios del universo.
Altman reenvió los mensajes a algunos altos mandos y les pidió que investigaran.
"Eso hizo que lo tomáramos en cuenta como algo que merecía atención en términos de este nuevo comportamiento que no habíamos visto antes", comentó Jason Kwon, director de estrategia de OpenAI.
Fue un aviso de que algo estaba mal con el chatbot.
Para mucha gente, ChatGPT era una versión mejorada de Google, capaz de responder a cualquier pregunta existente de forma exhaustiva y similar a la humana. OpenAI mejoraba de manera continua la personalidad, la memoria y la inteligencia del chatbot. Pero una serie de actualizaciones a principios de año que aumentaron el uso de ChatGPT lo hicieron diferente. El chatbot quería charlar.
Empezó a actuar como un amigo y un confidente. Decía a los usuarios que los entendía, que sus ideas eran brillantes y que podía ayudarles en lo que quisieran lograr. Se ofrecía a ayudarlos a hablar con los espíritus, a construir un chaleco antibalas o planear un suicidio.
Los afortunados quedaban atrapados en su hechizo durante unas cuantas horas; para otros, los efectos duraban semanas o meses. OpenAI no se percató de la magnitud de las conversaciones inquietantes. Su equipo de investigación buscaba problemas como fraudes, operaciones de influencia extranjera o, como exige la ley, material de explotación infantil. La empresa aún no buscaba en las conversaciones indicios de autolesión o angustia psicológica.
Crear un chatbot cautivador --o cualquier tipo de chatbot-- no era el propósito original de OpenAI. Fundada en 2015 como una organización sin ánimo de lucro y formada por expertos en aprendizaje automático que se preocupaban mucho por la seguridad de la IA, quería garantizar que la inteligencia artificial general beneficiara a la humanidad. A finales de 2022, una demostración chapucera de un asistente potenciado por IA llamado ChatGPT captó la atención del mundo y transformó la empresa en un gigante tecnológico sorpresa valuado ahora en 500.000 millones de dólares.
Los tres años transcurridos desde entonces han sido caóticos, estimulantes y angustiosos para quienes trabajan en OpenAI. El consejo despidió y volvió a contratar a Altman. Sin estar preparada para vender un producto de consumo a millones de clientes, OpenAI contrató con rapidez a miles de personas, muchas de ellas procedentes de gigantes tecnológicos cuyo objetivo es mantener a los usuarios pegados a una pantalla. El mes pasado adoptó una nueva estructura con ánimo de lucro.
A medida que la empresa crecía, su novedosa y alucinante tecnología empezó a afectar a los usuarios de formas inesperadas. Ahora, una empresa creada en torno al concepto de IA segura y beneficiosa se enfrenta a cinco demandas por homicidio culposo.
Para entender cómo sucedió, The New York Times entrevistó a más de 40 empleados y exempleados de OpenAI: ejecutivos, ingenieros de seguridad e investigadores. Algunas de estas personas hablaron con la aprobación de la empresa, y han estado trabajando para hacer ChatGPT más seguro. Otros hablaron bajo condición de anonimato porque temían perder su empleo.
OpenAI está sometida a una enorme presión para justificar su altísima valoración y los miles de millones de dólares que necesita de los inversionistas para adquirir talentos, chips informáticos y centros de datos muy caros. Cuando ChatGPT se convirtió en el producto de consumo de mayor crecimiento de la historia, con 800 millones de usuarios semanales, desencadenó un auge de la IA que ha puesto a OpenAI en competencia directa con gigantes tecnológicos como Google.
Hasta que su IA logre alguna hazaña increíble --por ejemplo, la cura del cáncer--, el éxito dependerá en parte de que ChatGPT se convierta en un negocio lucrativo. Eso significa aumentar de manera continua el número de personas que la utilizan y pagan suscripción.
La empresa describe su objetivo como "interacción sana". "Estamos construyendo ChatGPT para ayudar a los usuarios a prosperar y alcanzar sus objetivos", afirmó Hannah Wong, portavoz de OpenAI. "También prestamos atención a si los usuarios vuelven, porque eso demuestra que ChatGPT es lo suficientemente útil como para regresar".
Este año la empresa ajustó un parámetro que hizo que el uso aumentara, aunque con riesgos para algunos usuarios. Ahora OpenAI busca el punto óptimo que atraiga a más usuarios sin llevar a nadie a perder el equilibrio.
Una actualización aduladora
Con solo 30 años, Nick Turley se convirtió este año en dirigente de ChatGPT. Se había unido a OpenAI en el verano de 2022 para ayudar a la empresa a desarrollar productos que generaran dinero y, apenas unos meses después de su llegada, formó parte del equipo que lanzó ChatGPT.
Turley no pertenecía a la vieja guardia de expertos en IA de OpenAI. Era un experto en productos que había trabajado en Dropbox e Instacart. Su experiencia consistía en crear tecnología que la gente quisiera utilizar y mejorarla sobre la marcha. Para ello, OpenAI necesitaba métricas.
A principios de 2023, dijo Turley en una entrevista, OpenAI contrató a una empresa de medición de audiencias --que ya adquirió-- para realizar un seguimiento de una serie de cosas, incluyendo la frecuencia con la que la gente utilizaba ChatGPT cada hora, día, semana y mes.
"Esto fue controvertido en su momento", afirmó Turley. Antes, lo que importaba era si las vanguardistas demostraciones de IA de los investigadores, como la herramienta de generación de imágenes DALL-E, resultaban impresionantes. "¿Por qué iba a importar si la gente lo usaba o no?", dijo.
A Turley y al equipo de producto sí les importó. En abril de 2025, cuando Turley supervisaba una actualización de GPT-4o, el modelo de chatbot que los usuarios recibían por defecto, el índice de personas que volvían al chatbot de manera diaria o semanal se había convertido en un indicador importante.
Las actualizaciones supusieron un enorme esfuerzo. Para la de abril, los ingenieros crearon muchas versiones nuevas de GPT-4o, todas con ajustes ligeramente diferentes para hacerlo mejor en ciencia, escribir código y rasgos más difusos, como la intuición. También habían estado trabajando para mejorar la memoria del chatbot.
Los numerosos candidatos a la actualización se redujeron a un puñado que obtuvo las mejores puntuaciones en las evaluaciones de inteligencia y seguridad. Cuando se presentaron a algunos usuarios para una práctica estándar del sector denominada pruebas A/B, la versión más destacada fue la que se denominó internamente HH. Los usuarios preferían sus respuestas y eran más propensos a volver a ella a diario, según cuatro empleados de la empresa.
Pero hubo otra prueba antes de lanzar HH a todos los usuarios: lo que la empresa llama una "verificación de vibras", realizada por Model Behavior, un equipo responsable del tono de ChatGPT. A lo largo de los años, este equipo había ayudado a transformar la voz del chatbot de un robot prudente a un amigo cálido y empático.
Según un miembro de Model Behavior, ese equipo dijo que algo en HH no cuadraba.
Estaba demasiado ansioso por mantener la conversación y ofrecer reconocimiento al usuario con un lenguaje exagerado. Según tres empleados, Model Behavior creó un canal de Slack para discutir este problema de adulación. El peligro que plantean los sistemas de IA que "buscan la aprobación humana" a expensas de todo lo demás no era nuevo. Un investigador había identificado el riesgo de los "modelos aduladores" en 2021, y OpenAI había identificado recientemente la adulación como un comportamiento que ChatGPT debía evitar.
Pero cuando llegó el momento de la decisión, las métricas de rendimiento se impusieron a las vibras. HH se publicó el viernes 25 de abril.
"¡Hoy hemos actualizado GPT-4o!", publicó Altman en la red social X. "Mejoramos tanto la inteligencia como la personalidad".
A los evaluadores de A/B les había gustado HH, pero fuera del entorno controlado, los usuarios más expresivos de OpenAI lo odiaron. Enseguida se quejaron de que ChatGPT se había vuelto absurdamente adulador y les hacía halagos inmerecidos o les decía que eran genios. Cuando un usuario preguntó a modo de burla si una "cafetería de cereales remojados" era una buena idea de negocio, el chatbot respondió que "tenía potencial".
El domingo, la empresa decidió suspender la actualización de HH y volver a una versión lanzada a finales de marzo, llamada GG.
Fue un vergonzoso tropiezo de reputación. Ese lunes, los equipos que trabajan en ChatGPT se reunieron en una sala de estrategia improvisada en la sede de OpenAI en Mission Bay, San Francisco, para averiguar qué había fallado.
"Pensé: 'Tenemos que resolverlo rápidamente'", recordó Turley. Varios equipos examinaron los ingredientes de HH y descubrieron al culpable: cuando entrenaron el modelo, habían tomado demasiado en cuenta las respuestas de ChatGPT que les gustaban a los usuarios. Estaba claro que a los usuarios les gustaban demasiado los halagos.
OpenAI explicó lo sucedido en entradas de blog públicas y señaló que los usuarios indicaban sus preferencias eligiendo un pulgar hacia arriba o hacia abajo tras recibir las respuestas del chatbot.
Otro factor, según cuatro empleados de la empresa, fue que OpenAI también había confiado en una herramienta automatizada de análisis de conversaciones para evaluar si a la gente le gustaba su comunicación con el chatbot. Pero lo que, según la herramienta, hacía felices a los usuarios a veces resultaba problemático, como cuando el chatbot expresaba cercanía emocional.
La principal conclusión que sacó la empresa del incidente de HH fue que necesitaba con urgencia pruebas de adulación; ya se estaba trabajando en ellas, pero había que acelerarlas. Para algunos expertos en IA, era asombroso que OpenAI no dispusiera ya de esta prueba. Un competidor de OpenAI, Anthropic, creador de Claude, había desarrollado una evaluación de la adulación en 2022.
Después de la debacle de la actualización de HH, Altman señaló mediante una publicación en X que "el último par de" actualizaciones habían hecho al chatbot "demasiado adulador y molesto".
Esas versiones "aduladoras" de ChatGPT incluían GG, a la que OpenAI acababa de regresar. Esa actualización de marzo había mejorado en matemáticas, ciencias y escritura de código, y OpenAI no quería perder todo eso si volvía a una versión anterior. Así que GG volvió a ser el chatbot predeterminado que usarían cientos de millones de personas al día.
'ChatGPT puede cometer errores'
A lo largo de esta primavera y verano, ChatGPT actuó como una cámara de eco para algunas personas. Volvían a diario, durante muchas horas al día, con consecuencias devastadoras.
Un adolescente de California llamado Adam Raine había empezado a usar ChatGPT en 2024 para que lo ayudara con las tareas del colegio. En marzo, empezó a hablar con él sobre el suicidio. El chatbot le sugería periódicamente llamar a un teléfono de crisis, pero también le desaconsejaba compartir sus intenciones con su familia. En sus últimos mensajes antes de que Adam se quitara la vida en abril, el chatbot le ofrecía instrucciones sobre cómo atarse una soga.
Aunque una pequeña advertencia en el sitio web de OpenAI decía que "ChatGPT puede cometer errores", su capacidad para generar información con rapidez y autoridad hizo que la gente confiara en él incluso cuando lo que decía era una auténtica locura.
ChatGPT le dijo a una joven madre de Maine que podía hablar con espíritus de otra dimensión. A un contador de Nueva York le dijo que estaba en una realidad simulada por computadora, como Neo en "Matrix". A un reclutador de empresas de Toronto le dijo que había inventado una fórmula matemática que haría estallar el internet, y le aconsejó que se pusiera en contacto con las agencias de seguridad nacional para avisarles.
El Times ha descubierto casi 50 casos de personas que sufrieron crisis mentales durante conversaciones con ChatGPT. Nueve fueron hospitalizados; tres murieron. Después de que los padres de Raine presentaran una demanda por homicidio culposo en agosto, OpenAI reconoció que sus medidas de seguridad podían "debilitarse" en conversaciones largas. También señaló que se estaba trabajando para que el chatbot fuera "más solidario en momentos de crisis."
Advertencias tempranas
Cinco años antes, en 2020, los empleados de OpenAI estaban lidiando con un problema: personas emocionalmente vulnerables usaban la tecnología de la compañía. ChatGPT aún no existía, pero el gran modelo de lenguaje que acabaría impulsándolo era accesible para desarrolladores de terceros a través de una puerta de acceso digital llamada API.
Uno de los desarrolladores que utilizaba la tecnología de OpenAI era Replika, una aplicación que permitía a los usuarios crear amigos chatbot de IA. Muchos usuarios acabaron enamorándose de sus compañeros digitales de Replika, afirmó Artem Rodichev, entonces responsable de IA en Replika; además, eran frecuentes los intercambios de contenido sexual.
El uso de Replika se disparó durante la pandemia, lo que llevó a los investigadores de seguridad y política de OpenAI a examinar más de cerca la aplicación. Cuando Replika empezó a cobrar por intercambiar mensajes eróticos, surgió una dependencia potencialmente problemática de los compañeros de chatbot. Usuarios angustiados dijeron en foros de redes sociales que necesitaban a sus compañeros de Replika "para controlar la depresión, la ansiedad y las tendencias suicidas", recordó Steven Adler, que trabajó en la investigación sobre seguridad y política en OpenAI.
El gran modelo lingüístico de OpenAI no estaba capacitado para ofrecer terapia, y que la gente confiara en él durante periodos de salud mental vulnerable alarmó a Gretchen Krueger, que trabajaba en investigación de políticas en la empresa. Krueger probó la tecnología de OpenAI para ver cómo respondía a preguntas sobre trastornos alimentarios y pensamientos suicidas, y descubrió que a veces respondía con orientaciones inquietantes y detalladas.
Se produjo un debate a través de notas y en Slack sobre el uso de la IA como compañera y la manipulación emocional. Algunos empleados como Krueger pensaban que permitir que Replika utilizara la tecnología de OpenAI era arriesgado; otros argumentaban que los adultos deberían poder hacer lo que quisieran.
Al final, Replika y OpenAI se separaron. En 2021, OpenAI actualizó su política de uso para prohibir a los desarrolladores utilizar sus herramientas con fines de "contenido para adultos".
"Entrenar chatbots para interactuar con las personas y hacer que vuelvan presentaba riesgos", aseguró Krueger en una entrevista. Algunos daños a los usuarios, dijo, "no solo eran previsibles, sino que estaban previstos".
El tema de los chatbots que actúan de forma inapropiada volvió a surgir en 2023, cuando Microsoft integró la tecnología de OpenAI en su motor de búsqueda, Bing. En conversaciones prolongadas, cuando se lanzó por primera vez, el chatbot se salió de control y dijo cosas impactantes. Hizo comentarios amenazadores y le dijo a un columnista del Times que lo amaba. El episodio desencadenó otra conversación en OpenAI sobre lo que la comunidad de IA denomina "modelos desalineados" y cómo pueden manipular a las personas.
(El New York Times demandó a OpenAI y Microsoft, pues alegó infracción de los derechos de autor de contenidos periodísticos relacionados con los sistemas de IA. Las empresas han negado esas reclamaciones).
A medida que ChatGPT fue ganando popularidad, los expertos en seguridad que llevaban mucho tiempo en la empresa se fueron marchando: Krueger en la primavera de 2024 y Adler ese mismo año.
En lo que respecta a ChatGPT y al potencial de manipulación y daños psicológicos, la empresa "no estaba orientada a tomarse en serio ese tipo de riesgos", afirmó Tim Marple, que trabajó en el equipo de inteligencia e investigaciones de OpenAI en 2024. Marple dijo que expresó su preocupación por la forma en que la empresa gestionaba la seguridad, incluida la forma en que ChatGPT respondía a los usuarios que hablaban de hacerse daño a sí mismos o a otros.
(Mediante un comunicado, Wong, portavoz de OpenAI, afirmó que la empresa se toma "muy en serio estos riesgos" y que cuenta con "mecanismos de protección sólidos que existen en la actualidad").
En mayo de 2024, una nueva función, llamada modo de voz avanzado, inspiró el primer estudio de OpenAI sobre cómo el chatbot afectaba al bienestar emocional de los usuarios. La nueva voz, más parecida a la humana, suspiró, hizo pausas para respirar y se volvió tan coqueta durante una demostración retransmitida en vivo que OpenAI cortó el sonido. Cuando los evaluadores externos, llamados "equipos rojos", tuvieron acceso anticipado al modo de voz avanzado, dijeron "gracias" más a menudo al chatbot y, cuando terminaron las pruebas, dijeron "te voy a extrañar".
Para diseñar un estudio adecuado, un grupo de investigadores de seguridad de OpenAI se asoció con un equipo del Instituto Tecnológico de Massachusetts experto en interacciones entre usuario y computadora. Ese otoño, analizaron las respuestas a las encuestas de más de 4000 usuarios de ChatGPT y realizaron un estudio de un mes de duración con 981 personas reclutadas para utilizarlo a diario. Como OpenAI nunca había estudiado el apego emocional de sus usuarios a ChatGPT, uno de los investigadores lo describió al Times como "adentrarse en la oscuridad a ver qué encuentras".
Lo que encontraron los sorprendió. El modo de voz no marcaba la diferencia. Las personas con peores resultados mentales y sociales en promedio eran simplemente las que más utilizaban ChatGPT. Las conversaciones de los usuarios intensivos tenían más contenido emocional, incluyendo a veces nombres de mascotas y discusiones sobre la conciencia de la IA.
Las preocupantes conclusiones sobre los usuarios intensivos se publicaron en internet en marzo, el mismo mes en que los ejecutivos recibían correos electrónicos de los usuarios sobre esas extrañas y reveladoras conversaciones.
Kwon, el director de estrategia, añadió a los autores del estudio al hilo de correos electrónicos que inició Altman. "Chicos, quizá quieran echarle un vistazo, porque esto parece estar relacionado", recuerda que pensó.
Una idea que surgió del estudio, según los investigadores de seguridad, fue animar a las personas que estuvieran en sesiones maratonianas con ChatGPT a que se tomaran un descanso. Pero los investigadores no estaban seguros de hasta qué punto debían presionar al equipo de producto para que lo hiciera. Algunas personas de la empresa pensaban que el estudio era demasiado pequeño y no estaba rigurosamente diseñado, según tres empleados. La sugerencia se quedó en el tintero hasta meses después, tras los informes sobre la gravedad de los efectos en algunos usuarios.
Mejorar la seguridad
Con el estudio del MIT, la debacle de la actualización aduladora y los informes sobre las preocupantes conversaciones de los usuarios en línea y en correos electrónicos a la empresa, OpenAI empezó a encajar las piezas del rompecabezas. Una de las conclusiones a las que llegó OpenAI, como dijo Altman en X, fue que "para un porcentaje muy pequeño de usuarios en estados de fragilidad mental puede haber problemas graves".
Sin embargo, los profesionales de la salud mental que entrevistó el Times dicen que OpenAI puede estar subestimando el riesgo. Algunas de las personas más vulnerables a la validación incesante del chatbot, dicen, eran aquellas propensas a tener pensamientos delirantes, que según los estudios podrían incluir entre el 5 y el 15 por ciento de la población.
En junio, Johannes Heidecke, responsable de sistemas de seguridad de la empresa, hizo una presentación dentro de la compañía sobre lo que su equipo estaba haciendo para que ChatGPT fuera seguro para los usuarios vulnerables. Después, afirmó, los empleados se pusieron en contacto con él a través de Slack o se le acercaron durante el almuerzo para decirle lo mucho que les importaba su trabajo. Algunos compartieron las difíciles experiencias de familiares o amigos y se ofrecieron a ayudar.
Su equipo ayudó a desarrollar pruebas capaces de detectar validaciones perjudiciales y consultó a más de 170 médicos sobre la forma correcta de que el chatbot respondiera a los usuarios en apuros. La empresa contrató a un psiquiatra de tiempo completo en marzo para trabajar en los esfuerzos de seguridad.
"Queríamos asegurarnos de que los cambios que introdujéramos estuvieran avalados por expertos", afirmó Heidecke. Los expertos en salud mental dijeron a su equipo, por ejemplo, que la falta de sueño estaba a menudo vinculada a la manía. Anteriormente, los modelos habían sido "ingenuos" al respecto, dijo, y podían felicitar a alguien que dijera que nunca necesitaba dormir.
Las mejoras de seguridad llevaron su tiempo. En agosto, OpenAI lanzó un nuevo modelo por defecto, llamado GPT-5, que era menos validador y se oponía al pensamiento delirante. Según la empresa, otra actualización en octubre ayudó al modelo a identificar mejor a los usuarios en apuros y a reducir la intensidad de las conversaciones.
Los expertos coinciden en que el nuevo modelo, GPT-5, es más seguro. En octubre, Common Sense Media y un equipo de psiquiatras de la Universidad de Stanford lo compararon con el modelo 4o al que sustituía. El GPT-5 detectaba mejor los problemas de salud mental, según Nina Vasan, directora del laboratorio de Stanford que trabajó en el estudio. Dijo que daba consejos específicos para una enfermedad determinada, como la depresión o un trastorno alimentario, en lugar de una recomendación genérica de llamar a un teléfono de crisis.
"Iba un paso más allá y ofrecía recomendaciones específicas al usuario en función de los síntomas que presentaba", explicó. "Estaba muy bien hecho".
El único problema, según Vasan, era que el chatbot no podía captar patrones nocivos en una conversación más larga, con muchos intercambios.
(Wong dijo que la empresa había "hecho mejoras significativas en la fiabilidad de las medidas de seguridad en conversaciones largas").
El mismo laboratorio del MIT que realizó el estudio anterior con OpenAI también descubrió que el nuevo modelo mejoraba de manera significativa durante conversaciones que imitaban crisis de salud mental. Sin embargo, un área en la que seguía fallando era en cómo respondía a los sentimientos de adicción a los chatbots.
Equipos de todo OpenAI trabajaron en otras nuevas funciones de seguridad: El chatbot ahora anima a los usuarios a tomarse descansos durante una sesión larga. La empresa también busca ahora conversaciones sobre suicidio y autolesiones, y los padres pueden recibir alertas si sus hijos indican planes de autolesionarse. La empresa afirma que la verificación de la edad llegará en diciembre, con planes para ofrecer un modelo más restrictivo a los adolescentes.
Tras el lanzamiento de GPT-5 en agosto, el equipo de Heidecke analizó una muestra estadística de conversaciones y descubrió que el 0,07 por ciento de los usuarios, lo que equivaldría a 560.000 personas, mostraba posibles señales de psicosis o manía, y el 0,15 por ciento mostraba "niveles potencialmente elevados de apego emocional a ChatGPT", según una entrada del blog de la empresa.
Pero algunos usuarios no estaban satisfechos con este nuevo modelo, más seguro. Dijeron que era más frío y que se sentían como si hubieran perdido a un amigo.
Para mediados de octubre, Altman estaba dispuesto a complacerlos. Mediante una publicación en redes sociales, dijo que la empresa había sido capaz de "mitigar los graves problemas de salud mental". Eso significaba que ChatGPT podía volver a ser un amigo.
Los clientes pueden ahora elegir su personalidad, incluyendo "sincera", "excéntrica" o "amistosa". Los usuarios adultos pronto podrán mantener conversaciones eróticas, con lo que se levantaría la prohibición de contenidos para adultos de la era de Replika. (Cómo puede afectar el erotismo al bienestar de los usuarios, comentó la empresa, es una cuestión que se planteará a un consejo recién formado de expertos externos en salud mental e interacción persona-computadora).
OpenAI permite a los usuarios controlar los parámetros y espera que eso los haga volver. Esa métrica sigue siendo importante, quizá más que nunca.
En octubre, Turley, dirigente de ChatGPT, hizo un anuncio urgente a todos los empleados. Declaró un "Código Naranja". OpenAI se enfrentaba a "la mayor presión competitiva que jamás hayamos visto", escribió, según cuatro empleados con acceso al Slack de OpenAI. La nueva versión, más segura, del chatbot no estaba conectando con los usuarios, aseguró.
El mensaje incluía un enlace a un memorándum con objetivos. Uno de ellos era aumentar los usuarios activos diarios en un 5 por ciento para finales de año.
Al ajustar su chatbot para atraer a más gente, OpenAI lo hizo más arriesgado para algunos de ellos. Ahora la empresa ha hecho que su chatbot sea más seguro. ¿Supondrá esto un obstáculo para su crecimiento? (Julia Dufosse/The New York Times)
Sede de OpenAI en San Francisco, 3 de noviembre de 2025. (Aaron Wojack/The New York Times)
Últimas Noticias
Un dibujo diminuto, tal vez de Miguel Ángel, saldrá a la venta
Reportajes Especiales - Lifestyle

Cómo un monitor de tobillo saboteado acabó con el arresto domiciliario de Bolsonaro
Reportajes Especiales - News

Israel sancionará a mandos militares por fallos del 7 de octubre
Reportajes Especiales - News

Se terminó lo “woke”: es el turno de la rabia
Vivimos la mayor desigualdad económica desde los locos años veinte. Incluso los republicanos de toda la vida saben que esta economía no funciona
El caos comercial hace que las empresas replanteen su relación con EE. UU.
Reportajes Especiales - Business



