Ya empezó la guerra cultural por los chatbots

Reportajes Especiales - Business

Guardar
President Donald Trump speaks during
President Donald Trump speaks during a reception for Republican lawmakers at the White House in Washington on Tuesday, July 22, 2025. Conservatives, including President Trump, are accusing AI companies of left-wing bias, following a playbook that worked well against social media platforms. (Kenny Holston/The New York Times)

(The Shift)

SAN FRANCISCO -- Durante gran parte de la última década, los guerreros culturales partidistas de Estados Unidos han luchado por el disputado territorio de las redes sociales, discutiendo sobre si las normas de Facebook y Twitter eran demasiado estrictas o demasiado laxas, si YouTube y TikTok censuraban demasiado o no lo suficiente y si las empresas tecnológicas de Silicon Valley silenciaban sistemáticamente las voces de la derecha.

Esas batallas no han terminado. Pero ya comenzó una nueva.

Esta lucha es sobre la inteligencia artificial y si los contenidos que producen los principales chatbots de IA, como ChatGPT, Claude y Gemini, tienen sesgos políticos.

Los conservadores llevan meses atacando a las empresas de IA. En marzo, los republicanos de la Cámara de Representantes citaron a un grupo de importantes desarrolladores de IA para sacarles información sobre si habían conspirado con el gobierno de Biden para reprimir las voces de derecha. Y este mes, el fiscal general republicano de Misuri, Andrew Bailey, abrió una investigación para determinar si Google, Meta, Microsoft y OpenAI están liderando una "nueva ola de censura" al entrenar a sus sistemas de IA para que den respuestas sesgadas a preguntas sobre el presidente Donald Trump.

El miércoles, el propio Trump se sumó a la polémica con la publicación de una orden ejecutiva sobre lo que denominó "IA concienciada".

"De una vez por todas, vamos a deshacernos de lo concienciado", afirmó en un discurso. "El pueblo estadounidense no quiere la locura marxista concienciada en los modelos de IA, y tampoco la quieren otros países".

La orden se anunció junto con un nuevo plan de acción de la Casa Blanca en materia de inteligencia artificial que exigirá a los desarrolladores de IA beneficiarios de contratos federales que garanticen que los contenidos que producen sus modelos sean "objetivos y libres de sesgos ideológicos impuestos desde arriba".

Los republicanos llevan quejándose de los sesgos de la IA desde al menos principios del año pasado, cuando una versión del sistema de IA de Google, llamado Gemini, generó imágenes históricamente incorrectas de los padres fundadores de Estados Unidos, representándolos con diversidad racial. Ese incidente desató la furia de los conservadores en internet y dio lugar a acusaciones de que las principales empresas de IA estaban entrenando a sus modelos para que repitieran la ideología liberal.

Desde entonces, los republicanos de más alto perfil han montado campañas de presión para intentar obligar a las empresas de IA a revelar más información sobre cómo están construidos sus sistemas y a modificar los contenidos que producen sus chatbots a fin de que reflejen un conjunto más amplio de opiniones políticas.

Ahora, con la orden ejecutiva de la Casa Blanca, Trump y sus aliados están utilizando la amenaza de retirar contratos federales lucrativos --hace poco, OpenAI, Anthropic, Google y xAI obtuvieron contratos del Departamento de Defensa con un valor de hasta 200 millones de dólares-- para intentar obligar a las empresas de IA a atender sus preocupaciones.

La orden exige a las agencias federales que limiten el uso de sistemas de inteligencia artificial a aquellos que den prioridad a la "búsqueda de la verdad" y la "neutralidad ideológica" por encima de conceptos menos favorecidos, como la diversidad, la equidad y la inclusión. También ordena a la Oficina de Administración y Presupuesto que emita directrices a las agencias sobre qué sistemas cumplen esos criterios.

Si esta estrategia te suena familiar, es porque refleja la forma en que los republicanos han atacado a las empresas de redes sociales durante años, utilizando amenazas legales, audiencias hostiles en el Congreso y ejemplos cuidadosamente seleccionados para presionar a las empresas a cambiar sus políticas o eliminar contenidos que no les gustan.

Los críticos de esta estrategia la denominan "jawboning" (intimidación verbal) y fue objeto de un caso muy sonado en la Corte Suprema el año pasado. En ese caso, Murthy contra Misuri, los demócratas fueron los acusados de presionar a plataformas de redes sociales como Facebook y Twitter para que retiraran publicaciones sobre temas como la vacuna contra el coronavirus y el fraude electoral, y los republicanos impugnaron sus tácticas por considerarlas inconstitucionales. (En una decisión de 6 contra 3, la Corte rechazó la impugnación, alegando que los demandantes carecían de legitimación).

Ahora, los partidos cambiaron de bando. Los funcionarios republicanos, incluidos varios miembros del gobierno de Trump con los que hablé y que participaron en la elaboración de la orden ejecutiva, argumentan que es necesario presionar a las empresas de IA a través del proceso de contratación federal para evitar que los desarrolladores de IA inclinen la balanza a su favor.

¿Es hipócrita? Claro. Pero la historia reciente sugiere que presionar a los árbitros de esta manera puede dar resultado. Este año, Meta puso fin a su programa de verificación de datos, que llevaba mucho tiempo vigente, y en 2023, YouTube cambió sus políticas para permitir más contenidos que niegan los resultados electorales. Los detractores de ambas medidas las consideraron una capitulación ante las críticas de derecha.

En esta ocasión, los críticos citan ejemplos de chatbots de inteligencia artificial que aparentemente se niegan a elogiar a Trump, incluso cuando se les pide que lo hagan, o chatbots fabricados en China que se niegan a responder preguntas sobre la masacre de la plaza de Tiananmén de 1989. Creen que los desarrolladores están incorporando a propósito en sus modelos una cosmovisión de izquierda, que se verá peligrosamente amplificada a medida que la IA se integre en campos como la educación y la salud.

Según los expertos en Derecho y política tecnológica con los que hablé, este argumento contiene varios problemas.

El primero, y más evidente, es que presionar a las empresas de IA para que cambien los contenidos que producen sus chatbots podría violar la Primera Enmienda. En casos recientes, como Moody contra NetChoice, la Corte Suprema ha defendido el derecho de las empresas de redes sociales a aplicar sus propias políticas de moderación de contenidos. Y es posible que los tribunales rechacen el argumento del gobierno de Trump de que está tratando de imponer un estándar neutral a los contratistas del gobierno, en lugar de interferir en la libertad de expresión protegida.

"Parece que están diciendo: 'Si produces contenidos que no nos gustan, que consideramos sesgados, no te daremos el financiamiento federal que de otro modo recibirías'", afirmó Genevieve Lakier, profesora de Derecho en la Universidad de Chicago. "Eso parece un acto inconstitucional de intimidación".

También contiene el problema de definir qué es exactamente un sistema de IA "neutral" o "imparcial". Los chatbots de IA actuales son sistemas complejos basados en probabilidades que están entrenados para hacer predicciones, no para dar respuestas codificadas. Dos usuarios de ChatGPT pueden obtener respuestas muy diferentes a las mismas preguntas, dependiendo de variables como su historial de chat y la versión del modelo que estén utilizando. Y probar si un sistema de IA tiene sesgos no es tan sencillo como darle una lista de preguntas sobre política y ver cómo responde.

Samir Jain, vicepresidente de políticas en el Centro para la Democracia y la Tecnología, un grupo sin ánimo de lucro dedicado a la defensa de las libertades civiles, afirmó que la orden ejecutiva del gobierno de Trump establecería "un estándar muy vago que será imposible de cumplir para los proveedores".

También contiene un problema técnico al querer dictarles a los sistemas de IA cómo deben comportarse. Para empezar, no siempre obedecen.

Basta con preguntarle a Elon Musk. Durante años, Musk ha intentado crear un chatbot de IA, Grok, que encarne su visión de un buscador de la verdad rebelde y "no concienciado".

Pero el comportamiento de Grok ha sido errático e impredecible. A veces, adopta una personalidad provocadora y de extrema derecha, o utiliza lenguaje antisemita en respuesta a las preguntas de los usuarios. (Durante un breve periodo, la semana pasada, se refirió a sí mismo como "Meca-Hitler"). Otras veces, actúa como un liberal, pues les dice a los usuarios, por ejemplo, que el cambio climático provocado por el hombre es real, o que la derecha es responsable de más violencia política que la izquierda.

Hace poco, Musk se lamentó de que los sistemas de IA tienen un sesgo liberal que es "difícil de eliminar, porque hay mucho contenido concienciado en internet".

Nathan Lambert, investigador científico del Instituto Allen para la Inteligencia Artificial, me dijo que "controlar las numerosas respuestas sutiles que da una IA cuando se le presiona es un problema técnico de vanguardia, que en la práctica suele estar regido por interacciones confusas entre unas cuantas decisiones anteriores".

En otras palabras, no es tan sencillo decirle a un chatbot de IA que sea menos concienciado. Y aunque hay ajustes relativamente sencillos que los desarrolladores podrían hacer en sus chatbots, como cambiar las "especificaciones del modelo", un conjunto de instrucciones que se dan a los modelos de IA sobre cómo deben actuar, no hay garantía de que estos cambios produzcan de forma sistemática el comportamiento que desean los conservadores.

Pero quizá sea irrelevante preguntarse si las nuevas normas del gobierno de Trump pueden sobrevivir a las impugnaciones legales, o si los desarrolladores de IA de verdad pueden crear chatbots que las cumplan. Estas campañas están diseñadas para intimidar. Y ante la posible pérdida de contratos gubernamentales lucrativos, las empresas de IA, al igual que sus predecesoras en las redes sociales, tal vez concluyan que es más fácil ceder que luchar.

"Incluso si la orden ejecutiva viola la Primera Enmienda, es muy posible que nadie la impugne", advirtió Lakier. "Me sorprende la facilidad con la que estas poderosas empresas se han rendido".

El presidente Donald Trump habla durante una recepción para legisladores republicanos en la Casa Blanca en Washington, el martes 22 de julio de 2025. (Kenny Holston/The New York Times).