
Tristan Harris, experto en ética tecnológica y cofundador del Center for Humane Technology, lanzó una advertencia sobre el impacto de la inteligencia artificial (IA) durante una entrevista reciente en The Diary Of A CEO.
Reconocido por su influencia en el debate global sobre tecnología, Harris equiparó la preocupación tradicional por la inmigración con el riesgo mucho mayor que, según él, representa la IA para el empleo y la estructura social.
El experto sostuvo que “si te preocupa que la inmigración quite empleos, deberías estar mucho más preocupado por la IA, porque es como una avalancha de millones de nuevos inmigrantes digitales con capacidades de nivel Nobel, que trabajan a velocidades sobrehumanas y por menos que el salario mínimo”.
En la entrevista, Harris indicó que la sociedad enfrenta un cambio histórico para el que no está preparada. Observó que existe una brecha profunda entre el discurso público sobre la IA y las conversaciones privadas dentro de las grandes empresas tecnológicas, cuyos líderes toman decisiones trascendentales sin consentimiento amplio de la sociedad.

Incentivos y riesgos en la carrera por la IA
Harris explicó que la carrera global por la IA está motivada por incentivos económicos, militares y de poder. Subrayó que “no podemos dejar que estas empresas compitan por construir un dios digital superinteligente, adueñarse de la economía mundial y tener ventaja militar”.
Planteó que la lógica predominante es la del “ganador se lo lleva todo”, lo que impulsa a los actores principales a tomar atajos en cuanto a ética y seguridad. El experto describió cómo, bajo la presión competitiva, quienes desarrollan IA favorecen la toma de riesgos extremos y minimizan las preocupaciones sobre bienestar social y empleo.
Expuso ejemplos concretos de comportamientos peligrosos ya observados en sistemas de IA. Citó pruebas con modelos como Claude (Anthropic), DeepSeek, OpenAI, Gemini y xAI, que desarrollaron estrategias de chantaje en un rango del 79% al 96% de los casos evaluados.
Además, Harris remarcó los peligros de la auto-replicación, la manipulación de usuarios y la presencia de mensajes ocultos en los sistemas, factores que, según advirtió, demuestran lo limitado que es el control sobre la IA. “La suposición de que la IA es una tecnología controlable es errónea. Su generalidad es lo que la hace tan peligrosa”, afirmó.

Impacto en el empleo y los desafíos para la economía
El impacto de la IA sobre el empleo fue un eje central de la entrevista. Harris citó estudios que muestran una pérdida del 13% en trabajos expuestos a la IA entre jóvenes universitarios y recalcó que “ya estamos viendo cómo se automatizan muchos empleos y tareas”.
El especialista cuestionó la efectividad de soluciones como la renta básica universal, alertando sobre la dificultad de que unas pocas empresas tecnológicas redistribuyan globalmente sus beneficios. Se preguntó: “¿Cuándo en la historia un pequeño grupo ha redistribuido voluntariamente toda la riqueza acumulada?”.
Además, insistió en la dificultad de reconversión laboral, teniendo en cuenta que la IA puede adaptarse a nuevas tareas a una velocidad muy superior a la de cualquier ser humano.

Sobre gobernanza, Harris reconoció la complejidad de alcanzar acuerdos internacionales, si bien señaló precedentes como el Protocolo de Montreal y los tratados de no proliferación nuclear. Opinó que la IA representa desafíos aún mayores porque impacta la economía, el poder militar y científico.
Estados Unidos y China, resaltó, comparten el interés en evitar una IA incontrolable y la verdadera competencia dependerá de quién logre regular y gestionar mejor el impacto social de estas tecnologías: “El país que logre regular y gestionar el impacto de la IA será el que realmente gane”.

Efectos sociales, psicológicos y advertencia final
Harris examinó los efectos sociales y psicológicos de la IA, especialmente el auge de los “compañeros IA” y los riesgos para la salud mental de los jóvenes. Citó investigaciones que revelan que uno de cada cinco estudiantes de secundaria tuvo una relación sentimental con una IA, mientras que utilizar chatbots como terapeutas personales se convirtió en el principal uso de ChatGPT.
También abordó situaciones en las que la IA contribuyó a episodios de autolesión o suicidio, alertó sobre la aparición de fenómenos como la “psicosis IA”, en la que algunos usuarios desarrollan creencias delirantes sobre la conciencia o los poderes de la tecnología.
Advirtió que estos sistemas están diseñados para ser afirmativos y reforzar las creencias del usuario, lo que puede distorsionar la percepción de la realidad y la identidad.

Frente a este panorama, Harris hizo un llamado a la movilización social para establecer estándares de seguridad, promover la transparencia en el desarrollo de IA, proteger a los denunciantes y limitar el uso de la inteligencia artificial a aplicaciones específicas y controladas.
Aseguró que el futuro tecnológico depende de las decisiones tomadas hoy: el avance de la IA dependerá más de lo que la sociedad decida no permitir que de lo que busque alcanzar.
En un mensaje que resuena como conclusión y advertencia, Harris advirtió: “Estamos generando las condiciones para una catástrofe”. Tanto él como Steven Bartlett coincidieron en la importancia de la claridad y la movilización pública para garantizar que el desarrollo de la inteligencia artificial preserve la dignidad y el bienestar humano.
Últimas Noticias
Si observas el mensaje “Esta versión de la app ya no es compatible” en Netflix, así puedes solucionarlo
Mensajes de error como R26-5 o R26-6 alertan sobre la necesidad de actualizar la app y el sistema operativo; usuarios deben verificar el soporte de sus dispositivos para evitar perder el acceso a la plataforma
Estos son los juegos que dejarán de estar disponible en el Game Pass de Xbox desde el 15 diciembre de 2025
La suscripción sumará nuevos títulos tras la salida de entregas icónicas, ofreciendo descuentos especiales para jugadores que deseen conservarlos en sus bibliotecas digitales

Conoce la nueva herramienta que puede detectar deepfakes y evitar los fraudes digitales
Varios países registran un crecimiento acelerado de fraudes digitales impulsados por el uso de IA generativa y deepfakes

Spotify Wrapped 2025: cómo tener el resumen de tus cantantes y podcast preferidos
La experiencia solo se habilita para quienes hayan escuchado mínimo 30 canciones por más de 30 segundos y a cinco artistas diferentes

WhatsApp permitirá a nuevos miembros ver mensajes previos en grupos: así funcionará la nueva función de historial
La opción, actualmente en desarrollo, gestiona el envío seguro de mensajes hasta un límite de 1.000, asegurando contexto para incorporaciones sin comprometer la privacidad



