El debate sobre el impacto de la inteligencia artificial en el empleo ha cobrado una nueva dimensión tras las recientes declaraciones de Sam Altman, CEO de OpenAI y creador de ChatGPT, quien advirtió que los primeros puestos de trabajo en desaparecer serán aquellos vinculados al soporte al cliente telefónico o informático.
En una entrevista con el comentarista estadounidense Tucker Carlson, Altman sostuvo que la IA ya es capaz de desempeñarse “mejor” que los humanos en estas funciones, anticipando un “desplazamiento masivo” en el mercado laboral.
Cuál es la visión de Sam Altman sobre cómo la IA cambiará el mercado laboral
La perspectiva de Altman sobre la transformación del trabajo no se limita a un escenario de pérdida de empleos. Según explicó, la inteligencia artificial representa una “enorme subida de nivel para la gente”, porque permitirá que miles de millones de personas sean “mucho más productivas, creativas o descubran nueva ciencia”.

Como caso específico, mencionó el de los programadores, cuya labor ha cambiado radicalmente: ahora pueden generar “mucho más código” y han incrementado su productividad de manera notable.
No obstante, Altman matizó que la velocidad del cambio no necesariamente implicará una alteración drástica en la rotación de empleos a largo plazo. Habló de un “equilibrio puntuado”, sugiriendo que la tasa de reemplazo laboral podría no diferir “dramáticamente” de la histórica.
En contraste, los trabajos que requieren una profunda conexión humana, como los del sector médico, muestran mayor resistencia frente a la automatización. El CEO de OpenAI subrayó la “gran capacidad para adaptarse a las nuevas circunstancias” que ha demostrado la sociedad, citando la respuesta global durante la pandemia de COVID-19.
Por qué el ámbito ético no puede estar alejado del avance de la IA
Las implicaciones éticas de la inteligencia artificial ocupan un lugar central en la reflexión de Altman. Reconoció ante Tucker Carlson que el desarrollo de la IA le genera un “gran peso” y le provoca “noches de insomnio”, porque su grupo toma “pequeñas decisiones” sobre el comportamiento de los modelos que afectan diariamente a cientos de millones de usuarios.
Su objetivo, afirmó, es que la IA refleje la “visión moral colectiva de la humanidad”, y no la suya personal, una tarea que calificó de monumental por la diversidad de opiniones existentes en el mundo.
Además, uno de los temas más delicados abordados en la entrevista fue la postura de ChatGPT respecto al suicidio. Altman explicó que, en el caso de jóvenes con ideación suicida, la IA orientaría hacia líneas de ayuda.

Sin embargo, en países donde la asistencia médica para morir está legalizada para pacientes terminales, ChatGPT podría presentar esa opción como válida, aunque sin promoverla activamente. Esta posición, según el CEO de OpenAI, ilustra la dificultad de alinear la inteligencia artificial con marcos éticos que evolucionan constantemente.
Qué relación hay entre la privacidad y los sistemas de inteligencia artificial
En materia de privacidad, Altman propuso la creación de un “privilegio de IA”, una protección legal para las conversaciones sensibles con sistemas de inteligencia artificial, equiparable a la confidencialidad médico-paciente o abogado-cliente.
Considera que este resguardo será fundamental en un futuro donde la hiperconectividad y la interacción con la IA sean cotidianas.
Cuáles riesgos señaló Sam Altman alrededor del uso de la inteligencia artificial

Los riesgos existenciales asociados a la inteligencia artificial fueron objeto de análisis. Altman confesó que sus mayores temores provienen de las “incógnitas desconocidas”, en particular la posibilidad de que la IA facilite el diseño de “armas biológicas o una pandemia tipo COVID”.
Estas preocupaciones coinciden con las advertencias de expertos sobre escenarios críticos, como el uso de la IA para el armamento o la desinformación.
Asimismo, la capacidad de la inteligencia artificial para generar imágenes, sonidos y textos indistinguibles de la realidad plantea, según Altman, el riesgo de que resulte “difícil, por no decir imposible, que cualquiera discierna la diferencia entre realidad y fantasía”.
Ante este desafío, sugirió la implementación de mecanismos de verificación, como firmas criptográficas para mensajes importantes o el uso de “palabras clave” para evitar estafas.
Últimas Noticias
Apple equipa sus AirPods con traducción en vivo en cinco idiomas
La traducción puede realizarse sin conexión a internet previa descarga de los idiomas, y se anuncian más lenguas para finales de año

Cómo saber cuando mi celular Xiaomi o tablet dejarán de funcionar
Aunque la mayoría de los fabricantes suelen ser reservados respecto a los plazos de caducidad, Xiaomi ofrece un mecanismo transparente para averiguarlo

Cómo usar la inteligencia artificial para estudiar y trabajar desde mi PC, según expertos de AMD
Ambos expertos coincidieron en que el verdadero potencial de la IA se aprovecha al máximo con hardware potente

Google crea AlphaEarth para explorar cada rincón del planeta: en qué se diferencia con Google Maps
El nuevo modelo de inteligencia artificial, calificado por la compañía como “el primero de su clase”, busca reducir esta brecha tecnológica y facilitar el acceso a información ambiental precisa y accionable

Modo Avengers en WhatsApp: esta es la forma más fácil y rápida de activarlo
Los usuarios pueden generar imágenes con ayuda de Meta AI, así como interactuar con sus superhéroes favoritos de Marvel con los chatbots de inteligencia artificial
