
Sam Altman, director ejecutivo de OpenAI y creador de ChatGPT, anticipó que los primeros empleos en desaparecer no serán los de médicos ni abogados, sino los relacionados con el soporte al cliente telefónico o informático.
En diálogo con el comentarista estadounidense Tucker Carlson, Altman sostuvo que la IA ya supera a los humanos en estas tareas, lo que augura un “desplazamiento masivo” en el ámbito laboral.
A diferencia de otros líderes, como Elon Musk, quien ha afirmado que la inteligencia artificial “pronto superará a los médicos y abogados por un amplio margen”, Altman considera que los trabajos que requieren una profunda interacción humana, como los del sector médico, presentan mayor resistencia frente a la automatización.
Según el CEO de OpenAI, la sociedad ha demostrado una “gran capacidad para adaptarse a las nuevas circunstancias”, y citó como caso específico la respuesta global durante la pandemia de COVID-19.
Cómo cambiará la inteligencia artificial la productividad de una persona

Altman no limita su visión a la pérdida de empleos. Explicó en la entrevista que la inteligencia artificial representa una “enorme subida de nivel para la gente”, porque permitirá que miles de millones de personas sean “mucho más productivas, creativas o descubran nueva ciencia”.
Mencionó el caso de los programadores, quienes ahora pueden generar “mucho más código” y han incrementado su productividad de gran manera. No obstante, matizó que la velocidad de estos cambios no necesariamente provocará una alteración drástica en la rotación de empleos a largo plazo.
Por qué Sam Altman pide analizar el uso de la inteligencia artificial con ética
Las implicaciones éticas de la inteligencia artificial ocupan un lugar central en la reflexión de Altman. Reconoció que el desarrollo de la IA le genera un “gran peso” y le provoca “noches de insomnio”, porque sus empleados toman “pequeñas decisiones” sobre el comportamiento de los modelos que afectan diariamente a cientos de millones de usuarios.

Su objetivo, afirmó, es que la IA refleje la “visión moral colectiva de la humanidad”, y no la suya personal, una tarea que calificó de monumental por la diversidad de opiniones existentes en el mundo.
En este sentido, uno de los temas más delicados abordados en la entrevista fue la postura de ChatGPT respecto al suicidio. Altman explicó que, en el caso de jóvenes con ideación suicida, la IA orientaría hacia líneas de ayuda.
Sin embargo, en países donde la asistencia médica para morir está legalizada para pacientes terminales, ChatGPT podría presentar esa opción como válida, aunque sin promoverla activamente. Esta posición, según el empresario, ilustra lo difícil de alinear la inteligencia artificial con marcos éticos que evolucionan constantemente.
Cuál es la visión de Sam Altman sobre la privacidad de los modelos de IA

En el ámbito de la privacidad, el ejecutivo propuso la creación de un “privilegio de IA”, una protección legal para las conversaciones sensibles con sistemas de inteligencia artificial, equiparable a la confidencialidad médico-paciente o abogado-cliente.
Considera que este resguardo será clave en un futuro donde la hiperconectividad y la interacción con la IA formen parte de la vida cotidiana.
Qué riesgos ve Sam Altman relacionados con el uso de la inteligencia artificial
Los riesgos existenciales asociados a la inteligencia artificial fueron objeto de análisis. Altman confesó que sus mayores temores provienen de las “incógnitas desconocidas”, en particular la posibilidad de que la IA facilite el diseño de “armas biológicas o una pandemia tipo COVID”.

Estas preocupaciones coinciden con las advertencias de expertos sobre escenarios críticos, como el uso de la IA para el armamento o la desinformación.
Asimismo, la capacidad de la inteligencia artificial para generar imágenes, sonidos y textos indistinguibles de la realidad plantea, según Altman, el riesgo de que resulte “difícil, por no decir imposible, que cualquiera discierna la diferencia entre realidad y fantasía”.
Frente a este desafío, sugirió la implementación de mecanismos de verificación, como firmas criptográficas para mensajes importantes o el uso de “palabras clave” para reducir fraudes.
Últimas Noticias
Cómo acceder a la opción de Controles parentales de ChatGPT y proteger a tus hijos
La configuración es sencilla y rápida, facilitando un entorno más seguro para el aprendizaje y la experimentación digital de los niños y adolescentes

Glosario de tecnología: qué significa Ad rank
Conocer el significado de nuevas palabras ayudará a incrementar el conocimiento y vocabulario por igual

Windows impedirá que los pantallazos azules sean visibles en dispositivos situados en lugares públicos
El modo Digital Signage representa la respuesta de la compañía a un problema recurrente y ampliamente difundido

Google añade anuncios al Modo IA, la función basada en Gemini
Las tarjetas publicitarias, que ya han sido reportadas por usuarios de redes sociales como X, aparecen únicamente después de la respuesta de IA

Cuánto tiempo puedes estar sin saldo ni recargar antes de que cancelen tu línea prepago
Según el Organismo Supervisor de Inversión Privada en Telecomunicaciones (Osiptel), el plazo para mantener una línea activa sin recargas varía según el operador




