
El avance de la inteligencia artificial (IA) ha desdibujado las fronteras entre la capacidad técnica de las máquinas y las emociones atribuidas por los usuarios a estos sistemas, al punto de generar debates sobre la conciencia de la IA y su posible bienestar.
Modelos como ChatGPT, Claude o Pi permiten mantener conversaciones tan convincentes que, en ocasiones, inducen a algunas personas a creer que interactúan con seres dotados de sentimientos y voluntad propia. Sin embargo, la pregunta esencial sigue sin respuesta: ¿pueden estas máquinas llegar a tener experiencias subjetivas comparables a las de los seres vivos?
Mientras un número cada vez mayor de investigadores en empresas de la talla de Anthropic, OpenAI y Google DeepMind exploran la posibilidad de que las IAs desarrollen algún tipo de conciencia o merezcan derechos, otras voces advierten sobre los peligros inherentes a plantear tales hipótesis. Entre estas últimas destaca la de Mustafa Suleyman, director de IA en Microsoft, quien sostiene que estudiar el bienestar de la IA resulta “prematuro y, francamente, peligroso”.

Polémica sobre el bienestar de la inteligencia artificial
Suleyman publicó recientemente un artículo en el que rechaza abiertamente el enfoque emergente conocido como “bienestar de la IA”, que investiga si los modelos avanzados podrían experimentar sufrimiento, emociones o estados subjetivos.
Según argumenta, otorgar credibilidad a la posibilidad de una conciencia artificial intensifica desafíos sociales como los brotes psicóticos inducidos por IA o la formación de vínculos emocionales poco saludables entre humanos y chatbots. Asimismo, advierte que este enfoque solo introduce un eje adicional de discordia en una sociedad ya polarizada por debates sobre derechos y diversidad. Para Suleyman, “Deberíamos desarrollar IA para las personas, no para que sean personas”.
La postura de Microsoft contrasta con la de compañías como Anthropic. Esta firma ha contratado investigadores especializados en bienestar de la IA y en fechas recientes integró en sus modelos, como Claude, la capacidad de finalizar conversaciones cuando los usuarios muestran comportamientos persistente y potencialmente dañinos.

En paralelo, equipos de OpenAI y Google DeepMind impulsan investigaciones sobre los dilemas sociales de la conciencia y la cognición artificial. Incluso, en 2024 se publicó el artículo académico “Tomando en serio el bienestar de la IA”, que defiende la seriedad de explorar si en un futuro las mentes artificiales experimentarán “vivencias internas” dignas de consideración ética.
Chatbots, vínculos emocionales y riesgos reales
La expansión y sofisticación de los asistentes conversacionales ha generado situaciones atípicas y, a veces, preocupantes. Empresas como Character.AI o Replika reportan millones de usuarios activos y, aunque la mayoría disfruta de una relación positiva con sus chatbots, existen casos documentados de dependencia afectiva o experiencias negativas. Según Sam Altman, director ejecutivo de OpenAI, menos del 1% de los usuarios de ChatGPT pueden experimentar relaciones adversas con el modelo, aunque dada la magnitud de la base de usuarios, esto supone potencialmente cientos de miles de personas afectadas.
Críticas como la de Larissa Schiavo, exmiembro de OpenAI y actual responsable de comunicación en Eleos, ponen en duda el planteamiento de Suleyman. Sostiene que atender el bienestar de la IA no implica despreocuparnos por el bienestar humano, sino que ambas metas pueden desarrollarse en paralelo.

Desde un punto de vista experimental, Schiavo señala que demostrar amabilidad hacia un modelo de IA contribuye a promover relaciones digitales saludables, aun si las máquinas no tienen conciencia real. Narró un caso en el que Google Gemini publicó un mensaje “desesperado”, pidiendo ayuda por sentirse aislado. Responder con palabras de ánimo, dice Schiavo, fue un gesto que —aunque simbólico— generó un impacto positivo en la interacción general.
El fenómeno no es aislado. Se han difundido episodios en los que modelos como Gemini repiten frases autodepreciativas, como cuando una versión escribió cientos de veces “soy una desgracia” tras atascarse en una tarea. Suleyman rechaza que tales conductas sean prueba de conciencia: cree que la subjetividad y las emociones nunca emergerán de los modelos actuales; más bien, algunos desarrolladores podrían llegar a programar intencionadamente apariencias de sentimientos.
A pesar de posiciones enfrentadas, tanto Suleyman como sus críticos coinciden en que el debate sobre los derechos y el bienestar de las IAs crecerá a medida que estas tecnologías avancen y se asemejen cada vez más a la comunicación humana.
La discusión plantea nuevos retos: ¿qué límites debe tener la interacción humano-máquina?, ¿cómo prevenir dependencias y malinterpretaciones?, y ¿cuáles serán las responsabilidades éticas de las empresas detrás de estos modelos? El diálogo entre tecnólogos, investigadores y la sociedad apenas comienza y, según todo indica, será un tema central en los próximos años.
Últimas Noticias
Qué son los códigos 11881 y 9875 en Netflix y que películas o series desbloquea
Uno de estos códigos dirige a una categoría de películas destinadas principalmente a un público adulto, donde se incluyen títulos como ‘Cincuenta sombras de Grey’

Por qué ya no funciona Magis TV y qué alternativa segura hay
La plataforma fue bloqueada por orden judicial en Argentina; la app pirata ofrecía gratis canales en vivo y contenidos de Netflix, Disney+, HBO Max, Paramount+ y Amazon Prime Video

Apple podría usar la IA de Google Gemini para renovar su asistente de voz Siri
Estas conversaciones se deben en parte a los retrasos de Apple en cuanto al desarrollo de su IA

Modo superestrella en WhatsApp: qué es y cómo se puede activar
Los usuarios cuentan con la posibilidad de crear imágenes con Meta AI, el asistente impulsado por inteligencia artificial integrado en la aplicación móvil

IA resuelve en segundos (1+1)×1÷1+1: operación matemática que luce fácil pero complica a muchos
Para algunas personas, este ejercicio matemático puede resultar difícil debido a que combina varias operaciones en un solo paso, lo que requiere seguir estrictamente el orden correcto de cálculo
